Etyka AI i prawo AI wyjaśniające, co w rzeczywistości jest godne zaufania AI

Zaufanie jest wszystkim, tak mówią.

Znany filozof Lao Tzu powiedział, że ci, którzy nie ufają wystarczająco, nie będą ufani. Ernest Hemingway, ceniony powieściopisarz, stwierdził, że najlepszym sposobem sprawdzenia, czy można komuś zaufać, jest zaufanie mu.

Tymczasem wydaje się, że zaufanie jest zarówno cenne, jak i kruche. Zaufanie, które się ma, może zawalić się jak domek z kart lub nagle pęknąć jak pęknięty balon.

Starożytny grecki tragik Sofokles twierdził, że zaufanie umiera, ale nieufność rozkwita. Francuski filozof i matematyk Kartezjusz twierdził, że roztropnie jest nigdy nie ufać całkowicie tym, którzy choć raz nas oszukali. Wybitny miliarder, inwestor biznesowy Warren Buffett, napominał, że zbudowanie godnej zaufania reputacji zajmuje dwadzieścia lat, a pięć minut, aby ją zrujnować.

Możesz być zaskoczony, wiedząc, że wszystkie te różne poglądy i prowokacyjne opinie na temat zaufania mają kluczowe znaczenie dla pojawienia się sztucznej inteligencji (AI).

Tak, jest coś, co jest często określane jako godna zaufania sztuczna inteligencja które w dzisiejszych czasach przyciągają dużo uwagi, w tym załamujące ręce wołania z pola AI, a także hałaśliwe wybuchy osób spoza sfery AI. Ogólne pojęcie dotyczy tego, czy społeczeństwo będzie skłonne zaufać takim systemom, jak sztuczna inteligencja.

Przypuszczalnie, jeśli społeczeństwo nie będzie lub nie może ufać sztucznej inteligencji, istnieje prawdopodobieństwo, że systemy sztucznej inteligencji nie będą w stanie się utrzymać. Sztuczna inteligencja, jaką znamy, zostanie odsunięta na bok i po prostu zbierze kurz. Szokująco, sztuczna inteligencja może wylądować na stosie śmieci, historycznie zdegradowanym do jedynie desperacko wypróbowanego, ale spektakularnie nieudanego eksperymentu high-tech. Wszelkie wysiłki mające na celu ożywienie sztucznej inteligencji mogłyby potencjalnie stanąć w obliczu ogromnej bitwy pod górę i zostać zatrzymane przez wszelkiego rodzaju sprzeciwy i jawne protesty. Pozornie z powodu braku zaufania do AI.

Co to będzie, czy mamy ufać sztucznej inteligencji, czy nie mamy jej ufać?

W gruncie rzeczy, czy naprawdę będziemy mieć godną zaufania sztuczną inteligencję?

To są dawne i nierozwiązane pytania. Rozpakujmy to.

Etyka AI i walka o godną zaufania sztuczną inteligencję

Wielu ludzi ze sztucznej inteligencji wierzy, że twórcy systemów sztucznej inteligencji mogą zdobyć zaufanie do sztucznej inteligencji poprzez odpowiednie opracowanie sztucznej inteligencji, która jest godna zaufania. Istotą jest to, że nie możesz liczyć na zaufanie, jeśli sztuczna inteligencja nie wydaje się godna zaufania od samego początku. Tworząc systemy sztucznej inteligencji w sposób, który jest postrzegany jako godny zaufania, istnieje duża szansa, że ​​ludzie zaakceptują sztuczną inteligencję i przyjmą jej zastosowania.

Jednym żalem, który już dręczy tę godną zaufania uwagę dotyczącą sztucznej inteligencji, jest to, że możemy już być w deficyt zaufania publicznego jeśli chodzi o sztuczną inteligencję. Można powiedzieć, że sztuczna inteligencja, którą już widzieliśmy, wykopała dziurę i podrzucała zaufanie w ogromnych ilościach. Dlatego zamiast zaczynać od wystarczającej bazy wiarygodności, sztuczna inteligencja będzie musiała w zdumiewający sposób wyjść z deficytu, wygrzebując każdą pożądaną uncję dodatkowego zaufania, która będzie potrzebna, aby przekonać ludzi, że sztuczna inteligencja jest w rzeczywistości godna zaufania.

W tym wyzwaniu pojawia się etyka AI i prawo AI.

AI Ethics i AI Law walczą potężnie, próbując dowiedzieć się, co trzeba zrobić, aby sztuczna inteligencja stała się godna zaufania. Niektórzy sugerują, że istnieje formuła lub żelazne prawa, które przeniosą sztuczną inteligencję do godnych zaufania niebios. Inni wskazują, że zdobycie osławionego zaufania społeczeństwa będzie wymagało ciężkiej pracy oraz konsekwentnego i bezwzględnego przestrzegania zasad etyki AI i prawa AI.

Współczesna zagadka zaufania do sztucznej inteligencji nie jest jako taka nowa.

Możesz łatwo cofnąć się do późnych lat 1990. i prześledzić pojawienie się pożądanego pragnienia „zaufanego komputera” z tamtych czasów. Był to zakrojony na szeroką skalę wysiłek przemysłu technologicznego mający na celu ustalenie, czy wszystkie komputery mogą być wykonane w sposób, który zostałby uznany przez społeczeństwo za godny zaufania.

Kluczowe pytania obejmowały:

  • Czy sprzęt komputerowy można zrobić tak, aby był godny zaufania?
  • Czy można stworzyć oprogramowanie, które byłoby godne zaufania?
  • Czy moglibyśmy wprowadzić globalne komputery sieciowe, które byłyby godne zaufania?
  • I tak dalej.

Dominującym wówczas odczuciem, które trwa do dziś, jest to, że godna zaufania informatyka pozostaje rodzajem świętego Graala, który niestety wciąż nie jest w naszym zasięgu (jak zauważono w artykule zatytułowanym „Wiarygodna sztuczna inteligencja” w Komunikacja z ACM). Można przekonująco argumentować, że sztuczna inteligencja jest kolejnym elementem budowania wiarygodności obliczeniowej, ale sztuczna inteligencja sprawia, że ​​dążenie do zaufania jest jeszcze trudniejsze i niepewne. Sztuczna inteligencja stała się potencjalnym spoilerem w walce o wiarygodność obliczeniową. Prawdopodobnie najsłabsze ogniwo w łańcuchu.

Rzućmy okiem na to, dlaczego sztuczna inteligencja sprawiła, że ​​jesteśmy mniej niż godni zaufania. Ponadto przyjrzymy się założeniom etyki sztucznej inteligencji, które, jak mamy nadzieję, pomogą wesprzeć i tak już na wpół podwodne zaufanie (lub bulgoczącą nieufność) dzisiejszej sztucznej inteligencji. Aby zapoznać się z moim stałym i obszernym omówieniem etyki AI, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Powiążmy to z pytaniem o godną zaufania sztuczną inteligencję

Z pewnością nie wydajemy się skłonni zaufać sztucznej inteligencji, która pokazuje niekorzystne uprzedzenia i dyskryminujące działania. W takim przypadku wierzymy, że taka sztuczna inteligencja zdecydowanie nie jest godna zaufania, dlatego skłanialibyśmy się ku aktywnej nieufności do sztucznej inteligencji. Bez przesady w porównaniu z antropomorficznymi porównaniami (za chwilę powiem więcej o antropomorfizacji AI), człowiek, który wykazywałby niepożądane uprzedzenia, również zostałby oceniony jako niezbyt godny zaufania.

Kopanie w zaufanie i wiarygodność

Może powinniśmy przyjrzeć się, co mamy na myśli, twierdząc, że komuś lub czemuś nie ufamy lub nie ufamy. Najpierw rozważ kilka codziennych słownikowych definicji zaufania.

Przykłady tego, co z definicji oznacza zaufanie, to:

  • Zapewnione poleganie na charakterze, zdolnościach, sile lub prawdzie kogoś lub czegoś (Słownik internetowy Merriam-Webster).
  • Poleganie na integralności, sile, zdolnościach, poręczeniach itp. osoby lub rzeczy (Dictionary.com)
  • Mocna wiara w wiarygodność, prawdę, zdolności lub siłę kogoś lub czegoś (Słownik online Oxford Languages).

Chciałbym zaznaczyć, że wszystkie te definicje odnoszą się do „kogoś” i podobnie odnoszą się do „czegoś” jako potencjalnie godnego zaufania. Jest to godne uwagi, ponieważ niektórzy mogą upierać się, że ufamy tylko ludziom i że akt zaufania jest zarezerwowany wyłącznie dla ludzkości jako naszego obiektu godnego zaufania. Bynajmniej. Możesz zaufać swojemu tosterowi kuchennemu. Jeśli wydaje się, że niezawodnie robi tosty i rutynowo to robi, z pewnością możesz mieć pozory zaufania co do tego, czy toster jest rzeczywiście godny zaufania.

W tym samym toku myślenia sztuczna inteligencja może być również przedmiotem naszego punktu widzenia zaufania. Szanse są takie, że zaufanie związane ze sztuczną inteligencją będzie o wiele bardziej skomplikowane niż powiedzmy przyziemny toster. Toster może zwykle wykonać tylko kilka czynności. System sztucznej inteligencji jest prawdopodobnie znacznie bardziej złożony i wydaje się działać mniej przejrzyście. Nasza zdolność do oceny i potwierdzenia wiarygodności sztucznej inteligencji będzie o wiele trudniejsza i niesie za sobą różne wyzwania.

Oprócz tego, że jest po prostu bardziej złożony, typowy system sztucznej inteligencji jest uważany za niedeterministyczny i potencjalnie samoregulujący lub samoregulujący. Możemy krótko zbadać to pojęcie.

Deterministyczna maszyna ma tendencję do robienia w kółko tych samych rzeczy, w sposób przewidywalny i z wyraźnie dostrzegalnym wzorcem działania. Można powiedzieć, że zwykły toster opieka się mniej więcej w ten sam sposób i ma elementy sterujące, które moderują opiekanie, a wszystkie z nich są zazwyczaj przewidywalne przez osobę korzystającą z tostera. Z drugiej strony, złożone systemy sztucznej inteligencji są często projektowane jako niedeterministyczne, co oznacza, że ​​mogą robić zupełnie inne rzeczy, niż można by się spodziewać. Może to również zostać częściowo wzmocnione, jeśli sztuczna inteligencja jest napisana tak, aby sama się dopasowywała, co może korzystnie pozwolić AI na poprawę w przypadku ML/DL, choć może również niepokojąco spowodować, że sztuczna inteligencja załamie się lub wejdzie w szeregi zła AI. Możesz nie wiedzieć, co cię uderzyło, w pewnym sensie, ponieważ zostałeś całkowicie zaskoczony przez działania sztucznej inteligencji.

Co możemy zrobić, aby zbliżyć sztuczną inteligencję do wiarygodności?

Jedno podejście polega na próbie upewnienia się, że ci, którzy budują i rozwijają sztuczną inteligencję, przestrzegają zestawu zasad etyki sztucznej inteligencji. Jak wspomnieli ci badacze AI: „Zaufanie to postawa, zgodnie z którą agent będzie zachowywał się zgodnie z oczekiwaniami i można na nim polegać, aby osiągnąć swój cel. Zaufanie załamuje się po błędzie lub nieporozumieniu między agentem a osobą ufającą. Psychologiczny stan zaufania do sztucznej inteligencji jest wyłaniającą się właściwością złożonego systemu, zwykle obejmującego wiele cykli projektowania, szkolenia, wdrażania, pomiaru wydajności, regulacji, przeprojektowania i przekwalifikowania” (wskazane w Komunikacja z ACM, „Trust, Regulation i Human-in-the-Loop AI Within the European Region”, Stuart Middleton, Emmanuel Letouze, Ali Hossaini i Adriane Chapman, kwiecień 2022).

Istota polega na tym, że jeśli uda nam się zmusić programistów AI do przestrzegania etycznej sztucznej inteligencji, miejmy nadzieję, że w końcu wyprodukują godną zaufania sztuczną inteligencję. To wszystko dobrze i dobrze, ale wydaje się nieco niepraktyczne w realnym świecie, chociaż jest to absolutnie droga, którą warto podążać.

Oto co mam na myśli.

Załóżmy, że twórcy sztucznej inteligencji podejmują staranny wysiłek, tworząc system sztucznej inteligencji w jakimś celu, który zwykle nazywamy X. Starannie upewniają się, że sztuczna inteligencja przestrzega zasad przejrzystości etyki sztucznej inteligencji. Pilnie zapewniają, że prywatność jest odpowiednio wbudowana w sztuczną inteligencję. W przypadku prawie wszystkich zwykłych zasad etyki AI twórcy AI wyczerpująco zapewniają, że sztuczna inteligencja spełnia podane przykazanie.

Czy powinieneś teraz zaufać tej sztucznej inteligencji?

Pozwól, że pomogę ci przeanalizować twoje przemyślenia na temat tego otwartego pytania.

Okazuje się, że cyberprzestępcy zdołali zinfiltrować sztuczną inteligencję i podstępnie zmusić sztuczną inteligencję do wykonywania X, a jednocześnie karmić cyberhakerów wszystkimi danymi, które zbiera sztuczna inteligencja. W ten sposób ci złoczyńcy podstępnie podważają zasadę prywatności. Jesteś w błogiej nieświadomości, że dzieje się to pod maską sztucznej inteligencji.

Z tą dodaną informacją zadam ci ponownie to samo pytanie.

Czy ufasz tej sztucznej inteligencji?

Śmiem twierdzić, że większość ludzi od razu zadeklarowałaby, że z pewnością tak nie zaufaj tej konkretnej sztucznej inteligencji. Być może wcześniej mu zaufali. Teraz decydują się nie uważać już sztucznej inteligencji za godną zaufania.

Kilka kluczowych spostrzeżeń opartych na tym prostym przykładzie jest wartych rozważenia:

  • Dynamika zaufania. Nawet najlepsze intencje obejmujące wszystkie podstawy zapewnienia, że ​​etyka AI jest wbudowana w system AI, nie gwarantują tego, czym AI może się okazać lub stać się. Gdy sztuczna inteligencja zostanie wprowadzona do użytku, osoby z zewnątrz mogą potencjalnie podważyć nagromadzenie etycznej sztucznej inteligencji.
  • Podcinanie zaufania od wewnątrz. Akt podważania wiarygodności niekoniecznie musi dotyczyć osób z zewnątrz. Insider, który regularnie dba o system sztucznej inteligencji, może popełnić błąd i osłabić sztuczną inteligencję, aby była mniej godna zaufania. Ten twórca sztucznej inteligencji może nie mieć pojęcia o tym, co zrobili.
  • Nieumyślne kompromisy zaufania. Samodostosowująca się lub samoregulująca sztuczna inteligencja może w pewnym momencie dostosować się i skręcić na terytorium niewiarygodne. Być może sztuczna inteligencja próbuje zwiększyć przejrzystość sztucznej inteligencji, a jednocześnie niewłaściwie narusza aspekty prywatności.
  • Rozproszenie zaufania. Próba osiągnięcia wszystkich założeń etyki AI do tego samego najwyższego stopnia wiarygodności zwykle nie jest łatwo wykonalna, ponieważ często są one sprzeczne lub mają inne nieodłączne potencjalne konflikty. Jest to raczej wyidealizowana perspektywa, aby wierzyć, że wszystkie wskazania dotyczące etycznej sztucznej inteligencji są zestrojone w sen i wszystkie są osiągalne w pewnym jednakowym możliwym do maksymalizacji stopniu.
  • Osiągnięcie zaufania może być kosztowne. Koszt próby osiągnięcia najwyższej klasy pozorów godnej zaufania sztucznej inteligencji poprzez podjęcie różnych obszernych i wyczerpujących kroków oraz przestrzeganie litanii zasad etyki sztucznej inteligencji będzie stosunkowo wysoki. Można łatwo argumentować, że koszt byłby wygórowany, jeśli chodzi o wykorzystanie niektórych systemów AI, które w przeciwnym razie mają ważną wartość dla społeczeństwa, nawet jeśli sztuczna inteligencja byłaby, powiedzmy, mniej niż idealna z pragnienia wiarygodności.
  • I tak dalej.

Nie należy błędnie interpretować powyższych uwag, aby zasugerować, że powinniśmy jakoś uniknąć wysiłków zmierzających do dokładnego zbudowania i wykorzystania godnej zaufania sztucznej inteligencji. Niejako doraźnie wyrzuciłbyś dziecko z kąpielą. Właściwa interpretacja jest taka, że ​​musimy wykonać te oparte na zaufaniu czynności, aby sztuczna inteligencja stała się godnym zaufania rozważeniem, a jednak samo to nie jest lekarstwem na wszystko ani srebrną kulą.

Wielotorowe ścieżki do godnej zaufania sztucznej inteligencji

Istnieją ważne dodatkowe wielokierunkowe sposoby dążenia do godnej zaufania sztucznej inteligencji.

Na przykład, jak już wcześniej opisywałem w moich kolumnach, mnóstwo nowo pojawiających się przepisów i regulacji dotyczących sztucznej inteligencji ma na celu skłonienie twórców sztucznej inteligencji do opracowania godnej zaufania sztucznej inteligencji, zobacz link tutaj i link tutaj.

Te prawne bariery mają kluczowe znaczenie jako nadrzędny środek zapewniający, że ci, którzy opracowują sztuczną inteligencję, są w pełni odpowiedzialni za swoją sztuczną inteligencję. Bez takich potencjalnych środków prawnych i zgodnych z prawem kar, ci, którzy nieuchronnie wprowadzają sztuczną inteligencję na rynek, prawdopodobnie nadal będą to robić, nie mając żadnego poważnego względu na osiągnięcie godnej zaufania sztucznej inteligencji. Mogę w szczególności dodać, że jeśli te przepisy i regulacje są słabo opracowane lub niewłaściwie wdrożone, mogą niestety osłabić dążenie do godnej zaufania sztucznej inteligencji, być może ironicznie i dziwnie promując niewiarygodną sztuczną inteligencję nad godną zaufania sztuczną inteligencją (dalsze wyjaśnienia znajdują się w moich dyskusjach felietonowych).

Byłem również zagorzałym orędownikiem tego, co żarliwie nazywam Boty anioła stróża AI (zobacz moje relacje na link tutaj). Jest to nadchodząca metoda lub podejście polegające na próbie zwalczania ognia ogniem, a mianowicie wykorzystanie sztucznej inteligencji do pomocy w radzeniu sobie z inną sztuczną inteligencją, która może być godna zaufania lub nie.

Po pierwsze, przydatny będzie kontekst tła.

Załóżmy, że decydujesz się polegać na systemie AI, którego nie masz pewności co do jego wiarygodności. Kluczowym problemem może być to, że jesteś sam w swoich próbach wytropienia, czy AI można ufać, czy nie. Sztuczna inteligencja jest potencjalnie szybsza obliczeniowo od Ciebie i może Cię wykorzystać. Potrzebujesz kogoś lub czegoś po swojej stronie, aby pomóc.

Jedna perspektywa jest taka, że ​​zawsze powinien istnieć człowiek w pętli, który pomoże ci, gdy korzystasz z systemu sztucznej inteligencji. Jest to jednak rozwiązanie problematyczne. Jeśli sztuczna inteligencja działa w czasie rzeczywistym, o czym porozmawiamy za chwilę, jeśli chodzi o pojawienie się samojezdnych samochodów opartych na sztucznej inteligencji, posiadanie człowieka w pętli może nie wystarczyć. Sztuczna inteligencja może działać w czasie rzeczywistym, a do czasu, gdy wyznaczony człowiek w pętli pojawi się na obrazie, aby dowiedzieć się, czy sztuczna inteligencja działa prawidłowo, mógł już nastąpić katastrofalny wynik.

Na marginesie, pojawia się kolejny czynnik zaufania. Zwykle przypisujemy poziom zaufania na podstawie kontekstu lub okoliczności, z którymi mamy do czynienia. Możesz w pełni zaufać swojemu maluchowi synowi lub córce, że będą ci wierni, ale jeśli spacerujesz i zdecydujesz się polegać na tym, że maluch powie ci, czy można bezpiecznie stanąć na krawędzi urwiska, myślę, że byłbyś mądry zastanowić się, czy maluch może udzielić tego rodzaju porady na temat życia lub śmierci. Dziecko może robić to poważnie i szczerze, a mimo to nie być w stanie odpowiednio udzielić takiej rady.

To samo pojęcie wiąże się z zaufaniem, jeśli chodzi o sztuczną inteligencję. System sztucznej inteligencji, którego używasz do gry w warcaby lub szachy, prawdopodobnie nie jest zaangażowany w żadne rozważania na temat życia lub śmierci. Możesz czuć się swobodniej z powierzonym mu zaufaniem. Samojezdny samochód oparty na sztucznej inteligencji, który toczy się po autostradzie z dużą prędkością, wymaga znacznie większego poziomu zaufania. Najmniejszy przeskok systemu sterowania AI może doprowadzić bezpośrednio do twojej śmierci i śmierci innych osób.

W opublikowanym wywiadzie z Beeną Ammanath, dyrektorem wykonawczym Global Deloitte AI Institute i autorką książki Godna zaufania sztuczna inteligencja, Podobny nacisk na rozważenie kontekstowych aspektów, w których pojawia się wiarygodność AI: „Jeśli budujesz rozwiązanie AI, które diagnozuje pacjenta, uczciwość i stronniczość są bardzo ważne. Ale jeśli budujesz algorytm, który przewiduje awarię silnika odrzutowego, uczciwość i stronniczość nie są tak ważne. Godna zaufania sztuczna inteligencja to tak naprawdę struktura, dzięki której możesz zacząć myśleć o wymiarach zaufania w Twojej organizacji” (VentureBeat, 22 marca 2022 r.).

Omawiając godną zaufania sztuczną inteligencję, możesz interpretować ten temat na wiele sposobów.

Na przykład, godna zaufania sztuczna inteligencja jest czymś, co wszyscy postrzegamy jako pożądany i aspirujący cel, a mianowicie, że powinniśmy chcieć opracować i rozpowszechniać godną zaufania sztuczną inteligencję. Jest jeszcze inne zastosowanie tego hasła. Nieco alternatywnym zastosowaniem jest to godna zaufania sztuczna inteligencja jest stanem lub pomiarem, w którym ktoś może twierdzić, że stworzył system sztucznej inteligencji, który jest przykładem godnej zaufania sztucznej inteligencji. Możesz również użyć wyrażenia godna zaufania sztuczna inteligencja zasugerować metodę lub podejście, które można wykorzystać do osiągnięcia wiarygodności AI. Itp.

W związku z tym ufam, że zdajesz sobie sprawę, że nie wszystkie AI są takie same i że musimy uważać, aby nie wygłaszać ogólnych oświadczeń na temat całej sztucznej inteligencji. Poszczególny system SI prawdopodobnie będzie się znacznie różnić od innego systemu SI. Jeden z tych systemów sztucznej inteligencji może być wysoce godny zaufania, podczas gdy drugi może być godny zaufania marginalnie. Bądź ostrożny, zakładając, że sztuczna inteligencja jest monolitem, który jest albo całkowicie godny zaufania, albo całkowicie niegodny zaufania.

Po prostu tak nie jest.

Chciałbym następnie krótko omówić niektóre z moich bieżących badań nad godną zaufania sztuczną inteligencją, które mogą Cię zainteresować, obejmując rosnącą rolę Boty anioła stróża AI.

Oto jak to działa.

Będziesz uzbrojony w system AI (bot anioła stróża AI), który został opracowany w celu oceny wiarygodności innego systemu AI. Bot anioła stróża AI ma na celu przede wszystkim twoje bezpieczeństwo. Pomyśl o tym tak, jakbyś miał środki do monitorowania sztucznej inteligencji, na której polegasz, mając w swojej prawdziwej kieszeni inny system sztucznej inteligencji, być może działający na smartfonie lub innych tego typu urządzeniach. Twój przysłowiowy opiekun AI może obliczyć na podstawie tego, że sztuczna inteligencja, na której polegasz, również działa, pracując z dużą prędkością i obliczając sytuację w czasie rzeczywistym, znacznie szybciej niż człowiek w pętli.

Na pierwszy rzut oka możesz pomyśleć, że sztuczna inteligencja, na której już polegasz, powinna mieć trochę wewnętrzny Poręcze AI, które robią to samo, co ten oddzielnie obliczający bot anioła stróża AI. Tak, to z pewnością byłoby pożądane. Jedynym problemem jest to, że bariery ochronne AI wbudowane w system AI mogą być integralnie i szkodliwie dopasowane do AI per se, w ten sposób domniemana bariera ochronna AI nie jest już w stanie w pewnym sensie niezależnie weryfikować lub potwierdzać AI.

Kontrastujący pomysł polega na tym, że twój bot anioła stróża AI jest niezależnym lub zewnętrznym mechanizmem sztucznej inteligencji, który różni się od sztucznej inteligencji, na której polegasz. Znajduje się poza inną sztuczną inteligencją, pozostając oddany tobie i nie poświęcony sztucznej inteligencji, która jest monitorowana lub oceniana.

Prosty sposób myślenia o tym można wyrazić za pomocą następujących uproszczonych, podobnych do równań stwierdzeń. Możemy powiedzieć, że „P” chce potencjalnie zaufać „R” w wykonaniu określonego zadania „X”:

Byłoby to następujące, gdy zaangażowane są tylko osoby:

  • Osoba P ufa osobie R w wykonaniu zadania X.

Kiedy decydujemy się polegać na sztucznej inteligencji, oświadczenie zmienia się w następujący sposób:

  • Osoba P ufa instancji R AI w wykonaniu zadania X.

Możemy dodać bota anioła stróża AI, mówiąc to:

  • Osoba P ufa instancji AI-R, aby wykonała zadanie X jako monitorowana przez instancję Z bota anioła stróża AI

Bot anioła stróża AI niestrudzenie i niestrudzenie ocenia sztuczną inteligencję, na której polegasz. W związku z tym Twój poręczny opiekun AI może ostrzec Cię, że zaufanie tej drugiej sztucznej inteligencji jest nieuzasadnione. Lub opiekun AI może elektronicznie wchodzić w interakcję z inną sztuczną inteligencją, aby spróbować zapewnić, że wszelkie odstępstwa od bycia godnymi zaufania zostaną szybko skorygowane i tak dalej (zobacz moje relacje na temat takich szczegółów na link tutaj).

Metafora Trusty Trust Reservoir

Ponieważ omawiamy różne poziomy zaufania, możesz znaleźć użyteczną metaforę o wiarygodności poprzez wyobrażenie zaufania jako pewnego rodzaju rezerwuaru.

Masz do pewnego stopnia zaufanie do konkretnej osoby lub rzeczy w określonych okolicznościach w określonym momencie. Poziom zaufania wzrośnie lub spadnie, w zależności od tego, co jeszcze wydarzy się w związku z tą konkretną osobą lub rzeczą. Zaufanie może być na poziomie zerowym, gdy nie masz żadnego zaufania do osoby lub rzeczy. Zaufanie może być negatywne, gdy zaryzykujesz brak zaufania do tej osoby lub rzeczy.

W przypadku systemów sztucznej inteligencji, twój rezerwuar zaufania dla konkretnej sztucznej inteligencji, na której polegasz w określonych okolicznościach, wzrośnie lub spadnie w zależności od oceny wiarygodności sztucznej inteligencji. Czasami możesz być świadomy tego zróżnicowanego poziomu zaufania do sztucznej inteligencji, podczas gdy w innych przypadkach możesz być mniej świadomy, a bardziej przez przeczucie, oceniając wiarygodność.

Sposoby, o których tutaj dyskutowaliśmy, sposoby na zwiększenie poziomu zaufania dla sztucznej inteligencji obejmują:

  • Przestrzeganie etyki AI. Jeśli sztuczna inteligencja, na której polegasz, została opracowana, próbując przestrzegać właściwych zasad etyki sztucznej inteligencji, prawdopodobnie wykorzystasz to zrozumienie, aby zwiększyć poziom twojego rezerwuaru zaufania dla tego konkretnego systemu sztucznej inteligencji. Na marginesie, możliwe jest również, że możesz uogólnić inne systemy sztucznej inteligencji, jeśli chodzi o ich wiarygodność, chociaż może to być czasami myląca forma tego, co nazywam Rozprzestrzeniająca się aura zaufania AI (rób to ostrożnie!).
  • Użyj „człowieka w pętli”. Jeśli sztuczna inteligencja ma człowieka w pętli, możesz pozytywnie zwiększyć swoje postrzegane zaufanie do sztucznej inteligencji.
  • Ustanów prawa i przepisy. Jeśli istnieją przepisy i regulacje związane z tym konkretnym typem sztucznej inteligencji, możesz również zwiększyć swój poziom zaufania.
  • Zatrudnij bota Anioła Stróża AI. Jeśli masz gotowego bota anioła stróża AI, to również podniesie twój poziom zaufania.

Jak wspomniano wcześniej, zaufanie może być dość kruche i rozpadać się w jednej chwili (tj. rezerwuar zaufania szybko i nagle zrzuca całe nagromadzone zaufanie).

Wyobraź sobie, że jesteś w samojezdnym samochodzie opartym na sztucznej inteligencji, który nagle skręca w prawo, powodując pisk kół i prawie zmuszając pojazd autonomiczny do niebezpiecznego przewrócenia. Co by się stało z twoim poziomem zaufania? Wydawałoby się, że nawet gdybyś wcześniej utrzymywał sztuczną inteligencję na wyższym poziomie zaufania, dramatycznie i gwałtownie obniżysz swój poziom zaufania, rozsądnie.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz dodatkowych ilustracyjnych przykładów, które mogłyby pokazać naturę i zakres godnej zaufania sztucznej inteligencji. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, które żywo przedstawiają ten dylemat etycznej sztucznej inteligencji, jest pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na dążenie do godnej zaufania sztucznej inteligencji, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samojezdne samochody i godna zaufania sztuczna inteligencja

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani do głębokiego zanurzenia się w autonomicznych samochodach i godnej zaufania sztucznej inteligencji.

Zaufanie jest wszystkim, szczególnie w przypadku autonomicznych samochodów opartych na sztucznej inteligencji.

Społeczeństwo wydaje się nieufnie przyglądać się pojawieniu się autonomicznych samochodów. Z jednej strony istnieje wielka nadzieja, że ​​pojawienie się prawdziwie autonomicznych samochodów wyraźnie zmniejszy liczbę rocznych wypadków śmiertelnych związanych z samochodami. W samych Stanach Zjednoczonych jest około 40,000 2.5 zgonów rocznie i około XNUMX miliona obrażeń w wyniku wypadków samochodowych, zobacz mój zbiór statystyk na link tutaj. Ludzie piją i jeżdżą. Ludzie jeżdżą w rozproszeniu. Wydaje się, że zadanie prowadzenia samochodu polega na zdolności do ciągłego i bezbłędnego skupienia się na prowadzeniu pojazdu i unikaniu wypadków samochodowych. W związku z tym możemy mieć marzycielską nadzieję, że systemy jazdy AI będą powtarzać i bezbłędnie kierować autonomicznymi samochodami. Samochody autonomiczne można traktować jako dwa, polegające na zmniejszeniu liczby ofiar śmiertelnych i obrażeń w wypadkach samochodowych, a także potencjalnie udostępnianiu mobilności na znacznie szerszym i przystępnym poziomie.

Ale w międzyczasie pojawia się obawa nad społecznym postrzeganiem tego, czy autonomiczne samochody będą wystarczająco bezpieczne, aby poruszać się po naszych publicznych drogach.

Jeśli nawet jeden samojezdny samochód ulegnie wypadkowi lub kolizji, która prowadzi do jednej śmierci lub poważnych obrażeń, prawdopodobnie można się spodziewać, że dzisiejsze nieco budowane zaufanie do tych autonomicznych samochodów opartych na sztucznej inteligencji gwałtownie spadnie. Widzieliśmy to, gdy doszło do niesławnego już incydentu w Arizonie, który dotyczył nieco (niezupełnie) samojezdnego samochodu, który wpadł na pieszego i zabił go (zobacz mój reportaż na Ten link tutaj).

Niektórzy eksperci wskazują, że niesprawiedliwe i niewłaściwe jest opieranie zaufania do autonomicznych samochodów AI na tym, że tylko jedna taka następna śmiertelna kolizja lub kolizja może podważyć i tak już stosunkowo bezwypadkowe testy na drogach publicznych. Ponadto, na dalszych niesprawiedliwych zasadach, szanse są takie, że bez względu na to, która konkretna marka lub model autonomicznego samochodu AI zostanie uwikłana w smutny incydent, społeczeństwo bez wątpienia obwinia wszystkie marki autonomicznych samochodów.

Całość autonomicznych samochodów może zostać natychmiast zamazana, a cała branża może doznać ogromnego luzu prowadzącego do możliwego zamknięcia wszystkich prób na drogach publicznych.

Przyczyną takiego szoku są bezsensowne deklaracje zdeklarowanych zwolenników autonomicznych samochodów, że wszystkie samochody bez kierowcy będą niezniszczalne. Ta idea bycia nie do złamania jest nie tylko całkowicie błędna (patrz link tutaj), podstępnie tworzy przemysł autonomicznych samochodów, aby spełnić całkowicie nieoczekiwany zestaw oczekiwań. Te dziwaczne i nieosiągalne oświadczenia, że ​​nie będzie zgonów z powodu autonomicznych samochodów, podsycają błędne przekonanie, że wszelkie wypadki samochodowe bez kierowcy są pewnym znakiem, że cały zestaw i kaboodle są na nic.

Wyraźnym smutkiem jest uświadomienie sobie, że postęp w kierunku autonomicznych samochodów i stopniowa akumulacja społecznego zaufania może zostać zniweczona w mgnieniu oka. To będzie jedna cholerna wizytówka o kruchości zaufania.

Wnioski

Wielu producentów samochodów i autonomicznych firm technologicznych ogólnie przestrzega zasad etyki sztucznej inteligencji, starając się budować i wdrażać godne zaufania AI w zakresie bezpiecznych i niezawodnych autonomicznych samochodów opartych na sztucznej inteligencji. Proszę zdać sobie sprawę, że niektóre z tych firm są silniejsze i bardziej oddane nakazom etycznej sztucznej inteligencji niż inne. Istnieją również okazjonalne, marginalne lub początkujące, samojeżdżące startupy związane z samochodami, które wydają się odrzucać wiele kamieni węgielnych AI Ethics (zobacz moją recenzję na link tutaj).

Na innych frontach do ksiąg prawnych stopniowo trafiają nowe przepisy ustawowe i wykonawcze dotyczące samochodów autonomicznych. Inną sprawą jest to, czy mają potrzebne zęby, aby je poprzeć, podobnie jak to, czy egzekwowanie tych praw jest traktowane poważnie, czy też pomijane (patrz moje felietony z analizami na ten temat).

Jest w tym również aspekt high-tech. Przewidywałem, że stopniowo zobaczymy warianty botów-aniołów stróżów AI, które wyjdą na pierwszy plan na arenie pojazdów autonomicznych i autonomicznych samochodów. Jeszcze nas tam nie ma. Stanie się to bardziej powszechne, gdy popularność autonomicznych samochodów stanie się bardziej rozpowszechniona.

Ten ostatni punkt przywołuje słynne zdanie o zaufaniu, które niewątpliwie znasz już na pamięć.

Ufaj ale sprawdzaj.

Możemy pozwolić sobie na okazanie naszego zaufania, być może hojnie. Tymczasem powinniśmy również patrzeć jak jastrząb, aby upewnić się, że zaufanie, które wzbudzamy, jest weryfikowane zarówno słowami, jak i czynami. Zaufajmy sztucznej inteligencji, ale bez końca sprawdzajmy, czy pokładamy zaufanie w odpowiedni sposób iz szeroko otwartymi oczami.

Możesz mi w tym zaufać.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/