Etyka AI i poszukiwanie samoświadomości w AI

Czy jesteś świadomy?

Założę się, że w to wierzysz.

Rzecz w tym, że podobno niewielu z nas jest szczególnie świadomych siebie. Istnieje pewien zakres lub stopień samoświadomości i wszyscy rzekomo różnimy się tym, jak bardzo jesteśmy świadomi siebie. Możesz myśleć, że jesteś w pełni świadomy siebie i tylko marginalnie. Możesz być słabo samoświadomy i zdać sobie sprawę, że to twój stan psychiczny.

Tymczasem w najwyższej części spektrum możesz wierzyć, że jesteś w pełni świadomy siebie i, szczerze mówiąc, jesteś tak samoświadomy, jak się wydaje. Dobrze dla ciebie.

A skoro już o tym mowa, co dobrego daje bycie niezmiernie samoświadomym?

Według badań opublikowanych w Harvard Business Review (HBR) autorstwa Taszy Eurich, podobno jesteś w stanie podejmować lepsze decyzje, jesteś bardziej pewny swoich decyzji, jesteś silniejszy w swoich zdolnościach komunikacyjnych i ogólnie bardziej efektywny (w artykule zatytułowanym „Czym naprawdę jest samoświadomość (i jak to pielęgnować).” Dodatkowym czynnikiem jest to, że osoby z silną samoświadomością są mniej skłonne do oszukiwania, kradzieży lub kłamstwa. dążenie do bycia lepszym człowiekiem i upiększania swojego bliźniego.

Całe to mówienie o samoświadomości rodzi dość oczywiste pytanie, a mianowicie, co właściwie oznacza wyrażenie samoświadomość. Bez trudu można znaleźć mnóstwo różnych definicji i interpretacji na temat kompleksu i, powiedzmy, bzdurny konstrukt polegający na byciu samoświadomym. Niektórzy uprościliby sprawę, sugerując, że samoświadomość polega na monitorowaniu własnego ja, wiedząc, co zamierzasz. Jesteś bardzo świadomy swoich własnych myśli i działań.

Przypuszczalnie, nie będąc świadomym, osoba nie zdawałaby sobie sprawy z tego, co robi, ani dlaczego to robi, a także nie byłaby świadoma tego, co inni ludzie mają o niej do powiedzenia. Jestem pewien, że spotkałeś takich ludzi.

Wydaje się, że niektórzy ludzie chodzą po tej ziemi bez pojęcia, co sami robią, i nie mają nawet pozorów tego, co mówią o nich inni. Myślę, że można twierdzić, że są jak szarżujący byk z głową w dół w delikatnym butiku z materiałami łamliwymi. Zwykle wierzymy, że byk nie wie, co robi i pozostaje nieświadomy punktu widzenia innych, chyba że ci inni próbują fizycznie manewrować lub zatrzymywać bezmyślne stworzenie.

Mówi się, że samoświadomość może mieć charakter rekurencyjny.

Pozwólcie, że naszkicuję przykład ilustrujący tę rekurencję. Jesteś w trakcie oglądania dość wciągającego filmu o kotach na swoim smartfonie (wydaje się, że wszyscy to robią). Niektórzy ludzie nie mieliby żadnych innych pozornych myśli poza cudownymi, rozgrzewającymi serce wygłupami tych kochanych kotów. Tymczasem każdy, kto ma odrobinę samoświadomości, zdaje sobie sprawę, że ogląda film o kotach. Mogą również zdawać sobie sprawę, że inni wokół nich zauważają, że oglądają film o kotach.

Zauważ, że możesz być samoświadomy i nadal być zanurzony w jakiejś konkretnej podstawowej aktywności. Główną czynnością w tym przypadku jest oglądanie filmu o kotach. Wtórnie i jednocześnie możesz nosić myśl, że w rzeczywistości oglądasz film z kotem. Jesteś również w stanie pogodzić się z myślą, że inni obserwują cię, gdy oglądasz zabawny film o kotach. Nie musisz koniecznie przerywać jednej czynności, takiej jak przerwanie oglądania filmu o kotach, aby następnie osobno kontemplować, że oglądasz (lub właśnie oglądałeś) film o kotach. Te myśli mogą pozornie pojawiać się równolegle.

Czasami jednak nasza samoświadomość może nas wyrzucić lub przynajmniej przerwać podstawową aktywność umysłową. Być może, myśląc o oglądaniu filmu o kotach, twój umysł częściowo się rozświetla, ponieważ skoncentrowanie się wyłącznie na samym filmie jest przeciążone. Decydujesz się następnie przewinąć wideo, aby ponownie odwiedzić część, którą widziałeś, ale w której byłeś mentalnie rozproszony, aby w pełni zrozumieć. Samoświadomość zakłóciła twoją podstawową aktywność umysłową.

OK, jesteśmy teraz gotowi na pojawienie się aspektów rekurencyjnych.

Czy jesteś gotowy?

Oglądasz film o kotach. Twoja samoświadomość informuje cię, że oglądasz film o kotach i że inni obserwują cię, gdy oglądasz film. Taki jest status quo.

Następnie wykonujesz dodatkowy mentalny skok. Zaczynasz myśleć o swojej samoświadomości. Jesteś świadomy, że angażujesz swoją samoświadomość. Oto jak to się dzieje: Czy myślę za dużo o oglądaniu filmu o kotach, zadajesz sobie pytanie z rozpaczą? To kolejna warstwa samoświadomości. Ranking samoświadomości nad innymi samoświadomościami.

Jest takie stare powiedzenie, że to żółwie na samym dole. W przypadku zjawiska samoświadomości możesz być:

  • Nie jesteś świadomy siebie
  • Samoświadomy siebie
  • Samoświadomość swojej samoświadomości siebie
  • Samoświadomy, że jesteś samoświadomy swojej samoświadomości siebie
  • Ad Infinitum (tj. itd.)

Być może zdałeś sobie sprawę, że wcześniej subtelnie wskazywałem, że istnieją dwie główne kategorie samoświadomości. Jedna szczególna teoria zakłada, że ​​mamy rodzaj wewnętrznej samoświadomości, która koncentruje się na naszych stanach wewnętrznych, a także mamy zewnętrzną samoświadomość, która pomaga w ocenie postrzegania nas przez osoby wokół nas, które nas obserwują.

Zgodnie z artykułem HBR, oto krótki opis teoretycznych dwóch typów samoświadomości: „Pierwszy, który nazwaliśmy wewnętrzna samoświadomość, przedstawia, jak wyraźnie widzimy własne wartości, pasje, aspiracje, dopasowanie do naszego otoczenia, reakcje (w tym myśli, uczucia, zachowania, mocne i słabe strony) oraz wpływ na innych”. A tymczasem druga to: „Druga kategoria, zewnętrzna samoświadomość, oznacza zrozumienie, jak postrzegają nas inni ludzie, biorąc pod uwagę te same czynniki, które wymieniono powyżej. Nasze badania pokazują, że ludzie, którzy wiedzą, jak widzą ich inni, mają większą umiejętność okazywania empatii i przyjmowania punktów widzenia innych”.

Przydatną macierz dwa na dwa lub cztery kwadraty można wyprowadzić, stwierdzając, że zarówno wewnętrzna, jak i zewnętrzna samoświadomość wahają się od wysokiego do niskiego, i można skojarzyć te dwie kategorie ze sobą. Badania HBR wskazują, że podobno jesteś jednym z czterech archetypów samoświadomości:

  • Introspektor: Niska Samoświadomość Zewnętrzna + Wysoka Samoświadomość Wewnętrzna
  • Poszukiwacz: niska samoświadomość zewnętrzna + niska samoświadomość wewnętrzna
  • Zadowolenie: wysoka zewnętrzna samoświadomość + niska wewnętrzna samoświadomość
  • Świadomość: wysoka samoświadomość zewnętrzna + wysoka samoświadomość wewnętrzna

Szczytem byłby archetyp „świadomości”, który polega na byciu na szczycie bycia zewnętrznie samoświadomym, a także na szczycie bycia samoświadomym wewnętrznie. Aby wyjaśnić, nie osiągasz tej osławionej postawy w koniecznie trwały sposób. Możesz prześlizgiwać się w tę i z powrotem pomiędzy byciem wysokim i niskim, zarówno pomiędzy wewnętrzną, jak i zewnętrzną sferą samoświadomości. Może to zależeć od pory dnia, sytuacji, w której się znajdujesz i mnóstwa innych istotnych czynników.

Teraz, gdy uprzejmie omówiliśmy kilka fundamentalnych elementów samoświadomości, możemy powiązać to z tematem zachowań etycznych.

Zwykle twierdzi się, że jesteś samoświadomy, że jest bardziej prawdopodobne, że będziesz przesadny, gdy jesteś samoświadomy. Oznacza to, jak już wspomniano, że jesteś mniej podatny na niekorzystne zachowania etyczne, takie jak kradzież, oszustwo i kłamstwo. Uzasadnieniem tej tendencji jest to, że aktywność twojej samoświadomości uświadomiłaby ci, że twoje zachowanie jest niesmaczne lub nieetyczne. Nie tylko łapiesz się, gdy skręcasz w błotniste, nieetyczne wody, ale także masz skłonność do skręcania z powrotem na suchy ląd (świętość etycznego terytorium).

Twoja samoświadomość pomaga ci w sprawowaniu samokontroli.

Przypuszczalnie kontrast byłby wtedy, gdy samoświadomość jest niewielka lub jej brak, co sugeruje, że ktoś być może nieświadomy ich skłonności do nieetycznych zachowań. Możesz twierdzić, że taka nieświadoma osoba może nie zdawać sobie sprawy, że działa niekorzystnie. Podobnie jak byk w sklepie z materiałami łamliwymi, dopóki coś bardziej jawnie nie przykuje ich uwagi, raczej nie będą się regulować.

Nawiasem mówiąc, nie wszyscy to kupują. Niektórzy twierdzą, że samoświadomość można równie łatwo zastosować do bycia nieetycznym, jak do bycia etycznym. Na przykład złoczyńca może być w pełni świadomy i cieszyć się, że popełnia zło. Ich samoświadomość popycha ich nawet bardziej stanowczo do coraz większych aktów nikczemnego wykroczenia.

Jest na tym więcej zachmurzenia, niż mogłoby się wydawać na pierwszy rzut oka. Załóżmy, że ktoś jest bardzo świadomy siebie, ale nie jest świadomy obyczajów etycznych danego społeczeństwa lub kultury. W ten sposób nie mają żadnych wskazówek etycznych, pomimo stwierdzonego faktu, że są świadomi siebie. Lub, jeśli chcesz, być może dana osoba zna zasady etyczne i nie wierzy, że się do nich odnoszą. Uważają się za wyjątkowych lub znajdujących się poza granicami konwencjonalnego myślenia etycznego.

W kółko to idzie.

Samoświadomość może być interpretowana jako miecz obosieczny, zorientowany na etykę, co niektórzy żarliwie podkreślają.

Na razie przejdźmy do wersji szczęśliwej twarzy, która polega na tym, że samoświadomość w zasadzie prowadzi nas lub popycha nas w kierunku zachowań etycznych. Gdy wszystko inne jest równe, przyjmiemy zuchwałe założenie, że im większa jest samoświadomość, tym bardziej etycznie będziecie postępować. Życzenie tego wydaje się przyjemne i inspirujące.

Zmieńmy biegi i wprowadźmy sztuczną inteligencję (AI) do obrazu.

W tej dyskusji znajdujemy się na punkcie połączenia wszystkich postępujących uwikłań z rozkwitającą sferą etycznej sztucznej inteligencji, powszechnie znanej również jako etyka sztucznej inteligencji. Aby zapoznać się z moim stałym i obszernym omówieniem etyki AI, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Pojęcie etycznej sztucznej inteligencji pociąga za sobą przeplatanie pola etyki i etycznego zachowania z nadejściem sztucznej inteligencji. Z pewnością widziałeś nagłówki, które podniosły dzwonki alarmowe na temat sztucznej inteligencji, która jest pełna nierówności i różnych uprzedzeń. Na przykład istnieją obawy, że systemy rozpoznawania twarzy oparte na sztucznej inteligencji mogą czasami wykazywać dyskryminację rasową i płciową, zazwyczaj w wyniku tego, w jaki sposób wyszkolono i uruchomiono podstawowe uczenie maszynowe (ML) i głębokie uczenie (DL) (patrz moja analiza w Ten link tutaj).

Aby spróbować zatrzymać lub przynajmniej złagodzić ten niesłychany pośpiech w kierunku AI na złe, składający się z systemów sztucznej inteligencji, które są albo nieumyślnie, albo czasami celowo ukształtowane do złego działania, ostatnio pojawiła się pilna potrzeba zastosowania zasad etyki do rozwoju i wykorzystania sztucznej inteligencji. Najważniejszym celem jest zapewnienie etycznych wskazówek twórcom sztucznej inteligencji oraz firmom, które tworzą lub rozwijają sztuczną inteligencję, a także tym, które są zależne od aplikacji AI. Jako przykład opracowywanych i przyjmowanych zasad etycznej sztucznej inteligencji, zobacz moje relacje na link tutaj.

Daj chwilę zastanowienia, aby rozważyć te trzy bardzo ważne pytania:

  • Czy możemy skłonić programistów sztucznej inteligencji do przyjęcia zasad etycznej sztucznej inteligencji i wprowadzenia tych wytycznych do rzeczywistego użytku?
  • Czy możemy sprawić, by firmy zajmujące się sztuczną inteligencją lub sztuczną inteligencją postępowały podobnie?
  • Czy możemy sprawić, by ci, którzy używają sztucznej inteligencji, byli podobnie świadomi aspektów etycznej sztucznej inteligencji?

Powiedziałbym bezwstydnie, to trudne zadanie.

Dreszcz związany z tworzeniem sztucznej inteligencji może pokonać wszelkie przejawy zainteresowania etyką sztucznej inteligencji. Cóż, nie tylko dreszczyk emocji, ale także zarabianie pieniędzy jest integralną częścią tego równania. Możesz być zaskoczony, wiedząc, że niektórzy w sferze sztucznej inteligencji są skłonni powiedzieć, że zajmą się „rzeczami” etycznej sztucznej inteligencji, gdy tylko wyjmą swoje systemy sztucznej inteligencji. Jest to typowa mantra techniki polegająca na upewnianiu się, że szybko i często zawodzisz, dopóki nie zrobisz tego dobrze (miejmy nadzieję, że zrobisz to dobrze).

Oczywiście ci, którzy natychmiastowo rzucają etycznie wątpliwą sztuczną inteligencję na publiczność, wypuszczają konia ze stodoły. Ich głoszona, szeroko rozciągnięta idea jest taka, że AI na złe zostanie naprawiony po codziennym użytkowaniu, co jest szkodliwe, ponieważ koń już samowolnie galopuje. Szkody można wyrządzić. Istnieje również zwiększona szansa, że ​​nic nie zostanie naprawione ani dostosowane, gdy AI jest w użyciu. Częstą wymówką jest to, że majstrowanie przy sztucznej inteligencji w tym momencie może jeszcze pogorszyć sytuację, ponieważ i tak już nieetyczne algorytmiczne podejmowanie decyzji (ADM) całkowicie zbłądzi.

Co można zrobić, aby uzyskać użyteczność i witalność posiadania etycznej sztucznej inteligencji jako jasno świecącego i prowadzącego światła w umysłach tych, którzy budują sztuczną inteligencję, rozwijają sztuczną inteligencję i wykorzystują sztuczną inteligencję?

Odpowiedź: Samoświadomość.

Tak, chodzi o to, że gdyby ludzie byli bardziej świadomi tego, jak wykorzystują sztuczną inteligencję lub wchodzą z nią w interakcję, może to zwiększyć ich skłonność do dążenia do tego, aby etyczna sztuczna inteligencja była normą. To samo można powiedzieć o twórcach AI i firmach związanych z systemami AI. Gdyby byli bardziej świadomi tego, co robią, być może bardziej przyjęliby etykę AI.

Częścią logiki, jak już wspomniano, jest to, że samoświadomość prowadzi do tendencji do bycia etycznie lepszą osobą, a także do unikania bycia etycznie nędzną osobą. Jeśli uda nam się utrzymać to założenie, oznacza to, że twórcy sztucznej inteligencji, którzy są bardziej skłonni do samoświadomości, będą ergo skłonni do etycznych zachowań, a zatem będą skłonni do tworzenia etycznie poprawnej sztucznej inteligencji.

Czy to dla ciebie most za daleko?

Niektórzy powiedzieliby, że pośredniość to trochę za dużo. Być może trudno jest przełknąć ogromny łańcuch powiązań między samoświadomością, etyką cnoty i stosowaniem zasad etycznych do sztucznej inteligencji. Kontrargumentem jest to, że nie zaszkodzi spróbować.

Sceptycy powiedzieliby, że twórca sztucznej inteligencji może być świadomy siebie i być może bardziej etycznie nastawiony, ale niekoniecznie zamierzają przeskoczyć w kierunku zastosowania tego mentalnego obozowiska do obyczajów etycznej sztucznej inteligencji. Odpowiedzią na to zaniepokojenie jest to, że jeśli uda nam się nagłośnić i spopularyzować kwestie etycznej sztucznej inteligencji, pozornie wątłe połączenie stanie się bardziej oczywiste, oczekiwane i prawdopodobnie stanie się standardowym sposobem robienia rzeczy, jeśli chodzi o tworzenie sztucznej inteligencji.

Teraz dodam zwrot do tej sagi. Skręt może sprawić, że zakręci ci się głowa. Upewnij się, że jesteś dobrze usadowiony i przygotowany na to, co zamierzam wskazać.

Niektórzy wskazują, że powinniśmy wbudować etyczną sztuczną inteligencję bezpośrednio w samą sztuczną inteligencję.

Możesz być zaskoczony tym oświadczeniem. Rozpakujmy to.

Programista może stworzyć system sztucznej inteligencji i zrobić to z własną świadomością programowania, próbując zapobiec ucieleśnieniu przez sztuczną inteligencję uprzedzeń i nierówności. Zamiast po prostu zajmować się programowaniem, programista czuwa nad własnym ramieniem, aby zapytać, czy podejście, które podejmuje, nie spowoduje wymaganego braku niekorzystnych elementów w sztucznej inteligencji.

Świetnie, mamy programistę AI, który wydaje się być wystarczająco świadomy, starał się przyjąć etyczne zachowania i widział światło, aby uwzględnić zasady etyczne podczas tworzenia swojego systemu AI.

Zdobądź wygraną w etycznej sztucznej inteligencji!

Wszystko dobrze i dobrze, choć tutaj jest coś, co może się później wydarzyć. Sztuczna inteligencja jest wystawiana i wprowadzana do codziennego użytku. Część sztucznej inteligencji zawierała komponent umożliwiający „uczenie się” w locie. Oznacza to, że sztuczna inteligencja może się dostosowywać w oparciu o nowe dane i inne aspekty oryginalnego programowania. Na marginesie, nie oznacza to, że sztuczna inteligencja jest świadoma. Nie mamy czującej sztucznej inteligencji. Zignoruj ​​te głupie nagłówki mówiące, że to robimy. Nikt nie może powiedzieć, czy będziemy mieli czującą sztuczną inteligencję i nikt nie jest w stanie wystarczająco przewidzieć, kiedy to się stanie.

Wracając do naszej opowieści, sztuczna inteligencja została celowo opracowana, aby poprawić się podczas podróży. Całkiem poręczne pojęcie. Programiści nie muszą stale wprowadzać ulepszeń, ale pozwalają programowi AI robić to sam (och, czy to jest praca z pracy?).

W czasie, gdy sztuczna inteligencja cal po calu dostosowuje się, okazuje się, że różne plugawe nierówności i uprzedzenia wkradają się do systemu AI poprzez własne akty zmian. Podczas gdy programista początkowo trzymał te podejrzane aspekty z dala, teraz formułują je ze względu na dostosowanie AI w locie. Niestety, może się to zdarzyć w tak subtelny, zakulisowy sposób, że nikt nie jest mądrzejszy. Ci, którzy wcześniej mogli dać sztucznej inteligencji zielone światło po wstępnych wyczerpujących testach, są teraz ślepo nieświadomi, że sztuczna inteligencja poszła na zgniłą ścieżkę AI na złe.

Jednym ze sposobów zapobieżenia lub przynajmniej złapania tego niepożądanego pojawienia się byłoby wbudowanie w sztuczną inteligencję czegoś w rodzaju podwójnego sprawdzania etycznej sztucznej inteligencji. Komponent w ramach sztucznej inteligencji jest zaprogramowany tak, aby obserwować zachowanie sztucznej inteligencji i wykrywać, czy zaczyna się pojawiać nieetyczny ADM. Jeśli tak, komponent może wysłać alert do programistów AI lub do firmy, która zarządza systemem AI.

Bardziej zaawansowana wersja tego komponentu może próbować naprawić sztuczną inteligencję. Byłaby to korekta dostosowań, przekształcenie nieetycznych aspektów z powrotem we właściwe parametry etyczne. Możesz sobie wyobrazić, że ten rodzaj programowania jest trudny. Istnieje szansa, że ​​może zbłądzić, być może zamieniając się w nieetyczne w głęboko nieetyczne. Istnieje również możliwość, że fałszywie pozytywny wynik uruchomi komponent i może odpowiednio popsuć sprawę.

W każdym razie, nie zagłębiając się w sposób funkcjonowania tego podwójnego sprawdzania, złożymy śmiałą deklarację na ten temat. Można zasugerować, że w pewien ograniczony sposób sztuczna inteligencja jest samoświadoma.

Ej, to są słowa walki dla wielu.

Dominującym przekonaniem prawie wszystkich jest to, że dzisiejsza sztuczna inteligencja nie jest samoświadoma. Kropka, kropka. Dopóki nie dotrzemy do czującej sztucznej inteligencji, której nie wiemy, czy i kiedy to nastąpi, nie ma żadnego rodzaju sztucznej inteligencji, która byłaby samoświadoma. Nie przynajmniej w sensie samoświadomości zorientowanej na człowieka. Nawet nie sugeruj, że to może się zdarzyć.

Z pewnością zgadzam się, że musimy uważać na antropomorfizację sztucznej inteligencji. Więcej o tej trosce powiem za chwilę.

W międzyczasie, jeśli zechcesz zechcieć zechcieć użyć stopniowego „samoświadomości” w luźny sposób, wierzę, że łatwo zrozumiesz, dlaczego można powiedzieć, że sztuczna inteligencja przestrzega ogólnego pojęcia samo- świadomość. Mamy część sztucznej inteligencji, która monitoruje resztę sztucznej inteligencji, pilnując, co robi reszta sztucznej inteligencji. Kiedy reszta sztucznej inteligencji zaczyna przesadzać, część monitorująca stara się to wykryć. Co więcej, część monitorująca AI lub podwójny kontroler może skierować resztę AI z powrotem na właściwe pasy.

Czy nie wydaje się to trochę jak oglądanie tych filmów z kotami i uświadomienie sobie, że to robisz?

Jest w tym znajomy dzwonek.

Możemy to jeszcze bardziej rozszerzyć. Komponent podwójnego sprawdzania AI jest nie tylko zaprogramowany do obserwowania zachowania reszty sztucznej inteligencji, ale także odnotowuje zachowanie tych, którzy używają sztucznej inteligencji. Jak radzą sobie użytkownicy korzystający ze sztucznej inteligencji? Załóżmy, że niektórzy użytkownicy wyrażają oburzenie, że sztuczna inteligencja wydaje się ich dyskryminować. Podwójny kontroler AI może to wychwycić, używając go jako kolejnej czerwonej flagi, że reszta AI zbłądzi.

Wywołuje to kategoryzację wewnętrznej samoświadomości i zewnętrznej samoświadomości.

Podwójny kontroler AI skanuje wewnętrznie i zewnętrznie, aby dowiedzieć się, czy reszta AI skierowała się w niepokojące morza. Wykrycie podniesie flagę lub spowoduje wykonanie autokorekty.

Dodajmy kolejne, nieco oszałamiające rozszerzenie. Budujemy kolejny podwójny kontroler AI, który ma na celu podwójne sprawdzenie podstawowego podwójnego kontrolera AI. Dlaczego tak? Załóżmy, że podwójny kontroler AI wydaje się słabnąć lub nie wykonuje swojej pracy. Podwójny kontroler AI podwójnego kontrolera będzie starał się wykryć tę usterkę i podjąć odpowiednie działania. Witaj w rekursywnej naturze samoświadomości, niektórzy mogą z dumą ogłosić, jak przejawia się w obliczeniowym systemie sztucznej inteligencji.

Dla tych z was, którzy są już na skraju swojego miejsca w tej sprawie, ostatni komentarz, na razie, jest taki, że moglibyśmy spróbować zasugerować, że jeśli sprawicie, że systemy AI będą „samoświadome”, wówczas potencjalnie będą skłaniać się ku etycznym zachowaniom. Czy robią to na podstawie świadomości? Zdecydowanie nie. Czy robią to na podstawie obliczeń? Tak, chociaż musimy jasno powiedzieć, że nie jest tego samego kalibru, co ludzkie zachowanie.

Jeśli czujesz się niekomfortowo, że pojęcie samoświadomości jest niesłusznie zniekształcane, aby dopasować je do schematu obliczeniowego, twoje obawy w tym zakresie są dobrze widoczne. Inną otwartą kwestią jest to, czy powinniśmy położyć kres trwającym wysiłkom sztucznej inteligencji, które wykorzystują to pojęcie. Można przekonująco argumentować, że przynajmniej wydaje się, że prowadzi nas to w kierunku lepszego wyniku tego, co prawdopodobnie zrobi sztuczna inteligencja. Musimy jednak mieć szeroko otwarte oczy, gdy to się dzieje.

Chyba będziemy musieli zobaczyć, jak to wszystko się potoczy. Wróć do tego za pięć lat, dziesięć lat i pięćdziesiąt lat i zobacz, czy twoje myślenie zmieniło się w tej kontrowersyjnej sprawie.

Zdaję sobie sprawę, że było to nieco odurzające badanie tematu i być może tęsknisz za przykładami z dnia na dzień. Istnieje szczególny iz pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy związane z etyką sztucznej inteligencji, aby łatwiej było zrozumieć nieco teoretyczną naturę tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten etyczny dylemat sztucznej inteligencji, jest pojawienie się prawdziwie samojezdnych samochodów opartych na sztucznej inteligencji. Będzie to służyć jako przydatny przypadek użycia lub przykład do obszernej dyskusji na ten temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na to, że sztuczna inteligencja ma pozory „samoświadomości”, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Na poziomie 5 nie ma jeszcze prawdziwego samochodu do samodzielnego prowadzenia, którego nawet nie wiemy, czy będzie to możliwe do osiągnięcia, ani jak długo to zajmie.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Autonomiczne samochody i sztuczna inteligencja posiadają tak zwaną samoświadomość

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani do głębokiego zanurzenia się w autonomicznych samochodach i etycznych pytaniach dotyczących sztucznej inteligencji, które pociągają za sobą przynoszące brwi wyobrażenie, że sztuczna inteligencja ma rodzaj samoświadomości, jeśli chcesz.

Użyjmy prostego przykładu. Autonomiczny samochód oparty na sztucznej inteligencji porusza się po ulicach Twojej okolicy i wydaje się, że jeździ bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na samojezdny samochód. Autonomiczny pojazd wyróżniał się zestawem czujników elektronicznych, które obejmowały kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojeżdżącego samochodu krążącego po Twojej społeczności, teraz prawie go nie zauważasz. Dla Państwa jest to po prostu kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zaznajomienie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które wchodzą w zakres testów autonomicznych samochodów, stopniowo przyzwyczaiły się do oglądania spreparowanych pojazdów, zobacz moją analizę na Ten link tutaj. Wielu miejscowych w końcu przeszło z gapiących się na gapiów, którzy teraz ziewnęli z nudów, gdy byli świadkami wijących się samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wróćmy do naszej opowieści. Załóżmy, że pewnego dnia samojezdny samochód w Twoim mieście zbliża się do znaku Stop i nie wydaje się zwalniać. Niebiosa, wygląda na to, że system jazdy AI będzie miał pług samojezdnego samochodu tuż za znakiem Stop. Wyobraź sobie, że pieszy lub rowerzysta był gdzieś w pobliżu i został zaskoczony, że autonomiczny samochód nie zatrzyma się należycie. Haniebny. Niebezpieczny!

I nielegalne.

Rozważmy teraz komponent AI w systemie sterowania AI, który działa jak styl samoświadomego podwójnego sprawdzania.

Poświęcimy chwilę, aby zagłębić się w szczegóły tego, co dzieje się w systemie jazdy AI. Okazuje się, że kamery wideo zamontowane na autonomicznym pojeździe wykryły coś, co mogło wydawać się znakiem Stop, choć w tym przypadku zarośnięte drzewo obficie zasłania znak Stop. System uczenia maszynowego i głębokiego uczenia, który został pierwotnie przeszkolony w zakresie znaków Stop, został opracowany na podstawie wzorców zasadniczo pełnych znaków Stop, na ogół nieskrępowanych. Po obliczeniowym zbadaniu obrazów wideo przypisano małe prawdopodobieństwo, że w tym konkretnym miejscu istnieje znak Stop (jako dodatkowa komplikacja i dalsze wyjaśnienie, był to nowo opublikowany znak Stop, który nie pojawił się na wcześniej przygotowanych mapach cyfrowych, które System jazdy AI polegał).

Podsumowując, system sterowania AI obliczeniowo zdeterminowany, aby postępować naprzód, tak jakby znak Stop albo nie istniał, albo prawdopodobnie był znakiem innego rodzaju, który prawdopodobnie przypominał znak Stop (to może się zdarzyć i zdarza się z pewną częstotliwością).

Ale na szczęście samoświadomy kontroler AI monitorował działania systemu jazdy AI. Po obliczeniowym przejrzeniu danych i ocenie przez resztę sztucznej inteligencji, ten komponent zdecydował się na pominięcie normalnego toku postępowania i zamiast tego nakazał systemowi prowadzenia sztucznej inteligencji odpowiednie zatrzymanie.

Nikt nie został ranny i nie doszło do nielegalnego aktu.

Można powiedzieć, że samoświadomy podwójny kontroler AI działał tak, jakby był wbudowanym agentem prawnym, starając się zapewnić, że system sterowania AI jest zgodny z prawem (w tym przypadku znak Stop). Oczywiście kluczowe było też bezpieczeństwo.

Ten przykład, miejmy nadzieję, pokazuje, jak pomyślany samoświadomy podwójny kontroler AI może działać.

Następnie możemy krótko rozważyć bardziej widoczny przykład etycznej sztucznej inteligencji, który ilustruje, w jaki sposób samoświadome podwójne sprawdzenie sztucznej inteligencji może zapewnić wbudowaną funkcjonalność zorientowaną na etykę AI.

Po pierwsze, jako tło, jedną z obaw, jakie wyrażono w związku z pojawieniem się samochodów autonomicznych opartych na sztucznej inteligencji, jest to, że mogą one zostać wykorzystane w nieco nieumyślny, dyskryminujący sposób. Oto jak. Załóżmy, że te autonomiczne samochody są skonfigurowane tak, aby próbować zmaksymalizować swój potencjał dochodowy, co zdecydowanie ma sens dla tych, którzy dysponują flotą dostępnych autonomicznych samochodów. Właściciel floty chciałby mieć rentowną działalność.

Możliwe, że w danym mieście wędrujące autonomiczne samochody stopniowo zaczynają służyć niektórym częściom społeczności, a nie innym. Robią to w celu zarabiania pieniędzy, ponieważ biedniejsze obszary mogą nie być tak dochodowe, jak bogatsze części regionu. Nie jest to wyraźne dążenie do służenia niektórym obszarom, a nie służenia innym. Zamiast tego pojawia się organicznie, że sztuczna inteligencja autonomicznych samochodów „obliczy” obliczeniowo, że można zarobić więcej pieniędzy, koncentrując się na geograficznie lepiej płatnych obszarach. Omówiłem ten społeczny problem etyczny w moim felietonie, takim jak at link tutaj.

Załóżmy, że dodaliśmy samoświadomy podwójny kontroler AI do systemów jazdy AI. Po pewnym czasie komponent AI obliczeniowo zauważa wzór, w którym poruszają się autonomiczne samochody. Warto zauważyć, że w niektórych obszarach, ale nie w innych. Opierając się na zakodowaniu niektórych wskazań etycznej sztucznej inteligencji, samoświadomy podwójny kontroler AI zaczyna kierować autonomiczne samochody do innych części miasta, które w przeciwnym razie były zaniedbane.

Ilustruje to samoświadomość AI i robi to w połączeniu z elementem etycznej sztucznej inteligencji.

Jeszcze jeden taki przykład może dostarczyć wglądu w to, że rozważanie na temat etycznej sztucznej inteligencji może być również dość otrzeźwiającym i poważnym następstwem życia lub śmierci.

Weź pod uwagę reportaż o niedawnym wypadku samochodowym. Podobno ludzki kierowca zbliżał się do ruchliwego skrzyżowania i miał zielone światło, aby jechać prosto. Inny kierowca przejechał obok czerwonego światła i wjechał na skrzyżowanie, kiedy nie powinni byli tego robić. Kierowca z zielonym światłem zorientował się w ostatniej chwili, że ten drugi samochód poważnie wbije się w jego samochód.

Według tego zagrożonego kierowcy, świadomie obliczył, że albo zostanie potrącony przez inny samochód, albo może skręcić w bok, próbując uniknąć intruza. Problem z skręcaniem polegał na tym, że w pobliżu znajdowali się przechodnie, którzy byliby zagrożeni.

Jakiego wyboru byś dokonał?

Możesz przygotować się na uderzenie i mieć nadzieję, że obrażenia cię nie okaleczą ani nie zabiją. Z drugiej strony możesz radykalnie odejść, ale poważnie zagrozić i prawdopodobnie zranić lub zabić pobliskich pieszych. Jest to trudny problem, obejmujący osąd moralny i jest w pełni przesiąknięty implikacjami etycznymi (i prawnymi).

Istnieje ogólny dylemat etyczny, który obejmuje ten rodzaj dylematu, słynnie lub być może niesławnie zwany Problemem Wózka. Ten link tutaj. Okazuje się, że jest to stymulujący etycznie eksperyment myślowy, którego początki sięgają początku XX wieku. W związku z tym temat ten istnieje od dłuższego czasu, a ostatnio stał się ogólnie kojarzony z pojawieniem się sztucznej inteligencji i autonomicznych samochodów.

Zastąp ludzkiego kierowcę systemem jazdy AI wbudowanym w samojezdny samochód.

Wyobraź sobie wtedy, że autonomiczny samochód AI wjeżdża na skrzyżowanie, a czujniki autonomicznego pojazdu nagle wykrywają kierowany przez człowieka samochód, który niebezpiecznie wjeżdża bezpośrednio na czerwone światło i celuje w samochód bez kierowcy. Załóżmy, że w samojeżdżącym samochodzie znajduje się kilku pasażerów.

Co chcesz, żeby sztuczna inteligencja zrobiła?

Jeśli system jazdy AI zdecyduje się kontynuować i wpaść w pułapkę (prawdopodobnie szkodząc lub może zabijając pasażerów wewnątrz pojazdu), czy też chcesz, aby system jazdy AI zaryzykował i odwrócił się, chociaż akcja skręcania zabiera pojazd autonomiczny niebezpiecznie w kierunku pobliskich pieszych i może ich skrzywdzić lub zabić.

Wielu twórców sztucznej inteligencji samojeżdżących się samochodów z głową w piasku podchodzi do tych etycznych, bolesnych kłopotów ze sztuczną inteligencją. Ogólnie rzecz biorąc, sztuczna inteligencja, jak obecnie zaprogramowana, po prostu brnie naprzód i zostaje brutalnie staranowana przez inny samochód. Sztuczna inteligencja nie została zaprogramowana do szukania innych manewrów unikowych.

Wielokrotnie przewidywałem, że ta postawa producentów autonomicznych samochodów AI, którzy nie widzą zła, nie słyszę zła, w końcu pojawi się i ich ugryzie (moja analiza jest na link tutaj). Możesz spodziewać się procesów sądowych dotyczących takich wypadków samochodowych, które będą miały na celu ustalenie, do czego zaprogramowano sztuczną inteligencję. Czy firma, programiści AI lub operator floty, którzy opracowali i zastosowali sztuczną inteligencję, zaniedbali lub ponosili odpowiedzialność za to, co sztuczna inteligencja zrobiła lub czego nie zrobiła? Możesz również spodziewać się, że po wystąpieniu tego rodzaju przypadków wybuchnie ogólnodostępna burza etyczna świadomości AI.

W ten dylemat etycznej sztucznej inteligencji wkracza nasz osławiony, samoświadomy, podwójnie sprawdzający sztuczną inteligencję, który jest zorientowany na etykę. Być może ten specjalny składnik sztucznej inteligencji może zaangażować się w tego rodzaju okoliczności. Część monitoruje resztę systemu jazdy AI i stan autonomicznego samochodu. Kiedy nadchodzi tak straszna chwila, komponent AI służy jako rozwiązywanie problemów z wózkiem i proponuje, co powinien zrobić system jazdy AI.

Nie jest to łatwa do zakodowania rzecz, zapewniam cię.

Wnioski

Na razie podzielę się z Wami ostatnią myślą na ten temat.

Prawdopodobnie uznasz to za intrygujące.

Czy wiesz o test lustrzany?

Jest to dość dobrze znane w badaniach nad samoświadomością. Inne nazwy tej materii to test samorozpoznawania lustra, test czerwonych plam, test różu i powiązane sformułowania. Technika i podejście zostały początkowo opracowane na początku lat 1970. do oceny samoświadomości zwierząt. Zwierzęta, które podobno pomyślnie przeszły test, to małpy człekokształtne, niektóre rodzaje słoni, delfiny, sroki i inne. Zwierzęta, które zostały przetestowane i podobno nie przeszły testu, to pandy wielkie, lwy morskie itp.

Oto oferta.

Kiedy zwierzę widzi siebie w lustrze, czy zwierzę zdaje sobie sprawę, że przedstawiony obraz jest z nim samym, czy też zwierzę myśli, że jest innym zwierzęciem?

Przypuszczalnie zwierzę rozpoznaje wizualnie swój gatunek, widząc inny ze swojego gatunku, i dlatego może myśleć, że zwierzę pokazane w lustrze jest kuzynem, a może wojowniczym konkurentem (zwłaszcza jeśli zwierzę warczy na lustrzane odbicie, co w wydaje się, że kolej na nich warczy). Być może widziałeś, jak twój domowy kot lub ukochany pies robi to samo, gdy po raz pierwszy widzi siebie w lustrze domowym.

W każdym razie założylibyśmy, że dzikie zwierzę nigdy wcześniej siebie nie widziało. Cóż, niekoniecznie jest to prawda, ponieważ być może zwierzę dostrzegło siebie w spokojnej sadzawce lub przez lśniącą formację skalną. Ale są to uważane za mniej prawdopodobne szanse.

Dobra, chcemy jakoś ocenić, czy zwierzę jest w stanie rozgryźć, że jest to rzeczywiście zwierzę pokazane w lustrze. Zastanów się nad tą pozornie prostą czynnością. Ludzie w młodym wieku dowiadują się, że istnieją i że ich istnienie można zademonstrować widząc siebie w lustrze. Stają się świadomi siebie. Teoretycznie możesz nie zdawać sobie sprawy, że jesteś sobą, dopóki nie zobaczysz siebie w lustrze.

Może zwierzęta nie są w stanie poznawczo stać się samoświadome w ten sam sposób. Możliwe, że zwierzę zobaczyłoby siebie w lustrze i wiecznie wierzyło, że jest jakimś innym zwierzęciem. Bez względu na to, ile razy się zobaczy, nadal będzie myślał, że jest to inne zwierzę niż ono samo.

W grę wchodzi sztuczka. Robimy znak na zwierzęciu. Znak ten musi być widoczny tylko wtedy, gdy zwierzę widzi siebie w lustrze. Jeśli zwierzę może się skręcić lub obrócić i zobaczyć na sobie znak (bezpośrednio), to zrujnuje eksperyment. Co więcej, zwierzę nie może poczuć, wąchać ani w żaden inny sposób wykryć znaku. Jeszcze raz, gdyby to zrobili, zrujnowałoby to eksperyment. Zwierzę nie może wiedzieć, że nałożyliśmy na niego znak, ponieważ to by wskazywało zwierzęciu, że coś tam jest.

Chcemy zawęzić rzeczy tak, aby jedynym możliwym powodem wykrycia śladu było patrzenie na siebie w lustrze.

Aha, test jest gotowy. Zwierzę kładzie się przed lustrem lub wędruje do niego. Jeśli zwierzę spróbuje następnie dotknąć lub przekopać znak, rozsądnie wywnioskujemy, że jedynym sposobem, aby to się stało, jest uświadomienie sobie przez zwierzę, że znak jest na sobie. Bardzo niewielu gatunkom zwierząt udało się pomyślnie przejść ten test.

Jest mnóstwo krytyki na temat testu. Jeśli w pobliżu znajduje się człowiek testujący, może on oddać rzeczy, wpatrując się w znak, co może spowodować, że zwierzę go otrze lub wymaca. Inną możliwością jest to, że zwierzę nadal wierzy, że inne zwierzę jest pokazane w lustrze, ale jest tego samego typu, a zatem zwierzę zastanawia się, czy ono również ma znak podobny do tego na drugim zwierzęciu.

Trwa i trwa.

Jestem pewien, że cieszysz się, że to wiesz i odtąd zrozumiesz, dlaczego na zwierzęciu znajduje się kropka lub jakieś dziwne oznaczenie, które w przeciwnym razie nie miałoby takiego znaku. Kto wie, może niedawno zakończył eksperyment z testowaniem lustra. Pogratuluj zwierzęciu, bezpiecznie, za to, że było hojnym uczestnikiem.

Co to wszystko ma wspólnego z autonomicznymi samochodami opartymi na sztucznej inteligencji?

Spodoba ci się ta część.

Samojezdny samochód jedzie długą autostradą. System jazdy AI wykorzystuje czujniki do wykrywania innego ruchu. Jest to dwupasmowa autostrada, na której jednym pasem jest ruch w kierunku północnym, a drugim w kierunku południowym. Czasami samochody i ciężarówki będą próbowały się minąć, wjeżdżając na przeciwny pas, a następnie wskakując z powrotem na właściwy pas ruchu.

Widziałeś to, niewątpliwie to zrobiłeś.

Założę się, że ten kolejny aspekt przydarzył się również Tobie. Przed samojezdnym samochodem stoi jedna z tych pokaźnych cystern. Wykonany jest z błyszczącego metalu. Wypolerowany i czysty jak gwizdek. Wsiadając za taką ciężarówkę, możesz zobaczyć lustrzane odbicie swojego samochodu poprzez tylną część cysterny. Jeśli to widziałeś, wiesz, jak hipnotyzujące może być. Oto ty i twój samochód, odbite w lustrzanym odbiciu tyłu cysterny.

Usiądź na szalony zwrot akcji.

Za cysterną podjeżdża samojezdny samochód. Kamery wykrywają obraz samochodu w lustrzanym odbiciu. Whoa, ocenia AI, czy to samochód? Czy nadchodzi w samojezdnym samochodzie? W miarę jak autonomiczny samochód zbliża się coraz bardziej do cysterny, samochód wydaje się być coraz bliżej.

Hej, sztuczna inteligencja obliczeniowo może obliczyć, że jest to niebezpieczna sytuacja i powinna podjąć działania wymijające z tego szalonego nieuczciwego pojazdu. Widzisz, sztuczna inteligencja nie rozpoznała siebie w lustrze. Nie zdał testu lustra.

Co robić? Być może samoświadomy podwójny kontroler AI wskakuje do sprawy i zapewnia resztę systemu sterowania AI, że jest to tylko nieszkodliwe odbicie. Uniknięte niebezpieczeństwo. Świat jest zbawiony. Pomyślne przejście testu lustra AI!

Z przymrużeniem oka możemy nawet zasugerować, że czasami sztuczna inteligencja jest mądrzejsza lub przynajmniej bardziej samoświadoma niż przeciętny niedźwiedź (chociaż, trzeba przyznać niedźwiedziom, zwykle dobrze radzą sobie w teście lustrzanym, często przyzwyczajeni do ich odbicia w kałużach wodnych).

Poprawka, może sztuczna inteligencja może być bardziej samoświadoma niż wielkie pandy i lwy morskie, ale nie mów tego zwierzętom, mogą mieć pokusę, by zniszczyć lub rozwalić systemy sztucznej inteligencji. Nie chcemy tego, prawda?

Źródło: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/