Etyka AI zmaga się nieuchronnie z wypadkami AI, które unoszą się nad autonomicznymi autonomicznymi samochodami

Czy może znasz kogoś, kto wydaje się być szczególnie podatny na wypadki?

Wygląda na to, że wszyscy.

Być może jest to osoba, która poślizgnie się na skórce od banana lub przewróci cenny wazon w twoim salonie. Są ludzkim magnesem przyciągającym wszelkiego rodzaju wypadki. Może być tak źle, że czasami nawet nie chcesz być blisko nich. Możesz dostać złowieszczy przelew lub cierpieć niechlubne następstwa jednego z ich niesmacznych wypadków.

Ale może jesteśmy zbyt surowi, sugerując, że ktoś jest bardziej podatny na wypadki niż inni. Można argumentować, że wypadki mogą przytrafić się każdemu z nas. Wszyscy jesteśmy narażeni na możliwość popełnienia lub uwikłania się w wypadek. W tym najlepsi z nas.

Dodajmy do tej dyskusji jeszcze jedno irytujące pytanie.

Czy wypadki są nieuniknione?

Innymi słowy, bez względu na to, jak bardzo byśmy starali się zapobiegać wypadkom, nieuchronnie może się zdarzyć, że mimo wszystko istnieje szansa i ostateczna pewność, że wypadki wystąpią. Możesz starać się chronić świat przed wypadkami. Wydaje się to niewątpliwie rozsądne. Ale w ten czy inny sposób wypadki nadal będą się pojawiać.

Jak mówią, wypadki czekają, żeby się wydarzyć.

Pomocne może być wyjaśnienie, co należy rozumieć przez odniesienie się do jakiegoś zdarzenia jako odpowiednio oznaczonego jako wypadek. Zwykła definicja słownikowa mówi, że wypadek jest rodzajem incydentu, który ma miejsce nieoczekiwanie i niezamierzenie, w przypadku którego występuje niefortunny skutek, który składa się z pozoru uszkodzenia lub obrażeń.

Uważnie rozpakuj tę definicję.

Wspomniany incydent jest nieoczekiwany. Oznacza to, że zdawaliśmy się nie zdawać sobie sprawy z tego, że dojdzie do samego wypadku.

Wspomniany incydent jest niezamierzony. Sugeruje to, że powinniśmy wykluczyć okoliczności, w których ktoś umyślnie dążył do zajścia zdarzenia. Jeśli dowcipniś położy skórkę od banana na podłodze, gdzie, jak wie, postawi ją pechowa i niczego nie podejrzewająca niewinna osoba, trudno będzie stwierdzić, że osoba, która się o nią potknęła, uległa wypadkowi. Zamiast tego zostali oszukani i podstępnie prowadzeni w pułapkę.

Definicja zawiera również kryterium, że wynik jest niefortunny. Wypadek w tym świetle musi prowadzić do kwaśnego wyniku. Osoba, która przypadkowo przewróciła wazon, pękła i prawdopodobnie uszkodziła smakowity przedmiot nie do naprawienia. Właściciel wazonu ponosi szkodę w wyniku utraty wartości. Osoba, która wpadła do wazonu, może teraz być winna właścicielowi stratę. Nie daj Boże, żeby ktokolwiek mógł zostać pocięty lub zeskrobany przez stłuczenie wazonu.

Dla równowagi warto zauważyć, że istnieją również tak zwane „dobre” wypadki. Osoba może znaleźć się w wielkiej fortunie lub uzyskać inną istotną korzyść w wyniku wypadku. Jednym z najczęściej cytowanych przykładów jest Sir Alexander Fleming i jego uznane odkrycie penicyliny. Historia mówi, że był trochę nieostrożny w swoim laboratorium i po powrocie z dwutygodniowego urlopu znalazł pleśń na jednej z jego płytek hodowlanych. Podobno tak powiedział o tej sprawie: „Czasem znajduje się to, czego się nie szuka. Kiedy obudziłem się tuż po świcie 28 września 1928 roku, z pewnością nie planowałem zrewolucjonizowania całej medycyny poprzez odkrycie pierwszego na świecie antybiotyku, czyli zabójcy bakterii. Ale chyba właśnie to zrobiłem”.

Odłożymy na bok sprzyjające wypadki i skupimy się tutaj na ponurych wypadkach. Wersja wypadków ze zmarszczonymi brwiami ma miejsce, gdy te niekorzystne skutki mogą szczególnie zagrażać życiu lub mieć uciążliwe skutki. Na tyle, na ile to możliwe, negatywne wypadki, które chcemy zminimalizować (i, oczywiście, pozytywne wypadki, które chcielibyśmy zmaksymalizować, jeśli jest to wykonalne, chociaż omówię ten wariant uśmiechniętej buźki w późniejszej kolumnie).

Chciałbym nieco przeredagować wcześniejsze pytanie o nieuchronność wypadków. Do tej pory skupialiśmy się na wypadkach, które mają miejsce w konkretnym przypadku pojedynczej osoby. Nie ma wątpliwości, że wypadki mogą mieć wpływ na wiele osób jednocześnie. Można to szczególnie napotkać, gdy ludzie są zanurzeni w złożonym systemie tego czy innego rodzaju.

Przygotuj się na wariant wcześniej zadanego pytania.

Czy awarie systemu są nieuniknione?

Powinniśmy to przemyśleć.

Załóżmy, że hala produkcyjna jest przeznaczona do produkcji części do samochodów. Ci, którzy zaprojektowali fabrykę, są, powiedzmy, bardzo zaniepokojeni wypadkami pracowników, które mogą się wydarzyć. Pracownicy fabryki są zobowiązani do noszenia kasków przez cały czas. Znaki w fabryce nawołują do uważania na wypadki i uważności w pracy. Podejmowane są wszelkie środki ostrożności, aby zapobiec wypadkom.

W tym systemie możemy mieć nadzieję, że nikt nigdy nie ulegnie wypadkowi. Czy uważasz, że prawdopodobieństwo wypadku jest zerowe? Ośmielę się zasugerować, że żaden rozsądny myśliciel nie założyłby się, że w tym przypadku szansa na wypadek wynosi zero. Szanse na wypadek mogą być naprawdę niskie, ale nadal wiemy i zakładamy, że pomimo wszystkich środków ostrożności nadal istnieje odrobina ryzyka, że ​​wypadek będzie miał miejsce.

Wszystko to wskazuje na to, że w systemie o wystarczającej złożoności jesteśmy przekonani, że wypadki będą się zdarzać, niezależnie od tego, jak bardzo będziemy się im starać zapobiegać. Niechętnie popieramy założenie, że wypadki systemowe są rzeczywiście nieuniknione. Wzniosłe stwierdzenie tego kalibru może zawierać zastrzeżenie, że system musiałby mieć pewien próg złożoności, tak że zasadniczo niemożliwe jest objęcie wszystkich baz, aby całkowicie zapobiec wypadkom.

Zostałeś teraz zgrabnie przedstawiony, krok po kroku, w szeroko zarysowanej teorii wypadków, które można nazwać zwykłymi wypadkami lub teorią normalnych wypadków (NAT). Oto przydatny opis badaczy, którzy badali to pojęcie: „W wystarczająco dużej skali każdy system będzie powodował „normalne wypadki”. Są to nieuniknione wypadki spowodowane połączeniem złożoności, sprzężenia między komponentami i potencjalnymi szkodami. Zwykły wypadek różni się od bardziej powszechnych awarii komponentów tym, że zdarzenia i interakcje prowadzące do normalnego wypadku nie są zrozumiałe dla operatorów systemu” (jak stwierdzono w „Zrozumienie i unikanie awarii AI: praktyczny przewodnik” autorstwa Roberta Williamsa i Roman Jampolski, Filozofie dziennik).

Powód, dla którego sprowadziłem cię do krainy tzw normalne wypadki jest to, że być może będziemy musieli ostrożnie zastosować tę teorię do czegoś, co stopniowo i nieuchronnie staje się wszechobecne w naszym społeczeństwie, a mianowicie pojawienia się sztucznej inteligencji (AI).

Zagłębmy się w to.

Niektórzy ludzie błędnie zakładają, że sztuczna inteligencja będzie doskonała. Systemy sztucznej inteligencji nie będą popełniać błędów i nie wpędzą nas w kłopoty, spekuluje się. Wszystko, co musisz zrobić, to upewnić się, że ci programiści AI wykonują wystarczająco dobrą robotę, i voila, AI nigdy nie zrobi niczego, co mogłoby zostać zinterpretowane jako przypadkowe lub spłodzenie wypadku.

Nie tak szybko z tym hipotetycznym przekonaniem. Jeśli jesteś gotów kupić w teorii normalne wypadki, każda sztuczna inteligencja o jakiejkolwiek istotnej złożoności nieuchronnie doprowadzi do wypadku. Niezależnie od tego, ile późnych godzin majsterkowania twórcy sztucznej inteligencji robią, aby zapobiec wypadkowi, sztuczna inteligencja z pewnością w pewnym momencie zostanie uwikłana w wypadek. W ten sposób ciastko się kruszy. I nie ma wytchnienia, płacząc nad rozlanym mlekiem z tego powodu.

Zastanów się nad połączeniem sztucznej inteligencji i koncepcyjnymi założeniami normalne wypadki.

Wyobraź sobie, że mamy system sztucznej inteligencji kontrolujący broń nuklearną. Sztuczna inteligencja została starannie wykonana. Każda możliwa kontrola i równowaga została zakodowana w systemie sztucznej inteligencji. Czy jesteśmy bezpieczni przed wypadkiem opartym na sztucznej inteligencji, który może się wydarzyć? Ci, którzy opowiadają się za normalnymi wypadkami, powiedzieliby, że nie jesteśmy tak bezpieczni, jak można by przypuszczać. Biorąc pod uwagę, że sztuczna inteligencja może być szczególnie złożona, normalny wypadek po cichu czeka, by pewnego dnia się pojawić, być może w najgorszym możliwym momencie.

Istota tych drażliwych pytań i skrupułów polega na tym, że musimy mieć się na baczności, że sztuczna inteligencja jest obarczona wypadkami, a ludzkość musi zrobić coś rozsądnego i proaktywnego w kwestii niebezpieczeństw, które mogą z tego wyniknąć. Jak zobaczysz za chwilę lub dwie, jest to kwestia, którą należy wziąć pod uwagę, jeśli chodzi o korzystanie ze sztucznej inteligencji, a dziedzina etyki sztucznej inteligencji i etycznej sztucznej inteligencji zmaga się dość mocno z tym, co robić. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Zanim przejdziemy do króliczej nory, upewnijmy się, że jesteśmy na tej samej stronie co do natury sztucznej inteligencji. Nie ma dziś żadnej sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy czująca sztuczna inteligencja będzie możliwa. Nikt nie może trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy czująca sztuczna inteligencja w jakiś cudowny sposób spontanicznie powstanie w postaci supernowej obliczeniowej poznawczej (zwykle określanej jako osobliwość, patrz moja relacja na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w zupełnie innym kierunku. Czująca sztuczna inteligencja miałaby rzekomo ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest kognitywnym odpowiednikiem człowieka udzielającego ci porad. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może stać się mądrzejsza niż ludzie (moje badania nad superinteligentną sztuczną inteligencją jako możliwością zob. zasięg tutaj). Wszystkie te scenariusze przyspieszyłyby ocenę źródła.

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z myśleniem ludzkim. Kiedy wchodzisz w interakcje z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się podobne do ludzkich, ale w rzeczywistości jest to obliczeniowe i pozbawione ludzkiego poznania. Najnowsza era sztucznej inteligencji szeroko wykorzystywała uczenie maszynowe (ML) i głębokie uczenie się (DL), które wykorzystuje obliczeniowe dopasowywanie wzorców. Doprowadziło to do powstania systemów sztucznej inteligencji, które wyglądają jak ludzkie skłonności. Tymczasem nie ma dziś żadnej sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia solidnego ludzkiego myślenia.

Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Ogólnie rzecz biorąc, istnieje ogólna nadzieja, że ​​​​ustalając sens zasad etyki sztucznej inteligencji, będziemy przynajmniej w stanie zwiększyć świadomość społeczną na temat tego, co sztuczna inteligencja może zrobić zarówno z korzyścią, jak i niekorzystnie. Obszernie omówiłem różne zbiorowe analizy zasad etyki AI, w tym omówiłem zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym W Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Być może będziemy musieli dodać do wychwalanych list dotyczących etyki sztucznej inteligencji, które musimy wyraźnie rozważyć i podjąć jawne działania w celu zapobiegania lub przynajmniej zdecydowanego łagodzenia skutków opartych na sztucznej inteligencji normalne wypadki może się to zdarzyć. Ci, którzy rozwijają sztuczną inteligencję, muszą dać z siebie wszystko na tym froncie. Ci, którzy wdrażają sztuczną inteligencję, muszą zrobić to samo. Ci, którzy używają sztucznej inteligencji lub w jakiś sposób jej podlegają, powinni być ostrożni i mieć się na baczności przed wypadkami AI, które pozornie mogą się wydarzyć.

Możesz ulec pokusie, by pomyśleć, że w sztuczną inteligencję można wbudować wystarczające środki ostrożności, aby szanse na wypadek spadły do ​​zera. Dla tych, którzy są technikami, zwykłą pychą jest to, że jeśli część technologii może wygenerować problem, inna technologia z pewnością może rozwiązać problem. Po prostu podrzucaj coraz więcej technologii, aż problem zniknie.

Cóż, ci, którzy badali wypadki zorientowane na systemy, skłonni byliby się nie zgodzić i uprzejmie odpowiedzieć na domniemaną techniczną pompatyczność, przedstawiając stanowisko znane jako model szwajcarskiego sera (SCM): „W SCM warstwy bezpieczeństwa są modelowane jako plasterki ser z dziurami reprezentującymi słabe punkty w każdej warstwie bezpieczeństwa. Z biegiem czasu dziury zmieniają kształt i poruszają się. W końcu, bez względu na to, ile jest plasterków sera (warstw zabezpieczających), otwory wyrównają się, umożliwiając prosty strzał przez wszystkie plastry sera (zdarza się wypadek)” (zgodnie z cytowaną wcześniej pracą Roberta Williamsa i Romana Yampolskiego ).

Nie chcę ugrzęznąć w tej bocznej stycznej, czy istnieje gwarantowany sposób zaprogramowania sztucznej inteligencji, aby całkowicie i zawsze zapobiegała wszelkim szansom na wypadek. Próbuje się wszelkiego rodzaju matematycznych i obliczeniowych metod dowodzenia. Myślę, że rozsądnie i uczciwie jest stwierdzić, że nie mamy dziś skalowalnej metody pracy ani technologii, które mogą zapewnić taką zerową szansę, a ponadto jesteśmy obarczeni tonami ton sztucznej inteligencji, która jest produkowana bez przerwy, a my wiem na pewno, że nie starał się przestrzegać takich praktyk. Ta ostatnia kwestia jest kluczowa, ponieważ nawet jeśli uda nam się coś wymyślić w laboratorium sztucznej inteligencji, skalowanie tego do milionów dzikich i beztroskich wysiłków sztucznej inteligencji w toku i które będą się nadal pojawiać, jest zawiłym problemem i prawdopodobnie nie zostanie rozwiązany, nawet jeśli obliczeniowa maszyna do sprawdzania srebra kula istniała.

Innym punktem, który moim zdaniem zasługuje na krótką wzmiankę, jest sztuczna inteligencja, która zostaje przekształcona w dokonywanie niepożądanych działań w wyniku złośliwych działań ludzkich. Nie zamierzam umieszczać tych przypadków w sferze wypadków AI. Pamiętaj, że wstępna dyskusja zasugerowała, że ​​słownikowa definicja wypadku była incydentem nieumyślny Natura. Jeśli ludzkiemu cyberprzestępcy uda się zmusić system sztucznej inteligencji do robienia złych rzeczy, nie klasyfikuję tej sztucznej inteligencji jako doświadczającej wypadku. Ufam, że zgodzisz się z tym założeniem.

Pojawia się interesujące pytanie, ile różnych niepożądanych działań sztucznej inteligencji można przypisać wyłącznie przypadkowi sztucznej inteligencji w porównaniu z przebiegłym działaniem cyberprzestępcy. Według niektórych istniejących baz danych zgłaszających incydenty AI wydaje się, że wypadki AI zdarzają się częściej niż incydenty wywołane złośliwie, chociaż należy traktować to pojęcie z dużą dozą soli. Mówię to, ponieważ istnieje wielka pokusa, aby nie zgłaszać, kiedy system AI został zaatakowany, i być może być nieco bardziej skłonnym do zgłaszania, kiedy zdarzy się wypadek AI.

Istnieje niezwykle ważne zastrzeżenie, które musimy omówić w odniesieniu do wypadków AI.

Używanie hasła „wypadki AI” jest generalnie niepożądane i spowoduje spory bałagan dla nas wszystkich, czyli dla całego społeczeństwa. Kiedy jakiś człowiek ma wypadek, często wzruszamy ramionami i współczujemy osobie, która miała wypadek. Wydaje się, że traktujemy słowo „wypadek” tak, jakby oznaczało, że nikt nie ponosi odpowiedzialności za to, co się stało.

Weźmy przykład wypadku samochodowego. Jeden samochód skręca szeroko na prawym zakręcie i przypadkowo uderza w inny samochód, który jechał prosto. Shucks, to był tylko wypadek i przypadkowo się stało. Ci, którzy nie byli zaangażowani w incydent, być może pozwolą, by sprawa się potoczyła, jeśli wydarzenie zostanie przedstawione w kategoriach zwykłego wypadku, który się wydarzył.

Mam jednak wrażenie, że gdybyś był w samochodzie, który został potrącony, nie byłbyś tak sympatyczny dla kierowcy, który wykonał zbyt szeroki zakręt. Twoja opinia z pewnością byłaby taka, że ​​drugi kierowca był kiepskim kierowcą i że rzekomo nielegalny lub nierozsądny czyn za kierownicą doprowadził do wypadku samochodowego. Oznaczając incydent jako „wypadek”, kierowca, który utknął, jest teraz w nieco niekorzystnej sytuacji, ponieważ wygląda na to, że wszystko wydarzyło się przez przypadek, a nie przez ręce kierowcy, który zawiodł.

W rzeczywistości słowo „wypadek” jest tak pełne różnych konotacji, że ogólnie rzecz biorąc, rządowe statystyki dotyczące wypadków samochodowych odnoszą się do tej sprawy jako do kolizji lub wypadków samochodowych, zamiast używać wyrażenia „wypadki samochodowe”. Wydaje się, że kolizja samochodowa lub wypadek samochodowy nie ma żadnego wpływu na to, jak doszło do zdarzenia. Tymczasem sformułowanie „wypadek samochodowy” niemal każe nam sądzić, że było to zrządzenie losu lub w jakiś sposób poza ludzkimi rękami.

Możesz obficie zobaczyć, jak ta uwaga konotacyjna wchodzi w grę, gdy odnosi się do wypadków AI. Nie chcemy, aby twórcy sztucznej inteligencji ukrywali się za konotacyjną tarczą, że sztuczna inteligencja przypadkowo wyrządziła komuś krzywdę. To samo dotyczy tych, które wdrażają sztuczną inteligencję. Można argumentować, że sformułowanie „wypadki AI” jest niemal antropomorfizacją sztucznej inteligencji, która wprowadzi społeczeństwo w błąd, pozwalając ludziom, którzy byli za kulisami sztucznej inteligencji, uniknąć odpowiedzialności. Aby zapoznać się z moją dyskusją na temat rosnącego znaczenia pociągania ludzi do odpowiedzialności za ich sztuczną inteligencję, zobacz moją dyskusję pod adresem Ten link tutaj i Ten link tutaj.

Odtąd będę używał sloganu o wypadkach AI, ale robię to niechętnie i tylko dlatego, że jest to konwencjonalny sposób określania tego zjawiska. Próby sformułowania tego inaczej są niestety bardziej nadęte i nie tak łatwe do odczytania. Pamiętaj, aby zinterpretować to hasło w sposób, który nie spowoduje, że odwrócisz wzrok i nie zdasz sobie sprawy, że ludzie leżący u podstaw sztucznej inteligencji są winni, gdy sztuczna inteligencja pójdzie nie tak.

Aby pomóc zilustrować prawdopodobne zamieszanie lub wprowadzające w błąd aspekty odnoszące się do sztucznej inteligencji jako powodujących wypadki, możemy wrócić do moich uwag na temat przewrócenia wazonu. Rozważmy ten przykład działania sztucznej inteligencji: „Ten problem dotyczy rzeczy, które są wykonywane przez przypadek lub obojętność sztucznej inteligencji. Robot sprzątający przewracający wazon jest tego przykładem. Złożone środowiska mają tak wiele rodzajów „wazonów”, że jest mało prawdopodobne, że będziemy w stanie zaprogramować karę za wszystkie skutki uboczne” (zgodnie z artykułem Roberta Williamsa i Romana Yampolskiego).

System sztucznej inteligencji, który zostaje uruchomiony w gospodarstwie domowym, a następnie „przypadkowo” przewraca wazon, wydaje się sugerować, że nikt nie powinien być obwiniany za to niekorzystne działanie sztucznej inteligencji. To był tylko wypadek, można by żałośnie potępić. Z drugiej strony powinniśmy słusznie zapytać, dlaczego system sztucznej inteligencji nie został zaprogramowany do ogólnej obsługi okoliczności wazonu. Nawet jeśli twórcy sztucznej inteligencji nie przewidzieli, że waza sama w sobie znajdzie się w zasięgu obiektów, które można napotkać, z pewnością możemy zapytać, dlaczego nie było jakiegoś nadrzędnego unikania obiektów, które powstrzymałoby system sztucznej inteligencji przed przewróceniem wazon (w związku z tym sztuczna inteligencja mogła wprawdzie nie sklasyfikować wazonu jako wazonu, ale nadal mogła go uniknąć jako wykrywalnego obiektu, którego należy unikać).

Przewidywałem i nadal prognozuję, że stopniowo zmierzamy w kierunku ogromnej batalii prawnej o pojawienie się systemów AI, które same wpadają w „wypadki AI” i powodują jakąś formę szkód. Do tej pory społeczeństwo nie reagowało w żaden znaczący sposób na prawny sprzeciw wobec sztucznej inteligencji, która jest wprowadzana na rynek i powoduje negatywne konsekwencje, celowo lub nieumyślnie. Dzisiejsza moda na sztuczną inteligencję, która stała się gorączką złota wśród niedopracowanych twórców sztucznej inteligencji i tych, którzy pospiesznie wdrażają sztuczną inteligencję, ma teraz szczęście i pozostaje względnie nietknięta przez procesy cywilne i postępowania karne.

Prędzej czy później nadchodzi prawny sprzeciw podsycany przez sztuczną inteligencję.

Idąc dalej, jak mamy spróbować poradzić sobie z nieuchronnością tak zwanych wypadków AI?

Jedno, co możemy zrobić od razu, to spróbować przewidzieć, jak mogą wystąpić wypadki AI. Przewidując wypadki AI, możemy przynajmniej starać się opracować sposoby ich ograniczenia lub zminimalizowania prawdopodobieństwa ich wystąpienia. Co więcej, możemy spróbować zainstalować poręcze, aby w przypadku wypadku AI zmniejszyć szanse na demonstracyjne szkody.

Pomocny zestaw czynników, które zostały opisane we wcześniej cytowanym artykule badawczym Zrozumienie i unikanie błędów AI: praktyczny przewodnik obejmuje następujące właściwości (cytowane z artykułu badawczego):

  • System, na który mają wpływ wyjścia AI.
  • Opóźnienie czasowe między wyjściami sztucznej inteligencji a większym systemem, obserwowalność systemu, poziom uwagi człowieka i zdolność operatorów do korygowania nieprawidłowego działania sztucznej inteligencji.
  • Maksymalne szkody możliwe w wyniku złośliwego użycia systemów kontrolowanych przez sztuczną inteligencję.
  • Sprzężenie komponentów w pobliżu AI i złożoność interakcji.
  • Luka w wiedzy na temat AI i innych stosowanych technologii oraz poziom energetyczny systemu.

W tym momencie tej obszernej dyskusji założę się, że pragniesz kilku ilustrujących przykładów, które mogłyby dokładniej wyjaśnić temat wypadków AI. Istnieje szczególny iz pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy związane z etyką sztucznej inteligencji, aby łatwiej było zrozumieć nieco teoretyczną naturę tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten etyczny dylemat sztucznej inteligencji, jest pojawienie się prawdziwie samojezdnych samochodów opartych na sztucznej inteligencji. Będzie to służyć jako przydatny przypadek użycia lub przykład do obszernej dyskusji na ten temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie samojezdnych samochodów opartych na sztucznej inteligencji wyjaśnia coś na temat pojawienia się tak zwanych wypadków AI, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samojezdne samochody i incydenty AI

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani do głębokiego zagłębienia się w samojezdne samochody i możliwości etycznej sztucznej inteligencji, które pociągają za sobą pojawienie się tak zwanych wypadków AI.

Wyobraź sobie, że autonomiczny samochód oparty na sztucznej inteligencji jest w ruchu na ulicach Twojej okolicy i wydaje się jechać bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na autonomiczny samochód. Autonomiczny pojazd wyróżniał się regałem z czujnikami elektronicznymi, na który składały się kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojezdnego samochodu jeżdżącego po Twojej społeczności, ledwo go zauważasz. Dla Ciebie to tylko kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zapoznanie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które są objęte testami samojezdnych samochodów, stopniowo przyzwyczaiły się do widoku wystrojonych pojazdów. Wielu miejscowych w końcu przeszło od zachwytu i rozdziawionych ust do wydawania ekspansywnego ziewania znudzenia, by być świadkami tych wijących się, samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wróćmy do naszej opowieści.

Pewnego dnia autonomiczny samochód ulega wypadkowi.

Podczas skręcania w prawo system kierowania AI wykonał szeroki obrót autonomicznym pojazdem i uderzył w samochód prowadzony przez człowieka. Samochód prowadzony przez człowieka jechał na wprost właściwym pasem ruchu. Ludzki kierowca nie miał szczególnej okazji, aby skręcić lub uniknąć uderzenia. Ponadto autonomiczny samochód nie ostrzegał ani nie wskazywał, że zamierza skręcić w prawo.

Czy to wypadek?

Z pewnością możemy powiedzieć, że mieści się to w rubryce bycia wypadkiem AI. Podstawą takiego twierdzenia jest to, że za kierownicą samojezdnego samochodu znajdował się system kierowania AI. W jakiś sposób, z jakichkolwiek powodów, sztuczna inteligencja zdecydowała się wykonać szeroki obrót podczas skręcania w prawo. W rezultacie autonomiczny samochód zderzył się z samochodem prowadzonym przez człowieka.

Przypomnij sobie wcześniejszą dyskusję na temat konotacji związanych ze słowem „wypadek” i zobacz, jak takie podteksty pojawiają się w tym scenariuszu. Pamiętaj też, że omawialiśmy przypadek człowieka, który skręcił szeroko w prawo i wjechał w inny samochód prowadzony przez człowieka. Zdaliśmy sobie sprawę, że pojęcie tego czynu jako „wypadku” jest mylące i mylące. Ludzki kierowca, który wykonał szeroki zamach, mógł ukryć się za ideą, że wypadek po prostu miał miejsce, co pozornie było dziełem przypadku lub kaprysami losu.

Zamiast określać scenariusz jako „wypadek AI” w przypadku samojezdnego samochodu opartego na sztucznej inteligencji, który jechał szeroko i uderzał w samochód prowadzony przez człowieka, być może powinniśmy powiedzieć, że był to wypadek samochodowy lub kolizja samochodowa z udziałem samosterującego się pojazdu. samochód osobowy i samochód prowadzony przez człowieka. Możemy wtedy zrezygnować z bezsensownego zamieszania, że ​​jest to przypadek niepoznawalnych środków.

Jak myślisz, jaka byłaby reakcja opinii publicznej na ten incydent?

Cóż, jeśli producent samochodów lub firma zajmująca się technologią samojezdną może trzymać się etykietowania sprawy jako wypadku, być może będzie w stanie ominąć potencjalną reakcję całej społeczności. Poczucie współczucia z powodu wszystkich opowiedzianych wypadków prawdopodobnie przeniosłoby się na konkretne okoliczności. Aby uzyskać więcej informacji na temat potencjalnej reakcji miast, hrabstw i przywódców stanowych na incydenty związane z pojazdami autonomicznymi AI, zapoznaj się z omówieniem badania na Harvardzie, które współprowadziłem i jak opisano na stronie link tutaj.

Jeśli sytuacja jest wyraźnie opisana jako wypadek samochodowy lub kolizja samochodowa, być może pozwoli to na uświadomienie sobie, że ktoś lub coś jest być może winne incydentowi. Odruchową reakcją może być pociągnięcie sztucznej inteligencji do odpowiedzialności. Chodzi o to, że dopóki lub jeśli kiedykolwiek zdecydujemy się namaścić sztuczną inteligencję jako mającą pozory osobowości prawnej, nie będziesz w stanie zrzucić odpowiedzialności na sztuczną inteligencję per se (zobacz moją dyskusję na temat sztucznej inteligencji i osobowości prawnej na stronie link tutaj).

Możemy sprawdzić system jazdy AI, aby spróbować dowiedzieć się, co doprowadziło do pozornie niewłaściwej jazdy i późniejszego wypadku samochodowego. Nie oznacza to jednak, że sztuczna inteligencja zostanie pociągnięta do odpowiedzialności. Odpowiedzialnymi stronami są twórcy sztucznej inteligencji, operator floty samojezdnego samochodu i inni. Uwzględniam też inne, ponieważ istnieje możliwość, że miasto może być częściowo odpowiedzialne za zaprojektowanie zakrętu, w którym nastąpił zakręt. Ponadto załóżmy, że pieszy wypadł zza rogu, a system kierowania sztuczną inteligencją zdecydował się ominąć tę osobę, a mimo to został uwikłany w wypadek samochodowy.

I tak dalej.

Wnioski

Chcielibyśmy wiedzieć, co sztuczna inteligencja obliczała obliczeniowo i do czego została zaprogramowana. Czy sztuczna inteligencja zrobiła tak, jak zakodowano? Być może sztuczna inteligencja napotkała błąd lub błąd w programowaniu, co nie usprawiedliwia działań, ale dostarcza więcej wskazówek, jak doszło do awarii.

Jakiego rodzaju poręcze AI zostały zaprogramowane w systemie napędowym AI? Gdyby istniały poręcze, chcielibyśmy dowiedzieć się, dlaczego wydawało się, że nie zapobiegły wypadkowi samochodowemu. Może system kierowania AI mógł się zatrzymać, zamiast skręcić. Chcielibyśmy wiedzieć, jakie alternatywy sztuczna inteligencja oceniła obliczeniowo w trakcie incydentu.

Oprócz dotarcia do sedna konkretnego incydentu, kolejnym uzasadnionym problemem jest to, czy system kierowania AI ma wadę lub inny osadzony aspekt, który spowoduje podobne działania niepożądane. Zasadniczo ten incydent może być wskaźnikiem ostrzegawczym tego, co ma nadejść. W jaki sposób wykorzystano komputerowe symulacje sytuacji na drodze, aby spróbować przewidzieć tego typu monity układu jazdy AI? Czy przeprowadzono wystarczającą liczbę testów jazdy po drogach, aby wykryć problemy ze sztuczną inteligencją, które mogły doprowadzić do wypadku samochodowego?

Ten scenariusz ukazuje kontrowersyjną zagadkę, która stoi w obliczu pojawienia się samojezdnych samochodów opartych na sztucznej inteligencji.

To idzie tak.

Z jednej strony istnieje społeczne pragnienie szybkiego wprowadzenia samojezdnych samochodów ze względu na nadzieję, że systemy kierowania AI będą tak samo bezpieczne, a nawet bezpieczniejsze niż kierowcy. W samych Stanach Zjednoczonych mamy obecnie prawie 40,000 2.5 ofiar śmiertelnych rocznie w wyniku wypadków samochodowych i około XNUMX miliona obrażeń. Analizy sugerują, że znaczną część tych wypadków samochodowych można przypisać błędom ludzkim, takim jak prowadzenie pojazdu pod wpływem alkoholu, prowadzenie pojazdu w stanie rozproszenia itp. (zobacz moją ocenę takich statystyk na stronie link tutaj).

Systemy kierowania AI nie będą prowadzić pod wpływem alkoholu. Nie będą potrzebować odpoczynku i nie zmęczą się za kierownicą. Zakłada się, że ustanawiając samojezdne samochody jako opłacalny środek transportu, możemy zmniejszyć liczbę ludzkich kierowców. To z kolei powinno oznaczać, że doraźnie zmniejszymy liczbę rocznych ofiar śmiertelnych i obrażeń w wypadkach samochodowych.

Niektórzy eksperci twierdzą, że skończymy z zerową liczbą ofiar śmiertelnych i zerową liczbą rannych, a samojezdne samochody rzekomo będą nie do zniszczenia, ale jest to całkowicie absurdalny i całkowicie fałszywy zestaw oczekiwań. Wyjaśniłem, dlaczego jest to tak nieszczere w link tutaj.

W każdym razie załóżmy, że będziemy mieli pewną liczbę wypadków samochodowych, w których biorą udział samochody samojezdne. Załóżmy również, że te wypadki samochodowe będą miały pewną liczbę ofiar śmiertelnych i rannych. Pytanie, które jest zadręczane, dotyczy tego, czy jako społeczeństwo jesteśmy w ogóle gotowi tolerować takie przypadki. Niektórzy twierdzą, że jeśli choć jedna ofiara śmiertelna lub jedna kontuzja wydarzy się w wyniku prawdziwie samojezdnych samochodów, cały zestaw i kaboodle powinny zostać zamknięte.

Przeciwny punkt widzenia jest taki, że jeśli uratowane życia zmniejszają roczne liczby, powinniśmy nadal zachęcać do pojawiania się samojezdnych samochodów i nie reagować w tak nielogiczny sposób. Będziemy musieli zaakceptować założenie, że pewna liczba ofiar śmiertelnych i rannych nadal będzie istnieć, nawet w przypadku samochodów samojezdnych, a jednocześnie zdać sobie sprawę, że spadek rocznej liczby oznacza, że ​​jesteśmy na właściwej ścieżce.

Oczywiście niektórzy twierdzą, że nie powinniśmy mieć samojezdnych samochodów na naszych drogach publicznych, dopóki nie zostaną dopuszczone do takiego użytku w wyniku szeroko zakrojonych i wyczerpujących symulacji komputerowych lub prywatnych testów na zamkniętym torze. Kontrargumentem jest to, że jedynym realnym i najszybszym sposobem na uruchomienie samojezdnych samochodów jest korzystanie z dróg publicznych i że wszelkie opóźnienia w przyjęciu samojezdnych samochodów spowodują, że w przeciwnym razie przerażająca liczba wypadków samochodowych kierowanych przez ludzi będzie kontynuowana. Szerzej omówiłem tę debatę w moich felietonach i zachęcam czytelników do przyjrzenia się tym dyskusjom, aby uzyskać pełny sens perspektywy tej kontrowersyjnej kwestii.

Na razie zakończmy sprawy.

Wypadki AI będą się zdarzać. Musimy oprzeć się pokusie postrzegania wypadku AI jako pozornie przypadkowo i ergo fałszywie pozwól, aby twórcy i ci, którzy wdrażają sztuczną inteligencję, kategorycznie odpuścili.

Jest dodatkowy zwrot akcji, który zostawiam wam jako ostatnią intrygującą myśl na twój dzień.

Komik Dane Cook podobno opowiedział dowcip o wypadkach samochodowych: „Kilka dni temu miałem wypadek samochodowy. Nie moja wina. Nawet jeśli to nie twoja wina, druga osoba wysiada z samochodu i patrzy na ciebie, jakby to była twoja wina: dlaczego zatrzymałeś się na czerwonym świetle i pozwoliłeś mi uderzyć cię przy 80!”

Tam, gdzie na pierwszy plan wysuwa się zwrot akcji, istnieje możliwość, że system sztucznej inteligencji może zdecydować się na naleganie, aby w przypadku wypadku AI z udziałem tej konkretnej sztucznej inteligencji sztuczna inteligencja zachwalała, że ​​​​incydent był winą człowieka, a na pewno nie winy sztucznej inteligencji. Nawiasem mówiąc, może to być w pełni prawdziwe, a człowiek może próbować zrobić z AI kozła ofiarnego, twierdząc, że to wina sztucznej inteligencji.

A może sztuczna inteligencja próbuje zrobić z człowieka kozła ofiarnego.

Widzisz, sztuczna inteligencja, którą wymyślamy, może być podstępna w ten sposób, przez przypadek lub nie.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents- which-looms-over-autonomous-self- prowadzenie-samochodów-też/