Etyka AI rozważa zalety prawnie nakazujących funduszy pokutnych, aby zapewnić odpowiedzialność za złe działanie AI

Kto jest winny?

To może wydawać się prostym pytaniem, choć w przypadku słynnej komedii legendarnego duetu Abbott i Costello o drużynie baseballowej, „kto” może być mylące. Możesz być zaznajomiony z Kto jest pierwszy komediowa rutyna, którą zrobili z jednego z najtrwalszych skeczy wszechczasów (uwaga na spoiler dla tych z was, którzy tego nie słyszeli).

Abbott mówi Costello, że Kto jest na pierwszym, co na drugim, a Nie wiem na trzecim. Sprytna sztuczka polega na tym, że pierwsza podstawa nazywa się Kto, druga piwnica nazywa się Co, a trzecia nazywa się Nie wiem. Oczywiście te zwroty mają również swoje konwencjonalne znaczenie, a zatem próba interpretacji tego, co mówi Abbott, może być całkowicie myląca. Rzeczywiście, Costello zadaje pozornie nieszkodliwe pytanie, kto jest pierwszy, na co odpowiedź brzmi zdecydowanie tak. Ale to nie ma sensu dla Costello, ponieważ oczekiwał nazwiska, a zamiast tego otrzymał kłopotliwą odpowiedź tak.

Zmiana biegów, jeśli chodzi o pojawienie się sztucznej inteligencji (AI), jedno z najbardziej irytujących pytań, które wciąż są zadawane, dotyczy tego, kto lub być może zostanie pociągnięty do odpowiedzialności, gdy sztuczna inteligencja zbłądzi.

Wcześniej omawiałem odpowiedzialność karną za przypadki, gdy sztuczna inteligencja prowadzi lub podejmuje działania przestępcze, zobacz moje relacje na link tutaj. Istnieje również kwestia odpowiedzialności cywilnej, takiej jak kogo lub co możesz pozwać, gdy sztuczna inteligencja wyrządziła ci krzywdę, o czym będę tutaj dyskutować. Wszystko to ma istotne względy etyki AI. Aby zapoznać się z moim stałym i obszernym omówieniem etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Posiadanie nastawienia na etykę sztucznej inteligencji i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym (być może zaskakująco lub jak na ironię) oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. W rzeczywistości ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

Toczy się ożywiona debata na temat tego, czy istniejące przepisy są w stanie odpowiednio zająć się pojawianiem się systemów sztucznej inteligencji w całym społeczeństwie. Odpowiedzialność prawna zazwyczaj wymaga, abyś mógł przypiąć osiołkowi ogon, kto jest odpowiedzialny za szkodliwe zachowanie. W przypadku AI może istnieć raczej niejasna ścieżka, która łączy daną osobę lub osoby z AI, która wykonała jakieś szkodliwe działanie. Sztuczna inteligencja może być w dużej mierze niemożliwa do wyśledzenia dla źródła lub wynalazcy, który stworzył sztuczną inteligencję.

Inną kwestią jest to, że nawet jeśli korzenie sztucznej inteligencji można przypisać do kogoś, pytanie brzmi, czy osoba lub osoby mogły nie być w stanie racjonalnie przewidzieć niekorzystnego wyniku, który ostatecznie wywołała sztuczna inteligencja. Sedno przewidywalności jest zwyczajowo istotnym czynnikiem przy ocenie odpowiedzialności prawnej.

Możesz ulec pokusie, by pomyśleć, że możesz po prostu pójść za samą sztuczną inteligencją i nazwać ją stroną prawną odpowiedzialną lub odpowiedzialną za wszelkie rzekomo poniesione szkody. Ogólnie rzecz biorąc, przeważa pogląd prawny, że sztuczna inteligencja nie osiągnęła jeszcze poziomu osobowości prawnej. W ten sposób nie będziesz w stanie, ściśle rzecz biorąc, starać się, aby sztuczna inteligencja zapłaciła i będziesz musiał znaleźć ludzi, którzy niejako za kulisami pracowali za kulisami (dla mojej analizy osobowości prawnej dla AI, zobacz link tutaj).

W to całe to potencjalne prawnicze bagno wkracza pomysł, który jest wprowadzany jako możliwy środek zaradczy, albo krótkoterminowy, albo prawdopodobnie długoterminowy. Chodzi o to, że być może należałoby utworzyć specjalny fundusz kompensacyjny, aby zapewnić ulgę finansową osobom poszkodowanym przez sztuczną inteligencję. Jeśli w inny sposób nie jesteś w stanie uzyskać rekompensaty przez sztuczną inteligencję i nie możesz przygwoździć osób, które prawdopodobnie powinny być pociągnięte do odpowiedzialności, następną najlepszą opcją może być skorzystanie z funduszu kompensacyjnego, który ma na celu pomoc osobom poszkodowanym przez sztuczną inteligencję.

Taki fundusz byłby podobny do pewnego rodzaju ubezpieczenia, jak stwierdzono w prowokującym do myślenia artykule badawczym: „Byłby to zasadniczo mechanizm ubezpieczenia od niepewności: jasne i przejrzyste ramy dla szybkiego odszkodowania w przypadkach, gdy powództwo o odpowiedzialności niepewna perspektywa sukcesu lub jej brak ze względu na nieprzewidywalny charakter szkodliwego zachowania, (rodzaj) samej szkody lub nadmiernych kosztów i/lub złożoności procedury” (artykuł Olivii Erdelyi i Gabor Erdelyi, „The AI ​​Liability Puzzle I obejście oparte na funduszach”, Dziennik Badań nad Sztuczną Inteligencją, 2021).

Fundusz kompensacyjny byłby częścią nadrzędnego systemu gwarancji sztucznej inteligencji (AIGS) i towarzyszyłby mu kilka drobnych zmian w istniejących przepisach dotyczących odpowiedzialności prawnej. Delikatny dotyk byłby prawdopodobnie łatwiejszy do wprowadzenia i nie wymagałby żmudnego rodzaju prawnego i społecznego niepokoju, gdyby w istniejących systemach prawnych wprowadzono bardziej rozdzierającą brzuch serię demonstracyjnych zmian. Zdaniem badaczy: „To odzwierciedla nasze przekonanie, że – pomimo atrakcyjności tak szybkiego rozwiązania – niezmieniony zastosowanie istniejących zasad odpowiedzialności do AI lub motywowany protekcjonistycznie uciekanie się do odpowiedzialności na zasadzie ryzyka w celu ustalenia odpowiedzialności za wszelką cenę nie jest właściwą odpowiedzią z trzech powodów: po pierwsze, ignorując fakt, że przepisy te zostały dostosowane do różnych okoliczności, a zatem mogą być nieodpowiednie dla sztucznej inteligencji, naruszają delikatnie wyważone cele system odpowiedzialności prawnej. Po drugie, hamują innowacje AI, przyjmując nadmiernie represyjne podejście. Po trzecie, nieuzasadnione uciekanie się do odpowiedzialności na zasadzie ryzyka jedynie omija problemy przewidywalności i błędów w dogmatycznie niespójny sposób, a nie naprawia je” (jak w cytowanym powyżej artykule).

Argumenty przemawiające za takimi funduszami kompensacyjnymi SI obejmują:

  • Zmniejsza potrzebę długich i kosztownych prób prawnych, aby poradzić sobie ze szkodami wyrządzonymi przez sztuczną inteligencję
  • Zapewnia ludzi, że mogą wykorzystać sztuczną inteligencję i otrzymać rekompensatę, jeśli doznają krzywdy
  • Promuje innowacje w zakresie sztucznej inteligencji, łagodząc niepewność prawną, przed którą stoją innowatorzy sztucznej inteligencji
  • Może zostać wprowadzony do użytku znacznie szybciej niż wprowadzanie ogromnych zmian w istniejących przepisach
  • Oferuje stosunkowo jasne rozwiązanie, które jest niezawodne i łatwo dostępne
  • Inne

Tymczasem ci, którzy sprzeciwiają się podejściu funduszy kompensacyjnych AI, mówią tak:

  • Niech twórcy sztucznej inteligencji nadmiernie odprężą się i pozwolą im uniknąć odpowiedzialności
  • Ośmieli twórców sztucznej inteligencji do tworzenia sztucznej inteligencji, której brakuje należytego bezpieczeństwa i odpowiedniej kontroli
  • Może skłonić ludzi do fałszywego twierdzenia, że ​​sztuczna inteligencja szkodzi, aby mogli sięgnąć po fundusze
  • Omija i podważa prawdziwą potrzebę zmiany naszych przepisów, aby wystarczająco rządzić sztuczną inteligencją
  • Może stać się biurokratycznym koszmarem, który grzęźnie i niewłaściwie wykorzystuje fundusze
  • Inne

Jak widać, są zarówno zwolennicy, jak i przeciwnicy tej całkowicie kontrowersyjnej koncepcji.

Ciężko byłoby wykluczyć natychmiast fundusz kompensacyjny sztucznej inteligencji jako potencjalne podejście do rosnących obaw dotyczących sztucznej inteligencji, która powoduje szkody. Proponowane rozwiązanie nie jest też wsadem.

Jednym z punktów widzenia jest to, że twórcy sztucznej inteligencji musieliby wpłacać pieniądze do funduszy w ramach swoich wysiłków podczas opracowywania i rozpowszechniania sztucznej inteligencji. Można to interpretować jako rodzaj opłaty lub podatku, który muszą ponieść, aby móc uwolnić swoją sztuczną inteligencję światu. Ale czy ten dodatkowy koszt może hamować wysiłki startupów, które próbują przesuwać granice dzisiejszej sztucznej inteligencji? A jak miałoby być egzekwowane egzekwowanie upewnienia się, że twórcy sztucznej inteligencji uiścili opłatę lub podatek?

Pojawia się mnóstwo pytań, które należałoby zadać:

  • W jakich krajach fundusz kompensacyjny SI byłby najlepszy?
  • Czy można by stworzyć globalne pozory połączonych funduszy kompensacyjnych SI?
  • Jakie byłyby szczegółowe i wykonalne mechanizmy związane z takimi funduszami?
  • Jak mają być finansowane fundusze kompensacyjne SI (publiczne, prywatne, charytatywne)?
  • Czy byłaby to podstawa ubezpieczenia bez winy, czy też zastosowanoby inne podejście?
  • Itd.

Sfera, w której pojawił się już pomysł na fundusze kompensacyjne AI, składa się z systemów autonomicznych, takich jak pojazdy autonomiczne i samochody autonomiczne. Aby zapoznać się z moim opisem samochodów autonomicznych i autonomicznych systemów AI, zobacz link tutaj.

Oto szkic tego, jak może to działać w przypadku samojezdnych samochodów opartych na sztucznej inteligencji.

Załóżmy, że autonomiczny samochód zderza się z rowerzystą. Rowerzysta jest ranny. Rowerzysta może dochodzić zadośćuczynienia, ścigając producenta pojazdu autonomicznego. Mogą też celować w samojezdną firmę technologiczną, która stworzyła system jazdy AI. Jeśli samochód autonomiczny jest eksploatowany jako flota, inną legalną drogą byłoby ściganie operatora floty. Próba pozwania AI nie wchodzi w grę w tym momencie, ponieważ osobowość prawna AI nie została jeszcze ustalona.

Zamiast podejmować kroki prawne przeciwko którejkolwiek z tych stron, innym rozwiązaniem byłoby złożenie wniosku lub roszczenia do odpowiedniego funduszu kompensacyjnego SI. Fundusz sformalizowałby procesy obejmujące rozpatrzenie roszczenia, a następnie określiłby, co w przypadku, gdy jakiekolwiek płatności wyrównawcze mogą zostać przekazane wnioskodawcy. Może istnieć procedura odwoławcza, która pomaga wnioskodawcom, którzy uważają, że zostali niesłusznie odrzuceni przez fundusz lub niewystarczająco zrekompensowani przez fundusz.

Teoretycznie fundusz kompensacyjny sztucznej inteligencji byłby znacznie szybszą ścieżką do uzyskania rekompensaty za wyrządzone szkody. Możesz sobie wyobrazić, jak pracochłonny może być proces sądowy, w którym pozywane firmy mogą próbować przeciągnąć sprawę.

Adwokaci mogą jednak podkreślić, że fundusz kompensacyjny sztucznej inteligencji może pozwolić innym stronom, takim jak twórcy sztucznej inteligencji, pozornie uniknąć jakiejkolwiek kary za wypuszczenie autonomicznego samochodu na drogach publicznych, który w rezultacie uderzył w rowerzystę. Co jeszcze te firmy mogą zdecydować się na „nieostrożne” zrobienie? Bez zbliżającego się widma legalnego miecza wiszącego nad ich głowami, moglibyśmy codziennie konfrontować się ze sztuczną inteligencją, która jest pełna niebezpiecznych możliwości.

Okrągłe argumenty idą.

Wnioski

AI Ethics przypomina nam, że zawsze powinniśmy brać pod uwagę etyczne i prawne konsekwencje AI. W tym przypadku funduszy kompensacyjnych AI, proponowana koncepcja ubezpieczeniowej puli środków na odszkodowanie dla tych, którzy są poszkodowani przez AI, wydaje się kusząca. Wygląda na to, że fundusze tam czekają, gotowe do wykorzystania i zapewnienia jak najszybszej rekompensaty.

Kompromisy, czy to może otworzyć wrota w kierunku stworzenia sztucznej inteligencji, która ma coraz mniej kontroli bezpieczeństwa, jest zniechęcającym i zbyt realnym problemem. Prawdopodobnie nie musimy dolewać oliwy do ognia, który być może już w pewnym stopniu już trwa.

Czy możemy w jakiś sposób nadal zmuszać twórców AI do opracowania odpowiedniej etycznej sztucznej inteligencji i jednocześnie ustanowić fundusze kompensacyjne AI?

Niektórzy powiedzieliby, że tak, możemy. Poprzez zmianę istniejących przepisów, aby dostosować je do funduszy kompensacyjnych AI, osoby poszkodowane przez sztuczną inteligencję potencjalnie miałyby podwójną ścieżkę dochodzenia sprawiedliwego odszkodowania.

Kto jest pierwszy?

Tak, to właśnie oni (jak u nas wszystkich) od razu zauważają, że powinniśmy rozważać potencjalne wykorzystanie funduszy kompensacyjnych AI i modyfikować istniejące przepisy, nawet jeśli tylko nieznacznie, zapewniając środki do radzenia sobie z atakiem zarówno dobrej sztucznej inteligencji, jak i zła sztuczna inteligencja.

Nie ma zamieszania w tej istotnej kwestii.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- odpowiedzialność/