Wszczepienie rozumowania prawnego w sztuczną inteligencję może sprytnie osiągnąć dostosowanie do wartości ludzkich, mówi etyka AI i prawo AI

W dzisiejszym felietonie zamierzam splatać niezliczone pozornie odmienne tematy związane ze sztuczną inteligencją w jedną ładnie utkaną tkaninę.

Czy jesteś gotowy?

Wyobraź sobie, że korzystasz z aplikacji opartej na sztucznej inteligencji, która pomaga ci w wykonywaniu jakiegoś ważnego zadania. Być może sprawa ma charakter finansowy lub może być związana ze zdrowiem. Istotą jest to, że polegasz na sztucznej inteligencji, aby postąpiła właściwie i działała w domniemany bezpieczny i zdrowy sposób.

Załóżmy, że sztuczna inteligencja wkracza na nieetyczne terytorium.

Możesz nie zdawać sobie sprawy, że AI to robi.

Na przykład sztuczna inteligencja może polegać na potencjalnie ukrytych czynnikach dyskryminujących, takich jak rasa lub płeć, chociaż możesz nie mieć żadnych realnych sposobów na rozpoznanie niepożądanego użycia. Oto jesteś, całkiem sam, zdobywając krótki koniec kija za pośrednictwem sztucznej inteligencji, która została wymyślona od samego początku w problematyczny sposób lub udało jej się skierować w ryzykowne i graniczne zagrożenie etyczne (będę mówić więcej o to za chwilę).

Co możesz zrobić lub co możesz zrobić w przypadku sztucznej inteligencji, która wybiera nieetyczną ścieżkę?

Poza próbą wcześniejszego zbudowania sztucznej inteligencji, aby nie wykonywała tego rodzaju podstępnych działań, wcześniej szczegółowo opisałem również, że rośnie zainteresowanie osadzeniem Sprawdzanie etyki AI komponent w rozrastające się bagno systemów sztucznej inteligencji, które skądinąd Dzikiego Zachodu są wprowadzane na rynek. Pomysł polega na tym, że aby uniemożliwić aplikacji nasyconej sztuczną inteligencją przekroczenie wymiarów etycznych, moglibyśmy użyć dodatkowej sztucznej inteligencji, aby sprawdzić i zrównoważyć. Ta dodana sztuczna inteligencja może znajdować się poza docelową aplikacją sztucznej inteligencji lub może być komponentem osadzonym lub wszczepionym bezpośrednio w sztuczną inteligencję, który chcemy dokładnie sprawdzić.

Jak już pisałem, zob link tutaj: „Ostatnio pojawiający się trend polega na próbie wbudowania etycznych barier ochronnych w sztuczną inteligencję, które zostaną złapane, gdy reszta systemu sztucznej inteligencji zacznie przekraczać ustalone granice etyczne. W pewnym sensie celem jest wykorzystanie samej sztucznej inteligencji, aby nie dopuścić do etycznego błędu. Można powiedzieć, że dążymy do tego, aby sztuczna inteligencja sama się leczyła” (Lance Eliot, „Tworzenie etycznej sztucznej inteligencji, która monitoruje nieetyczną sztuczną inteligencję i próbuje powstrzymać złą sztuczną inteligencję przed działaniem”, Forbes, 28 marca 2022 r.).

Być może zainteresuje Cię również moja książka Boty stróżów AI, czasami określanych jako anioły stróże, które obejmują techniczne podstawy tego najnowocześniejszego wbudowanego podwójnego sprawdzania sztucznej inteligencji w sztucznej inteligencji, zob. link tutaj.

Konkluzja jest taka, że ​​Twój boczek może zostać na szczęście uratowany dzięki wbudowanemu elementowi AI do podwójnego sprawdzania etyki, który został opracowany i wszczepiony do aplikacji AI, z której korzystasz. Ale czy to wystarczy jako strażnik, aby naprawdę upewnić się, że sztuczna inteligencja nie usztywni cię całkowicie i nie zapuści się nawet na szkodliwą ziemię?

Widzisz, aplikacja AI może działać pozornie nielegalny dzieje.

Jedną rzeczą jest posiadanie sztucznej inteligencji, która wchodzi w szarą strefę tego, co uważamy za etyczne lub nieetyczne zachowania. Równie niepokojące zachowanie i prawdopodobnie pogarszający się niepokój pociągają za sobą sztuczną inteligencję, która po prostu przeskakuje rekina i schodzi w tandetną ciemność jawnie bezprawnych czynów.

Nielegalna sztuczna inteligencja jest zła. Pozwalanie nielegalnej sztucznej inteligencji na pozostawanie bez opieki jest złe. Niektórzy prawnicy otwarcie martwią się, że pojawienie się i wszechobecność sztucznej inteligencji stopniowo i przerażająco podważy nasze pozory sztucznej inteligencji. rządy prawa, zobacz moją analizę pod adresem link tutaj.

Poczekaj chwilę, możesz powiedzieć.

Możesz ulec pokusie, by pomyśleć, że zrobiliby to programiści AI nigdy zaprogramować swoją sztuczną inteligencję, aby działała wbrew prawu. Niewyobrażalny. Zrobiliby to tylko źli złoczyńcy (co, nawiasem mówiąc, należy pamiętać, że są tacy, którzy celowo opracowują i wykorzystują sztuczną inteligencję do złych celów, co stanowi rosnący obszar zainteresowania przestępców i innych osób chcących wykorzystać sztuczną inteligencję do nikczemnych działań).

Przepraszamy, ale myśleniem życzeniowym jest zakładanie, że wszyscy nie-źli twórcy AI będą ściśle upewniać się, że ich sztuczna inteligencja jest w pełni zgodna z prawem. Może się zdarzyć, że sztuczna inteligencja sama się dostosuje i wkroczy w nielegalną działalność. Oczywiście istnieje również możliwość, że twórcy sztucznej inteligencji albo chcieli, aby sztuczna inteligencja działała nielegalnie, albo nie byli świadomi tego, co stanowiło nielegalne, a jakie legalne działania podczas tworzenia sztucznej inteligencji (tak, jest to całkiem możliwe, a mianowicie, że całkowicie zaawansowany technologicznie zespół sztucznej inteligencji może ignorować prawne sztuczki ich sztucznej inteligencji, co nie jest usprawiedliwione, a mimo to zdarza się z alarmującą częstotliwością).

Co można zrobić na ten temat?

Po raz kolejny, oprócz upewnienia się, że sztuczna inteligencja poza bramą jest żelazna i zgodna z prawem, dodatkowe podejście do zdobycia pary obejmuje osadzenie lub wszczepienie komponentu AI, który przeprowadza podwójne sprawdzanie prawne dla reszty aplikacji AI. Siedząc cicho i często bez zapowiedzi, ta dodana sztuczna inteligencja obserwuje resztę sztucznej inteligencji, aby spróbować rozeznać, czy sztuczna inteligencja stanie się nieuczciwa lub przynajmniej przekroczy granice nałożonych ograniczeń prawnych lub regulacyjnych.

Mamy teraz dwa rodzaje podwójnego sprawdzania AI, które są potencjalnie wbudowane w aplikację AI:

  • Podwójne sprawdzanie etyki AI: W czasie rzeczywistym ten komponent lub dodatek AI ocenia resztę sztucznej inteligencji pod kątem etycznych i nieetycznych zachowań, które wykazuje sztuczna inteligencja
  • Podwójne sprawdzanie prawne AI: W czasie rzeczywistym ten komponent lub dodatek sztucznej inteligencji ocenia resztę sztucznej inteligencji, aby upewnić się, że pozostaje ona w ramach kluczowych zasad prawnych i wyłapuje pojawiające się nielegalne działania przez sztuczną inteligencję

Gwoli wyjaśnienia, są to stosunkowo nowe koncepcje i jako taka sztuczna inteligencja, której używasz dzisiaj, może znajdować się w dowolnym z tych obecnych warunków:

  • Sztuczna inteligencja, która w ogóle nie zawiera podwójnych sprawdzaczy
  • Sztuczna inteligencja, która zawiera podwójne sprawdzanie etyki SI, ale nie zawiera żadnych innych podwójnych sprawdzań
  • Sztuczna inteligencja, która zawiera podwójne sprawdzanie praw AI, ale nie ma innych podwójnych sprawdzaczy
  • Sztuczna inteligencja, która ma zarówno podwójne sprawdzanie etyki AI, jak i podwójne sprawdzanie prawne AI
  • Inne

Istnieją pewne wyraźnie trudne aspekty posiadania podwójnego sprawdzania etyki AI i podwójnego sprawdzania prawnego AI, które działają obok siebie w aplikacji AI jako pokrewni brat i siostra. Jest to rodzaj dualizmu, który może być trudniejszy do skoordynowania, niż mogłoby się wydawać (myślę, że wszyscy wiemy, że bracia i siostry mogą mieć najściślejsze więzi, chociaż mogą też od czasu do czasu walczyć jak Dickens i energicznie przeciwstawiać się wyświetlenia).

Długo omawiałem ten rodzaj uciążliwości dualizm: „W AI for Social Good występuje zaniedbany dualizm, polegający na braku uwzględnienia zarówno roli sztucznej sprawczości moralnej, jak i sztucznego rozumowania prawnego w zaawansowanych systemach AI. Wysiłki badaczy AI i programistów AI zwykle skupiały się na tym, jak tworzyć i osadzać sztucznych agentów moralnych, aby kierować podejmowaniem decyzji moralnych, gdy system AI działa w terenie, ale nie koncentrowały się również i nie łączyły wykorzystania możliwości sztucznego rozumowania prawnego , co jest równie konieczne dla solidnych wyników moralnych i prawnych” (Lance Eliot, „The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computing Society)

Jeśli chcesz dowiedzieć się, dlaczego może istnieć napięcie między podwójnym sprawdzaniem etyki sztucznej inteligencji a podwójnym sprawdzaniem prawnym AI, możesz znaleźć ten godny uwagi cytat o oszałamiającej wartości koncepcyjnej: „Prawo może zezwolić na określone działanie, nawet jeśli ten czyn jest niemoralny; a prawo może zakazać czynu, nawet jeśli jest on moralnie dopuszczalny, a nawet wymagany moralnie” (Shelly Kagan, Granice moralności, 1998).

Zmieńmy nieco nasz punkt widzenia i zobaczmy, jak te podwójne sprawdzanie wpasowują się w inny ściśle zbadany temat sztucznej inteligencji, a mianowicie Odpowiedzialna sztuczna inteligencja lub skoordynowane rozważenie dostosowania wartości ludzkich i sztucznej inteligencji.

Ogólny pogląd jest taki, że chcemy sztucznej inteligencji, która przestrzega właściwych i pożądanych wartości ludzkich. Niektórzy określają to jako Odpowiedzialna sztuczna inteligencja. Inni podobnie dyskutują Odpowiedzialna sztuczna inteligencja, Wiarygodna sztuczna inteligencja, Wyrównanie AI, z których wszystkie dotykają tej samej zasady kamienia węgielnego. Aby zapoznać się z moją dyskusją na temat tych ważnych kwestii, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Jak sprawić, by sztuczna inteligencja była zgodna z ludzkimi wartościami?

Jak sugerowaliśmy wcześniej, mamy nadzieję, że twórcy sztucznej inteligencji będą świadomi rozwoju sztucznej inteligencji, która osiąga przestrzeganie zasad Odpowiedzialnej Sztucznej Inteligencji. Niestety, nie mogą, z powodów wyjaśnionych wcześniej. Ponadto mogą próbować to zrobić, a mimo to sztuczna inteligencja kończy się samoregulacją poza najistotniejszą sferą zachowań etycznych lub prawdopodobnie na wodach niezgodnych z prawem.

W porządku, musimy w takim razie rozważyć nasze poręczne podwójne szachy jako środek do wzmocnienia tego ryzyka i narażenia. Zastosowanie dobrze opracowanego narzędzia do podwójnego sprawdzania etyki sztucznej inteligencji może istotnie pomóc w dostosowaniu sztucznej inteligencji do ludzkich wartości. Podobnie, użycie dobrze opracowanego podwójnego sprawdzenia prawnego AI może znacząco pomóc w dostosowaniu AI do wartości ludzkich.

W związku z tym kluczowym i jeszcze mało znanym sposobem dążenia do osiągnięcia Odpowiedzialnej AI, Godnej zaufania AI, Odpowiedzialnej AI, Dostosowania AI itp. Podwójne sprawdzanie praw AI, które działałoby niestrudzenie jako podwójne sprawdzanie sztucznej inteligencji, w której są osadzone.

W tej dyskusji chciałbym bardziej szczegółowo omówić naturę i konstrukcje podwójnych sprawdzaczy prawnych AI, które mogą być wbudowane w sztuczną inteligencję. Aby to zrobić, pomocne może być podzielenie się z Tobą dodatkowymi informacjami na temat ogólnego tematu Sztuczna inteligencja i prawo.

Aby zapoznać się z rozsądnym badaniem, w jaki sposób sztuczna inteligencja i prawo mieszają się ze sobą, zobacz moją dyskusję pod adresem link tutaj. W moim wnikliwym spojrzeniu na Sztuczna inteligencja i prawo sprzęgając, przedstawiam tę prostą koncepcję dwóch głównych sposobów powiązania sztucznej inteligencji i prawa:

  • (1) Prawo stosowane do sztucznej inteligencji: Formułowanie, uchwalanie i egzekwowanie przepisów stosowanych do regulowania lub zarządzania sztuczną inteligencją w naszym społeczeństwie
  • (2) Sztuczna inteligencja stosowana do prawa: Technologia sztucznej inteligencji opracowana i zastosowana w prawie, w tym oparte na sztucznej inteligencji Legal Reasoning (AILR) wdrożone do zaawansowanych technologicznie aplikacji LegalTech w celu autonomicznego lub półautonomicznego wykonywania zadań prawniczych

Pierwszy z wymienionych punktów widzenia polega na rozważeniu, w jaki sposób istniejące i nowe przepisy będą rządzić sztuczną inteligencją. Druga wymieniona perspektywa dotyczy zastosowania sztucznej inteligencji do prawa.

Ta ostatnia kategoria zwykle wiąże się z wykorzystaniem AILR (ang. Legal Reasoning) w różnych narzędziach internetowych używanych przez prawników. Na przykład sztuczna inteligencja może być częścią pakietu zarządzania cyklem życia kontraktu (CLM), który pomaga prawnikom w identyfikowaniu języka umowy, który będzie przydatny przy opracowywaniu nowych umów, lub może wykrywać umowy, których prawnie niejasny język pozwala na wpadki lub luki prawne (aby zapoznać się z tak zwanymi „zapachami prawa”, które mogą być rozpoznane przez sztuczną inteligencję, zob link tutaj).

Nieuchronnie zastosujemy sztuczną inteligencję do prawa, które stanie się dostępne dla ogółu społeczeństwa i które nie wymaga obecności prawnika. W tej chwili, w wyniku różnych ograniczeń, w tym UPL (Unauthorized Practical of Law), udostępnianie aplikacji porad prawnych opartych na sztucznej inteligencji jest kwestią drażliwą i kontrowersyjną, patrz moja dyskusja na link tutaj.

Przywołałem to wprowadzenie na temat sztucznej inteligencji i prawa, aby wskazać, że innym instrumentalnym zastosowaniem sztucznej inteligencji w prawie byłoby tworzenie podwójnych sprawdzaczy prawnych AI.

Tak, ten sam rodzaj sprawności technologicznej, który wiąże się z zastosowaniem sztucznej inteligencji do prawa, może służyć jako podwójny obowiązek, wykorzystując sztuczną inteligencję do pełnienia funkcji wbudowanego lub wszczepionego podwójnego kontrolera prawnego AI. Podwójny kontroler AI Legal to komponent, który musi być zorientowany w aspektach prawnych. Gdy reszta aplikacji AI wykonuje różne działania, funkcja AI Legal sprawdza, czy aplikacja AI robi to legalnie i w ramach ograniczeń prawnych.

Komponent podwójnego sprawdzania prawnego AI niekoniecznie musi obejmować pełną gamę wszystkiego, co trzeba wiedzieć o prawie. W zależności od charakteru aplikacji AI, celu i ogólnych działań AI, podwójna weryfikacja prawna AI może być znacznie węższa pod względem zawartej w niej wiedzy prawniczej.

Zidentyfikowałem przydatne ramy do pokazania, w jaki sposób sztuczna inteligencja w dziedzinie prawa obejmuje szereg autonomicznych zdolności, znanych jako poziomy autonomii (LoA). Aby zapoznać się z przeglądem, zobacz moje Forbes wpis w kolumnie z 21 listopada 2022 r., „Rozsądna, wszechstronna i przekonująca sprawa, dlaczego prawnicy muszą wiedzieć o sztucznej inteligencji i prawie” pod adresem link tutaj, a szczegółowy opis techniczny można znaleźć w moim szczegółowym artykule badawczym w Dziennik prawa obliczeniowego MIT z dnia 7 grudnia 2021 r., zob link tutaj.

Ramy wyjaśniają pięć poziomów sztucznej inteligencji stosowanych w przedsięwzięciach prawnych:

  • Poziom 0: Brak automatyzacji prac prawnych opartych na sztucznej inteligencji
  • Poziom 1: Prosta automatyzacja pomocy dla prac prawnych opartych na sztucznej inteligencji
  • Poziom 2: Zaawansowana automatyzacja pomocy dla prac prawnych opartych na sztucznej inteligencji
  • Poziom 3: Półautonomiczna automatyzacja pracy prawnej opartej na sztucznej inteligencji
  • Poziom 4: Domena autonomiczna dla prac prawnych opartych na sztucznej inteligencji
  • Poziom 5: W pełni autonomiczny dla legalnej pracy opartej na sztucznej inteligencji

Pokrótce je tutaj opiszę.

Poziom 0 jest uważany za poziom braku automatyzacji. Rozumowanie prawne i zadania prawne są przeprowadzane za pomocą metod ręcznych i zasadniczo odbywają się za pomocą podejść opartych na papierze.

Poziom 1 składa się z prostej automatyzacji pomocy w rozumowaniu prawnym AI. Przykładami tej kategorii mogą być codzienne komputerowe przetwarzanie tekstu, korzystanie z codziennych komputerowych arkuszy kalkulacyjnych, dostęp do internetowych dokumentów prawnych, które są przechowywane i pobierane elektronicznie, i tak dalej.

Poziom 2 obejmuje zaawansowaną automatyzację pomocy w rozumowaniu prawnym AI. Przykłady tej kategorii obejmują wykorzystanie podstawowego przetwarzania języka naturalnego (NLP) w stylu zapytań, uproszczonych elementów uczenia maszynowego (ML), narzędzi analizy statystycznej do przewidywania spraw sądowych itp.

Poziom 3 składa się z półautonomicznej automatyzacji dla rozumowania prawnego AI. Przykłady tej kategorii obejmują wykorzystanie zaawansowanych systemów opartych na wiedzy (KBS) do rozumowania prawnego, wykorzystanie uczenia maszynowego i głębokiego uczenia (ML/DL) do rozumowania prawnego, zaawansowane NLP i tak dalej.

Poziom 4 składa się z autonomicznych domenowych systemów komputerowych do rozumowania prawnego AI. Ten poziom ponownie wykorzystuje koncepcyjne pojęcie operacyjnych domen projektowych (ODD), stosowane w samochodach autonomicznych, ale stosowane w dziedzinie prawnej. Dziedziny prawne można podzielić według obszarów funkcjonalnych, takich jak prawo rodzinne, prawo nieruchomości, prawo upadłościowe, prawo ochrony środowiska, prawo podatkowe itp.

Poziom 5 składa się z w pełni autonomicznych systemów komputerowych do rozumowania prawnego AI. W pewnym sensie Poziom 5 jest nadzbiorem Poziomu 4 pod względem objęcia wszystkich możliwych domen prawnych. Proszę zdać sobie sprawę, że jest to dość trudne zadanie.

Możesz wyobrazić sobie te poziomy autonomii na równi z pokrewnymi zastosowaniami, omawiając samochody samojezdne i pojazdy autonomiczne (również w oparciu o oficjalny standard SAE, zobacz moją relację na link tutaj). Nie mamy jeszcze samojezdnych samochodów SAE Level 5. Wkraczamy w samojezdne samochody poziomu SAE 4. Większość konwencjonalnych samochodów ma poziom SAE 2, podczas gdy niektóre nowsze samochody zbliżają się do poziomu SAE 3.

W dziedzinie prawa nie mamy jeszcze AILR poziomu 5. Dotykamy niektórych poziomów 4, choć w bardzo wąskich ODD. Poziom 3 zaczyna ujrzeć światło dzienne, podczas gdy dzisiejsza podstawa AILR znajduje się głównie na poziomie 2.

Niedawny artykuł badawczy na temat zastosowania sztucznej inteligencji do prawa zawierał typizację znaną jako Prawo Informuje Kodeks. Badaczka stwierdza tak: „Jednym z podstawowych celów tzw Prawo Informuje Kodeks celem jest nauczenie sztucznej inteligencji przestrzegania ducha prawa” (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology i Własności Intelektualnej, tom 20, w przygotowaniu). Istnieją pewne istotne względy, które Prawo Informuje Kodeks mantrę, a ja przeprowadzę cię przez kilka z tych kluczowych wskazań.

Zanim zagłębię się w ten temat, chciałbym najpierw położyć podstawowe podstawy dotyczące sztucznej inteligencji, a zwłaszcza etyki i prawa AI, aby upewnić się, że dyskusja będzie miała kontekst.

Rosnąca świadomość etycznej sztucznej inteligencji, a także prawa AI

Niedawna era sztucznej inteligencji była początkowo postrzegana jako AI na dobre, co oznacza, że ​​możemy wykorzystać sztuczną inteligencję dla polepszenia ludzkości. Na piętach AI na dobre przyszła świadomość, że my również jesteśmy zanurzeni AI na złe. Obejmuje to sztuczną inteligencję, która została wymyślona lub samodzielnie zmodyfikowana, aby była dyskryminująca i dokonuje wyborów obliczeniowych, które nasycają niepotrzebne uprzedzenia. Czasami sztuczna inteligencja jest zbudowana w ten sposób, podczas gdy w innych przypadkach skręca w to niesprzyjające terytorium.

Chcę być całkowicie pewien, że jesteśmy na tej samej stronie co do natury dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat czującej sztucznej inteligencji, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Zdecydowanie sugerowałbym, abyśmy trzymali się rzeczy na ziemi i rozważyli dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

Bądź bardzo ostrożny, antropomorfizując dzisiejszą sztuczną inteligencję.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie obecnie ukrytych uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje spora szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wszystko to ma szczególnie istotne implikacje w zakresie etyki sztucznej inteligencji i oferuje przydatne wgląd w wyciągnięte wnioski (nawet zanim wszystkie lekcje się wydarzą), jeśli chodzi o próby uregulowania AI.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI.

Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Niedawno zbadałem również Karta praw AI który jest oficjalnym tytułem oficjalnego dokumentu rządu USA zatytułowanego „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, który był wynikiem rocznej pracy Biura ds. Polityki Nauki i Technologii (OSTP ). OSTP jest podmiotem federalnym, który służy doradzaniu prezydentowi USA i amerykańskiemu Biuru Wykonawczemu w różnych technologicznych, naukowych i inżynieryjnych aspektach o znaczeniu krajowym. W tym sensie można powiedzieć, że ta Karta Praw AI jest dokumentem zatwierdzonym i zatwierdzonym przez istniejący Biały Dom Stanów Zjednoczonych.

W Karcie Praw AI jest pięć kluczowych kategorii:

  • Bezpieczne i skuteczne systemy
  • Algorytmiczne zabezpieczenia przed dyskryminacją
  • Prywatność danych
  • Uwaga i wyjaśnienie
  • Ludzkie alternatywy, rozważenie i rozwiązanie awaryjne

Dokładnie przejrzałem te wskazania, zobacz link tutaj.

Teraz, gdy położyłem pomocne podstawy na te powiązane tematy związane z etyką AI i prawem AI, jesteśmy gotowi, aby przejść do mocnego tematu podwójnego sprawdzania prawnego AI i królestwa Prawo Informuje Kodeks.

Podwójne kontrole prawne AI osadzone w sztucznej inteligencji w celu dostosowania do wartości ludzkich

czasami odsyłam Podwójne sprawdzanie praw AI poprzez akronim AI-LDC. Jest to nieco drażniące wizualnie dla tych, którzy nie znają tego akronimu. W związku z tym nie będę używał tego konkretnego akronimu w tej dyskusji, ale chciałem o nim wspomnieć jako ostrzeżenie.

Aby rozwikłać niektóre z zawiłości podwójnych kontrolerów prawnych AI, omówmy te główne punkty:

  • Wykorzystanie podwójnych kontrolerów prawnych AI jako mechanizmu dostosowania wartości ludzkich AI
  • Bardziej ekspansywna sztuczna inteligencja będzie odpowiednio wymagać solidniejszych podwójnych kontrolerów prawnych AI
  • Podwójne kontrolery AI Legal uchwalają prawo, a zwłaszcza nie tworzą prawa (prawdopodobnie)
  • Delikatna równowaga między AI Legal urzeczywistnieniem prawa jako regułami a standardami
  • Wymaganie dowodu puddingu, jeśli chodzi o przestrzeganie prawa przez sztuczną inteligencję

Ze względu na ograniczoną ilość miejsca omówię na razie tylko te pięć punktów, ale proszę czekać na dalsze relacje w mojej kolumnie, obejmujące dodatkowe i równie godne uwagi rozważania na temat tych szybko ewoluujących i poruszających się do przodu spraw.

Już teraz zapnij pasy i przygotuj się na ożywczą podróż.

  • Wykorzystanie podwójnych kontrolerów prawnych AI jako mechanizmu dostosowania wartości ludzkich AI

Istnieje wiele sposobów, aby spróbować osiągnąć harmonijne powiązanie sztucznej inteligencji z wartościami ludzkimi.

Jak wspomniano wcześniej, możemy tworzyć i rozpowszechniać zasady etyki sztucznej inteligencji oraz dążyć do tego, aby twórcy sztucznej inteligencji oraz osoby zajmujące się nią i obsługujące ją przestrzegały tych kluczowych zasad. Niestety samo to nie załatwi sprawy. Masz kilku programistów, którzy nieuchronnie nie otrzymają wiadomości. Masz kilku wynalazców, którzy będą afiszować się z etyczną sztuczną inteligencją i próbować obejść nieco luźno określone zasady. I tak dalej.

Stosowanie podejścia „prawa miękkiego” obejmującego etykę sztucznej inteligencji musi niemal nieuchronnie łączyć się z drogami „prawa twardego”, takimi jak uchwalanie praw i przepisów, które wyślą mocny sygnał do wszystkich, którzy tworzą lub wykorzystują sztuczną inteligencję. Długie ramię prawa może cię dopaść, jeśli nie będziesz rozsądnie wykorzystywać sztucznej inteligencji. Odgłos trzaskania drzwiami więzienia mógł przykuć uwagę.

Dużym problemem jest jednak to, że czasami drzwi do stodoły już wypuściły konie. Sztuczna inteligencja, która zostanie wystawiona, będzie potencjalnie wytwarzać wszelkiego rodzaju nielegalne działania i będzie to robić, dopóki nie zostanie złapana, ale także, gdy niektóre organy ścigania w końcu wkroczą, aby powstrzymać przepływ niezgodnych z prawem działań. To wszystko może zająć trochę czasu. Tymczasem ludzie są krzywdzeni w taki czy inny sposób.

W tej wyprawie pojawia się podwójne sprawdzanie AI Legal.

Rezydując w aplikacji AI, podwójna kontrola prawna AI jest w stanie natychmiast wykryć, kiedy sztuczna inteligencja wydaje się działać niezgodnie z prawem. Podwójny test AI Legal może zatrzymać sztuczną inteligencję. Lub komponent może ostrzegać ludzi o wykrytych działaniach niezgodnych z prawem, robiąc to na czas, co może skłonić nadzorców do pilnych działań naprawczych. Istnieje również rozważane sformalizowane rejestrowanie, które komponent może utworzyć, zapewniając namacalny pozór ścieżki audytu w celu kodyfikacji niepożądanych działań sztucznej inteligencji.

Mówi się, że nasze prawa są formą wieloagentowego konglomeratu, tak że prawa nieuchronnie są mieszanką tego, co społeczeństwo starało się przedstawić jako równowagę między prawdopodobnie sprzecznymi poglądami na temat właściwych i niewłaściwych zachowań społecznych. Podwójne sprawdzanie prawne AI oparte na naszych przepisach jest zatem ucieleśnieniem tej mieszanki.

Warto zauważyć, że jest to coś więcej niż tylko zaprogramowanie listy ostatecznych przepisów prawnych. Prawa wydają się być bardziej plastyczne i dążą do nadrzędnych standardów, zamiast określać najdrobniejsze mikroskopijne zasady. Złożoności jest mnóstwo.

Wracając do wspomnianego wcześniej artykułu badawczego, oto jak te rozważania można również postrzegać w odniesieniu do dążenia do dostosowania AI: „Prawo, zastosowana filozofia dostosowania wielu agentów, w wyjątkowy sposób spełnia te kryteria. Wyrównanie jest problemem, ponieważ nie możemy ex ante określić zasady, które w pełni i w sposób możliwy do udowodnienia kierują dobrym zachowaniem AI. Podobnie strony umowy prawnej nie mogą przewidzieć wszystkich ewentualności ich relacji, a ustawodawcy nie mogą przewidzieć konkretnych okoliczności, w których ich prawo będzie stosowane. Dlatego większość prawa to konstelacja norm” (tamże).

Wcielenie prawa w podwójne sprawdzanie prawne AI jest o wiele większym wyzwaniem, niż mogłoby się początkowo wydawać.

Wraz z rozwojem sztucznej inteligencji będziemy musieli odpowiednio wykorzystać te postępy. Okazuje się, że to, co dobre dla gęsi, jest też dobre dla gąsiora. Ci z nas, którzy czynią postępy w sztucznej inteligencji zgodnie z prawem, przesuwają granicę sztucznej inteligencji i bez wątpienia tworzą nowe postępy, które ostatecznie mogą całkowicie przyczynić się do postępu w sztucznej inteligencji.

  • Bardziej ekspansywna sztuczna inteligencja będzie odpowiednio wymagać solidniejszych podwójnych kontrolerów prawnych AI

Zabawa w kotka i myszkę dotyczy tego tematu.

Są szanse, że wraz z postępem sztucznej inteligencji każdy komponent podwójnego sprawdzania praw AI będzie coraz trudniej sobie z tym poradzić. Na przykład analizowana aplikacja AI może mieć nowo opracowane super-podstępne sposoby ukrywania nielegalnych działań podejmowanych przez sztuczną inteligencję. Nawet jeśli sztuczna inteligencja nie obiera podstępnej drogi, ogólna złożoność sztucznej inteligencji sama w sobie może być zniechęcającą przeszkodą w ubieganiu się o podwójną ocenę prawną AI.

Oto jak staje się to szczególnie znaczące.

Załóżmy, że programista sztucznej inteligencji lub jakaś firma korzystająca ze sztucznej inteligencji ogłasza, że ​​w aplikacji opartej na sztucznej inteligencji jest wbudowane podwójne sprawdzanie prawne AI. Voila, wydaje się, że teraz umyli ręce od wszelkich dalszych obaw. Podwójny kontroler AI Legal zajmie się wszystkim.

Bynajmniej.

Podwójne sprawdzanie prawne AI może być niewystarczające dla charakteru danej aplikacji AI. Istnieje również możliwość, że podwójne sprawdzanie prawne AI stanie się przestarzałe, być może nie będzie aktualizowane o najnowsze przepisy dotyczące aplikacji AI. Można przewidzieć wiele powodów, dla których sama obecność podwójnego kontrolera AI Legal nie będzie srebrną kulą.

Rozważ te spostrzeżenia z wcześniej cytowanych badań: „Wraz z postępem najnowocześniejszej sztucznej inteligencji możemy ustawiać iteracyjnie wyższe poprzeczki zademonstrowanych możliwości zrozumienia prawa. Jeśli programista twierdzi, że jego system ma zaawansowane możliwości wykonywania zadań, powinien wykazać się odpowiednio zaawansowanym zrozumieniem prawa i zdolnościami sztucznej inteligencji w zakresie prawa, które praktycznie nie mają pułapu trudności, gdy rozważa się grzęzawisko praw i przepisów na przestrzeni czasu, precedensów i jurysdykcji ” (tamże).

  • Podwójne kontrolery AI Legal uchwalają prawo, a zwłaszcza nie tworzą prawa (prawdopodobnie)

Jestem pewien, że niektórzy z was są przerażeni pomysłem posiadania tych podwójnych kontrolerów AI Legal.

Jedną z często wyrażanych obaw jest to, że najwyraźniej pozwolimy sztucznej inteligencji decydować za nas o naszych prawach. Dobry Boże, możesz pomyśleć, że jakaś automatyzacja zawładnie ludzkością. Te przeklęte wbudowane podwójne kontrole prawne AI staną się domyślnymi królami naszych praw. Cokolwiek zrobią, będzie zgodne z prawem.

Ludźmi będzie rządzić AI.

A te podwójne kontrole AI Legal są śliskim zboczem, które nas tam prowadzi.

Kontrargumentem jest to, że takie rozmowy to materiał na teorie spiskowe. Dziko postulujesz i wpadasz w zawrót głowy. Rzeczywistość jest taka, że ​​ci podwójnie sprawdzający sztuczną inteligencję nie są świadomi, nie zamierzają przejąć planety, a szum wokół ich egzystencjalnego ryzyka jest po prostu niedorzeczny i ogromnie przesadzony.

W sumie, zachowując spokojną i rozsądną postawę, musimy pamiętać, że podwójne sprawdzanie AI Legal służy do odpowiedniego odzwierciedlenia prawa, a nie celowo i przypadkowo nie idzie dalej, aby w jakiś sposób wpaść w szanowaną sferę tworzenia prawo. Odkładając na bok ekstrapolacje świadomości, z pewnością możemy zgodzić się, że istnieje realna i pilna obawa, że ​​podwójna kontrola prawna AI może w końcu fałszywie przedstawić prawdziwą naturę danego prawa.

Z kolei można by twierdzić, że w związku z tym to konkretne „fałszywie przedstawione” prawo jest zasadniczo tworzone na nowo, ponieważ nie oznacza już właściwie tego, co było zamierzone przez rzeczywiste prawo. Ufam, że szczerze widzisz, że jest to subtelna, ale wymowna uwaga. W dowolnym momencie prawna sztuczna inteligencja może wirtualnie tworzyć lub, powiedzmy, „halucynować” nowe prawa, po prostu na podstawie tego, w jaki sposób komponent AI interpretuje prawo tak, jak zostało pierwotnie określone lub zawarte w sztucznej inteligencji (dla mojej relacji AI tzw omamy, Patrz link tutaj).

Troska o to musi być ostro praktykowana.

Na ten temat wspomniane badanie badawcze przedstawia tę równoległą myśl w kategoriach dążenia do uniknięcia przekroczenia tej świętej linii: „Nie dążymy do tego, aby sztuczna inteligencja miała legitymację do stanowienia prawa, ustanawiania precedensów prawnych lub egzekwowania prawa. W rzeczywistości podkopałoby to nasze podejście (i powinniśmy zainwestować znaczne wysiłki w zapobieganie temu). Najbardziej ambitnym celem Law Informing Code jest raczej obliczeniowe zakodowanie i osadzenie możliwości uogólnienia istniejących koncepcji i standardów prawnych w zatwierdzonych wynikach sztucznej inteligencji” (tamże).

  • Delikatna równowaga między AI Legal urzeczywistnieniem prawa jako regułami a standardami

Prawa są chaotyczne.

W przypadku prawie każdego prawa w księgach istnieje prawdopodobnie wiele interpretacji tego, co prawo stanowi w rzeczywistej praktyce. W żargonie sztucznej inteligencji mówimy, że prawa są semantycznie niejednoznaczne. To właśnie sprawia, że ​​rozwój sztucznej inteligencji w zastosowaniu do prawa jest tak ekscytującym, a jednocześnie irytującym wyzwaniem. W przeciwieństwie do precyzyjnego analizowania liczb, które można zaobserwować w aplikacjach sztucznej inteligencji zorientowanych na finanse, chęć wcielenia naszych praw w sztuczną inteligencję wymaga radzenia sobie z tsunami niejasności semantycznych.

W książce mojej fundacji na temat podstaw AI Legal Reasoning (AILR) omawiam, w jaki sposób wcześniejsze próby zwykłej kodyfikacji praw w zbiór ograniczonych reguł nie doprowadziły nas tak daleko, jak byśmy chcieli, w dziedzinie prawa (zob. link tutaj). Dzisiejszy AILR musi obejmować integrację między stosowaniem zasad a tym, co można nazwać nadrzędnymi standardami, które reprezentuje prawo.

Tę ważną równowagę można wyrazić w następujący sposób: „W praktyce większość przepisów prawnych znajduje się gdzieś pomiędzy czystą regułą a czystym standardem, a teoria prawa może pomóc oszacować właściwą kombinację „regularności” i „standardowości” przy określaniu celów systemów AI” (tamże).

  • Wymaganie dowodu puddingu, jeśli chodzi o przestrzeganie prawa przez sztuczną inteligencję

Chcieć czegoś to coś innego niż mieć coś.

Ta odrobina mądrości pojawia się, gdy twierdzimy, że chociaż możemy chcieć mieć podwójne kontrolery AI Legal, zdecydowanie musimy upewnić się, że działają i działają poprawnie. Należy pamiętać, że stanowi to kolejną trudną i wyczerpującą przeszkodę. Omówiłem wcześniej najnowsze postępy i wyzwania związane z weryfikacją i walidacją sztucznej inteligencji, patrz link tutaj.

Jak zauważono w artykule badawczym: „Aby wypełnić lukę, zanim modele AI zostaną wdrożone w coraz bardziej agenturalnych zdolnościach, np. w pełni autonomicznych pojazdach na głównych drogach, strona wdrażająca powinna wykazać, że system rozumie ludzkie cele, zasady i standardy prawne. Procedura walidacji mogłaby zilustrować „zrozumienie” przez AI „znaczenia” pojęć prawnych” (tamże).

Wnioski

Zachęcam do rozważenia dołączenia do mnie w tej szlachetnej misji budowania i wystawiania podwójnych kontrolerów AI Legal. Potrzebujemy więcej uwagi i zasobów poświęconych temu cnotliwemu dążeniu.

Zapewnia to również podwójny obowiązek, jak wspomniano wcześniej, w celu osiągnięcia AILR (AI Legal Reasoning), który może być wykorzystany do pomocy prawnikom i potencjalnie wykorzystany bezpośrednio przez ogół społeczeństwa. Rzeczywiście, niektórzy stanowczo argumentują, że jedynym realnym sposobem osiągnięcia pełniejszego poczucia dostępu do wymiaru sprawiedliwości (A2J) będzie stworzenie sztucznej inteligencji, która ucieleśnia zdolności prawne i jest dostępna dla wszystkich.

Na razie jeden szybki punkt końcowy.

W dotychczasowej dyskusji podkreślono, że podwójne sprawdzanie prawne AI zostanie osadzone lub wszczepione w AI. Jest to rzeczywiście główny cel tych, którzy badają i podejmują się tej wyłaniającej się dziedziny.

Oto pytanie, nad którym warto się zastanowić.

Załóż czapkę myślenia.

Dlaczego nie skorzystać z podwójnych kontrolerów AI Legal we wszystkich programach?

Istotą jest to, że zamiast używać wyłącznie podwójnych kontrolerów AI Legal w AI, być może powinniśmy poszerzyć nasz punkt widzenia. Wszystkie rodzaje oprogramowania mogą legalnie błądzić. Trzeba przyznać, że sztuczna inteligencja przyciągnęła lwią część uwagi ze względu na sposoby, w jakie sztuczna inteligencja jest zwykle wykorzystywana, na przykład podejmowanie bolesnych decyzji, które wpływają na ludzi w ich codziennym życiu. Można jednak z łatwością utrzymywać, że istnieje wiele systemów innych niż sztuczna inteligencja, które robią to samo.

Zasadniczo nie powinniśmy pozwalać żadnemu oprogramowaniu na darmową jazdę w celu uniknięcia lub obejścia prawa.

Przypomnijmy też, że wcześniej wspomniałem o dwóch kategoriach łączenia AI i prawa. W niniejszym dokumencie skupiliśmy się na wykorzystaniu sztucznej inteligencji w zastosowaniu do prawa. Po drugiej stronie medalu jest zastosowanie prawa do AI. Załóżmy, że uchwalamy prawa, które wymagają użycia podwójnych kontrolerów AI Legal.

Może to początkowo ograniczać się do systemów sztucznej inteligencji, zwłaszcza tych ocenianych jako szczególnie wysokiego ryzyka. Stopniowo ten sam wymóg dotyczący podwójnego sprawdzania prawnego AI mógłby zostać rozszerzony również na oprogramowanie inne niż AI. Znowu bez darmowych przejazdów.

Podczas gdy ty kluskasz nad powyższymi rozważaniami, ja podkręcę wszystko jako zamykający zwiastun. Jeśli zamierzamy wymagać podwójnych sprawdzaczy prawnych AI, równie dobrze możemy zrobić to samo w przypadku podwójnych sprawdzaczy AI Ethics. Korzystanie z podwójnego sprawdzania prawnego AI to tylko połowa sukcesu, a nie możemy lekceważyć ani zapominać o obawach związanych z etyką AI.

Zakończę ten żartobliwy dyskurs jednym z moich ulubionych cytatów. Zgodnie z mądrymi słowami Earla Warrena, słynnego prawnika, który pełnił funkcję Prezesa Sądu Najwyższego Stanów Zjednoczonych: „W cywilizowanym życiu prawo unosi się w morzu etyki”.

Najlepiej byłoby zdecydowanie wykorzystać te początkujące i bulgoczące podwójne sprawdzania AI Legal i podwójne sprawdzanie etyki AI, jeśli chcemy trzymać głowę ponad potencjalnie wzburzonymi morzami z kwaśnej sztucznej inteligencji i ponurych systemów innych niż sztuczna inteligencja, które zagrażają naszemu bezpieczeństwu .

Mogą być kamizelką ratunkową ludzkości.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- i-ai-prawo/