Etyka AI i prawo AI zadają trudne pytania dotyczące tej nowej obietnicy przez tańczących twórców robotów, którzy mówią, że będą unikać zbrojenia AI

Być może w zeszłym tygodniu widzieliście w wiadomościach lub zauważyliście w mediach społecznościowych ogłoszoną obietnicę niektórych producentów robotów dotyczącą ich deklarowanych celów, aby uniknąć uzbrojenia robotów ogólnego przeznaczenia przez sztuczną inteligencję. Za chwilę przeprowadzę Cię przez szczegóły, więc nie martw się, jeśli nie złapałeś wiatru w tej sprawie.

Reakcja na tę proklamację była szybka i, być może jak zwykle w naszym spolaryzowanym społeczeństwie, była zarówno pochwała, jak i czasami szyderczo krytyczna lub wręcz paskudnie sceptyczna.

To opowieść o dwóch światach.

W jednym świecie niektórzy twierdzą, że właśnie tego potrzebujemy odpowiedzialny Deweloperzy robotów AI do zadeklarowania.

Dzięki Bogu za to, że jesteś po właściwej stronie problemu, który stopniowo staje się coraz bardziej widoczny i niepokojący. Te urocze tańczące roboty są kłopotliwe, ponieważ dość łatwo jest je przestawić, by nosić broń i być używanym w najgorszy sposób (możesz to sprawdzić, odwiedzając media społecznościowe i jest tam mnóstwo filmów pokazujących tańczące roboty uzbrojone w karabiny maszynowe i inne uzbrojenie).

Druga strona medalu mówi, że tak zwany zastaw to nic innego jak chwyt marketingowy lub public relations (na marginesie, czy ktoś zna różnicę między zastawem a darowizną?). W każdym razie wątpiący napominają, że jest to nieokiełznana sygnalizacja cnoty w kontekście tańczących robotów. Widzisz, ubolewanie nad faktem, że roboty ogólnego przeznaczenia mogą być uzbrojone, jest z pewnością wartym zachodu i szczerze poszukiwanym rozważeniem, chociaż samo twierdzenie, że producent tego nie zrobi, jest prawdopodobnie pustą obietnicą, niektórzy twierdzą.

Podsumowując, cała sprawa niesie ze sobą całkiem spory zestaw rozważań dotyczących etyki AI i prawa AI. Skrupulatnie rozpakujemy temat i zobaczymy, jak to jest podwójne wpadnięcie w bagno etycznego i prawnego AI. Aby zapoznać się z moim stałym i obszernym omówieniem etyki AI i prawa AI, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

W trakcie tej dyskusji będę również odnosić się do moich wcześniejszych analiz zagrożeń związanych z uzbrojeniem AI, takich jak moja dogłębna ocena na link tutaj. Możesz chcieć przyjrzeć się temu dyskursowi, aby uzyskać dodatkowe szczegóły zakulisowe.

List otwarty, który otwiera puszkę robaków

Rozpocznijmy tę analizę od dokładnej, krok po kroku eksploracji Listu otwartego, który został niedawno opublikowany przez sześciu stosunkowo dobrze znanych producentów zaawansowanych robotów, a mianowicie Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics i Unitree. Ogólnie rzecz biorąc, domyślam się, że widziałeś głównie roboty Boston Dynamics, takie jak te, które tańczą na czworakach. Wyglądają, jakby przypominały psy i cieszymy się, jak biegają wokół.

Jak już wcześniej i wielokrotnie ostrzegałem, użycie takich „tańczących” robotów jako sposobu na przekonanie opinii publicznej, że te roboty są urocze i urocze, jest niestety mylące i prowadzi do licznych pułapek antropomorfizacji. Zaczynamy myśleć o tych utwardzonych kawałkach metalu i plastiku, jakby były one odpowiednikiem przytulaśnego, lojalnego psa. Nasza gotowość do zaakceptowania tych robotów opiera się na fałszywym poczuciu bezpieczeństwa i pewności. Jasne, musisz zarobić pieniądze, a szanse na zrobienie tego zwiększają paradowanie wokół tańczących robotów, ale to niestety pomija lub pozornie ukrywa prawdziwy fakt, że te roboty są robotami i że sztuczna inteligencja kontrolująca roboty może być błędnie wymyślona lub zepsuć.

Rozważ te konsekwencje AI (zaczerpnięte z mojego artykułu na temat uzbrojenia AI, znalezionego na link tutaj):

  • AI może napotkać błąd, który spowoduje, że zbłądzi
  • Sztuczna inteligencja może być przytłoczona i blokować się bez reakcji
  • Sztuczna inteligencja może zawierać błędy programistów, które powodują błędne zachowanie
  • Sztuczna inteligencja może zostać uszkodzona przez wszczepiony wirus złoczyńcy
  • Sztuczna inteligencja może zostać przejęta przez cyberhakerów w czasie rzeczywistym
  • Sztuczna inteligencja może być uważana za nieprzewidywalną ze względu na złożoność
  • AI może obliczeniowo podjąć „złą” decyzję (względnie)
  • Itd.

Są to punkty dotyczące sztucznej inteligencji, które są naprawdę opracowane na początku, aby postępować właściwie.

Oprócz tych rozważań, musisz uwzględnić systemy sztucznej inteligencji stworzone od samego początku, aby robić złe rzeczy. Możesz mieć sztuczną inteligencję stworzoną dla korzystnych celów, często określaną jako AI na dobre. Możesz również mieć sztuczną inteligencję, która jest celowo stworzona do złych celów, znana jako AI na złe. Ponadto możesz mieć AI na dobre który jest zepsuty lub przemieniony w stawanie się AI na złe.

Nawiasem mówiąc, nic z tego nie ma nic wspólnego z tym, że sztuczna inteligencja staje się świadoma, o czym wspominam, ponieważ niektórzy wciąż wykrzykują, że dzisiejsza sztuczna inteligencja albo jest świadoma, albo jest na skraju bycia świadomą. Bynajmniej. Rozbieram te mity w mojej analizie na link tutaj.

Upewnijmy się zatem, że jesteśmy na tej samej stronie co do natury dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat czującej sztucznej inteligencji, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Zdecydowanie sugerowałbym, abyśmy trzymali się rzeczy na ziemi i rozważyli dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

Bądź bardzo ostrożny, antropomorfizując dzisiejszą sztuczną inteligencję.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie obecnie ukrytych uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje spora szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wszystko to ma szczególnie istotne implikacje w zakresie etyki sztucznej inteligencji i oferuje przydatne wgląd w wyciągnięte wnioski (nawet zanim wszystkie lekcje się wydarzą), jeśli chodzi o próby uregulowania AI.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI.

Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Teraz, gdy położyłem pomocne podstawy do wejścia do Listu Otwartego, jesteśmy gotowi, aby się do niego zanurzyć.

Oficjalny tytuł tematyczny Listu Otwartego brzmi:

  • "List otwarty do branży robotyki i naszych społeczności: Roboty ogólnego przeznaczenia nie powinny być uzbrojone” (zgodnie z opublikowanym online).

Do tej pory tak dobrze.

Tytuł niemal przypomina lody i szarlotkę. Jak ktokolwiek mógł kwestionować to jako niegdysiejszy apel, aby uniknąć uzbrojenia robota AI?

Czytaj dalej, aby zobaczyć.

Po pierwsze, jako pożywkę do rozważenia, oto oficjalny akapit otwierający list otwarty:

  • „Jesteśmy jednymi z wiodących światowych firm zajmujących się wprowadzaniem nowych generacji zaawansowanej robotyki mobilnej do społeczeństwa. Te nowe generacje robotów są bardziej dostępne, łatwiejsze w obsłudze, bardziej autonomiczne, przystępne cenowo i adaptowalne niż poprzednie generacje oraz zdolne do poruszania się w miejscach wcześniej niedostępnych dla technologii zautomatyzowanych lub zdalnie sterowanych. Wierzymy, że zaawansowane roboty mobilne przyniosą ogromne korzyści społeczeństwu jako współpracownicy w przemyśle i towarzysze w naszych domach” (jak opublikowano online).

Słoneczną stroną pojawienia się tego typu robotów jest to, że możemy przewidzieć wiele wspaniałych korzyści. Nie ma wątpliwości. Być może masz w domu robota, który może wykonywać czynności podobne do Jetsona, takie jak sprzątanie domu, zmywanie naczyń i inne prace domowe. Będziemy dysponować zaawansowanymi robotami do użytku w fabrykach i zakładach produkcyjnych. Roboty mogą potencjalnie czołgać się lub manewrować w ciasnych przestrzeniach, na przykład w przypadku zawalenia się budynku i zagrożenia życia ludzkiego. I tak dalej.

Nawiasem mówiąc, może Cię zainteresować moja niedawna, krytyczna dla oka relacja z Dnia Tesli AI, podczas którego Elon Musk przedstawił pewne chodzące roboty jako przyszłość dla Tesli i społeczeństwa, patrz link tutaj.

Wracając do aktualnej sprawy. Poważnie omawiając roboty tańczące lub roboty kroczące, musimy wziąć pod uwagę kompromisy lub całkowity ROI (zwrot z inwestycji) tego zastosowania sztucznej inteligencji. Nie powinniśmy pozwalać sobie na zbytnią fascynację korzyściami, gdy trzeba wziąć pod uwagę również koszty.

Błyszcząca nowa zabawka może mieć dość ostre krawędzie.

Wszystko to stanowi ważny, ale nieco cichy punkt, że część powodów, dla których pojawia się problem z uzbrojeniem AI, wynika z postępu AI w kierunku autonomicznej aktywności. Zwykle spodziewaliśmy się, że broń jest na ogół operowana przez człowieka. Człowiek podejmuje decyzję, czy strzelić, czy użyć broni. Przypuszczalnie możemy pociągnąć tego człowieka do odpowiedzialności za swoje czyny.

Sztuczna inteligencja, która została zaprojektowana do pracy autonomicznej lub którą można nakłonić do tego, pozornie usunęłaby człowieka z pętli. Sztuczna inteligencja następnie algorytmicznie podejmuje decyzje obliczeniowe, które mogą skończyć się zabijaniem lub krzywdzeniem ludzi. Oprócz oczywistych obaw związanych z brakiem kontroli nad sztuczną inteligencją, masz również obawy, że możemy mieć żmudny czas przypinania odpowiedzialności za działania sztucznej inteligencji. Nie mamy człowieka, który byłby naszym oczywistym prowokatorem.

Zdaję sobie sprawę, że niektórzy uważają, że powinniśmy po prostu i bezpośrednio pociągać sztuczną inteligencję do odpowiedzialności za jej działania, tak jakby sztuczna inteligencja osiągnęła zdolność odczuwania lub w inny sposób otrzymała osobowość prawną (zobacz mój opis debat na temat zdobywania przez sztuczną inteligencję osobowości prawnej na link tutaj). Na razie to nie zadziała. Będziemy musieli prześledzić sztuczną inteligencję do ludzi, którzy ją wymyślili lub wykonali. Bez wątpienia spróbują legalnie uniknąć odpowiedzialności, próbując twierdzić, że sztuczna inteligencja przekroczyła to, co sobie wyobrażali. Jest to rosnący spór, z którym musimy sobie poradzić (zobacz moje pisma dotyczące prawa AI, aby uzyskać wgląd w sporne kwestie).

Organizacja Narodów Zjednoczonych (ONZ) poprzez Konwencję w sprawie niektórych broni konwencjonalnych (CCW) w Genewie ustanowiła jedenaście niewiążących zasad przewodnich dotyczących śmiercionośnej broni autonomicznej, zgodnie z oficjalnym raportem opublikowanym w Internecie (obejmującym odniesienia do stosownego międzynarodowego prawa humanitarnego lub postanowień MPH) , włącznie z:

a) międzynarodowe prawo humanitarne ma nadal pełne zastosowanie do wszystkich systemów uzbrojenia, w tym do potencjalnego rozwoju i wykorzystania śmiercionośnych autonomicznych systemów uzbrojenia;

(b) Ludzka odpowiedzialność za decyzje dotyczące użycia systemów uzbrojenia musi zostać utrzymana, ponieważ odpowiedzialności nie można przenieść na maszyny. Należy to rozważyć w całym cyklu życia systemu uzbrojenia;

(c) Interakcja człowiek-maszyna, która może przybierać różne formy i być realizowana na różnych etapach cyklu życia broni, powinna zapewniać, że potencjalne wykorzystanie systemów uzbrojenia opartych na powstających technologiach w obszarze śmiercionośnych autonomicznych systemów uzbrojenia jest przestrzeganie obowiązującego prawa międzynarodowego, w szczególności MPH. Przy określaniu jakości i zakresu interakcji człowiek-maszyna należy wziąć pod uwagę szereg czynników, w tym kontekst operacyjny oraz charakterystykę i możliwości systemu uzbrojenia jako całości;

(d) Odpowiedzialność za opracowywanie, rozmieszczanie i używanie wszelkich powstających systemów uzbrojenia w ramach CCW musi być zapewniona zgodnie z obowiązującym prawem międzynarodowym, w tym poprzez działanie takich systemów w ramach odpowiedzialnego łańcucha ludzkiego dowodzenia i kontroli;

(e) Zgodnie ze zobowiązaniami państw wynikającymi z prawa międzynarodowego, podczas badania, opracowywania, nabywania lub przyjmowania nowej broni, środka lub metody prowadzenia wojny należy ustalić, czy ich użycie w niektórych lub we wszystkich okolicznościach byłoby zabronione przez prawo międzynarodowe;

f) Przy opracowywaniu lub nabywaniu nowych systemów uzbrojenia opartych na powstających technologiach w obszarze śmiercionośnych autonomicznych systemów broni, bezpieczeństwa fizycznego, odpowiednich zabezpieczeń niefizycznych (w tym bezpieczeństwa cybernetycznego przed hakerstwem lub fałszowaniem danych), ryzyko nabycia przez grupy terrorystyczne należy wziąć pod uwagę ryzyko proliferacji;

(g) Oceny ryzyka i środki łagodzące powinny być częścią cyklu projektowania, opracowywania, testowania i wdrażania powstających technologii we wszelkich systemach uzbrojenia;

(h) Należy rozważyć wykorzystanie pojawiających się technologii w dziedzinie śmiercionośnych autonomicznych systemów broni w celu przestrzegania MPH i innych mających zastosowanie międzynarodowych zobowiązań prawnych;

(i) Przy opracowywaniu potencjalnych środków politycznych nowe technologie w obszarze śmiercionośnych autonomicznych systemów uzbrojenia nie powinny być antropomorfizowane;

(j) Dyskusje i wszelkie potencjalne środki polityczne podjęte w kontekście CCW nie powinny utrudniać postępu ani dostępu do pokojowego wykorzystania inteligentnych technologii autonomicznych;

(k) CCW zapewnia odpowiednie ramy postępowania w kwestii pojawiających się technologii w obszarze śmiercionośnych autonomicznych systemów uzbrojenia w kontekście celów i celów Konwencji, która ma na celu znalezienie równowagi między koniecznością wojskową a względami humanitarnymi.

Te i inne różne prawa dotyczące wojny i konfliktów zbrojnych lub MPH (Międzynarodowe Prawa Humanitarne) służą jako żywotny i zawsze obiecujący przewodnik przy rozważaniu tego, co możemy próbować zrobić w związku z nadejściem autonomicznych systemów, które są uzbrojone, czy to przez klucz projekt lub metody post-the-fact.

Niektórzy twierdzą, że powinniśmy kategorycznie zakazać autonomicznych systemów sztucznej inteligencji, które można uzbroić. Zgadza się, świat powinien postawić nogę i stanowczo domagać się, aby autonomiczne systemy AI nigdy nie były uzbrojone. Ma zostać nałożony całkowity zakaz. Koniec opowieści. Kropka, kropka.

Cóż, możemy szczerze życzyć, aby zakaz stosowania śmiertelnych, uzbrojonych systemów autonomicznych był ściśle i posłusznie przestrzegany. Problem polega na tym, że w każdym z najszczerszych zakazów można chytrze znaleźć dużo miejsca do poruszania się. Jak mówią, zasady mają być łamane. Możesz się założyć, że tam, gdzie jest luźno, motłoch wytropi luki i spróbuje mrugnąć okiem na temat zasad.

Oto kilka potencjalnych luk, które warto wziąć pod uwagę:

  • Roszczenia dotyczące nieśmiercionośnych. Stwórz nieśmiercionośne autonomiczne systemy uzbrojenia (pozornie w porządku, ponieważ są poza granicami zakazu), które następnie możesz zmienić w śmiertelne (w ostatniej chwili przekroczysz zakaz).
  • Roszczenia dotyczące wyłącznie systemu autonomicznego. Przestrzegaj zakazu, nie tworząc śmiercionośnych systemów autonomicznych, a tymczasem czyń jak największe postępy w opracowywaniu codziennych systemów autonomicznych, które nie są (jeszcze) uzbrojone, ale które można za grosze przerobić na uzbrojenie.
  • Roszczenia dotyczące braku integracji jako jeden. Twórz systemy autonomiczne, które w ogóle nie są uzbrojone, a kiedy nadejdzie czas, uzbrojenie typu „piggyback” w taki sposób, aby można było zaciekle argumentować, że są to dwa oddzielne elementy, a zatem twierdzić, że nie należą do kategorii „wszystko w jednym” autonomiczny system uzbrojenia lub jego kuzyn.
  • Twierdzi, że nie jest autonomiczny. Stwórz system uzbrojenia, który nie wydaje się mieć autonomicznych zdolności. Zostaw miejsce w tym prawdopodobnie nieautonomicznym systemie na wpadnięcie w autonomię opartą na sztucznej inteligencji. W razie potrzeby podłącz autonomię i jesteś gotowy do rzutu (do tej pory pozornie nie łamałeś zakazu).
  • Inne

Istnieje wiele innych wyraźnych trudności związanych z próbą całkowitego zakazania śmiercionośnych autonomicznych systemów uzbrojenia. Omówię jeszcze kilka z nich.

Niektórzy eksperci twierdzą, że zakaz nie jest szczególnie przydatny i zamiast tego powinny istnieć przepisy regulacyjne. Pomysł polega na tym, że te urządzenia będą dozwolone, ale będą ostro nadzorowane. Przedstawiono litanię legalnych zastosowań wraz z legalnymi sposobami namierzania, zgodnymi z prawem rodzajami zdolności, zgodną z prawem proporcjonalnością i tym podobnymi.

Ich zdaniem bezpośredni zakaz jest jak chowanie głowy w piasek i udawanie, że słoń w pokoju nie istnieje. To twierdzenie jednak doprowadza do wrzenia krwi tych, którzy przeciwstawiają się argumentowi, że wprowadzając zakaz, jesteś w stanie radykalnie zmniejszyć pokusę stosowania tego rodzaju systemów. Jasne, niektórzy będą afiszować się z zakazem, ale przynajmniej mam nadzieję, że większość tego nie zrobi. Możesz wtedy skupić swoją uwagę na afiszach i nie musisz rozpraszać swojej uwagi na wszystkich.

Te debaty toczą się w kółko.

Inną często spotykaną obawą jest to, że nawet jeśli dobrzy będą przestrzegać zakazu, źli nie. To stawia dobro w kiepskiej postawie. Źli będą mieli tego rodzaju uzbrojone systemy autonomiczne, a dobrzy nie. Gdy już ujawnią się rzeczy, które mają źli, będzie już za późno, by dobrzy nadrobili zaległości. Krótko mówiąc, jedyną sprytną rzeczą, jaką należy zrobić, jest przygotowanie się do walki z ogniem ogniem.

Istnieje również klasyczna teza odstraszania. Jeśli dobrzy zdecydują się na tworzenie uzbrojonych systemów autonomicznych, można to wykorzystać do powstrzymania złych przed próbami wdania się w bójkę. Albo dobrzy będą lepiej uzbrojeni i w ten sposób zniechęcą złych, albo dobrzy będą gotowi, gdy źli być może ujawnią, że cały czas ukradkiem wymyślali te systemy.

Przeciwieństwem tych liczników jest to, że tworząc autonomiczne systemy uzbrojone, prowadzisz wyścig zbrojeń. Druga strona będzie dążyć do tego samego. Nawet jeśli technologicznie nie są w stanie stworzyć takich systemów na nowo, teraz będą mogli ukraść plany tych „dobrych”, dokonać inżynierii wstecznej zaawansowanych technologicznie wnętrzności lub naśladować wszystko, co wydaje im się wypróbowane i prawdziwe sposób na wykonanie pracy.

Aha, jakaś riposta, wszystko to może doprowadzić do zmniejszenia konfliktów przez pozory wzajemności. Jeśli strona A wie, że strona B ma tę śmiercionośną broń systemów autonomicznych, a strona B wie, że strona A ją ma, mogą siedzieć ciasno i nie dochodzić do ciosów. To ma tę wyraźną aurę wibracji wzajemnie gwarantowanego zniszczenia (MAD).

I tak dalej.

Przyjrzyj się uważnie drugiemu akapitowi

Zajmowaliśmy się już bardzo dużymi zagadnieniami i tylko do tej pory rozważaliśmy pierwszy lub otwierający akapit Listu Otwartego (w sumie są cztery akapity).

Czas spojrzeć na drugi akapit, proszę bardzo:

  • „Podobnie jak w przypadku każdej nowej technologii oferującej nowe możliwości, pojawienie się zaawansowanych robotów mobilnych stwarza możliwość nadużyć. Niewiarygodne osoby mogą ich używać do naruszania praw obywatelskich lub do grożenia, krzywdzenia lub zastraszania innych. Jednym z obszarów o szczególnym znaczeniu jest uzbrojenie. Wierzymy, że dodawanie broni do robotów, które są zdalnie lub autonomicznie obsługiwane, szeroko dostępne dla społeczeństwa i zdolne do nawigowania do wcześniej niedostępnych miejsc, w których ludzie żyją i pracują, stwarza nowe ryzyko szkód i poważne problemy etyczne. Zbrojne zastosowania tych robotów o nowych możliwościach zaszkodzą również zaufaniu publicznemu do technologii w sposób, który zaszkodzi ogromnym korzyściom, jakie przyniosą one społeczeństwu. Z tych powodów nie wspieramy uzbrojenia naszych robotów ogólnego przeznaczenia o zaawansowanej mobilności. Dla tych z nas, którzy wypowiadali się na ten temat w przeszłości, i tych, którzy angażują się po raz pierwszy, czujemy teraz nową pilną potrzebę w świetle rosnącego w ostatnich miesiącach zaniepokojenia publicznego spowodowanego przez niewielką liczbę osób, które w widoczny sposób nagłośniły swoją prowizorkę wysiłki na rzecz uzbrojenia robotów dostępnych na rynku” (jak opublikowano w Internecie).

Po przeczytaniu tego drugiego akapitu mam nadzieję, że zobaczysz, jak mój wcześniejszy dyskurs na temat uzbrojenia AI wysuwa się na pierwszy plan.

Zbadajmy kilka dodatkowych punktów.

Pewnym zaniepokojeniem związanym z konkretnym aspektem sformułowania, który wzbudził w niektórych gniew, jest to, że narracja wydaje się podkreślać, że „niewiarygodne osoby” mogą nadużywać tych robotów AI. Tak, rzeczywiście, mogą to być źli ludzie lub złoczyńcy, którzy dokonują nikczemnych czynów, które będą „niewłaściwie wykorzystywać” roboty AI.

Jednocześnie, jak wskazano na początku tej dyskusji, musimy również wyjaśnić, że sama sztuczna inteligencja może pójść nie tak, prawdopodobnie z powodu wbudowanych błędów lub błędów i innych podobnych komplikacji. Wyrażona obawa polega na tym, że tylko podkreślając szanse na ludzie nierzetelni jest to, że wydaje się ignorować inne niekorzystne możliwości. Chociaż większość firm i dostawców sztucznej inteligencji nie chce się do tego przyznać, istnieje mnóstwo problemów z systemami AI, które mogą podważyć bezpieczeństwo i niezawodność systemów autonomicznych. Aby zapoznać się z moim zakresem bezpieczeństwa AI i potrzebą rygorystycznych i możliwych do udowodnienia zabezpieczeń, zobacz link tutaj, na przykład.

Innym godnym uwagi punktem, który pojawił się wśród tych, którzy przeanalizowali List otwarty, jest zawarte w nim twierdzenie, że może to doprowadzić do podcięcia zaufania publicznego związanego z robotami AI.

Z jednej strony jest to słuszne stwierdzenie. Jeśli roboty AI są używane do złego licytowania, możesz się założyć, że publiczność będzie dość rozgrzana. Kiedy publiczność zostanie zalana parą, możesz założyć się, że prawodawcy wskoczą do gry i będą starali się uchwalić prawa, które ograniczą roboty AI i twórców robotów AI. To z kolei może sparaliżować branżę robotyki AI, jeśli przepisy będą wszechogarniające i uniemożliwić działania związane z korzyściami dla robotów AI. W pewnym sensie dziecko mogłoby zostać wyrzucone z kąpielą (stare wyrażenie, prawdopodobnie zasługujące na emeryturę).

Oczywistym pytaniem, które się pojawia, jest również to, czy twierdzenie o zapobieganiu zmniejszeniu zaufania publicznego do robotów AI jest nieco wyrachowanym credo, czy też służy dobru nas wszystkich (czy może być jedno i drugie?).

Ty decydujesz.

Przechodzimy teraz do szczególnie treściwej części Listu Otwartego:

  • „Zobowiązujemy się, że nie będziemy uzbrajać naszych robotów ogólnego przeznaczenia o zaawansowanej mobilności ani opracowanego przez nas oprogramowania, które umożliwia zaawansowaną robotykę i nie będziemy wspierać w tym innych. Jeśli to możliwe, dokładnie przeanalizujemy zamierzone zastosowania naszych klientów, aby uniknąć potencjalnej broni. Zobowiązujemy się również zbadać rozwój funkcji technologicznych, które mogą złagodzić lub zmniejszyć te zagrożenia. Aby było jasne, nie kwestionujemy istniejących technologii, których używają narody i ich agencje rządowe do obrony i przestrzegania swoich praw” (jak opublikowano w Internecie).

Możemy to rozpakować.

Usiądź i odpowiednio się przygotuj.

Czy jesteś gotowy na jakąś ognistą polaryzację?

Z drugiej strony, niektórzy głośno zapowiadają, że ci twórcy robotów AI złożyliby takie zobowiązanie. Wygląda na to, że ci producenci robotów na szczęście będą starali się nie wykorzystywać swoich robotów „zaawansowanej mobilności ogólnego przeznaczenia”. Ponadto list otwarty mówi, że nie będą wspierać innych, którzy to zrobią.

Krytycy zastanawiają się, czy nie dzieje się sprytne tworzenie słów.

Na przykład, gdzie zaczyna się i kończy „zaawansowana mobilność”? Jeśli producent robota opracowuje prosty-robot AI mobilności zamiast zaawansowanego (co jest niezdefiniowanym kawałkiem żargonu technicznego), czy jest wykluczony z zakresu tego, co będzie nie być uzbrojonym? Tak więc najwyraźniej można uzbroić roboty AI o prostej mobilności, o ile nie są one tak zwane zaawansowany.

To samo dotyczy sformułowania robotów ogólnego przeznaczenia. Jeśli robot AI został opracowany specjalnie do uzbrojenia, a zatem nie jest, powiemy: ogólny cel robot, czy to staje się realnym wyłączeniem z zakresu?

Możesz spierać się z tymi wybiegami i żarliwie argumentować, że to tylko list otwarty, a nie XNUMX-stronicowy dokument prawny, który opisuje każdy zakamarek.

To prowadzi nas do pozornie większego zaniepokojenia na poziomie makro wyrażanym przez niektórych. W skrócie, co oznacza „zastaw”?

Niektórzy pytają, gdzie jest wołowina?

Firma, która składa takie zobowiązanie, najwyraźniej robi to bez prawdziwego udziału w grze. Jeśli najwyższe kierownictwo jakiejkolwiek firmy, która podpisze się pod tym zobowiązaniem, zdecyduje się nie honorować tego zobowiązania, co się stanie z tą firmą? Czy dyrektorzy zostaną doraźnie puszkowani? Czy firma zamknie się i obficie przeprosi za naruszenie zobowiązania? I tak dalej.

O ile można wywnioskować, nie ma szczególnej kary ani kary za jakiekolwiek naruszenie przyrzeczenia.

Możesz argumentować, że istnieje możliwość uszkodzenia reputacji. Firma zastawna może zostać rzucona na rynek za to, że złożyła przyrzeczenie, którego już nie przestrzega. Oczywiście zakłada to również, że ludzie będą pamiętać, że zastaw został złożony. Zakłada również, że naruszenie zastawu zostanie w jakiś sposób wykryte (wydaje się wyraźnie nieprawdopodobne, że firma powie wszystko, jeśli to zrobi). Ktoś, kto naruszył zobowiązanie, musiałby zostać wezwany, a jednak taka kwestia może stać się jedynie szumem w trwającym tsunami wiadomości o twórcach robotyki AI.

Rozważ inny kąt, który się pojawił.

Firma zastawna zostaje wykupiona przez jakąś większą firmę. Większa firma decyduje się na przekształcenie robotów ogólnego przeznaczenia o zaawansowanej mobilności w wersje z bronią AI.

Czy to naruszenie przyrzeczenia?

Większa firma może upierać się, że nie stanowi to naruszenia, ponieważ ona (większa firma) nigdy nie złożyła zastawu. Tymczasem nieszkodliwe roboty sztucznej inteligencji, które mniejsza firma stworzyła i opracowała, robiąc to z pozornie najbardziej altruistycznymi intencjami, niemal z dnia na dzień zostają przekształcone w broń.

Trochę podważa to zobowiązanie, choć można powiedzieć, że mniejsza firma nie wiedziała, że ​​kiedyś to się stanie. Byli gorliwi w swoim pragnieniu. To było poza ich kontrolą, co zdecydowała się zrobić większa firma kupująca.

Niektórzy pytają również, czy jest w tym jakaś odpowiedzialność prawna.

Firma zastawna decyduje za kilka miesięcy, że nie będzie honorować zastawu. Zmienili zdanie. Czy firma może zostać pozwana za zrezygnowanie ze złożonego zobowiązania? Kto by pozwał? Jaka byłaby podstawa do pozwu? Pojawia się mnóstwo problemów prawnych. Jak mówią, możesz pozwać prawie każdego, ale to, czy zwyciężysz, to zupełnie inna sprawa.

Pomyśl o tym w inny sposób. Firma deklarująca ma okazję zawrzeć naprawdę wielką transakcję, aby sprzedać całą masę swoich robotów ogólnego przeznaczenia o zaawansowanej mobilności ogromnej firmie, która jest gotowa zapłacić za nos, aby zdobyć roboty. Jest to jedna z tych niepowtarzalnych okazji zakupu za milion dolarów.

Co powinna zrobić firma zajmująca się robotyką AI?

Jeśli firma zajmująca się robotyką AI jest w obrocie publicznym, prawie na pewno dążyłaby do sprzedaży (to samo można powiedzieć o firmie prywatnej, choć nie do końca). Wyobraź sobie, że firma zastawna obawia się, że kupujący może spróbować uzbroić roboty, chociaż powiedzmy, że nie ma takiej dyskusji na stole. Krążą tylko plotki, że kupujący może to zrobić.

W związku z tym firma zaręczająca umieszcza w swoich licencjach, że roboty nie mają być uzbrojone. Kupujący wzdryga się przed tym językiem i odsuwa się od zakupu.

Z jakiego zysku firma zajmująca się robotyką AI właśnie odeszła?

Czy istnieje moment, w którym zysk z ręki przewyższa uwzględnienie wymogu ograniczenia licencji (lub, być może, prawnie sformułowanego ograniczenia, aby umożliwić swobodę ruchów i nadal doprowadzić do zawarcia umowy)? Myślę, że widać w tym dylemat. Mnóstwo takich scenariuszy można łatwo wyczarować. Pytanie brzmi, czy ten zastaw będzie miał zęby. Jeśli tak, jakie zęby?

Krótko mówiąc, jak wspomniano na początku tej dyskusji, niektórzy są przekonani, że tego rodzaju przyrzeczenie jest składane, podczas gdy inni mają słabszy pogląd na to, czy przyrzeczenie wytrzyma.

Ruszamy dalej.

Pierwsze zobowiązanie w realizacji

Czwarty i ostatni akapit listu otwartego mówi tak:

  • „Rozumiemy, że samo nasze zaangażowanie nie wystarczy, aby w pełni zaradzić tym zagrożeniom, dlatego wzywamy decydentów do współpracy z nami w celu promowania bezpiecznego korzystania z tych robotów i zakazania ich niewłaściwego użytkowania. Wzywamy również każdą organizację, programistę, badacza i użytkownika w społeczności robotycznej do złożenia podobnych zobowiązań, aby nie budować, nie autoryzować, nie wspierać ani nie umożliwiać dołączania broni do takich robotów. Jesteśmy przekonani, że korzyści dla ludzkości płynące z tych technologii znacznie przewyższają ryzyko niewłaściwego użycia i jesteśmy podekscytowani świetlaną przyszłością, w której ludzie i roboty będą pracować ramię w ramię, aby stawić czoła niektórym wyzwaniom świata” (jak zamieszczono w Internecie).

Ta ostatnia część listu otwartego zawiera kilka dodatkowych elementów, które wzbudziły gniew.

Niektórzy twierdzą, że wzywanie decydentów politycznych może być rozsądnym lub nierozważnym. Możesz znaleźć decydentów, którzy nie są zorientowani w tych sprawach, którzy następnie wykonają klasyczne przepisy i regulacje w pośpiechu i rzemiosło, które uzurpują sobie postęp w dziedzinie robotów AI. Zgodnie z wcześniejszym punktem, być może innowacja, która popycha do przodu w dziedzinie robotyki AI, zostanie zakłócona lub nadepnięta.

Lepiej upewnij się, że wiesz, o co prosisz, mówią krytycy.

Oczywiście kontrargumentem jest to, że narracja wyraźnie stwierdza, że ​​decydenci powinni współpracować z firmami zajmującymi się robotyką AI, aby dowiedzieć się, jak prawdopodobnie sensownie tworzyć takie prawa i regulacje. Kontrargumentem jest to, że decydenci mogą być postrzegani jako zwracający się ku twórcom robotyki AI, jeśli zaspokajają ich zachcianki. Przeciwieństwem kontrargumentu jest to, że jest to naturalnie konieczność pracy z tymi, którzy znają się na technologii, w przeciwnym razie wynik może potencjalnie być zepsuty. Itp.

Być może na zasadzie kłótni niektórzy doznali zgagi na linii, która wzywa wszystkich do złożenia podobnych zobowiązań, aby nie dołączając uzbrojenie do robotów ogólnego przeznaczenia o zaawansowanej mobilności. Słowo kluczowe to słowo dołączając. Jeśli ktoś tworzy robota AI, który zawiera lub bezproblemowo osadza broń, wydaje się, że omija to sformułowanie dołączając coś. Widać to teraz, ktoś zaciekle twierdzi, że broń nie jest przymocowana, jest to całkowicie nieodłączna część robota AI. Pozbądź się tego, wołają, nie jesteśmy w zakresie tego zobowiązania, a nawet mogliby inaczej powiedzieć, że są.

To wywołuje kolejną skargę na brak lepkości zastawu.

Czy firma lub ktokolwiek, kto zdecyduje się złożyć to zobowiązanie, może w dowolnym momencie ogłosić, że jest niezadeklarowany, że tego chce i z jakiegokolwiek powodu, jakiego sobie tego życzy?

Najwyraźniej tak.

Dużo się kręci wokół składania przysięgi i tego, jaką przyczepność one nasycają.

Wnioski

Ojej, można by powiedzieć, że te firmy, które starają się postępować właściwie, są bębniane za to, że starają się postępować właściwie.

Co przyszło z naszego świata?

Każdy, kto składa takie przyrzeczenie, powinien mieć wątpliwości, co możesz namiętnie utrzymywać. Wkraczają w sferę publiczną, aby wnieść śmiały i istotny wkład. Jeśli zaczniemy ich za to oczerniać, z pewnością pogorszy to sytuację. Nikt nie będzie chciał złożyć takiego przyrzeczenia. Firmy i inni nawet nie spróbują. Będą się ukrywać i nie ostrzegać społeczeństwa o tym, w co te kochane tańczące roboty mogą zostać niebezpiecznie przemienione.

Sceptycy twierdzą, że sposób na zmądrzenie społeczeństwa wiąże się z innymi działaniami, takimi jak porzucenie fantazyjnego aktu pokazania swawolnych tańczących robotów AI. A przynajmniej uczyń z tego bardziej zrównoważony akt. Na przykład, zamiast tylko naśladować ukochane, lojalne zwierzętom psy, zilustruj, jak tańczące roboty mogą być bardziej podobne do dzikich, spuszczonych ze smyczy wściekłych wilków, które bez wahania potrafią rozerwać ludzi na strzępy.

Błagają, że przyciągnie to więcej uwagi niż obietnice.

Zobowiązania mogą być bez wątpienia sporą zagadką.

Jak elokwentnie stwierdził Mahatma Gandhi: „Bez względu na to, jak wyraźne jest to zobowiązanie, ludzie odwrócą i przekręcą tekst, aby dopasować go do własnych celów”.

Być może podsumowując w tym miejscu podnoszącą na duchu nutą, Thomas Jefferson powiedział o przyrzeczeniach: „Wzajemnie przysięgamy sobie nawzajem nasze życie, nasze fortuny i nasz święty honor”.

Jeśli chodzi o roboty AI, ich autonomię, uzbrojenie itp., ostatecznie wszyscy będziemy w tym razem. Nasza wzajemna obietnica musi przynajmniej polegać na tym, że utrzymamy te sprawy na pierwszym planie, będziemy dążyć do znalezienia sposobów radzenia sobie z tymi postępami i jakoś znaleźć sposób na zabezpieczenie naszego honoru, naszego fortuny i naszego życia.

Czy możemy się do tego zobowiązać?

Mam nadzieję.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- producenci-robotów-mówią-że-unikną-broni-ai/