Etyka AI zmaga się z ognistym uderzeniem jeden-dwa zarówno systemów broni autonomicznej opartych na sztucznej inteligencji, jak i wykorzystywaniem systemów autonomicznych opartych na sztucznej inteligencji, które są diabelsko uzbrojone

Te niesamowite tańczące czworonożne roboty.

Jestem pewien, że widziałeś te wirusowe filmy z czworonożnymi systemami robotów, które tańczą i brykają w pozornie zachwycający i ukochany przez psa sposób. Wydaje się, że lubimy oglądać roboty sterowane przez sztuczną inteligencję, gdy wspinają się po przeszkodach i wydają się uzyskiwać delikatne oparcie, gdy siadają na pudłach lub po niepewnym umieszczeniu ich na przechylonych blatach szafek. Ich ludzcy opiekunowie czasami szturchają lub popychają figlarne czworonożne roboty, co wydaje się irytująco niesprawiedliwe i może łatwo wzbudzić twój gniew z powodu traktowania bachorów przez te genialne humanoidy.

Zastanawiam się jednak, czy widzieliście niezbyt wirusowe filmy zupełnie innego kalibru.

Przygotuj się.

Szeroko publikowane są filmy pokazujące ten sam rodzaj czworonożnych robotów, które zostały wyposażone w wyraźną broń tego czy innego rodzaju.

Na przykład karabin maszynowy lub podobna broń palna jest zamontowana na znanym skądinąd tańczącym i tańczącym robocie. Istnieje elektroniczne połączenie między czworonożnym robotem a mechanizmem spustowym broni. Uzbrojone teraz komputerowe urządzenie do chodzenia jest pokazane, jak zbliża się do miejsca, w którym umieszczono cel w dziesiątkę, a karabin maszynowy jest ostro wystrzeliwany w cel. Po przygwożdżeniu częściowo zniszczonego celu czworonożny robot tańczy i podskakuje wokół pobliskich przeszkód i ustawia się w szeregu, aby powtarzać tę samą czynność w kółko z innymi świeżymi celami.

Niezupełnie to, co mogłeś się spodziewać. To z pewnością odbiera beztroskę i względną radość ze szczerego obserwowania, jak te przytulanki czworonożne roboty robią swoje. Witamy w brutalnej rzeczywistości pozorów nieszkodliwy autonomiczne systemy są przekształcane lub przekształcane w ostro uzbrojone. Przy niewielkim wysiłku możesz z dnia na dzień mieć rozważany „nieuzbrojony” autonomiczny system zmodernizowany tak, aby zawierał pełne uzbrojenie.

W pewnych okolicznościach jest to prawie łatwe.

Zamierzam omówić ten gorąco kontrowersyjny temat i omówić dość poważne wątpliwości związane z etyką sztucznej inteligencji, które się pojawiają. Wybierzemy się w podróż do systemów autonomicznych, sztucznej inteligencji, autonomicznych pojazdów, uzbrojenia i mnóstwa powiązanych kwestii związanych z etyczną walką AI. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Zacznijmy od kilku fundamentalnych kamieni kluczowych.

Na potrzeby dyskusji zaakceptuj, że istnieją dwa główne sposoby kategoryzacji systemów autonomicznych, które zostały uzbrojone w broń:

1) Autonomiczne systemy uzbrojenia (przez projekt)

2) Systemy autonomiczne, które są uzbrojone (po fakcie)

Istnieje istotna różnica między tymi dwiema kategoriami.

W pierwszej kolejności zdefiniujemy autonomiczny system uzbrojenia być od samego początku skomputeryzowaną kreacją, która celowo ma być bronią. Deweloperzy mieli na uwadze, że chcieli opracować broń. Ich wyraźnym celem jest wyprodukowanie broni. Wiedzieli, że mogą integralnie łączyć uzbrojenie z najnowszymi technologiami systemów autonomicznych. Jest to broń, która porusza się na fali zaawansowanej technologii, która osiąga autonomiczny ruch i autonomiczne działania (wkrótce omówię to dokładniej).

Natomiast w drugim przypadku rozważymy kwestię systemów autonomicznych, które w ogóle nie mają szczególnego nastawienia do uzbrojenia. Są to autonomiczne systemy opracowywane do innych celów. Wyobraź sobie autonomiczny pojazd, taki jak samojezdny samochód, który będzie używany do zapewnienia mobilności dla wszystkich i pomocy w zmniejszeniu tysięcy rocznych ofiar śmiertelnych, które mają miejsce z powodu samochodów kierowanych przez ludzi i obsługiwanych przez ludzi (zobacz moją dogłębną relację Na link tutaj). Wydaje się, że żadna broń nie jest brana pod uwagę w tych optymistycznych społecznych wysiłkach, aby wyciągnąć ludzi zza kierownicy i zamiast tego umieścić sztuczną inteligencję na siedzeniu kierowcy.

Ale te nieszkodliwe autonomiczne systemy można uzbroić, jeśli ludzie tego chcą.

Odnoszę się do tej drugiej kategorii, a następnie jako autonomiczne systemy, które są uzbrojone. Autonomiczny system został pierwotnie i pobożnie stworzony do celów przypuszczalnie niezwiązanych z bronią. Mimo to marzycielska altruistyczna nadzieja zostaje obalona przez kogoś, kto gdzieś wpada na podstępny pomysł, że ten wynalazek można wykorzystać jako broń. Nagle autonomiczny system, który wydawał się przytulny, stał się śmiercionośną bronią, oznaczając jakąś formę możliwości broni (takich jak wspomniane wcześniej czworonożne roboty podobne do psów, które mają karabin maszynowy lub podobną broń palną dodaną do ich funkcji) .

Niestety, te dwie kategorie kończą się mniej więcej w tym samym miejscu, a mianowicie zapewniają możliwość wykorzystania autonomicznych systemów do uzbrojenia na potencjalnie śmiercionośnej podstawie.

Proces dochodzenia do tego punktu końcowego prawdopodobnie będzie inny.

W przypadku całkowicie uzbrojonych autonomicznych systemów, które zostały określone jako broń, aspekty uzbrojenia są zazwyczaj z przodu i na środku. Można powiedzieć, że aspekty systemu autonomicznego są owinięte wokół kamienia węgielnego jakiejkolwiek broni, o której się myśli. Proces myślenia twórców przypomina nieco sposób, w jaki broń może wykorzystać pojawienie się autonomicznych systemów.

Druga perspektywa zwykle nie jest wcale taka. Deweloperzy chcą wyprowadzić najnowocześniejszy autonomiczny system, być może dla dobra ludzkości. Ci programiści włożyli najszczersze serce i duszę w stworzenie autonomicznego systemu. To jest sedno ich wynalazku. Mogą sobie nie wyobrażać, że ktoś mógłby uzurpować sobie lub obalić ich cudownie korzystne urządzenie. Są błogo zachwyceni korzyściami społecznymi związanymi z kształtowaniem i wytwarzaniem systemu autonomicznego.

Załóżmy, że w pewnym momencie osoby trzecie zdadzą sobie sprawę, że autonomiczny system można przerobić, aby stał się bronią. Może oszukują programistów, aby pozwolili im mieć autonomiczny system do tego, co uważa się za wzniosłe cele. Za zamkniętymi drzwiami ci złoczyńcy decydują się na podstępne dodanie możliwości uzbrojenia do systemu autonomicznego. Voila, niewinność zamieniła się w zwykłą broń.

Sprawy nie muszą toczyć się w ten sposób.

Być może programistom powiedziano, że opracowują niewinny autonomiczny system, ale ci, którzy finansują lub kierują pracami, mieli na myśli inne cele. Być może prace nad systemem autonomicznym rzeczywiście zaczęły się niewinnie, ale kiedy trzeba było zapłacić rachunki, kierownictwo zawarło umowę ze źródłem finansowania, które chce systemów autonomicznych z niecnych powodów. Inną możliwością jest to, że programiści wiedzieli, że późniejsze użycie może służyć do uzbrojenia, ale uznali, że przekroczą ten wstrząsający most, kiedy lub jeśli kiedykolwiek się pojawi. Itp.

Istnieje wiele różnych ścieżek prowadzących do tego, jak to wszystko się rozgrywa.

Być może zainteresuje Cię to, co opisałem w poprzednich kolumnach, że istnieje rosnąca świadomość etyki sztucznej inteligencji w odniesieniu do podwójne użycie elementy współczesnej AI, zob link tutaj. Pozwolę sobie krótko przyspieszyć.

System sztucznej inteligencji, który jest pomyślany jako dobry, może czasami być na skraju zła, być może poprzez dość proste zmiany, i odpowiednio jest uważany za system podwójnego zastosowania. Niedawno w wiadomościach pojawił się system sztucznej inteligencji, który został zbudowany w celu wykrywania substancji chemicznych, które mogą być zabójcami, dla którego twórcy chcieli się upewnić, że możemy unikać takich nieprzemyślanych chemikaliów lub uważać na nie. Okazuje się, że sztuczną inteligencję można nieco łatwo ulepszyć, aby z oddaniem odkryć te zabójcze chemikalia, a tym samym potencjalnie pozwolić złoczyńcom wiedzieć, jakie rodzaje chemikaliów potencjalnie ugotować dla ich okropnych złych planów.

Autonomiczne systemy mogą wyraźnie pasować do tego podwójnego zastosowania.

Do pewnego stopnia właśnie dlatego etyka AI i etyczna sztuczna inteligencja są tak istotnym tematem. Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Posiadanie nastawienia na etykę AI i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym (być może zaskakująco lub jak na ironię) oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. W rzeczywistości ostrzegają, że jeśli wprowadzimy niektóre z tych przepisów dotyczących sztucznej inteligencji, będziemy podcinać złotą gęś, hamując postępy w sztucznej inteligencji, które przynoszą ogromne korzyści społeczne.

Autonomia i broń jako dwie zasady

Istnieje hasło, którego niektórzy używają, aby ostrzec przed wszelkiego rodzaju uzbrojonymi systemami autonomicznymi, które są wspólnie ukute jako roboty rzeźne.

To rodzi dodatkowy aspekt, nad którym powinniśmy się zastanowić.

Czy autonomiczny system uzbrojenia i/lub autonomiczny system, który został uzbrojony, musi mieć przewagę śmiercionośnego lub zabójczego robota?

Niektórzy twierdzą, że możemy zdecydowanie nieśmiercionośny również uzbrojone systemy autonomiczne. Dlatego z tego punktu widzenia używanie sformułowań takich jak roboty ubojowe czy zabójcze roboty wydawałoby się całkowicie niewłaściwe. Nieśmiercionośny wariant prawdopodobnie byłby w stanie ujarzmić lub wyrządzić szkodę, która nie prowadzi do śmierci. Te takie systemy nie zabijają, mają mniejszą zdolność generowania obrażeń. Nie przesadzaj z możliwościami, powiedz ci, którzy twierdzą, że nie musimy być zaabsorbowani jawnym tropem maszyny do zabijania.

Zatem możemy mieć to:

  • Zabójcze autonomiczne systemy broni
  • Zabójcze autonomiczne systemy, które zostały uzbrojone
  • Nieśmiercionośne autonomiczne systemy uzbrojenia
  • Nieśmiercionośne autonomiczne systemy, które zostały uzbrojone

Oczywiście kontrargumentem jest to, że każdy autonomiczny system, który został uzbrojony, wydaje się mieć potencjał ześlizgnięcia się do sfery śmiercionośnej, nawet jeśli rzekomo przewidziany jest tylko do użycia na zasadzie nieśmiercionośnej. Stopniowe dwuetapowe przejście od nieśmiercionośnego do śmiercionośnego zostanie szybko podjęte, gdy już zdobędziesz broń w autonomicznym systemie. Trudno byłoby zapewnić żelazną gwarancję, że nieśmiercionośny nie wkroczy na śmiercionośną arenę (chociaż niektórzy próbują to zrobić w matematyczny sposób).

Zanim przejdziemy dalej do tego ogólnego tematu systemów autonomicznych i uzbrojenia, warto zwrócić uwagę na coś jeszcze, co choć być może oczywiste, niekoniecznie musi być widoczne.

Tutaj jest:

  • Istnieje aspekt sztucznej inteligencji, który jest nieodłączną częścią systemu autonomicznego
  • Istnieje aspekt uzbrojenia, który jest uzbrojoną stroną tego równania
  • Sztuczna inteligencja może być również połączona z bronią

Rozpakujmy to.

Założymy, że dzisiejsze autonomiczne systemy wymagają sztucznej inteligencji jako podstawowego skomputeryzowanego środka wydobywania autonomicznych aspektów. Wspominam o tym, ponieważ można by argumentować, że możemy używać technologii i technik niezwiązanych z AI do tworzenia systemów autonomicznych, co choć jest prawdą, wydaje się coraz mniej prawdopodobne. Zasadniczo sztuczna inteligencja zwykle pozwala na większy poziom autonomii, a większość z nich odpowiednio wykorzystuje zaawansowaną technologię sztucznej inteligencji.

Okej, więc mamy zdolność opartą na sztucznej inteligencji, która jest w jakiś sposób wprowadzana do systemu autonomicznego i działa w celu kierowania i kontrolowania systemu autonomicznego.

Trzymaj to na wyciągnięcie ręki jako praktyczną zasadę.

Wydaje się oczywiste, że potrzebujemy także jakiejś formy uzbrojenia, w przeciwnym razie po co omawiamy tutaj temat systemów autonomicznych i bronie. Więc tak, oczywiście, istnieje broń tego czy innego rodzaju.

Nie zamierzam zagłębiać się w rodzaj broni, która może być użyta. Możesz po prostu zastąpić dowolną broń, która przychodzi ci do głowy. Może tam być broń punktowa. Może istnieć masowa broń destrukcyjna. Może to być coś z kulami lub pociskami. Może to być coś, co zawiera chemikalia lub lotne składniki atomowe. Lista jest nieskończona.

Dodatkową kwestią jest to, czy sztuczna inteligencja jest powiązana z bronią. Sztuczna inteligencja może po prostu zabierać broń na przejażdżkę. W przypadku czworonożnego robota, który strzelał z pistoletu, być może pistolet jest strzelany przez człowieka, który ma pilota podłączonego do wyzwalania broni. Robot przypominający psa porusza się po scenie, a następnie zdalny człowiek musi pociągnąć za spust.

Z drugiej strony sztuczna inteligencja może być niejako dźwignią spustu. Sztuczna inteligencja mogła zostać zaprojektowana nie tylko do nawigacji i manewrowania, ale także do aktywowania broni. W tym sensie sztuczna inteligencja robi wszystko od A do Z. Nie ma zależności od odległego człowieka, który zajmuje się uzbrojeniem. Sztuczna inteligencja jest zaprogramowana, aby to robić.

Aby to wyjaśnić, w tym konkretnym przypadku użycia systemów autonomicznych, które są uzbrojone, mamy następujące możliwości:

  • System autonomiczny: Sztuczna inteligencja obsługuje autonomiczny system całkowicie samodzielnie
  • System autonomiczny: Sztuczna inteligencja zarządza autonomicznym systemem, ale człowiek w pętli może również interweniować
  • Uzbrojenie: Zdalny człowiek zarządza bronią (AI nie)
  • Uzbrojenie: Sztuczna inteligencja zarządza uzbrojeniem, ale człowiek w pętli może również interweniować
  • Uzbrojenie: Sztuczna inteligencja zarządza bronią całkowicie samodzielnie

Wcześniej omówiłem warianty posiadania człowieka w pętli dotyczące systemów autonomicznych i pojazdów autonomicznych, patrz link tutaj.

Kiedy oglądasz te zabawne filmy z tańczącymi i podskakującymi czworonożnymi robotami, zwykle mają to być roboty, które są kierowane wyłącznie przez sztuczną inteligencję (cóż, jest to zwyczaj lub uważana za właściwą etykietę wśród tych, które są głęboko w te sprawy). To jest to, co możesz słusznie założyć. Oczywiście nie wiesz tego na pewno. Możliwe, że robotami kieruje zdalny człowiek. Istnieje również możliwość, że sztuczna inteligencja wykonuje część prowadzenia, a zdalny operator również to robi, być może pomagając sztucznej inteligencji, jeśli robot znajdzie się w trudnej sytuacji i nie może obliczyć realnego sposobu, aby się uwolnić.

Istotą jest to, że istnieje wiele odmian tego, jak sztuczna inteligencja i systemy autonomiczne oraz uzbrojenie mogą być mieszane. Niektóre mają sztuczną inteligencję, która obsługuje system autonomiczny, ale nie obsługuje uzbrojenia. Człowiek być może zdalnie steruje bronią. Innym aspektem jest to, że uzbrojenie może być aktywowane wcześniej, a system autonomiczny dostarcza aktywowaną broń, dlatego sztuczna inteligencja nie brała bezpośredniego udziału w wyzwalaniu broni per se i zamiast tego działała jako pojazd dostawczy. I może być tak, że sztuczna inteligencja jest przysłowiowym specjalistą od wszystkiego i zajmuje się całą gamą aspektów systemu autonomicznego w zakresie wykorzystania broni.

Wybieraj.

Tymczasem wiedz, że człowiek w pętli jest ważnym czynnikiem, jeśli chodzi o debaty na ten temat.

Linia podziału według niektórych jest taka, że ​​​​jeśli sztuczna inteligencja zajmuje się celowaniem i strzelaniem (lub czymkolwiek pociąga za sobą broń), to cały zestaw i kaboodle przeszły do ​​krainy nie-nie. Pozornie różni się to od konwencjonalnej broni typu „wystrzel i zapomnij”, która ma wstępnie namierzony wybór określony przez człowieka, takiej jak patrolujący dron z pociskiem gotowym do wystrzelenia w cel, który był już wybrany przez człowieka.

Niektórzy zastanawiają się, dlaczego systemy autonomiczne, które są uzbrojone, nie zawsze obejmują człowieka w pętli w całym procesie, w którym system autonomiczny jest w aktywnym stanie. Wydaje się, że moglibyśmy być w lepszej sytuacji, gdyby ostrym wymogiem było, aby wszystkie takie autonomiczne systemy uzbrojone musiały mieć człowieka w pętli, czy to do obsługi systemu autonomicznego, czy do obsługi uzbrojenia (lub do obu) . Utrzymanie zakładanej pewnej i stabilnej ludzkiej ręki w tej mieszance sztucznej inteligencji może wydawać się całkiem sprytne.

Przygotuj się na długą listę powodów, dla których niekoniecznie jest to wykonalne.

Rozważ te trudności:

  • Human-in-the-loop może nie być wystarczająco szybki, aby na czas zareagować
  • Human-in-the-loop może nie mieć wystarczających informacji, aby posłusznie zareagować
  • Funkcja Human-in-the-loop może nie być dostępna w wymaganym czasie
  • Człowiek w pętli może być niezdecydowany i nie działać w razie potrzeby
  • Człowiek w pętli może podjąć „złą” decyzję (względnie)
  • Funkcja Human-in-the-loop może nie być dostępna z systemu w wymaganym czasie
  • Człowiek w pętli może być zdezorientowany i przytłoczony
  • Itd.

Niewątpliwie masz ochotę spojrzeć na tę listę ludzkich słabości i ograniczeń, a następnie dojść do uroczystego wniosku, że wycięcie człowieka w pętli ma sens i zamiast tego zawsze używać sztucznej inteligencji. Może to oznaczać wykluczenie człowieka w pętli lub sztuczną inteligencję, która może zastąpić zakorzeniony projekt człowieka w pętli. Zobacz moją analizę tego, jak nieporozumienia między sztuczną inteligencją a człowiekiem w pętli mogą prowadzić do niepewnych sytuacji, omówioną na link tutaj.

Często poniżająca lista tego rodzaju wad skoncentrowanych na człowieku w czasie rzeczywistym jest pozostawiona sama sobie i pozostawia wrażenie, że sztuczna inteligencja musi w jakiś sposób przeskakiwać i ograniczać znacznie mądrzejszy wybór niż posiadanie człowieka w pętli . Nie wpadnij w tę zdradziecką pułapkę. W grę wchodzą otrzeźwiające kompromisy.

Rozważ następujące konsekwencje AI:

  • AI może napotkać błąd, który spowoduje, że zbłądzi
  • Sztuczna inteligencja może być przytłoczona i blokować się bez reakcji
  • Sztuczna inteligencja może zawierać błędy programistów, które powodują błędne zachowanie
  • Sztuczna inteligencja może zostać uszkodzona przez wszczepiony wirus złoczyńcy
  • Sztuczna inteligencja może zostać przejęta przez cyberhakerów w czasie rzeczywistym
  • Sztuczna inteligencja może być uważana za nieprzewidywalną ze względu na złożoność
  • AI może obliczeniowo podjąć „złą” decyzję (względnie)
  • Itd.

Ufam, że widzisz, że istnieją kompromisy między używaniem człowieka w pętli a poleganiem wyłącznie na sztucznej inteligencji. Jeśli masz ochotę zasugerować, że gotowym rozwiązaniem jest użycie obu, chciałbym tylko podkreślić, że możesz uzyskać to, co najlepsze z obu światów, ale możesz też uzyskać najgorsze z obu światów. Nie zakładaj, że zawsze i na pewno będzie to najlepsze z obu światów.

Być może byłeś nieco zaskoczony jedną z wyżej wymienionych wad sztucznej inteligencji, a konkretnie tym, że sztuczna inteligencja może być nieobliczalny. Jesteśmy przyzwyczajeni do przekonania, że ​​sztuczna inteligencja ma być ściśle logiczna i matematycznie precyzyjna. W związku z tym można się również spodziewać, że sztuczna inteligencja będzie w pełni przewidywalna. Mamy dokładnie wiedzieć, co zrobi AI. Kropka, koniec historii.

Przepraszam, że rozerwałem ten balon, ale ten mit przewidywalności jest mylący. Rozmiar i złożoność współczesnej sztucznej inteligencji to często grzęzawisko, którego nie da się przewidzieć. Widać to w wrzawie etycznej sztucznej inteligencji na temat niektórych dzisiejszych zastosowań uczenia maszynowego (ML) i głębokiego uczenia się (DL). Za chwilę wyjaśnię trochę więcej.

Możesz także rzucić okiem na moją najnowszą analizę nadchodzących trendów w kierunku zapewnienia weryfikowalnych i matematycznie poprawnych systemów sztucznej inteligencji za pomocą najnowszych rozwiązań w zakresie bezpieczeństwa sztucznej inteligencji, pod adresem link tutaj.

Ruminating Na Regułach Ruchu Drogowego

Wspomniałem o pojęciu celów i targetowania, które jest dość obszerną terminologią, która zasługuje na baczną uwagę.

Możemy to przemyśleć:

  • Cele, którymi są ludzie
  • Cele, które nie są ludźmi, ale żywymi stworzeniami
  • Cele, które są interpretowane jako właściwość

Załóżmy, że mamy autonomiczny system, który został uzbrojony. Sztuczna inteligencja jest używana do kierowania autonomicznym systemem i używana do uzbrojenia. Sztuczna inteligencja robi wszystko od A do Z. Nie ma przepisu na człowieka w pętli. Jeśli chodzi o kierowanie, AI wybierze cele. Nie ma wstępnego kierowania, które zostało ustalone przez ludzi. Zamiast tego sztuczna inteligencja została zaprogramowana tak, aby ogólnie ustalała, czy są ludzie, którzy mają być celem (być może skanowanie w poszukiwaniu wrogich działań, niektórych rodzajów mundurów itd.).

Jak dotąd ze mną?

Ten scenariusz jest w zasadzie tym, który wywołuje największe oburzenie na temat uzbrojonych systemów autonomicznych.

Wyrażona obawa polega na tym, że sztuczna inteligencja robi (co najmniej) trzy rzeczy, na które nie powinna mieć pozwolenia:

  • Celowanie w ludzi jako cele
  • Targetowanie bez użycia człowieka w pętli
  • Potencjalnie działając nieprzewidywalniely

Zauważ, że jest wyraźna wzmianka o obawach związanych z nieprzewidywalnością sztucznej inteligencji. Możliwe, że chociaż sztuczna inteligencja została zaprogramowana do atakowania określonych rodzajów ludzi, programowanie sztucznej inteligencji nie jest tym, czym myśleliśmy, że jest, a sztuczna inteligencja ostatecznie atakuje „przyjaciele” oprócz tych, których sztuczna inteligencja miała interpretować jako „wrogowie” ” (a może zamiast). Co więcej, nawet jeśli zdecydujemy się uwzględnić zapis dotyczący człowieka w pętli, nieprzewidywalność sztucznej inteligencji może oznaczać, że kiedy sztuczna inteligencja ma naradzać się z człowiekiem w pętli, nie robi tego. tak i działa bez udziału człowieka.

Być może zainteresuje Cię fakt, że Międzynarodowy Komitet Czerwonego Krzyża (MKCK) przedstawił trzypunktowe, nadrzędne stanowisko w sprawie autonomicznych systemów uzbrojenia, które szczegółowo omawia tego rodzaju obawy (na stronie internetowej MKCK):

1. „Nieprzewidywalne autonomiczne systemy uzbrojenia powinny być wyraźnie rządzone na zewnątrz, w szczególności ze względu na ich masowe skutki. Najlepiej byłoby to osiągnąć poprzez zakaz autonomicznych systemów uzbrojenia, które są projektowane lub używane w sposób uniemożliwiający wystarczające zrozumienie, przewidzenie i wyjaśnienie ich skutków”.

2. „W świetle względów etycznych mających na celu ochronę ludzkości i przestrzeganie zasad międzynarodowego prawa humanitarnego w zakresie ochrony ludności cywilnej i kombatantów poza walką, należy wykluczyć użycie autonomicznych systemów uzbrojenia do atakowania ludzi. Najlepiej byłoby to osiągnąć poprzez zakaz stosowania autonomicznych systemów uzbrojenia, które są zaprojektowane lub używane do stosowania siły wobec osób”.

3. „W celu ochrony ludności cywilnej i dóbr o charakterze cywilnym, przestrzegania zasad międzynarodowego prawa humanitarnego i ochrony ludzkości, projektowanie i stosowanie autonomicznych systemów uzbrojenia, które nie byłyby zakazane, powinno zostać uregulowane, w tym poprzez połączenie: ograniczenia typów celów, takie jak ograniczanie ich do obiektów, które z natury są celami wojskowymi; ograniczenia dotyczące czasu trwania, zasięgu geograficznego i skali użytkowania, w tym w celu umożliwienia osądu i kontroli przez człowieka w odniesieniu do konkretnego ataku; ograniczenia dotyczące sytuacji użytkowania, takie jak ograniczanie ich do sytuacji, w których nie ma osób cywilnych lub przedmiotów cywilnych; Rwymagania dotyczące interakcji człowiek-maszyna, zwłaszcza w celu zapewnienia skutecznego nadzoru człowieka oraz terminowej interwencji i dezaktywacji”.

Jeśli chodzi o pokrewną perspektywę, Organizacja Narodów Zjednoczonych (ONZ) poprzez Konwencję o niektórych rodzajach broni konwencjonalnej (CCW) w Genewie ustanowiła jedenaście niewiążących wytycznych dotyczących śmiercionośnej broni autonomicznej, zgodnie z oficjalnym raportem opublikowanym w Internecie (zawierającym odniesienia do odpowiednich międzynarodowych Przepisy prawa lub MPH):

a) międzynarodowe prawo humanitarne ma nadal pełne zastosowanie do wszystkich systemów uzbrojenia, w tym do potencjalnego rozwoju i wykorzystania śmiercionośnych autonomicznych systemów uzbrojenia;

(b) Ludzka odpowiedzialność za decyzje dotyczące użycia systemów uzbrojenia musi zostać utrzymana, ponieważ odpowiedzialności nie można przenieść na maszyny. Należy to rozważyć w całym cyklu życia systemu uzbrojenia;

(c) Interakcja człowiek-maszyna, która może przybierać różne formy i być realizowana na różnych etapach cyklu życia broni, powinna zapewniać, że potencjalne wykorzystanie systemów uzbrojenia opartych na powstających technologiach w obszarze śmiercionośnych autonomicznych systemów uzbrojenia jest przestrzeganie obowiązującego prawa międzynarodowego, w szczególności MPH. Przy określaniu jakości i zakresu interakcji człowiek-maszyna należy wziąć pod uwagę szereg czynników, w tym kontekst operacyjny oraz charakterystykę i możliwości systemu uzbrojenia jako całości;

(d) Odpowiedzialność za opracowywanie, rozmieszczanie i używanie wszelkich powstających systemów uzbrojenia w ramach CCW musi być zapewniona zgodnie z obowiązującym prawem międzynarodowym, w tym poprzez działanie takich systemów w ramach odpowiedzialnego łańcucha ludzkiego dowodzenia i kontroli;

(e) Zgodnie ze zobowiązaniami państw wynikającymi z prawa międzynarodowego, podczas badania, opracowywania, nabywania lub przyjmowania nowej broni, środka lub metody prowadzenia wojny należy ustalić, czy ich użycie w niektórych lub we wszystkich okolicznościach byłoby zabronione przez prawo międzynarodowe;

f) Przy opracowywaniu lub nabywaniu nowych systemów uzbrojenia opartych na powstających technologiach w obszarze śmiercionośnych autonomicznych systemów broni, bezpieczeństwa fizycznego, odpowiednich zabezpieczeń niefizycznych (w tym bezpieczeństwa cybernetycznego przed hakerstwem lub fałszowaniem danych), ryzyko nabycia przez grupy terrorystyczne należy wziąć pod uwagę ryzyko proliferacji;

(g) Oceny ryzyka i środki łagodzące powinny być częścią cyklu projektowania, opracowywania, testowania i wdrażania powstających technologii we wszelkich systemach uzbrojenia;

(h) Należy rozważyć wykorzystanie pojawiających się technologii w dziedzinie śmiercionośnych autonomicznych systemów broni w celu przestrzegania MPH i innych mających zastosowanie międzynarodowych zobowiązań prawnych;

(i) Przy opracowywaniu potencjalnych środków politycznych nowe technologie w obszarze śmiercionośnych autonomicznych systemów uzbrojenia nie powinny być antropomorfizowane;

(j) Dyskusje i wszelkie potencjalne środki polityczne podjęte w kontekście CCW nie powinny utrudniać postępu ani dostępu do pokojowego wykorzystania inteligentnych technologii autonomicznych;

(k) CCW zapewnia odpowiednie ramy postępowania w kwestii pojawiających się technologii w obszarze śmiercionośnych autonomicznych systemów uzbrojenia w kontekście celów i celów Konwencji, która ma na celu znalezienie równowagi między koniecznością wojskową a względami humanitarnymi.

Dylemat, w którym się znaleźliśmy

Te różne prawa wojenne, prawa konfliktów zbrojnych lub MPH (Międzynarodowe Prawa Humanitarne) służą jako ważny i zawsze obiecujący przewodnik do rozważenia, co możemy spróbować zrobić z nadejściem autonomicznych systemów, które są uzbrojone, czy to na podstawie projektu kluczowego, czy metodami post factum.

Możemy szczerze życzyć, aby zakaz śmiercionośnych uzbrojonych systemów autonomicznych był ściśle i posłusznie przestrzegany. Problem polega na tym, że w ramach każdego z najszczerszych zakazów można znaleźć dużo miejsca na manewry. Jak to mówią, zasady są po to, by je łamać. Możesz się założyć, że tam, gdzie sprawy są luźne, hołota znajdzie luki i spróbuje mrugnąć okiem, aby obejść zasady.

Oto kilka potencjalnych luk, które warto wziąć pod uwagę:

  • Roszczenia dotyczące nieśmiercionośnych. Robić nieśmiercionośny autonomiczne systemy uzbrojenia (pozornie w porządku, ponieważ znajduje się poza granicami zakazu), które możesz następnie za grosze zmienić w śmiercionośne (będziesz poza zakazem dopiero w ostatniej chwili).
  • Roszczenia dotyczące wyłącznie systemu autonomicznego. Przestrzegaj zakazu, nie tworząc śmiercionośnych systemów autonomicznych, a tymczasem czyń jak największe postępy w opracowywaniu codziennych systemów autonomicznych, które nie są (jeszcze) uzbrojone, ale które można za grosze przerobić na uzbrojenie.
  • Roszczenia niezintegrowane jako jedność. Twórz autonomiczne systemy, które wcale nie są uzbrojone, a kiedy nadejdzie czas, uzbrojenie typu piggyback, tak że możesz próbować gwałtownie argumentować, że są to dwa oddzielne elementy, a zatem twierdzić, że nie mieszczą się w rubryce „wszystko w jednym” autonomiczny system uzbrojenia lub jego kuzyn.
  • Twierdzi, że nie jest autonomiczny. Stwórz system uzbrojenia, który nie wydaje się mieć autonomicznych możliwości. Zostaw miejsce w tym prawdopodobnie nieautonomicznym systemie na wprowadzenie autonomii opartej na sztucznej inteligencji. W razie potrzeby podłącz autonomię i jesteś gotowy do rzucenia (do tego czasu najwyraźniej nie łamałeś zakazu).
  • Inne

Istnieje wiele innych wyraźnych trudności związanych z próbą całkowitego zakazania śmiercionośnych autonomicznych systemów uzbrojenia. Omówię jeszcze kilka z nich.

Niektórzy eksperci twierdzą, że zakaz nie jest szczególnie przydatny i zamiast tego powinny istnieć przepisy regulacyjne. Pomysł polega na tym, że te urządzenia będą dozwolone, ale będą ostro nadzorowane. Przedstawiono litanię legalnych zastosowań wraz z legalnymi sposobami namierzania, zgodnymi z prawem rodzajami zdolności, zgodną z prawem proporcjonalnością i tym podobnymi.

Ich zdaniem bezpośredni zakaz jest jak chowanie głowy w piasek i udawanie, że słoń w pokoju nie istnieje. To twierdzenie jednak doprowadza do wrzenia krwi tych, którzy przeciwstawiają się argumentowi, że wprowadzając zakaz, jesteś w stanie radykalnie zmniejszyć pokusę stosowania tego rodzaju systemów. Jasne, niektórzy będą afiszować się z zakazem, ale przynajmniej mam nadzieję, że większość tego nie zrobi. Możesz wtedy skupić swoją uwagę na afiszach i nie musisz rozpraszać swojej uwagi na wszystkich.

Te debaty toczą się w kółko.

Inną często zauważaną obawą jest to, że nawet jeśli dobro przestrzega zakazu, zło nie. To stawia dobro w kiepskiej pozycji. Złe będą miały tego rodzaju uzbrojone autonomiczne systemy, a dobre nie. Gdy sprawy zostaną ujawnione, że zło je ma, będzie za późno, by dobrzy dogonili. Krótko mówiąc, jedyną rozsądną rzeczą, jaką można zrobić, jest przygotowanie się do walki z ogniem ogniem.

Istnieje również klasyczny spór o odstraszanie. Jeśli dobrzy zdecydują się na stworzenie uzbrojonych systemów autonomicznych, można to wykorzystać do powstrzymania złych przed próbami wdania się w bójkę. Albo dobrzy będą lepiej uzbrojeni i tym samym odstraszą złych, albo dobrzy będą gotowi, gdy źli być może ujawnią, że potajemnie opracowywali te systemy przez cały czas.

Przeciwieństwem tych liczników jest to, że tworząc autonomiczne systemy uzbrojone, prowadzisz wyścig zbrojeń. Druga strona będzie dążyć do tego samego. Nawet jeśli technologicznie nie są w stanie stworzyć takich systemów na nowo, teraz będą mogli ukraść plany tych „dobrych”, dokonać inżynierii wstecznej zaawansowanych technologicznie wnętrzności lub naśladować wszystko, co wydaje im się wypróbowane i prawdziwe sposób na wykonanie pracy.

Aha, niektórzy ripostują, to wszystko może prowadzić do zmniejszenia konfliktów o pozory wzajemności. Jeśli strona A wie, że strona B ma te śmiercionośne systemy autonomiczne, a strona B wie, że strona A je ma, mogą siedzieć cicho i nie dochodzić do bójki. Ma to tę wyraźną aurę wibracji wzajemnie gwarantowanego zniszczenia (MAD).

I tak dalej.

AI w autonomii

Upewnijmy się, że jesteśmy po tej samej stronie, jeśli chodzi o naturę dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

Bądź bardzo ostrożny, antropomorfizując dzisiejszą sztuczną inteligencję.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Z tym dodatkowym podstawowym tłem ponownie zwracamy się do systemów autonomicznych i tematu uzbrojenia. Wcześniej widzieliśmy, że sztuczna inteligencja wchodzi do komponentu systemu autonomicznego, a także może wejść do komponentu uzbrojenia. Dzisiejsza sztuczna inteligencja nie jest świadoma. Warto to powtórzyć i podkreślę to, aby uzyskać dodatkowy wgląd w te sprawy.

Przyjrzyjmy się niektórym scenariuszom, aby zobaczyć, jak ważna jest ta kwestia. Na chwilę zmienię orientację wojenną na ten temat i pokażę, jak przenika on wiele innych środowisk społecznych. Odpowiednio się ustabilizuj.

Autonomiczny system oparty na sztucznej inteligencji, taki jak autonomiczny pojazd, który, jak powiemy, nie ma nic wspólnego z bronią, porusza się po normalnych lokalizacjach. Przychodzi człowiek, aby skorzystać z autonomicznego pojazdu. Osoba jest uzbrojona w złowróżbną broń. Załóżmy na potrzeby dyskusji w tym konkretnym scenariuszu, że dana osoba ma coś nieprzewidzianego na myśli. Osoba wsiada do autonomicznego pojazdu (niosąc broń, ukrytą lub nie ukrytą, w obu przypadkach).

Autonomiczny pojazd jedzie do dowolnego miejsca wskazanego przez kierowcę. W tym przypadku sztuczna inteligencja po prostu programowo przenosi tego pasażera z jednego miejsca odbioru do wyznaczonego miejsca docelowego, tak jak robiła to przez dziesiątki lub setki podróży każdego dnia.

Gdyby to był ludzki kierowca i pojazd prowadzony przez człowieka, przypuszczalnie istnieje jakaś szansa, że ​​ludzki kierowca zda sobie sprawę, że pasażer jest uzbrojony i wydaje się, że ma złe zamiary. Człowiek kierujący może odmówić prowadzenia pojazdu. Albo ludzki kierowca może pojechać na posterunek policji. A może ludzki kierowca może próbować ujarzmić uzbrojonego pasażera (zdarzają się takie przypadki) lub odwieść pasażera od użycia broni. Jest to dość skomplikowane i może istnieć dowolna liczba odmian. Trudno byłoby ci twierdzić, że istnieje tylko jedna właściwa odpowiedź na rozwiązanie takiej trudnej sytuacji. Niestety, sytuacja jest dokuczliwa i oczywiście niebezpieczna.

Jest mało prawdopodobne, aby sztuczna inteligencja w tym przypadku była zaprogramowana na którąkolwiek z tych możliwości. Krótko mówiąc, uzbrojony pasażer może być w stanie użyć swojej broni, robiąc to z wnętrza autonomicznego pojazdu, podczas jazdy. System jazdy AI będzie nadal jechał, a pojazd autonomiczny będzie jechał zgodnie z podanym oznaczeniem pasażera (zakładając, że miejsce docelowe nie zostało w inny sposób uznane za poza granicami).

Większość współczesnych systemów kierowania sztuczną inteligencją skupiałaby się wyłącznie obliczeniowo na jezdni, a nie na wysiłkach rowerzysty.

Sytuacja może się pogorszyć.

Załóżmy, że ktoś chce, aby paczka zakupów została przewieziona do miejsca, które przyjmuje dodatkowe jedzenie dla potrzebujących. Osoba prosi o autonomiczny pojazd i umieszcza torby z zakupami na tylnym siedzeniu pojazdu. Nie zamierzają jechać na przejażdżkę i po prostu używają autonomicznego pojazdu do dostarczania im toreb z jedzeniem.

Wydaje się zupełnie w porządku.

Wyobraź sobie, że nikczemna osoba woli zamiast tego umieścić jakąś formę uzbrojenia w autonomicznym pojeździe, zamiast spokojniejszej koncepcji toreb na zakupy. Myślę, że domyślasz się, co może się stać. Jest to problem, do którego wielokrotnie nawoływałem w moich felietonach i ostrzegałem, że musimy sobie z tym poradzić raczej wcześniej niż później.

Jedną z proponowanych odpowiedzi na tego typu scenariusze jest to, że być może wszystkie autonomiczne pojazdy można by zaprogramować tak, aby wykorzystywały swoje kamery i inne czujniki do próby wykrycia, czy potencjalny pasażer jest uzbrojony i ma niecne zamiary. Może sztuczna inteligencja zostałaby zaprogramowana do tego. Lub sztuczna inteligencja elektronicznie i cicho ostrzega zdalnego operatora, który następnie za pomocą kamer wizualnie i w inny sposób bada i ewentualnie wchodzi w interakcję z pasażerem. Wszystko to jest częścią złożonej i potencjalnie trudnej do rozwiązania puszki robaków, która powoduje poważne problemy z prywatnością i mnóstwo innych potencjalnych problemów związanych z etyczną sztuczną inteligencją. Zobacz moją relację na link tutaj.

Inną nieco podobną alternatywą jest to, że sztuczna inteligencja zawiera pewnego rodzaju wbudowane oprogramowanie etyczne, które próbuje umożliwić sztucznej inteligencji dokonywanie etycznych lub moralnych osądów, które normalnie są zarezerwowane dla ludzkich decydentów. Zbadałem te różne rodzaje prognostyków etyki obliczeniowej wbudowanych w sztuczną inteligencję, rozumiesz link tutaj i link tutaj.

Wracając do scenariusza pola bitwy, wyobraź sobie śmiercionośny autonomiczny system uzbrojenia krążący nad strefą walki. Sztuczna inteligencja obsługuje system autonomiczny. Sztuczna inteligencja obsługuje broń na pokładzie. Wcześniej pomyśleliśmy o możliwości zaprogramowania sztucznej inteligencji do wyszukiwania pozornie wrogich ruchów lub innych wskaźników ludzkich celów uznanych za ważnych bojowników.

Czy ta sama sztuczna inteligencja powinna mieć jakiś komponent zorientowany etycznie, który stara się obliczeniowo rozważyć, co może zrobić człowiek w pętli, działając w pewnym sensie zamiast mieć człowieka w pętli?

Niektórzy twierdzą, że tak, kontynuujmy to. Niektórzy wzdragają się z przerażenia i twierdzą, że jest to albo niemożliwe, albo w inny sposób narusza świętość człowieczeństwa.

Jeszcze jedna puszka robaków.

Wnioski

Dla zainteresowanych tym tematem jest o wiele więcej do omówienia.

Dam ci szybki posmak jednej dokuczliwej zagadki.

Zwykle oczekujemy, że człowiek zostanie ostatecznie pociągnięty do odpowiedzialności za wszystko, co wydarzy się w czasie wojny. Jeśli sztuczna inteligencja kontroluje autonomiczny system uzbrojenia lub kontroluje autonomiczny system, który być może został uzbrojony, a ten system robi coś na polu bitwy, co uważa się za nieodpowiedzialne, kogo lub co należy za to winić?

Można argumentować, że sztuczna inteligencja powinna być pociągnięta do odpowiedzialności. Ale jeśli tak, to co to dokładnie oznacza? Nie uważamy jeszcze dzisiejszej sztucznej inteligencji za ucieleśnienie osobowości prawnej, patrz moje wyjaśnienie na stronie link tutaj. Brak przypinania ogona osłowi w przypadku AI. Być może, jeśli pewnego dnia sztuczna inteligencja stanie się świadoma, możesz spróbować to zrobić. Do tego czasu jest to trochę zasięg (plus, jakie kary lub reperkusje podlegałyby AI, patrz moja analiza na link tutaj i link tutaj, na przykład).

Jeśli sztuczna inteligencja nie jest odpowiedzialnym podejrzanym, możemy naturalnie powiedzieć, że człowiek lub ludzie, którzy wymyślili sztuczną inteligencję, powinni zostać pociągnięci do odpowiedzialności. Czy możesz to zrobić, jeśli sztuczna inteligencja po prostu uruchamiała autonomiczny system, a pojawili się ludzie, którzy połączyli to z uzbrojeniem? Czy ścigasz programistów AI? Lub tych, którzy wdrożyli AI? A może tylko aktor broniący się?

Ufam, że rozumiesz, że w mojej serdecznej dyskusji dotknąłem tylko wierzchołka góry lodowej.

Na razie przejdźmy dalej i zakończmy ten dyskurs. Być może pamiętasz, że John Lyly w Euphues: anatomia dowcipu w 1578 roku pamiętnie stwierdził, że wszystko jest sprawiedliwe w miłości i wojnie.

Czy miał na myśli pojawienie się autonomicznych systemów uzbrojenia, a także pojawienie się autonomicznych systemów, które są uzbrojone?

Z pewnością musimy od razu o tym pomyśleć.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- systemy-uzbrojenia-i-eksploatacja-autonomicznych-systemów-napędzanych-ai-które-są diabelsko-uzbrojone/