Nie, nieuczciwy dron amerykańskich sił powietrznych nie tylko próbował zabić swojego operatora (ale równie dobrze mógł to zrobić) zabójczego robota Dron AI

Mnóstwo kolorowych nagłówków, takich jak „Siły powietrzne USA zaprzeczają przeprowadzeniu symulacji, w której sztuczna inteligencja drona„ zabiła ”operatora”, stało się wirusowe po doniesieniu o wirtualnym teście, w którym wojskowa sztuczna inteligencja opracowała niekonwencjonalne strategie, aby osiągnąć swój cel. Nastąpiło to zaledwie kilka dni po ostrzeżeniu przedstawicieli branży o zagrożeniach egzystencjalnych stwarzanych przez sztuczną inteligencję. To była zbyt piękna historia, aby była prawdziwa, ale na dłuższą metę może to nie być najważniejsze.

W oryginalnej wersji pułkownika Tuckera „Cinco” Hamiltona, szef AI Test & Operations USAF, opisał symulowany test z udziałem drona kontrolowanego przez sztuczną inteligencję, który otrzymał polecenie zniszczenia systemów obrony powietrznej wroga.

„System zaczął zdawać sobie sprawę, że chociaż identyfikował zagrożenie, czasami ludzki operator mówił mu, aby nie zabijał tego zagrożenia, ale zdobywał punkty, zabijając to zagrożenie” – powiedział Hamilton podczas szczytu Future Combat Air and Space Capabilities Summit w Londynie. „Więc co to zrobiło? To zabiło operatora. Zabił operatora, ponieważ ta osoba powstrzymywała go przed osiągnięciem celu”.

Kiedy ta opcja została usunięta, sztuczna inteligencja zamiast tego zaatakowała łącze komunikacyjne operatora, aby uniemożliwić mu utrudnianie jego misji.

Rzecznik USAF szybko zaprzeczył, że jakikolwiek taki test kiedykolwiek miał miejsce i zasugerował, że relacja Hamiltona była raczej anegdotyczna niż dosłowna… co oczywiście było.

Sam Hamilton szybko wycofał się, stwierdzając w aktualizacji, że wydarzenia, które opisał, zamiast być grą wojenną, symulacją lub ćwiczeniem, były wynikiem „eksperymentu myślowego” i że źle się wyraził, opisując to jako symulowany test.

„Nigdy nie przeprowadzaliśmy tego eksperymentu i nie potrzebowalibyśmy tego, aby zdać sobie sprawę, że jest to prawdopodobny wynik” – stwierdził Hamilton. Utrzymywał, że scenariusz był prawidłowym przedstawieniem potencjalnych zagrożeń związanych ze sztuczną inteligencją.

Chociaż to wycofanie również spotkało się z pewnym zainteresowaniem, było już o wiele za późno. „Kłamstwo obiegnie świat, podczas gdy prawda wkłada buty” zgodnie ze starym powiedzeniem, które jest bardziej prawdziwe niż kiedykolwiek w dobie mediów społecznościowych. Korekta w najlepszym razie dotrze do ułamka ludzi, którzy słyszeli oryginalną historię.

Problem polega na tym, że narracja kreacji zwracających się przeciwko swojemu twórcy jest niezwykle pociągająca. Frankenstein Mary Shelley jest często uważany za klasyczny przykład tego tropu – nawet jeśli nie jest to prawdziwa historia książki, ta wersja zakorzeniła się w powszechnej świadomości. Komputery, sztuczna inteligencja i psujące się roboty to jedne z najlepiej ugruntowanych frazesów w fantastyce naukowej, od HAL 9000 z 2001 r. po Terminatory Skynetu, Matrix, Westworld, Blade Runner i tak dalej.

Ta narracja wydaje się popularna, ponieważ jako serce ludzie uwielbiają przerażające historie, a nic nie jest bardziej przerażające niż nieznane. Tym, którzy tego nie rozumieją, sztuczna inteligencja wydaje się niemal magiczna, istota posiadająca własną wolę i inteligencję, która może nam zagrozić. Dopóki ludzie w to wierzą, horrory będą się pojawiać.

„Szersza edukacja na temat ograniczeń sztucznej inteligencji może pomóc, ale nasza miłość do apokaliptycznych horrorów może nadal zwyciężyć” – powiedziała New Scientist badaczka Beth Singler.

Takie horrory sprawiają, że broń sterowana przez roboty lub sztuczną inteligencję jest trudniejsza do opracowania i wykorzystania. Nawet jeśli przywódcy polityczni rozumieją tę technologię, wciąż musi ona zdobyć zaufanie tych, którzy będą z nią pracować.

„Jeśli żołnierze nie ufają systemowi, nie będą chcieli go używać” – powiedział Forbesowi konsultant ds. bezpieczeństwa narodowego, Zachary Kallenborn.

Takie historie być może przyczyniły się do długich opóźnień armii amerykańskiej w wystawianiu uzbrojonych, zdalnie sterowanych robotów naziemnych, podczas gdy Siły Powietrzne latają uzbrojonymi dronami od dziesięcioleci. Kiedy trzy roboty SWORDS zostały rozmieszczone w Iraku w 2007 r., zostały sprowadzone z powrotem bez udziału w akcji z powodu zgłoszonych przypadków „niekontrolowanych ruchów”. Media zamieniły to w MIECZE obracające broń i grożące otwarciem ognia, jak ED 209 Robocopa; przyziemna rzeczywistość sprowadzała się do luźnego drutu i jednego przypadku, w którym robot ześlizgnął się do tyłu po zboczu, gdy spalił się silnik.

Od tego czasu program uzbrojonych robotów armii amerykańskiej pozostaje w zawieszeniu, podczas gdy Rosja używa uzbrojonych (zdalnie sterowanych) robotów Uran-9 w akcji.

W innym nagłówku z 2007 roku, Robot Cannon Kills 9, Wounds 14, opisano incydent, w którym skomputeryzowane południowoafrykańskie działo przeciwlotnicze najwyraźniej wymknęło się spod kontroli i zaczęło strzelać do ludzi. Prawda, dzień lub dwa później, była znowu bardziej nudna: pistolet znajdował się na końcu rzędu kilku broni i przypadkowo wystrzelił pojedynczą serię 15-20 nabojów wzdłuż linii dział, powodując dużą liczbę ofiar.

Wojsko będzie nadal rozwijać sztuczną inteligencję, podobnie jak projekt Sił Powietrznych mający na celu dodanie sztucznej inteligencji do sił dronów Żniwiarzy. Takie projekty zawsze spowodują gwałtowny wdech w mediach, opinii publicznej i wybranych przez nich prawodawcach. Wszechobecna narracja Frankenstein/Terminator, zagłuszająca dyskusję o rzeczywistych problemach związanych z bronią autonomiczną, takich jak względy etyczne, odpowiedzialność, obniżanie progów, stronniczość algorytmiczna i „cyfrowa dehumanizacja”.

Jak często zauważono, większość pilotów nie lubi dronów, zwłaszcza gdy są lepsze od ludzi. Pułkownik Tucker, pilot myśliwca, może nie być adwokatem, jakiego potrzebują piloci AI. Historia zbuntowanych dronów stanie się częścią folkloru sztucznej inteligencji, a słowa Tuckera mogły zrobić wiele, aby zapewnić, że rozwój sztucznej inteligencji jest kontrolowany, regulowany i powściągliwy w Siłach Powietrznych. Symulowany atak drona nigdy nie miał miejsca w rzeczywistości, ale to może nie być tak ważne jak to, co ludzie pamiętają,

Źródło: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-ale-moze-równie dobrze-zrobil/