Jaka jest zaktualizowana polityka Pentagonu dotycząca zabójczych robotów?

Pentagon wydał tzw zaktualizować swoją dyrektywę 3000.09, który obejmuje to, co nazywają Autonomia w systemach uzbrojenia a inni nazywajązabójcze roboty' Obecne drony, takie jak Siły Powietrzne i CIA Żniwiarze MQ-9 obsługiwane są za pomocą pilota: człowieka siedząc przed ekranem wideo identyfikuje cele na ziemi oddalone o tysiące mil, umieszcza je na celowniku i wypuszcza pocisk Pocisk piekielnego ognia lub inną broń. Broń autonomiczna jest inna: wybiera własne cele bez jakiejkolwiek interwencji człowieka. Potrzebne są jasne zasady określające, kiedy i jak można z nich korzystać, a nowa dyrektywa przybliża je o krok.

Dziesięć lat temu, kiedy pojawiła się pierwsza wersja 3000.09, broń autonomiczna wyglądała jak science fiction. Teraz są bardzo realne. ONZ twierdziło, że Dostarczone przez Turcję drony samodzielnie atakowały cele w Libii w 2020 r., a Rosja obecnie rozmieszcza krążącą amunicję na Ukrainie zdolność autonomiczna.

Wielu działaczy, jak np Kampania na rzecz powstrzymania robotów zabójców, chcą całkowitego zakazu broni autonomicznej, nalegając, aby jakakolwiek broń zdalna pozostała pod kontrolą sensowną kontrolę człowieka w każdym momencie. ONZ debatuje, jak to zrobić kontrolować taką broń przez wiele lat.

Jednak, jak jasno wynika z nowej dyrektywy, Pentagon trzyma się innej linii.

„DoD konsekwentnie sprzeciwiał się standardowi politycznemu„ znaczącej kontroli człowieka ”, jeśli chodzi zarówno o systemy autonomiczne, jak i systemy AI” Grzegorz Allen, dyrektor Project on AI Governance na Uniwersytecie im Centrum Studiów Strategicznych i Międzynarodowych, powiedział mi. „Preferowanym terminem DoD jest„ odpowiedni poziom ludzkiej oceny ”, co odzwierciedla fakt, że w niektórych przypadkach – na przykład autonomiczne samoloty obserwacyjne i niektóre rodzaje autonomicznej broni cybernetycznej – odpowiedni poziom kontroli człowieka może być niewielki lub żaden ”.

Jaka autonomiczna broń byłaby dozwolona w jakich okolicznościach? Allen uważa, że ​​poprzednia wersja dyrektywy była tak niejasna, że ​​zniechęcała do jakiegokolwiek rozwoju w tej dziedzinie.

„Zamieszanie było tak powszechne – w tym wśród niektórych wyższych przywódców Departamentu Obrony – że urzędnicy powstrzymywali się od opracowywania niektórych systemów, które nie tylko były dozwolone przez politykę, ale także wyraźnie wyłączone z wymogu przeglądu wyższego szczebla” – mówi Allen.

Ani jedna broń nie została poddana procesowi recenzji broni autonomicznej opisanemu w oryginalnym 3000.09 w ciągu dziesięciu lat od jego opublikowania.

Allen napisał esej na ten temat dla CSIS w zeszłym roku, opisując cztery obszary, które wymagały pracy – formalne zdefiniowanie autonomicznych systemów uzbrojenia, określenie, co oznacza „obsługa sztucznej inteligencji” dla polityki, sposób, w jaki proces przeglądu poradzi sobie z przekwalifikowaniem modeli uczenia maszynowego oraz wyjaśnienie, jakie rodzaje broni wymagają przejść przez żmudny proces recenzji.

„Departament Obrony wdrożył je wszystkie” — mówi Allen.

W zasadzie powinno to zatem zapewnić to, co Departament Obrony określa jako „silne i ciągłe zaangażowanie w bycie przejrzystym światowym liderem w ustanawianiu odpowiedzialnych polityk dotyczących zastosowań wojskowych systemów autonomicznych”.

Istnieją jednak pewne dodatki, które mogą być postrzegane jako luki prawne, takie jak zwolnienie z przeglądu wyższego szczebla w przypadku autonomicznej broni do obrony dronów, która nie jest ukierunkowana na ludzi („broń przeciwmaterialna”), ale która byłaby dopuszczona do namierzania pocisków rakietowych, innych dronów i potencjalnie inne systemy.

„Słowo„ obrona ”wykonuje mnóstwo pracy” Zaka Kallenborna, powiedział mi polityk w Schar School of Policy and Government na Uniwersytecie George'a Masona. „Jeśli dron działa na terytorium wroga, prawie każdą broń można interpretować jako„ obronną ”platformy”.

Kallenborn zauważa również, że chociaż skutecznie autonomiczna broń, taka jak miny, jest używana od ponad wieku, krajobraz szybko się zmienia ze względu na postępy w sztucznej inteligencji i szczególnym uczeniu maszynowym. Dały one początek systemom, które są bardzo wydajne, ale technicznie kruche – kiedy zawodzą, ponoszą spektakularne porażki, na przykład w sposób, jakiego nie poniósłby żaden człowiek pomylić żółwia z karabinem.

„Autonomia dzięki sztucznej inteligencji zdecydowanie zasługuje na więcej uwagi, biorąc pod uwagę kruchość i brak wytłumaczenia obecnie dominujących podejść” — mówi Kallenborn.

Aktualizacja nie jest duża. Pokazuje jednak ciągłe zaangażowanie Pentagonu w opracowywanie skutecznej autonomicznej broni i wiarę, której mogą przestrzegać międzynarodowego prawa humanitarnego — rozróżnianie osób cywilnych od personelu wojskowego, dążenie do unikania krzywdzenia ludności cywilnej oraz stosowanie jedynie proporcjonalnej i koniecznej siły.

Działacze uważają, że sztuczna inteligencja nie będzie posiadała wiedzy niezbędnej do dokonywania ocen moralnych w czasie wojny i grozi stworzeniem świata, w którym wojna jest zautomatyzowana, a ludzie nie mają już nad nią kontroli. Inni uważają, że wojsko USA będzie pokonani przez przeciwników z bronią autonomiczną chyba że sztuczna inteligencja zostanie włączona na poziomie taktycznym i że będzie to zbyt duże zaangażowanie człowieka spowalnia roboty wojskowe.

Spór prawdopodobnie będzie trwał nawet wtedy, gdy zaczną pojawiać się autonomiczne bronie, a wyniki będą uważnie śledzone. Tak czy inaczej, wygląda na to, że nadchodzą zabójcze roboty.

Źródło: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/