Hype na sztuczną inteligencję Cry Wolf jest nieprzydatny

Chociaż jestem kimś, kto bada scenariusze końca ludzkości, uważam, że „list eksperta” sugerujący 6-miesięczne moratorium na sztuczną inteligencję lub nowsze stwierdzenie, że ryzyko związane ze sztuczną inteligencją jest na poziomie pandemii i zagrożenia nuklearnego, są przesadzone. Jeszcze bardziej szalona opinia, że ​​musimy wyłączyć sztuczną inteligencję, jest nieodpowiedzialna. Wszelkie zmartwienia muszą być proporcjonalne do zagrożeń, przed którymi stoimy. W tej chwili nie jesteśmy w bezpośrednim niebezpieczeństwie ze strony AI.

Obecne AI nie są w stanie przejąć społeczeństwa. Nie mają uczuć i nie zasługują na ochronę, tak jak ludzkie życie. Nie są superinteligentne i nie przewyższają ludzi w żaden ogólny sposób. Właściwie w ogóle nie myślą. W tej chwili, jeśli są zasilane dużą ilością danych, AI są bardzo dobre w określonych zadaniach, takich jak obliczenia i prognozy. To nie jest niepokojące, są to cechy, które te systemy mają z założenia. Obietnica sztucznej inteligencji obejmuje rozwiązywanie problemów z rakiem, przekształcanie produkcji przemysłowej, modelowanie przyszłych scenariuszy i zarządzanie wyzwaniami środowiskowymi. To powiedziawszy, istnieją uzasadnione powody, by krytykować obecną sztuczną inteligencję za wykorzystanie zasobów, przejrzystość, stronniczość, cyberbezpieczeństwo i jej przyszły wpływ na zatrudnienie.

Sztuczna inteligencja jest kosztowna obliczeniowo, co oznacza, że ​​jest wielkim marnotrawstwem rzadkiej, kopalnej energii. Należy się tym zająć natychmiast. Ale to nie jest kwestia egzystencjalna, to kwestia racjonalnego wykorzystania zasobów. Prawdziwym problemem jest fakt, że sztuczna inteligencja, która opiera się na dużych i nieefektywnych modelach danych, staje się zbyt kosztowna, aby śledzić ją i badać przez środowisko akademickie lub rząd. Ale to jest do natychmiastowego naprawienia. Konsorcja elitarnych instytucji akademickich lub rządów mogłyby współpracować i dzielić się zasobami obliczeniowymi, tak jak zrobiły to w przypadku superkomputerów.

Duże modele językowe (LLM) to modele AI, które mogą generować teksty w języku naturalnym z dużych ilości danych. Problem polega na tym, że teksty te wywodzą się bezpośrednio z uczciwego wkładu intelektualnego innych ludzi. W rzeczywistości są kradzione. W szczególności generatywna sztuczna inteligencja rekombinuje zarówno dane konsumentów i organizacji, jak i treści kreatywne, co jest rażącym naruszeniem praw autorskich. Sprawa jest poważna, ale nie egzystencjalna, a ponadto sprawą zajmują się już UE, lobbyści z Hollywood i wydawcy książek z „wielkiej piątki”. Spodziewaj się, że spowolni to wzrost AI. W obecnym tempie sztucznej inteligencji zabraknie dobrych danych treningowych na długo przed osiągnięciem świadomości.

Algorytmy używane już do obliczania naszych podatków, wybierania naszych kanałów online lub wsadzania ludzi do więzienia mają uderzający brak przejrzystości. Dzieje się tak jednak od lat i nie ma to nic wspólnego z najnowszymi osiągnięciami w dziedzinie sztucznej inteligencji. Odchylenie AI jest cechą, a nie błędem. Stereotypowanie jest w rzeczywistości głównym podejściem, dzięki któremu działają takie modele. Tyle że uprzedzenia są ukryte w nieprzeniknionych warstwach maszynowego rozumowania, nieuchwytnych dla ludzi, ekspertów czy nie. To, co powinniśmy kwestionować, to mądrość programistów, którzy opracowali takie systemy, a nie możliwości stworzonego przez nich systemu, który jest dany. Systemy rzadko będą lepsze niż mądrość lub intencje tych, którzy je budują lub obsługują.

Dane szkoleniowe AI odzwierciedlają uprzedzenia obecne w społeczeństwie, z którego dane te zostały zebrane. Ponowne wykorzystanie złych danych treningowych jest niepokojącą praktyką, która już teraz zanieczyszcza modele AI. Obecne metody sztucznej inteligencji po prostu wzmacniają stronniczość, aby szybko uzyskać wynik. Jest to, trzeba przyznać, przeciwieństwo tego, czego pragniemy. Chcemy wykorzystywać technologię do ochrony przed błędami ludzkimi. Martwienie się o błąd maszyny to marnotrawstwo ludzkiej inteligencji.

Pomimo metafory „sieci neuronowej”, obecne AI w żadnym stopniu nie przypominają mózgów. Obecne systemy sztucznej inteligencji nie mogą rozumować przez analogię, tak jak robią to ludzie. To jest dobre. W rzeczywistości możemy nie chcieć tego rodzaju dostosowania AI, za którym opowiadają się fanatycy i próbują naśladować. Maszyny powinny różnić się od ludzi. W ten sposób możemy zmaksymalizować swoje mocne strony. I jak możemy sprawić, by maszyny były od siebie oddzielone. Maszyny nie powinny mieć żadnych interesów do wyrównania.

Sztuczna inteligencja w coraz większym stopniu stanowi poważne zagrożenie dla bezpieczeństwa cybernetycznego jako atut dla przestępców i wrogich państw. Ale cyberbezpieczeństwo to dojrzała branża z wieloma ekspertami dobrze przygotowanymi do sprostania temu wyzwaniu. Nie ma powodu, aby wyłączać sztuczną inteligencję z powodu obaw związanych z cyberbezpieczeństwem.

Zakłócenia zatrudnienia z powodu sztucznej inteligencji były od lat kwestią polityczną, najpierw w przypadku robotów, a teraz w przypadku systemów sztucznej inteligencji opartych na oprogramowaniu. Oznacza to, że rządy będą gotowe się z tym uporać. Badanie MIT Work of The Future wykazało, że obawy związane z bezrobociem związanym z robotami są przesadzone. Ludzie zawsze znajdowali sposoby na pracę i będą to robić również w przyszłości. Czy sztuczna inteligencja zmieni produkcję? To już się dzieje, ale w dość kontrolowany sposób.

Od czasu do czasu sztuczna inteligencja cierpi z powodu przesadnych obietnic dotyczących obecnej funkcjonalności lub przyszłego zakresu. Pierwsze zimy AI rozpoczęły się w latach 1974–1980, kiedy rząd USA wycofał swoje fundusze. Drugi dotyczył lat 1987–1993, gdy koszty rosły, a sztuczna inteligencja nie spełniła swoich wzniosłych obietnic.

W oczekiwaniu na nadejście nowych paradygmatów w latach 2025-2030 prawdopodobnie wejdziemy w trzecią zimę AI. Przynajmniej w porównaniu z gorącym latem AI, które nam obiecano. Powodem jest to, że pomimo szumu, ze wszystkich powodów przedstawionych powyżej, duże modele językowe wkrótce osiągną maksymalną użyteczność i ostatecznie będą musiały zostać zastąpione bardziej eleganckimi obliczeniowo podejściami, które są bardziej przejrzyste.

Jednym z takich kandydatów jest przetwarzanie wielowymiarowe, które sprawiłoby, że maszyny rozumowałyby wydajniej, ponieważ dają maszynom rozumienie semantyczne, zdolność przetwarzania znaczenia i kontekstu za informacjami ze świata rzeczywistego. W tej chwili systemy sztucznej inteligencji nie rozumieją relacji między słowami i frazami, są po prostu dobre w zgadywaniu. To niewystarczające. W końcu będziemy potrzebować ucieleśnionej sztucznej inteligencji, ponieważ myślenie jest powiązane z postrzeganiem przestrzeni. Tak jest z pewnością w przypadku produkcji, która jest bardzo fizyczną grą. Będziemy również potrzebować sztucznej inteligencji, która jest zdolna do obsługi funkcji ludzkiej pamięci, takich jak ustalanie priorytetów w oparciu o umieszczanie niektórych informacji na pierwszym planie i tworzenie tła innych informacji. Zapominanie to narzędzie, którego ludzie używają do myślenia abstrakcyjnego, odchodzenia od przestarzałych praktyk organizacyjnych, podejmowania decyzji i pozostawania w chwili obecnej, i nie jest po prostu wadą. Żadna maszyna nie jest jeszcze w stanie zrobić tego tak dobrze.

W międzyczasie musimy uregulować, ale nie w tej chwili. A kiedy regulujemy, lepiej róbmy to dobrze. Zła regulacja sztucznej inteligencji prawdopodobnie pogorszy sytuację. Przebudzenie regulatorów na to wyzwanie może być pomocne, ale nie jestem pewien, czy obecna generacja regulatorów jest gotowa na tego rodzaju gruntowne zmiany, które byłyby potrzebne, aby zrobić to dobrze. Pociągnęłoby to za sobą ograniczenie potężnych firm (być może wszystkich spółek notowanych na giełdzie), ograniczenie wykorzystania sztucznej inteligencji w zarządzaniu i oznaczałoby ogromne zmiany w sposobie, w jaki obecnie działają rynki konsumenckie. Zasadniczo musielibyśmy przeprogramować społeczeństwo. Spowodowałoby to upadek naszego wzrostu o kilka dekad wcześniej, niż byśmy sobie życzyli. Wyzwanie związane z przejrzystością sztucznej inteligencji może być poważniejsze niż zmienne kontrolne, którymi wszyscy tak się martwią, oczywiście nie dlatego, że są ze sobą niepowiązane.

Co więcej, nie możemy być równie zaniepokojeni za każdym razem, gdy zostanie osiągnięty test porównawczy AI. Musimy oszczędzać energię na naprawdę wielkie momenty kaskadowego ryzyka. Przyjdą i szczerze mówiąc, nie jesteśmy przygotowani. Moje przewidywane przyszłe scenariusze (patrz Scenariusze wymierania na rok 2075) obejmują masowe naruszenia danych, które przez wiele miesięcy uniemożliwiają całym krajom dostęp do ich własnych procesów. Martwią mnie również AI, którym pomagają grupy przestępcze lub podmioty państwowe. Przede wszystkim martwię się kombinacją sztucznej inteligencji, nanotechnologii, biologii syntetycznej i technologii kwantowej – prawie niewidoczną quasi-organiczną inteligencją o nieznanych możliwościach, być może za kilka dekad, która wydarzy się właśnie wtedy, gdy świat zostanie pochłonięty kaskadowymi skutkami zmian klimatycznych zmiana.

Obecne modele sztucznej inteligencji nie działają jeszcze wystarczająco dobrze, aby stanowić zagrożenie dla ludzkości. Zanim będziemy mogli rozważyć ich wyłączenie, potrzebujemy lepszej sztucznej inteligencji. Co więcej, potrzebujemy mądrzejszych programistów, bardziej uwrażliwionych obywateli i lepiej poinformowanych decydentów. Potrzebujemy również koncepcji JAK regulować AI. Ale można to zrobić bez spowalniania czegokolwiek. Będzie to edukacyjna podróż dla wszystkich. List moratorium dotyczący GPT 4 (2023) to moment krzyku wilka, który tylko nieznacznie przypomina kaskadowe zagrożenia, przed którymi stoi ludzkość w nadchodzących dziesięcioleciach. Stawianie ryzyka AI na poziomie ryzyka pandemii i ryzyka nuklearnego w 2023 roku jest przedwczesne. Czy się tam dostaniemy? Być może. Ale płaczący wilk ma konsekwencje. Wysysa tlen z nadchodzących debat o prawdziwych przerażeniach.

Źródło: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/