Eksperci AI podpisują dokument porównujący ryzyko „wyginięcia AI” z pandemiami, wojną nuklearną

Dziesiątki ekspertów od sztucznej inteligencji (AI), w tym dyrektorzy generalni OpenAI, Google DeepMind i Anthropic, podpisało ostatnio otwarte oświadczenie opublikowane przez Center for AI Safety (CAIS). 

Oświadczenie zawiera jedno zdanie:

„Zmniejszanie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”.

Wśród sygnatariuszy dokumentu są prawdziwe „kto jest kim” luminarzy sztucznej inteligencji, w tym „ojciec chrzestny” sztucznej inteligencji, Geoffrey Hinton; Uniwersytet Kalifornijski, Berkeley's Stuart Russell; oraz Lex Fridman z Massachusetts Institute of Technology. Muzyk Grimes jest również sygnatariuszem, wymienionym w kategorii „inne znaczące postacie”.

Związane z: Muzyk Grimes chce „podzielić 50% tantiem” na muzykę generowaną przez sztuczną inteligencję

Chociaż stwierdzenie może wydawać się nieszkodliwe na pierwszy rzut oka, przesłanie leżące u jego podstaw jest nieco kontrowersyjne w społeczności AI.

Pozornie rosnąca liczba ekspertów uważa, że ​​obecne technologie mogą lub nieuchronnie doprowadzą do powstania lub rozwoju systemu AI, który może stanowić egzystencjalne zagrożenie dla gatunku ludzkiego.

Ich poglądom przeciwstawia się jednak kontyngent ekspertów o diametralnie przeciwstawnych opiniach. Na przykład główny naukowiec Meta AI, Yann LeCun, wielokrotnie zauważył, że niekoniecznie wierzy, że sztuczna inteligencja stanie się niekontrolowana.

Dla niego i innych, którzy nie zgadzają się z retoryką „wymierania”, takich jak Andrew Ng, współzałożyciel Google Brain i były główny naukowiec w Baidu, sztuczna inteligencja nie jest problemem, jest odpowiedzią.

Z drugiej strony eksperci, tacy jak Hinton i Conjecture CEO Connor Leahy, uważają, że sztuczna inteligencja na poziomie ludzkim jest nieunikniona i jako taka, czas na działanie jest teraz.

Nie wiadomo jednak, do jakich działań nawołują sygnatariusze oświadczenia. Dyrektorzy generalni i/lub szefowie sztucznej inteligencji prawie każdej większej firmy zajmującej się sztuczną inteligencją, a także znani naukowcy z całego środowiska akademickiego, są wśród tych, którzy podpisali umowę, co pokazuje, że intencją nie jest powstrzymanie rozwoju tych potencjalnie niebezpiecznych systemów.

Na początku tego miesiąca dyrektor generalny OpenAI, Sam Altman, jeden z sygnatariuszy wspomnianego oświadczenia, po raz pierwszy wystąpił przed Kongresem podczas przesłuchania w Senacie w celu omówienia regulacji AI. Jego zeznania trafiły na pierwsze strony gazet po tym, jak spędził większość z nich, wzywając prawodawców do uregulowania jego branży.

Altman's Worldcoin, projekt łączący kryptowalutę i dowód tożsamości, również niedawno pojawił się w mediach po zebraniu 115 milionów dolarów w ramach finansowania serii C, podnosząc całkowite finansowanie po trzech rundach do 240 milionów dolarów.

Źródło: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war