Decydenci muszą stawić czoła prawdziwym wyzwaniom związanym ze sztuczną inteligencją

Skupianie się na mglistym ryzyku wyginięcia ze strony sztucznej inteligencji jest niebezpiecznym rozproszeniem uwagi.

W zeszłym tygodniu finansowana z Doliny Krzemowej grupa o nazwie Center for AI Safety wydała jednozdaniowe oświadczenie: „Zmniejszanie ryzyka wyginięcia spowodowanego sztuczną inteligencją powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”. Został podpisany przez wielu liderów branży i szanowanych naukowców zajmujących się sztuczną inteligencją i odbił się szerokim echem w prasie.

Szersza reakcja na oświadczenie była ostra. Profesor Uniwersytetu Oksfordzkiego Sandra Wachter powiedziała, że ​​to tylko chwyt reklamowy. Niektórzy z bardziej rozsądnych sygnatariuszy, tacy jak ekspert ds. bezpieczeństwa Bruce Schneier, szybko wyrazili skruchę. „Właściwie nie sądzę, aby sztuczna inteligencja stanowiła zagrożenie dla wyginięcia ludzkości” – powiedział Schneier.

Inni uważali, że oświadczenie było tak naprawdę sztuczką zbierania funduszy. Profesor socjologii Duke University, Kieren Healy, zamieścił fałszywą parafrazę: „moi przyjaciele i ja będziemy potrzebować ogromnej ciężarówki pieniędzy z dotacji, aby złagodzić dosłowne zagrożenia egzystencjalne na poziomie gatunku związane z tym, co rzekomo tworzymy”.

Marietje Schaake, była parlamentarzystka UE, obecnie pracująca w Centrum Polityki Cybernetycznej Uniwersytetu Stanforda, zasugerowała, że ​​podtekstem oświadczenia jest to, że decydenci powinni zajmować się ryzykiem egzystencjalnym, podczas gdy dyrektorzy biznesowi ustalają faktyczne zasady korzystania z AI. Powiedziała, że ​​chociaż sztuczna inteligencja może być nowatorska, ten domniemany argument, że liderzy branży sztucznej inteligencji „najlepiej są w stanie regulować te same technologie, które produkują”, był niczym więcej niż rozmowami z ich poprzedniego wykorzystania w kontrowersjach w mediach społecznościowych i kryptowalutach.

Uważam, że apokaliptyczne ostrzeżenia o osiągnięciu przez sztuczną inteligencję świadomej i niezależnej sprawczości odwracają uwagę od prawdziwych wyzwań związanych ze sztuczną inteligencją, które wymagają od organów regulacyjnych zwiększenia egzekwowania obowiązującego prawa, a od decydentów rozważenia zmian w celu usunięcia luk prawnych.

Oszustwo dokonane przy użyciu sztucznej inteligencji jest nielegalne, jak powiedziała przewodnicząca Federalnej Komisji Handlu Lina Khan. Agencja ostrzegała już przed wykorzystywaniem sztucznej inteligencji do podszywania się pod ludzi w celu popełnienia oszustw wideo i telefonicznych. Chiny zauważyły ​​to samo i rozprawiają się z oszustwami opartymi na sztucznej inteligencji. Nie jest jasne, czy pojawią się nowe problemy prawne, ale kontrolowanie nadchodzącej fali oszustw związanych z AI wymagałoby ogromnych wysiłków w zakresie egzekwowania prawa. Pełne sfinansowanie wniosku budżetowego agencji w wysokości 590 milionów dolarów byłoby znacznie bardziej produktywnym wykorzystaniem publicznych pieniędzy niż badanie egzystencjalnych zagrożeń związanych z AI.

Wszyscy są słusznie zaniepokojeni dezinformacją stworzoną przez sztuczną inteligencję, taką jak niedawne ogłoszenie „fałszywego Putina”, że Rosja została zaatakowana. Etykietowanie może znacznie przyczynić się do zmniejszenia tych zagrożeń. Reklama z Republikańskiego Komitetu Narodowego, która pojawiła się po ogłoszeniu przez Bidena jego kandydatury na prezydenta, wykorzystywała sztuczną inteligencję do generowania obrazów tego, co może się wydarzyć pod rządami nowej prezydencji Bidena, ale została oznaczona jako taka, co zmniejszyło ryzyko dezinformacji.

Przejrzystość dla sztucznej inteligencji to nisko wiszący owoc polityki, który decydenci powinni wykorzystać, jak niektórzy wydają się robić. W tym tygodniu wiceprzewodnicząca Komisji Europejskiej Vera Jourova wezwała firmy technologiczne do oznaczania treści generowanych przez sztuczną inteligencję. W Stanach Zjednoczonych przedstawiciel Ritchie Torres (DN.Y.) wkrótce wprowadzi przepisy, które zobowiążą usługi takie jak ChatGPT do ujawnienia, że ​​dane wyjściowe zostały „wygenerowane przez sztuczną inteligencję”.

Prawa autorskie i sztuczna inteligencja to kolejne wyzwanie. Potrzebna jest pewna jasność co do rekompensat dla właścicieli praw autorskich za wykorzystanie ich materiałów do szkolenia w zakresie sztucznej inteligencji. W lutym Getty pozwał Stability AI w USA, twierdząc, że firma AI skopiowała 12 milionów obrazów Getty bez pozwolenia na szkolenie oprogramowania do generowania obrazów Stable Diffusion AI. W zeszłym tygodniu zwrócił się do londyńskiego sądu o zablokowanie Stability AI w Wielkiej Brytanii, ponieważ firma AI naruszyła prawa autorskie Getty podczas szkolenia swojego systemu.

Sprawy te zostaną rozstrzygnięte w sądzie. Istnieje jednak przyzwoity argument, że właściciele praw autorskich w ogóle nie muszą otrzymywać rekompensaty ani z powodu dozwolonego użytku, ani dlatego, że do szkolenia AI wydobywane są tylko niechronione fakty i pomysły. Ponadto dyrektywa Unii Europejskiej w sprawie praw autorskich na jednolitym rynku cyfrowym z 2019 r. zawiera wyjątek, który zezwala na eksplorację tekstu i danych materiałów online chronionych prawem autorskim, chyba że właściciel praw autorskich zrezygnuje z tego, korzystając z zabezpieczeń technologicznych, takich jak blokowanie nagłówków, aby zapobiec skanowaniu. Może to obejmować dane szkoleniowe AI.

Obecny projekt unijnej ustawy o sztucznej inteligencji wymaga ujawnienia chronionych prawem autorskim utworów wykorzystywanych w szkoleniu systemów AI. Wydaje się, że ma to na celu umożliwienie właścicielom praw autorskich skorzystania z ich prawa do rezygnacji z eksploracji tekstu i danych w celu szkolenia AI. Ale może to być też krok w kierunku czegoś więcej. Mogłoby to doprowadzić do systemu licencji przymusowych, który uniemożliwiłby właścicielom praw autorskich blokowanie szkoleń w zakresie sztucznej inteligencji, ale zapewniłby im pewną rekompensatę za korzystanie z ich własności intelektualnej. Rozwiązanie tych problemów związanych z prawami autorskimi będzie wymagało skupienia uwagi decydentów.

Unijna ustawa o sztucznej inteligencji wymaga również, aby ryzykowne systemy sztucznej inteligencji przeszły proces certyfikacji mający na celu zapewnienie, że ryzyko zostało odpowiednio ocenione i że przyjęto rozsądne środki łagodzące. Obecny projekt traktuje podstawowe modele, takie jak ChatGPT, jako ryzykowne systemy podlegające certyfikacji, potencjalne obciążenie, które najwyraźniej skłoniło szefa Open AI, Sama Altmana, do powiedzenia, że ​​wycofa ChatGPT z Europy, jeśli nie będzie mógł się do niego zastosować. Od tego czasu wycofał się z tego zagrożenia, mówiąc, że nie planuje odejść.

A jednak ma rację. Politycy poszukujący konkretnego problemu powinni zadać sobie pytanie, w jaki sposób system sztucznej inteligencji ogólnego przeznaczenia, taki jak ChatGPT, może zostać certyfikowany jako „bezpieczny”, skoro wiele zagrożeń pojawi się dopiero po zastosowaniu systemu w praktyce.

To tylko niektóre z kluczowych kwestii związanych ze sztuczną inteligencją, które powinny zainteresować decydentów. Inne obejmują wpływ coraz wydajniejszych systemów sztucznej inteligencji na zatrudnienie, wyzwania związane z prywatnością, gdy dane szkoleniowe obejmują dane osobowe, tendencję do koncentracji spowodowaną ogromnymi kosztami i efektami sieciowymi szkolenia oprogramowania AI, stosowanie zasad odpowiedzialności określonych w sekcji 230 oraz egzekwowanie prawa przeciwko stronniczości w udzielaniu pożyczek, mieszkalnictwie i zatrudnieniu, gdy sztuczna inteligencja kieruje ocenami kwalifikowalności.

Decydenci polityczni nie muszą i nie powinni zapuszczać się w mgliste królestwa, w których autonomiczne programy sztucznej inteligencji wymykają się spod kontroli i zagrażają ludzkiemu przetrwaniu. Mają mnóstwo pracy, aby stawić czoła wielu wyzwaniom sztucznej inteligencji w prawdziwym świecie.

Źródło: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/