FBI ostrzega przed oszustwami wymuszającymi sztuczną inteligencję

Zdolności generatywnej sztucznej inteligencji do tworzenia realistycznych obrazów są imponujące, ale Federalne Biuro Śledcze Stanów Zjednoczonych twierdzi, że przestępcy używają deepfake'ów do atakowania ofiar w celu wymuszenia.

„FBI nadal otrzymuje zgłoszenia od ofiar, w tym nieletnich dzieci i dorosłych, którzy nie wyrazili zgody, których zdjęcia lub filmy zostały zmienione w treści dla dorosłych” – poinformowała agencja w poniedziałkowym ostrzeżeniu PSA.

FBI twierdzi, że organy ścigania otrzymały w zeszłym roku ponad 7,000 XNUMX zgłoszeń o wymuszeniach online wymierzonych w nieletnich, przy czym od kwietnia wzrosła liczba ofiar tak zwanych „oszustw związanych z seksem” przy użyciu deepfake’ów.

Deepfake to coraz powszechniejszy rodzaj treści wideo lub audio tworzonych przy użyciu sztucznej inteligencji, który przedstawia fałszywe zdarzenia, które coraz trudniej rozpoznać jako fałszywe, dzięki generatywnym platformom sztucznej inteligencji, takim jak Midjourney 5.1 i OpenAI DALL-E 2.

W maju deepfake Tesli i prezesa Twittera, Elona Muska, stworzony w celu oszukania inwestorów kryptowalutowych, stał się wirusowy. Film udostępniony w mediach społecznościowych zawierał materiał przedstawiający Muska z poprzednich wywiadów, zredagowany tak, aby pasował do oszustwa.

Deepfake nie wszystkie są złośliwe, deepfake przedstawiający papieża Franciszka w białej marynarce Balenciagi stał się wirusowy na początku tego roku, a ostatnio do przywracania do życia ofiar morderstw używano również deepfake generowanych przez sztuczną inteligencję.

W swoich zaleceniach FBI ostrzega przed płaceniem okupu, ponieważ nie gwarantuje to, że przestępcy i tak nie opublikują deepfake'a.

FBI zaleca również ostrożność podczas udostępniania danych osobowych i treści online, w tym korzystania z funkcji prywatności, takich jak ustawianie kont jako prywatnych, monitorowanie aktywności dzieci w Internecie i obserwowanie nietypowych zachowań osób, z którymi miałeś kontakt w przeszłości. Agencja zaleca również częste wyszukiwanie informacji osobistych i członków rodziny w Internecie.

Inne agencje bijące na alarm to amerykańska Federalna Komisja Handlu, która ostrzegła, że ​​przestępcy używają deepfake'ów, aby nakłonić niczego niepodejrzewające ofiary do wysłania pieniędzy po stworzeniu deepfake'u dźwiękowego znajomego lub członka rodziny, który twierdzi, że został porwany.

„Sztuczna inteligencja nie jest już naciąganym pomysłem z filmu science-fiction. Żyjemy z tym, tu i teraz. Oszust może użyć sztucznej inteligencji, aby sklonować głos ukochanej osoby” – powiedział FTC w marcu w ostrzeżeniu konsumenckim, dodając, że wszystkie potrzeby przestępców to krótki klip audio głosu członka rodziny, aby nagranie brzmiało prawdziwie.

FBI jeszcze nie odpowiedziało Odszyfruj prośba o komentarz.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

Źródło: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams