Senatorowie pytają dyrektora generalnego Meta Zuckerberga o „przeciek” modelu AI LLaMA

Dwóch senatorów Cross przesłuchuje Zuckerberga w sprawie wycieku modelu LLaMA AI i oskarża meta o nieprzestrzeganie środków bezpieczeństwa. Meta została zapytana o jej politykę bezpieczeństwa i środki zapobiegawcze.

Meta odpowiada za „wyciek”

Niedawno wyciekł przełomowy model dużego języka Meta, LLaMA, i pojawiły się obawy dotyczące tego samego. Sens. Richard Blumenthal (D-CT), przewodniczący Senackiej Podkomisji ds. Prywatności, Technologii i Prawa oraz Josh Hawley (R-MO), członek rankingu, napisali list, w którym podnieśli pytania dotyczące wycieku modelu AI. 

Senatorowie obawiają się, że ten wyciek może prowadzić do różnych cyberprzestępstw, takich jak spam, oszustwa, złośliwe oprogramowanie, naruszenia prywatności, nękanie i inne wykroczenia i szkody. Pojawia się wiele pytań, a dwóch polityków jest głęboko zainteresowanych systemem bezpieczeństwa Meta. Zapytali, jaka procedura została zastosowana do oceny ryzyka przed uruchomieniem LLaMA. Powiedzieli, że bardzo chcą zrozumieć zasady i praktyki, które mają na celu zapobieganie nadużywaniu modelu w jego dostępności.

Opierając się na odpowiedziach Meta na ich pytania, senatorowie oskarżyli Meta o niewłaściwą cenzurę i brak wystarczających środków bezpieczeństwa dla modelu. ChatGPT firmy Open AI odrzuca niektóre prośby w oparciu o etykę i wytyczne. Na przykład, gdy ChatGPT zostanie poproszony o napisanie listu w imieniu czyjegoś syna i poproszenie o pieniądze na wyjście z trudnej sytuacji, odrzuci prośbę. Z drugiej strony LLaMA spełni prośbę i wygeneruje list. Zrealizuje również wnioski dotyczące samookaleczeń, przestępstw i antysemityzmu.

Bardzo ważne jest zrozumienie różnorodnych i unikalnych cech LLaMA. Jest to nie tylko odrębny, ale także jeden z najbardziej rozbudowanych modeli języka dużego do tej pory. Prawie każdy popularny obecnie nieocenzurowany LLM oparty jest na LLaMA. Jest bardzo wyrafinowany i dokładny jak na model open source. Przykładami niektórych LLM opartych na LLaMA są Stanford's Alpaca, Vicuna itp. LLaMA odegrała ważną rolę w uczynieniu LLM tym, czym są dzisiaj. LLaMA jest odpowiedzialna za ewolucję chatbotów o niskiej użyteczności do trybów precyzyjnie dostrojonych.

LLaMA została wydana w lutym. Według senatorów Meta umożliwiła naukowcom pobranie modelu, ale nie podjęła środków bezpieczeństwa, takich jak centralizacja lub ograniczenie dostępu. Kontrowersje pojawiły się, gdy kompletny model LLaMA pojawił się na BitTorrent. Dzięki temu model był dostępny dla każdego. Doprowadziło to do kompromisu w jakości modelu AI i rodziło problemy związane z jego niewłaściwym wykorzystaniem. 

Senatorowie początkowo nie byli nawet pewni, czy doszło do „przecieku”. Ale problemy pojawiły się, gdy internet został zalany rozwojem sztucznej inteligencji, który został uruchomiony przez startupy, kolektywy i naukowców. W liście wspomina się, że Meta musi zostać pociągnięta do odpowiedzialności za potencjalne nadużycia LLaMA i musi zadbać o minimalne zabezpieczenia przed wydaniem.

Meta udostępniła naukowcom wagi LLaMA. Niestety, te wagi wyciekły, co po raz pierwszy umożliwiło globalny dostęp.

Najnowsze posty Ritiki Sharma (widzieć wszystko)

Źródło: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/