Generatywne chów wsobny AI: rosnące obawy w rozwoju AI

Wraz z postępem sztuczna inteligencja (AI) postępuje w coraz większym stopniu, a ryzyko tzw. „chowu wsobnego” w generatywnych systemach sztucznej inteligencji staje się zagrożeniem, od dawna powszechnym wśród populacji ludzi i zwierząt domowych.

Ten artykuł rzuci nieco światła na koncepcję chowu wsobnego w świetle generatywnej sztucznej inteligencji oraz w jaki sposób chów wsobny może zostać powiązany z przyszłością treści generowanych przez sztuczną inteligencję.

Zrozumienie chowu wsobnego generatywnej sztucznej inteligencji Generacyjne systemy sztucznej inteligencji, takie jak duże modele językowe (LLM), są szkolone przede wszystkim na kompleksowych zestawach danych z treści tekstowych, wizualnych i dźwiękowych dostępnych w Internecie. Początkowo zbiór danych obejmował głównie przedmioty wykonane przez ludzi, takie jak literatura, artykuły i dzieła sztuki. Jednak wraz z rozwojem generatywnych narzędzi sztucznej inteligencji coraz więcej treści w Internecie jest pisanych przez samą sztuczną inteligencję.

Zmiana ta budzi obawy co do jakości i różnorodności zbiorów danych wykorzystywanych do szkolenia przyszłych systemów sztucznej inteligencji. Oczekuje się, że wraz z ewolucją treści generowanych przez sztuczną inteligencję wiele przyszłych generacji modeli sztucznej inteligencji będzie uczyć się na podstawie zbiorów danych, które nie reprezentują treści ludzkich, ale materiał stworzony przez sztuczną inteligencję.

Konsekwencje generatywnego chowu wsobnego AI są wieloaspektowe.

Wręcz przeciwnie, kontynuacja uczenia się przez system sztucznej inteligencji z coraz większej liczby jednorodnych zbiorów danych może prowadzić do zmniejszenia kreatywności i oryginalności wyników generowanych przez sztuczną inteligencję.

Jeśli proces ten będzie się powtarzał – czyli kopiował z kopii – sukcesywnie przez pokolenia, jakość wyniku ulegnie osłabieniu, a wyniki mogą okazać się mniej wciągającą pracą i w mniejszym stopniu odzwierciedlać to, co uważamy za dorobek twórczy człowieka . Wraz z rozwojem treści generowanych przez sztuczną inteligencję szkolonych na wsobnych zbiorach danych problemy te mogą się zaostrzyć.

Jeżeli zbiory danych szkoleniowych nie będą wystarczająco zróżnicowane, opracowane systemy sztucznej inteligencji służą jedynie wzmocnieniu i uwydatnieniu błędów występujących w treściach generowanych przez sztuczną inteligencję, tym samym jeszcze bardziej podważając wiarygodne wykorzystanie treści generowanych przez sztuczną inteligencję jako źródła informacji. Ponadto brak różnorodności danych szkoleniowych może ograniczać możliwość opracowania systemów sztucznej inteligencji, które mogłyby poprawnie zrozumieć i przedstawić szeroki wachlarz ludzkich doświadczeń i perspektyw. Może to ograniczać postęp w różnych obszarach zastosowań sztucznej inteligencji, takich jak przetwarzanie języka naturalnego, generowanie treści i systemy podejmowania decyzji.

Sprostanie wyzwaniu generatywnego chowu wsobnego AI

Przede wszystkim jest to realne ryzyko, szczególnie w przypadku chowu wsobnego generatywnych technologii sztucznej inteligencji. Mimo to nakłada na badaczy, programistów, a nawet decydentów obowiązek proaktywnego działania. Zapewnienie, że różnorodne i reprezentatywne zbiory danych będą wykorzystywane jako kwestia priorytetowa podczas szkolenia systemu sztucznej inteligencji, integrując mechanizmy, które będą w stanie wykrywać i ograniczać stronniczości w treściach generowanych przez sztuczną inteligencję oraz zapewnienie skutecznej współpracy interdyscyplinarnej przy jednoczesnym zajęciu się etycznymi i społecznymi konsekwencjami tworzenia sztucznej inteligencji i zapewnieniu ich uwzględnienia. 

Powinny one w dalszym ciągu ułatwiać zapewnienie otwartości i odpowiedzialności we wdrażaniu systemów sztucznej inteligencji oraz wymagać, aby użytkownicy treści generowanych przez sztuczną inteligencję dzielili się świadomością ograniczeń i uprzedzeń. W związku z tym wszystkie zainteresowane strony mogą aktywnie dążyć do współpracy w zakresie wykorzystania mocy generatywnej sztucznej inteligencji, jednocześnie ograniczając ryzyko związane z chowem wsobnym w rozwoju sztucznej inteligencji. 

Koncepcja chowu wsobnego w generatywnej sztucznej inteligencji stanowi wielkie przyszłe wyzwanie dla rozwoju i wdrażania systemów sztucznej inteligencji. Pomoże im to zapewnić, że odpowiedzialny i etyczny rozwój doskonalenia technologii dla społeczeństwa będzie realizowany poprzez zrozumienie implikacji i sposobów skutecznego ulepszania generatywnego chowu wsobnego AI.

Źródło: https://www.cryptopolitan.com/generative-ai-growing-in-ai-development/