Oto jak OpenAI planuje oczyścić ChatGPT z fałszywych informacji

OpenAI ogłosiło 31 maja swoje wysiłki mające na celu zwiększenie możliwości rozwiązywania problemów matematycznych ChatGPT, mając na celu zmniejszenie liczby przypadków halucynacji sztucznej inteligencji (AI). OpenAI podkreślił łagodzenie halucynacji jako kluczowy krok w kierunku opracowania wyrównanego AGI.

Wprowadzenie w marcu najnowszej wersji ChatGPT, GPT-4, jeszcze bardziej wepchnęło sztuczną inteligencję do głównego nurtu. Jednak generatywne chatboty AI od dawna zmagają się z dokładnością faktów, czasami generując fałszywe informacje, powszechnie określane jako „halucynacje”. Wysiłki mające na celu ograniczenie tych halucynacji AI zostały ogłoszone za pośrednictwem postu na ich stronie internetowej.

Halucynacje AI odnoszą się do przypadków, w których systemy sztucznej inteligencji generują dane wyjściowe, które są niezgodne ze stanem faktycznym, wprowadzają w błąd lub nie są poparte danymi ze świata rzeczywistego. Te halucynacje mogą przejawiać się w różnych formach, takich jak generowanie fałszywych informacji, wymyślanie nieistniejących wydarzeń lub osób lub podawanie niedokładnych szczegółów na określone tematy.

OpenAI przeprowadziło badania w celu zbadania skuteczności dwóch rodzajów informacji zwrotnych – „nadzór nad wynikami” i „nadzór nad procesem”. Nadzór nad wynikami obejmuje informację zwrotną opartą na końcowym wyniku, podczas gdy nadzór nad procesem dostarcza danych wejściowych dla każdego etapu w łańcuchu myślowym. OpenAI oceniło te modele za pomocą problemów matematycznych, generując wiele rozwiązań i wybierając najwyżej ocenione rozwiązanie zgodnie z każdym modelem sprzężenia zwrotnego.

Po dokładnej analizie zespół badawczy stwierdził, że nadzór nad procesem dawał lepsze wyniki, ponieważ zachęcał model do przestrzegania procesu zatwierdzonego przez człowieka. W przeciwieństwie do tego nadzór nad wynikami okazał się trudniejszy do konsekwentnej kontroli.

W projekcie OpenAI uznano, że implikacje nadzoru nad procesem wykraczają poza matematykę i konieczne są dalsze badania, aby zrozumieć jego skutki w różnych dziedzinach. Wyrażono w nim możliwość, że jeśli zaobserwowane wyniki są prawdziwe w szerszym kontekście, nadzór procesu może oferować korzystne połączenie wydajności i dostosowania w porównaniu z nadzorem wyników. Aby ułatwić badania, firma udostępniła publicznie pełny zestaw danych dotyczących nadzoru nad procesem, zapraszając do eksploracji i badań w tej dziedzinie.

Związane z: Zapotrzebowanie na sztuczną inteligencję na krótko katapultuje Nvidię do klubu o wartości 1 XNUMX $

Chociaż OpenAI nie dostarczyło wyraźnych przypadków, które skłoniły ich do zbadania halucynacji, dwa niedawne zdarzenia ilustrują problem w rzeczywistych scenariuszach.

W niedawnym incydencie prawnik Steven A. Schwartz w sprawie Mata przeciwko Avianca Airlines przyznał, że polegał na chatbocie jako zasobie badawczym. Jednak informacje dostarczone przez ChatGPT okazały się całkowicie sfabrykowane, podkreślając problem.

ChatGPT OpenAI nie jest jedynym przykładem systemów sztucznej inteligencji napotykających halucynacje. Sztuczna inteligencja Microsoftu podczas demonstracji technologii chatbota w marcu zbadała raporty o zarobkach i wygenerowała niedokładne dane dla firm takich jak Gap i Lululemon.

Magazine: 25 XNUMX traderów obstawia typy akcji ChatGPT, sztuczna inteligencja nie radzi sobie z rzutami kośćmi i nie tylko

Źródło: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information