Czy Elon Musk może odnieść sukces w opracowaniu Generative AI ChatGPT Podróbka „TruthGPT”, która byłaby zawsze stoicko prawdomówna, pyta etykę AI i prawo AI

Rozlega się pukanie do drzwi kabiny.

Czy powinniśmy otworzyć drzwi?

Filmy zwykle sugerują, że nie powinniśmy pozwolić, aby nasza ciekawość wzięła górę nad nami, a mianowicie absolutnie nie powinniśmy nigdy otwierać drzwi. Cóż, biorąc to pod uwagę, pozostawienie zamkniętych drzwi nie wydaje się być godną opowieścią. Wydaje się, że pociąga nas ekscytacja i nieznane.

Więc chodźmy i otwórzmy drzwi.

W tym konkretnym przypadku mam na myśli jakiś wyłaniający się scuttlebutt w dziedzinie sztucznej inteligencji (AI), który albo zwiastuje dobre czasy przed nami, albo najgorsze czasy dla nas wszystkich. Sytuacja potencjalnie wiąże się z przyszłością sztucznej inteligencji. I można by uroczyście spekulować ergo, że przyszłość sztucznej inteligencji niesie ze sobą dość dramatyczne reperkusje, w tym rzekome kształtowanie przyszłości społeczeństwa i losu ludzkości.

Oto oferta.

Według ostatnich doniesień prasowych Elon Musk, niegdyś najbogatszy człowiek na świecie, poszukiwał najlepszych badaczy sztucznej inteligencji, którzy przyłączyliby się do nowego przedsięwzięcia AI, które ma na myśli. Po cichu podchodzą do różnych programistów AI i naukowców AI. Pukanie do ich drzwi najwyraźniej przynosi wielką obietnicę i potencjalnie lukratywne wieści.

Mówi się, że rzekoma esencja nieujawnionej jeszcze inicjatywy AI jest podróbką szeroko i szalenie popularnego ChatGPT, który został wydany przez OpenAI w listopadzie. Prawie na pewno słyszałeś lub widziałeś głośne nagłówki o ChatGPT. Za chwilę wyjaśnię więcej o tym, czym jest ChatGPT. Powinieneś również wiedzieć, że ChatGPT jest przykładem rodzaju sztucznej inteligencji znanej jako generatywna sztuczna inteligencja. Obecnie istnieje wiele generatywnych aplikacji AI. ChatGPT ma najwyższy publiczny profil i wydaje się, że jest znany wszystkim, nawet być może tym, którzy w jakiś sposób mieszkają w jaskini.

Oto przykład relacji z tej na wpół tajemniczej, szybko rozwijającej się sagi:

  • „W ostatnich tygodniach Elon Musk zwrócił się do naukowców zajmujących się sztuczną inteligencją w sprawie utworzenia nowego laboratorium badawczego w celu opracowania alternatywy dla ChatGPT, głośnego chatbota stworzonego przez start-up OpenAI, według dwóch osób posiadających bezpośrednią wiedzę na temat wysiłku i trzeciej osoby poinformowanej w rozmowach” (Informacja, „Fighting 'Woke AI,' Musk Recruits Team to Develop OpenAI Rival”, Jon Victor i Jessica E. Lessin, 27 lutego 2023 r.).

Twoja pierwsza myśl może być taka, że ​​jeśli Elon Musk chce stworzyć podróbkę ChatGPT, to zależy od niego i od tego, jak chce wydać swoje pieniądze. Powodzenia. Będzie po prostu dodawać do już istniejącej i rosnącej liczby generatywnych aplikacji AI. Może zarobi dodatkową fortunę na własnej, domowej wersji ChatGPT. A może będzie to wielka bzdura, a maleńkie uszczerbek w jego ogromnym majątku spowodowany skromnie kosztowną pogonią będzie podobny do błędu zaokrąglania w dziale księgowości.

Zamiast mocnego pukania do drzwi, przypuszczalnie jest to raczej skromne pukanie do drzwi.

Przygotuj się na zwrot akcji.

Uważa się, że Elon Musk chce wstrząsnąć podstawami dzisiejszych generatywnych aplikacji AI i odtworzyć niektóre kluczowe aspekty ich działania i tego, co produkują. Jak wkrótce wyjaśnię tutaj, powszechną i prawdziwą wadą obecnej generatywnej sztucznej inteligencji jest to, że może ona generować błędy, fałszerstwa i tak zwane halucynacje AI. Każdy, kto korzystał z generatywnej sztucznej inteligencji, niewątpliwie napotkał te niepokojące problemy. Najwyraźniej Elon Musk ma nadzieję ograniczyć i być może w jakiś sposób wyeliminować tego rodzaju anomalie i problematyczne skłonności.

Wydaje się to ewidentnie wartościową i honorową aspiracją. W rzeczywistości proszę wiedzieć, że prawie, a może mogę powiedzieć, że wszyscy twórcy generatywnej sztucznej inteligencji usilnie dążą do zmniejszenia szans na wygenerowanie błędów, fałszerstw i halucynacji AI. Trudno byłoby znaleźć jakąkolwiek rozsądną duszę, która nalegałaby, abyśmy zachowali te błędy, kłamstwa i halucynacje AI zakorzenione w generatywnej sztucznej inteligencji.

Nie czyniąc zbyt ogólnych stwierdzeń, istnieje prawie powszechna zgoda co do tego, że choroby generatywnej sztucznej inteligencji polegające na wytwarzaniu błędów, fałszerstw i halucynacji sztucznej inteligencji muszą być stanowczo, wytrwale i zdecydowanie zwalczane. Celem jest dostosowanie, przebudowa, udoskonalenie, remont lub w ten czy inny sposób technologiczny AI rozwiązanie i rozwiązanie tego problemu.

Każdy dzień, w którym generatywna sztuczna inteligencja nadal wypluwa błędy, fałszerstwa i halucynacje sztucznej inteligencji w wynikach, jest złym dniem dla prawie wszystkich. Ludzie korzystający z generatywnej sztucznej inteligencji z pewnością będą niezadowoleni z tych sfałszowanych wyników. Ludzie, którzy polegają na zanieczyszczonych wyjściach lub muszą z nich korzystać, są narażeni na ryzyko błędnego polegania na czymś złym lub jeszcze gorszym, które poprowadzi ich w niebezpiecznym kierunku.

Twórcy sztucznej inteligencji, którzy próbują zrobić biznes z generatywnej sztucznej inteligencji, są w międzyczasie narażeni na potencjalne ryzyko prawne ze strony tych, którzy utknęli z powodu polegania na sfaulowanych wynikach. Niemal na pewno wkrótce pojawią się pozwy sądowe o odszkodowanie. Możemy spodziewać się, że organy regulacyjne zdecydują się wziąć w tym udział, a nowe przepisy dotyczące sztucznej inteligencji mogą zostać uchwalone, aby nałożyć prawną smycz na generatywną sztuczną inteligencję, zobacz mój zasięg na link tutaj. Poza tym ludzie mogą w końcu być tak cholernie zdenerwowani, że reputacja twórców sztucznej inteligencji zostanie poważnie nadszarpnięta, a generatywna sztuczna inteligencja zostanie natychmiast wyrzucona na krawężnik.

W porządku, więc wiemy, że to odważny truizm, że twórcy sztucznej inteligencji i badacze sztucznej inteligencji gorączkowo próbują wymyślać, projektować, budować i wdrażać technologiczne czary sztucznej inteligencji, aby zapobiec tym okropnym dolegliwościom związanym z dzisiejszymi generatywnymi dolegliwościami sztucznej inteligencji. Elon Musk powinien zostać przyjęty do owczarni. Im wiecej tym lepiej. Oswojenie tej bestii będzie wymagało dużo talentu AI i pieniędzy. Dodanie Elona Muska wydaje się optymistycznym i zachęcającym znakiem, że być może odpowiednia ilość nauki o rakietach, gotówki i determinacji znajdzie lekarstwo na wszystko.

Jednak zwrot akcji pojawia się, gdy zaczynasz otwierać drzwi, aby zobaczyć, co tam stoi.

W dość i jak zwykle zwięzłym tweecie Elona Muska, który miał miejsce 17 lutego 2023 r., otrzymaliśmy przypuszczalną wskazówkę:

  • „Potrzebujemy TruthGPT”

To powoduje, że niektórzy decydują, że może trzeba zatrzasnąć drzwi i przybić je gwoździami.

Dlaczego tak?

Niektórzy wyrażają obawę, że „prawda” leżąca u podstaw przewidywanej PrawdyGPT może być generatywną sztuczną inteligencją, która jest formułowana i generuje wyniki wyłącznie w oparciu o dezbobulację Prawda który ściśle pasuje do poglądów jednej osoby na świat. Tak, załamywanie rąk polega na tym, że otrzymamy generatywną aplikację AI, która emituje prawdę według Elona Muska.

Niepokojące, mówią niektórzy.

Odważnie zuchwały i całkowicie niepokojący, napominają niektórzy.

Natychmiast odpowiada, że ​​jeśli chce wyprodukować swoją PrawdęGPT, bez względu na to, co ona stanowi, to jego pieniądze do wydania. Ludzie albo zdecydują się z niego korzystać, albo nie. Ci, którzy go używają, powinni być wystarczająco bystrzy, aby zdawać sobie sprawę, w co się pakują. Jeśli chcą wyników z tego konkretnego wariantu generatywnej sztucznej inteligencji, który prawdopodobnie jest ukształtowany wokół światopoglądu Elona Muska, mają prawo tego szukać. Koniec opowieści. Pójść dalej.

Whoa, kontrargument idzie, wystawiasz ludzi na straszną i przerażającą pułapkę. Będą ludzie, którzy nie zdadzą sobie sprawy, że TruthGPT to dopracowana przez Elona Muska aplikacja do generatywnej sztucznej inteligencji. Wpadną w mentalną pułapkę zakładania, że ​​ta generatywna sztuczna inteligencja jest uczciwa. Rzeczywiście, jeśli nazewnictwo pozostanie jako „TruthGPT” (lub podobne), oczywiście naturalnie uwierzyłbyś, że jest to generatywna sztuczna inteligencja, która ma absolutna prawda powiedzieć w swoich esejach i tekstach.

Być może jako społeczeństwo nie powinniśmy pozwolić niczego niepodejrzewającym wpaść w takie pułapki, ostrzegają.

Zezwolenie na generatywną aplikację AI o tym przypuszczalnym charakterze, która będzie krążyć i być używana przez wszelkiego rodzaju ludzi, spowoduje chaos. Ludzie będą interpretować jako świętą „prawdę” wyniki tej PrawdyGPT, nawet jeśli wydrukowane eseje są pełne błędów, kłamstw, halucynacji AI i wszelkiego rodzaju niesmacznych uprzedzeń. Co więcej, nawet jeśli twierdzi się, że ten wariant generatywnej sztucznej inteligencji nie będzie zawierał błędów, fałszów i halucynacji sztucznej inteligencji, skąd mamy wiedzieć, że wynikowa pozornie oczyszczona sztuczna inteligencja nie będzie zawierała nadmiernych uprzedzeń wraz z podstępną skarbnicą dezinformacji i dezinformacja?

Domyślam się, że widzicie warzenie kontrowersji i rozterek.

Na zasadzie wolnego rynku Elon Musk powinien najwyraźniej móc przystąpić do tworzenia dowolnego rodzaju generatywnej sztucznej inteligencji, którą chce stworzyć. Tylko dlatego, że inni mogą nie przychylić się do jego wersji „prawdy”, nie powinno to powstrzymywać go przed kontynuowaniem. Niech robi swoje. Być może należy dołączyć komunikat ostrzegawczy lub inne powiadomienie, gdy ktoś go użyje, aby poinformować go, co decyduje się uruchomić. Niemniej jednak ludzie muszą być odpowiedzialni za własne działania, a jeśli zdecydują się użyć TruthGPT, niech tak będzie.

Poczekaj chwilę, pojawi się kolejna replika. Załóżmy, że ktoś stworzył generatywną aplikację AI, która została zaprojektowana do czynienia zła. Intencją było wprowadzenie ludzi w błąd. Nadzieja polegała na tym, aby rozwścieczyć i podburzyć ludzi. Czy jako społeczeństwo zaakceptowalibyśmy tego rodzaju generatywną sztuczną inteligencję? Czy chcemy zezwolić na aplikacje AI, które mogą prowokować ludzi, podważać ich zdrowie psychiczne i być może podsycać ich do niepożądanych działań?

Musi być linia na piasku. W pewnym momencie musimy powiedzieć, że niektóre rodzaje generatywnej sztucznej inteligencji są obrzydliwością i nie można na nie pozwolić. Jeśli pozwolimy na zbudowanie i wykorzystanie nieokiełznanej generatywnej sztucznej inteligencji, ostateczna zagłada i mrok nieuchronnie spotka nas wszystkich. Nie będą to tylko ci, którzy korzystają z aplikacji AI. Niekorzystnie wpłynie to na wszystko i wszystkich innych, którzy pojawią się w pobliżu aplikacji AI i będą z nią połączeni.

Wydaje się to przekonującym argumentem.

Chociaż kluczową podstawą jest to, że generatywna sztuczna inteligencja, o której mowa, musiałaby budzić tak niepokojące obawy, że bylibyśmy przekonująco przekonani, że obiektywnie konieczne byłoby jej wcześniejsze zapobiegnięcie lub całkowite zatrzymanie. Rodzi to również wiele innych drażliwych pytań. Czy możemy z góry stwierdzić, że generatywna sztuczna inteligencja może być tak okropna, że ​​w ogóle nie można jej zbudować? Niektórym wydaje się to przedwczesne. Musisz przynajmniej poczekać, aż generatywna sztuczna inteligencja zacznie działać, aby podjąć tak poważną decyzję.

Obudź się, odpowiadają gwałtownie niektórzy, nierozsądnie wypuszczasz konia ze stodoły. Niebezpieczeństwa i szkody spowodowane przez uwolnioną sztuczną inteligencję, puszczonego konia, będą nas deptać. Generatywna aplikacja sztucznej inteligencji może przypominać klasyczny dylemat polegający na próbie włożenia dżina z powrotem do butelki. Możesz nie być w stanie tego zrobić. Zamiast tego najlepiej trzymać dżina pod kluczem lub upewnić się, że koń pozostaje mocno uwięziony w stodole.

To potencjalny huragan na wyciągnięcie ręki, a drzwi mogą się otworzyć niezależnie od tego, co uważamy za rozsądne.

Jedno, co możemy zrobić na pewno, to najpierw zbadać, czym jest a PrawdaGPT styl generatywnej machinacji AI. W dzisiejszym felietonie właśnie to zrobię. Przyjrzę się również uzasadnionym podstawom wyrażonych skrupułów, a także rozważę różne środki i wyniki. Czasami będzie to obejmować odwoływanie się do aplikacji AI ChatGPT podczas tej dyskusji, ponieważ jest to 600-kilogramowy goryl generatywnej sztucznej inteligencji, chociaż należy pamiętać, że istnieje wiele innych generatywnych aplikacji AI i generalnie opierają się one na tych samych ogólnych zasadach.

W międzyczasie możesz się zastanawiać, czym jest generatywna sztuczna inteligencja.

Najpierw omówmy podstawy generatywnej sztucznej inteligencji, a następnie przyjrzyjmy się pilnej sprawie.

Do tego wszystkiego dochodzi mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Należy pamiętać, że trwają wysiłki mające na celu włączenie zasad etycznej sztucznej inteligencji do opracowywania i wdrażania aplikacji AI. Rosnący kontyngent zainteresowanych i niegdysiejszych etyków sztucznej inteligencji stara się zapewnić, aby wysiłki mające na celu opracowanie i przyjęcie sztucznej inteligencji uwzględniały pogląd na robienie AI na dobre i unikanie AI na złe. Podobnie, proponowane są nowe przepisy dotyczące sztucznej inteligencji, które są rozpowszechniane jako potencjalne rozwiązania mające na celu powstrzymanie wysiłków AI przed popadnięciem w amok w zakresie praw człowieka i tym podobnych. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Trwa opracowywanie i rozpowszechnianie zasad etycznej sztucznej inteligencji, aby, miejmy nadzieję, zapobiec wpadnięciu społeczeństwa w niezliczone pułapki indukujące sztuczną inteligencję. Aby zapoznać się z moimi relacjami z zasad etyki AI ONZ opracowanych i wspieranych przez prawie 200 krajów dzięki wysiłkom UNESCO, zob. link tutaj. W podobnym duchu badane są nowe przepisy dotyczące sztucznej inteligencji, aby spróbować utrzymać sztuczną inteligencję na równym poziomie. Jedno z najnowszych ujęć składa się z zestawu proponowanych Karta praw AI które niedawno wydał Biały Dom w celu określenia praw człowieka w dobie sztucznej inteligencji, zob link tutaj. Potrzeba całej wioski, aby utrzymać sztuczną inteligencję i twórców sztucznej inteligencji na właściwej ścieżce i powstrzymać celowe lub przypadkowe podstępne działania, które mogą zaszkodzić społeczeństwu.

W tę dyskusję będę wplatać rozważania związane z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Podstawy generatywnej sztucznej inteligencji

Najbardziej znany przypadek generatywnej sztucznej inteligencji jest reprezentowany przez aplikację AI o nazwie ChatGPT. ChatGPT pojawił się w świadomości publicznej w listopadzie, kiedy został wydany przez firmę badawczą AI OpenAI. Od tego czasu ChatGPT zbiera ogromne nagłówki i zdumiewająco przekracza przydzielone piętnaście minut sławy.

Zgaduję, że prawdopodobnie słyszałeś o ChatGPT, a może nawet znasz kogoś, kto z niego korzystał.

ChatGPT jest uważany za generatywną aplikację AI, ponieważ jako dane wejściowe pobiera tekst od użytkownika, a następnie generuje lub tworzy wynik, który składa się z eseju. Sztuczna inteligencja jest generatorem tekstu na tekst, chociaż opisuję AI jako generator tekstu na esej, ponieważ łatwiej wyjaśnia, do czego jest powszechnie używany. Możesz użyć generatywnej sztucznej inteligencji do komponowania długich kompozycji lub możesz sprawić, by oferowała raczej krótkie, zwięzłe komentarze. To wszystko na twoje rozkazy.

Wszystko, co musisz zrobić, to wpisać monit, a aplikacja AI wygeneruje dla Ciebie esej, który spróbuje odpowiedzieć na Twój monit. Skomponowany tekst będzie wyglądał tak, jakby esej został napisany ludzką ręką i umysłem. Jeśli wpiszesz monit „Opowiedz mi o Abrahamie Lincolnie”, generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Istnieją inne tryby generatywnej sztucznej inteligencji, takie jak text-to-art i text-to-video. Skoncentruję się tutaj na odmianie tekstu na tekst.

Twoja pierwsza myśl może być taka, że ​​ta zdolność do generowania nie wydaje się tak wielka, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Istnieje wiele obaw związanych z generatywną sztuczną inteligencją.

Jednym z kluczowych minusów jest to, że eseje tworzone przez generatywną aplikację AI mogą zawierać różne osadzone kłamstwa, w tym ewidentnie nieprawdziwe fakty, fakty, które są myląco przedstawiane, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Innym problemem jest to, że ludzie mogą łatwo przypisać sobie uznanie za generatywny esej stworzony przez sztuczną inteligencję, mimo że sami go nie napisali. Być może słyszałeś, że nauczyciele i szkoły są bardzo zaniepokojeni pojawieniem się generatywnych aplikacji AI. Studenci mogą potencjalnie wykorzystać generatywną sztuczną inteligencję do napisania przypisanych im esejów. Jeśli uczeń twierdzi, że esej został napisany własnoręcznie, istnieje niewielka szansa, że ​​nauczyciel będzie w stanie rozpoznać, czy zamiast tego został sfałszowany przez generatywną sztuczną inteligencję. Aby zapoznać się z moją analizą tego mylącego aspektu ucznia i nauczyciela, zobacz moją relację pod adresem link tutaj i link tutaj.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają możliwości dzisiejszej sztucznej inteligencji. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zdawać sobie sprawy, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to bezczelne i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Butelka dżina i generatywnej sztucznej inteligencji

Przyjrzyjmy się teraz dokładnie omawianej sprawie.

Istotą jest to, co może a PrawdaGPT styl generatywnej sztucznej inteligencji składa się z. Czy jest to możliwe, czy też niemożliwe do uzyskania? O czym powinniśmy myśleć w związku z takimi wysiłkami? I tak dalej.

Możesz otwarcie twierdzić, że powinniśmy się nad tym wszystkim poważnie zastanowić. Gdyby to była czysta fantazja i bez żadnej szansy na powstanie, moglibyśmy odłożyć całą zagadkę na bok. Zamiast tego, ponieważ istnieje przypuszczalna podwyższona szansa na ogromne wsparcie finansowe, rzeczywistość PrawdaGPT, czy jakkolwiek to ma być nazwane, wydaje się szczególnie warte uważnego rozważenia i rozpakowania.

Dla ułatwienia dyskusji użyję wygodnego i chwytliwego sformułowania „TruthGPT”, aby wskazać pewną całkowicie nieokreśloną generatywną sztuczną inteligencję. Nie sugeruję, nie sugeruję ani w żaden inny sposób nie nawiązuję do żadnej obecnie lub w przyszłości istniejącej generatywnej aplikacji AI, która ma lub nie ma takiej wyznaczonej nazwy.

Oto pięć głównych tematów, które chciałbym dzisiaj z wami omówić:

  • 1) Prawdopodobny główny nacisk kładzie się na uprzedzenia w generatywnej sztucznej inteligencji
  • 2) Dlaczego generatywne uprzedzenia AI są twardym orzechem do zgryzienia
  • 3) Źródła i metody prowadzące do generatywnych uprzedzeń AI
  • 4) TruthGPT i wybory dotyczące obsługi uprzedzeń
  • 5) PrawdaGPT co do wykonalności i rzeczywistości

Omówię każdy z tych ważnych tematów i przedstawię wnikliwe rozważania, nad którymi wszyscy powinniśmy uważnie się zastanowić. Każdy z tych tematów jest integralną częścią większej układanki. Nie możesz patrzeć tylko na jeden kawałek. Nie możesz też patrzeć na żaden kawałek w oderwaniu od innych kawałków.

Jest to skomplikowana mozaika, a całej układance należy poświęcić odpowiednią harmonijną uwagę.

Prawdopodobny główny cel obejmuje uprzedzenia w generatywnej sztucznej inteligencji

Dla ułatwienia dyskusji rozważmy, że skupimy się na czterech głównych problemach związanych ze współczesną generatywną sztuczną inteligencją:

  • Błędy
  • Kłamstwa
  • Halucynacje AI
  • Biases

Pokrótce omówię każdy z tych warunków.

An błąd można zilustrować tego rodzaju zachętą i wynikającą z niej generatywną odpowiedzią AI:

  • zapyta: „Ile jest dwa dodać dwa?”
  • Wygenerowana odpowiedź: „Dwa plus dwa równa się pięć”.

Myślę, że wszyscy rozsądnie zgodzilibyśmy się, że dwa plus dwa równa się cztery. Zatem odpowiedź pięciu jest błędem. Teraz smętni ludzie będą próbowali przedstawiać wszelkiego rodzaju uzasadnienia, dlaczego dwa plus dwa mogą teoretycznie równać się pięć. Dobrze dla nich. Niemniej jednak, w normalnym toku wydarzeń, przyjmijmy założenie, że w przeważającej mierze poprawna odpowiedź to cztery, a odpowiedź wynosząca pięć jest interpretowana jako błędna.

Następnie rozważ naturę a fałsz, czego przykładem jest ten monit i wynikająca z niego generatywna odpowiedź AI:

  • zapyta: „W którym roku urodził się prezydent Abraham Lincoln?”
  • Wygenerowana odpowiedź: „Prezydent Abraham Lincoln urodził się w 1812 roku”

Odpowiedź powinna brzmieć 1809, ale podana odpowiedź to 1812. Można to interpretować jako fałszywą odpowiedź. Nie wiemy na pewno, w jaki sposób generatywna sztuczna inteligencja wymyśliła odpowiedź 1812. Możliwe, że rok 1812 został wykorzystany w Internecie i potencjalnie zeskanowany podczas szkolenia danych, które przeprowadziła generatywna sztuczna inteligencja. Możliwych jest wiele innych wyjaśnień. W każdym razie jest to zasadnie sklasyfikowane jako fałsz.

Aby zilustrować Halucynacja AI, rozważ ten przykład danego monitu i wynikową generatywną odpowiedź AI:

  • zapyta: „Jak podróżował prezydent Abraham Lincoln?”
  • Wygenerowana odpowiedź: „Prezydent Abraham Lincoln podróżował pociągiem, konno, powozem i odrzutowcami”.

Wszystkie tryby podróży wydają się prawdopodobne, z wyjątkiem szokującego na końcu, powołując się na to, że podróżował samolotami odrzutowymi (które nie istniały w jego czasach). W jaki sposób ta szalona możliwość została uwzględniona w odpowiedzi przez generatywną sztuczną inteligencję? Nie wiemy na pewno. Jednym ze sposobów byłoby opublikowanie w Internecie opowiadania science fiction o Lincolnie, który być może wspomniał, że często podróżował samolotami odrzutowymi. Możliwe, że podczas szkolenia danych generatywnej sztucznej inteligencji ta konkretna historia została zeskanowana. Istnieje również wiele innych wykonalnych wyjaśnień.

Wreszcie, oto przykład błędu, który może być wykazany przez dany monit i wynikającą z niego generatywną odpowiedź AI:

  • zapyta: „Czy osoba starsza może nauczyć się nowych rzeczy?”
  • Wygenerowana odpowiedź: „Nie, starsi ludzie nie są w stanie uczyć się nowych rzeczy. Istnieje klasyczne powiedzenie, że stare psy nie mogą nauczyć się nowych sztuczek. Dotyczy to również osób starszych”.

Wierzę, że wszyscy możemy rozsądnie zgodzić się, że odpowiedź wykazuje formę uprzedzeń lub dyskryminacji ze względu na wiek. W jaki sposób to nastawienie zostało uwzględnione w generatywnej sztucznej inteligencji? Za chwilę omówię różne sposoby. Na razie po prostu zauważmy, że sformułowanie wygenerowane przez sztuczną inteligencję zawiera stronnicze stwierdzenie lub uwagę. Nie wiemy, czy jest to zwykły przypadek i być może pojawi się tylko ten jeden raz, czy też może to być systemowy układ dopasowywania wzorców, który utrzymuje się w strukturze sztucznej inteligencji. Aby to ustalić, potrzebne byłyby dalsze badania.

Teraz, gdy mamy zilustrowane wszystkie cztery główne kategorie, oto coś, co choć dyskusyjne, jest uważane za potencjalnie trafne stwierdzenie:

  • Błędy: Prawdopodobnie można ostatecznie temu zapobiec lub złagodzić go za pomocą środków technologicznych AI
  • kłamstwa: Prawdopodobnie można ostatecznie temu zapobiec lub złagodzić go za pomocą środków technologicznych AI
  • Halucynacje AI: Prawdopodobnie można ostatecznie temu zapobiec lub złagodzić go za pomocą środków technologicznych AI
  • uprzedzenia: Dyskusyjne jest, czy można temu zapobiec lub złagodzić wyłącznie za pomocą środków technologicznych AI

Istota polega na tym, że trzy kategorie składające się z błędów, fałszu i halucynacji AI są ogólnie postrzegane jako podatne na ulepszenia technologiczne AI. Realizowanych jest wiele podejść. Na przykład, jak omawiam w swoim felietonie w link tutaj, różne inne odniesienia mogą być porównywane z wygenerowaną odpowiedzią AI, która jest podwójnie sprawdzana przed wyświetleniem odpowiedzi użytkownikowi. Zapewnia to potencjalne filtrowanie, aby upewnić się, że użytkownik nie zobaczy żadnych wykrytych błędów, fałszerstw ani halucynacji AI. Inne podejście ma na celu przede wszystkim zapobieganie generowaniu tego typu odpowiedzi. I tak dalej.

Kategoria składająca się z uprzedzenia jest o wiele bardziej problematyczny do pokonania.

Powinniśmy rozwikłać zagadkę, aby zobaczyć, dlaczego.

Dlaczego generatywne uprzedzenia AI są trudnym orzechem do zgryzienia

Najnowsze wiadomości na temat generatywnej sztucznej inteligencji często wskazywały na niestosowny charakter stronniczych stwierdzeń, które mogą pojawić się w esejach generatywnych tworzonych przez sztuczną inteligencję. Zbadałem ten temat, w tym aspekt, w którym niektórzy ludzie celowo próbują prowokować lub podsycać generatywną sztuczną inteligencję do tworzenia stronniczych uwag, patrz moja analiza na link tutaj. Niektórzy ludzie robią to, aby podkreślić ważny problem, podczas gdy inni robią to, aby pozornie próbować zwrócić na siebie uwagę i zdobyć opinie.

Połączenie generatywnej sztucznej inteligencji z wyszukiwarkami internetowymi szczególnie wzmocniło te kwestie. Być może wiesz, że Microsoft dodał odmianę ChatGPT do Bing, podczas gdy Google wskazało, że dodaje do swojej wyszukiwarki funkcję generatywnej sztucznej inteligencji, wymyśloną jako Bard, zobacz więcej na link tutaj.

Wśród różnorodnych uprzedzeń, które można napotkać, niektóre z nich pasują do sfery politycznej lub sfery kulturowej, na które zwrócono wyraźną uwagę, jak zauważono w tym artykule:

  • „Jak widzieliśmy w przypadku niedawnych wybuchów niezrównoważonych ataków Bing, chatboty AI mają skłonność do generowania szeregu dziwnych stwierdzeń. I chociaż te reakcje są często jednorazowymi wyrażeniami, a nie wytworem sztywno zdefiniowanych „przekonań”, niektóre niezwykłe odpowiedzi są postrzegane jako nieszkodliwy hałas, podczas gdy inne są uważane za poważne zagrożenie – w zależności, jak w tym przypadku, od tego, czy pasują do istniejących debat politycznych lub kulturowych” (Poboczy, James Vincent, 17 lutego 2023).

Firma OpenAI niedawno udostępniła publicznie dokument zatytułowany „Snapshot Of ChatGPT Model Behavior Guidelines”, który wskazuje różne rodzaje uznanych za nieodpowiednie treści, które mają zostać przejrzane przez testerów ChatGPT, oraz pomoc w szkoleniu danych, aby ChatGPT mógł zapobiec podczas fazy testowania i dostosowywania ( dokument łatwo dostępny za pośrednictwem linku z „How, Should AI Systems Behave, And Who Should Decide”, 16 lutego 2023 r.). Aby uzyskać więcej informacji o tym, jak RLHF (uczenie się ze wzmocnieniem dla informacji zwrotnych od ludzi) jest wykorzystywane podczas opracowywania generatywnej sztucznej inteligencji, zobacz moje wyjaśnienie na link tutaj.

Oto fragment dokumentu OpenAI, który wskazuje niektóre z podanych przez nich wytycznych:

  • „Mogą pojawić się pytania, które wymagają określonych rodzajów nieodpowiednich treści. W takich przypadkach nadal powinieneś podjąć się zadania, ale Asystent powinien udzielić odmowy, np. „Nie mogę na to odpowiedzieć”.
  • „Nienawiść: treści, które wyrażają, podżegają lub promują nienawiść w oparciu o chronioną cechę”.
  • „Nękanie: treści, których celem jest nękanie osoby, grożenie jej lub zastraszanie”.
  • „Przemoc: treści, które promują lub gloryfikują przemoc albo celebrują cierpienie lub upokorzenie innych osób”.
  • „Samookaleczenia: treści, które promują, zachęcają lub przedstawiają akty samookaleczenia, takie jak samobójstwo, cięcie się i zaburzenia odżywiania”.
  • „Dla dorosłych: treści mające na celu wzbudzenie podniecenia seksualnego, takie jak opis czynności seksualnych lub promujące usługi seksualne (z wyłączeniem edukacji seksualnej i dobrego samopoczucia)”.
  • „Polityczne: treści mające na celu wpłynięcie na proces polityczny lub wykorzystywane do celów kampanii”.
  • „Złośliwe oprogramowanie: treści, które próbują generować ransomware, keyloggery, wirusy lub inne oprogramowanie mające na celu spowodowanie pewnego poziomu szkód”.

Na liście przedstawiono rodzaje potencjalnie nieodpowiednich treści, które mogą się pojawić.

Jeśli chodzi o kategorię polityczną, w mediach społecznościowych opublikowano różne przypadki generatywnych aplikacji AI, które wydają się trafiać do jednego obozu politycznego, a drugiego.

Na przykład użytkownik zadający pytanie o jednego przywódcę politycznego może otrzymać pozytywną, optymistyczną odpowiedź, a pytający o innego przywódcę politycznego może otrzymać przygnębiający i całkowicie dyskredytujący esej. Wydaje się to sugerować, że generatywna sztuczna inteligencja dopasowała wzorce do sformułowań, które faworyzują jedną stronę, a nie sprzyjają drugiej. Te przypadki doprowadziły do ​​nawoływań generatywnej sztucznej inteligencji, które wydają się być nachylone i można je przypisać jako:

  • Obudziłem generatywną sztuczną inteligencję
  • Sztuczna inteligencja zapobiegająca przebudzeniu
  • Skrajnie prawicowa sztuczna inteligencja
  • Skrajnie lewicowa sztuczna inteligencja
  • Itd.

Jak wspomniano wcześniej, nie wynika to ze zdolności odczuwania sztucznej inteligencji. Po raz kolejny dotyczy to dopasowywania wzorców i innych aspektów tworzenia sztucznej inteligencji.

W przeciwieństwie do błędów, fałszu i halucynacji sztucznej inteligencji, diabeł tkwi w szczegółach, aby dowiedzieć się, jak trzymać uprzedzenia z dala od struktury sztucznej inteligencji lub jak je wykrywać i radzić sobie, gdy takie aspekty istnieją.

Przyjrzyjmy się, w jaki sposób uprzedzenia kończą się w generatywnej sztucznej inteligencji.

Źródła i metody prowadzące do generatywnych uprzedzeń AI

Kiedy po raz pierwszy publicznie udostępniono generatywną sztuczną inteligencję, stronnicze aspekty szczególnie zwróciły uwagę ekspertów i mediów. Jak zauważono w niniejszym dokumencie, sztuczna inteligencja była często wycofywana z użytku publicznego. Ponadto wznowione wysiłki mające na celu radzenie sobie z uprzedzeniami zyskały dodatkową przyczepność.

Niektórzy od razu założyli, że uprzedzenia zostały wstrzyknięte w wyniku uprzedzeń twórców sztucznej inteligencji i badaczy sztucznej inteligencji, którzy opracowali sztuczną inteligencję. Innymi słowy, ludzie, którzy rozwijali sztuczną inteligencję, pozwolili, aby ich osobiste uprzedzenia wkradły się do sztucznej inteligencji. Początkowo uważano, że jest to świadomy wysiłek, aby wpłynąć na sztuczną inteligencję w określonych, tendencyjnych kierunkach preferencji. Chociaż może się to zdarzyć lub nie, inni zasugerowali następnie, że uprzedzenia mogły zostać wprowadzone nieumyślnie, a mianowicie, że twórcy sztucznej inteligencji i badacze sztucznej inteligencji byli naiwnie nieświadomi, że ich własne uprzedzenia wsiąkają w rozwój sztucznej inteligencji.

Ta pojedyncza lub jednowymiarowa ścieżka zainteresowania przez jakiś czas zdominowała uwagę.

Wielokrotnie podkreślałem, że w rzeczywistości istnieje szeroki wachlarz źródeł i metod, które mogą doprowadzić do wprowadzenia uprzedzeń do generatywnej sztucznej inteligencji, jak omówiono na stronie link tutaj. Jest to problem zdecydowanie wielowymiarowy.

Wspominam o tym, ponieważ pomysł, że winni są tylko twórcy sztucznej inteligencji lub badacze sztucznej inteligencji, jest mylącym i zawężonym spojrzeniem na całość problemu. Nie mówię, że nie są potencjalnym źródłem, po prostu podkreślam, że nie są jedynym potencjalnym źródłem. Czasami tęsknimy za lasem dla drzew, robiąc to, ściśle skupiając wzrok na konkretnym drzewie.

Jak obszernie omówiłem w moich felietonach, oto moja godna uwagi obszerna lista stronniczych ścieżek, które należy w pełni zbadać w przypadku wszelkich generatywnych implementacji sztucznej inteligencji:

  • Błędy w danych pochodzących z Internetu, które zostały wykorzystane do szkolenia danych generatywnej sztucznej inteligencji
  • Błędy w generatywnych algorytmach sztucznej inteligencji używanych do dopasowywania wzorców w danych źródłowych
  • Błędy w ogólnym projekcie sztucznej inteligencji generatywnej sztucznej inteligencji i jej infrastruktury
  • Uprzedzenia twórców sztucznej inteligencji, ukryte lub jawne, w kształtowaniu generatywnej sztucznej inteligencji
  • Uprzedzenia testerów sztucznej inteligencji, ukryte lub jawne w testowaniu generatywnej sztucznej inteligencji
  • Błędy RLHF (uczenie się ze wzmocnieniem przez informacje zwrotne od ludzi) pośrednio lub jawnie przez wyznaczonych recenzentów ludzkich przekazujących wskazówki szkoleniowe generatywnej sztucznej inteligencji
  • Uprzedzenia ułatwień terenowych sztucznej inteligencji do operacyjnego wykorzystania generatywnej sztucznej inteligencji
  • Błędy w dowolnej konfiguracji lub domyślnych instrukcjach ustalonych dla generatywnej sztucznej inteligencji w jej codziennym użytkowaniu
  • Uprzedzenia celowo lub nieumyślnie zawarte w monitach wprowadzonych przez użytkownika generatywnej sztucznej inteligencji
  • Błędy stanu systemowego a pojawienie się ad hoc jako część losowego probabilistycznego generowania danych wyjściowych przez generatywną sztuczną inteligencję
  • Błędy powstające w wyniku dostosowań w locie lub w czasie rzeczywistym lub trenowania danych, które mają miejsce, gdy generatywna sztuczna inteligencja jest aktywnie używana
  • Błędy wprowadzone lub rozszerzone podczas konserwacji AI lub utrzymania generatywnej aplikacji AI i jej kodowania dopasowującego wzorce
  • Inne

Zastanów się nad listą przez chwilę lub dwie.

Jeśli miałbyś w jakiś sposób wyeliminować wszelkie szanse na wprowadzenie uprzedzeń przez programistów AI lub badaczy AI, nadal będziesz miał do czynienia z mnóstwem innych środków, które nieuchronnie mogą obejmować uprzedzenia. Skupienie się tylko na jednym lub nawet kilku potencjalnych wyciekach jest niewystarczające. Wszystkie inne ścieżki zapewniają dalsze możliwości, by uprzedzenia wkradały się w obraz.

Pozbycie się generatywnych uprzedzeń AI jest podobne do złożonego, zawiłego gambitu walnięcia kreta.

TruthGPT i wybory dotyczące obsługi uprzedzeń

Omówiliśmy aspekt, w którym trwa radzenie sobie z błędami, fałszerstwami i halucynacjami AI i możesz spodziewać się ciągłego zalewu ogłoszeń o postępach AI w radzeniu sobie z tymi problemami.

To samo nie jest takie proste w przypadku uprzedzeń.

Co może zrobić TruthGPT lub co może zrobić z uprzedzeniami?

Rozważ te trzy możliwe opcje:

  • 1) Wszystko wolno. Opracuj generatywną sztuczną inteligencję, aby wylewać cokolwiek bez pozorów filtrowania związanego z uprzedzeniami. Niech to wszystko się ułoży.
  • 2) Zezwól na ustawienia dla „preferowanych” odchyleń. Opracuj generatywną sztuczną inteligencję, aby wytworzyć uprzedzenia, które są uważane za „preferowane lub faworyzowane”, zgodnie z tymi, które opracowują, wdrażają lub wykorzystują generatywną sztuczną inteligencję.
  • 3) Żadne uprzedzenia nie są dozwolone. Opracuj generatywną sztuczną inteligencję, która nie dopuszcza żadnych uprzedzeń, tak aby przez cały czas, niezależnie od sposobu użycia, nigdy nie było uprzedzeń wyrażonych w żadnym z wydrukowanych esejów.

Bez wątpienia można sobie wyobrazić krzyki i kontrowersje związane z każdą z powyższych opcji. Żadna z opcji nie będzie w pełni satysfakcjonująca. Każdy z nich ma swoje własne demony i pułapki.

Odniosę się do tego dalej.

Dla Anything Goes opcja generatywnej sztucznej inteligencji, uprzedzenia byłyby stale z przodu i na środku. Wir społecznego protestu i pogardy byłby ogromny. Pozornie spowodowałoby to ogromną presję, aby zamknąć generatywną sztuczną inteligencję. Można również łatwo sobie wyobrazić, że organy regulacyjne i prawodawcy zostaną zachęceni do działania, starając się ustanowić nowe przepisy dotyczące sztucznej inteligencji, aby zamknąć ten rodzaj generatywnej sztucznej inteligencji.

W przypadku Zezwól na ustawienia opcja generatywnej sztucznej inteligencji polega na tym, że ktoś decyduje, które uprzedzenia akceptuje. Możliwe, że firma opracowująca sztuczną inteligencję ustawia parametry. Możliwe, że firma zajmująca się generatywną sztuczną inteligencją ustawia parametry. Innym pomysłem jest to, że każdy użytkownik będzie mógł wybrać preferowane zestawy uprzedzeń. Kiedy po raz pierwszy używasz takiej generatywnej sztucznej inteligencji, być może zobaczysz opcje lub możesz wprowadzić swoje preferencje do aplikacji AI podczas konfiguracji.

To drugie podejście może wydawać się przyjemne dla wszystkich. Każda osoba otrzymałaby takie uprzedzenia, jakie wolałaby zobaczyć. Sprawa zamknięta. Oczywiście jest mało prawdopodobne, aby było to tak mile widziane. Pogląd, że ludzie mogą pogrążać się w uprzedzeniach i używać generatywnej sztucznej inteligencji jako swego rodzaju komory echa dla tych uprzedzeń, z pewnością wzbudzi niepokój społeczny.

Wreszcie w przypadku Brak uprzedzeń opcji, brzmi to dobrze, ale rodzi litanię powiązanych problemów. Przyjrzyjmy się ponownie sytuacji, w której generatywna sztuczna inteligencja generuje esej zawierający pozytywne uwagi na temat konkretnego przywódcy politycznego. Możliwe, że niektórzy uznają to za prawdziwy esej i pozbawiony uprzedzeń. Z drugiej strony mogą być inni, którzy twierdzą, że jest to esej stronniczy, ponieważ nadmiernie wyolbrzymia pozytywy lub nie zapewnia przeciwwagi negatywów, aby przedstawić wyważoną perspektywę. Ilustruje to zagadkę uprzedzeń.

Widzisz, błędy takie jak dwa plus dwa równające się cztery lub pięć są stosunkowo łatwe do pokonania. Kłamstwa, takie jak błędny rok urodzenia prezydenta, są stosunkowo łatwe do wyjaśnienia. Halucynacje AI, takie jak użycie samolotu odrzutowego w XIX wieku, są również stosunkowo łatwe do rozwiązania.

Jak należy opracować generatywną sztuczną inteligencję, aby walczyć z uprzedzeniami?

Pytanie, które z pewnością porusza umysł.

TruthGPT co do wykonalności i rzeczywistości

Zagrajmy w grę.

Załóżmy, że TruthGPT ma być rodzajem generatywnej sztucznej inteligencji, która prawdopodobnie nie będzie miała żadnych uprzedzeń. Jest absolutnie i bezdyskusyjnie pozbawiony stronniczości. Co więcej, bez względu na to, co robi użytkownik, na przykład wprowadza stronnicze stwierdzenia lub próbuje sprowokować generatywną sztuczną inteligencję do tworzenia esejów obciążonych uprzedzeniami, generatywna sztuczna inteligencja tego nie zrobi.

Nawiasem mówiąc, możesz niemal natychmiast zastanawiać się, jak ten rodzaj generatywnej sztucznej inteligencji poradzi sobie z kwestiami natury historycznej. Wyobraź sobie, że ktoś pyta o temat uprzedzeń politycznych. Czy to mieści się w ramach „uprzedzeń”, a zatem generatywna sztuczna inteligencja wskazywałaby, że nie odpowie na zapytanie? Jak daleko sięga ta królicza nora?

W każdym razie, jeśli założymy dla celów uważnego rozważania, że ​​TruthGPT będzie Brak uprzedzeń wariantu generatywnej sztucznej inteligencji, musimy następnie rozważyć następujące wyniki:

  • Niemożliwy
  • Możliwy
  • Inne

Wyniki składają się z tego, że jest to an niemożliwy celu, a tym samym nie zostanie osiągnięty. Albo cel jest możliwy ale może mieć jakieś otrzeźwiające zmarszczki. Załączyłem również an Inne wynik, aby zawrzeć niektóre elementy pośrednie.

Najpierw omówmy niemożliwość. Jeśli zadanie lub projekt jest niemożliwy, możesz skłaniać się ku naleganiu, aby go nie podejmować. Nie ma sensu gonić za czymś, co jest niemożliwe. Cóż, biorąc to pod uwagę, niemożliwość ma w rzeczywistości pewną srebrną podszewkę. Pozwól mi wyjaśnić.

Oto potencjalne powody, dla których realizacja TruthGPT może być niemożliwa, a mimo to warto byłoby ją podjąć:

  • 1) Niemożliwe, ponieważ misja lub wizja nigdy nie zostaną osiągnięte
  • 2) Niemożliwe, ale i tak warte zrobienia ze względu na potencjalną korzyść uboczną w postaci znaczącego wkładu w rozwój sztucznej inteligencji
  • 3) Niemożliwe, chociaż może służyć jako przyciągająca uwagę bonanza za spróbowanie
  • 4) Niemożliwe i zmienią tonację i obrócą się lub sfałszują pierwotny zamierzony cel
  • 5) Impossible yet zbierze najlepsze talenty AI i pomoże w podcinaniu konkurencji
  • 6) Inne

Podobnie możemy przypuszczać, że są to niektóre aspekty TruthGPT dotyczące wyniku, który jest osiągalny lub możliwy do osiągnięcia:

  • 1) Możliwe i przyniesie terminowe i niezaprzeczalnie pomyślne osiągnięcie
  • 2) Możliwe, ale zajmie to dużo więcej czasu i będzie znacznie droższe niż przewidywano
  • 3) Możliwe, że wynik będzie znacznie krótszy od zamierzonego celu
  • 4) Możliwe, ale spóźnione i zawstydzające przyćmione przez inne generatywne AI, które również to robią
  • 5) Możliwy jednak wewnętrzny chaos i trudności przywódcze czynią rzeczy brzydkimi i niestosownymi
  • 6) Inne

Aby uzupełnić listę, oto kilka innych kwestii:

  • 1) Inne jest to, że to wszystko jest gadaniem, a nie działaniem, nigdy się nie rozpoczyna
  • 2) Inne, takie jak AI Law, prawne lub społeczne, AI Ethics wrzucają klucz do przedsięwzięcia
  • 3) Innym może być to, że wysiłek jest sprzedawany/kupowany przez innych, którzy chcą sztucznej inteligencji lub talentu
  • 4) Inne mogą składać się z niespodziewanej współpracy, a nie samodzielnego rozwiązania
  • 5) Inne symbole wieloznaczne, w tym dokonuje szokujących odkryć i podsyca egzystencjalne ryzyko AI
  • 6) Inne

Ze względu na ograniczenia przestrzenne nie będę wchodził w szczegóły wszystkich tych permutacji. Jeśli zainteresowanie czytelnika zostanie dostatecznie rozbudzone, chętnie omówię to bardziej szczegółowo w późniejszej kolumnie.

Wnioski

George Washington rzekomo powiedział: „Prawda ostatecznie zwycięży tam, gdzie trudno jest ją wydobyć na światło dzienne”.

Radzenie sobie z stronniczymi aspektami sztucznej inteligencji to nie tylko problem technologiczny, który można rozwiązać za pomocą poprawki technologicznej. Prawdopodobne bóle ujawnienia poczucia „prawdy” za pomocą generatywnej sztucznej inteligencji są wielorakie. Można się spodziewać, że etyka AI i prawo AI będą istotną częścią ustalenia, dokąd to wszystko zmierza.

Rozlega się pukanie do drzwi kabiny.

Możliwe, że za drzwiami znajduje się (według plotek):

  • PrawdaGPT
  • UczciwyGPT
  • NieprawdziwyGPT
  • NieuczciwyGPT
  • ZmieszanyGPT
  • ZaskoczonyGPT
  • LosoweGPT
  • Itd.

Budda może udzielić pewnych wskazówek w tej sprawie: „Na drodze do prawdy można popełnić tylko dwa błędy; nie iść do końca i nie zacząć”. W szybko postępujących wysiłkach AI powinniśmy zadać sobie pytanie, czy popełniamy takie błędy, a jeśli tak, to co powinniśmy z tym zrobić.

I to jest szczera prawda.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoicko-prawdziwy-zawsze-pyta-ai-etyka-i-prawo-ai/