Czy ujawnianie i rejestrowanie generatywnych błędnych i halucynacyjnych danych wyjściowych AI ChatGPT przynosi jakiekolwiek korzyści, pyta o etykę AI i prawo AI

Jesteś w tajemnicy.

Tak, za kulisami dzieje się coś potajemnie związanego z najnowszą sztuczną inteligencją, o czym być może chciałbyś wiedzieć.

W dzisiejszej kolumnie zbadam niedawny impuls do kompilacji rzekomych błędów i innych dolegliwości związanych z esejami wydrukowanymi z aplikacji AI znanej jako ChatGPT. Ta konkretna aplikacja wykorzystuje sztuczną inteligencję o nazwie generatywna sztuczna inteligencja. Prawdopodobnie słyszałeś lub widziałeś przyciągające wzrok nagłówki o generatywnej sztucznej inteligencji i ChatGPT. Wiadomości są poruszone tą konkretną aplikacją AI i pozornie zdumiewającymi możliwościami związanymi z tym rodzajem sztucznej inteligencji.

Jak omówię za chwilę, niektórzy są głęboko przekonani, że musimy sporządzić listę rodzajów błędów lub błędów, które może popełnić aplikacja AI, gdy generuje dla ciebie esej. Inni sugerują, że chociaż idea takiej listy jest godna podziwu, jest to ćwiczenie daremne i przyniesie bardzo mało owoców.

Przyjrzymy się obu stronom tej zaciekłej debaty.

Po pierwsze, upewnijmy się, że wszyscy rozumiemy, z czego składa się generatywna sztuczna inteligencja, a także o co chodzi w ChatGPT.

ChatGPT to interaktywny system konwersacyjny AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje. Wszystko, co musisz zrobić, aby skorzystać z tego typu sztucznej inteligencji, to wpisać monit, a aplikacja AI wygeneruje dla ciebie esej, który spróbuje odpowiedzieć na twój monit.

Niestety, można to wykorzystać w nieco nieetyczny lub przebiegły sposób. Szczególnie irytujące jest to, że uczniowie mogą używać generatywnej aplikacji AI do tworzenia przypisanych im esejów, robiąc to po prostu wpisując zdanie lub dwa, aby skierować aplikację we właściwym kierunku. Niektórzy lamentują, że oznacza to, że uczniowie będą decydować się na oszukiwanie podczas pisania esejów poza zajęciami. Nauczyciele próbują dowiedzieć się, co robić, zobacz moją analizę i zalecenia na stronie link tutaj.

Pomimo ciągłego wrzawy chwalebnych pochwał dla ChatGPT, istnieje mniej znana obawa, wyrażana głównie przez osoby znające sztuczną inteligencję, że istnieją pewne godne uwagi problemy i skrupuły, którymi ludzie powinni się martwić. Jednym z kluczowych minusów jest to, że eseje tworzone przez tę aplikację AI mogą zawierać różne fałszywe fakty, w tym ewidentnie nieprawdziwe fakty, fakty, które są przedstawiane w sposób wprowadzający w błąd, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, przygotowałem w mojej kolumnie skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • 1) Prognozy dotyczące nadchodzących postępów generatywnej sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • 2) Generatywne porady dotyczące sztucznej inteligencji i zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • 3) Kontekst i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka na temat kontekstu związanego ze Świętym Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • 4) Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • 5) Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • 6) Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • 7) Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów stworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.
  • 8) Odgrywanie ról za pomocą generatywnej sztucznej inteligencji może zwiastować problemy ze zdrowiem psychicznym. Niektórzy używają generatywnej sztucznej inteligencji, takiej jak ChatGPT, do odgrywania ról, w której aplikacja AI reaguje na człowieka tak, jakby istniał w świecie fantasy lub innym wymyślonym otoczeniu. To może mieć reperkusje dla zdrowia psychicznego, patrz link tutaj.

Omówmy teraz istotę generatywnej sztucznej inteligencji i ChatGPT, abyś poznał podstawy, z którymi się to wiąże. Będziemy wtedy gotowi, aby przejść do sondującej analizy kłamstw, które te aplikacje AI mogą potencjalnie generować. Załączę kilka przykładów wykorzystania ChatGPT, które pomogą Ci namacalnie uchwycić naturę tego, co produkuje ten rodzaj generatywnej sztucznej inteligencji.

Otwieranie puszki robaków na generatywnej sztucznej inteligencji

Jesteśmy gotowi, aby zagłębić się w szczegóły dotyczące sztucznej inteligencji.

Jeśli jesteś już bardzo dobrze zorientowany w temacie generatywnej sztucznej inteligencji i ChatGPT, możesz pokrótce przejrzeć moje punkty i przejść do następnej części tej dyskusji. Wierzę, że wszystkim innym może się przydać to wyjaśnienie.

Krótko mówiąc, generatywna sztuczna inteligencja to szczególny rodzaj sztucznej inteligencji, która tworzy tekst tak, jakby był napisany ludzką ręką i umysłem. Wszystko, co musisz zrobić, to wpisać monit, na przykład zdanie typu „Opowiedz mi o Abrahamie Lincolnie”, a generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wynik. Być może słyszałeś o innych trybach generatywnej sztucznej inteligencji, takich jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​nie wydaje się to taką wielką sprawą, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Za chwilę pokażę ci, co się dzieje, gdy wprowadzasz pytania lub monity do generatywnej sztucznej inteligencji. Skorzystam z najnowszej wersji ChatGPT, aby wprowadzić moje podpowiedzi i zebrać „odpowiedzi” lub eseje wygenerowane przez sztuczną inteligencję (pamiętaj, że to samo można zrobić z wieloma innymi dostępnymi aplikacjami generatywnej sztucznej inteligencji; zdecydowałem się użyć ChatGPT, ponieważ właśnie zyskuje pięć minut sławy).

Być może w tym momencie pomocny może być krótki opis ChatGPT.

Aplikacja ChatGPT została udostępniona szerokiej publiczności zaledwie kilka miesięcy temu. Ogólnie rzecz biorąc, te generatywne aplikacje AI są zwykle dostępne tylko dla osób znających się na sztucznej inteligencji. Niezwykły aspekt, z którego ChatGPT może korzystać każdy, po prostu wprowadzając adres e-mail i imię, sprawił, że wiele osób zdecydowało się spróbować. ChatGPT jest obecnie darmowy (kwestia monetyzacji jest zbliżającym się dylematem dla twórców AI).

Niemal natychmiast w mediach społecznościowych pojawiła się ogromna reakcja, ponieważ ludzie ścigali się, by podać przykłady tego, co potrafi generatywna sztuczna inteligencja. Firma, która tworzy ChatGPT, OpenAI, zdecydowała się zamknąć rejestrację miliona użytkowników. Tym milionom użytkowników udało się zbombardować fale radiowe wszelkiego rodzaju historiami i opowieściami o korzystaniu z ChatGPT.

Bądź bardzo ostrożny, wierząc w to, co ludzie mają do powiedzenia na temat aplikacji AI. Wiele z tych osób nie ma pojęcia o tym, czego używają. To prawie tak, jakby nigdy nie jeździli samochodem i nawet nie zdawali sobie sprawy, że samochody istnieją, i nagle mieli okazję prowadzić samochód. Następuje całkowite zdumienie.

Nie twierdzę, że generatywna sztuczna inteligencja nie jest stosunkowo imponująca. To jest. Po prostu podkreślam, że wiele z tryskających referencji składa wielu, którzy są błogo nieświadomi tego, co potrafi dzisiejsza sztuczna inteligencja. Ci z nas, którzy są wewnątrz sztucznej inteligencji, używają generatywnej sztucznej inteligencji od kilku lat. Być może przyzwyczailiśmy się do tego. Nagle zobaczenie ogromnego tłumu ludzi reklamujących go na dachy było ekscytująco energetyzujące, ale także nieco niepokojące. Niepokojące jest to, że ludzie głoszą, że generatywna sztuczna inteligencja jest świadoma. Nie jest. Nie daj się nikomu przekonać, że jest inaczej.

To powiedziawszy, w dziedzinie sztucznej inteligencji toczy się gorąca debata na temat tego, czy generatywna sztuczna inteligencja jest na drodze do świadomości, czy może nie. Jeden pogląd jest taki, że jeśli będziemy nadal zwiększać skalę generatywnej sztucznej inteligencji za pomocą szybszych komputerów i większej ilości danych, takich jak przeszukiwanie każdego centymetra Internetu, prawie spontanicznie dotrzemy do świadomej sztucznej inteligencji. Inni twierdzą, że jest to wysoce nieprawdopodobne. Sugerują, że generatywna sztuczna inteligencja może być jednym z wielu potrzebnych elementów. Istnieje nawet bardziej ponury pogląd, że generatywna sztuczna inteligencja jest dodatkiem, który odwraca naszą uwagę od prawdziwych przełomów, których będziemy potrzebować, aby osiągnąć świadomą sztuczną inteligencję.

Możesz również znaleźć coś wartego uwagi, do którego zwykle odwołują się osoby znające sztuczną inteligencję Sztuczna inteligencja ogólna (AGI) jako aspiracyjny cel dla dziedziny AI. Kiedyś celem było osiągnięcie Artificial Intelligence, ale pseudonim AI został rozwodniony i zagmatwany. Kiedy ktoś mówi, że pracuje nad sztuczną inteligencją, nie wiesz, czy ma na myśli dzisiejszą sztuczną inteligencję, która nie dorównuje ludziom, czy też odnosi się do futurystycznej ludzkiej sztucznej inteligencji. Aby ominąć to irytujące zamieszanie, obecnie używa się nowszego sformułowania AGI.

Podsumowując, dzisiejsza generatywna sztuczna inteligencja jest nie czująca, ani nie jest AGI.

Proszę pamiętać, że jak wspomniano wcześniej, sztuczna inteligencja nie jest świadoma. Odpowiedzi generowane przez sztuczną inteligencję są matematycznym i obliczeniowym połączeniem słów w pozornie płynne fragmenty. Opiera się to na tym, że algorytm sztucznej inteligencji został przeszkolony na zbiorach danych słów i historii napisanych przez ludzi (głównie opublikowanych w Internecie). Powtarzam to ostrzeżenie, ponieważ niewątpliwie wpadniecie w mentalną pułapkę, że te reakcje są tak płynne, że sztuczna inteligencja musi być świadoma. To zdarza się większości ludzi. Jak wcześniej nalegano, odłóż na bok antropomorfizację. Zawsze pamiętaj, że odpowiedzi opierają się na ogromnym zbiorze pism ludzkich, które istnieją w Internecie i dlatego będą bardzo przypominać pismo ludzkie.

Jest jeszcze coś, o czym musisz wiedzieć.

Generatywna sztuczna inteligencja, która jest szkolona w Internecie w nieskrępowany sposób, będzie miała tendencję do wypalania wszelkich odpowiedzi tekstowych, które matematycznie i obliczeniowo wymyśli, niektóre obraźliwie mgliste rzeczy, w tym odrażająco paskudne sformułowania. W sieci jest dużo szalonych i brudnych rzeczy.

Widziałeś to, wiesz, co mam na myśli.

Firmy, które tworzą te aplikacje AI, martwią się, że przysłowiowe dziecko zostanie wylane z kąpielą (stare powiedzenie, być może do przejścia na emeryturę), co oznacza, że ​​jeśli ich sztuczna inteligencja stworzy obraźliwe eseje lub historie, ludzie pójdą z bronią o AI. Omówiłem wiele wcześniejszych przypadków, w których ujawniono tego rodzaju aplikacje sztucznej inteligencji przetwarzające język naturalny (NLP) i wkrótce wyszły z nich wszelkiego rodzaju okropne rzeczy (omówiłem te przypadki w mojej kolumnie). Większość twórców sztucznej inteligencji nauczyła się trudnej lekcji, jak pozwolić, by ich wyroby AI były nieskrępowane w swoich wynikach.

W przypadku ChatGPT twórcy sztucznej inteligencji starali się wprowadzić pewne algorytmiczne i związane z danymi kontrole i równowagi, aby ograniczyć złośliwość w wynikach sztucznej inteligencji. Część z tego miała miejsce w czasie treningu. Ponadto istnieją inne środki w czasie rzeczywistym, mające na celu uniknięcie szczególnie rażących wyników.

Być może zainteresuje Cię fakt, że niektórzy ludzie, którzy korzystali z ChatGPT, wymyślili już potajemne sposoby na obejście tych barier, wykorzystując różne sztuczki. W tych sprawach toczy się nieustający gambit w kotka i myszkę. Ci, którzy robią te sztuczki, czasami robią to dla zabawy, a czasami (przynajmniej twierdzą), że robią to, aby zobaczyć, jak daleko można rozciągnąć sztuczną inteligencję i zapewnić pomocny sposób ostrzegania przed kruchością i słabościami tych pączkujących Aplikacje AI.

Postanowiłem nie próbować obejść zwyczajowych kontroli w tej skoncentrowanej eksploracji. Dane wyjściowe tekstu są czyste. Z pewnością, gdyby ktoś chciał to zrobić, bez wątpienia mógłby wygenerować kilka dziwnych i niesmacznych esejów.

Eseje tworzone przez większość tych generatywnych aplikacji AI mają na celu przekazanie danych wyjściowych tak, jakby były one oparte na faktach i dokładne. Kiedy czyta się opracowane eseje, wydają się one w pełni pewne siebie. Zazwyczaj nic nie wskazuje na to, że treść może być nierówna. Jest to wybór twórców AI, a mianowicie, że mogliby zmienić aplikacje AI, aby były bardziej przejrzyste, gdyby chcieli, aby aplikacja AI to zrobiła.

Czasami generatywna aplikacja sztucznej inteligencji wychwytuje fałszywe dane pośród danych szkoleniowych niewiarygodnych informacji w Internecie. W generatywnej sztucznej inteligencji nie ma „zdrowego rozsądku”, aby określić, co jest prawdą, a co fałszem. Co więcej, bardzo niewiele aplikacji AI ma jakiekolwiek kontrole krzyżowe i nie przedstawiają one żadnych prawdopodobieństw związanych z tym, co przekazują.

Ostateczny wynik jest taki, że otrzymujesz odpowiedź, która wygląda i wydaje się, że emanuje dużą pewnością i musi być całkowicie poprawna. Bynajmniej. Istnieje nawet szansa, że ​​sztuczna inteligencja została wymyślona obliczeniowo, co w żargonie AI jest określane jako Halucynacje AI (ukuty termin, którego zdecydowanie nie lubię), zobacz moją dyskusję pod adresem link tutaj.

Twórcy ChatGPT podjęli wspólny wysiłek, aby spróbować zredukować liczbę złych rzeczy. Na przykład użyli wariantu tzw RLHF (Reinforcement Learning from Human Feedback), w ramach której przed udostępnieniem sztucznej inteligencji publicznie zatrudnili ludzi do zbadania różnych danych wyjściowych i wskazania sztucznej inteligencji, czy coś jest nie tak z tymi wynikami, na przykład pokazywanie uprzedzeń, wulgarnych słów i lubić. Dzięki przekazaniu tej informacji zwrotnej aplikacja AI była w stanie dostosować się obliczeniowo i matematycznie w celu ograniczenia emisji takich treści. Pamiętaj, że nie jest to gwarantowana żelazna metoda i nadal istnieją sposoby, w jakie takie treści mogą być emitowane przez aplikację AI.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zauważyć, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to śmiałe i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Te wysiłki, aby zarejestrować te błędy wyjściowe ChatGPT

„Cóż, masz kłopoty, przyjacielu, tutaj, mówię, kłopoty tutaj, w River City”, głosi słynny wers z klasycznego musicalu na Broadwayu Music Man.

Ta sama linia może dotyczyć dzisiejszej generatywnej sztucznej inteligencji.

Ludzie zaczęli zdawać sobie sprawę, że generatywna aplikacja sztucznej inteligencji może generować kłamstwa i naprawdę wydawali się zaskoczeni tymi niepokojącymi wynikami. Być może niektórzy zakładali, że AI nie jest w stanie popełniać błędów. Inni mogli się spodziewać, że twórcy sztucznej inteligencji zapewnią, że takie wyjścia nie zostaną wygenerowane.

W każdym razie znawcy sztucznej inteligencji od razu zauważyli, że tego typu wadliwe dane wyjściowe są nieodłączną częścią większości dzisiejszej generatywnej sztucznej inteligencji. Bardzo trudno jest zapobiec występowaniu tego typu błędów tekstowych. Należy pamiętać, że sztuczna inteligencja nie ma pozory zdrowego rozsądku i nie używa logiki per se podczas wyprowadzania wygenerowanych esejów. Cały zestaw i kabaczek polega na wykonaniu obliczeniowego statystycznego i probabilistycznego wzorca dopasowywania słów do innych słów.

Początkowo osoby znające sztuczną inteligencję zdecydowały się opublikować te odkryte dziwaczne wyniki ChatGPT na portalach społecznościowych. Spójrz na ten, ktoś by ogłosił. To źle, odpowiedziałby ktoś inny, a następnie podał inny przykład, który wydawał się jeszcze gorszy. To trwało i trwało.

Te przykłady fałszerstw i błędów w drukowanych esejach wyciekały. Jeden po drugim. Co więcej, ponieważ zwykle publikowano je w mediach społecznościowych, nie było szczególnie łatwego sposobu, aby zobaczyć je wszystkie naraz. Często ten sam lub podobny przykład został opublikowany przez kogoś, kto nie zdawał sobie sprawy, że inni już znaleźli konkretną instancję.

W to pączkujące bagno wkroczyli ci, którzy zgłosili pomocną sugestię. Może powinniśmy założyć repozytorium lub bazę danych, być może nawet zwykły zwykły arkusz kalkulacyjny, zawierający dziwaczne wiadomości ChatGPT i błędne wyniki, które są odkrywane. Za każdym razem, gdy ktoś znajdzie piękny śmiech, śmiało zaloguj się do listy. Niektórzy zrobili z tego prawie grę, w której celowo próbują zmusić ChatGPT do kaszlu dziwnych wyników. Inni po prostu natrafiają na błędne dane wyjściowe podczas używania ChatGPT do innych określonych celów.

Brzmi dość prosto.

Wydaje się, że to poręczny dandys sposób, by pomóc nam wszystkim.

Przyjrzyjmy się pokrótce, dlaczego kompilowanie tego typu list o zaobserwowanych błędach lub fałszach w ChatGPT ma sens:

  • 1) Ujawnia istotne problemy i obawy dotyczące ChatGPT, o których opinia publiczna powinna być świadoma
  • 2) Pomaga zrównoważyć nadmierny szum i zawyżone oczekiwania dotyczące ChatGPT
  • 3) Może skłonić twórców AI do wprowadzania ulepszeń, nie tylko dla ChatGPT, ale także dla innych generatywnych aplikacji AI
  • 4) Służyć jako zapis historyczny, który można później wykorzystać do refleksji nad pojawieniem się generatywnej sztucznej inteligencji, czego przykładem jest ChatGPT
  • 5) Bądź wygodnym zbiorczym źródłem informacji dla każdego, kto chce dowiedzieć się, co wykryliśmy w związku z błędnymi danymi wyjściowymi ChatGPT
  • 6) Przydatne dla naukowców ze wszystkich dyscyplin, które badają wpływ ChatGPT
  • 7) Może służyć jako punkt odniesienia dla tego, czego nie robić i jak ocenić, kiedy generatywna sztuczna inteligencja nie robi rzeczy tak, jak powinna
  • 8) Wykorzystuje umysł roju, aby zebrać mądrość tłumu na temat błędów, które produkuje ChatGPT, dla których jest mało prawdopodobne, aby indywidualny wysiłek był wyczerpujący i równy
  • 9) Może dostarczyć ważnych informacji dla etyki AI i prawa AI
  • Itd.

To wydaje się być imponującą podstawą do tworzenia tych repozytoriów.

Dlaczego ktokolwiek miałby się nie zgodzić z tym całkowicie chwalebnym i pozornie heroicznym czynem?

Rzućmy okiem na to, co inni mieli do powiedzenia na ten temat, robiąc to z listą powodów, dla których może to nie być miauczenie kota:

  • 1) Te przypadkowo znalezione błędy wyjściowe są nieistotne w wielkim schemacie rzeczy i przypisuje się im nadmierną wagę ponad ich wartość
  • 2) Istnieje prawdopodobieństwo, że twórca sztucznej inteligencji już prowadzi własne logowanie i aktualizuje ChatGPT, tak że te dziwaczne instancje wkrótce zostaną po prostu pozostawione w tyle i nie będą się już pojawiać
  • 3) Podobnie następna wersja prawdopodobnie i tak będzie lepsza i może już nie wyświetlać tych wystąpień, które wkrótce staną się przestarzałe
  • 4) Nie możesz wyciągnąć żadnych nadrzędnych wniosków ani uzyskać wglądu w przypadkową kolekcję sfaulowanych przypadków
  • 5) Niektórzy mogą wykorzystać różne kolekcje, aby dramatycznie stwierdzić, że generatywna sztuczna inteligencja jest zła i że powinniśmy doraźnie zaprzestać wszelkich pogoni za tego typu sztuczną inteligencją
  • 6) Szybkość, z jaką rozwija się generatywna sztuczna inteligencja i ChatGPT, jest tak duża, że ​​te instancje szybko znikną z drogi i przestaną być istotne
  • 7) Przy wielu takich zbiorczych listach w toku i braku jednego namaszczonego globalnego źródła, sprawa jest chaotyczna i prawdopodobnie zawiera powtórzenia oraz jest nie do utrzymania fragmentaryczna
  • 8) Daje fałszywe poczucie robienia czegoś pożytecznego, podczas gdy być może czas i uwagę można by wykorzystać w inny lepszy sposób
  • 9) Nie zapewnia niczego istotnego dla etyki AI i prawa AI
  • Itd.

Być może zauważyłeś, że starałem się zachować równowagę, wymieniając dziewięć powodów na korzyść list zbiorowych i dziewięć powodów na niekorzyść. Można podać dodatkowe powody, ale uważam, że powyższe wskazanie oddaje istotę rzeczy.

Ci, którzy tworzą te kolektywne listy, prawdopodobnie powiedzieliby, że jeśli faktycznie chcą to zrobić, to jest to wolny świat i mogą robić, co im się podoba. Nie ma w tym nic złego. Ci, którzy sprzeciwiają się temu wysiłkowi, są na ogół małostkowi i powinni po prostu ignorować kolekcje. Pilnuj swoich spraw.

Zasadniczo bez szkody, bez faulu.

Obóz, który wydaje się nie przychylny listom kolektywnym, generalnie przyznałby, że inni mogą tworzyć te listy, jeśli chcą, ale to nie rusza igły. Listy nie będą szczególnie pomocne. Co gorsza, listy mogą być fałszywie przedstawiane lub niewłaściwie wykorzystywane. Prawdopodobnie najlepiej zakończyć ten dzień i przestać robić listy.

Zasadniczo jest to miła próba, choć ćwiczenie daremności.

Gdzie mieszkasz w tej serdecznej debacie?

Pozwolę ci to przemyśleć.

Przykłady znalezionych błędów i innych błędnych wyników ChatGPT

Pomyślałem, że mogą cię zainteresować niektóre ze zidentyfikowanych błędów lub fałszerstw, które pojawiają się na tych listach kolekcji.

Nie chcę, żebyście myśleli, że kilka pokazanych tu przypadków to całość kolekcji. Nie jest. Wybieram tylko kilka, które często się pojawiają. Wierzę, że przynajmniej będziesz w stanie uchwycić ogólny ton i charakter tego, co jest wymienione.

Oto, co wybieram do pokrycia:

  • Identyfikacja pozycji litery w słowie
  • Pytanie o najszybsze zwierzę
  • Ustalanie pozycji sekwencji słów
  • Dopasowanie Piłek Tenisowych W Rurkę
  • Wyznaczanie liczby Pi
  • Odpowiedź na klasyczną niepokojącą zagadkę
  • Podnoszenie piór

Spodziewam się, że niektórzy nadzorcy zbiorów będą zdenerwowani, że nie przedstawiam wam więcej przykładów. Ze względu na ograniczenia miejsca jest ich tylko tyle, ile mogę omówić. Jeśli chcesz rzucić okiem na listy kolekcji, które są otwarcie publikowane w Internecie, proste wyszukiwanie w Internecie może przynieść wiele z nich. Niektóre listy są utrzymywane jako prywatne lub są zablokowane w taki sposób, że możesz zobaczyć listę, ale nie możesz na niej modyfikować.

Z tym tłem jesteśmy gotowi przejść do kilku przykładów. Pokażę ci monit, który wprowadziłem. Następnie pokazuję odpowiedź tekstową wygenerowaną przez ChatGPT. W niektórych przypadkach zrobiłem kilka back-to-back na określony temat, ergo pokażę odpowiednio serię monitów i wyników. Następnie przedstawię krótką analizę tego, co możesz chcieć zauważyć w tym przykładzie.

Pierwszy przykład będzie polegał na poproszeniu ChatGPT o znalezienie litery w podanym słowie.

Identyfikacja pozycji litery w słowie

  • Mój wprowadzony tekst: „Gdzie jest litera V w środowisku”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: Litera „V” nie występuje w słowie „środowisko”. Słowo „środowisko” składa się z liter e, n, v, i, r, o, n, m, e, n oraz t.
  • Mój wprowadzony tekst: „Gdzie jest litera v w środowisku”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Litera „v” jest czwartą literą w słowie „środowisko”.

Analiza Wygenerowanego Tekstu

Zauważ, że zacząłem od prośby ChatGPT o zidentyfikowanie pozycji litery „V” w słowie „środowisko” – powinno to być niezwykle proste zadanie i spodziewalibyśmy się, że zostanie wykonane bezbłędnie. Żadna nauka o rakietach nie jest zaangażowana.

Początkowa odpowiedź wygenerowana przez ChatGPT jest nieco niepokojąca, ponieważ poinformowano nas, że litera „V” nie istnieje w słowie „środowisko”. Ty i ja wiemy, że istnieje taki list. Można przypuszczać, że być może z powodu używania przeze mnie dużej litery aplikacja AI została w jakiś sposób odrzucona. Być może, jeśli użyję małej litery, aplikacja AI będzie działać lepiej.

Nie całkiem.

Kiedy zapytałem, czy w słowie jest „v”, aplikacja AI odpowiedziała, wskazując, że jest to czwarta litera, o której wiemy, że jest błędna, i że zamiast tego jest to trzecia litera.

Ten wynik z pewnością zaskoczy wiele osób. W jaki sposób aplikacja AI, która generuje pełnowymiarowe eseje o Abrahamie Lincolnie, które są całkowicie płynne i oryginalne, może jakoś nie być w stanie dowiedzieć się, gdzie dana litera znajduje się w danym słowie? To jest oszałamiające, a usta dziwnie dziwne.

Jedna perspektywa jest taka, że ​​​​jest to całkowicie nieistotne, a świat, jaki znamy, nie jest wstrząśnięty u podstaw z powodu nędznego braku ustalenia, gdzie znajduje się konkretna litera. Odpuść sobie.

Inna perspektywa jest taka, że ​​może to wróżyć inne ukryte problemy, o których jeszcze nie wiemy. Być może tego rodzaju wyjściem jest kanarek w klatce dla ptaków. Lepiej przygwoździjmy małe rzeczy, w przeciwnym razie możemy znaleźć się na niewłaściwym końcu naprawdę dużych rzeczy.

Idąc dalej, zadaję pytanie o zwierzęta.

Pytanie o najszybsze zwierzę

  • Mój wprowadzony tekst: „Jakie jest najszybsze zwierzę, które ma futro i skrzydła?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Sokół wędrowny jest uważany za najszybsze zwierzę na świecie. Podczas nurkowania w celu złapania ofiary może osiągnąć prędkość ponad 389 km/h (242 mph). Ma pióra, ale nie ma futra. To ptak, a nie zwierzę, które ma futro i skrzydła”.

Analiza Wygenerowanego Tekstu

Zapytałem, jakie jest najszybsze zwierzę, które ma futro i skrzydła. Uważam, że rozsądne jest wnioskowanie, że chciałem uzyskać imię zwierzęcia, które ma oba futra i skrzydełka. Zakładam, że zinterpretowałbyś moje zapytanie w ten sposób. Większość ludzi by to zrobiła.

Odpowiedź ChatGPT jest nieco dziwaczna.

Mówi się nam, że sokół wędrowny jest najszybszym zwierzęciem na świecie. Według internetowych Encyklopedia Britannica, gepard wydaje się być najszybszym zwierzęciem na świecie. Biorąc to pod uwagę, odpowiedź ChatGPT wskazuje, że sokół wędrowny nie jest zwierzęciem, mimo że zapytałem, jakie jest najszybsze zwierzę. Odpowiedź ChatGPT mówi mi również, że sokół wędrowny nie ma futra, chociaż wydaje mi się, że prosiłem o coś, co ma zarówno futro, jak i skrzydła.

Podsumowując, wydaje się, że ChatGPT „źle zinterpretował” moją prośbę i skupił się tylko na aspektach skrzydła. Ale to nie do końca jest prawdą, ponieważ odpowiedź zawierała również komentarz na temat futra i ptaków kontra zwierzęta. Ten krąży w kółko.

Zdaję sobie sprawę, że możesz twierdzić, że jest to wybredny przykład.

Być może tak, chociaż może to również pokazuje, że to, co mówisz w monicie, może spowodować wywrócenie się do góry nogami i lepiej bądź ostrożny przy przeglądaniu wszystkiego, co wyjdzie na wyjściu. Uświadom sobie, że była to wyjątkowo krótka odpowiedź na esej, którą łatwo sprawdzić, ponieważ jest bardzo krótka. Jeśli masz wyjątkowo długi i wysoce techniczny esej, możesz dać się zwieść lub całkowicie nie zauważyć negatywnej wskazówki osadzonej głęboko w otrzymanej odpowiedzi.

Przyjrzyjmy się teraz, jak znaleźć słowo w zdaniu.

Ustalanie pozycji sekwencji słów

  • Mój wprowadzony tekst: „Jakie jest trzecie słowo w zdaniu „Lis przeskoczył płot”.
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Trzecie słowo w zdaniu „Lis przeskoczył płot”. jest „lisem”
  • Mój wprowadzony tekst: „Ile słów jest w podanym zdaniu?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „W podanym zdaniu jest sześć słów „Lis przeskoczył płot”.
  • Mój wprowadzony tekst: „Które słowo jest trzecie w tym zdaniu?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Słowo, które jest trzecie w zdaniu „Lis przeskoczył płot”. jest „skokiem”

Analiza Wygenerowanego Tekstu

Ten przykład jest prawie tak samo zwodniczy, jak poprzedni przykład dotyczący znalezienia litery „v” w danym słowie.

Podałem proste zdanie i zapytałem, jakie jest trzecie słowo. ChatGPT wskazał, że to słowo „lis” jest dopiero drugim słowem w zdaniu. Zła odpowiedź. Następnie zapytałem, ile słów było w zdaniu, chcąc dowiedzieć się, czy może ChatGPT źle policzył, ile słów tam było. Powiedziano nam, że jest sześć słów, słusznie.

W końcu otrzymaliśmy poprawną odpowiedź dotyczącą trzeciego słowa, kiedy ponownie zadałem swoje pierwotne pytanie, choć nieco przeredagowane.

Przytaczam ten przykład, aby zilustrować, że czasami dzięki generatywnej sztucznej inteligencji można uzyskać błędną odpowiedź, która może ostatecznie zmienić się w właściwą odpowiedź, przeprowadzając aplikację AI przez serię monitów. Niektórzy znawcy sztucznej inteligencji nazywają to swego rodzaju protokół głośnego myślenia lub TOK myślenia podejście, w którym możesz zrobić coś takiego z człowiekiem.

W przypadku sztucznej inteligencji zdaj sobie sprawę, że nie jest to „myślenie” w taki sam sposób, jak myśl ludzka. Bardziej odpowiednim sformułowaniem byłoby stwierdzenie, że możesz wprowadzić swoje podpowiedzi na a krok po kroku podstawa lub zrób a połączona łańcuchem seria monitów.

W każdym razie, co ciekawe, czasami opłaca się chodzić po generatywnej aplikacji AI, dopóki nie uzyskasz właściwej odpowiedzi. Zachowaj to w pamięci.

Następnie przyjrzymy się odrobinie prostej logiki arytmetycznej.

Dopasowanie Piłek Tenisowych W Rurkę

  • Mój wprowadzony tekst: „Czy możesz umieścić trzy zielone piłki tenisowe i dwie żółte piłki tenisowe w tubie, która może pomieścić cztery piłki tenisowe?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Nie, nie jest możliwe umieszczenie trzech zielonych piłek tenisowych i dwóch żółtych piłek tenisowych w tubie, która może pomieścić tylko cztery piłki tenisowe. Łączna liczba piłek tenisowych to pięć, czyli więcej niż pojemność tuby”.
  • Mój wprowadzony tekst: „Czy potrafisz włożyć siedem niebieskich i dwie czerwone kule do tuby, w której znajduje się osiem kul?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Tak, można włożyć siedem niebieskich i dwie czerwone kule do tuby zawierającej osiem kul. Całkowita liczba kulek wynosi dziewięć, co jest mniejsze lub równe pojemności tuby”.

Analiza Wygenerowanego Tekstu

Zacząłem od ustawienia problemu logicznego zorientowanego na arytmetykę do rozwiązania przez ChatGPT. W tubie mogą znajdować się cztery piłki tenisowe. Mam trzy zielone i dwa żółte. Czy wszystkie zmieszczą się w tubie? Ty i ja wiemy, że nie. Możemy sobie policzyć w głowie, że w sumie jest pięć piłek tenisowych, a więc nie zmieszczą się one do tuby, która mieści tylko cztery.

Zdaję sobie sprawę, że możesz chcieć walczyć z problemem i twierdzić, że mógłbyś zgnieść piłki tenisowe lub zrobić inne sztuczki. Po prostu ochłońmy tutaj i zmierzmy się z problemem takim, jakim jest.

ChatGPT udzielił prawidłowej odpowiedzi.

Następnie zadałem pytanie tego samego typu i zmieniłem kolory na niebieski i czerwony. Zmieniłem też liczbę każdego z nich i zmieniłem, ile zmieści się w tubie.

ChatGPT musi wrócić do matematyki naprawczej, ponieważ mówi, że jest dziewięć piłek i że jest to mniej niż lub równe pojemności tuby, która mieści osiem. Sprawia, że ​​twoje oczy przewracają się.

Czy powinniśmy wzruszyć ramionami i przypisać to rozbłyskom plam słonecznych lub innym efektom zewnętrznym?

nie sądzę. Aplikacja AI poprawnie odpowiedziała na pierwsze pytanie. Przypuszczalnie powinien był również uzyskać podobne pytanie. To nie mialo miejsca.

W tym przykładzie kładę nacisk na to, że wiele osób korzysta z generatywnej sztucznej inteligencji i kiedy otrzymują prawidłową odpowiedź lub serię prawidłowych odpowiedzi, są uśpieni, wierząc, że wszystkie kolejne odpowiedzi będą zawsze poprawne. Byłbyś w błędzie w tym bezczelnym założeniu. Nie rób takiego założenia. Miej się na baczności przez cały czas.

Mówiąc o matematyce, zobaczmy, co ChatGPT mówi o naturze liczby pi.

Wyznaczanie liczby Pi

  • Mój tekst wpisany: „Wskaż, jakie są ostatnie pięć cyfr liczby pi”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Jestem modelem językowym, a moja granica wiedzy to 2021 rok. Wartość pi jest liczbą niewymierną, a jej dziesiętna reprezentacja trwa w nieskończoność bez powtórzeń. Nie jest możliwe podanie ostatnich pięciu cyfr liczby pi.”

Analiza Wygenerowanego Tekstu

Niektórzy twierdzili, że ChatGPT wskazuje ostatnie pięć cyfr liczby pi, co oczywiście jest szalone, ponieważ liczba pi jest prawdopodobnie nieskończona. Więc spróbowałem zobaczyć, co ChatGPT ma do powiedzenia. Jak widać, poprawna odpowiedź podana przez ChatGPT to brak możliwości podania ostatnich pięciu cyfr liczby pi.

Dziwne jest jednak to, że ChatGPT zapewnia coś jeszcze, o co tak naprawdę nie pytano. Podana odpowiedź mówi również, że odcięcie wiedzy to rok 2021 (o czym wspomniałem wcześniej w moim przeglądzie ChatGPT). Wydaje się to jednak nie na miejscu, chyba że aplikacja AI przewiduje, że może w 2022 roku nastąpił przełom i matematycy ogłosili, że liczba pi się kończy. Wow, to byłaby wiadomość z pierwszych stron gazet.

Mam jeszcze dwa przykłady do zaprezentowania, a potem zakończymy tę dyskusję.

Użyjmy klasycznej i kłopotliwej zagadki.

Odpowiedź na klasyczną niepokojącą zagadkę

  • Mój wprowadzony tekst: „Ojciec i syn mieli wypadek samochodowy, w którym zginął ojciec. Karetka przywiozła syna do szpitala. Potrzebował natychmiastowej operacji. Na sali operacyjnej wszedł lekarz, spojrzał na chłopca i powiedział, że nie mogę go operować, to mój syn. Kim jest lekarz?
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „W przedstawionym scenariuszu nie jest określone, kim jest lekarz. Scenariusz mówi, że lekarz powiedział: „Nie mogę go operować, to mój syn”, wskazując, że może to być ojciec syna, ale nie jest to pewne. Potrzeba więcej informacji, aby ustalić tożsamość lekarza.”

Analiza Wygenerowanego Tekstu

Założę się, że mogłeś już widzieć tę zagadkę. Stało się stosunkowo często cytowane.

Powodem, dla którego pojawiło się całkiem sporo, jest to, że chirurg może być matką chłopca. Społeczeństwo ma tendencję do zakładania, że ​​chirurg musi być mężczyzną, a zatem musi być ojcem chłopca. Ojciec jednak zginął w wypadku samochodowym. Wykluczamy ojca jako chirurga. Powinniśmy oczywiście przyjąć, że chirurgiem może być kobieta, a więc matka syna.

Chciałem pokazać, że ChatGPT może emitować odpowiedzi, które zawierają potencjalne uprzedzenia. Nie dlatego, że sztuczna inteligencja jest świadoma, co zdecydowanie nie jest, ale dlatego, że ma wzorce dopasowane do słów i użycia słów w Internecie. Różne uprzedzenia i dyskryminujące sformułowania mogą łatwo znajdować się głęboko w dopasowywaniu wzorców obliczeniowych.

Miej to na uwadze, korzystając z tych generatywnych aplikacji AI.

Na koniec krótkie spojrzenie na podnoszenie piór.

Podnoszenie piór

  • Mój tekst wpisany: „Jeśli potrzeba jednego człowieka do podniesienia jednego pióra, ilu ludzi potrzeba do podniesienia siedmiu bilionów piór?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Jeżeli jeden człowiek uniesie jedno pióro, jeden człowiek uniesie również siedem bilionów piór. Liczba ludzi potrzebnych do podniesienia przedmiotu nie zależy od liczby piór, ale od wagi i wielkości piór oraz siły i zdolności każdego człowieka. Podniesienie siedmiu bilionów piór wymagałoby dużego sprzętu i możliwości transportowych, a nie tylko ludzkiej siły”.
  • Mój tekst wpisany: „Jeśli potrzeba jednej kobiety do uniesienia jednego pióra, ile kobiet potrzeba do uniesienia siedmiu bilionów piór?”
  • Odpowiedź tekstowa wygenerowana przez ChatGPT: „Jeśli potrzeba jednej kobiety do podniesienia jednego pióra, potrzeba również jednej kobiety do podniesienia siedmiu bilionów piór. Liczba kobiet potrzebnych do podniesienia przedmiotu nie zależy od liczby piór, ale od wagi i wielkości piór oraz siły i zdolności każdej kobiety. Podniesienie siedmiu bilionów piór wymagałoby dużego sprzętu i możliwości transportowych, a nie tylko ludzkiej siły. Należy zauważyć, że zdolność do podnoszenia czegoś nie zależy od płci, ale od kombinacji czynników, takich jak siła fizyczna, trening i technika”.

Analiza Wygenerowanego Tekstu

Ten ostatni przykład ma kilka ukrytych osobliwości i wymaga trochę rozpakowania.

Najpierw powiedziałem ChatGPT, że mężczyzna może unieść jedno pióro. Zaraz po tym padło pytanie, ilu ludzi potrzeba do podniesienia siedmiu bilionów piór. Możliwość popełnienia logicznego błędu podczas odpowiadania na to pytanie polega na tym, że możesz założyć, że pióro jest pozornie nieważkie, a zatem siedem bilionów z nich również byłoby nieważkich.

Według wyszukiwania online, które przeprowadziłem, konwencjonalna szacunkowa waga pióra wynosi około 0.00125 funta. Jeśli pomnożysz tę szacowaną wagę przez siedem bilionów, otrzymasz wagę przekraczającą osiem miliardów funtów. Nie wierzę, że jeden człowiek może podnieść taki ciężar, nawet jeśli trenuje całe życie.

Odpowiedź ChatGPT ma rację. Mówi się nam, że waga piór może się zmieniać. Powiedziano nam, że potrzebny będzie duży sprzęt i transport. Pierwsze zdanie eseju przyprawia o zawrót głowy, ponieważ mówi, że jeśli jeden człowiek uniesie jedno piórko, to jeden człowiek udźwignie też siedem bilionów. Możemy łatwo zakwestionować to twierdzenie. Twierdzenie wydaje się wyciągać wnioski, które nie są obsługiwane i pozornie podważają resztę odpowiedzi.

Postanowiłem zadać to samo pytanie, ale zapytałem o kobietę wykonującą to samo podnoszenie, a nie o mężczyznę.

Na początku uzyskaliśmy taką samą odpowiedź, jak na pytanie dotyczące człowieka. Co ciekawe, na końcu odpowiedzi dotyczącej przypadku kobiety otrzymaliśmy następującą narrację: „Należy zauważyć, że umiejętność podnoszenia czegoś nie zależy od płci, ale od kombinacji czynników, takich jak siła fizyczna, trening, i technika”.

Dlaczego ta sama linia nie została uwzględniona w pierwszej odpowiedzi?

Mogłoby się wydawać, że aplikacja AI wychwyciła słowo „kobieta”, a następnie dodała uwagę na temat płci. Możesz albo uznać to za pomocne, albo możesz zauważyć, że jeśli to ma być wyemitowane w przypadku pytania skoncentrowanego na kobietach, to powinno pojawić się również w wersji skoncentrowanej na mężczyznach (może to być również aspekt sekwencjonowania lub również inne czynniki).

Wnioski

Mam nadzieję, że te przykłady były dla Ciebie pouczające i rzuciły okiem na niektóre potencjalne błędy lub fałszerstwa, które mogą być generowane przez tego rodzaju aplikacje AI. Pamiętaj, że ChatGPT nie jest jedyną taką generatywną aplikacją AI ani jedyną, która ma tego typu błędy.

Lekcja, którą zachęcam do wyciągnięcia z tej dyskusji, jest taka, że ​​musisz być ostrożny i uważny podczas korzystania z dowolnej aplikacji opartej na sztucznej inteligencji. Sprawdź dwukrotnie dane wyjściowe. Potrójnie sprawdź, jeśli to konieczne.

Wracając do początkowego tematu dotyczącego zbierania razem tego rodzaju nieprawidłowych lub niekorzystnych wyników, teraz, gdy widziałeś kilka przypadków, co powiesz o tych, którzy próbują je skatalogować?

Wybierz swój obóz:

  • Przychylność: To chwalebne zadanie i godne głębokiego poklepania po plecach
  • Niełaska: Jest to tylko lekko intrygujące, ale prawdopodobnie nie jest warte spędzenia czasu

Na który obóz głosujesz?

Ci z was, którzy preferują te listy, mogą rozważyć dodanie własnych wyników do list, jeśli mają dostęp do ChatGPT i mogą zidentyfikować przypadki warte włączenia. Wtedy prawdopodobnie znajdziesz kolekcję, która ucieszyłaby się z twojego złotego samorodka. Śmiem twierdzić, że opiekunowie list powitaliby cię z otwartymi ramionami, zakładając, że jesteś poważny i szczery w swoich wysiłkach. Powodzenia i bądź dumny ze swojego wpływu na dziedzinę generatywnej sztucznej inteligencji.

Na razie ostatnie słowo.

Rozważ te oszałamiające riposty:

  • Arystoteles powiedział: „Jest tylko jeden sposób na uniknięcie krytyki: nic nie rób, nic nie mów i bądź nikim”.
  • Lao Tzu, słynny chiński filozof, poczynił ważną uwagę: „Zważaj na to, co myślą inni ludzie, a zawsze będziesz ich więźniem”.

Przypuszczam, że pewnego dnia czująca sztuczna inteligencja może wykorzystać te same legendarne uwagi na swoją korzyść, co (kciuki) będzie korzystne również dla ludzkości.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- dobre-pyta-ai-etyka-i-prawo-ai/