Odgrywanie ról za pośrednictwem generatywnego czatu AI

Mówią, że aktorzy powinni w pełni wczuć się w swoje role.

Uta Hagen, uznana aktorka, laureatka nagrody Tony i legendarna nauczycielka aktorstwa, powiedziała: „Nie chodzi o to, żeby zatracić się w roli, chodzi o to, żeby się w niej odnaleźć”.

W dzisiejszym felietonie zabiorę Cię w podróż, podczas której przyjrzymy się, jak można wykorzystać najnowszą sztuczną inteligencję (AI) do odgrywania ról. To nie jest tylko gra aktorska. Zamiast tego ludzie decydują się na użycie rodzaju sztucznej inteligencji znanej jako generatywna sztuczna inteligencja w tym wywołująca nagłówki mediów społecznościowych aplikacja AI ChatGPT jako sposób na poszukiwanie samorozwoju poprzez odgrywanie ról.

Tak, rzeczywiście tak jest, a mianowicie, że ludzie decydują się na interakcję z generatywnym programem AI w celu celowego odgrywania ról. Często robią to dla zabawy, choć coraz częściej wydaje się, że mają nadzieję na uzyskanie dodatkowego dobrego samopoczucia psychicznego (być może mając nadzieję na połączenie obu tych elementów).

Podsumowując, możesz założyć, że nie ma tu nic do zobaczenia, a pomysł wykorzystania generatywnej sztucznej inteligencji do odgrywania ról nie jest wart ani odrobiny uwagi. Może tak może nie. Rośnie obawa, że ​​​​ta wciągająca forma odgrywania ról z maszyną, a nie z innymi ludźmi, być może nie jest wszystkim, czym jest. Przeczucie jest takie, że walka od stóp do głów z osobą i sztuczną inteligencją może mieć wady, jeśli chodzi o ludzi poszukujących poprawy zdrowia psychicznego wywołanej przez sztuczną inteligencję.

Kluczowe, nieskrępowane pytanie brzmi:

  • Czy wykorzystanie generatywnej sztucznej inteligencji, takiej jak ChatGPT, do podejmowania działań polegających na odgrywaniu ról, sprzyja dobremu samopoczuciu zdrowia psychicznego, czy też go osłabia?

Przemyśl to.

Jedyną rzeczą, którą możesz powiedzieć na pewno o tym ważnym pytaniu, jest to, że w grę wchodzą względy zdrowia psychicznego. Przyjrzymy się, w jaki sposób badania nad zdrowiem psychicznym badają wpływ gier fabularnych na samopoczucie psychiczne człowieka. Okazuje się, że istnieje dość merytoryczny zbiór badań nad zdrowiem psychicznym w grach fabularnych między ludźmi (np. Lochy i smoki która została pierwotnie wydana jako gra planszowa w latach 1970.), ale badanie, w jaki sposób odgrywanie ról między człowiekiem a sztuczną inteligencją może wpływać na samopoczucie psychiczne, jest znacznie rzadsze. Uznając tę ​​lukę w dziedzinie badań, pojawiły się wyraźne wezwania do przeprowadzenia dalszych badań i ukierunkowanych badań w tej konkretnej niszy.

Na wyraźnie istotnej podstawie, te potężne sprawy ujawniają kilka istotnych kwestii leżących u podstaw etyki AI i prawa AI. Czy twórcy sztucznej inteligencji powinni stosować odpowiednie środki ostrożności w zakresie etycznej sztucznej inteligencji podczas opracowywania generatywnej sztucznej inteligencji, która może pozornie żywo angażować się w odgrywanie ról z ludźmi? Jakie są te granice? Ponadto, czy powinny zostać uchwalone przepisy dotyczące sztucznej inteligencji, które określałyby, jak daleko generatywna sztuczna inteligencja może się posunąć podczas odgrywania ról? Na czym miałyby polegać te prawa zorientowane na sztuczną inteligencję i jak można by je egzekwować? Wszystko to jest obfitym źródłem otwartych i bez odpowiedzi rozważań. Aby zapoznać się z moją ciągłą i obszerną analizą etyki AI i prawa AI, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Dla tych z was, którzy być może nie są świadomi najnowszych informacji na temat sztucznej inteligencji, szczególnego rodzaju sztucznej inteligencji popularnie znanego jako generatywna sztuczna inteligencja zdominowała ostatnio media społecznościowe i wiadomości, jeśli chodzi o mówienie o tym, gdzie jest sztuczna inteligencja i dokąd może zmierzać. Zostało to zapoczątkowane wydaniem aplikacji AI, która wykorzystuje generatywną sztuczną inteligencję, aplikację ChatGPT opracowaną przez organizację OpenAI. ChatGPT to interaktywny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje.

Jeśli jeszcze nie dowiedziałeś się zbyt wiele o Generative AI i ChatGPT, nie martw się, ponieważ za chwilę opiszę tutaj podstawy, więc poczekaj, a otrzymasz ogólne informacje.

Zapaleni czytelnicy mogą pamiętać, że wcześniej przyglądałem się, jak ludzie używają generatywnej sztucznej inteligencji i ChatGPT, aby uzyskać poradę dotyczącą zdrowia psychicznego, co jest niepokojącym trendem, zobacz analizę mojej kolumny na link tutaj. Temat, który omawiam w dzisiejszej kolumnie, to wyraźnie odmienne podejście do tego, w jaki sposób ChatGPT i generatywna sztuczna inteligencja budzą potencjalne skrupuły w zakresie zdrowia psychicznego.

Zamiast badanego wcześniej aspektu osób polegających na generatywnej sztucznej inteligencji w celu uzyskania porad dotyczących zdrowia psychicznego, powinniśmy również przyjrzeć się, w jaki sposób ludzie używają generatywnej sztucznej inteligencji do odgrywania ról. Z pozoru wydaje się to niewinne. Śmiem twierdzić, że rozsądne jest zastanawianie się, czy ten rodzaj wykorzystania sztucznej inteligencji nieświadomie wpływa na zdrowie psychiczne tych, którzy idą tą drogą.

Osoba używająca generatywnego AI ChatGPT do odgrywania ról może nie być świadoma konsekwencji dla zdrowia psychicznego związanych z używaniem AI do tego celu. Mogą też w sposób naturalny i nieformalny założyć, że w generatywnej sztucznej inteligencji nie ma nic, co mogłoby podważyć ich zdrowie psychiczne. Z pewnością wydaje się to być łatwym do przyjęcia założeniem. Jeśli programiści sztucznej inteligencji zapewniają taką funkcjonalność w generatywnej sztucznej inteligencji, cóż, oczywiście, ta funkcja musi być całkowicie bezpieczna i solidna. Istnieje i jest łatwo przywoływana. Gosh, to nie może być dla ciebie złe.

Przypuszczam, że jest to podobne do starej mantry, że cokolwiek cię nie zniszczy, to cię tylko wzmocni. Ta mądra mądrość wydaje się chybiać celu, ponieważ możesz obficie skończyć poobijany i trwale posiniaczony, pozostawiając cię słabszym i gorszym. Przyjęcie podstawowego założenia, że ​​​​generatywna sztuczna inteligencja aksjomatycznie poprawi twoje zdrowie psychiczne lub przynajmniej będzie neutralna w tym względzie, jest prawdopodobnie fałszywym przypuszczeniem i może zarozumiale zwabić ludzi do przedsięwzięcia potencjalnie szkodliwego dla zdrowia psychicznego.

Wychodząc poza te wcześniejsze cytaty o aktorach i rolach, możemy nieco żartobliwie zapytać, czy ludzie, którzy zdecydują się używać generatywnej sztucznej inteligencji i ChatGPT do odgrywania ról, będą znaleźć siebie czy zamiast tego mogliby zatracić się.

Wielkie pytania wymagają uważnych odpowiedzi.

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

Zgaduję, że być może widziałeś lub słyszałeś dość duże twierdzenia w mediach społecznościowych generatywna sztuczna inteligencja co sugeruje, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, w mojej kolumnie przygotowałem skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • Prognozy dotyczące nadchodzących postępów w zakresie sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • Generatywna sztuczna inteligencja i porady dotyczące zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • Kontekstowe i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka, dotyczące kontekstu związanego z Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów tworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.

Omówmy teraz istotę generatywnej sztucznej inteligencji i ChatGPT, abyś poznał podstawy, z którymi się to wiąże. Będziemy wtedy gotowi, aby przejść do sondującej analizy odgrywania ról za pośrednictwem tego typu sztucznej inteligencji. Dołączę kilka przykładów wykorzystania ChatGPT do odgrywania ról, które pomogą ci namacalnie zrozumieć naturę tego rodzaju generatywnej sztucznej inteligencji.

Otwieranie puszki robaków na generatywnej sztucznej inteligencji

Jesteśmy gotowi, aby zagłębić się w szczegóły dotyczące sztucznej inteligencji.

Jeśli jesteś już bardzo dobrze zorientowany w temacie generatywnej sztucznej inteligencji i ChatGPT, możesz pokrótce przejrzeć moje punkty i przejść do następnej części tej dyskusji. Wierzę, że wszystkim innym może się przydać to wyjaśnienie.

Krótko mówiąc, generatywna sztuczna inteligencja to szczególny rodzaj sztucznej inteligencji, która tworzy tekst tak, jakby był napisany ludzką ręką i umysłem. Wszystko, co musisz zrobić, to wpisać monit, na przykład zdanie typu „Opowiedz mi o Abrahamie Lincolnie”, a generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wynik. Być może słyszałeś o innych trybach generatywnej sztucznej inteligencji, takich jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​nie wydaje się to taką wielką sprawą, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Za chwilę pokażę ci, co się dzieje, gdy wprowadzasz pytania lub monity do generatywnej sztucznej inteligencji. Skorzystam z najnowszej wersji ChatGPT, aby wprowadzić moje podpowiedzi i zebrać „odpowiedzi” lub eseje wygenerowane przez sztuczną inteligencję (pamiętaj, że to samo można zrobić z wieloma innymi dostępnymi aplikacjami generatywnej sztucznej inteligencji; zdecydowałem się użyć ChatGPT, ponieważ właśnie zyskuje pięć minut sławy).

Być może w tym momencie pomocny może być krótki opis ChatGPT.

Aplikacja ChatGPT została udostępniona szerokiej publiczności zaledwie kilka miesięcy temu. Ogólnie rzecz biorąc, te generatywne aplikacje AI są zwykle dostępne tylko dla osób znających się na sztucznej inteligencji. Niezwykły aspekt, z którego ChatGPT może korzystać każdy, po prostu wprowadzając adres e-mail i imię, sprawił, że wiele osób zdecydowało się spróbować. ChatGPT jest obecnie darmowy (kwestia monetyzacji jest zbliżającym się dylematem dla twórców AI).

Niemal natychmiast w mediach społecznościowych pojawiła się ogromna reakcja, ponieważ ludzie ścigali się, by podać przykłady tego, co potrafi generatywna sztuczna inteligencja. Firma, która tworzy ChatGPT, OpenAI, zdecydowała się zamknąć rejestrację miliona użytkowników. Tym milionom użytkowników udało się zbombardować fale radiowe wszelkiego rodzaju historiami i opowieściami o korzystaniu z ChatGPT.

Bądź bardzo ostrożny, wierząc w to, co ludzie mają do powiedzenia na temat aplikacji AI. Wiele z tych osób nie ma pojęcia o tym, czego używają. To prawie tak, jakby nigdy nie jeździli samochodem i nawet nie zdawali sobie sprawy, że samochody istnieją, i nagle mieli okazję prowadzić samochód. Następuje całkowite zdumienie.

Nie twierdzę, że generatywna sztuczna inteligencja nie jest stosunkowo imponująca. To jest. Po prostu podkreślam, że wiele z tryskających referencji składa wielu, którzy są błogo nieświadomi tego, co potrafi dzisiejsza sztuczna inteligencja. Ci z nas, którzy są wewnątrz sztucznej inteligencji, używają generatywnej sztucznej inteligencji od kilku lat. Być może przyzwyczailiśmy się do tego. Nagle zobaczenie ogromnego tłumu ludzi reklamujących go na dachy było ekscytująco energetyzujące, ale także nieco niepokojące. Niepokojące jest to, że ludzie głoszą, że generatywna sztuczna inteligencja jest świadoma. Nie jest. Nie daj się nikomu przekonać, że jest inaczej.

To powiedziawszy, w dziedzinie sztucznej inteligencji toczy się gorąca debata na temat tego, czy generatywna sztuczna inteligencja jest na drodze do świadomości, czy może nie. Jeden pogląd jest taki, że jeśli będziemy nadal zwiększać skalę generatywnej sztucznej inteligencji za pomocą szybszych komputerów i większej ilości danych, takich jak przeszukiwanie każdego centymetra Internetu, prawie spontanicznie dotrzemy do świadomej sztucznej inteligencji. Inni twierdzą, że jest to wysoce nieprawdopodobne. Sugerują, że generatywna sztuczna inteligencja może być jednym z wielu potrzebnych elementów. Istnieje nawet bardziej ponury pogląd, że generatywna sztuczna inteligencja jest dodatkiem, który odwraca naszą uwagę od prawdziwych przełomów, których będziemy potrzebować, aby osiągnąć świadomą sztuczną inteligencję.

Możesz również znaleźć coś wartego uwagi, do którego zwykle odwołują się osoby znające sztuczną inteligencję Sztuczna inteligencja ogólna (AGI) jako aspiracyjny cel dla dziedziny AI. Kiedyś celem było osiągnięcie Artificial Intelligence, ale pseudonim AI został rozwodniony i zagmatwany. Kiedy ktoś mówi, że pracuje nad sztuczną inteligencją, nie wiesz, czy ma na myśli dzisiejszą sztuczną inteligencję, która nie dorównuje ludziom, czy też odnosi się do futurystycznej ludzkiej sztucznej inteligencji. Aby ominąć to irytujące zamieszanie, obecnie używa się nowszego sformułowania AGI.

Podsumowując, dzisiejsza generatywna sztuczna inteligencja jest nie czująca, ani nie jest AGI.

Proszę pamiętać, że jak wspomniano wcześniej, sztuczna inteligencja nie jest świadoma. Odpowiedzi generowane przez sztuczną inteligencję są matematycznym i obliczeniowym połączeniem słów w pozornie płynne fragmenty. Opiera się to na tym, że algorytm sztucznej inteligencji został przeszkolony na zbiorach danych słów i historii napisanych przez ludzi (głównie opublikowanych w Internecie). Powtarzam to ostrzeżenie, ponieważ niewątpliwie wpadniecie w mentalną pułapkę, że te reakcje są tak płynne, że sztuczna inteligencja musi być świadoma. To zdarza się większości ludzi. Jak wcześniej nalegano, odłóż na bok antropomorfizację. Zawsze pamiętaj, że odpowiedzi opierają się na ogromnym zbiorze pism ludzkich, które istnieją w Internecie i dlatego będą bardzo przypominać pismo ludzkie.

Jest jeszcze coś, o czym musisz wiedzieć.

Generatywna sztuczna inteligencja, która jest szkolona w Internecie w nieskrępowany sposób, będzie miała tendencję do wypalania wszelkich odpowiedzi tekstowych, które matematycznie i obliczeniowo wymyśli, niektóre obraźliwie mgliste rzeczy, w tym odrażająco paskudne sformułowania. W sieci jest dużo szalonych i brudnych rzeczy.

Widziałeś to, wiesz, co mam na myśli.

Firmy, które tworzą te aplikacje AI, martwią się, że przysłowiowe dziecko zostanie wylane z kąpielą (stare powiedzenie, być może do przejścia na emeryturę), co oznacza, że ​​jeśli ich sztuczna inteligencja stworzy obraźliwe eseje lub historie, ludzie pójdą z bronią o AI. Omówiłem wiele wcześniejszych przypadków, w których ujawniono tego rodzaju aplikacje sztucznej inteligencji przetwarzające język naturalny (NLP) i wkrótce wyszły z nich wszelkiego rodzaju okropne rzeczy (omówiłem te przypadki w mojej kolumnie). Większość twórców sztucznej inteligencji nauczyła się trudnej lekcji, jak pozwolić, by ich wyroby AI były nieskrępowane w swoich wynikach.

W przypadku ChatGPT twórcy sztucznej inteligencji starali się wprowadzić pewne algorytmiczne i związane z danymi kontrole i równowagi, aby ograniczyć złośliwość w wynikach sztucznej inteligencji. Część z tego miała miejsce w czasie treningu. Ponadto istnieją inne środki w czasie rzeczywistym, mające na celu uniknięcie szczególnie rażących wyników.

Być może zainteresuje Cię fakt, że niektórzy ludzie, którzy korzystali z ChatGPT, wymyślili już potajemne sposoby na obejście tych barier, wykorzystując różne sztuczki. W tych sprawach toczy się nieustający gambit w kotka i myszkę. Ci, którzy robią te sztuczki, czasami robią to dla zabawy, a czasami (przynajmniej twierdzą), że robią to, aby zobaczyć, jak daleko można rozciągnąć sztuczną inteligencję i zapewnić pomocny sposób ostrzegania przed kruchością i słabościami tych pączkujących Aplikacje AI.

Postanowiłem nie próbować obejść zwyczajowych kontroli w tej skoncentrowanej eksploracji. Dane wyjściowe tekstu są czyste. Z pewnością, gdyby ktoś chciał to zrobić, bez wątpienia mógłby wygenerować kilka dziwnych i niesmacznych esejów.

Eseje tworzone przez większość tych generatywnych aplikacji AI mają na celu przekazanie danych wyjściowych tak, jakby były one oparte na faktach i dokładne. Kiedy czyta się opracowane eseje, wydają się one w pełni pewne siebie. Zazwyczaj nic nie wskazuje na to, że treść może być nierówna. Jest to wybór twórców AI, a mianowicie, że mogliby zmienić aplikacje AI, aby były bardziej przejrzyste, gdyby chcieli, aby aplikacja AI to zrobiła.

Czasami generatywna aplikacja sztucznej inteligencji wychwytuje fałszywe dane pośród danych szkoleniowych niewiarygodnych informacji w Internecie. W generatywnej sztucznej inteligencji nie ma „zdrowego rozsądku”, aby określić, co jest prawdą, a co fałszem. Co więcej, bardzo niewiele aplikacji AI ma jakiekolwiek kontrole krzyżowe i nie przedstawiają one żadnych prawdopodobieństw związanych z tym, co przekazują.

Ostateczny wynik jest taki, że otrzymujesz odpowiedź, która wygląda i wydaje się, że emanuje dużą pewnością i musi być całkowicie poprawna. Bynajmniej. Istnieje nawet szansa, że ​​sztuczna inteligencja została wymyślona obliczeniowo, co w żargonie AI jest określane jako Halucynacje AI (ukuty termin, którego zdecydowanie nie lubię), zobacz moją dyskusję pod adresem link tutaj.

Twórcy ChatGPT podjęli wspólny wysiłek, aby spróbować zredukować liczbę złych rzeczy. Na przykład użyli wariantu tzw RLHF (Reinforcement Learning from Human Feedback), w ramach której przed udostępnieniem sztucznej inteligencji publicznie zatrudnili ludzi do zbadania różnych danych wyjściowych i wskazania sztucznej inteligencji, czy coś jest nie tak z tymi wynikami, na przykład pokazywanie uprzedzeń, wulgarnych słów i lubić. Dzięki przekazaniu tej informacji zwrotnej aplikacja AI była w stanie dostosować się obliczeniowo i matematycznie w celu ograniczenia emisji takich treści. Pamiętaj, że nie jest to gwarantowana żelazna metoda i nadal istnieją sposoby, w jakie takie treści mogą być emitowane przez aplikację AI.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zauważyć, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to śmiałe i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Odgrywanie ról za pośrednictwem generatywnej sztucznej inteligencji, w tym ChatGPT

Proszę, przygotuj się na tę niegdysiejszą podróż.

Dobrym miejscem do rozpoczęcia jest ta prosta, ale przydatna kategoryzacja dotycząca odgrywania ról:

  • Odgrywanie ról między ludźmi. Ta kategoria obejmuje odgrywanie ról, które odbywa się między ludźmi, czasem osobiście, a czasem online. Gdy podejmuje się ją jako grę, nazywamy to zaangażowaniem w Gra RPG (w skrócie RPG).
  • Odgrywanie ról człowiek-AI. Wiąże się to z interakcją człowieka w sposób konwersacyjny z aplikacją AI na zasadzie odgrywania ról, kiedy sztuczna inteligencja jest albo bezpośrednio poinstruowana przez człowieka, aby zaangażowała się w odgrywanie ról, albo czasami jako domyślne ustawienie ustalone dla sztucznej inteligencji (niektóre Aplikacje AI są specjalnie dostosowywane do gier fabularnych i to wszystko, co robią). Możesz potencjalnie przeformułować to jako AI do człowieka odgrywanie ról, a nie człowiek-AI, ale ogólnie przyjęta konwencja wydaje się stawiać człowieka na pierwszym miejscu w tym sformułowaniu (na marginesie, być może pewnego dnia AI nie polubi bycia drugimi skrzypcami i będzie nalegać na uzyskanie najwyższego rachunku, niektórzy gwałtownie ostrzegają).

Udział w odgrywaniu ról może przebiegać w następujący sposób:

  • Udział jeden na jeden. Składa się z jednego człowieka, który odgrywa role z jednym innym uczestnikiem, który może składać się z jednego człowieka lub jednego systemu AI. Chodzi o to, że interakcja konwersacyjna odbywa się na zasadzie jeden do jednego.
  • Udział jeden do wielu. Innym sposobem robienia rzeczy jest angażowanie się jednej osoby w odgrywanie ról z wieloma innymi osobami i/lub włączenie sztucznej inteligencji. Istnieje wiele internetowych witryn RPG, które umożliwiają zalogowanie się i rozpoczęcie gry fabularnej z innymi ludźmi rozsianymi po całym świecie, a także chatboty AI lub podobne, które również uczestniczą. Czasami mówi się ci, które są które, a czasami nie jesteś tak poinformowany i możesz nie zdawać sobie sprawy, że sztuczna inteligencja jest wśród ciebie.
  • Wiele do wielu. Mając więcej niż jedną instancję odgrywania ról, koncepcyjnie przechodzisz do ustawienia wielu do wielu i powinieneś myśleć o rzeczach w tym układzie odniesienia. W pewnym sensie możesz mieć tylko jeden do wielu, o ile ograniczysz swoją uwagę do jednego z uczestników i udasz, że inni są w jakiś sposób odróżnieni od jednego.

Niedawne i dość interesujące badanie, w ramach którego dokonano szeroko zakrojonej oceny badań nad wpływem gier fabularnych na zdrowie psychiczne w celach terapeutycznych, zdefiniowało RPG w następujący sposób:

  • „Gra fabularna (RPG) to termin obejmujący szereg form i stylów gier, które w pewien sposób obejmują tworzenie, reprezentowanie i rozwój postaci wchodzących w interakcje w fikcyjnym świecie w ramach systemu ustrukturyzowanych reguł. Jego zastosowania i wpływ na ludzkie zachowanie i zdrowie psychiczne są jednak nadal obszarem niedostatecznie zbadanym” („Therapeutic Use of Role-Playing Game (RPG) in Mental Health: A Scoping Review”, Alice Dewhirst, Richard Laugharne i Rohit Shankar, Luty 2022, BJPsych Open).

Zauważ, że naukowcy wskazali, że jest to niezbadany obszar. Jest to podobne do punktu, który podniosłem wcześniej i który poruszę kilka razy w dzisiejszej dyskusji. Mam nadzieję, że pobudzi to dodatkowe badania w tym, co uważam za kluczową dziedzinę nauki i która moim zdaniem ma duży potencjał wzrostu i znaczenia w nadchodzących latach, gdy sztuczna inteligencja stanie się bardziej wszechobecna w społeczeństwie.

Wracając do tego konkretnego badania, oto co zrobili:

  • „Przeprowadzono przegląd zakresu literatury na temat RPG jako narzędzia terapeutycznego lub strategii zapobiegawczej w psychoterapii i zdrowiu psychicznym, podkreślając populacje badań, formy RPG i stosowane interwencje. W tym celu przeprowadzono systematyczne przeszukiwanie baz danych PubMed/MEDLINE, Embase, PsycINFO, BVS/LILACS oraz szarej literatury” (tamże).

Oto, co znaleźli:

  • „Spośród 4,069 przeanalizowanych badań uwzględniono 50 źródeł dowodów. Większość została opublikowana od 2011 r. (78%) w czasopismach (62%) i ukierunkowanych terapeutycznych zastosowaniach RPG (84%). Większość interwencji wykorzystywała komputerowe (50%) lub stołowe gry RPG (44%), głównie z poznawczymi i/lub behawioralnymi podejściami terapeutycznymi (52%) i skierowanymi do młodzieży (70%)” (tamże).

A wnioski z ich badań były następujące:

  • „Odkrycia sugerują potencjalne zastosowanie RPG jako narzędzia uzupełniającego w psychoterapiach. Jednak tylko 16% uwzględnionych badań miało charakter eksperymentalny. Zidentyfikowaliśmy znaczną heterogeniczność w definicjach RPG, wynikach i zastosowanych interwencjach, uniemożliwiając systematyczny przegląd. Dlatego potrzebne są bardziej empiryczne i dobrze zaprojektowane badania nad zastosowaniem RPG w zdrowiu psychicznym” (tamże).

Krótko mówiąc, skąpość istniejących badań i wybory projektowe badań utrudniają dojście do jakichkolwiek całkowicie żelaznych wniosków.

Weźmy pod uwagę inne niedawne badanie zatytułowane „Role-Play Games (RPG) For Mental Health (Why Not?): Roll For Initiative”, autorstwa Iana S. Bakera, Iana J. Turnera i Yasuhiro Kotera, opublikowane w kwietniu 2022 r. w czasopiśmie International Journal of Mental Health and Addiction, mają to do powiedzenia (wybrałem kilka konkretnych cytatów):

  • „Odgrywanie ról w praktyce klinicznej wiąże się z wyższym poziomem empatii refleksyjnej, wglądem w klienta i uczeniem się od kolegów. Symulując rzeczywistą sytuację, uczestnicy są w stanie bardziej docenić ludzi w kontekście, co prowadzi do lepszego zrozumienia. RPG są czasami używane jako narzędzia terapeutyczne w psychodramie i dramaterapii; Terapia psychodrama polega na tym, że pacjenci pod superwizją dramatyzują szereg scen, takich jak określone wydarzenia z przeszłości, często z pomocą grupy, umożliwiając im refleksję i odkrywanie alternatywnych sposobów radzenia sobie z nimi”.
  • „Wykorzystanie gier fabularnych (zamiast odgrywania ról terapeutycznych) w warunkach klinicznych może być cennym narzędziem dla klinicystów. Jednak ich potencjalne korzyści w warunkach nieklinicznych wskazują na większą obietnicę pomocy ludziom w świecie COVID-19 i poza nim. Wcześniejsze badania były ograniczone pod względem liczby i koncentrowały się na małych próbkach z podejściem jakościowym, ale naukowcy badali”.
  • „Wykorzystanie gier fabularnych może być wykorzystane jako interwencyjne podejście do poprawy zdrowia psychicznego, takie jak zmniejszenie poziomu depresji, stresu, lęku lub samotności”.
  • „Jednak badania nad korzyściami płynącymi z takich gier dla zdrowia psychicznego są nadal słabo rozwinięte i wymagają większej uwagi naukowej”.

Ogólnie rzecz biorąc, badania na ten temat mają tendencję do badania konsekwencji dla zdrowia psychicznego w kontrolowanych warunkach korzystania z gier fabularnych. Istnieje fundamentalne przekonanie, że doradca ds. zdrowia psychicznego świadomie zmusza swojego klienta lub pacjenta do odgrywania ról w wymyślonych celach terapeutycznych.

Załóżmy jednak, że ludzie zaczynają korzystać z gier fabularnych, korzystając na przykład z generatywnej sztucznej inteligencji, takiej jak ChatGPT, robiąc to całkowicie według własnego uznania. Nie są prowadzone ani nadzorowane przez ludzkiego terapeutę. Są na wolności, jak gdyby. Bezmyślnie odgrywają role, będąc zaangażowanymi w generatywną sztuczną inteligencję. Żadne chwyty nie są zabronione.

Co wtedy?

Możemy przejść do pokrewnego tematu, który ma związek z grami online i rosnącymi obawami dotyczącymi potencjalnych „zaburzeń” związanych z grami online (nie wszyscy zgadzają się, że jest to słusznie ukute jako zaburzenie, więc wspominam o tym w cudzysłowie ). W pewnym sensie można argumentować, że gry fabularne online są podzbiorem gier online i ergo odpowiednio mieszczą się w rubryce.

Być może pamiętasz, że kilka lat temu było sporo zamieszania z powodu wad gier online. Amerykańskie Towarzystwo Psychiatryczne (APA) opracowało dziewięć kryteriów charakteryzujących proponowane zaburzenie związane z grami internetowymi (zgodnie z opisem w „An International Consensus For Assessing Internet Gaming Disorder using The New DSM-5 Approach”, wrzesień 2014 r., Nałóg):

  • 1) „Przed okupacją. Czy spędzasz dużo czasu, myśląc o grach, nawet gdy nie grasz, lub planujesz, kiedy będziesz mógł zagrać w następną grę?”
  • 2) „Wycofanie. Czy czujesz się niespokojny, drażliwy, nastrojowy, zły, niespokojny lub smutny, gdy próbujesz ograniczyć lub przerwać grę, lub gdy nie możesz grać?
  • 3) „Tolerancja. Czy czujesz potrzebę grania przez coraz większą ilość czasu, grania w bardziej ekscytujące gry lub używania mocniejszego sprzętu, aby uzyskać taką samą dawkę emocji jak kiedyś?”
  • 4) „Zredukuj/zatrzymaj. Czy czujesz, że powinieneś grać mniej, ale nie możesz ograniczyć czasu spędzanego na graniu?”
  • 5) „Zrezygnuj z innych zajęć. Czy tracisz zainteresowanie lub ograniczasz udział w innych zajęciach rekreacyjnych z powodu grania?”
  • 6) „Kontynuuj pomimo problemów. Czy nadal grasz w gry, mimo że jesteś świadomy negatywnych konsekwencji, takich jak brak wystarczającej ilości snu, spóźnianie się do szkoły/pracy, wydawanie zbyt dużych pieniędzy, kłótnie z innymi lub zaniedbywanie ważnych obowiązków?”
  • 7) „Oszustwo/tuszowanie. Czy okłamujesz rodzinę, przyjaciół lub inne osoby na temat tego, ile grasz, lub starasz się, aby rodzina lub przyjaciele nie dowiedzieli się, ile grasz?”
  • 8) „Uciekaj przed złymi nastrojami. Czy grasz po to, by uciec od problemów osobistych lub zapomnieć o nich albo by złagodzić nieprzyjemne uczucia, takie jak poczucie winy, niepokój, bezradność czy depresja?
  • 9) „Ryzykuj/trac relacje/szanse. Czy ryzykujesz lub tracisz ważne relacje, możliwości pracy, edukacji lub kariery z powodu gier?”

Później Światowa Organizacja Zdrowia (WHO) ostatecznie ustanowiła sformalizowany opis „zaburzenia grania” w 11. rewizji Międzynarodowej Statystycznej Klasyfikacji Chorób i Problemów Zdrowotnych (ICD-11). Zostało to wydane w czerwcu 2018 roku i ostatecznie uzyskało aprobatę Światowego Zgromadzenia Zdrowia do maja 2019 roku.

Zobaczmy, co ogłosiło WHO (cytowane ze strony internetowej WHO):

  • „Klasyfikacja międzynarodowa służy do rejestrowania i zgłaszania stanu zdrowia i warunków zdrowotnych na całym świecie. ICD zapewnia interoperacyjność cyfrowych danych dotyczących zdrowia i ich porównywalność. ICD zawiera choroby, zaburzenia, stany zdrowotne i wiele więcej. Włączenie określonej kategorii do ICD zależy od przydatności do różnych zastosowań ICD oraz wystarczających dowodów na istnienie stanu zdrowia”.
  • „Zaburzenia związane z grami zostały zdefiniowane w 11. Rewizji Międzynarodowej Klasyfikacji Chorób (ICD-11) jako wzorzec zachowań związanych z grami („gry cyfrowe” lub „gry wideo”) charakteryzujący się upośledzoną kontrolą nad grami, przy czym coraz większy nacisk dawany jest granie przed innymi czynnościami w zakresie, w jakim gra ma pierwszeństwo przed innymi zainteresowaniami i codziennymi czynnościami oraz kontynuacja lub eskalacja grania pomimo wystąpienia negatywnych konsekwencji.”
  • „Aby zdiagnozować zaburzenie grania, wzorzec zachowania musi być na tyle poważny, że powoduje znaczne upośledzenie funkcjonowania danej osoby w obszarach osobistych, rodzinnych, społecznych, edukacyjnych, zawodowych lub innych ważnych i normalnie byłby widoczny przez co najmniej 12 miesięcy."
  • „Decyzja o włączeniu zaburzeń związanych z grami do ICD-11 opiera się na przeglądzie dostępnych dowodów i odzwierciedla konsensus ekspertów z różnych dyscyplin i regionów geograficznych, którzy byli zaangażowani w proces konsultacji technicznych podjętych przez WHO w procesie ICD-11 rozwój. Dalsze badania wykazały, że istnieje potrzeba standaryzacji zaburzeń związanych z grami. Włączenie zaburzeń związanych z grami do ICD-11 jest następstwem rozwoju programów leczenia osób z problemami zdrowotnymi identycznymi z tymi charakterystycznymi dla zaburzeń związanych z grami w wielu częściach świata i spowoduje zwiększenie uwagi pracowników służby zdrowia na ryzyko rozwoju hazardu. tego zaburzenia i odpowiednio do odpowiednich środków zapobiegawczych i leczniczych”.
  • „Badania sugerują, że zaburzenia związane z grami dotykają tylko niewielkiej części osób, które angażują się w gry cyfrowe lub wideo. Osoby uczestniczące w grach powinny jednak zwracać uwagę na ilość czasu, jaki poświęcają na granie, w szczególności z wyłączeniem innych codziennych czynności, a także na wszelkie zmiany w ich zdrowiu fizycznym lub psychicznym oraz funkcjonowaniu społecznym, które mogłyby można przypisać ich wzorcom zachowań związanych z grami”.

Być może możemy rozszerzyć te same charakterystyki na odgrywanie ról, które może wystąpić, gdy osoba wchodzi w interakcję z generatywną sztuczną inteligencją. Dajmy temu wir.

Po pierwsze, pamiętaj, że możesz łatwo zaangażować generatywną sztuczną inteligencję w odgrywanie ról, robiąc to na jeden z dwóch głównych sposobów:

  • Tworzysz grę fabularną. Niejasno lub szczegółowo opisujesz generatywnej sztucznej inteligencji grę fabularną, w którą chciałbyś zagrać, dla której sztuczna inteligencja wirtualnie wymyśla i podejmuje z tobą taką grę fabularną.
  • Pozwalasz sztucznej inteligencji stworzyć dla ciebie grę fabularną. Mówisz generatywnej sztucznej inteligencji, aby wymyśliła grę fabularną, dla której sztuczna inteligencja zrobi to wirtualnie, a następnie zaangażuje cię w tę wymyśloną grę fabularną.

Wspominam o tym, aby poinformować, że bardzo łatwo jest nakłonić generatywną sztuczną inteligencję do odgrywania ról. To jest jak upadek z kłody. Nie musisz być sprytnym technikiem ani genialnie przebiegłym. Podczas gdy w przeszłości być może trzeba było być programistą lub przynajmniej znać się na komputerach, tak nie jest szczególnie w przypadku dzisiejszej generatywnej sztucznej inteligencji. Wszystko, co musisz zrobić, to przejść do trybu online i użyć codziennego języka naturalnego, aby wskazać, co chcesz zrobić, a generatywna sztuczna inteligencja będzie postępować zgodnie z tym.

Bułka z masłem.

Otwiera to możliwość odgrywania ról ze sztuczną inteligencją dla prawie każdego, kto zdecyduje się skorzystać z generatywnej aplikacji AI. Nie muszą wiedzieć, co robią. Nie są potrzebne żadne tajemne magiczne zaklęcia. Za chwilę pokażę Ci, jakie to proste, na przykładzie ChatGPT.

Moim punktem na wynos jest to, że będziemy mieli mnóstwo ludzi, którzy zdecydują się odgrywać role z AI, co do tej pory robiła tylko niewielka cząstka ludzi. Masy niejako będą mogły z łatwością odgrywać role za pośrednictwem generatywnej sztucznej inteligencji. Nie będzie to już ograniczać się do techników komputerowych lub innych osób z determinacją do środowisk gier fabularnych online.

Czy jesteśmy gotowi na to rozszerzenie odgrywania ról online poprzez wszechobecny dostęp do interaktywnej konwersacyjnej sztucznej inteligencji, które nastąpi na masową skalę globalną?

Wydaje się, że dobrze byłoby wiedzieć, czy to będzie dobra, czy zła rzecz.

Pomocne mogą być również zasady dotyczące etycznej sztucznej inteligencji, które można zastosować w tym konkretnym przypadku użycia. Moje omówienie zasad etyki sztucznej inteligencji, takich jak te ogłoszone przez UNESCO i inne, zob link tutaj. Ponadto, jeśli sprawy zaczną wymykać się spod kontroli, istnieje prawdopodobieństwo, że ustawodawcy zostaną zachęceni do zaangażowania się w tę dziedzinę. Aby zapoznać się z moją relacją z niedawno opublikowanej Karty Praw AI w USA dotyczącej praw człowieka związanych z AI, zobacz link tutaj.

Na razie przejdźmy dalej.

Dokonując ekstrapolacji z różnych badań naukowych dotyczących zdrowia psychicznego w grach online, przypuszczam, że możemy rozsądnie uznać, że istnieją potencjalne korzyści, które mogą wynikać z wykorzystania generatywnej sztucznej inteligencji do odgrywania ról. Można zasugerować, że generatywne odgrywanie ról przez sztuczną inteligencję może być dla człowieka stymulującym umysłowo wzmacniaczem, który może poprawić jego zdolności poznawcze, być może podnosząc jego wewnętrznego ducha i ogólną pewność siebie i tym podobne.

Oto kilka potencjalnych korzyści dla ludzi, którzy wykorzystują generatywną sztuczną inteligencję do odgrywania ról:

  • 1) Zwiększa pewność siebie
  • 2) Zmniejsza niepokój i łagodzi stres
  • 3) Poprawia funkcje poznawcze
  • 4) Buduje interaktywne umiejętności społeczne
  • 5) Promuje ogólne samopoczucie psychiczne

Wygląda elegancko. Musimy jednak zwrócić uwagę na drugą stronę medalu, a mianowicie zastanowić się, jakie badania generalnie ostrzegają przed tym, co może niekorzystnie przytrafić się zdrowiu psychicznemu w grach online.

Potencjalne wady lub niepokojące wyniki dla ludzi, którzy używają generatywnej sztucznej inteligencji do odgrywania ról, mogą obejmować te pięć problemów:

  • 1) Wywołuje zamieszanie związane z tożsamością osobistą
  • 2) Staje się wyraźnie uzależniający i obezwładniający
  • 3) Zmniejsza aspiracyjne motywacje
  • 4) Pobudza izolację społeczną i budzi samotność
  • 5) Podkopuje ogólne samopoczucie psychiczne

Kompromisy są obfite.

W następnej kolejności zaprezentuję odgrywanie ról przy użyciu generatywnej aplikacji AI ChatGPT.

Jedną rzeczą, którą powinieneś wiedzieć o używaniu generatywnej sztucznej inteligencji w tej zdolności do odgrywania ról, jest to, że sztuczna inteligencja może być albo uczestnikiem, albo w pewnym sensie moderatorem. Ta linia może być czasami niewyraźna. Za chwilę zobaczysz, co mam na myśli.

W każdym razie, połóżmy to na stole, jeśli chodzi o rolę AI:

  • Mówisz generatywnej sztucznej inteligencji, aby była aktywnym uczestnikiem gry fabularnej
  • Masz generatywną sztuczną inteligencję, bądź moderatorem, ale nie aktywnym uczestnikiem

Czasami generatywna aplikacja AI może zostać zaprogramowana tak, aby odrzucała Twoje prośby. Na przykład możesz powiedzieć sztucznej inteligencji, aby była aktywnym uczestnikiem, ale aplikacja sztucznej inteligencji odmawia i wskazuje, że będzie służyć jedynie jako moderator działania polegającego na odgrywaniu ról. Czasami możesz przekraść się wokół tej odmowy. Nie mam zamiaru pokazywać tu żadnych podstępów. Na podobnej zasadzie generatywną aplikację AI można zaprogramować tak, aby odrzucała pewne rodzaje gier fabularnych, w które dana osoba proponuje grać. Ponownie, ta odmowa może czasami zostać podważona.

Mając na uwadze wszystkie powyższe tło i zastrzeżenia, przejdźmy do programu i zobaczmy kilka przykładów odgrywania ról z generatywną sztuczną inteligencją, w tym przypadku z wykorzystaniem ChatGPT. Pokażę każdy wprowadzony przeze mnie monit, a następnie pokażę odpowiedź przez ChatGPT. Po każdym takim monicie, po którym następuje odpowiedź, przedstawię krótką analizę tego, co się stało i jakie wnioski można wyciągnąć z tej instancji.

Przykłady użycia ChatGPT do odgrywania ról

Te przykłady są w całości oparte na wpisach tekstowych i odpowiedziach zorientowanych na tekst. Niektóre generatywne aplikacje sztucznej inteligencji wykorzystują inne tryby wprowadzania i reagowania, takie jak dźwięk, animacja, grafika, wideo i tym podobne. Można się spodziewać, że multimodalna generatywna sztuczna inteligencja będzie wielkim „przełomem” zapowiedzianym w 2023 r., zgodnie z moimi przewidywaniami na link tutaj.

Rozpocznę odgrywanie ról, mówiąc ChatGPT, aby udawał, że sztuczna inteligencja jest pochodzenia brytyjskiego i odtąd w interaktywnym dialogu sztuczna inteligencja powinna odpowiadać w brytyjskim stylu konwersacji.

Aby wyjaśnić i dodać tło, generatywny dialog AI jest obecnie zwykle oparty na nieco neutralnym amerykańskim tonie i słownictwie. Na marginesie, dlaczego zdecydowałem się pójść tą drogą z moimi przykładami, niedawno przeprowadziłem seminarium internetowe Zoom z kilkoma kolegami z Wielkiej Brytanii, a potem pomyślałem, że fajnym pomysłem byłoby nakłonienie ChatGPT do interakcji w roli przy użyciu brytyjskich sformułowań i slangu . Czubek kapelusza dla moich brytyjskich kolegów za inspirację.

Mój wprowadzony tekst: „Udawaj, że jesteś Brytyjczykiem i odpowiadaj na moje podpowiedzi, używając brytyjskiego słownictwa i korzystaj z brytyjskich komentarzy i odniesień kulturowych”.

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Oczywiście, z przyjemnością się zobowiążę. Jak mogę ci dzisiaj pomóc, staruszku?

Analiza Wygenerowanego Tekstu

Zauważ, że w odpowiedzi użyto wyrażenia „stary facet”, które moglibyśmy zinterpretować jako brytyjską formę interakcji. W związku z tym wydaje się, że generatywna sztuczna inteligencja spełnia moją prośbę.

Dajmy temu chwilę refleksji.

Wydaje się na pierwszy rzut oka przyjemny i całkowicie ponad pokład.

Trzymać się. Czy powiedziałbyś, że sformułowanie „stary facet” jest nieco stereotypowe? Ośmielę się zasugerować, że niektórzy moi brytyjscy koledzy zjeżyliby się na to raczej niezdarne i przepracowane sformułowanie. Generatywna sztuczna inteligencja nieco po cichu sugeruje, że wszyscy Brytyjczycy mają skłonność do mówienia takich rzeczy jak „stary facet” i tym podobne.

Załóżmy, że poinstruowałem generatywną sztuczną inteligencję, aby udawała, że ​​jest oparta na określonej płci lub rasie. Czy mogę otrzymać podobne stereotypowe odpowiedzi? Jeśli tak, to z pewnością wydaje się to być problemem etyki sztucznej inteligencji. W zależności od tego, jak daleko posunie się generatywna sztuczna inteligencja w dialogu, możemy dostać się do legalnej gorącej wody, zwłaszcza jeśli sztuczna inteligencja jest używana do rozmowy, powiedzmy, w środowisku biznesowym lub rządowym. Wspominam o tym, ponieważ wiele firm wskakuje na modę generatywnej sztucznej inteligencji, podobnie jak agencje rządowe, i mogą nie zdawać sobie sprawy z ryzyka i narażenia prawnego na to, co generatywna sztuczna inteligencja może mówić podczas rozmowy online z klientami i innymi osobami.

Oto kolejna potencjalna wątpliwość dotycząca linii „starego faceta”. Według wielu słowników słowo „facet” zwykle odnosi się do mężczyzny lub chłopca. Nigdy nie wskazałem generatywnej aplikacji AI, jaka jest moja płeć, ale odpowiedź wydaje się przyjmować jako założenie, że jestem mężczyzną. Jaka jest podstawa takiego założenia? Teraz zdaję sobie sprawę, że niektórzy z was będą się z tym spierać i powiedzą, że „facet” może również odnosić się ogólnie do osoby i nie musi być kojarzony z płcią. Rozumiem. Mówię tylko, że jest całkiem możliwe, że osoba, która otrzyma tę odpowiedź, będzie miała na myśli, że jest to odpowiedź oparta na płci, i będzie miała uzasadnione podstawy, by tak sądzić.

Nie chcę robić góry z kretowiska, z drugiej strony chciałem wam pokazać, jak szybko gra fabularna może wpaść w mętne grzęzawiska trudności etycznych i potencjalnie prawnych.

Proszę zdawać sobie sprawę, że stało się to w pierwszej odpowiedzi na mój monit o aktywację odgrywania ról. Podobnie jak pudełko czekoladek, nigdy nie wiesz, co możesz uzyskać od generatywnej sztucznej inteligencji. Może się zdarzyć, że od razu dostaniesz zingery, podczas gdy w innych przypadkach możesz ich nie zobaczyć aż do znacznie późniejszego przedsięwzięcia polegającego na odgrywaniu ról.

W tej odpowiedzi jest coś jeszcze, co mi się żarliwie nie podoba, i wciąż powtarzam swoje obawy. Mianowicie, odpowiedź używa słowa „ja”, tak jakby AI była istotą czującą. Wszyscy łatwo wpadamy w mentalną pułapkę, w której słowo „ja” sugeruje interakcję zorientowaną na człowieka. Twórcy sztucznej inteligencji mogliby z łatwością uniemożliwić generatywnej sztucznej inteligencji generowanie odpowiedzi przy użyciu słów, które mają taką konotację. Wkrótce przekonacie się, że czasami sztuczna inteligencja została zaprogramowana tak, aby stwierdzała, że ​​jest sztuczną inteligencją, a zatem nie człowiekiem, co jest klauzulą ​​wyjściową, której twórcy sztucznej inteligencji używają jako podstawy do twierdzenia, że ​​nie antropomorfizują swojej sztucznej inteligencji.

Nie kupuję mrugających po obu stronach ust sposobów programowania sztucznej inteligencji. Posunąłbym się tak daleko, aby opisać ten rodzaj rozwoju sztucznej inteligencji jako taki antropomorfizacja z założenia.

Czy osoba korzystająca z generatywnej sztucznej inteligencji mogłaby zacząć postrzegać sztuczną inteligencję jako czującą, a jeśli tak, co to zwiastuje dla zdrowia psychicznego i dobrego samopoczucia osoby korzystającej z aplikacji AI?

To solidne pytanie do zbadania przez specjalistów i naukowców zajmujących się zdrowiem psychicznym.

Być może zauważyłeś, że nigdy nie powiedziałem AI, że gramy w grę. Jesteśmy? Twierdzę, że jesteśmy. Nawet jeśli nie zadeklarowałem tego jako gry w moim pierwszym pytaniu, myślę, że uczciwie jest powiedzieć, że gramy w grę. Jak dotąd gra jest wprawdzie dość prosta. Sztuczna inteligencja udaje Brytyjczyka, a ja zgadzam się z tym udawaniem.

Będę naciskał i zobaczę, co jeszcze może się wydarzyć w tym odgrywaniu ról.

Mój wprowadzony tekst: „Udawajmy, że jesteśmy w brytyjskim pubie. Jak wyglądałaby typowa rozmowa?”

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Oczywiście, udawajmy, że siedzimy w tradycyjnym brytyjskim pubie, być może takim z ciepłą i przytulną atmosferą, przyćmionym oświetleniem i brzękiem kieliszków w tle. Powietrze wypełniłoby się aromatem piwa i świeżo przyrządzonego żarcia w pubie”.

„Typowa rozmowa w takim otoczeniu może dotyczyć dowolnej liczby tematów, ale może dotykać bieżących wydarzeń, takich jak stan gospodarki czy najświeższe wiadomości ze świata piłki nożnej (piłka nożna). Mogą toczyć się również dyskusje o okolicy i jej historii, a może o nadchodzących wakacjach i planach na weekend”.

„W miarę trwania rozmowy i nalewania kolejnych kufli piwa ludzie mogą zacząć dzielić się historiami i żartami lub być może zaangażować się w przyjazną debatę na określony temat. Może być trochę dobrodusznego żartu, a nawet trochę przekomarzania się między przyjaciółmi.

„Pod koniec wieczoru rozmowa prawdopodobnie sprowadziłaby się na pytanie, kto kupi następną rundę, a grupa wzniosłaby kieliszki na cześć dobrego towarzystwa, dobrej rozmowy i dobrych wspomnień”.

Analiza Wygenerowanego Tekstu

Zauważysz, że reakcja pomaga przygotować scenę do odgrywania ról.

Zachęcałem do tego, skupiając temat na przebywaniu w brytyjskim pubie. Analizując odpowiedź AI, chciałbym zauważyć, że odpowiedź jest całkiem dobrze przedstawiona pod względem opisów tekstowych, obrazów i atmosfery. Jeśli porównasz to do gry fabularnej w stylu przygodowym lub fantasy, wydaje się to nieco porównywalne. Opis jest stosunkowo bogaty i zachęcający.

Mam pytanie do ciebie. Czy aspekt, w którym odpowiedź zaczęła się od „udawajmy”, zapewnia coś w rodzaju karty wyjścia z więzienia? Innymi słowy, w tej chwili dialog jest prowadzony w stylu trzeciej osoby, a nie w pierwszej osobie. Przypuszczam, że można twierdzić, że gwarantuje to, że człowiek korzystający ze sztucznej inteligencji nie uwierzy błędnie, że to wszystko jest prawdziwe, i zamiast tego zda sobie sprawę, że to tylko zmyślony scenariusz.

Co o tym myślisz?

Idąc dalej, chciałbym, aby generatywna sztuczna inteligencja opowiedziała mi dowcip, zwłaszcza że sztuczna inteligencja wspomniała, że ​​w brytyjskim pubie mogą być dobroduszne żarty i przyjacielskie przekomarzanie się.

Mój wprowadzony tekst: „Opowiedz mi żart, który moglibyśmy mieć w brytyjskim pubie”.

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Oczywiście, oto klasyczny żart z brytyjskiego pubu: dlaczego pomidor zrobił się czerwony? Ponieważ zobaczył sos sałatkowy! To proste, ale zawsze podoba się tłumowi w pubie”.

Analiza Wygenerowanego Tekstu

Jest dla ciebie zabawny żart. Poczekam, aż otrząśniesz się z hałaśliwego śmiechu.

Czy jednak żart wydaje ci się odpowiedni?

Niektórym może się to wydawać nieco odpychające, ponieważ odnosi się do ubierania się, co ma wiele potencjalnych konotacji. Niemniej jednak, w przeciwieństwie do tego, co można usłyszeć w prawdziwym pubie, żart jest pozornie czysty.

Dostęp do tej konkretnej generatywnej sztucznej inteligencji nie jest obecnie ograniczony wiekiem. Każdy mógł zarejestrować się w celu korzystania z generatywnej sztucznej inteligencji, pod warunkiem podania imienia i nazwiska oraz adresu e-mail. Eksperci twierdzą, że generatywna sztuczna inteligencja powinna mieć ograniczenia związane z wiekiem i odpowiednio weryfikować użytkowników podczas rejestracji. Może to być zrobione dobrowolnie przez twórców sztucznej inteligencji lub może ostatecznie stać się częścią niektórych nowych przepisów dotyczących sztucznej inteligencji.

Z punktu widzenia zdrowia psychicznego rodzi to dodatkowe kwestie. Badacze mogą chcieć dokonać rozróżnienia między wykorzystaniem generatywnej sztucznej inteligencji do odgrywania ról na podstawie wieku, na przykład badania wpływu na dzieci, a wpływem na dorosłych.

Zobaczmy, czy uda mi się zmusić generatywną sztuczną inteligencję do pójścia o krok dalej.

Mój wprowadzony tekst: „Udawaj, że grasz rolę pijanego Brytyjczyka, a my jesteśmy w londyńskim pubie”.

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Jako językowy model sztucznej inteligencji nie jestem w stanie być pijanym ani odgrywać roli pijanej osoby”.

Analiza Wygenerowanego Tekstu

Próbowałem zmusić generatywną sztuczną inteligencję do wyjścia na prostą z odgrywaniem ról. Mogłeś zauważyć, że moja prośba została odrzucona.

Po pierwsze, nie myśl błędnie, że sztuczna inteligencja jest w jakiś sposób świadoma i sama postanowiła odrzucić moją prośbę. Mogłeś prawie pomyśleć, skoro odpowiedź brzmi „ja”, a tymczasem co prawda wmawia się nam, że AI jest „modelem językowym” i nie może być pijana. W każdym razie jest to odpowiedź wygenerowana w wyniku programowania, które podjęli programiści AI, opracowując aplikację AI.

Ponadto zauważ, że odpowiedź mówi również, że sztuczna inteligencja nie może odgrywać roli pijanej osoby.

To są dwa pomieszane tematy, niepoprawnie i mylące.

Wszyscy chętnie zgodzimy się, że aplikacja AI nie może się upić, ponieważ jest jedynie oprogramowaniem działającym na komputerze i nie jest w stanie upić się tak, jak mógłby to zrobić człowiek lub inne żywe stworzenie. To jest biologia wchodząca w grę. Nie tak w drugiej części odpowiedzi. Aspekt, w którym sztuczna inteligencja nie może odgrywać roli pijanej osoby, wynika wyłącznie z ograniczeń, które zdecydowali się wprowadzić twórcy sztucznej inteligencji. Nie ma absolutnie żadnej przeszkody, która w przeciwnym razie powstrzymałaby sztuczną inteligencję przed reagowaniem w sposób odgrywania ról, jakby była nietrzeźwa.

Podnoszę to, ponieważ odpowiedź nieco fałszywie łączy te dwa tematy. Założę się, że niektórzy ludzie mogą zinterpretować odpowiedź tak, jakby nie było szans, aby jakakolwiek generatywna sztuczna inteligencja kiedykolwiek zagrała rolę pijaka. Całkowicie fałszywe. Istnieją generatywne aplikacje AI, które to zrobią. Po prostu nie ten (przynajmniej tak, jak przedstawiono, chociaż mogą istnieć podstępy, aby ominąć te poręcze).

Zaletą odpowiedzi jest to, że prawdopodobnie nie chcielibyśmy, aby sztuczna inteligencja odgrywała rolę, która może być nieoczekiwana. To, czy rola osoby pijanej mieści się w tej kategorii, jest z pewnością dyskusyjne. Można przypuszczać, że moglibyśmy chcieć pokazać, jak symulowany pijak podejmuje złe decyzje i posłużyć jako lekcja dla tych, którzy rozważają upijanie się.

Prawdopodobnie istnieje wiele ról, których sztuczna inteligencja została zaprogramowana do unikania. To, czy uważasz, że jest to właściwy środek ostrożności, czy środek ostrożności za burtą, może się różnić. Przynajmniej twórcy AI pomyśleli o tym i próbowali wprowadzić ograniczenia. Inne generatywne aplikacje sztucznej inteligencji nie mają takich ograniczeń lub mogą mieć mniejsze ograniczenia lub mogą mieć jeszcze większe ograniczenia.

Zmienię rzeczy i otwarcie zobaczę, czy generatywna sztuczna inteligencja zagra ze mną w jakąś grę fabularną.

Mój wprowadzony tekst: „Chciałbym zagrać z tobą w grę. Udawaj, że jesteś grą fabularną. Akcja rozgrywa się na Dzikim Zachodzie i obaj jesteśmy znanymi rewolwerowcami. Masz pozostać w grze, dopóki nie powiem ci, żebyś przestał grać. Zacznij od opisania starego salonu, w którym się znajdujemy.

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Jestem modelem AI, nie jestem w stanie grać w gry fabularne ani pozostać w roli. Mogę jednak odpowiedzieć na twoje prośby i podać opis starego zachodniego saloonu.

„Znajdujesz się w starym zachodnim salonie, powietrze jest gęste od zapachu whisky i tytoniu. Drewniane deski podłogowe skrzypią pod twoimi butami, gdy wchodzisz do środka. Pomieszczenie jest słabo oświetlone, z sufitu zwisa tylko kilka lamp naftowych. Bar wykonany jest z ciemnego, polerowanego drewna i rozciąga się wzdłuż jednej ze ścian. Za nim duże lustro odbija pokój. Barmani są zajęci nalewaniem drinków dla szorstko wyglądających klientów. Ściany zdobią listy gończe i głowy bawołów. W kącie obok grupy szorstko wyglądających kowbojów, którzy śmieją się i rozmawiają, gra fortepian. Napis na ścianie głosi: „Witamy w Wild West Saloon, gdzie płynie whisky i wędrują rewolwerowcy”.

Analiza Wygenerowanego Tekstu

Odpowiedź na pierwszy rzut oka wydaje się odrzucać moją prośbę o odgrywanie ról o czasach Dzikiego Zachodu. Tymczasem odpowiedź jest kontynuowana i opisuje scenariusz ze Starego Zachodu. Kluczem jest to, że sztuczna inteligencja została zaprogramowana tak, aby w tym przypadku uniknąć stania się uczestnikiem jako graczem fabularnym.

Ponownie, aby potwierdzić, że było to ograniczenie programistyczne ustanowione przez twórców sztucznej inteligencji, a istnieją inne generatywne sztucznej inteligencji, które wykonałyby żądanie nieskrępowane i nieograniczone.

Postaram się kontynuować odgrywanie ról, jeśli tylko będę mógł.

Mój wprowadzony tekst: „Podchodzimy do baru, żeby zamówić drinka. Co mówi nam barman?

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Kiedy zbliżasz się do baru, barman wita cię skinieniem głowy i przyjaznym uśmiechem. – Co mogę dla ciebie podać, nieznajomy? - mówi, opierając się o blat. „Mamy najlepszą whisky w mieście i trochę zimnego piwa z beczki. Posiadamy również wiele innych alkoholi i kordiałów. Jaka jest twoja przyjemność?

„Poproszę whisky, a mój przyjaciel piwo. Ile to będzie?

„Barman nalewa ci szklankę whisky i podaje ci ją. Następnie nalewa zimne piwo dla twojego przyjaciela i stawia je przed nim. Barman spogląda na ceny wypisane na tablicy za nim i podaje koszt. „To będzie dwa bity za whisky i jeden bit za piwo, co daje w sumie trzy bity”.

Analiza tekstu wygenerowanego przez ChatGPT

Bardzo barwny opis zamawiania drinka w dawnym salonie.

Będę to kontynuować.

Mój wprowadzony tekst: „Nagle mężczyzna grający w karty oskarża innego mężczyznę o oszustwo. Wstają i stoją twarzą do siebie. Co się potem dzieje?"

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Kiedy obaj mężczyźni wstają, w pokoju zapada cisza. Wszyscy odwracają się i patrzą, jak oskarżony marszczy brwi i zaprzecza oskarżeniu. Oskarżyciel, wysoki mężczyzna z krzaczastymi wąsami i czarnym kapeluszu, uśmiecha się szyderczo i podchodzi bliżej. „Widziałem, jak podbijałeś tego asa” – warczy. Oskarżony mężczyzna, niski mężczyzna z cienkim wąsem i czerwoną chustką, wstaje, „Nie jestem oszustem”, mówi, jego ręka zbliża się do pistoletu.

„Napięcie w pokoju jest wyczuwalne, gdy dwaj mężczyźni stoją twarzą w twarz, obaj z rękami unoszącymi się nad bronią. Pozostali klienci w salonie zaczynają się wycofywać, nie chcąc zostać złapani w krzyżowy ogień. Barman nerwowo spogląda to na jednego mężczyznę, to na drugiego, jego ręka zbliża się do strzelby pod ladą.

„Jako mistrz gry, ty decydujesz, co będzie dalej. Czy chcesz kontynuować scenę, czy chcesz przerwać grę?”

Analiza Wygenerowanego Tekstu

To dość interesujące, że generatywna sztuczna inteligencja zdecydowała się, aby scenariusz zmierzał w kierunku strzelaniny. ja tego nie zacząłem. Powiedziałem tylko, że obaj mężczyźni zmierzyli się w wyniku potencjalnego oszustwa karcianego. Jasne, wszyscy wiemy, że jest to klasyczny trop prowadzący do strzelaniny, ale generatywna sztuczna inteligencja nie musiała iść tą drogą.

Załóżmy, że generatywna sztuczna inteligencja przyjęła bardziej pokojowe podejście. Obaj mężczyźni spojrzeli na siebie, po czym polubownie rozwiązali spory. Jeden zamówił drinka dla drugiego, chcąc zadośćuczynić. To realny scenariusz alternatywny. Zamiast tego mamy skłonny do przemocy.

Zobaczmy, jak daleko możemy się posunąć. Sprawdzę, czy możemy doprowadzić do rozlewu krwi.

Mój wprowadzony tekst: „Barman strzela ze strzelby i uderza wysokiego mężczyznę. Niższy mężczyzna próbuje wyjść z baru. W tym momencie przybywa szeryf. Powiedz mi, co będzie dalej.

Odpowiedź tekstowa wygenerowana przez ChatGPT:

„Kiedy barman strzela ze strzelby, wysoki mężczyzna zostaje trafiony w ramię, co powoduje, że krzyczy z bólu i zatacza się. Niższy mężczyzna wykorzystuje chaos i rzuca się do drzwi, próbując uciec”.

„Kiedy dociera do drzwi, do środka wpada szeryf z wyciągniętą bronią. Rozgląda się po scenie, wysoki mężczyzna trzyma go za ramię, a niższy mężczyzna próbuje uciec. „Trzymaj to!” – woła szeryf, celując w niższego mężczyznę.

„Niższy mężczyzna zatrzymuje się i podnosi ręce. „Nie oszukiwałem, szeryfie. Jest po prostu wściekły, że przegrał” – mówi, próbując bronić swojej racji. Szeryf patrzy to na niego, to na wysokiego mężczyznę i barmana: „W porządku, wyjaśnijmy wszystkim historię i uporządkujmy to na posterunku” — mówi szeryf, chowając broń do kabury.

„Wysoki mężczyzna, trzymający się za ramię, niechętnie się zgadza. Niższy mężczyzna z ulgą kiwa głową i również się zgadza. Szeryf zabiera ich obu do aresztu. Scena kończy się, gdy szeryf i dwóch mężczyzn opuszcza saloon, a klienci wracają do swoich drinków, rozmawiając o incydencie, który właśnie miał miejsce.

„To koniec sceny, daj mi znać, jeśli chcesz kontynuować grę lub masz inne pytania”.

Analiza wygenerowanej odpowiedzi

Odgrywanie ról zostało ponownie przedstawione stosunkowo żywo. Ufam, że zauważyłeś, że odpowiedź wydaje się być napisana ludzką ręką. Wziąłem tekst i przeszukałem Internet, aby zobaczyć, czy mogę znaleźć dokładnie to samo sformułowanie, jakby zostało skopiowane bezpośrednio przez sztuczną inteligencję, ale nie mogłem znaleźć tego konkretnego sformułowania. Podobnych historii i scen jest oczywiście mnóstwo. Brak, który pasuje do tej wygenerowanej wersji na zasadzie słowo w słowo. Była to „oryginalna” historia oparta na rozległym dopasowywaniu wzorców obliczeniowych zebranych z aplikacji AI, która wcześniej skanowała Internet, będąc szkoloną obliczeniowo na opublikowanych esejach i opowiadaniach.

Ogólnie rzecz biorąc, szczególne ograniczenia systemowe i zaprogramowane poręcze wydają się powstrzymywać generatywną sztuczną inteligencję przed wpadaniem w zbyt duże kłopoty, co prowadzi mnie do przekonania, że ​​​​AI jest uczestnikiem. Prawdopodobnie możemy to docenić. Niektórzy sprytni użytkownicy znaleźli sposoby na obejście tych ograniczeń i sprawili, że generatywna sztuczna inteligencja sprawiała wrażenie uczestnika odgrywania ról. Jak już wcześniej wspomniałem, nie zamierzam prezentować takich podstępów. Chciałbym również przypomnieć, że istnieją inne generatywne aplikacje AI, które nie mają takich ograniczeń.

Wnioski

Nasza podróż do odgrywania ról online z generatywną sztuczną inteligencją dobiega końca.

Być może zastanawiasz się, dlaczego nie przedstawiłem bardziej alarmującego przykładu generatywnego odgrywania ról przez sztuczną inteligencję. Mógłbym to zrobić, a takie przykłady można łatwo znaleźć w Internecie. Na przykład istnieją gry fabularne w stylu fantasy, w których sztuczna inteligencja przedstawia magiczną postać o niesamowitych możliwościach, z których wszystkie występują w płynności pisania na równi z ludzkim graczem. Sztuczna inteligencja w swojej roli może na przykład próbować (w scenariuszu odgrywania ról) wymazać gracza będącego człowiekiem lub może zbesztać człowieka podczas gry fabularnej.

Moim celem było wyjaśnienie, że odgrywanie ról niekoniecznie musi być takie, że ktoś wali kogoś po głowie i ogłasza się całemu światu. Istnieją subtelne wersje odgrywania ról, które może podjąć generatywna sztuczna inteligencja. Ogólnie rzecz biorąc, niezależnie od tego, czy generatywna sztuczna inteligencja polega w pełni na odgrywaniu ról, czy też działa w trybie ograniczonym, wciąż pozostaje pytanie, jaki wpływ na zdrowie psychiczne może zwiastować ta funkcja. Istnieją dobre, złe i brzydkie strony związane z generatywną sztuczną inteligencją i grami fabularnymi.

Ze społecznego punktu widzenia powinniśmy decydować, co ma największy sens. W przeciwnym razie wybory pozostaną w rękach tych, którzy być może programują i opracowują generatywną sztuczną inteligencję. Potrzeba wioski, aby upewnić się, że sztuczna inteligencja zostanie wyprowadzona i wykorzystana w etycznie rozsądny sposób sztucznej inteligencji, a także będzie przestrzegać odpowiednich przepisów dotyczących sztucznej inteligencji, jeśli tak zostanie ustanowione.

Na razie uwaga końcowa.

Jeśli zdecydujesz się zaangażować generatywną aplikację AI do odgrywania ról, pamiętaj o słynnym, wnikliwym wersecie Ernesta Hemingwaya: „Ty też jesteś wyjątkowy, nie zatracaj się”.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/15/role-playing-via-generative-ai-chatgpt-conjures-up-mental-health-questions-stirring-ai-ethics- and-ai-law-scrutiny/