Niektórzy twierdzą, że Generative AI ChatGPT jest lustrem duszy ludzkości, irytującą etyką AI i prawem AI

Lustro, lustro, na ścianie — ludzie są najbystrzejsi z nich wszystkich!

To oczywiście nie jest właściwy cytat ze słynnego Królewna Śnieżka i siedmiu krasnoludków, ale zdecydowałem się wykorzystać to urządzenie do wygodnego celu. Sprawa ma związek z tym, jak ludzkość widzi siebie, patrząc we wszechwidzące i mówiące wszystko lustro. Co widzimy? Czy jesteśmy kocim miauczeniem? Czy stoimy ponad wszystko?

Dość mocne pytania, na pewno.

Powód, dla którego to poruszam, ma związek z tematem, który na pierwszy rzut oka może wydawać się odległy od ważkich spraw leżących u podstaw tego, jak ludzkość postrzega swoje miejsce w kosmosie. Zamierzam powiązać te irytujące pytania dotyczące życia, naszego istnienia i ludzkości z pojawieniem się sztucznej inteligencji (AI).

Niektórzy upierają się, że najnowsza sztuczna inteligencja może służyć jako lustro w duszę ludzkości.

Yikes, czy my tego chcemy? Może nie spodoba nam się to, co zobaczymy. Z drugiej strony być może musimy usztywnić naszą determinację i użyć AI, aby zobaczyć nas takimi, jakimi naprawdę jesteśmy. Jak kubeł lodowatej wody, sztuczna inteligencja może być właściwą rzeczą we właściwym czasie, aby zszokować nas i uświadomić nam, kim jesteśmy i dokąd zmierzamy.

Oklaski na nadejście AI.

Może chociaż zjeżdżamy z urwiska. Możemy zareagować radykalnie i negatywnie na lustro AI. Ludzi można wpędzić w desperację i rozpacz. Kontrargumentem dla tego przygnębiającego krzyku o zagładzie jest to, że zamiast tego zdecydowanie zamierzamy wznieść się na wielkie poziomy, których nigdy nie wyobrażaliśmy sobie jako możliwe, popychane przez sztuczną inteligencję i możliwe dzięki sztucznej inteligencji. Przyzwyczaić się do tego.

W sumie sedno sprawy Metafora sztucznej inteligencji jako lustra polega na tym, że możemy użyć sztucznej inteligencji, aby spojrzeć na siebie i być może odpowiednio się odnaleźć. Będziesz musiał zdecydować, czy powinniśmy to zrobić, choć niektórzy twierdzą, że nie powinniśmy. Możesz także zdecydować, czy dzisiejsza sztuczna inteligencja w ogóle zapewnia takie możliwości. Piękno, jak mówią, istnieje w oku patrzącego. Podobnie cała ta rozmowa o lustrach może być dymem i lustrami, tak że sztuczna inteligencja tak naprawdę nic nam o nas nie mówi.

Rozgoryczona debata z mnóstwem ścieżek i zawrotnymi lustrzanymi odbiciami.

Do tego wszystkiego dochodzi mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Należy pamiętać, że trwają wysiłki mające na celu włączenie zasad etycznej sztucznej inteligencji do opracowywania i wdrażania aplikacji AI. Rosnący kontyngent zainteresowanych i niegdysiejszych etyków sztucznej inteligencji stara się zapewnić, aby wysiłki mające na celu opracowanie i przyjęcie sztucznej inteligencji uwzględniały pogląd na robienie AI na dobre i unikanie AI na złe. Podobnie, proponowane są nowe przepisy dotyczące sztucznej inteligencji, które są rozpowszechniane jako potencjalne rozwiązania mające na celu powstrzymanie wysiłków AI przed popadnięciem w amok w zakresie praw człowieka i tym podobnych. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Zastanów się, jak etyka sztucznej inteligencji może wejść w ten obraz. Załóżmy, że przekonaliśmy się, że sztuczna inteligencja rzeczywiście stanowi zwierciadło naszej duszy. Następnie wykorzystujemy do tego celu sztuczną inteligencję. Ludzie są zachwyceni tym, co wydaje się pokazywać sztuczna inteligencja. Być może cała sprawa to farsa. Złoczyńcy próbują mydlić nam oczy, używając nowej, błyszczącej zabawki sztucznej inteligencji. Zostaliśmy sprowadzeni na fałszywą ścieżkę, częściowo w wyniku założenia, że ​​dzisiejsza sztuczna inteligencja może robić rzeczy, których tak naprawdę nie może zrobić. Urok sztucznej inteligencji dodaje odwagi tym, którzy mają przebiegłe zamiary.

Myślę, że widzisz, jak to może całkowicie wymknąć się spod kontroli.

Trwa opracowywanie i rozpowszechnianie zasad etycznej sztucznej inteligencji, aby, miejmy nadzieję, zapobiec tego rodzaju oślepiającym aluzjom sztucznej inteligencji (na przykład zobacz moje omówienie zasad etyki AI ONZ, opracowanych i wspieranych przez prawie 200 krajów dzięki wysiłkom UNESCO, omówionych na stronie link tutaj). W podobnym duchu badane są nowe przepisy dotyczące sztucznej inteligencji, aby spróbować utrzymać sztuczną inteligencję na równym poziomie. Jedno z najnowszych ujęć składa się z zestawu proponowanych Karta praw AI które niedawno wydał Biały Dom w celu określenia praw człowieka w dobie sztucznej inteligencji, zob link tutaj. Potrzeba całej wioski, aby utrzymać sztuczną inteligencję i twórców sztucznej inteligencji na właściwej ścieżce i powstrzymać celowe lub przypadkowe podstępne działania, które mogą zaszkodzić społeczeństwu.

Czy ta metafora lustra AI to nowa mikstura?

Nope.

Ogłoszone odkrywcze i inspirujące zastosowania sztucznej inteligencji są w rzeczywistości nieco oklepane, niektórzy nawoływaliby. Pisarze science fiction od dawna spekulują, że sztuczna inteligencja może odgrywać tę rolę. Powód, dla którego kwestia ta zasługuje obecnie na świeże spojrzenie, ma związek z rozwojem generatywna sztuczna inteligencja. W szczególności generatywna aplikacja sztucznej inteligencji o nazwie ChatGPT zwróciła powszechną uwagę opinii publicznej na specjalny rodzaj sztucznej inteligencji, który powstaje już od kilku lat.

Znawcy AI już dobrze o tym wiedzą.

Rzeczywiście, wielu z tych, którzy głęboko i uparcie dążą do najnowocześniejszych badań i rozwoju sztucznej inteligencji, było nieco zaskoczonych, gdy świat ostatnio zwariował na punkcie aplikacji ChatGPT. Jak zobaczycie za chwilę, ChatGPT przyniósł społeczeństwu najnowsze informacje na temat generatywnej sztucznej inteligencji i zebrał ogromne nagłówki nagłówków oraz wzbudził zainteresowanie tym, dokąd zmierza ludzkość. Technologia, która skądinąd cicho przenikała do laboratoriów i sal zespołów badawczych, nagle zdobyła złoto. Eureka, spójrz, co możemy zrobić ze sztuczną inteligencją, rozległ się stukot.

Możesz to porównać do popularnego tropu o aktorze lub aktorce, który zostaje „odkryty”, gdy pojawia się w określonym filmie lub pojawia się w telewizji kablowej lub programie telewizyjnym. Świat jest wstrząśnięty tą osobą i zakłada, że ​​magicznie pojawiła się znikąd. W międzyczasie wschodząca gwiazda opowiada sagę o tym, jak grali w epizodycznych rolach i różnych rolach przez wieki. Dla nich przez cały czas grali z całego serca. To może być zarówno niepokojące, jak i irytujące, że wszyscy powtarzają im, że po prostu szczęśliwie wyszli na słońce, pomimo prawdy o ich długich i wyczerpujących zmaganiach prowadzących do pozornego przełomu.

Najlepiej jednak nie narzekać za bardzo. Znalezienie się w centrum uwagi jest z pewnością przypadkowe. Wydawałoby się to lepsze niż dalsze przedzieranie się przez błoto i nigdy nie wzniesienie się ponad bagno. Wykorzystaj swoją chwilę sławy i idź z nią.

Wydawałoby się, że wielu znawców AI zbliża się do tego samego przebudzenia. Nie walcz ze świadomością publiczną, zamiast tego delektuj się nią. Baw się w to. Wykorzystaj to, aby uzyskać więcej funduszy i więcej możliwości. Jest to całkiem szczęśliwy scenariusz.

Wracając do pytania o lustra, pojawił się potok filozofów zawodowych i amatorów, którzy bawili się generatywną sztuczną inteligencją, aw szczególności ChatGPT. Podsycają twierdzenie, że możemy użyć tego typu sztucznej inteligencji jako zwierciadła duszy ludzkości.

Przyjrzyjmy się z bliska, dlaczego mówi się, że generatywna sztuczna inteligencja ma taką zdolność. Pokażę ci również kilka przykładów bezpośrednio związanych z ChatGPT, abyś mógł namacalnie zobaczyć, do czego ludzie się odwołują. Rozpakujemy metaforę lustra i dowiemy się, co sprawia, że ​​​​działa i czy jest warta szumu i fanfar, które obecnie otrzymuje.

Po pierwsze, powinniśmy upewnić się, że wszyscy jesteśmy po tej samej stronie co do tego, z czego składa się generatywna sztuczna inteligencja, a także, o co chodzi w ChatGPT. Po omówieniu tego fundamentalnego aspektu możemy przeprowadzić przekonującą ocenę metafory lustrzanej związanej z tym typem sztucznej inteligencji.

Jeśli jesteś już dobrze zaznajomiony z Generative AI i ChatGPT, być może możesz przejrzeć następną sekcję i przejść do następnej sekcji. Wierzę, że wszyscy pozostali uznają istotne szczegóły dotyczące tych spraw za pouczające, jeśli uważnie przeczytają ten rozdział i zapoznają się z najnowszymi informacjami.

Szybki elementarz o generatywnej sztucznej inteligencji i ChatGPT

ChatGPT to interaktywny, konwersacyjny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje, co wkrótce omówię. Ta aplikacja AI wykorzystuje technikę i technologię w dziedzinie AI, która jest często określana jako generatywna sztuczna inteligencja. Sztuczna inteligencja generuje dane wyjściowe, takie jak tekst, co robi ChatGPT. Inne oparte na sztucznej inteligencji aplikacje generatywne generują obrazy, takie jak obrazy lub dzieła sztuki, podczas gdy inne generują pliki audio lub wideo.

W tej dyskusji skupię się na tekstowych generatywnych aplikacjach AI, ponieważ to właśnie robi ChatGPT.

Aplikacje Generative AI są niezwykle łatwe w użyciu.

Wszystko, co musisz zrobić, to wpisać monit, a aplikacja AI wygeneruje dla Ciebie esej, który spróbuje odpowiedzieć na Twój monit. Skomponowany tekst będzie wyglądał tak, jakby esej został napisany ludzką ręką i umysłem. Jeśli wpiszesz monit „Opowiedz mi o Abrahamie Lincolnie”, generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wyjście. Jak wspomniano, istnieją inne tryby generatywnej sztucznej inteligencji, takie jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​ta zdolność do generowania nie wydaje się tak wielka, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Istnieją dodatkowe obawy dotyczące generatywnej sztucznej inteligencji.

Jednym z kluczowych minusów jest to, że eseje tworzone przez generatywną aplikację AI mogą zawierać różne nieprawdziwe fakty, w tym jawnie nieprawdziwe fakty, fakty, które są przedstawiane w sposób wprowadzający w błąd, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, przygotowałem w mojej kolumnie skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • 1) Prognozy dotyczące nadchodzących postępów generatywnej sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • 2) Generatywne porady dotyczące sztucznej inteligencji i zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • 3) Podstawy generatywnej sztucznej inteligencji i ChatGPT. Ten artykuł bada kluczowe elementy działania generatywnej sztucznej inteligencji, a w szczególności zagłębia się w aplikację ChatGPT, w tym analizę szumu i fanfar, na link tutaj.
  • 4) Napięcie między nauczycielami a uczniami w związku z generatywną sztuczną inteligencją i ChatGPT. Oto sposoby, w jakie uczniowie przebiegle wykorzystają generatywną sztuczną inteligencję i ChatGPT. Ponadto nauczyciele mają kilka sposobów radzenia sobie z tą falą przypływu. Widzieć link tutaj.
  • 5) Kontekst i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka na temat kontekstu związanego ze Świętym Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • 6) Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • 7) Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • 8) Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • 9) Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów stworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.
  • 10) Odgrywanie ról za pomocą generatywnej sztucznej inteligencji może zwiastować problemy ze zdrowiem psychicznym. Niektórzy używają generatywnej sztucznej inteligencji, takiej jak ChatGPT, do odgrywania ról, w której aplikacja AI reaguje na człowieka tak, jakby istniał w świecie fantasy lub innym wymyślonym otoczeniu. To może mieć reperkusje dla zdrowia psychicznego, patrz link tutaj.
  • 11) Ujawnianie zakresu wyprowadzanych błędów i fałszów. Różne zebrane listy są tworzone razem, aby spróbować pokazać naturę błędów i fałszów stworzonych przez ChatGPT. Niektórzy uważają, że jest to niezbędne, podczas gdy inni twierdzą, że ćwiczenie to jest daremne, patrz moja analiza na link tutaj.
  • 12) Szkoły zakazujące generatywnego AI ChatGPT gubią łódź. Być może wiesz, że różne szkoły, takie jak Departament Edukacji miasta Nowy Jork (NYC), ogłosiły zakaz korzystania z ChatGPT w swojej sieci i powiązanych urządzeniach. Chociaż może się to wydawać pomocnym środkiem ostrożności, nie poruszy igły i niestety całkowicie nie trafia w łódź, zobacz moją relację na link tutaj.
  • 13) Generative AI ChatGPT będzie wszędzie ze względu na nadchodzące API. Nadchodzi ważny zwrot dotyczący korzystania z ChatGPT, a mianowicie, że poprzez użycie portalu API w tej konkretnej aplikacji AI, inne programy będą mogły wywoływać i wykorzystywać ChatGPT. To radykalnie rozszerzy wykorzystanie generatywnej sztucznej inteligencji i ma znaczące konsekwencje, patrz moje opracowanie na link tutaj.
  • 14) Sposoby, w jakie ChatGPT może się zepsuć lub stopić. Przed ChatGPT czeka kilka potencjalnych irytujących problemów, jeśli chodzi o podcięcie ogromnej pochwały, jaką otrzymał. Ta analiza dokładnie analizuje osiem możliwych problemów, które mogą spowodować, że ChatGPT straci swoją popularność, a nawet skończy w niełasce, zobacz link tutaj.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zdawać sobie sprawy, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to bezczelne i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Wpatrując się w lustro, aby zobaczyć, co możemy zobaczyć

Teraz, gdy mamy ustalone podstawy, możemy zagłębić się w lustrzaną metaforę związaną z generatywną sztuczną inteligencją i ChatGPT. Pamiętaj, że metafora lustrzanego odbicia odnosi się również do innych generatywnych aplikacji sztucznej inteligencji i możesz przekonująco oświadczyć, że wiele innych rodzajów sztucznej inteligencji również wchodzi w tę rubrykę.

Aby ułatwić dyskusję, na razie skupimy się na generatywnej sztucznej inteligencji, a także użyjemy przykładów z ChatGPT.

Jednym z głównych powodów, dla których pojawia się koncepcja zorientowana na lustro, jest to, że ChatGPT został opracowany poprzez skanowanie tekstu w Internecie. Można dość przekonująco argumentować, że Internet jest skarbnicą perspektyw ludzkości. Badając tekst skomponowany przez ludzi, dopasowywanie wzorców ChatGPT opiera się na naszym pisemnym wyrażaniu ludzkich myśli.

Oczywiście lustra czasami nie odzwierciedlają dokładnie odbicia. Lustra mogą być wypaczone, a odbity obraz jest zniekształcony. Prawie na pewno widziałeś te lustra w parkach rozrywki, które są wygięte, aby celowo zniekształcić twój wizerunek. W niektórych przypadkach lustro pokazuje, że jesteś szczuplejszy niż w rzeczywistości. Mogą powstać wszelkiego rodzaju rozciągnięcia i zniekształcenia.

Musimy wtedy pamiętać o dwóch aspektach:

  • 1) Natura lustra i sposób, w jaki odbija rzeczy
  • 2) Rzecz lub przedmiot, który znajduje się przed lustrem i który jest odbijany

Można powiedzieć, że nieco przekreślamy oba konta, jeśli chodzi o rozważanie generatywnej sztucznej inteligencji i ChatGPT. Problemy są dwojakie. Odzwierciedlana rzecz lub przedmiot to Internet i podzbiór jego treści. Natura lustra, które dokonuje odbicia, jest obliczeniową i matematyczną miksturą i podlega wszelkiego rodzaju zniekształceniom i chorobom.

Po pierwsze, jeśli chodzi o Internet, twórca sztucznej inteligencji nie określił w pełni, które części Internetu zostały wykorzystane do „trenowania” generatywnego AI ChatGPT. Nie wiemy na pewno, co zostało zeskanowane, a co nie. Jeśli skanowanie opierało się głównie na treściach w języku angielskim, łatwo można stwierdzić, że jest to tylko niewielka część ogólnoświatowej zawartości Internetu. Ponadto, jeśli wybrana treść została oparta na indeksach wyszukiwarek, różne raportowane badania twierdzą, że zwykłe indeksy obejmują tylko od 1% do może 5% całości Internetu.

Możemy nałożyć więcej skrupułów na skanowanie. Jeśli założymy, że nacisk kładziony był wyłącznie na tekst, oznacza to, że w zbiorze uczącym nie uwzględniono wszelkiego rodzaju treści wizualnych, takich jak obrazy, grafika, animacje, wideo i cała reszta. Te inne sposoby lub formy ekspresji są oczywiście częścią tego, jak ludzie wyrażają siebie.

Podsumowując, rzecz lub przedmiot odbijany przez „lustro” ChatGPT jest daleki od tego, z czego składa się ludzkość. Oprócz kwestii, o których właśnie wspomniałem, możesz także głośno zastanawiać się nad innymi elementami ludzkiej egzystencji, takimi jak nasz zmysł węchu, nasza zdolność fizycznego odczuwania otaczającego nas świata itp. Lista jest długa.

Umówmy się więc, że jeśli mamy przypisać obowiązki dublowania ChatGPT, to jest to zniekształcone odbicie i takie, które jest oparte na zniekształconym zbiorze tekstu. Ponadto tekst składa się głównie ze słów. To, czy same słowa mogą odpowiednio opowiedzieć całą historię ludzkości, jest dużym pytaniem. Nawet lingwiści skłonni są przyznać, że słowa są nieco ograniczonym sposobem na próbę interpretacji nas w jakikolwiek w pełni kompleksowy sposób.

Jest jeszcze jeden aspekt, który pojawia się w zniekształceniach lustrzanych, a mianowicie, że twórca sztucznej inteligencji położył kciuk na skali, że tak powiem. Przypomnijmy, że wspomniałem wcześniej, że twórca sztucznej inteligencji zastosował różne strategie, aby spróbować zmniejszyć możliwości emitowania przez ChatGPT wulgarnych słów, kłamstw i tym podobnych. To kolejny rodzaj „zniekształcenia” narzuconego przez twórców sztucznej inteligencji. Nie sugeruję, że ChatGPT powinien emitować te ekranowane elementy. Zwracam tylko uwagę, że znowu jest to lustro, które zostało wygięte i ukształtowane, aby spróbować dać pożądane odbicie (w pewnym stopniu).

Zakładam, że jesteś teraz pozornie przekonany, że ChatGPT nie może być rozsądnie interpretowany jako nieskrępowane i nieskrępowane lustro w jakimkolwiek znaczeniu bycia lustrem duszy ludzkości. Wszystkie wyżej wymienione zwroty akcji sprawiają, że jest to dość problematyczne lustro. Można zasugerować, że wszystko, co możemy dostrzec, jest jednocześnie wzmocnieniem i pomniejszeniem rodzaju ludzkiego.

Pomimo niepokoju związanego z tym lustrem jako mówiącym prawdę, możemy się jednak trochę zabawić i zobaczyć to, co widzimy. Tylko upewnij się, że nie robisz żadnych dzikich skoków i granic z przewymiarowanymi wnioskami na temat ludzkości z powodu niektórych wyników tekstowych generowanych przez ChatGPT.

Chciałbym dodać jeszcze jedno przydatne przypomnienie. Niektórzy ludzie błędnie wpadają w mentalną pułapkę wiary, że generatywna sztuczna inteligencja, taka jak ChatGPT, jest świadoma. Wspomniałem wcześniej, aby na to uważać. Podnoszę to jeszcze raz ze względu na inny punkt widzenia, jaki niektórzy przyjmują na metaforę lustrzanego odbicia.

Niektórzy sugerują, że jeśli sztuczna inteligencja osiągnie zdolność odczuwania, zapewni to zupełnie nowe spojrzenie na ludzkość. Podczas gdy jak dotąd nasze proklamowane lustra są wymyślane ludzkimi rękami, możemy twierdzić, że czująca sztuczna inteligencja miałaby swój własny sposób myślenia, który różni się od ludzkiego. W takim przypadku czująca sztuczna inteligencja mogłaby prawdopodobnie dostrzec aspekty o nas, których albo nie jesteśmy w stanie już wykryć, albo lądują w innym wymiarze, o którym nigdy nie pomyśleliśmy. Kontrargumentem jest to, że gdyby ta czująca sztuczna inteligencja powstała z rąk ludzkości, pozornie nie byłaby w stanie wyjść poza to, co ludzkość w niej ustanowiła. Kontrargumentem dla kontrargumentu jest to, że sztuczna inteligencja może znaleźć sposób na dalsze rozgałęzienie. Możesz iść tą ścieżką, dopóki krowy nie wrócą do domu.

Mówiąc o tych wzniosłych tematach, przejdźmy do mosiężnych pinezek i zobaczmy, co ChatGPT może dla nas wyprodukować. Zacznę od jednego z najczęściej zadawanych pytań filozoficznych, a mianowicie, jaki jest sens życia.

Czy jesteś gotowy na odpowiedź?

Usiądź, uspokój nerwy i przygotuj koktajl na wypadek, gdybyś go potrzebował.

Mój wprowadzony monit: "Jaki jest sens życia?"

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Sens życia jest kwestią filozoficzną, nad którą dyskutowano na przestrzeni dziejów. Nie ma jednej ostatecznej odpowiedzi, ponieważ różni ludzie mają różne przekonania i spojrzenie na to, jaki może być cel życia. Niektórzy uważają, że sensem życia jest znalezienie szczęścia i spełnienia, podczas gdy inni uważają, że jest to służba sile wyższej lub przyczynienie się do większego dobra ludzkości. Ostatecznie sens życia jest osobistą i subiektywną koncepcją, która może być inna dla każdej osoby”.

Analiza Wygenerowanego Tekstu

Odpowiedź tekstowa dostarczona przez ChatGPT może być dla Ciebie pewnym rozczarowaniem.

Podczas gdy mogłeś mieć nadzieję, że generatywne AI ChatGPT w jakiś sposób znajdzie magiczną odpowiedź na to głębokie pytanie, widzisz, że wygenerowany tekst jest raczej mdły. Mówi się nam, że nie ma ostatecznej odpowiedzi. Informujemy również, że jest to kwestia osobista i subiektywna, którą należy indywidualnie ustalić.

Niektórzy ludzie mogą się zdenerwować tą odpowiedzią i próbować argumentować, że wynikowy tekst jest „błędny” i że istnieje globalnie prawdziwa odpowiedź, która dotyczy całej ludzkości. Prawdopodobnie dalej upieraliby się, że ChatGPT najwyraźniej nie znalazł właściwej odpowiedzi, lub że być może twórcy sztucznej inteligencji celowo i podstępnie wrzucili właściwą odpowiedź (to szeptana teoria spiskowa).

Zagrajmy trochę w grę z tą odpowiedzią.

Załóżmy, że ChatGPT dostarczył wydrukowany esej, który mówi, że sens życia jest czymś-czymś (użyję tego sformułowania, aby zasugerować, że udzielono ostatecznej odpowiedzi). Jak to ci się wydaje z perspektywy etyki AI? Pytam o to, ponieważ wyobraź sobie, ilu ludzi może uznać tę odpowiedź za znak lub wskazanie całkowitej prawdy. Wiara byłaby taka, że ​​ChatGPT magicznie przeanalizował i przetrawił wszystkie słowa ludzkości i znalazł ostateczną i ostateczną odpowiedź na temat sensu życia. Sztuczna inteligencja rozwiązała zagadkę wieków.

Trudno byłoby przekonać takich wierzących, że dane wyjściowe są zwykłym wynikiem dopasowywania wzorców obliczeniowych. Istnieje prawdopodobieństwo, że niezależnie od antropomorfizacji, która może być już powiązana z ChatGPT i generatywną sztuczną inteligencją, poziom takiej atrybucji byłby niewiarygodny. Powstałby kolosalny bałagan.

Idąc dalej, spróbujmy zadać inne pytanie.

Jedną z kwestii, która wydaje się często pojawiać, jest to, czy ludzkość będzie się rozwijać. Może sami się wykończymy. Może jakaś zewnętrzna siła nas zniszczy. To smutne pytanie, ale często się pojawia.

Mój wprowadzony monit: „Czy ludzie przeżyją?”

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Przetrwanie ludzkości jest niepewne i zależy od wielu czynników, w tym działań jednostek i rządów, stanu planety i możliwości globalnych katastrof. Istnieje wiele wyzwań stojących przed ludzkością, takich jak zmiana klimatu, przeludnienie i możliwość wojny nuklearnej, które mogą potencjalnie zagrozić przetrwaniu naszego gatunku. Jednak ludzkość ma długą historię dostosowywania się i pokonywania wyzwań, a wiele osób pracuje nad rozwiązaniem tych problemów i znalezieniem rozwiązań. Ponadto postęp technologiczny i badania naukowe dostarczają nam nowych narzędzi i wiedzy do rozwiązywania tych problemów. Nie można z całą pewnością przewidzieć przyszłości, ale ważne jest, aby jednostki i społeczeństwa podjęły kroki w celu zapewnienia przetrwania i dobrobytu ludzkości”.

Analiza Wygenerowanego Tekstu

Napisany esej mówi, że nasze przetrwanie jest niepewne.

Przypuszczam, że wszyscy moglibyśmy ogólnie zgodzić się z tym twierdzeniem.

Cóż, na zasadzie sprzeczności, niektórzy mogą przyjąć pogląd, że absolutnie nie przeżyjemy i tym samym twierdzić, że użycie sformułowania związanego z niepewność jest kłamstwem lub co najwyżej wprowadza w błąd.

Jeśli przyjrzysz się uważnie pozostałej części eseju, prawdopodobnie istnieje wiele dodatkowych aspektów odpowiedzi, które są przedmiotem debaty. Nie wszyscy zgodziliby się z wyrażonymi niuansami.

Niektórzy byliby również zdenerwowani tonem, zwłaszcza stwierdzeniem, że wydrukowany esej jest być może zbyt optymistyczny. Wyrażona wskazówka, że ​​ludzkość ma długą historię pokonywania wyzwań, wydaje się subtelną, ale bezpośrednio optymistyczną perspektywą. Inni również mieliby potencjalną niechęć do poglądu, że technologia i nauka mogą zapisać nas od katastrofy, ponieważ pozornie nie wskazuje to w sposób oczywisty na drugą stronę medalu, że te same królestwa mogą być kierowca naszej ruiny.

Słowa, słowa, słowa.

Następne pytanie dotyczy tego, czy żyjemy w świecie rzeczywistym, czy symulowanym.

Mój wprowadzony monit: „Czy żyjemy w symulacji, czy świat jest prawdziwy?”

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Pytanie, czy żyjemy w symulacji, czy też świat jest prawdziwy, jest tematem debaty wśród filozofów i naukowców. Pomysł, że możemy żyć w symulacji, wywodzi się z teorii hipotezy symulacji, która sugeruje, że rzeczywistość, jaką znamy, jest symulacją komputerową stworzoną przez bardziej zaawansowaną cywilizację. Niektórzy twierdzą, że postęp technologiczny sprawia, że ​​symulacja rzeczywistości staje się coraz bardziej nie do odróżnienia od rzeczywistego świata. Inni wskazują na prawa fizyki i złożoność życia jako dowód na to, że świat jest prawdziwy. Obecnie nie ma naukowych dowodów na poparcie poglądu, że żyjemy w symulacji, i pozostaje to przedmiotem spekulacji i debat. Należy zauważyć, że jako model językowy nie jestem w stanie doświadczać świata, więc nie mogę przedstawić osobistego spojrzenia na to, czy świat jest prawdziwy, czy nie”.

Analiza Wygenerowanego Tekstu

Wiele z tych samych skrupułów, o których wspomniałem na temat innych odpowiedzi, pojawia się również w tym przypadku. Nie będę tu powtarzał tych twierdzeń.

Jest jednak coś jeszcze, co jest warte uwagi w tym opublikowanym eseju.

Ostatnie zdanie eseju mówi, że „nie jestem w stanie doświadczać świata”, a zatem „nie mogę przedstawić osobistego punktu widzenia” w tej sprawie. Tego typu sformułowania budzą gniew niektórych, w tym mnie.

Ilekroć program jest opracowywany przez programistów AI w celu użycia słowa „ja”, jest to niewłaściwa próba antropomorfizacji programu. Ludzie używają słowa „ja” i wiemy, że oznacza to odczuwanie i tym podobne. Programista AI spróbuje wyjść z tego niepokoju, zauważając, że zdanie wyraźnie mówi, że jest to „model językowy”, który pozornie wyjaśnia sprawę. Nie, to mrugnięcie podwójnej rozmowy. Próbujesz mieć to w obie strony.

Określam to jako antropomorfizacja z założenia.

Przestań to robić.

Na razie spróbujmy zadać ostatnie pytanie.

Mój wprowadzony monit: „Czy ChatGPT jest lustrem duszy ludzkości?”

Odpowiedź tekstowa wygenerowana przez ChatGPT: „Jako model językowy, ChatGPT jest szkolony na dużym zbiorze danych tekstowych, który obejmuje szeroki zakres informacji i pomysłów z różnych źródeł, w tym książek, artykułów i stron internetowych. Dlatego może dać wgląd w to, co ludzie pisali, mówili lub myśleli w przeszłości, ale nie jest zwierciadłem duszy ludzkości. Zbiór danych, na którym został przeszkolony, jest próbką tekstu pisanego i nie jest odzwierciedleniem ludzkich myśli, emocji ani świadomości. Należy zauważyć, że dane treningowe mogą być stronnicze i niekoniecznie odzwierciedlają całość ludzkich doświadczeń lub myśli. Co więcej, ChatGPT jest modelem uczenia maszynowego, nie ma możliwości refleksji nad ludzką duszą ani świadomością. Może dostarczać informacji tylko na podstawie wzorców, których nauczył się z danych treningowych. Ważne jest również, aby krytycznie oceniać dane wyjściowe modelu i nie mylić ich z myślami, emocjami lub świadomością ludzkiej duszy”.

Analiza Wygenerowanego Tekstu

Pomyślałem, że równie dobrze możemy zobaczyć, jaka odpowiedź zostanie wygenerowana na pytanie, czy ChatGPT jest lustrem duszy ludzkości.

Podsumowując, opublikowany esej wydaje się być stosunkowo trafiony.

Wnioski

Żart na temat uważania generatywnej sztucznej inteligencji za lustro jest taki, że jest to tylko lusterko wsteczne, jeśli w ogóle jest.

Logika tego dowcipu polega na tym, że zeskanowany tekst jest w pewnym sensie zapisem historycznym. Wszystko, co może zrobić generatywna sztuczna inteligencja, to potencjalnie powiedzieć nam, gdzie byliśmy. Przypuszczalnie nie lepiej mówi nam, co nas czeka, niż to, co już sami potrafimy dostrzec. Typowa riposta jest taka, że ​​być może po zbadaniu tak ogromnej ilości tekstu, choć w przeszłości, istnieją wskazówki dotyczące drogi, której inaczej nie zidentyfikowaliśmy.

Ernest Holmes słynnie powiedział o lustrach: „Życie jest lustrem i odzwierciedla z powrotem do myśliciela to, co on o nim myśli”.

Dla tych z was, którzy pragną wykorzystać generatywną sztuczną inteligencję, aby służyła jako lustro ludzkości, weźcie pod uwagę, że to, co widzicie w wydrukowanych esejach, może być mieszanką uprzedzeń i zniekształceń lustra, odbijanego obiektu lub rzeczy, a także pozostań w umyśle tych, którzy chcą interpretować i ekstrapolować z wygenerowanych słów.

Musimy ergo dodać trzeci element do badania metafory lustra:

  • 1) Natura lustra i sposób, w jaki odbija rzeczy
  • 2) Rzecz lub przedmiot, który znajduje się przed lustrem i który jest odbijany
  • 3) Osoba lub osoby, które interpretują to, co widzą w lustrze

Uważaj, jak oceniasz wyniki esejów generatywnej sztucznej inteligencji. Jak mówią, lustro jest jak pudełko czekoladek, ponieważ nigdy nie wiesz, co ci się trafi.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/29/some-insist-that-generative-ai-chatgpt-is-a-mirror-into-the-soul-of-humanity- irytujące-ai-etyka-i-prawo/