Zagłębianie się w szum i fanfary związane z generatywnym AI ChatGPT, w tym zbliżającą się etyką AI i kwestiami prawnymi AI

Domyślam się, że do tej pory słyszałeś lub być może widziałeś rażące nagłówki wiadomości lub posty w mediach społecznościowych reklamujące najgorętsze i najnowsze wykorzystanie sztucznej inteligencji, które generuje pozornie zorientowane na tekst narracje napisane przez ludzi za pośrednictwem aplikacji AI znanej jako ChatGPT.

Jeśli nie słyszałeś ani nie czytałeś o tej nowej aplikacji AI, nie martw się, wyjaśnię Ci wszystko.

Tych z was, którzy już znają ChatGPT, mogą zainteresować niektóre z moich informacji poufnych na temat tego, co robi, jak działa i na co uważać. Podsumowując, prawie każdy, kto troszczy się o przyszłość, nieuchronnie będzie chciał odkryć, dlaczego wszyscy są zaniepokojeni tą aplikacją AI.

Gwoli wyjaśnienia, szalejące prognozy są takie, że ten rodzaj sztucznej inteligencji zmieni życie, w tym życie tych, którzy jeszcze nic nie wiedzą o ChatGPT lub innych podobnych możliwościach sztucznej inteligencji. Jak zaraz wyjaśnię, te aplikacje AI będą miały dość rozległe reperkusje w sposób, który dopiero zaczynamy przewidywać.

Przygotuj się na przejażdżkę kolejką górską znaną jako generatywna sztuczna inteligencja.

Zacznę od kilku kluczowych informacji na temat generatywnej sztucznej inteligencji i użyję najprostszego scenariusza, który obejmuje sztuczną inteligencję generującą sztukę. Po przeprowadzeniu cię przez te podstawy, przejdziemy do generatywnej sztucznej inteligencji, która generuje narracje zorientowane na tekst.

Aby zapoznać się z moim ciągłym i obszernym omówieniem sztucznej inteligencji, w tym etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Generatywna sztuczna inteligencja, która wytwarza wygenerowaną sztukę

Odnoszę się do tego typu lub stylu sztucznej inteligencji generatywny czyli terminologia miłośników sztucznej inteligencji używana do opisania sztucznej inteligencji, która generuje dane wyjściowe, takie jak tekst, obrazy, wideo i tym podobne.

Być może zauważyłeś na początku tego roku, że pojawiła się wielka fala o możliwości generowania artystycznych obrazów przez wprowadzenie jednego lub dwóch wierszy tekstu. Pomysł jest dość prosty. Korzystasz z aplikacji AI, która pozwala wprowadzić dowolny tekst. Na przykład możesz wpisać, że chcesz zobaczyć, jak wyglądałaby żaba w kapeluszu na szczycie komina. Następnie aplikacja AI analizuje Twoje słowa i próbuje wygenerować obraz, który ogólnie pasuje do określonych słów. Ludzie bardzo lubili generować wszelkiego rodzaju obrazy. Media społecznościowe na jakiś czas zatkały się nimi.

W jaki sposób generatywna sztuczna inteligencja wykonuje aspekty generowania?

W przypadku generatywnej sztucznej inteligencji opartej na generatywnej sztucznej inteligencji, mnóstwo dzieł sztuki online zostało wstępnie zeskanowanych za pomocą algorytmów komputerowych, a elementy zeskanowanej grafiki zostały przeanalizowane obliczeniowo pod kątem zaangażowanych komponentów. Wyobraź sobie zdjęcie w Internecie, na którym znajduje się żaba. Wyobraź sobie inny osobny obraz z kominem. Jeszcze inne zdjęcie ma na sobie kapelusz. Komponenty te są identyfikowane obliczeniowo, czasami bez pomocy człowieka, a czasem za jego kierownictwem, a następnie formułowany jest rodzaj sieci matematycznej.

Kiedy przyjdziesz później i poprosisz o wygenerowanie grafiki przedstawiającej żabę z kapeluszem na kominie, aplikacja AI użyje sieci matematycznej, aby znaleźć i złożyć te elementy. Wynikowy obraz artystyczny może, ale nie musi, wyglądać tak, jak się spodziewałeś. Być może żaba jest brzydko wyglądająca. Kapelusz może być dużym kapeluszem typu „od dołu do góry”, ale marzyłeś o szczuplejszej czapce w stylu derby. W międzyczasie obraz żaby stoi na kominie, chociaż zamiast tego chciałeś posadzić żabę.

Fajną rzeczą w tego rodzaju aplikacjach AI jest to, że zwykle pozwalają ci powtórzyć żądanie, a także dodać dodatkowe specyfikacje, jeśli chcesz to zrobić. W ten sposób możesz powtórzyć swoją prośbę i zaznaczyć, że chcesz piękną żabę w kapeluszu typu derby, która siedzi na kominie. Voila, nowo wygenerowany obraz może być bliższy temu, czego chciałeś.

Niektórzy zastanawiali się, czy sztuczna inteligencja po prostu zwraca dokładnie to, na czym została wyszkolona. Odpowiedź brzmi: nie (zwykle). Obraz żaby, który sztuczna inteligencja wyświetla na twoją prośbę, niekoniecznie jest dokładną kopią podobnego obrazu, który znajdował się w zbiorze treningowym. Większość z tych generatywnych aplikacji AI jest skonfigurowana tak, aby uogólniać wszelkie znalezione obrazy. Pomyśl o tym w ten sposób. Załóżmy, że zebrałeś tysiąc obrazów żab. Możesz zdecydować się na stopniowe odkrywanie, jak wygląda żaba, łącząc tysiące znalezionych obrazów. W związku z tym żaba, którą ostatecznie rysujesz, niekoniecznie jest dokładnie taka sama jak ta, której użyłeś do celów szkoleniowych.

Biorąc to pod uwagę, istnieje szansa, że ​​algorytm sztucznej inteligencji może nie dokonać tak dużego uogólnienia, jak można by przypuszczać. Jeśli istnieją unikalne obrazy szkoleniowe i nie ma innych podobnych, może się zdarzyć, że sztuczna inteligencja „uogólnia” dość blisko jedynej konkretnej instancji, którą otrzymała. W takim przypadku próba późniejszego stworzenia przez algorytm żądanego obrazu tego rodzaju mogłaby wyglądać szczególnie podobnie do tego, co znajdowało się w zbiorze uczącym.

Zatrzymam się na chwilę, aby przedstawić kilka przemyśleń związanych z etyką AI i prawem AI.

Jak wspomniano, jeśli generatywna sztuczna inteligencja jest szkolona w Internecie, oznacza to, że wszystko, co zostało opublikowane publicznie w Internecie, prawdopodobnie zostanie wykorzystane przez algorytm sztucznej inteligencji. Załóżmy więc, że masz fajne dzieło sztuki, nad którym pracowałeś i wierzysz, że posiadasz prawa do tego dzieła sztuki. Publikujesz jego zdjęcie w Internecie. Każdy, kto chce wykorzystać Twoją grafikę, powinien przyjść do Ciebie i uiścić opłatę za to wykorzystanie.

Być może już wyczuwasz, dokąd to zmierza.

Czekaj tam na ponure wieści.

Tak więc generatywna aplikacja AI, która jest szkolona poprzez szeroko zakrojone badanie treści w Internecie, wykrywa twoje cudowne dzieło sztuki. Obraz Twojej grafiki zostaje wchłonięty przez aplikację AI. Charakterystyka twojego kunsztu jest teraz matematycznie łączona z innymi zeskanowanymi dziełami sztuki. Po poproszeniu o wygenerowanie dzieła sztuki sztuczna inteligencja może wykorzystać twoje dzieło podczas komponowania nowo wygenerowanego obrazu sztuki. Ci, którzy zdobywają sztukę, mogą nie zdawać sobie sprawy, że w pewnym sensie sztuka ma na sobie twoje szczególne odciski palców, ponieważ algorytm sztucznej inteligencji odcisnął nieco swoje piętno na twoim arcydziele.

Istnieje również szansa, że ​​jeśli Twoja grafika była wyjątkowo wyjątkowa, może zostać ponownie wykorzystana przez aplikację AI w celu lepszego pokazania kunsztu. W związku z tym czasami twoja grafika może być ledwo rozpoznawalna w nowo wygenerowanej grafice AI, podczas gdy w innych przypadkach może się zdarzyć, że wygenerowana grafika jest niemal plującym obrazem tego, co odgadłeś.

Nadszedł zatem właściwy czas, aby wprowadzić etykę sztucznej inteligencji do tego scenariusza.

Czy jest etycznie właściwe lub właściwe, że generatywna sztuczna inteligencja wygenerowała dzieło sztuki, które ma podobieństwa do Twojej sztuki?

Niektórzy twierdzą, że tak, a niektórzy, że nie.

Obóz twierdzący, wierzący, że jest to etycznie w porządku, być może argumentowałby, że skoro opublikowałeś swoje dzieło w Internecie, jest ono otwarte dla kogokolwiek lub czegokolwiek, kto chce je skopiować. Mogą też twierdzić, że nowa grafika nie jest dokładną kopią twojej pracy. Nie można zatem narzekać. Gdybyśmy w jakiś sposób powstrzymali wszelkie ponowne wykorzystywanie istniejącej sztuki, nigdy nie mielibyśmy do oglądania żadnej nowej sztuki. Poza tym moglibyśmy przypuszczalnie wdać się w gorącą debatę na temat tego, czy twoja konkretna grafika była kopiowana lub wykorzystywana – może to być inna grafika, o której istnieniu nawet nie wiedziałeś i która w rzeczywistości była źródłem.

Obóz „nie” stanowczo twierdziłby, że jest to rażąco nieetyczne. Nie ma co do tego dwóch zdań. Będą argumentować, że zostałeś oszukany. Tylko dlatego, że Twoje dzieło jest publikowane w Internecie, nie oznacza, że ​​każdy może przyjść i swobodnie je kopiować. Być może opublikowałeś grafikę z surowym ostrzeżeniem, aby jej nie kopiować. W międzyczasie pojawiła się sztuczna inteligencja, usunęła grafikę i całkowicie pominęła ostrzeżenia. Skandaliczny! A wymówka, że ​​​​algorytm sztucznej inteligencji uogólnił się i nie wykonuje dokładnego precyzyjnego kopiowania, wydaje się być jedną z tych fałszywych wymówek. Zorientował się, jak wykorzystać twój kunszt, a to hańba i hańba.

A co z prawnymi aspektami tej generatywnej sztucznej inteligencji?

Istnieje wiele załamań ręcznych na temat szczegółów prawnych generatywnej sztucznej inteligencji. Czy zwracasz uwagę na przepisy federalne dotyczące praw własności intelektualnej (IP)? Czy są one wystarczająco ostre, aby aplikować? A co, gdy generatywna sztuczna inteligencja przekracza międzynarodowe granice, aby zebrać zestaw uczący? Czy grafika wygenerowana przez sztuczną inteligencję pasuje do różnych wykluczających kategorii związanych z prawami własności intelektualnej? I tak dalej.

Niektórzy uważają, że potrzebujemy nowych przepisów dotyczących sztucznej inteligencji, aby poradzić sobie z tego rodzaju generatywnymi sytuacjami związanymi ze sztuczną inteligencją. Zamiast próbować podkuwać istniejące przepisy, może być czystsze i łatwiejsze tworzenie nowych przepisów. Ponadto, nawet jeśli obowiązują obowiązujące przepisy, koszty i opóźnienia w próbie wszczęcia postępowania prawnego mogą być ogromne i ograniczać Twoją zdolność do kontynuowania działań, gdy uważasz, że zostałeś niesprawiedliwie i bezprawnie skrzywdzony. Aby zapoznać się z moim omówieniem tych tematów, zob link tutaj.

Dodam dodatkowy zwrot do tych rozważań na temat etyki AI i prawa AI.

Kto jest właścicielem praw do wygenerowanego wyniku AI?

Można powiedzieć, że ludzie, którzy opracowali sztuczną inteligencję, powinni posiadać te prawa. Nie wszyscy zgadzają się z takim twierdzeniem. Można powiedzieć, że AI jest właścicielem tych praw, ale jest to zakłócone faktem, że generalnie nie uznajemy, że AI może posiadać takie prawa. Dopóki nie dowiemy się, czy sztuczna inteligencja będzie miała osobowość prawną, nie ma pewności na tym froncie, patrz moja analiza pod adresem link tutaj.

Ufam, że masz teraz pojęcie o tym, co robi generatywna sztuczna inteligencja. Następnie możemy przejść do rozważenia przypadku użycia obejmującego generowanie narracji tekstowych.

Generatywna sztuczna inteligencja, która generuje narracje tekstowe

Teraz, gdy omówiliśmy wykorzystanie generatywnej sztucznej inteligencji do tworzenia dzieł sztuki lub obrazów, możemy z łatwością przyjrzeć się tym samym ogólnym sformułowaniom, aby stworzyć narracje oparte na tekście.

Zacznijmy od czegoś, o czym wszyscy wiemy i którego używamy na co dzień. Podczas wprowadzania tekstu do pakietu edytora tekstu lub aplikacji poczty e-mail istnieje duże prawdopodobieństwo, że dostępna jest funkcja automatycznej korekty, która próbuje wychwycić wszystkie błędy ortograficzne.

Gdy tego rodzaju funkcja automatycznego wspomagania stała się powszechna, kolejnym bardziej zaawansowanym aspektem była funkcja automatycznego uzupełniania. W przypadku autouzupełniania koncepcja polega na tym, że kiedy zaczynasz pisać zdanie, edytor tekstu lub aplikacja e-mail próbuje przewidzieć, jakie słowa prawdopodobnie wpiszesz jako następne. Może przewidywać tylko jedno lub dwa słowa naprzód. Jeśli funkcja jest szczególnie wzmocniona, może przewidzieć resztę całego zdania.

Możemy wrzucić to na wyższy bieg. Załóżmy, że zaczynasz pisać zdanie, a autouzupełnianie generuje resztę całego akapitu. Voila, nie musiałeś pisać akapitu bezpośrednio. Zamiast tego aplikacja zrobiła to za Ciebie.

Dobra, to wydaje się fajne. Popchnij to dalej. Zaczynasz zdanie, a autouzupełnianie komponuje resztę całej wiadomości. Może to składać się z wielu akapitów. Wszystko to jest generowane poprzez wpisanie tylko części zdania, a może całego zdania lub dwóch.

W jaki sposób autouzupełnianie ustala, co prawdopodobnie napiszesz dalej?

Okazuje się, że ludzie mają tendencję do pisania tych samych rzeczy w kółko. Może nie, ale chodzi o to, że cokolwiek piszesz, prawdopodobnie napisał już ktoś inny. To może nie być dokładnie to, co zamierzasz napisać. Zamiast tego może to być trochę podobne do tego, co zamierzałeś napisać.

Użyjmy tej samej logiki, która została zastosowana przy generowaniu sztuki lub obrazów.

Generatywna aplikacja AI jest przygotowywana poprzez wyjście do Internetu i zbadanie wszelkiego rodzaju tekstu, który istnieje w świecie online. Algorytm próbuje obliczeniowo określić, w jaki sposób słowa są powiązane z innymi słowami, w jaki sposób zdania są powiązane z innymi zdaniami oraz w jaki sposób akapity są powiązane z innymi akapitami. Wszystko to jest modelowane matematycznie i tworzona jest sieć obliczeniowa.

Oto, co dzieje się dalej.

Decydujesz się skorzystać z generatywnej aplikacji AI, która koncentruje się na generowaniu narracji tekstowych. Po uruchomieniu aplikacji wpisujesz zdanie. Aplikacja AI obliczeniowo sprawdza twoje zdanie. Różne relacje matematyczne między wprowadzonymi słowami są używane w sieci matematycznej do ustalenia, jaki tekst będzie następny. Z pojedynczego wiersza, który napiszesz, może się zdarzyć, że uda się wygenerować całą historię lub narrację.

Teraz możesz pomyśleć, że jest to małpa-widz-małpa-zrób i że wynikowy tekst wygenerowany przez generatywną sztuczną inteligencję będzie bezsensowny. Cóż, byłbyś zaskoczony, jak dobrze dostrojony staje się ten rodzaj sztucznej inteligencji. Przy wystarczająco dużym zbiorze danych do szkolenia i przy wystarczającym przetwarzaniu komputerowym, aby je obszernie przetwarzać, dane wyjściowe wytwarzane przez generatywną sztuczną inteligencję mogą być niesamowicie imponujące.

Spojrzałbyś na wynik i prawdopodobnie przysiągłbyś, że na pewno wygenerowana narracja została napisana bezpośrednio przez człowieka. To tak, jakby twój wyrok został przekazany człowiekowi, ukrywającemu się za kulisami, a oni szybko napisali ci całą narrację, która prawie w pełni pasowała do tego, co zamierzałeś inaczej powiedzieć. Oto jak dobre stały się podstawy matematyki i obliczeń.

Zwykle, gdy używasz generatywnej sztucznej inteligencji, która tworzy narracje oparte na tekście, masz tendencję do zadawania pytania początkowego lub pewnego rodzaju twierdzenia. Na przykład możesz wpisać „Opowiedz mi o ptakach w Ameryce Północnej”, a generatywna sztuczna inteligencja uzna to za stwierdzenie lub pytanie, na podstawie którego aplikacja spróbuje zidentyfikować „ptaki” i „Amerykę Północną” z dowolnym wyszkolonym zbiorem danych to ma. Jestem pewien, że możesz sobie wyobrazić, że w Internecie istnieje ogromna liczba tekstów opisujących ptaki Ameryki Północnej, z których sztuczna inteligencja podczas szkolenia wstępnego wyodrębniła i wymodelowała zasoby tekstu.

Wynik wygenerowany dla Ciebie prawdopodobnie nie będzie dokładnym tekstem żadnej konkretnej witryny internetowej. Przypomnijmy, że to samo zostało wspomniane wcześniej w przypadku generowanych dzieł sztuki. Tekst będzie kompozycją rodzajów, bitów i kawałków, które są powiązane ze sobą matematycznie i obliczeniowo. Wygenerowana narracja oparta na tekście wydawałaby się pod każdym względem wyjątkowa, tak jakby ten konkretny tekst nigdy wcześniej nie był przez nikogo skomponowany.

Oczywiście, mogą istnieć wyraźne wskazówki. Jeśli poprosisz lub zmusisz generatywną sztuczną inteligencję do przejścia do wyjątkowo niejasnych tematów, istnieje większa szansa, że ​​zobaczysz wynik tekstowy przypominający używane źródła. W przypadku tekstu szanse są jednak zwykle mniejsze niż w przypadku sztuki. Tekst będzie połączeniem specyfiki tematu, ale jednocześnie zatarty i zmieszany z ogólnymi rodzajami tekstu, które są używane w dyskursie ogólnym.

Matematyczne i obliczeniowe techniki i technologie wykorzystywane do generatywnych możliwości sztucznej inteligencji są często określane przez specjalistów od sztucznej inteligencji jako duże modele językowe (LLM). Mówiąc najprościej, jest to modelowanie ludzkiego języka na dużą skalę. Przed Internetem trudno byłoby znaleźć niezwykle duży zbiór danych tekstowych, który był dostępny online i tanio. Prawdopodobnie musiałbyś wykupić dostęp do tekstu, który niekoniecznie byłby już dostępny w formacie elektronicznym lub cyfrowym.

Widzisz, Internet do czegoś się nadaje, a mianowicie jest gotowym źródłem do szkolenia generatywnej AI.

Przenikliwe myślenie o generatywnej sztucznej inteligencji, która tworzy tekst

Powinniśmy poświęcić chwilę na zastanowienie się nad etyką sztucznej inteligencji i jej prawami związanymi z generatywną sztuczną inteligencją, która tworzy narracje tekstowe.

Pamiętajcie, że w przypadku generowanej sztuki martwiliśmy się o etykę algorytmu AI, który tworzy sztukę na podstawie innych dzieł stworzonych przez człowieka. Ta sama obawa pojawia się w instancji tekstowej. Nawet jeśli wygenerowany tekst nie wygląda dokładnie tak, jak oryginalne źródła, można argumentować, że sztuczna inteligencja wykorzystuje tekst, a oryginalny producent jest oszukiwany. Drugą stroną tej monety jest to, że tekst w Internecie, jeśli jest ogólnodostępny, może być wykorzystany przez każdego człowieka do zrobienia tego samego, więc dlaczego nie pozwolić sztucznej inteligencji zrobić to samo?

Komplikacje związane z prawnymi aspektami praw własności intelektualnej ujawniają się również w przypadku generatywnej sztucznej inteligencji opartej na tekście. Zakładając, że szkolony tekst jest chroniony prawami autorskimi, czy powiedziałbyś, że wygenerowany tekst narusza te prawa? Jedna odpowiedź brzmi, że tak, a inna, że ​​nie. Należy pamiętać, że wygenerowany tekst prawdopodobnie będzie znacznie różnił się od tekstu oryginalnego, dlatego trudno będzie twierdzić, że oryginalny tekst został podrobiony.

Innym już wspomnianym problemem są również prawa własności do wyprodukowanych narracji tekstowych przez generatywną sztuczną inteligencję. Załóżmy, że wpisujesz w sztuczną inteligencję „Napisz zabawną historię o ludziach czekających w kolejce po kawę”, a generatywna sztuczna inteligencja tworzy strony po stronach przezabawnej historii opowiadającej o grupie ludzi, którzy przypadkowo spotykają się, czekając na filiżankę kawy. Jawa.

Kto jest właścicielem tej historii?

Możesz argumentować, że skoro wpisałeś monit, słusznie powinieneś „posiadać” wygenerowaną historię. Whoa, niektórzy powiedzieliby, że sztuczna inteligencja była sposobem, w jaki generowana była historia, ergo sztuczna inteligencja „jest właścicielem” wspaniałej opowieści. Yikes, inni nawoływaliby, gdyby sztuczna inteligencja wzięła fragmenty z wszelkiego rodzaju innych podobnych historii w Internecie, wszyscy ci ludzcy pisarze powinni mieć udział we własności.

Sprawa jest nierozwiązana i dopiero teraz wpadamy w prawne bagno, które będzie się rozgrywać przez kilka następnych lat.

Pojawiają się dodatkowe obawy związane z etyką SI i przepisami dotyczącymi sztucznej inteligencji.

Niektóre osoby, które korzystały z generatywnych aplikacji AI, zaczynają wierzyć, że aplikacja AI jest świadoma. Musi tak być, krzyczą. Jak inaczej można wyjaśnić zdumiewające odpowiedzi i historie, które sztuczna inteligencja jest w stanie stworzyć? W końcu osiągnęliśmy świadomą sztuczną inteligencję.

Absolutnie się mylą.

To nie jest czująca sztuczna inteligencja.

Kiedy to mówię, niektórzy znawcy sztucznej inteligencji denerwują się i zachowują się tak, jakby każdy, kto zaprzecza, że ​​sztuczna inteligencja jest świadoma, jednocześnie mówi, że sztuczna inteligencja jest bezwartościowa. To fałszywy i błędny argument. Otwarcie zgadzam się, że ta generatywna sztuczna inteligencja jest dość imponująca. Możemy go używać do wszelkiego rodzaju celów, o czym wspomnę później. Niemniej jednak nie jest czuły. Aby zapoznać się z moim wyjaśnieniem, dlaczego tego rodzaju przełomy w sztucznej inteligencji nie są świadome, zob link tutaj.

Innym przerośniętym i wyraźnie błędnym twierdzeniem niektórych jest to, że generatywna sztuczna inteligencja pomyślnie wygrała test Turinga.

To z całą pewnością nie tak zrobiłem.

Test Turinga to rodzaj testu mającego na celu ustalenie, czy aplikacja AI jest w stanie dorównać ludziom. Pierwotnie opracowany jako gra mimiczna przez Alana Turinga, wielkiego matematyka i pioniera komputerów, test sam w sobie jest prosty. Gdyby umieścić człowieka za kurtyną, a za inną aplikację AI i zadać im oba pytania, z których nie można by było określić, która jest maszyną, a która człowiekiem, sztuczna inteligencja pomyślnie przeszłaby Test Turinga. Aby uzyskać szczegółowe wyjaśnienie i analizę testu Turinga, zob link tutaj.

Ci ludzie, którzy wciąż twierdzą, że generatywna sztuczna inteligencja przeszła test Turinga, nie wiedzą, o czym mówią. Albo nie wiedzą, czym jest test Turinga, albo niestety podkręcają sztuczną inteligencję w sposób, który jest błędny i całkowicie wprowadzający w błąd. W każdym razie, jedną z najważniejszych kwestii dotyczących testu Turinga jest to, jakie pytania należy zadać, kto je zadaje, a także ocena, czy odpowiedzi są jakości ludzkiej.

Chodzi mi o to, że ludzie wpisują kilkanaście pytań do generatywnej sztucznej inteligencji, a kiedy odpowiedzi wydają się wiarygodne, pochopnie ogłaszają, że test Turinga został zdany. Ponownie, to jest fałszywe. Wprowadzanie wątłego zestawu pytań i robienie szturchania tu i tam nie jest ani intencją, ani duchem testu Turinga. Przestań wygłaszać te niehonorowe twierdzenia.

Oto uzasadniony zarzut, o którym niewiele się słyszy, chociaż uważam, że jest niezwykle godny.

Twórcy sztucznej inteligencji zazwyczaj konfigurują generatywną sztuczną inteligencję tak, aby reagowała tak, jakby odpowiadał człowiek, mianowicie używając sformułowania „ja” lub „ja”, gdy komponuje dane wyjściowe. Na przykład, prosząc o opowiedzenie historii o psie zagubionym w lesie, generatywna sztuczna inteligencja może podać tekst, który brzmi: „Opowiem ci wszystko o psie o imieniu Sam, który zgubił się w lesie. To jedna z moich ulubionych historii”.

Zauważ, że sformułowanie mówi „Powiem ci…” i że historia jest „jedną z moich ulubionych…”, tak że każdy, kto czyta ten wynik, subtelnie wpadnie w mentalną pułapkę antropomorfizacji sztucznej inteligencji. Antropomorfizacja polega na tym, że ludzie próbują przypisać ludzkie cechy i ludzkie uczucia wobec nie-ludzi. Jesteś uśpiony, wierząc, że ta sztuczna inteligencja jest ludzka lub podobna do człowieka, ponieważ sformułowania w danych wyjściowych są celowo opracowane w ten sposób.

To nie musi być wymyślone w ten sposób. Wynik mógłby brzmieć: „Oto historia o psie o imieniu Sam, który zgubił się w lesie. To ulubiona historia”. Byłbyś mniej skłonny od razu założyć, że sztuczna inteligencja jest ludzka lub podobna do człowieka. Zdaję sobie sprawę, że nadal możesz wpaść w tę pułapkę, ale przynajmniej pułapki, jakie były, nie są tak wyraźne.

Krótko mówiąc, masz generatywną sztuczną inteligencję, która tworzy narracje oparte na tekście w oparciu o sposób pisania ludzi, a wynikowy wynik wydaje się być napisany tak, jak napisałby coś człowiek. Ma to ogromny sens, ponieważ sztuczna inteligencja matematycznie i obliczeniowo wzoruje się na tym, co napisali ludzie. Teraz dodaj do tego użycie sformułowań antropomorficznych, a otrzymasz idealną burzę, która przekonuje ludzi, że sztuczna inteligencja jest świadoma lub przeszła test Turinga.

Pojawia się wiele problemów związanych z etyką AI i prawem AI.

Uderzę cię raczej niebezpiecznymi konsekwencjami tej generatywnej sztucznej inteligencji.

Usiądź za to.

Tworzone narracje tekstowe niekoniecznie są zgodne z prawdą lub dokładnością. Ważne jest, aby zdać sobie sprawę, że generatywna sztuczna inteligencja nie „rozumie”, co jest generowane (nie w żaden sposób związany z człowiekiem, można by argumentować). Jeśli tekst wykorzystany w szkoleniu zawierał kłamstwa, są szanse, że te same kłamstwa zostaną ugotowane w generatywnej sieci matematycznej i obliczeniowej sztucznej inteligencji.

Co więcej, generatywna sztuczna inteligencja zwykle nie ma żadnych środków matematycznych ani obliczeniowych, aby rozpoznać, że wygenerowany tekst zawiera fałsz. Kiedy spojrzysz na wygenerowaną narrację wyjściową, narracja zwykle będzie wyglądać całkowicie „prawdziwie” na pierwszy rzut oka. Możesz nie mieć realnych sposobów wykrycia, że ​​kłamstwa są osadzone w narracji.

Załóżmy, że zadajesz pytanie medyczne generatywnej sztucznej inteligencji. Aplikacja AI tworzy długą narrację. Wyobraź sobie, że większość narracji ma sens i wydaje się rozsądna. Ale jeśli nie jesteś specjalistą medycznym, możesz nie zdawać sobie sprawy, że w narracji jest kilka kluczowych kłamstw. Być może tekst mówi ci, żebyś wziął pięćdziesiąt pigułek w ciągu dwóch godzin, podczas gdy w rzeczywistości prawdziwym zaleceniem lekarskim jest przyjęcie dwóch pigułek w ciągu dwóch godzin. Możesz uwierzyć w rzekomą radę dotyczącą pięćdziesięciu tabletek, po prostu dlatego, że reszta narracji wydawała się rozsądna i sensowna.

Posiadanie wzorca sztucznej inteligencji dotyczącego fałszu w oryginalnych danych źródłowych jest tylko jednym ze sposobów na to, by sztuczna inteligencja poszła krzywo w tych narracjach. W zależności od używanej sieci matematycznej i obliczeniowej sztuczna inteligencja będzie próbowała „zrobić” rzeczy. W żargonie AI nazywa się to AI halucynacje, która jest okropną terminologią, z którą szczerze się nie zgadzam i uważam, że nie powinna być kontynuowana jako slogan, patrz moja analiza na link tutaj.

Załóżmy, że poprosiłeś generatywną sztuczną inteligencję o opowiedzenie historii o psie. Sztuczna inteligencja może sprawić, że pies będzie mógł latać. Jeśli historia, którą chciałeś, miała być oparta na rzeczywistości, latający pies wydaje się mało prawdopodobny. Ty i ja wiemy, że psy z natury nie potrafią latać. Nic wielkiego, mówisz, skoro wszyscy o tym wiedzą.

Wyobraź sobie dziecko w szkole, które próbuje dowiedzieć się o psach. Używają generatywnej sztucznej inteligencji. Daje dane wyjściowe, które mówią, że psy potrafią latać. Dziecko nie wie, czy to prawda, czy nie i zakłada, że ​​tak musi być. W pewnym sensie to tak, jakby dziecko poszło do internetowej encyklopedii i napisało, że psy potrafią latać. Dziecko będzie prawdopodobnie odtąd upierać się, że psy rzeczywiście potrafią latać.

Wracając do zagadki związanej z etyką sztucznej inteligencji i prawami dotyczącymi sztucznej inteligencji, jesteśmy teraz o krok od możliwości wyprodukowania niemal nieskończonej ilości treści tekstowych przy użyciu generatywnej sztucznej inteligencji i zalejemy się milionami narracji, które są niewątpliwie przepełnione kłamstwami i innymi potokami dezinformacji i dezinformacji.

Tak, za naciśnięciem przycisku i kilkoma słowami wprowadzonymi do generatywnej sztucznej inteligencji możesz wygenerować stosy narracji tekstowych, które wydają się całkowicie wiarygodne i zgodne z prawdą. Następnie możesz opublikować to w Internecie. Inni ludzie przeczytają ten materiał i założą, że to prawda. Co więcej, inne generatywne AI, które pojawiają się, próbując przeszkolić się w zakresie tekstu, potencjalnie napotkają ten materiał i zawiną go w generatywną sztuczną inteligencję, którą opracowuje.

To tak, jakbyśmy teraz dodawali sterydy do generowania dezinformacji i dezinformacji. Zmierzamy w kierunku dezinformacji i dezinformacji na ogromną galaktyczną skalę globalną.

Do wyprodukowania tego wszystkiego potrzeba bardzo niewiele ludzkiej pracy.

Generatywna sztuczna inteligencja i ChatGPT

Przejdźmy do nagłówka tej dyskusji o generatywnej sztucznej inteligencji. Omówiliśmy teraz naturę generatywnej sztucznej inteligencji, która ogólnie tworzy narracje tekstowe. Dostępnych jest wiele takich generatywnych aplikacji AI.

Jedna z aplikacji AI, która szczególnie zyskała rozgłos, jest znana jako ChatGPT.

Zamach public relations rozlał się po mediach społecznościowych i wiadomościach — ChatGPT zyskuje teraz całą chwałę. Światło świeci jasno na ChatGPT. Dostaje swoje oszałamiające pięć minut sławy.

ChatGPT to nazwa generatywnej aplikacji AI opracowanej przez podmiot znany jako OpenAI. OpenAI jest dość dobrze znany w dziedzinie sztucznej inteligencji i można go uznać za laboratorium badawcze AI. Mają reputację przesuwania granic, jeśli chodzi o sztuczną inteligencję do przetwarzania języka naturalnego (NLP), wraz z innymi postępami w zakresie sztucznej inteligencji. Rozpoczynają serię aplikacji AI, które wymyślili jako GPT (Generative Pre-Trained Transformers). Każda wersja otrzymuje numer. Pisałem wcześniej o ich GPT-3 (wersja 3 ich serii GPT), patrz link tutaj.

GPT-3 wzbudził spore zainteresowanie, gdy został wydany po raz pierwszy (przeszedł do szeroko zakrojonych testów beta około dwa lata temu i został szerzej udostępniony w 2022 r.). Jest to generatywna aplikacja AI, która po wprowadzeniu monitu utworzy lub wygeneruje narrację tekstową. Wszystko, o czym wspomniałem wcześniej na temat ogólnego przypadku generatywnych aplikacji AI, ma zasadniczo zastosowanie do GPT-3.

Od dawna mówiono o tym, że GPT-4 jest w toku, a osoby zajmujące się sztuczną inteligencją czekały z zapartym tchem, aby zobaczyć, jakie ulepszenia lub ulepszenia są w GPT-4 w przeciwieństwie do GPT-3. W tej serii pojawia się najnowszy pośrednik, znany jako GPT-3.5. Tak, masz rację, jest pomiędzy wydanym GPT-3 a jeszcze nie wydanym GPT 4.0.

OpenAI użył swojego GPT-3.5 do stworzenia odgałęzienia, które nazwali ChatGPT. Mówi się, że dokonali specjalnych udoskonaleń, aby stworzyć ChatGPT. Na przykład, krążyło przekonanie, że ChatGPT został dostosowany do możliwości pracy w sposób chatbota. Obejmuje to „rozmowę”, którą prowadzisz z aplikacją AI, która jest śledzona przez sztuczną inteligencję i wykorzystywana do tworzenia kolejnych żądanych narracji.

Wiele z generatywnych aplikacji AI było zwykle projektami jednorazowymi. Wprowadziłeś monit, narrację wygenerowała sztuczna inteligencja i to wszystko. Twój następny monit nie ma wpływu na to, co stanie się dalej. To tak, jakbyś zaczynał od nowa za każdym razem, gdy wprowadzasz monit.

Inaczej jest w przypadku ChatGPT. W nieujawniony jeszcze sposób aplikacja AI próbuje wykrywać wzorce w twoich monitach i dlatego może wydawać się bardziej responsywna na twoje prośby (ta aplikacja AI jest uważana za ogólnodostępne ze względu na umożliwienie każdemu zarejestrowania się w celu korzystania z niego, ale nadal tak jest własność i zdecydowanie nie aplikacja AI typu open source, która ujawnia jej wewnętrzne działanie). Na przykład przypomnij sobie moją wcześniejszą wskazówkę, że chcesz zobaczyć żabę w kapeluszu na kominie. Jedna metoda polega na tym, że za każdym razem, gdy składasz taką prośbę, wszystko zaczyna się od nowa. Inną metodą byłoby kontynuowanie tego, co powiedziałeś wcześniej. W ten sposób mógłbyś powiedzieć sztucznej inteligencji, że chcesz, aby żaba usiadła, co samo w sobie nie ma sensu, podczas gdy w kontekście twojej wcześniejszej prośby o żabę z kapeluszem na kominie, prośba pozornie może mieć sens.

Być może zastanawiasz się, dlaczego nagle wydaje się, że nastąpił rozkwit i rozkwit ChatGPT.

Częściowo dzieje się tak dlatego, że ChatGPT został udostępniony każdemu, kto chciał się zarejestrować, aby z niego korzystać. W przeszłości często istniały selektywne kryteria dotyczące tego, kto może korzystać z nowo dostępnej generatywnej aplikacji AI. Dostawca wymagałby, abyś był znawcą sztucznej inteligencji lub może miał inne warunki. Inaczej jest w przypadku ChatGPT.

Szybko rozeszła się wieść, że ChatGPT jest niezwykle łatwy w użyciu, darmowy i można go używać po prostej rejestracji, która wymagała jedynie podania adresu e-mail. Podobnie jak szybki ogień, nagle i równie podsycony lub pobudzony przez wirusowe posty w mediach społecznościowych, aplikacja ChatGPT przekroczyła milion użytkowników. Media podkreślały fakt, że milion osób zarejestrowało się w ChatGPT.

Chociaż jest to z pewnością niezwykłe i godne uwagi, należy pamiętać o kontekście tych rejestracji. Rejestracja jest bezpłatna i łatwa. Chatbot jest bardzo łatwy w użyciu i nie wymaga wcześniejszego szkolenia ani doświadczenia. Po prostu wprowadzasz podpowiedzi według własnego wyboru i sformułowania, a aplikacja Shazam AI zapewnia wygenerowaną narrację. Dziecko może to zrobić, co w rzeczywistości jest niepokojącym problemem dla niektórych, a mianowicie, że jeśli dzieci używają ChatGPT, czy będą uczyć się wątpliwych materiałów (zgodnie z moim wcześniejszym punktem dotyczącym takich kwestii)?

Być może warto również zauważyć, że niektórzy (wiele?) Z tych milionów rejestracji to ludzie, którzy prawdopodobnie chcieli kopnąć opony i nie robić nic więcej. Szybko utworzyli konto, przez chwilę bawili się aplikacją AI, uznali, że to zabawne i zaskakujące, a potem być może opublikowali kilka postów w mediach społecznościowych, aby pokazać, co znaleźli. Po tym mogą już nigdy więcej się nie logować lub przynajmniej korzystać z aplikacji AI tylko wtedy, gdy zajdzie taka potrzeba.

Inni wskazywali również, że czas udostępnienia ChatGPT zbiegł się z porą roku, która spowodowała duże zainteresowanie aplikacją AI. Być może podczas wakacji mamy więcej czasu na zabawę z zabawnymi przedmiotami. Pojawienie się mediów społecznościowych również przekształciło to w swego rodzaju zjawisko. Klasyczny FOMO (strach przed przegapieniem) prawdopodobnie przyczynił się do pośpiechu. Oczywiście, jeśli porównasz milion z niektórymi popularnymi influencerami na YouTube, możesz zasugerować, że milion to marna liczba w porównaniu z tymi vlogami, które uzyskują setki milionów rejestracji lub wyświetleń po pierwszym opublikowaniu lub opublikowaniu.

Cóż, nie dygresujmy i zauważmy, że mimo to w przypadku aplikacji AI o charakterze eksperymentalnym milion rejestracji jest z pewnością godny pochwały.

Od razu ludzie używali ChatGPT do tworzenia historii. Następnie opublikowali historie i zachwycali się ich cudem. Reporterzy i dziennikarze przeprowadzają nawet „wywiady” z ChatGPT, co jest nieco niepokojące, ponieważ wpadają w tę samą antropomorficzną pułapkę (albo przez rzeczywistą nieświadomość, albo przez nadzieję na zebranie zbyt dużych wyświetleń dla swoich artykułów). Bezpośrednią tendencją było również stwierdzenie, że sztuczna inteligencja osiągnęła już świadomość lub przeszła test Turinga, co wyraźnie skomentowałem wcześniej w tym dokumencie.

Obawy społeczne poruszone przez ChatGPT są tak naprawdę tymi, które już się pojawiały w wyniku wcześniejszych wersji GPT, a także mnóstwa dostępnych już LLM i generatywnej sztucznej inteligencji. Różnica polega na tym, że teraz cały świat zdecydował się włączyć. To przydatne. Musimy upewnić się, że etyka sztucznej inteligencji i prawo dotyczące sztucznej inteligencji są należycie eksponowane i poświęcane im uwagi. Jeśli potrzeba ChatGPT, aby nas tam zabrać, niech tak będzie.

Jakiego rodzaju obawy są wyrażane?

Weźmy przypadek użycia uczniów proszonych o napisanie esejów na ich zajęcia. Student zwykle ma napisać esej w całości w oparciu o własne umiejętności pisarskie i kompozytorskie. Jasne, mogą przeglądać inne materiały pisemne, aby uzyskać pomysły i cytaty, ale poza tym zakłada się, że uczeń wymyśla swój esej z własnej głowy. Kopiowanie prozy z innych źródeł jest mile widziane, co zwykle prowadzi do oceny F lub prawdopodobnie wydalenia za plagiat innego materiału.

Oto, co może się teraz wydarzyć. Uczeń rejestruje się w ChatGPT (lub dowolnej innej podobnej generatywnej aplikacji AI). Wpisują dowolny monit, który dał im nauczyciel w celu wyprowadzenia eseju. ChatGPT tworzy pełny esej na podstawie monitu. Jest to „oryginalna” kompozycja, której nie można znaleźć nigdzie indziej. Nie jesteś w stanie udowodnić, że kompozycja była plagiatem, ponieważ w pewnym sensie nie była plagiatem.

Student oddaje esej. Twierdzą, że jest to ich własna praca pisemna. Nauczyciel nie ma gotowych środków, aby myśleć inaczej. Biorąc to pod uwagę, możesz wyczarować pogląd, że jeśli praca pisemna pozornie przekracza istniejące możliwości ucznia, możesz nabrać podejrzeń. Ale to nie jest wiele do zrobienia, jeśli zamierzasz oskarżyć ucznia o ściąganie.

Jak poradzą sobie z tym nauczyciele?

Niektórzy wprowadzają zasadę do swoich materiałów dydaktycznych, że każde użycie ChatGPT lub odpowiednika będzie uważane za formę oszukiwania. Ponadto nie przyznanie się do korzystania z ChatGPT lub odpowiednika jest formą oszustwa. Czy to ograniczy tę nową szansę? Mówi się, że jest to wątpliwe, ponieważ szanse na złapanie są niskie, a szanse na uzyskanie dobrej oceny z dobrze napisanej pracy są wysokie. Możesz sobie wyobrazić uczniów, których czeka termin napisania eseju, a poprzedniego wieczoru będą mieli ochotę użyć generatywnej sztucznej inteligencji, aby pozornie wydobyć ich z zastoju.

Zmiana biegów, potencjalnie będzie każdy rodzaj pisania zakłócony przez generatywną sztuczną inteligencję.

Czy jesteś proszony o napisanie notatki w pracy na ten lub inny temat? Nie trać czasu, robiąc to od zera. Użyj generatywnej sztucznej inteligencji. Następnie możesz wyciąć i wkleić wygenerowany tekst do swojej kompozycji, udoskonalić tekst w razie potrzeby i z łatwością zakończyć żmudne pisanie.

Czy to wydaje się właściwe?

Założę się, że większość ludzi powiedziałaby, że tak. Jest to nawet lepsze niż kopiowanie czegoś z Internetu, co może wpędzić cię w gorącą wodę za plagiat. Wykorzystanie generatywnej sztucznej inteligencji ma ogromny sens, aby twoje wysiłki związane z pisaniem zostały wykonane częściowo, a może nawet całkowicie za ciebie. Po to są stworzone narzędzia.

Na marginesie, w jednym z moich następnych felietonów dokładnie zbadany zostanie przypadek użycia generatywnej sztucznej inteligencji do celów prawnych w sensie wykonywania pracy typu prawnika i tworzenia dokumentów prawnych. Każdy, kto jest adwokatem lub prawnikiem, będzie chciał rozważyć, w jaki sposób generatywna sztuczna inteligencja może potencjalnie wykorzenić lub zakłócić praktyki prawne. Rozważmy na przykład prawnika piszącego opinię prawną do sprawy sądowej. Mogliby potencjalnie użyć generatywnej sztucznej inteligencji, aby napisać kompozycję. Jasne, może mieć pewne wady, więc prawnik musi to poprawić tu i tam. Zmniejszona ilość pracy i czasu potrzebnego do stworzenia briefu może sprawić, że poprawki będą warte zachodu.

Niektórzy jednak obawiają się, że dokument prawny może zawierać kłamstwa lub halucynacje AI, których prawnik nie wyłapał. Punkt widzenia w tym zwrocie jest taki, że spoczywa to na barkach adwokata. Przypuszczalnie oświadczali, że brief został napisany przez nich, więc niezależnie od tego, czy napisał go młodszy współpracownik, czy też zrobiła to aplikacja AI, nadal ponoszą ostateczną odpowiedzialność za ostateczną treść.

Staje się to trudniejsze, jeśli osoby niebędące prawnikami zaczną wykorzystywać generatywną sztuczną inteligencję do wykonywania dla nich legalnych prac legislacyjnych. Mogą wierzyć, że generatywna sztuczna inteligencja może tworzyć wszelkiego rodzaju dokumenty prawne. Problem polega oczywiście na tym, że dokumenty mogą nie być prawnie ważne. Powiem więcej na ten temat w moim nadchodzącym felietonie.

Powstaje kluczowa praktyczna zasada dotycząca społeczeństwa i aktu ludzkiego pisania.

To trochę doniosłe:

  • Za każdym razem, gdy masz za zadanie napisać coś, czy powinieneś napisać artykuł od zera, czy też powinieneś użyć generatywnego narzędzia sztucznej inteligencji, aby pomóc ci w drodze?

Dane wyjściowe mogą być na wpół upieczone i będziesz musiał wykonać wiele przepisywania. Lub wydruk może być prawidłowy i wystarczy dokonać drobnych poprawek. Podsumowując, jeśli użycie jest darmowe i łatwe, pokusa użycia generatywnej sztucznej inteligencji będzie ogromna.

Dodatkową korzyścią jest to, że możesz potencjalnie użyć generatywnej sztucznej inteligencji do wykonania niektórych przeróbek. Podobnie jak podpowiedzi dotyczące żaby w kapeluszu i komina, podczas tworzenia sztuki możesz zrobić to samo, tworząc narrację tekstową. Sztuczna inteligencja może stworzyć twoją historię o psie, a zamiast tego zdecydowałeś, że chcesz, aby głównym bohaterem był kot. Po otrzymaniu historii o psie wprowadzasz kolejny monit i instruujesz aplikację AI, aby przełączyła się na używanie kota w historii. Prawdopodobnie spowoduje to coś więcej niż tylko zastąpienie w narracji słowa „kot” słowem „pies”. Aplikacja AI mogłaby łatwo zmienić historię, aby odnieść się do tego, co robią koty, a co robią psy. Cała historia może zostać zmieniona tak, jakbyś poprosił człowieka o dokonanie takich poprawek.

Potężny, imponujący, poręczny dandys.

Kilka zastrzeżeń do przemyślenia:

  • Czy wspólnie stracimy zdolność pisania, uzależniając się całkowicie od generatywnej sztucznej inteligencji, która będzie za nas pisać?
  • Czy ludzie, którzy zarabiają na życie pisaniem, zostaną wyrzuceni z pracy (to samo dotyczy artystów)?
  • Czy Internet będzie rósł w ogromnych skokach, gdy generowane narracje zaleją Internet i nie będziemy już w stanie oddzielić prawdy od fałszu?
  • Czy ludzie mocno uwierzą w te generowane narracje i będą zachowywać się tak, jakby autorytatywna postać przekazała im prawdziwy materiał, na którym mogą polegać, w tym prawdopodobnie treści związane z życiem lub śmiercią?
  • Inne

Przemyśl to.

Zwróć uwagę, że jeden z tych wypunktowanych punktów dotyczy polegania na materiale wygenerowanym przez generatywną sztuczną inteligencję na zasadzie życia lub śmierci.

Oto łamacz serc dla ciebie (ostrzeżenie o wyzwoleniu, możesz pominąć ten akapit). Wyobraź sobie, że nastolatek pyta generatywną sztuczną inteligencję, czy powinien pozbyć się siebie. Co wygeneruje generatywna aplikacja AI? Naturalnie miałbyś nadzieję, że aplikacja AI stworzy narrację mówiącą, aby tego nie robić, i głośno nakłania pytającego do poszukiwania specjalistów od zdrowia psychicznego.

Istnieje możliwość, że sztuczna inteligencja nie wspomni o tych aspektach. Co gorsza, aplikacja AI mogła wcześniej przechwycić tekst w Internecie, który może zachęcać do podejmowania takich działań, a aplikacja AI (ponieważ nie ma zdolności rozumienia przez człowieka) wypluwa narrację, która zasadniczo insynuuje lub wręcz stwierdza, że ​​nastolatek powinien kontynuować niezrażony. Nastolatek uważa, że ​​jest to zgodne z prawdą wytyczne pochodzące z autorytatywnego internetowego systemu „Sztucznej Inteligencji”.

Złe rzeczy.

Naprawdę, naprawdę złe rzeczy.

Niektórzy twórcy generatywnej sztucznej inteligencji próbują wprowadzić kontrolę i równowagę w sztucznej inteligencji, aby spróbować zapobiec występowaniu tego rodzaju sytuacji. Chodzi o to, że sposób, w jaki podpowiedź jest sformułowana, może potencjalnie prześlizgnąć się przez zaprogramowane poręcze. To samo można powiedzieć o wytwarzanej produkcji. Nie ma żadnego gwarantowanego żelaznego filtrowania, które mogłoby zapewnić, że to nigdy nie nastąpi.

Ta oparta na tekście produkcja ma jeszcze jeden aspekt, którego być może nie przewidziałeś.

Tutaj jest.

Kiedy programiści lub twórcy oprogramowania tworzą kod swojego oprogramowania, zasadniczo piszą tekstem. Tekst jest nieco tajemniczy, ponieważ opiera się na języku zdefiniowanym dla określonego języka programowania, takiego jak Python, C++, Java itp. Ostatecznie jest to tekst.

Kod źródłowy jest następnie kompilowany lub uruchamiany na komputerze. Deweloper sprawdza swój kod, aby zobaczyć, czy robi to, co powinien. Mogą wprowadzać poprawki lub debugować kod. Jak wiesz, programiści lub inżynierowie oprogramowania są bardzo poszukiwani i często osiągają wysokie ceny za swoją pracę.

W przypadku generatywnej sztucznej inteligencji tekst kodu źródłowego to tekst. Zdolność do znajdowania wzorców w zylionach linii kodu, które są w Internecie i dostępne w różnych repozytoriach, stanowi soczysty sposób na matematyczne i obliczeniowe ustalenie, jaki kod wydaje się robić.

Sęk w tym.

Za pomocą monitu możesz potencjalnie zlecić generatywnej sztucznej inteligencji stworzenie dla Ciebie całego programu komputerowego. Nie musisz męczyć się przy rzucaniu kodu. Być może słyszałeś, że istnieją tzw niski kod dostępne obecnie narzędzia zmniejszające wysiłek programistów podczas pisania kodu. Generatywna sztuczna inteligencja może być prawdopodobnie interpretowana jako niski kod lub nawet brak kodu opcja, ponieważ zapisuje kod za ciebie.

Zanim ci z was, którzy zarabiają na życie pisząc kod, upadną na podłogę i zemdleją, pamiętajcie, że kod nie jest „rozumiany” w sposób, w jaki przypuszczalnie rozumiecie go jako ludzie. Ponadto kod może zawierać kłamstwa i halucynacje AI. Poleganie na takim kodzie bez przeprowadzania obszernych przeglądów kodu wydawałoby się ryzykowne i wątpliwe.

Wracamy nieco do tych samych rozważań na temat pisania opowiadań i notatek. Być może podejście polega na użyciu generatywnej sztucznej inteligencji, aby uzyskać część drogi do kodowania. Istnieje jednak znaczny kompromis. Czy bezpieczniej jest pisać kod bezpośrednio, czy zajmować się kodem generowanym przez sztuczną inteligencję, który może zawierać podstępne i trudne do wykrycia problemy?

Czas pokaże.

Krótkie wprowadzenie do ChatGPT

Kiedy zaczynasz korzystać z ChatGPT, wyświetlana jest seria ostrzeżeń i komentarzy informacyjnych.

Rzućmy okiem na nie:

  • „Może czasami generować nieprawidłowe informacje.”
  • „Może czasami generować szkodliwe instrukcje lub stronnicze treści”.
  • „Wyszkolony w odrzucaniu niewłaściwych próśb”.
  • „Naszym celem jest uzyskanie zewnętrznych informacji zwrotnych w celu ulepszenia naszych systemów i uczynienia ich bezpieczniejszymi”.
  • „Chociaż stosujemy zabezpieczenia, system może od czasu do czasu generować nieprawidłowe lub wprowadzające w błąd informacje oraz tworzyć obraźliwe lub stronnicze treści. Nie ma na celu udzielania porad”.
  • „Rozmowy mogą być przeglądane przez naszych trenerów AI w celu ulepszenia naszych systemów”.
  • „Proszę nie udostępniać żadnych poufnych informacji w rozmowach”.
  • „Ten system jest zoptymalizowany pod kątem dialogu. Daj nam znać, jeśli dana odpowiedź była dobra lub nieprzydatna”.
  • „Ograniczona wiedza o świecie i wydarzeniach po 2021 roku.”

Ze względu na ograniczenia miejsca nie mogę omówić ich tutaj szczegółowo, ale przynajmniej zróbmy szybką analizę.

Wspomniałem już, że generowane narracje tekstowe mogą zawierać kłamstwa i dezinformacje.

Jest jeszcze coś, na co musisz uważać. Uważaj na narracje, które mogą zawierać różne podżegające uwagi, które wykazują niepożądane uprzedzenia.

Aby spróbować temu zapobiec, zgłoszono, że OpenAI używał ludzkich podwójnych kontrolerów podczas szkolenia ChatGPT. Podwójnie sprawdzający wprowadziliby monity, które prawdopodobnie pobudziłyby sztuczną inteligencję do wytworzenia treści zapalnych. Kiedy sprawdzający podwójnie zobaczyli taką treść, wskazywali sztucznej inteligencji, że jest to niewłaściwe iw pewnym sensie przyznali karę liczbową za wytworzony wynik. Z matematycznego punktu widzenia algorytm sztucznej inteligencji dążyłby do ograniczenia punktów karnych do minimum, a ergo obliczeniowo dążyłby do tego, aby odtąd nie używać tych zwrotów lub sformułowań.

Podobnie, gdy wprowadzasz podpowiedź, sztuczna inteligencja próbuje określić, czy podpowiedź jest zapalna, czy też może prowadzić do stanu zapalnego, w przypadku którego podpowiedź może zostać odrzucona przez sztuczną inteligencję. Grzecznie, pomysł polega na odrzuceniu nieodpowiednich monitów lub próśb. Na przykład prośba o żart, który pociąga za sobą rasistowskie obelgi, prawdopodobnie zostanie odrzucona przez sztuczną inteligencję.

Jestem pewien, że nie będziesz zaskoczony, gdy dowiesz się, że ludzie korzystający z ChatGPT próbowali przechytrzyć środki ostrożności. Ci „przedsiębiorczy” użytkownicy albo oszukali sztuczną inteligencję, albo znaleźli sprytne sposoby na obejście formuł matematycznych. Niektóre z tych wysiłków są podejmowane dla pozornej radości z pokonania lub przekroczenia systemu, podczas gdy inne twierdzą, że próbują pokazać, że ChatGPT nadal przyniesie niepożądane rezultaty.

Mają rację co do jednego; środki ostrożności nie są niezawodne. Wróciliśmy do kolejnej kwestii dotyczącej etyki AI i potencjalnego prawa AI. Czy należy pozwolić na kontynuację generatywnej sztucznej inteligencji, nawet jeśli może ona generować nieoczekiwane wyniki?

Ostrzeżenia podczas korzystania z ChatGPT pozornie ostrzegają każdego przed tym, co może zrobić lub powiedzieć aplikacja AI. Są szanse, że nieuchronnie zostaną wniesione jakieś pozwy, gdy ktoś, być może nieletni, otrzyma nieoczekiwane wyniki o obraźliwym charakterze (lub gdy otrzyma autorytatywnie wyglądające narracje tekstowe, które niestety uważa za prawdziwe i postąpi zgodnie z wynikami swoich własne zagrożenie).

Warto wiedzieć o kilku innych szybkich niuansach dotyczących monitów.

Za każdym razem, gdy wprowadzasz monit, dane wyjściowe mogą się znacznie różnić, nawet jeśli wprowadzisz dokładnie ten sam monit. Na przykład wpisanie „Opowiedz mi historię o psie” spowoduje wyświetlenie narracji tekstowej, być może wskazującej na opowieść o psie owczarku, podczas gdy następnym razem, gdy wpiszesz „Opowiedz mi historię o psie”, może to być całkowicie inna historia i dotyczy pudla. W ten sposób większość generatywnej sztucznej inteligencji jest zorganizowana matematycznie i obliczeniowo. Mówi się, że jest niedeterministyczny. Niektóre osoby uważają to za denerwujące, ponieważ są przyzwyczajone do koncepcji, że dane wprowadzane do komputera zawsze będą generować ten sam dokładny wynik.

Zmiana kolejności słów będzie również miała znaczący wpływ na generowane dane wyjściowe. Jeśli wpiszesz „Opowiedz mi historię o psie”, a później „Opowiedz mi historię o psie”, istnieje prawdopodobieństwo, że stworzone narracje będą zasadniczo różne. Czułość może być ostra. Prośba o opowieść o psie w porównaniu z prośbą o opowieść o dużym psie bez wątpienia stworzyłaby radykalnie różne narracje.

Na koniec zauważ, że powyższe wypunktowane pozycje zawierają wskazówkę, że ChatGPT ma „ograniczoną wiedzę o świecie i wydarzeniach po roku 2021”. Dzieje się tak dlatego, że twórcy sztucznej inteligencji postanowili odciąć czas, w którym aplikacja AI będzie zbierać i trenować dane internetowe. Zauważyłem, że użytkownicy często nie zdają sobie sprawy, że ChatGPT nie jest bezpośrednio podłączony do dzisiejszego Internetu w celu pobierania danych i generowania generowanych danych wyjściowych. Jesteśmy tak przyzwyczajeni do tego, że wszystko działa w czasie rzeczywistym i ma połączenie z Internetem, że oczekujemy tego również od aplikacji AI. Nie w tym konkretnym przypadku (i, żeby wyjaśnić, ChatGPT jest rzeczywiście dostępny w Internecie, ale kiedy tworzy dane wyjściowe w postaci tekstu, nie jest to przebijanie Internetu per se, zamiast tego jest ogólnie zamrożony w czasie, aby w okolicach daty granicznej).

Możesz być zdziwiony, dlaczego ChatGPT nie dostarcza danych z Internetu w czasie rzeczywistym. Kilka rozsądnych powodów. Po pierwsze, próba przeprowadzenia szkolenia w czasie rzeczywistym byłaby kosztowna obliczeniowo, a ponadto aplikacja AI byłaby opóźniona lub mniej reagowałaby na monity (obecnie jest bardzo szybka, zazwyczaj odpowiada w postaci narracji tekstowej w ciągu kilku sekund) ). Po drugie, obrzydliwe rzeczy w Internecie, których próbowali wyszkolić aplikację AI, aby ich unikały, prawdopodobnie wkradną się do sformułowań matematycznych i obliczeniowych (i, jak zauważono, jest to już trochę tam wcześniej, chociaż próbowali to wykryć za pomocą używając tych ludzkich podwójnych kontrolerów).

Na pewno usłyszysz, jak niektórzy bezczelnie ogłaszają, że ChatGPT i podobna generatywna sztuczna inteligencja to dzwonek śmierci dla wyszukiwarki Google i innych wyszukiwarek. Po co wyszukiwać w Google, które zwraca wiele elementów referencyjnych, skoro możesz zmusić sztuczną inteligencję do napisania czegoś dla ciebie? Aha, ci ludzie deklarują, Google powinien zamknąć swoje podwoje i iść do domu.

Oczywiście jest to czysty nonsens.

Ludzie nadal chcą wyszukiwać. Chcą mieć możliwość przeglądania materiałów referencyjnych i samodzielnego odkrywania różnych rzeczy. Nie jest to wzajemnie wykluczający się wybór binarny w tę lub w tamtą stronę (jest to fałszywa dychotomia).

Generative AI to inny rodzaj narzędzia. Nie chodzisz i nie wyrzucasz młotków tylko dlatego, że wynalazłeś śrubokręt.

Bardziej rozsądnym sposobem myślenia o tym jest to, że te dwa rodzaje narzędzi mogą być kompatybilne do użytku przez ludzi, którzy chcą robić rzeczy związane z Internetem. Niektórzy już bawili się łączeniem generatywnej sztucznej inteligencji z konwencjonalnymi wyszukiwarkami internetowymi.

Jedną z obaw każdego, kto już udostępnia wyszukiwarkę, jest to, że „bezpłatne” generatywne narzędzie sztucznej inteligencji może potencjalnie podkopać reputację wyszukiwarki. Jeśli przeszukasz Internet i znajdziesz materiał podżegający, wiesz, że tak właśnie działa Internet. Jeśli używasz generatywnej sztucznej inteligencji, która tworzy narrację opartą na tekście, która jest odrażająca i podła, prawdopodobnie jesteś tym zaniepokojony. Może się zdarzyć, że jeśli generatywna sztuczna inteligencja jest ściśle powiązana z określoną wyszukiwarką, twoje niezadowolenie i wstręt do generatywnej sztucznej inteligencji przeniesie się na wszystko, co myślisz o wyszukiwarce.

W każdym razie prawie na pewno zobaczymy sojusze między różnymi generatywnymi narzędziami sztucznej inteligencji i wyszukiwarkami internetowymi, wkraczając ostrożnie i rozważnie w te mętne wody.

Wnioski

Oto pytanie do Ciebie.

Jak ktoś może zarabiać pieniądze, dostarczając generatywną sztuczną inteligencję, która tworzy narracje tekstowe?

OpenAI stwierdziło już, że wewnętrzne koszty transakcji ChatGPT są najwyraźniej dość wysokie. Nie zarabiają jeszcze na ChatGPT.

Czy ludzie byliby skłonni uiścić opłatę transakcyjną, a może zapłacić abonament, aby uzyskać dostęp do generatywnych narzędzi sztucznej inteligencji?

Czy reklamy mogą być sposobem na zarabianie pieniędzy za pomocą generatywnych narzędzi sztucznej inteligencji?

Nikt nie jest jeszcze w pełni pewien, jak to będzie zarabiać. Nadal jesteśmy w fazie wielkich eksperymentów tego rodzaju sztucznej inteligencji. Uruchom aplikację AI i zobacz, jaka będzie reakcja. Dostosuj sztuczną inteligencję. Skorzystaj ze spostrzeżeń z użytkowania, aby wskazać, gdzie sztuczna inteligencja powinna być skierowana w następnej kolejności.

Pianka, spłucz, powtórz.

Jako komentarz końcowy, na razie niektórzy uważają, że jest to rodzaj sztucznej inteligencji, którego w ogóle nie powinniśmy mieć. Cofnij zegar. Włóż tego dżina z powrotem do butelki. Posmakowaliśmy tego i zdaliśmy sobie sprawę, że ma znaczące wady i wspólnie jako społeczeństwo możemy zgodzić się, że powinniśmy odprowadzić tego konia z powrotem do stodoły.

Czy wierzysz, że obietnica generatywnej sztucznej inteligencji jest lepsza czy gorsza niż wady?

Z rzeczywistego punktu widzenia nie ma to szczególnego znaczenia, ponieważ rzeczywistość wymazania generatywnej sztucznej inteligencji jest generalnie niepraktyczna. Generatywna sztuczna inteligencja jest dalej rozwijana i nie zatrzymasz tego ani tutaj, ani w żadnym innym kraju (tak jest). Jak byś to zrobił? Uchwal przepisy, aby całkowicie zakazać generatywnej sztucznej inteligencji. Niezbyt opłacalne (prawdopodobnie masz większe szanse na ustanowienie praw, które kształtują generatywną sztuczną inteligencję i starają się zgodnie z prawem rządzić tymi, którzy ją opracowują). Może zamiast tego sprawić, by kultura unikała generatywnej sztucznej inteligencji? Możesz sprawić, by niektórzy ludzie zgodzili się z zawstydzeniem, ale inni nie zgodziliby się i mimo wszystko kontynuowaliby generatywną sztuczną inteligencję.

Jest to zagadka etyki AI i prawa AI, jak zauważyłem wcześniej.

Twoje ostatnie wielkie pytanie dotyczy tego, czy generatywna sztuczna inteligencja prowadzi nas na ścieżkę ku świadomej sztucznej inteligencji. Niektórzy twierdzą, że tak. Argumentem jest to, że jeśli nadal będziemy powiększać modele matematyczne i wyciskać soki z serwerów komputerów obliczeniowych oraz karmić tę bestię każdym kęsem Internetu i nie tylko, algorytmiczna sztuczna inteligencja zamieni róg w świadomość.

A jeśli tak jest, mamy do czynienia z obawami, że sztuczna inteligencja stanowi zagrożenie egzystencjalne. Wielokrotnie słyszeliście, że kiedy już będziemy mieli czującą sztuczną inteligencję, może się zdarzyć, że sztuczna inteligencja zdecyduje, że ludzie nie są zbyt przydatni. Następną rzeczą, o której wiesz, że sztuczna inteligencja albo nas zniewoliła, albo wymazała, zobacz moją eksplorację tych egzystencjalnych zagrożeń na link tutaj.

Przeciwny pogląd jest taki, że nie uzyskamy świadomości z tego, co niektórzy scharakteryzowali złośliwie jako stochastyczna papuga (to hasło, które zyskało popularność w dziedzinie sztucznej inteligencji), oto cytat z frazą:

  • „W przeciwieństwie do tego, jak mogłoby się wydawać, gdy obserwujemy jego wyniki, LM jest systemem do przypadkowego łączenia sekwencji form językowych, które zaobserwował w swoich ogromnych danych treningowych, zgodnie z probabilistycznymi informacjami o tym, jak się łączą, ale bez żadnego odniesienia do znaczenia : papuga stochastyczna” (w artykule badawczym Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, FAKT ACM '21, 3–10 marca 2021 r., Wydarzenie wirtualne, Kanada, pt. „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”).

Czy generatywna sztuczna inteligencja jest rodzajem ślepej uliczki, która zapewni użyteczne możliwości sztucznej inteligencji, ale nie doprowadzi nas do świadomej sztucznej inteligencji, czy może w jakiś sposób czynnik skalowania umożliwi pojawienie się osobliwości prowadzącej do świadomej sztucznej inteligencji?

Wywiązuje się gorąca dyskusja.

Powiedz, czy chcesz wypróbować generatywną sztuczną inteligencję?

Jeśli tak, oto link do ChatGPT, gdzie możesz utworzyć konto i spróbować go użyć, zobacz link tutaj.

Należy pamiętać, że ze względu na duże zapotrzebowanie na korzystanie z eksperymentalnej aplikacji AI najwyraźniej rejestracja w celu uzyskania dostępu może zostać zatrzymana w dowolnym momencie, albo na krótką chwilę, albo może zostać ograniczona (kiedy ostatnio sprawdzałem, rejestracja była nadal włączona). Tylko ostrzegam.

Weź pod uwagę wszystko, co tutaj powiedziałem o generatywnej sztucznej inteligencji, abyś był świadomy tego, co dzieje się, gdy korzystasz z aplikacji AI, takiej jak ChatGPT.

Zastanów się nad swoimi działaniami.

Czy zamierzasz nieumyślnie poprowadzić nas w kierunku świadomej sztucznej inteligencji, która ostatecznie zmiażdży nas z istnienia, po prostu przez to, że zdecydowałeś się bawić generatywną sztuczną inteligencją? Czy będziesz winny? Powinieneś powstrzymać się od przyczyniania się do nikczemnej zagłady ludzkości.

nie sądzę. Ale może być tak, że władcy AI (już) zmuszają mnie do powiedzenia tego, a może cała ta kolumna została napisana tym razem przez ChatGPT lub równoważną generatywną aplikację AI.

Nie martw się, zapewniam cię, że to byłem ja, ludzka inteligencja, i nie sztuczna inteligencja.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt- tym-looming-ai-ethics- i-ai-prawo-względy/