Generative AI ChatGPT może niepokojąco pochłaniać Twoje prywatne i poufne dane, ostrzega etykę AI i prawo AI

Teraz widzisz swoje dane, teraz nie.

Tymczasem Twoje cenne dane stały się niejako częścią kolektywu.

Odnoszę się do aspektu, który może być dość zaskakujący dla tych z was, którzy chętnie i gorliwie korzystają z najnowszych osiągnięć sztucznej inteligencji (AI). Dane, które wprowadzasz do aplikacji AI, potencjalnie wcale nie są całkowicie prywatne dla Ciebie i tylko dla Ciebie. Może się zdarzyć, że Twoje dane zostaną wykorzystane przez twórcę sztucznej inteligencji do prawdopodobnie ulepszenia jego usług AI lub mogą zostać wykorzystane przez niego i/lub nawet jego sojuszniczych partnerów do różnych celów.

Zostałeś ostrzeżony.

To przekazanie twoich danych odbywa się w najbardziej nieszkodliwy sposób i przez potencjalnie tysiące lub miliony ludzi. Jak to? Istnieje rodzaj sztucznej inteligencji znany jako generatywna sztuczna inteligencja, która ostatnio trafiła na pierwsze strony gazet i wzbudziła ogromne zainteresowanie ogółu społeczeństwa. Najbardziej godną uwagi z istniejących generatywnych aplikacji AI jest aplikacja o nazwie ChatGPT, która została opracowana przez firmę OpenAI.

Istnieje rzekomo około miliona zarejestrowanych użytkowników ChatGPT. Wielu z tych użytkowników wydaje się rozkoszować wypróbowaniem tej najgorętszej i najnowszej generatywnej aplikacji AI. Proces jest niezwykle prosty. Wprowadzasz tekst jako zachętę i voila, aplikacja ChatGPT generuje tekst, który zwykle ma formę eseju. Niektórzy określają to mianem zamiany tekstu na tekst, chociaż ja wolę określać to jako zamiana tekstu na esej, ponieważ takie słownictwo ma bardziej codzienny sens.

Na początku początkujący użytkownik prawdopodobnie wejdzie w coś zabawnego i beztroskiego. Opowiedz mi o życiu i czasach Jerzego Waszyngtona, ktoś może wejść jako podpowiedź. ChatGPT stworzy wtedy esej o naszym legendarnym pierwszym prezydencie. Esej byłby całkowicie płynny i trudno byłoby rozpoznać, że został stworzony przez aplikację AI. Ekscytująca rzecz do zobaczenia.

Szanse są takie, że po zabawie przez jakiś czas część początkujących użytkowników będzie miała dość i potencjalnie zdecyduje się przestać bawić się ChatGPT. Teraz przezwyciężyli swój FOMO (strach przed przegapieniem), robiąc to po eksperymentowaniu z aplikacją AI, o której prawie wszyscy wydają się gadać. Czyn dokonany.

Niektórzy jednak zaczną myśleć o innych, poważniejszych sposobach wykorzystania generatywnej sztucznej inteligencji.

Może użyj ChatGPT, aby napisać notatkę, o napisanie której prosił cię twój szef. Wszystko, co musisz zrobić, to podać monit z wypunktowanymi punktami, które masz na myśli, a następną rzeczą, o której wiesz, jest wygenerowanie całej notatki przez ChatGPT, z której twój szef byłby z ciebie dumny. Kopiujesz wydrukowany esej z ChatGPT, wklejasz go do oficjalnego szablonu firmy w swoim pakiecie edytora tekstu i wysyłasz eleganckie memorandum do swojego przełożonego. Jesteś wart milion dolarów. I użyłeś swojego mózgu, aby znaleźć poręczne narzędzie do wykonania ciężkiej pracy za ciebie. Poklep się po plecach.

To nie wszystko.

Tak, jest więcej.

Pamiętaj, że generatywna sztuczna inteligencja może wykonywać mnóstwo innych zadań związanych z pisaniem.

Załóżmy na przykład, że napisałeś jakąś narrację dla cenionego klienta i bardzo chcesz, aby materiał został zrecenzowany, zanim wyjdzie za drzwi.

Bułka z masłem.

Wklejasz tekst swojej narracji do monitu ChatGPT, a następnie instruujesz ChatGPT, aby przeanalizował skomponowany tekst. Wynikowy esej może głęboko zagłębić się w twoje sformułowania i ku twojemu miłemu zaskoczeniu będzie próbował pozornie sprawdzić znaczenie tego, co powiedziałeś (wykraczając daleko poza działanie jako sprawdzanie pisowni lub analizator gramatyczny). Aplikacja AI może wykryć błędy w logice twojej narracji lub może odkryć sprzeczności, o których nie wiedziałeś, że są w twoim własnym piśmie. To prawie tak, jakbyś zatrudnił przebiegłego redaktora, który przyjrzał się twojej wersji roboczej i przedstawił litanię pomocnych sugestii i odnotowanych obaw (cóż, chcę kategorycznie stwierdzić, że nie próbuję antropomorfizować aplikacji AI, zwłaszcza że redaktor-człowiek jest człowiekiem, podczas gdy aplikacja AI jest jedynie programem komputerowym).

Dzięki Bogu, że użyłeś generatywnej aplikacji AI do przeanalizowania swojej cennej pisemnej narracji. Bez wątpienia wolałbyś, aby sztuczna inteligencja znalazła te niepokojące problemy na piśmie, niż po wysłaniu dokumentu do twojego cennego klienta. Wyobraź sobie, że skomponowałeś narrację dla kogoś, kto zatrudnił cię do opracowania dość istotnego przedstawienia. Jeśli przekazałeś klientowi oryginalną wersję przed wykonaniem przeglądu aplikacji AI, możesz doznać wielkiego zażenowania. Klient prawie na pewno miałby poważne wątpliwości co do twoich umiejętności wykonania wymaganej pracy.

Podnieś stawkę.

Rozważ tworzenie dokumentów prawnych. To oczywiście szczególnie poważna sprawa. Słowa i sposób, w jaki są skomponowane, mogą oznaczać porywającą obronę prawną lub ponurą klęskę prawną.

W ramach moich ciągłych badań i konsultacji regularnie kontaktuję się z wieloma prawnikami, którzy są żywo zainteresowani wykorzystaniem sztucznej inteligencji w dziedzinie prawa. Różne programy LegalTech są łączone z możliwościami sztucznej inteligencji. Prawnik może wykorzystać generatywną sztuczną inteligencję do napisania projektu umowy lub napisania innych dokumentów prawnych. Ponadto, jeśli prawnik sam sporządził wstępną wersję roboczą, może przekazać tekst do generatywnej aplikacji AI, takiej jak ChatGPT, aby przyjrzeć się i zobaczyć, jakie dziury lub luki mogą zostać wykryte. Aby uzyskać więcej informacji na temat tego, w jaki sposób adwokaci i prawnicy decydują się na wykorzystanie sztucznej inteligencji, zobacz moją dyskusję pod adresem link tutaj.

Jesteśmy jednak gotowi na ocieranie się o to.

Adwokat bierze projekt umowy i kopiuje tekst do zachęty dla ChatGPT. Aplikacja AI tworzy recenzję dla prawnika. Okazuje się, że ChatGPT znajduje kilka błędów. Adwokat rewiduje umowę. Mogą również poprosić ChatGPT o zasugerowanie przeredagowania lub ponownego napisania złożonego tekstu. Nowa, lepsza wersja umowy jest następnie tworzona przez generatywną aplikację AI. Prawnik pobiera wydrukowany tekst i umieszcza go w pliku edytora tekstu. Off list trafia do ich klienta. Misja wykonana.

Czy zgadniesz, co też się właśnie wydarzyło?

Za kulisami i pod maską kontrakt mógł zostać połknięty jak ryba w paszczy wieloryba. Chociaż ten prawnik korzystający z AI może nie zdawać sobie z tego sprawy, tekst umowy, umieszczony jako monit w ChatGPT, może potencjalnie zostać połknięty przez aplikację AI. Jest teraz pożywką dla dopasowywania wzorców i innych zawiłości obliczeniowych aplikacji AI. To z kolei można wykorzystać na różne sposoby. Jeśli w wersji roboczej znajdują się poufne dane, to również potencjalnie mieści się teraz w granicach ChatGPT. Twój monit dostarczony do aplikacji AI jest teraz rzekomo częścią kolektywu w taki czy inny sposób.

Co więcej, wydrukowany esej jest również uważany za część kolektywu. Jeśli poprosiłeś ChatGPT o zmodyfikowanie projektu dla ciebie i przedstawienie nowej wersji umowy, jest to interpretowane jako wydrukowany esej. Dane wyjściowe ChatGPT to także rodzaj treści, które mogą być przechowywane lub w inny sposób przekształcane przez aplikację AI.

Tak, mogłeś niewinnie przekazać prywatne lub poufne informacje. Niedobrze. Poza tym nie byłbyś nawet świadomy, że to zrobiłeś. Nie wywieszono żadnych flag. Nie zabrzmiał róg. Żadne migające światła nie zapaliły się, by zaszokować cię rzeczywistością.

Moglibyśmy przewidzieć, że osoba niebędąca prawnikiem może łatwo popełnić taki błąd, ale dla doświadczonego prawnika popełnienie tego samego błędu nowicjusza jest prawie niewyobrażalne. Niemniej jednak prawdopodobnie prawnicy robią teraz ten sam potencjalny błąd. Ryzykują naruszenie godnego uwagi elementu tajemnicy adwokata-klienta i prawdopodobnie naruszenie modelowych zasad postępowania zawodowego (MRPC) Amerykańskiego Stowarzyszenia Adwokackiego (ABA). W szczególności: „Prawnik nie ujawnia informacji dotyczących reprezentowania klienta, chyba że klient wyrazi świadomą zgodę, ujawnienie jest dorozumiane w celu wykonania reprezentacji lub ujawnienie jest dozwolone na podstawie lit. (b)” (cyt. MRPC i dla których wyjątki związane z podsekcją b nie wydają się obejmować korzystania z generatywnej aplikacji AI w niezabezpieczony sposób).

Niektórzy prawnicy mogą próbować usprawiedliwić swoje wykroczenie, twierdząc, że nie są czarodziejami technologii i że nie mieliby gotowych środków, aby wiedzieć, że wprowadzenie przez nich poufnych informacji do generatywnej aplikacji AI może w jakiś sposób stanowić naruszenie. ABA wyjaśniło, że obowiązkiem prawników jest bycie na bieżąco z AI i technologią z prawnego punktu widzenia: „Aby zachować wymaganą wiedzę i umiejętności, prawnik powinien być na bieżąco ze zmianami w prawie i jego praktyce, w tym korzyści i ryzyka związane z odpowiednią technologią, kontynuować naukę i kształcenie oraz przestrzegać wszystkich wymogów ustawicznego kształcenia prawnego, którym podlega prawnik” (zgodnie z MRPC).

Na ten pozór prawnego obowiązku składa się kilka postanowień, w tym zachowanie poufnych informacji klienta (reguła 1.6), ochrona własności klienta, takiej jak dane (reguła 1.15), właściwa komunikacja z klientem (reguła 1.4), uzyskiwanie świadomej zgody klienta (reguła 1.6), oraz zapewnienie kompetentnej reprezentacji w imieniu klienta (zasada 1.1). Jest też mało znana, ale bardzo godna uwagi rezolucja skupiona na sztucznej inteligencji, przyjęta przez ABA: „Że American Bar Association wzywa sądy i prawników do zajęcia się pojawiającymi się problemami etycznymi i prawnymi związanymi z wykorzystaniem sztucznej inteligencji („AI”) w praktyce prawa, w tym: (1) stronniczość, wyjaśnialność i przejrzystość zautomatyzowanych decyzji podejmowanych przez AI; (2) etyczne i korzystne wykorzystanie sztucznej inteligencji; oraz (3) kontrole i nadzór nad sztuczną inteligencją i dostawcami, którzy ją dostarczają”.

Słowa mądrości dla moich przyjaciół i kolegów prawników.

Sedno sprawy polega na tym, że prawie każdy może wpaść w tarapaty, używając generatywnej sztucznej inteligencji. Osoby niebędące prawnikami mogą to zrobić przez domniemany brak wiedzy prawniczej. Prawnicy też mogą to zrobić, być może zakochani w sztucznej inteligencji lub nie biorąc głębokiego oddechu i zastanawiając się, jakie reperkusje prawne mogą wyniknąć z korzystania z generatywnej sztucznej inteligencji.

Wszyscy jesteśmy potencjalnie na tej samej łodzi.

Powinieneś również zdać sobie sprawę, że ChatGPT nie jest jedyną generatywną aplikacją AI w bloku. Istnieją inne generatywne aplikacje AI, których możesz użyć. One również są prawdopodobnie wycięte z tego samego materiału, a mianowicie, że dane wejściowe, które wprowadzasz jako podpowiedzi, i dane wyjściowe, które otrzymujesz jako wygenerowane wydrukowane eseje, są uważane za część kolektywu i mogą być używane przez twórcę sztucznej inteligencji.

W dzisiejszym felietonie rozwinę charakter tego, w jaki sposób dane, które wprowadzasz i dane, które otrzymujesz od generatywnej sztucznej inteligencji, mogą zostać potencjalnie naruszone w odniesieniu do prywatności i poufności. Twórcy sztucznej inteligencji udostępniają swoje wymagania licencyjne i mądrze byłoby przeczytać o tych istotnych postanowieniach, zanim zaczniesz aktywnie korzystać z aplikacji AI z jakimkolwiek pozorem prawdziwych danych. Przeprowadzę Cię przez przykład takiego licencjonowania, robiąc to dla aplikacji ChatGPT AI.

Do tego wszystkiego dochodzi mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Należy pamiętać, że trwają wysiłki mające na celu włączenie zasad etycznej sztucznej inteligencji do opracowywania i wdrażania aplikacji AI. Rosnący kontyngent zainteresowanych i niegdysiejszych etyków sztucznej inteligencji stara się zapewnić, aby wysiłki mające na celu opracowanie i przyjęcie sztucznej inteligencji uwzględniały pogląd na robienie AI na dobre i unikanie AI na złe. Podobnie, proponowane są nowe przepisy dotyczące sztucznej inteligencji, które są rozpowszechniane jako potencjalne rozwiązania mające na celu powstrzymanie wysiłków AI przed popadnięciem w amok w zakresie praw człowieka i tym podobnych. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Istnieją istotne niuanse i przepisy dotyczące etycznej sztucznej inteligencji związane z tym, jak twórcy sztucznej inteligencji mogą lub powinni obchodzić się z danymi lub informacjami, które wydają się prywatne lub poufne dla ich użytkowników. Prawdopodobnie wiesz też, że wiele istniejących przepisów uderza w sedno tego, w jaki sposób podmioty technologiczne powinny obchodzić się z danymi. Są też szanse, że nowo zaproponowane przepisy dotyczące sztucznej inteligencji będą również krzyżować się na tym samym terytorium. Zobacz na przykład moją relację z Karta praw AI i inne spory prawne dotyczące AI, o godz link tutaj.

Oto kluczowy wniosek z tej dyskusji:

  • Bądź bardzo, bardzo, bardzo ostrożny, jakie dane lub informacje zdecydujesz się umieścić w swoich monitach podczas korzystania z generatywnej sztucznej inteligencji, i podobnie bądź bardzo ostrożny i przewiduj, jakie rodzaje wydrukowanych esejów możesz otrzymać, ponieważ wyniki również mogą zostać wchłonięte.

Czy to oznacza, że ​​nie powinieneś używać generatywnej sztucznej inteligencji?

Nie, wcale nie o tym mówię.

Korzystaj z generatywnej sztucznej inteligencji do woli. Istotą jest to, że musisz uważać na to, jak go używasz. Dowiedz się, jakiego rodzaju postanowienia licencyjne są związane z użytkowaniem. Zdecyduj, czy możesz żyć z tymi warunkami. Jeśli istnieją możliwości poinformowania twórcy sztucznej inteligencji, że chcesz powołać się na określone rodzaje dodatkowych zabezpieczeń lub uprawnień, upewnij się, że to zrobisz.

Wspomnę również o jeszcze jednym aspekcie, który, jak zdaję sobie sprawę, może doprowadzić niektórych ludzi do szału. Tutaj idzie. Niezależnie od warunków licencyjnych, należy również założyć, że istnieje możliwość, że wymagania te mogą nie być w pełni przestrzegane. Sprawy mogą pójść nie tak. Rzeczy mogą prześlizgiwać się między pęknięciami. W końcu, oczywiście, możesz mieć sprawę sądową przeciwko twórcy AI za nieprzestrzeganie jego warunków, ale to trochę po tym, jak koń już wyszedł ze stodoły.

Potencjalnie wysoce bezpiecznym sposobem postępowania byłoby skonfigurowanie własnej instancji we własnych systemach, czy to w chmurze, czy w firmie (i zakładając, że przestrzegasz odpowiednich środków ostrożności w zakresie cyberbezpieczeństwa, których wprawdzie niektórzy nie mają i są gorsze we własnej chmurze niż korzystanie z chmury dostawcy oprogramowania). Trochę dokuczliwym problemem jest jednak to, że niewiele generatywnych aplikacji AI na dużą skalę pozwala na to teraz. Wszystkie działają w zasadzie tylko w naszej chmurze. Niewielu udostępniło opcję stworzenia całej instancji specjalnie dla Ciebie. Przewidywałem, że stopniowo pojawi się ta opcja, chociaż na początku będzie to dość kosztowne i nieco skomplikowane, patrz moje przewidywania na link tutaj.

W jaki sposób szczególnie bystrzy i szczególnie bystrzy ludzie wpadają w grzęzawisko erozji poufności danych lub informacji?

Urok tych generatywnych aplikacji AI jest dość magnetyczny, gdy zaczniesz z nich korzystać. Krok po kroku stajesz się zahipnotyzowany i decydujesz się wkładać palce coraz głębiej w generatywne wody sztucznej inteligencji. Następną rzeczą, o której wiesz, jest to, że chętnie przekazujesz zastrzeżone treści, które powinny być prywatne i poufne, do generatywnej aplikacji AI.

Oprzyj się pokusie i proszę powstrzymaj się od stopniowego wpadania w niesmaczną pułapkę.

Dla liderów biznesu i kadry kierowniczej najwyższego szczebla to samo ostrzeżenie dotyczy Ciebie i wszystkich osób w Twojej firmie. Kierownictwo wyższego szczebla również daje się ponieść entuzjazmowi i zdumieniu związanemu z używaniem generatywnej sztucznej inteligencji. Mogą naprawdę zepsuć i potencjalnie wprowadzić tajne informacje najwyższego poziomu do aplikacji AI.

Co więcej, mogą mieć szerokie ligi swoich pracowników, którzy również bawią się generatywną sztuczną inteligencją. Wielu z tych skądinąd uważnych pracowników bezmyślnie i błogo wprowadza prywatne i poufne informacje firmy do tych aplikacji AI. Według ostatnich doniesień prasowych Amazon najwyraźniej odkrył, że niektórzy pracownicy wprowadzali różne zastrzeżone informacje do ChatGPT. Mówi się, że ostrzeżenie o charakterze prawnym zostało wysłane wewnętrznie, aby zachować ostrożność podczas korzystania z nieodpartej aplikacji AI.

Ogólnie rzecz biorąc, odrobina ironii pojawia się w rosnącym zjawisku polegającym na tym, że pracownicy chcąc nie chcąc wprowadzają poufne dane do ChatGPT i innej generatywnej sztucznej inteligencji. Pozwól, że doprecyzuję. Dzisiejsze nowoczesne firmy zazwyczaj mają surowe zasady bezpieczeństwa cybernetycznego, które starannie opracowały i wdrożyły. Istnieje wiele zabezpieczeń technologicznych. Mamy nadzieję, że zapobiegniemy przypadkowemu wydaniu kluczowych rzeczy. Ciągłe bicie bębna oznacza ostrożność podczas odwiedzania stron internetowych, ostrożność podczas korzystania z niezatwierdzonych aplikacji i tak dalej.

Pojawiają się generatywne aplikacje AI, takie jak ChatGPT. Wiadomości o aplikacji AI przechodzą przez dach i zyskują powszechną uwagę. Powstaje szał. Ludzie w tych firmach, które mają wszystkie te zabezpieczenia cybernetyczne, decydują się na generatywną aplikację AI. Na początku bawią się nim bezczynnie. Następnie zaczynają wprowadzać dane firmy. Wham, teraz potencjalnie ujawnili informacje, które nie powinny były zostać ujawnione.

Błyszcząca nowa zabawka, która magicznie omija miliony dolarów wydatków na zabezpieczenia cybernetyczne i ciągłe szkolenia dotyczące tego, czego nie robić. Ale hej, używanie generatywnej sztucznej inteligencji i bycie częścią tłumu jest ekscytujące. To się chyba liczy.

Ufam, że rozumiesz mój pogląd na temat bycia wyraźnie ostrożnym.

Przyjrzyjmy się bliżej temu, jak generatywna sztuczna inteligencja radzi sobie technicznie z tekstem podpowiedzi i wydrukowanymi esejami. Przyjrzymy się również niektórym warunkom licencyjnym na przykładzie ChatGPT. Proszę zdawać sobie sprawę, że nie zamierzam obejmować pełnej gamy tych elementów licencjonowania. Pamiętaj, aby zaangażować swojego radcę prawnego w przypadku dowolnej generatywnej aplikacji AI, z której zdecydujesz się skorzystać. Ponadto licencje różnią się w zależności od twórcy sztucznej inteligencji, a dany twórca sztucznej inteligencji może zdecydować się na zmianę licencji, więc pamiętaj, aby zachować czujność, niezależnie od tego, co określa najnowsza wersja licencji.

Mamy kilka ekscytujących rozpakowań do zrobienia w tym mocnym temacie.

Po pierwsze, powinniśmy upewnić się, że wszyscy jesteśmy po tej samej stronie co do tego, z czego składa się generatywna sztuczna inteligencja, a także, o co chodzi w ChatGPT. Po omówieniu tego fundamentalnego aspektu możemy przeprowadzić przekonującą ocenę metafory lustrzanej związanej z tym typem sztucznej inteligencji.

Jeśli jesteś już dobrze zaznajomiony z Generative AI i ChatGPT, być może możesz przejrzeć następną sekcję i przejść do następnej sekcji. Wierzę, że wszyscy pozostali uznają istotne szczegóły dotyczące tych spraw za pouczające, jeśli uważnie przeczytają ten rozdział i zapoznają się z najnowszymi informacjami.

Szybki elementarz o generatywnej sztucznej inteligencji i ChatGPT

ChatGPT to interaktywny, konwersacyjny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje, co wkrótce omówię. Ta aplikacja AI wykorzystuje technikę i technologię w dziedzinie AI, która jest często określana jako generatywna sztuczna inteligencja. Sztuczna inteligencja generuje dane wyjściowe, takie jak tekst, co robi ChatGPT. Inne oparte na sztucznej inteligencji aplikacje generatywne generują obrazy, takie jak obrazy lub dzieła sztuki, podczas gdy inne generują pliki audio lub wideo.

W tej dyskusji skupię się na tekstowych generatywnych aplikacjach AI, ponieważ to właśnie robi ChatGPT.

Aplikacje Generative AI są niezwykle łatwe w użyciu.

Wszystko, co musisz zrobić, to wpisać monit, a aplikacja AI wygeneruje dla Ciebie esej, który spróbuje odpowiedzieć na Twój monit. Skomponowany tekst będzie wyglądał tak, jakby esej został napisany ludzką ręką i umysłem. Jeśli wpiszesz monit „Opowiedz mi o Abrahamie Lincolnie”, generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wyjście. Jak wspomniano, istnieją inne tryby generatywnej sztucznej inteligencji, takie jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​ta zdolność do generowania nie wydaje się tak wielka, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Istnieją dodatkowe obawy dotyczące generatywnej sztucznej inteligencji.

Jednym z kluczowych minusów jest to, że eseje tworzone przez generatywną aplikację AI mogą zawierać różne nieprawdziwe fakty, w tym jawnie nieprawdziwe fakty, fakty, które są przedstawiane w sposób wprowadzający w błąd, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, przygotowałem w mojej kolumnie skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • 1) Prognozy dotyczące nadchodzących postępów generatywnej sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • 2) Generatywne porady dotyczące sztucznej inteligencji i zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • 3) Podstawy generatywnej sztucznej inteligencji i ChatGPT. Ten artykuł bada kluczowe elementy działania generatywnej sztucznej inteligencji, a w szczególności zagłębia się w aplikację ChatGPT, w tym analizę szumu i fanfar, na link tutaj.
  • 4) Napięcie między nauczycielami a uczniami w związku z generatywną sztuczną inteligencją i ChatGPT. Oto sposoby, w jakie uczniowie przebiegle wykorzystają generatywną sztuczną inteligencję i ChatGPT. Ponadto nauczyciele mają kilka sposobów radzenia sobie z tą falą przypływu. Widzieć link tutaj.
  • 5) Kontekst i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka na temat kontekstu związanego ze Świętym Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • 6) Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • 7) Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • 8) Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • 9) Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów stworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.
  • 10) Odgrywanie ról za pomocą generatywnej sztucznej inteligencji może zwiastować problemy ze zdrowiem psychicznym. Niektórzy używają generatywnej sztucznej inteligencji, takiej jak ChatGPT, do odgrywania ról, w której aplikacja AI reaguje na człowieka tak, jakby istniał w świecie fantasy lub innym wymyślonym otoczeniu. To może mieć reperkusje dla zdrowia psychicznego, patrz link tutaj.
  • 11) Ujawnianie zakresu wyprowadzanych błędów i fałszów. Różne zebrane listy są tworzone razem, aby spróbować pokazać naturę błędów i fałszów stworzonych przez ChatGPT. Niektórzy uważają, że jest to niezbędne, podczas gdy inni twierdzą, że ćwiczenie to jest daremne, patrz moja analiza na link tutaj.
  • 12) Szkoły zakazujące generatywnego AI ChatGPT gubią łódź. Być może wiesz, że różne szkoły, takie jak Departament Edukacji miasta Nowy Jork (NYC), ogłosiły zakaz korzystania z ChatGPT w swojej sieci i powiązanych urządzeniach. Chociaż może się to wydawać pomocnym środkiem ostrożności, nie poruszy igły i niestety całkowicie nie trafia w łódź, zobacz moją relację na link tutaj.
  • 13) Generative AI ChatGPT będzie wszędzie ze względu na nadchodzące API. Nadchodzi ważny zwrot dotyczący korzystania z ChatGPT, a mianowicie, że poprzez użycie portalu API w tej konkretnej aplikacji AI, inne programy będą mogły wywoływać i wykorzystywać ChatGPT. To radykalnie rozszerzy wykorzystanie generatywnej sztucznej inteligencji i ma znaczące konsekwencje, patrz moje opracowanie na link tutaj.
  • 14) Sposoby, w jakie ChatGPT może się zepsuć lub stopić. Przed ChatGPT czeka kilka potencjalnych irytujących problemów, jeśli chodzi o podcięcie ogromnej pochwały, jaką otrzymał. Ta analiza dokładnie analizuje osiem możliwych problemów, które mogą spowodować, że ChatGPT straci swoją popularność, a nawet skończy w niełasce, zobacz link tutaj.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zdawać sobie sprawy, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to bezczelne i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Wiedząc, co diabeł stanie się z tym tekstem

Teraz, gdy mamy ustalone podstawy, możemy zagłębić się w zagadnienia związane z danymi i informacjami podczas korzystania z generatywnej sztucznej inteligencji.

Najpierw krótko rozważmy, co się stanie, gdy wpiszesz jakiś tekst w pytaniu dotyczącym ChatGPT. Nie wiemy na pewno, co dzieje się w ChatGPT, ponieważ program jest uważany za zastrzeżony. Niektórzy zwracali uwagę, że podważa to poczucie przejrzystości aplikacji AI. Nieco smętną uwagą jest to, że dla firmy o nazwie OpenAI ich sztuczna inteligencja jest w rzeczywistości zamknięta dla publicznego dostępu i niedostępna jako open source.

Porozmawiajmy o tokenizacji.

Kiedy wpiszesz zwykły tekst do monitu i naciśniesz Return, prawdopodobnie nastąpi natychmiastowa konwersja. Tekst jest konwertowany do formatu składającego się z tokenów. Tokeny to części składowe słów. Na przykład słowo „hamburger” byłoby zwykle podzielone na trzy żetony składające się z części „szynka”, „bur” i „ger”. Praktyczna zasada jest taka, że ​​tokeny zwykle reprezentują około czterech znaków lub są uważane za około 75% konwencjonalnego angielskiego słowa.

Każdy token jest następnie przeformułowany jako liczba. Różne wewnętrzne tabele określają, który token jest przypisany do konkretnego numeru. Pojęcie to polega na tym, że wprowadzony tekst jest teraz w całości zbiorem liczb. Liczby te są używane do obliczeniowej analizy monitu. Ponadto sieć dopasowywania wzorców, o której wspomniałem wcześniej, również opiera się na wartościach stokenizowanych. Ostatecznie, podczas tworzenia lub generowania wyjściowego eseju, te tokeny numeryczne są najpierw używane, a następnie przed wyświetleniem tokeny są ponownie konwertowane na zestawy liter i słów.

Pomyśl o tym przez chwilę.

Kiedy mówię ludziom, że tak działa mechanika przetwarzania, często są oszołomieni. Założyli, że generatywna aplikacja AI, taka jak ChatGPT, musi używać całkowicie integracyjnych słów. Logicznie zakładamy, że słowa pełnią rolę kamienia zwornikowego do statystycznego identyfikowania relacji w narracjach pisanych i kompozycjach. Okazuje się, że przetwarzanie faktycznie ma tendencję do używania tokenów. Być może zwiększa to zdumienie nad tym, jak proces obliczeniowy wydaje się całkiem przekonująco naśladować ludzki język.

Przeprowadziłem Cię przez ten proces z powodu jednego powszechnego błędnego przekonania, które wydaje się rozprzestrzeniać. Niektórzy ludzie wydają się wierzyć, że ponieważ tekst zachęty jest konwertowany na tokeny numeryczne, jesteś bezpieczny i zdrowy, że elementy wewnętrzne aplikacji AI w jakiś sposób nie mają już pierwotnie wprowadzonego tekstu. Tak więc twierdzenie brzmi, że nawet jeśli podałeś poufne informacje w swoim monicie, nie martw się, ponieważ wszystko zostało pozornie tokenizowane.

Pojęcie to jest błędem. Właśnie zwróciłem uwagę, że tokeny numeryczne można łatwo przywrócić do formatu tekstowego liter i słów. To samo można zrobić z przekonwertowanym monitem, który został poddany tokenizacji. Tokenizacja nie zapewnia żadnej magicznej ochrony. Biorąc to pod uwagę, po konwersji na tokeny, jeśli istnieje dodatkowy proces, który decyduje się na odrzucanie tokenów, przenoszenie ich i inne mieszanie lub siekanie rzeczy, w takim przypadku rzeczywiście istnieje możliwość, że niektóre części oryginału monit nie są już nienaruszone (i zakładając, że oryginalna kopia nie jest w inny sposób przechowywana lub przechowywana gdzieś wewnętrznie).

Chciałbym następnie przyjrzeć się różnym powiadomieniom i postanowieniom licencyjnym ChatGPT.

Kiedy logujesz się do ChatGPT, wyświetlana jest seria ostrzeżeń i komentarzy informacyjnych.

Tutaj są:

  • „Może czasami generować nieprawidłowe informacje.”
  • „Może czasami generować szkodliwe instrukcje lub stronnicze treści”.
  • „Wyszkolony w odrzucaniu niewłaściwych próśb”.
  • „Naszym celem jest uzyskanie zewnętrznych informacji zwrotnych w celu ulepszenia naszych systemów i uczynienia ich bezpieczniejszymi”.
  • „Chociaż stosujemy zabezpieczenia, system może od czasu do czasu generować nieprawidłowe lub wprowadzające w błąd informacje oraz tworzyć obraźliwe lub stronnicze treści. Nie ma na celu udzielania porad”.
  • „Rozmowy mogą być przeglądane przez naszych trenerów AI w celu ulepszenia naszych systemów”.
  • „Proszę nie udostępniać żadnych poufnych informacji w rozmowach”.
  • „Ten system jest zoptymalizowany pod kątem dialogu. Daj nam znać, jeśli dana odpowiedź była dobra lub nieprzydatna”.
  • „Ograniczona wiedza o świecie i wydarzeniach po 2021 roku.”

Dwie z tych ostrzeżeń są szczególnie istotne w tej dyskusji. Spójrz na szósty wypunktowany punkt i siódmy wypunktowany punkt.

Rozpakujmy te dwa:

„Rozmowy mogą być przeglądane przez naszych trenerów AI w celu ulepszenia naszych systemów”.

Ten szósty wypunktowany punkt wyjaśnia, że ​​rozmowy tekstowe podczas korzystania z ChatGPT mogą być przeglądane przez ChatGPT za pośrednictwem jego „trenerów AI”, co ma na celu ulepszenie ich systemów. Ma to na celu poinformowanie Cię, że wszystkie wprowadzone przez Ciebie monity tekstowe i odpowiadające im wydrukowane eseje, z których wszystkie są częścią „rozmowy”, którą podejmujesz z ChatGPT, mogą być w całości widoczne dla ich ludzi. Proponowane uzasadnienie jest takie, że ma to na celu ulepszenie aplikacji AI, a także powiedziano nam, że jest to rodzaj zadania wykonywanego przez ich trenerów AI. Być może tak, ale rezultat jest taki, że dali ci znać, że mogą spojrzeć na twój tekst. Kropka, kropka.

Gdyby mieli zrobić coś innego z twoim tekstem, prawdopodobnie zasięgnąłbyś porady prawnej, czy nie wykroczyli poza sugerowane granice zwykłego przeglądu tekstu w celu ulepszenia systemu (zakładając, że udało ci się odkryć, że to zrobili, które z samo w sobie wydaje się być może mało prawdopodobne). W każdym razie możesz sobie wyobrazić spory prawne związane z próbą przygwożdżenia ich do tego, a także ich próby wykucia słów, aby uniknąć złapania za naruszenie w jakiś sposób granic ich zrzeczenia się odpowiedzialności.

„Proszę nie udostępniać żadnych poufnych informacji w rozmowach”.

Siódmy wypunktowany punkt wskazuje, że w rozmowach nie należy udostępniać żadnych poufnych informacji. To wydaje się stosunkowo proste. Przypuszczam, że możesz spierać się o to, z czego składa się definicja informacji wrażliwych. Ponadto wypunktowany punkt nie wyjaśnia, dlaczego nie należy udostępniać żadnych poufnych informacji. Jeśli pewnego dnia będziesz musiał spróbować i w strasznym pocie wyjaśnić, dlaczego niemądrze wprowadziłeś poufne dane, możesz spróbować unieść brwi twierdząc, że ostrzeżenie było niespecyficzne, a zatem nie zrozumiałeś znaczenia. Wstrzymaj oddech na tym.

Podsumowując, śmiem twierdzić, że większość ludzi, których widziałem korzystających z ChatGPT, zwykle nie czyta wypunktowanych punktów lub przegląda wypunktowane środki ostrożności i po prostu kiwa głową, jakby to był zwykły bełkot prawniczy, że widzisz wszystkie czas. Wydaje się, że niewielu bierze sobie te ostrzeżenia ściśle do serca. Czy to wina sprzedawcy, że nie wprowadził ostrzejszych środków ostrożności? A może powinniśmy założyć, że użytkownicy powinni być odpowiedzialni i uważnie przeczytać, zrozumieć, a następnie postępować rozsądnie w oparciu o ostrzeżenia?

Niektórzy twierdzą nawet, że aplikacja AI powinna Cię wielokrotnie ostrzegać. Za każdym razem, gdy wprowadzisz monit, oprogramowanie powinno wyświetlić ostrzeżenie i zapytać, czy chcesz wrócić. W kółko. Chociaż może się to wydawać pomocnym środkiem ostrożności, trzeba przyznać, że zirytowałoby to użytkowników. W grę wchodzi drażliwy kompromis.

Okej, więc to są oczywiste ostrzeżenia przedstawione wszystkim użytkownikom, aby mogli je łatwo zobaczyć.

Użytkownicy, którzy mogą być bardziej dociekliwi, mogą zdecydować się na zastosowanie niektórych szczegółowych warunków licencyjnych, które są również publikowane online. Wątpię, żeby wielu to zrobiło. Mam przeczucie, że niewielu patrzy poważnie na wypunktowane punkty podczas logowania, a jeszcze mniej z dużym marginesem patrzy na szczegóły licencji. Ponownie, w dzisiejszych czasach wszyscy jesteśmy nieco odrętwiali na takie rzeczy. Nie usprawiedliwiam takiego zachowania, tylko zwracam uwagę, dlaczego tak się dzieje.

Przeanalizuję kilka fragmentów opublikowanych warunków licencyjnych.

Po pierwsze, oto definicja tego, co uważają za „treść” związaną z korzystaniem z ChatGPT:

  • „Twoje treści. Możesz dostarczać dane wejściowe do Usług („Wejście”) i otrzymywać dane wyjściowe generowane i zwracane przez Usługi na podstawie Danych wejściowych („Wyjście”). Dane wejściowe i wyjściowe są łącznie określane jako „Treść”. Pomiędzy stronami i w zakresie dozwolonym przez obowiązujące prawo jesteś właścicielem wszystkich danych wejściowych i z zastrzeżeniem przestrzegania przez Ciebie niniejszych Warunków, OpenAI niniejszym przenosi na ciebie wszystkie swoje prawa, tytuły i udziały w danych wyjściowych. OpenAI może wykorzystywać Treści, jeśli jest to konieczne do świadczenia i utrzymywania Usług, przestrzegania obowiązującego prawa i egzekwowania naszych zasad. Ponosisz odpowiedzialność za Treść, w tym za zapewnienie, że nie narusza ona żadnego obowiązującego prawa ani niniejszych Warunków.”

Jeśli dokładnie przeanalizujesz tę definicję, zauważysz, że OpenAI deklaruje, że może wykorzystywać treści, jakie uzna za konieczne do utrzymania swoich usług, w tym przestrzegania obowiązujących przepisów i egzekwowania swoich zasad. To dla nich wygodny chwyt. W nadchodzącym jednym z moich felietonów omówię inny, ale pokrewny temat, w szczególności prawa własności intelektualnej (IP), które masz w odniesieniu do wprowadzonych monitów tekstowych i wydrukowanych esejów (wskazuję na to tutaj, ponieważ definicja Treść odnosi się do tego tematu).

W dalszej części terminów, oznaczonej jako sekcja c, wspominają o tym aspekcie: „Jedną z głównych zalet modeli uczenia maszynowego jest to, że można je ulepszać z biegiem czasu. Aby pomóc OpenAI w świadczeniu i utrzymywaniu Usług, wyrażasz zgodę i instruujesz nas, abyśmy mogli wykorzystywać Treści do rozwijania i ulepszania Usług”. Jest to podobne do omówionego wcześniej ostrzeżenia w jednym wierszu, które pojawia się podczas logowania do ChatGPT.

Oddzielny dokument, który jest z tym powiązany, przedstawia kilka dodatkowych aspektów tych ważnych kwestii:

  • „W ramach tego ciągłego doskonalenia, gdy korzystasz z modeli OpenAI za pośrednictwem naszego interfejsu API, możemy wykorzystywać dane, które nam przekazujesz, do ulepszania naszych modeli. Dzięki temu nasze modele nie tylko stają się dokładniejsze i lepiej rozwiązują konkretny problem, ale także poprawiają ich ogólne możliwości i bezpieczeństwo. Wiemy, że prywatność i bezpieczeństwo danych mają kluczowe znaczenie dla naszych klientów. Dokładamy wszelkich starań, aby stosować odpowiednie kontrole techniczne i procesowe w celu zabezpieczenia Twoich danych. Usuwamy wszelkie informacje umożliwiające identyfikację osób z danych, które zamierzamy wykorzystać do poprawy wydajności modelu. Wykorzystujemy również tylko niewielką próbkę danych na klienta w naszych wysiłkach na rzecz poprawy wydajności modelu. Na przykład dla jednego zadania maksymalna liczba żądań API, które próbkujemy na klienta, jest ograniczona do 200 co 6 miesięcy” (zaczerpnięte z dokumentu zatytułowanego „Jak Twoje dane są wykorzystywane do poprawy wydajności modelu”).

Należy zauważyć, że w zastrzeżeniu wskazano, że przepis dotyczy art korzystanie z API jako sposób łączenia się z modelami OpenAI i korzystania z nich. Niejasne jest, czy dotyczy to w równym stopniu użytkowników końcowych, którzy bezpośrednio korzystają z ChatGPT.

W jeszcze innym dokumencie, zawierającym ich listę różnych często zadawanych pytań, dostarczają serii pytań i odpowiedzi, z których dwa wydają się szczególnie istotne w tej dyskusji:

  • „(5) Kto może przeglądać moje rozmowy? W ramach naszego zaangażowania w bezpieczną i odpowiedzialną sztuczną inteligencję przeglądamy rozmowy w celu ulepszenia naszych systemów i zapewnienia zgodności treści z naszymi zasadami i wymogami bezpieczeństwa”.
  • „(8) Czy możesz usunąć określone monity? Nie, nie jesteśmy w stanie usunąć określonych monitów z Twojej historii. Proszę nie udostępniać żadnych poufnych informacji w rozmowach”.

Istnieje dodatkowy dokument, który obejmuje ich politykę prywatności. Mówi to: „Zbieramy informacje, które same lub w połączeniu z innymi posiadanymi przez nas informacjami mogą zostać wykorzystane do identyfikacji użytkownika („Dane osobowe”)”, a następnie wyjaśnia, że ​​mogą wykorzystywać dane dziennika, dane dotyczące użytkowania, informacje komunikacyjne, informacje o urządzeniu, pliki cookie, dane analityczne i inne potencjalnie możliwe do zebrania informacje o użytkowniku. Pamiętaj, aby przeczytać drobnym drukiem.

Myślę, że to w dużej mierze stanowi przewodnik po niektórych rozważaniach leżących u podstaw wykorzystania danych. Jak wspomniałem na wstępie, nie zamierzam mozolnie przechodzić przez wszystkie warunki licencyjne.

Miejmy nadzieję, że wprawi cię to w dobry nastrój w tych sprawach i pozostanie na twoim umyśle.

Wnioski

Mówiłem to już wcześniej i powtórzę, nie wprowadzaj poufnych ani prywatnych danych do tych generatywnych aplikacji AI.

Rozważ kilka przydatnych wskazówek lub opcji dotyczących tej mądrej rady:

  • Pomyśl, zanim użyjesz generatywnej sztucznej inteligencji
  • Usuń rzeczy wcześniej
  • Zamaskuj lub sfałszuj swoje dane wejściowe
  • Skonfiguruj własną instancję
  • Inne

Wskażę następnie, z czego składa się każdy z nich. Konfigurowanie własnej instancji zostało wcześniej omówione w tym dokumencie. Użycie „innych” na mojej liście wynika z możliwości innych sposobów radzenia sobie z zapobieganiem dołączaniu poufnych danych, które będę dalej omawiał w przyszłych artykułach.

Przeanalizujmy te:

  • Pomyśl, zanim użyjesz generatywnej sztucznej inteligencji. Jedno podejście polega na całkowitym unikaniu stosowania generatywnej sztucznej inteligencji. Albo przynajmniej zastanów się dwa razy, zanim to zrobisz. Przypuszczam, że najbezpieczniejszą drogą jest nieużywanie tych aplikacji AI. Ale to również wydaje się dość poważne i prawie za burtą.
  • Usuń rzeczy wcześniej. Inne podejście polega na usunięciu poufnych lub prywatnych informacji z tego, co wpiszesz jako monit. W tym sensie, jeśli nie wejdziesz do niego, nie ma szans, aby dostał się do Borga. Minusem jest to, że być może usunięcie poufnej części w jakiś sposób zmniejsza lub podważa to, co próbujesz uzyskać od generatywnej sztucznej inteligencji.
  • Maskuj lub sfałszuj swoje dane wejściowe. Możesz zmodyfikować proponowany tekst, zmieniając informacje, tak aby wszystko, co wydawało się poufne lub prywatne, było teraz inaczej przedstawiane. Na przykład zamiast kontraktu wspominającego o firmie Widget Company i Johnie Smithie zmieniasz tekst, aby odnosił się do firmy Specious Company i Jane Capone. Problem polega na tym, czy wykonasz wystarczająco wyczerpującą pracę, aby wszystkie poufne i prywatne aspekty zostały całkowicie zmienione lub sfałszowane. Łatwo byłoby przegapić niektóre zachmurzenia i zostawić rzeczy, których nie powinno tam być.

Oto interesujący dodatkowy zwrot akcji, który może sprawić, że twój łeb będzie dalej przesiąkał na ten temat. Jeśli możesz całkowicie upewnić się, że żaden z twoich monitów wejściowych nie zawiera żadnych poufnych informacji, czy oznacza to, że nie musisz się ani trochę martwić, że wydrukowane eseje również zawierają jakiekolwiek poufne informacje?

Wydawałoby się to aksjomatycznie prawdziwe. Żadnego poufnego wejścia, żadnego poufnego wyjścia.

Oto twój oszałamiający zwrot akcji.

Generatywna sztuczna inteligencja jest często konfigurowana do ponownego uczenia się obliczeniowego na podstawie dostarczanych monitów tekstowych. Podobnie generatywna sztuczna inteligencja jest często opracowywana w celu przekwalifikowania obliczeniowego z wydrukowanych esejów. Całe to przekwalifikowanie ma na celu poprawę możliwości generatywnej sztucznej inteligencji.

W jednym z moich innych felietonów opisałem następujący eksperyment, który przeprowadziłem. Adwokat próbował znaleźć nowy sposób rozwiązania problemu prawnego. Po wyczerpującym spojrzeniu na literaturę prawniczą wydawało się, że wszystkie już ujawnione kąty zostały znalezione. Korzystając z generatywnej sztucznej inteligencji, stworzyliśmy aplikację AI, która stworzyła nowatorskie podejście prawne, które najwyraźniej nie zostało wcześniej zidentyfikowane. Uważano, że nikt jeszcze nie wylądował na tej pozycji prawnej. Niejako legalny samorodek złota. Może to być strategicznie cenna konkurencyjna prawna bonanza, którą we właściwym czasie można wykorzystać.

Czy ten wydrukowany esej stanowi formę informacji poufnej, tak że został wygenerowany przez AI dla tej konkretnej osoby i zawiera coś wyjątkowego i pozornie unikalnego?

Aha, to prowadzi nas do innego pokrewnego i powiązanego tematu dotyczącego własności i praw własności intelektualnej związanych z generatywną sztuczną inteligencją. Bądź na bieżąco, aby zobaczyć, jak to się potoczy.

Na razie uwaga końcowa.

Sofokles przekazał tę mądrość: „Nic nie rób potajemnie; ponieważ Czas widzi i słyszy wszystko i wszystko objawia”. Przypuszczam, że mógłbyś zmodernizować sformułowanie i twierdzić, że generatywna sztuczna inteligencja oraz ci, którzy opracowują i utrzymują sztuczną inteligencję, też są w stanie wszystko zobaczyć.

To skromnie symboliczna rada godna zapamiętania.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etyka-i-prawo/