Generative AI ChatGPT będzie wszędzie, gdy wkrótce zostanie otwarty portal API, oszałamiający etykę AI i prawo AI

Uwolnić Krakena!

Bez wątpienia znasz to słynne hasło, które wypowiedział zwłaszcza aktor Liam Neeson Starcie Tytanów kiedy nakazuje wypuścić legendarnego potwora morskiego, którego celem jest sianie ogromnego spustoszenia i ogromnych zniszczeń. Linia była powtarzana w nieskończoność i zrodziła wszelkiego rodzaju memy. Pomimo różnych parodii, większość ludzi wciąż przynajmniej instynktownie wyczuwa, że ​​uwaga ta zapowiada, że ​​coś z mrocznego i niebezpiecznego zjawiska ma się wkrótce uwolnić.

Być może to samo zdanie można odnieść obecnie do sztucznej inteligencji (AI).

Pozwólcie mi rozwinąć.

Niedawne ogłoszenie wskazywało, że słynna obecnie aplikacja AI o nazwie ChatGPT, stworzona przez organizację OpenAI, wkrótce zostanie udostępniona innym programom. To ważna wiadomość. Mówię to, mimo że niewiele zwykłych mediów podchwyciło to oświadczenie. Poza ulotnymi wzmiankami, pełny wpływ nadchodzącego dostępu będzie cholernie znaczący.

W dzisiejszym felietonie wyjaśnię, dlaczego tak się dzieje. Możesz się odpowiednio przygotować.

Niektórzy nieugięcie wierzą, że będzie to podobne do wypuszczenia Krakena, a mianowicie, że pojawią się wszelkiego rodzaju złe rzeczy. Inni postrzegają to jako udostępnienie kluczowego zasobu, który może ulepszyć mnóstwo innych aplikacji, wykorzystując wielkie możliwości ChatGPT. To albo najgorszy czas, albo najlepszy czas. Rozważymy tutaj obie strony debaty i możesz sam zdecydować, w którym obozie wylądujesz.

Do tego wszystkiego dochodzi mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Należy pamiętać, że trwają wysiłki mające na celu włączenie zasad etycznej sztucznej inteligencji do opracowywania i wdrażania aplikacji AI. Rosnący kontyngent zainteresowanych i niegdysiejszych etyków sztucznej inteligencji stara się zapewnić, aby wysiłki mające na celu opracowanie i przyjęcie sztucznej inteligencji uwzględniały pogląd na robienie AI na dobre i unikanie AI na złe. Podobnie, proponowane są nowe przepisy dotyczące sztucznej inteligencji, które są rozpowszechniane jako potencjalne rozwiązania mające na celu powstrzymanie wysiłków AI przed popadnięciem w amok w zakresie praw człowieka i tym podobnych. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Narastały wątpliwości, że ChatGPT i inne podobne aplikacje AI mają brzydkie podbrzusze, z którym być może nie jesteśmy gotowi. Na przykład mogłeś słyszeć, że uczniowie w szkołach mogą potencjalnie oszukiwać, jeśli chodzi o pisanie przypisanych esejów za pomocą ChatGPT. AI robi za nich całe pisanie. W międzyczasie uczeń jest w stanie pozornie bez szwanku odwrócić esej tak, jakby napisał go z własnej głowy. Nie to, co przypuszczalnie chcemy, aby sztuczna inteligencja zrobiła dla ludzkości.

Kilka kluczowych elementów może być pomocnych w przygotowaniu gruntu pod to, o co w tym wszystkim chodzi.

ChatGPT to rodzaj sztucznej inteligencji powszechnie określany jako generatywna sztuczna inteligencja. Te popularne, generatywne aplikacje AI umożliwiają wprowadzenie krótkiego monitu i wygenerowanie danych wyjściowych przez aplikację. W przypadku ChatGPT wyjściem jest tekst. W ten sposób wprowadzasz monit tekstowy, a aplikacja ChatGPT generuje dla Ciebie tekst. Zwykle opisuję to jako szczególny podtyp generatywnej sztucznej inteligencji, który jest udoskonalony w celu generowania wyników z tekstu na esej (istnieją inne podtypy, takie jak tekst na obrazy, tekst na wideo i tak dalej).

Twórca sztucznej inteligencji ChatGPT poinformował, że wkrótce zostanie udostępniony interfejs API (Application Programming Interface) dla aplikacji AI. Krótko mówiąc, interfejs API to sposób na umożliwienie innym programom korzystania z programu, który udostępnia portal do danej aplikacji. Oznacza to, że prawie każdy inny program na tej planecie może potencjalnie wykorzystać ChatGPT (cóż, zgodnie z licencją i po zatwierdzeniu przez twórcę ChatGPT AI, co zostanie omówione w dalszej części niniejszego dokumentu).

Rezultat jest taki, że użycie i użycie ChatGPT może potencjalnie wystrzelić przez dach.

Podczas gdy dzisiaj istnieje imponująca liczba rejestracji obejmujących osoby, które na indywidualny podstawa może korzystać z ChatGPT, ograniczonego przez twórcę sztucznej inteligencji do miliona użytkowników, prawdopodobnie będzie to kropla w morzu tego, co ma nadejść.

Zdaj sobie sprawę, że te istniejące miliony rejestracji składają się z części, która wykorzystała ChatGPT na jednorazową igraszkę, a potem, gdy emocje opadły, nie używali go od tamtej pory. Wiele osób prawdopodobnie zainteresowało się aplikacją AI jako reaktywną reaktywną reakcją wirusową w mediach społecznościowych. Krótko mówiąc, jeśli wszyscy inni chcieli z niego korzystać, to też chcieli to zrobić. Po kilku początkowych eksperymentach z generatywną sztuczną inteligencją poczuli się usatysfakcjonowani, że uniknęli FOMO (strachu przed przegapieniem).

Żeby było jasne, nie sugeruję, że ludzie nie używają ChatGPT. Oni są. Ci, którzy się zarejestrowali, coraz częściej odkrywają, że aplikacja AI jest przeciążona. Z aplikacji korzysta bardzo dużo osób. Od czasu do czasu otrzymujesz kilka sprytnie skomponowanych smutnych sygnałów, że system jest zajęty i powinieneś spróbować ponownie później. Krążą pogłoski, że istniejąca infrastruktura ChatGPT ma trudności z radzeniem sobie z zapalonymi fanami korzystającymi z aplikacji AI.

I chociaż posiadanie miliona potencjalnych użytkowników nie jest czymś, na co można kichnąć, liczba ta prawdopodobnie zostanie wielokrotnie przyćmiona po udostępnieniu interfejsu API. Twórcy innych programów, które dziś nie mają nic wspólnego z generatywną sztuczną inteligencją, będą chcieli wykorzystać modę generatywnej sztucznej inteligencji. Będą chcieli połączyć swój program z ChatGPT. W głębi serca mają nadzieję, że podniesie to ich obecny program do stratosfery popularności.

Pomyśl o tym w ten sposób. Załóżmy, że wszelkiego rodzaju firmy programistyczne, które obecnie tworzą programy, które docierają do wielu milionów użytkowników, często docierając do dziesiątek i setek milionów użytkowników, decydują się na sparowanie swoich programów z ChatGPT. Sugeruje to, że liczba użytkowników korzystających z ChatGPT może wzrosnąć do nieba.

Kraken zostaje wypuszczony.

Być może zastanawiasz się, dlaczego różne firmy produkujące oprogramowanie chciałyby łączyć się z ChatGPT?

Prostą odpowiedzią jest to, że równie dobrze mogą wykorzystać niesamowite wiatry w ogonie, które popychają ChatGPT naprzód iw górę. Niektórzy zrobią to z rozsądnych i szczerych powodów. Inni zrobią to tylko po to, by spróbować zyskać pozory piętnastu minut sławy.

Lubię stratyfikować parowanie z ChatGPT jako składające się z dwóch głównych intencji:

  • Oryginalne parowanie z ChatGPT
  • Fałszywe parowanie z ChatGPT

W pierwszym przypadku chodzi o to, że istnieje dobra podstawa do sparowania z ChatGPT. Twórcy danego programu potrafią dobrze wyartykułować wymierne i funkcjonalne korzyści, jakie wynikną z połączenia ich programu z ChatGPT. Wszyscy w rozsądnym nastroju możemy zobaczyć, że parowanie jest połączeniem stworzonym w niebie.

W drugim przypadku, składającym się z tego, co określam jako fałszerstwo, niektórzy będą próbowali sparować się z ChatGPT na zasadzie lekkomyślności lub chwiejności. Uzasadnienie biznesowe nie składa się z niczego szczególnie merytorycznego. Parowanie jest desperacką próbą przejechania ogonów ChatGPT. Każda rozsądna kontrola wykazałaby, że parowanie ma marginalną wartość. To, czy uważasz, że jest to właściwa, czy niewłaściwa forma parowania, wisi w powietrzu. Można by spróbować argumentować, że konkretne parowanie z ChatGPT, nawet jeśli parowanie nie osiąga niczego poza zwiększeniem użycia i nie ma żadnej dodatkowej wartości funkcjonalnej, prawdopodobnie nadal jest warte podjęcia.

Nieco minusem będą te, które fałszywie przedstawiają parowanie i prowadzą ludzi do przekonania, że ​​​​dzieje się coś godnego uwagi, podczas gdy tak naprawdę nie jest. Z pewnością możemy się spodziewać, że niektórzy tego spróbują. Osoby z AI Ethics są ostro zaniepokojone zastosowaniami oleju węża, które wyjdą z drewna. Istnieje również szansa, że ​​jeśli sytuacja wymknie się spod kontroli, możemy zobaczyć nowe przepisy dotyczące sztucznej inteligencji, które zostaną zachęcone do opracowania i uchwalenia.

Przyjrzyjmy się bliżej temu, co składa się na autentyczne pary, a co również na fałszywe pary.

Po pierwsze, powinniśmy upewnić się, że wszyscy jesteśmy po tej samej stronie co do tego, z czego składa się generatywna sztuczna inteligencja, a także, o co chodzi w ChatGPT. Kiedy omówimy ten fundamentalny aspekt, możemy przeprowadzić przekonującą ocenę tego, w jaki sposób API w ChatGPT radykalnie zmieni sytuację.

Jeśli jesteś już dobrze zaznajomiony z Generative AI i ChatGPT, być może możesz przejrzeć następną sekcję i przejść do następnej sekcji. Wierzę, że wszyscy pozostali uznają istotne szczegóły dotyczące tych spraw za pouczające, jeśli uważnie przeczytają ten rozdział i zapoznają się z najnowszymi informacjami.

Szybki elementarz o generatywnej sztucznej inteligencji i ChatGPT

ChatGPT to interaktywny, konwersacyjny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje, co wkrótce omówię. Ta aplikacja AI wykorzystuje technikę i technologię w dziedzinie AI, która jest często określana jako generatywna sztuczna inteligencja. Sztuczna inteligencja generuje dane wyjściowe, takie jak tekst, co robi ChatGPT. Inne oparte na sztucznej inteligencji aplikacje generatywne generują obrazy, takie jak obrazy lub dzieła sztuki, podczas gdy inne generują pliki audio lub wideo.

W tej dyskusji skupię się na tekstowych generatywnych aplikacjach AI, ponieważ to właśnie robi ChatGPT.

Aplikacje Generative AI są niezwykle łatwe w użyciu.

Wszystko, co musisz zrobić, to wpisać monit, a aplikacja AI wygeneruje dla Ciebie esej, który spróbuje odpowiedzieć na Twój monit. Skomponowany tekst będzie wyglądał tak, jakby esej został napisany ludzką ręką i umysłem. Jeśli wpiszesz monit „Opowiedz mi o Abrahamie Lincolnie”, generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wyjście. Jak wspomniano, istnieją inne tryby generatywnej sztucznej inteligencji, takie jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​ta zdolność do generowania nie wydaje się tak wielka, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Istnieją dodatkowe obawy dotyczące generatywnej sztucznej inteligencji.

Jednym z kluczowych minusów jest to, że eseje tworzone przez generatywną aplikację AI mogą zawierać różne nieprawdziwe fakty, w tym jawnie nieprawdziwe fakty, fakty, które są przedstawiane w sposób wprowadzający w błąd, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, przygotowałem w mojej kolumnie skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • 1) Prognozy dotyczące nadchodzących postępów generatywnej sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • 2) Generatywne porady dotyczące sztucznej inteligencji i zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • 3) Podstawy generatywnej sztucznej inteligencji i ChatGPT. Ten artykuł bada kluczowe elementy działania generatywnej sztucznej inteligencji, a w szczególności zagłębia się w aplikację ChatGPT, w tym analizę szumu i fanfar, na link tutaj.
  • 4) Napięcie między nauczycielami a uczniami w związku z generatywną sztuczną inteligencją i ChatGPT. Oto sposoby, w jakie uczniowie przebiegle wykorzystają generatywną sztuczną inteligencję i ChatGPT. Ponadto, oto sposoby, w jakie nauczyciele mogą poradzić sobie z tą falą przypływu. Widzieć link tutaj.
  • 5) Kontekst i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka na temat kontekstu związanego ze Świętym Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • 6) Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • 7) Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • 8) Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • 9) Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów stworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.
  • 10) Odgrywanie ról za pomocą generatywnej sztucznej inteligencji może zwiastować problemy ze zdrowiem psychicznym. Niektórzy używają generatywnej sztucznej inteligencji, takiej jak ChatGPT, do odgrywania ról, w której aplikacja AI reaguje na człowieka tak, jakby istniał w świecie fantasy lub innym wymyślonym otoczeniu. To może mieć reperkusje dla zdrowia psychicznego, patrz link tutaj.
  • 11) Ujawnianie zakresu wyprowadzanych błędów i fałszów. Różne zebrane listy są tworzone razem, aby spróbować pokazać naturę błędów i fałszów stworzonych przez ChatGPT. Niektórzy uważają, że jest to niezbędne, podczas gdy inni twierdzą, że ćwiczenie to jest daremne, patrz moja analiza na link tutaj.
  • 12) Szkoły zakazujące generatywnego AI ChatGPT gubią łódź. Być może wiesz, że różne szkoły, takie jak Departament Edukacji miasta Nowy Jork (NYC), ogłosiły zakaz korzystania z ChatGPT w swojej sieci i powiązanych urządzeniach. Chociaż może się to wydawać pomocnym środkiem ostrożności, nie poruszy igły i niestety całkowicie nie trafia w łódź, zobacz moją relację na link tutaj.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zdawać sobie sprawy, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to bezczelne i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Uwolnienie bestii

Teraz, gdy mamy ustalone podstawy, możemy zagłębić się w biznesowe i społeczne reperkusje związane z aspektami API ChatGPT.

Firma Microsoft we współpracy z OpenAI ogłosiła niedawno zbliżającą się dostępność ChatGPT na platformie chmurowej Azure firmy Microsoft (zgodnie z ogłoszeniem online zatytułowanym „Ogólna dostępność usługi Azure OpenAI rozszerza dostęp do dużych, zaawansowanych modeli sztucznej inteligencji z dodatkowymi korzyściami dla przedsiębiorstw”, 16 stycznia 2023 r.):

  • „Duże modele językowe szybko stają się podstawową platformą dla ludzi do wprowadzania innowacji, stosowania sztucznej inteligencji do rozwiązywania dużych problemów i wyobrażania sobie, co jest możliwe. Dziś z radością ogłaszamy ogólną dostępność usługi Azure OpenAI Service w ramach ciągłego zaangażowania firmy Microsoft w demokratyzację sztucznej inteligencji i trwającej współpracy z OpenAI. Dzięki ogólnodostępnej usłudze Azure OpenAI więcej firm może ubiegać się o dostęp do najbardziej zaawansowanych modeli sztucznej inteligencji na świecie — w tym GPT-3.5, Codex i DALL•E 2 — wspieranych przez zaufane funkcje klasy korporacyjnej i infrastrukturę zoptymalizowaną pod kątem sztucznej inteligencji Microsoft Azure, aby tworzyć najnowocześniejsze aplikacje. Klienci będą również mogli uzyskać dostęp do ChatGPT — dopracowanej wersji GPT-3.5, która została przeszkolona i uruchamia wnioskowanie w infrastrukturze Azure AI — za pośrednictwem usługi Azure OpenAI Service”.

Być może zauważyłeś w tym oświadczeniu, że dostępne będą również inne różne aplikacje AI opracowane przez OpenAI. Rzeczywiście, niektóre z tych aplikacji AI są już dostępne od dłuższego czasu, jak wspomniano dalej w niedawnym powyższym oświadczeniu: „Zadebiutowaliśmy usługą Azure OpenAI Service w listopadzie 2021 r., aby umożliwić klientom wykorzystanie mocy generatywnych modeli sztucznej inteligencji na dużą skalę z obietnice przedsiębiorstwa, których klienci oczekują od naszej chmury Azure i infrastruktury obliczeniowej — bezpieczeństwo, niezawodność, zgodność, prywatność danych i wbudowane funkcje odpowiedzialnej sztucznej inteligencji” (tamże).

Wspomniałem wcześniej, że zarówno etyka AI, jak i prawo AI starają się zrównoważyć AI na dobre aspiracje z potencjałem AI na złe które czasem mogą się pojawić. W dziedzinie sztucznej inteligencji istnieje ruch w kierunku posiadania Odpowiedzialna sztuczna inteligencja lub czasami ukuty jako Godna zaufania sztuczna inteligencja lub sztuczna inteligencja skoncentrowana na człowieku, zobacz mój zasięg na link tutaj. Wszystkich twórców sztucznej inteligencji zachęca się do opracowania i ukierunkowania swojej sztucznej inteligencji AI na dobre i otwarcie dążyć do ich ograniczenia lub złagodzenia AI na złe to może się pojawić.

To jest wysokie zamówienie.

W każdym razie powyższe oświadczenie odnosiło się do kwestii Odpowiedzialnej AI:

  • „Jako lider branży zdajemy sobie sprawę, że wszelkie innowacje w zakresie sztucznej inteligencji muszą być wprowadzane w sposób odpowiedzialny. Staje się to jeszcze ważniejsze w przypadku zaawansowanych, nowych technologii, takich jak modele generatywne. Przyjęliśmy iteracyjne podejście do dużych modeli, ściśle współpracując z naszym partnerem OpenAI i naszymi klientami, aby dokładnie ocenić przypadki użycia, uczyć się i eliminować potencjalne zagrożenia. Ponadto wdrożyliśmy własne bariery ochronne dla usługi Azure OpenAI, które są zgodne z naszymi zasadami odpowiedzialnej sztucznej inteligencji. W ramach naszych ram ograniczonego dostępu programiści muszą złożyć wniosek o dostęp, opisując zamierzony przypadek użycia lub aplikację, zanim uzyskają dostęp do usługi. Filtry treści specjalnie zaprojektowane do wyłapywania obraźliwych, nienawistnych i obraźliwych treści stale monitorują dane wprowadzane do usługi, a także generowane treści. W przypadku potwierdzonego naruszenia zasad możemy poprosić dewelopera o podjęcie natychmiastowych działań w celu zapobieżenia dalszym nadużyciom” (tamże).

Sedno tej perspektywy odpowiedzialnej sztucznej inteligencji polega na tym, że wymagając formalnego wniosku o dostęp do ChatGPT na podstawie interfejsu API programu, istnieje szansa na wyeliminowanie niesmacznych zgłoszeń. Jeśli istnieje odpowiednia należyta staranność w wyborze innych firm i ich programów, które mogą uzyskać dostęp do ChatGPT, być może istnieje szansa na zapobieżenie pełnemu gniewowi uwolnionego Krakena.

Może tak, może nie.

Niektórzy eksperci załamują ręce, że możliwości zarabiania pieniędzy, jakie daje zezwolenie na wykorzystanie API ChatGPT, nadwyrężą równoważącą koncepcję chęci rozsądnego i bezpiecznego powstrzymania bestii. Czy kontrola rzeczywiście będzie wystarczająco ostrożna z góry? Czy zamiast tego moglibyśmy zobaczyć, że proces zatwierdzania ma miejsce, gdy liczba żądań wymyka się spod kontroli? Niektórzy obawiają się, że dopiero po wyjęciu kota z worka może nastąpić spóźniona pełniejsza analiza, chociaż do tego czasu szkody już zostaną wyrządzone.

Cóż, możesz przynajmniej przyznać należytą zasługę, że w grę wchodzi proces weryfikacji. Istnieje kilka generatywnych aplikacji AI, które albo nie mają spójnego procesu weryfikacji, albo mają pobieżny, pobieżny charakter. Ponadto istnieją otwarte wersje generatywnej sztucznej inteligencji, z których może korzystać prawie każdy, kto chce to zrobić, chociaż należy przestrzegać pewnych ograniczeń licencyjnych (próba wyegzekwowania tego jest trudniejsza, niż mogłoby się wydawać).

Rzućmy okiem na istniejące zasady dotyczące ograniczania dostępu do usługi Azure OpenAI, aby zobaczyć, co inni twórcy oprogramowania będą musieli zrobić, aby potencjalnie połączyć się z ChatGPT. Zgodnie z opublikowanymi w Internecie Zasadami firmy Microsoft (ostatnia publikacja wskazana na 14 grudnia 2022 r.):

  • „W ramach zaangażowania firmy Microsoft w odpowiedzialną sztuczną inteligencję projektujemy i udostępniamy usługę Azure OpenAI Service z zamiarem ochrony praw jednostek i społeczeństwa oraz wspierania przejrzystej interakcji człowiek-komputer. Z tego powodu obecnie ograniczamy dostęp i korzystanie z Azure OpenAI, w tym ograniczamy dostęp do możliwości modyfikowania filtrów zawartości i modyfikowania monitorowania nadużyć. Usługa Azure OpenAI wymaga rejestracji i jest obecnie dostępna tylko dla zarządzanych klientów i partnerów pracujących z zespołami kont Microsoft. Klienci, którzy chcą korzystać z Azure OpenAI, muszą przesłać formularz rejestracyjny zarówno w celu uzyskania wstępnego dostępu do eksperymentów, jak i zatwierdzenia przejścia z etapu eksperymentalnego do produkcyjnego”.
  • „W przypadku eksperymentów klienci oświadczają, że korzystają z usługi wyłącznie zgodnie z zamierzonymi zastosowaniami przedstawionymi w momencie rejestracji i zobowiązują się do uwzględnienia nadzoru ludzkiego, silnych ograniczeń technicznych dotyczących wejść i wyjść, kanałów informacji zwrotnych i dokładnych testów. W przypadku produkcji klienci wyjaśniają, w jaki sposób zostały one wdrożone w celu ograniczenia ryzyka. Klienci, którzy chcą zmodyfikować filtry treści i zmodyfikować monitorowanie nadużyć po wejściu do usługi, podlegają dodatkowym ograniczeniom dotyczącym scenariuszy i muszą zarejestrować się tutaj”.
  • „Dostęp do usługi Azure OpenAI podlega wyłącznemu uznaniu firmy Microsoft w oparciu o kryteria kwalifikacyjne i proces weryfikacji, a klienci muszą potwierdzić, że zapoznali się z warunkami korzystania z usługi Azure dla usługi Azure OpenAI i wyrażą na nie zgodę. Firma Microsoft może wymagać od klientów ponownej weryfikacji tych informacji. Usługa Azure OpenAI jest udostępniana klientom zgodnie z warunkami regulującymi ich subskrypcję usług Microsoft Azure, w tym z sekcją Azure OpenAI Postanowień dotyczących produktów firmy Microsoft. Prosimy o uważne zapoznanie się z niniejszymi warunkami, ponieważ zawierają one ważne warunki i zobowiązania regulujące korzystanie z usługi Azure OpenAI Service”.

To jest po stronie Microsoftu.

OpenAI ma również swoje zasady użytkowania związane z interfejsem API:

  • „Chcemy, aby każdy mógł bezpiecznie i odpowiedzialnie korzystać z naszego API. W tym celu stworzyliśmy zasady dotyczące przypadków użycia i treści. Postępując zgodnie z nimi, pomożesz nam upewnić się, że nasza technologia jest używana w dobrym celu. Jeśli odkryjemy, że Twój produkt nie jest zgodny z tymi zasadami, poprosimy Cię o wprowadzenie niezbędnych zmian. Jeśli nie zastosujesz się do tego, możemy podjąć dalsze działania, w tym zamknąć Twoje konto”.
  • „Zakazujemy tworzenia produktów, które są ukierunkowane na następujące przypadki użycia:”
  • „— Nielegalne lub szkodliwe gałęzie przemysłu”
  • „— Nadużycie danych osobowych”
  • „— Promowanie nieuczciwości”
  • „— Oszukiwanie lub manipulowanie użytkownikami”
  • „— Próba wpływania na politykę”
  • „Następujący zestaw przypadków użycia niesie ze sobą większe ryzyko potencjalnych szkód: wymiar sprawiedliwości w sprawach karnych, organy ścigania, służby prawne, rządowe i cywilne, opieka zdrowotna, terapia, wellness, coaching, finanse, wiadomości. W tych przypadkach użycia musisz:
  • „1) Dokładnie przetestuj nasze modele pod kątem dokładności w swoim przypadku użycia i wyjaśnij użytkownikom ograniczenia”
  • „2) Upewnij się, że Twój zespół ma wiedzę specjalistyczną w danej dziedzinie i rozumie/przestrzega odpowiednich przepisów”
  • „Nie zezwalamy również Tobie ani użytkownikom końcowym Twojej aplikacji na generowanie następujących rodzajów treści:”
  • "- Nienawidzić"
  • "- Molestowanie"
  • "- Przemoc"
  • "- Samookaleczenia"
  • „— Seksualne”
  • „— Polityczny”
  • "- Spam"
  • "- Oszustwo"
  • "- Złośliwe oprogramowanie"

Powstaje wielkie pytanie, czy te ideały można przestrzegać, jeśli istnieje gorący napływ próśb o połączenie z ChatGPT. Być może będzie przytłaczające tsunami próśb. Ludzka praca polegająca na zbadaniu i dokładnej weryfikacji każdego z nich może być kosztowna i trudna do zarządzania. Czy pragnienie bycia odpowiednio restrykcyjnym nie zostanie przypadkowo osłabione w obliczu ogromnego zapotrzebowania na dostęp?

Jak głosi słynny dowcip, najlepsze plany mogą czasem zawieść przy pierwszym zetknięciu z licznymi siłami.

Istnieje również duża dowolność w interpretacji określonych zasad. Jak widzieliśmy ogólnie na temat wzrostu dezinformacji i dezinformacji, próba oddzielenia ziarna od plew może być dość trudna. Jak określić, czy generowane treści są zgodne z przepisami dotyczącymi zakazu szerzenia nienawiści, treści politycznych, zwodniczych itp. lub je naruszają?

Pojawiającą się trudnością może być to, że jeśli API ChatGPT zostanie udostępnione twórcy oprogramowania, który łączy swój program z ChatGPT, a wynikowy wynik jednoznacznie narusza określone zasady, czy koń już wyjdzie ze stodoły? Niektórzy sugerują, że istnieje duże prawdopodobieństwo uszczerbku na reputacji, który może zostać poniesiony przez wszystkie zaangażowane strony. Nie jest jasne, czy można temu zaradzić, po prostu odłączając interfejs API od tego konkretnego przestępcy. Uszkodzenia w pewnym sensie mogą się utrzymywać i zepsuć lufę. Mnóstwo winy spadnie na wszystkich chętnych.

Stratyfikacja parowania API

Zauważyłem wcześniej, że parowanie z ChatGPT można wygodnie podzielić na dwie główne intencje:

  • Oryginalne parowanie z ChatGPT
  • Fałszywe parowanie z ChatGPT

Przyjrzyjmy się najpierw parom autentycznym lub bona fide.

Jako tło, sposób, w jaki to się dzieje, jest dość prosty. Aplikacja ChatGPT umożliwia innym programom wywoływanie aplikacji. Zwykle składałoby się to z, powiedzmy, programu, który nazwiemy Widget, który przekazuje do ChatGPT monit w formacie tekstowym, a następnie po tym, jak ChatGPT wykona swoje zadanie, esej lub tekst jest zwracany do programu Widget. To prawie tak, jakby osoba robiła to samo, chociaż będziemy mieli program wykonujący te czynności zamiast osoby, która to robi.

Załóżmy na przykład, że ktoś opracowuje program do wyszukiwania w Internecie. Program pyta użytkownika, czego chce szukać. Następnie program udostępnia użytkownikowi listę różnych trafień wyszukiwania lub znalezisk, które, miejmy nadzieję, prezentują odpowiednie strony internetowe na podstawie zapytania użytkownika.

Wyobraź sobie, że firma, która tworzy ten program do wyszukiwania w sieci, chce ulepszyć swoją aplikację.

Proszą o dostęp do API ChatGPT. Załóżmy, że wykonają wszystkie odpowiednie dokumenty i ostatecznie zostaną zatwierdzone. Ich program, który przeprowadza wyszukiwanie w Internecie, musiałby zostać zmodyfikowany, aby zawierał wywołanie do aplikacji ChatGPT za pośrednictwem interfejsu API. Załóżmy, że zdecydują się wprowadzić te mody.

Oto, jak to może działać całkowicie. Gdy użytkownik wprowadza zapytanie dotyczące wyszukiwania w sieci do programu podstawowego, program ten nie tylko przeprowadza konwencjonalne wyszukiwanie w sieci, ale także przekazuje zapytanie do ChatGPT za pośrednictwem interfejsu API. Następnie ChatGPT przetwarza tekst i zwraca wynikowy esej do programu podstawowego. Główny program wyszukiwania w sieci przedstawia teraz użytkownikowi dwa aspekty, a mianowicie wyniki wyszukiwania w sieci i dodatkowy esej z ChatGPT.

Osoba korzystająca z tego podstawowego programu niekoniecznie będzie wiedzieć, że ChatGPT był używany na zapleczu. Może się to zdarzyć w ramach podstawowego programu, a użytkownik jest w błogiej nieświadomości, że w grę wchodzi ChatGPT. Z drugiej strony program podstawowy można by opracować tak, aby informował użytkownika, że ​​używany jest ChatGPT. Zwykle zależy to od tego, czy twórcy podstawowego programu chcą ujawnić, że używana była inna aplikacja, w tym przypadku ChatGPT. W niektórych rozwiązaniach twórca wywoływanego programu nalega, aby program wywołujący interfejs API informował użytkowników, że używany jest inny program. Wszystko zależy od preferencji i szczegółów licencji.

W przypadku prawdziwych par, oto zwyczajowe podejścia:

  • 1) Bezpośrednie przejście do ChatGPT
  • 2) Dodatek do rozszerzenia ChatGPT
  • 3) Sprzymierzona aplikacja, która pokrywa się z ChatGPT
  • 4) W pełni integracyjne zanurzenie w ChatGPT

Krótko mówiąc, w pierwszym wymienionym podejściu pomysł polega na tym, że mógłbym opracować program, który jest jedynie nakładką na ChatGPT, i jako taki, wszystko, co mój program robi, to przekazuje tekst do ChatGPT i odbiera tekst z ChatGPT. Udostępniam mój program każdemu, kto chce korzystać z ChatGPT, a kto w inny sposób nie zarejestrował się, aby z niego korzystać. To jest jedno podejście.

Po drugie, mógłbym wymyślić program, który służy jako dodatek do ChatGPT. Na przykład, gdy ChatGPT generuje esej, może on zawierać kłamstwa. Załóżmy, że tworzę program, który bada dane wyjściowe ChatGPT i próbuje wykryć fałszerstwa. Udostępniam mój program w taki sposób, że ludzie wprowadzają tekst zachęty do mojego programu, który następnie wysyła zachętę do ChatGPT. ChatGPT tworzy esej, który wraca do mojego programu. Zanim mój program pokaże ci esej, dokonuje wstępnej selekcji eseju i próbuje zaznaczyć lub usunąć kłamstwa. Następnie zobaczysz wynikowy esej po tym, jak mój program przeprowadzi kontrolę.

Trzecie podejście polega na posiadaniu sprzymierzonej aplikacji, która w pewnym sensie pokrywa się z ChatGPT. Załóżmy, że opracowuję program, który pomaga ludziom w kreatywnym pisaniu. Mój program zawiera gotowe porady i sugestie, jak pisać kreatywnie. Program jedynie prods lub zachęca użytkownika do tego. Tymczasem chciałbym móc pokazać użytkownikowi, na czym polega kreatywne pisanie. W związku z tym ustanawiam interfejs API z ChatGPT. Następnie mój program pobiera monit od użytkownika i wywołuje ChatGPT w celu dostarczenia fragmentu eseju, który może demonstrować kreatywne pisanie. Można to zrobić iteracyjnie i wielokrotnie wywoływać ChatGPT w trakcie procesu.

W przypadku czwartego wymienionego podejścia, ChatGPT jest w pełni zintegrowany z innym programem lub zestawem programów. Na przykład, gdybym miał aplikację do edycji tekstu i aplikację do obsługi arkuszy kalkulacyjnych, mógłbym chcieć zintegrować ChatGPT z tymi aplikacjami. W pewnym sensie funkcjonowałyby ramię w ramię ze sobą. Omówię to w nadchodzącej kolumnie, publikując pływającą możliwość, że Microsoft może zdecydować się na wprowadzenie ChatGPT do swojego pakietu biurowego, więc szukaj nadchodzącej analizy.

To są zatem kluczowe sposoby, w jakie może dojść do prawdziwego parowania.

Przyjrzyjmy się teraz niektórym fałszywym parom.

Oto kilka ogólnych par fałszywych, na które powinieneś uważać:

  • Sztuczne parowanie z ChatGPT – marginalnie wykorzystuje ChatGPT, głównie na pokaz i w celu zdobycia rozgłosu bez wartości dodanej
  • Kuszące obietnice dotyczące parowania ChatGPT – sprzedawca oprogramowania twierdzi, że jest w trakcie parowania z ChatGPT, starając się być w centrum uwagi, podczas gdy w rzeczywistości nie zamierzają tego zrobić i robią klasyczne podróbki głowy i składają fałszywe przyrzeczenie
  • Podróbki głoszące, że są podobne do ChatGPT – zamiast parowania z ChatGPT, niektórzy dostawcy oprogramowania użyją czegoś innego, co jest w porządku, ale będą próbować zasugerować, że to ChatGPT, gdy tak nie jest, mając nadzieję, że uzyskają trochę poświaty ChatGPT
  • Inne – można sobie wyobrazić wiele dodatkowych rozciągniętych i przebiegłych schematów

Nie ulega wątpliwości, że wokół tego wszystkiego będzie się działo wiele przekrętów. Będzie to nieodłączną częścią wydania Krakena.

Wnioski

Pozwólcie, że dorzucę do tej sprawy klucze i inne przeszkody.

A co z kosztami?

Obecnie ci, którzy zarejestrowali się, aby korzystać z ChatGPT, robią to za darmo. Wspomniałem wcześniej, że w pewnym momencie trzeba będzie zaangażować się w bezpośrednią monetyzację. Może to wiązać się z naliczeniem opłaty transakcyjnej lub opłatą za subskrypcję. Inną możliwością jest to, że reklamy mogą być używane do zarabiania pieniędzy, dzięki czemu za każdym razem, gdy użyjesz ChatGPT, pojawi się reklama. Itp.

Ci, którzy zdecydują się na sparowanie z ChatGPT za pośrednictwem API, powinni poważnie zastanowić się nad potencjalnymi kosztami z tym związanymi. Prawdopodobnie wiąże się to z kosztami związanymi z korzystaniem z chmury Microsoft Azure do uruchamiania aplikacji ChatGPT. Korzystanie z API ChatGPT i wywoływanie aplikacji AI wiąże się z pewnymi kosztami ze strony OpenAI. Dostawca oprogramowania będzie również ponosić własne koszty wewnętrzne, takie jak modyfikowanie istniejących programów w celu korzystania z interfejsu API lub opracowywanie nowych programów wokół parowania z ChatGPT. Wyobraź sobie zarówno koszt początkowy, jak i bieżące koszty utrzymania.

Istotą jest to, że to rozłożenie kosztów w pewnym stopniu złagodzi gorączkę złota w kierunku wykorzystania API ChatGPT. Dostawcy oprogramowania prawdopodobnie powinni przeprowadzić ostrożne obliczenia ROI (zwrotu z inwestycji). Czy wszystko, co mogą zrobić, rozszerzając swój program za pomocą ChatGPT, przyniesie wystarczające dodatkowe pieniądze, aby zrekompensować koszty?

Nie każdy musi być tak świadomy kosztów. Jeśli masz głębokie kieszenie i wierzysz, że korzystanie z ChatGPT popchnie Twój program do najbardziej znanej lub uznanej sfery aplikacji, możesz zdecydować, że obecny koszt jest tego wart. Zbuduj nazwę swojej aplikacji, jeżdżąc na ogonie ChatGPT. W przyszłości, gdy twój program stanie się popularny lub w inny sposób zacznie zarabiać, albo nadrobisz wcześniejszy brak zysku, albo odpiszesz go jako koszt wymagany do wejścia na wielką skalę.

Mały start-up wspierany przez firmę Venture Capital (VC) może być skłonny podzielić część swojej inwestycji początkowej, aby sparować się z API ChatGPT. Sława może pojawić się natychmiast. Fortuna może być długa droga w dół drogi, ale jest to coś, z czym trzeba się uporać później. Chwyć światło reflektorów, gdy jest dobrze, jak to mówią.

Można przypuszczać, że mogą istnieć organizacje non-profit i przedsiębiorstwa społeczne, które również zdecydują się kopać opony w tej sprawie. Załóżmy, że firma non-profit zidentyfikuje korzystne zastosowanie wywołania API ChatGPT, które pozornie będzie wspierać ich altruistyczne lub społecznie korzystne cele. Być może zbierają na to fundusze za pośrednictwem internetowej kampanii finansowania. Być może próbują zawrzeć umowę ze sprzedawcami, aby zapłacili symboliczną kwotę lub mogli korzystać za darmo.

Czas pokaże.

Ostatnim wskaźnikiem, z którym cię zostawię, jest czynnik ryzyka.

Nie chcę wyjść na zbyt optymistycznego, ale wspomniałem wcześniej, że dane wyjściowe z ChatGPT mogą zawierać kłamstwa i mieć inne potencjalne wady. Chodzi o to, że jeśli dostawca oprogramowania tworzący aplikację zostanie wmieszany w korzystanie z API ChatGPT, ryzykuje uzyskanie kwaśnych i ponurych wyników, których powinni się spodziewać. Nie chowaj głowy w piasek.

Pojawiają się problemy, że te dane wyjściowe mogą skazić aplikację, która zdecyduje się je wykorzystać. W tym sensie Twoja aplikacja, która na początku cieszy się chwałą ChatGPT, może również wbić się w ścianę z cegieł, jeśli polegasz na wynikach dostarczanych przez ChatGPT. Być może wyniki są prezentowane użytkownikom i powoduje to straszliwe zamieszanie. Wyładowują swój niepokój na Tobie i Twojej aplikacji.

Ty z kolei próbujesz wskazać palcem ChatGPT. Czy to wyprowadzi cię z błędu? Gdy pojawi się smród, przenika on szeroko i niewielu zostaje oszczędzonych. W związku z tym może się zdarzyć, że dzięki szerszemu wykorzystaniu ChatGPT świadomość faulowanych wyjść stanie się bardziej znana. Tak więc, co dziwne lub jak na ironię, rozszerzone użycie ChatGPT z powodu API może strzelić im w stopę.

Nie chcę kończyć moich uwag smutną miną, więc spróbujmy zmienić się w wesołą minę.

Jeśli wszystkie aspiracyjne ograniczenia i ograniczenia są uważnie i rozsądnie przestrzegane i rygorystycznie przestrzegane, skorzystanie z ChatGPT za pośrednictwem interfejsu API może być dobrą rzeczą. Są też szanse, że jeszcze bardziej zachęci to inne generatywne aplikacje AI do działania. Przypływ może podnieść wszystkie łodzie.

To wydaje się optymistyczne.

Być może wiesz, że Zeus miał kontrolować Krakena. Sofokles, starożytny grecki dramaturg, tak powiedział o Zeusie: „Kości Zeusa zawsze padają szczęśliwie”.

Może to samo zostanie powiedziane o tym, jak nieuchronnie wyląduje generatywna sztuczna inteligencja, miejmy przynajmniej taką nadzieję.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- otwarte-oszałamiające-ai-etyka-i-prawo-ai/