Co musisz wiedzieć o GPT-4 Właśnie wydany następca Generative AI ChatGPT, a także etyka AI i kwestie prawne związane z AI

Jaka jest twoja zwykła reakcja po wydaniu kontynuacji wielkiego hitu filmowego, który chwyta nagłówki gazet?

Niektórzy idą obejrzeć kontynuację i stwierdzają, że jest równie dobra, jeśli nie lepsza od oryginału. Inni mogą mieć niezwykle wysokie oczekiwania i po obejrzeniu nowszego filmu ogłosić, że jest całkiem dobry, choć nie ma się czym zachwycać. Są tacy, którzy bez wątpienia będą bardzo rozczarowani, bez względu na to, co zawiera najnowszy film, i w skrócie oświadczą, że pierwszy film był bezwstydnie lepszy od kontynuacji.

Ten sam zakres reakcji i emocji wysunął się na pierwszy plan podczas wczorajszej premiery GPT-4 przez twórcę sztucznej inteligencji OpenAI, która odbyła się w Dzień Pi, czyli 3.14 lub 14 marca 2023 r. Prawdopodobny zbieg okoliczności na ulubionym torcie matematyka- w dniu jedzenia, odsłonięcie GPT-4 przyciągnęło wiele uwagi prasy i obszerne rozmowy w mediach społecznościowych.

Opiszę tutaj główne cechy i możliwości GPT-4, wraz z dokonaniem porównań z jego poprzednikiem ChatGPT (początkowy „przebój” w mojej analogii). Ponadto, istnieje mnóstwo naprawdę istotnych kwestii związanych z etyką sztucznej inteligencji i prawem AI, które idą w parze z generatywną sztuczną inteligencją, w tym, a być może zwłaszcza w przypadku GPT-4 i ChatGPT ze względu na ich niewątpliwie powszechne użycie oraz wywołujące szał mediów i uwagi opinii publicznej dotyczące teraźniejszość i przyszłość SI.

Krótko mówiąc, podobnie jak kontynuacja filmu, GPT-4 jest pod pewnymi względami lepszy niż ChatGPT, na przykład jest większy, szybszy i pozornie bardziej płynny, podczas gdy pod innymi względami budzi dodatkowe i wyraźne zastrzeżenia (omówię te krótko tutaj). Trochę chaotyczna reakcja. Kontynuacja nie jest strzałem w dziesiątkę, jak wielu się spodziewało. Okazuje się, że sprawy są bardziej złożone. Wydaje się, że to jest prawdziwy świat, w którym wszyscy żyjemy.

Być może dyrektor generalny OpenAI, Sam Altman, powiedział to najlepiej w swoich tweetach z 14 marca 2023 r. o uruchomieniu GPT-4:

  • „Oto GPT-4, nasz najmocniejszy i najlepiej dopasowany model do tej pory. Jest już dostępny w naszym API (z listą oczekujących) oraz w ChatGPT+.”
  • „Nadal jest wadliwy, wciąż ograniczony i nadal wydaje się bardziej imponujący przy pierwszym użyciu niż po spędzeniu z nim więcej czasu”.

Moje sugestie dotyczące tego, co możesz rozważyć w wyniku uwolnienia GPT-4, w zależności od twojej obecnej sytuacji lub okoliczności, obejmują następujące potencjalne działania:

  • Istniejący użytkownicy ChatGPT. Jeśli już korzystasz z ChatGPT, powinieneś przyjrzeć się uważnie GPT- 4 aby zobaczyćczy chcesz go używać zamiast tego (możesz też używać GPT- 4 oprócz korzystania z ChatGPT, ergo użyj jednego z ChatGPT lub GPT -4, w zależności od potrzeb w miarę ich pojawiania się). Możesz grać z GPT-4, jeśli subskrybujesz ChatGPT Plus, tryb subskrypcji 20 USD miesięcznie za korzystanie z ChatGPT, w przeciwnym razie nie masz obecnie szczególnie łatwych środków dostępu do GPT-4 (zastrzeżenie lub zwrot akcji polega na tym, że Wyszukiwarka Microsoft Bing używa wariantu GPT-4, który omówiłem pod linkiem tutaj).
  • Nigdy nie używałem generatywnej sztucznej inteligencji. Jeśli nie korzystasz z ChatGPT i nigdy nie korzystałeś z generatywnej sztucznej inteligencji, możesz najpierw zacząć od ChatGPT, ponieważ jest on dostępny za darmo (lub oczywiście rozważ użycie dowolnej z niezliczonych innych generatywnych aplikacji AI, aby rozpocząć swoją podróż do tej sfery AI). GPT-4 nie jest obecnie darmowe, jak wspomniano w powyższych punktach dotyczących istniejących użytkowników ChatGPT. Po zapoznaniu się z ChatGPT możesz zdecydować, czy warto subskrybować ChatGPT Plus, aby uzyskać dodatkowe korzyści, w tym dostęp do GPT-4.
  • Korzystanie z innej generatywnej sztucznej inteligencji. Jeśli używasz generatywnej aplikacji AI innej niż ChatGPT, być może GPT-4 może Cię zainteresować, ponieważ ma ulepszenia wykraczające poza to, co oferuje ChatGPT. Wspominam o tym, ponieważ niektórzy doświadczeni użytkownicy AI uznali, że ChatGPT nie jest dla nich tak dobry jak inne opcje. Zalecam zapoznanie się z GPT-4, aby zdecydować, czy dotychczasowy wybór jest nadal dla Ciebie najlepszy. Może być. Nie namawiam zatem, aby na pewno przesiąść się na GPT-4, a jedynie stwierdzam, że zawsze rozsądnie jest skopać opony innym dostępnym samochodom.
  • Inne oprogramowanie, które uzyskuje dostęp do ChatGPT za pośrednictwem interfejsu API. Dla tych, którzy tworzą oprogramowanie, które łączy się z ChatGPT przez API (interfejs programowania aplikacji), które omówiłem pod linkiem tutaj, rozsądnie byłoby przyjrzeć się bliżej korzystaniu z GPT-4 za pośrednictwem jego API. Jednym wielkim pytaniem jest to, że koszt korzystania z API GPT-4 jest znacznie wyższy niż w przypadku korzystania z ChatGPT. Będziesz chciał przeprowadzić analizę kompromisów dodatkowych korzyści płynących z GPT-4 w porównaniu z tańszą alternatywą polegającą na trzymaniu się ChatGPT. Jest to nieco skomplikowana decyzja. Rób to świadomie, a nie bezmyślnie.

Jedną rzeczą, która dla wielu wydaje się szokująca, jest to, że wartość informacyjna nie wzrosła do poziomu, jakiego wcześniej oczekiwano.

Pozwól mi wyjaśnić, dlaczego.

Oryginalny przebój, a teraz jego kontynuacja

Prawdopodobnie wiesz, że generatywna aplikacja AI znana jako ChatGPT została udostępniona pod koniec listopada ubiegłego roku.

To był zaskakujący hit.

Do tego czasu wcześniejsze próby upublicznienia generatywnych aplikacji AI spotykały się zwykle z pogardą i oburzeniem. Podstawą obaw było to, że generatywna sztuczna inteligencja może generować wyniki zawierające wszelkiego rodzaju obrzydliwe wyniki, w tym wulgarny język, niesmaczne uprzedzenia, kłamstwa, błędy, a nawet zmyślone fakty lub tzw. Halucynacje AI (Nie podoba mi się ta terminologia „halucynacji”, ponieważ ma ona tendencję do antropomorfizacji AI, zobacz moją dyskusję pod linkiem tutaj).

Generatywna sztuczna inteligencja to rodzaj sztucznej inteligencji, który obejmuje generowanie danych wyjściowych na podstawie podpowiedzi tekstowych wprowadzonych przez użytkownika, takich jak możliwość tworzenia lub generowania esejów tekstowych, tworzenia obrazów lub dzieł sztuki, tworzenia dźwięku lub wideo itp. Zwykle są to określane jako tekst na tekst, tekst na esej, tekst na grafikę, tekst na obraz, tekst na audio, tekst na wideo i tym podobne. Niezwykłym aspektem generatywnej sztucznej inteligencji jest to, że generowane prace są pozornie na równi z wynikami generowanymi przez ludzi. Miałbyś trudności z odróżnieniem generatywnego wyjścia AI od porównywalnej kompozycji stworzonej wyłącznie przez ludzki umysł i ludzką rękę.

Aby uzyskać więcej informacji na temat generatywnej sztucznej inteligencji, zobacz moje trwające serie, takie jak ten link tutaj o podstawach ChatGPT i generatywnej sztucznej inteligencji, a także omówienie ChatGPT przez studentów i kwestie potencjalnego ściągania w esejach (użyj linku tutaj), wysoce wątpliwe użycie ChatGPT w celu uzyskania porad dotyczących zdrowia psychicznego (zobacz link tutaj), obawy dotyczące potencjalnego plagiatu i naruszenia praw autorskich do generatywnej sztucznej inteligencji (link tutaj) oraz wiele innych istotnych tematów pod linkiem tutaj.

Jednym z powodów, dla których ChatGPT nie spotkało się ze zwykłym biczem, była zakulisowa praca twórcy sztucznej inteligencji, OpenAI, przed wydaniem ChatGPT. Próbowali użyć różnych technik i technologii, aby powstrzymać się od publikowania szczególnie nienawistnych i obrzydliwych esejów. Pamiętaj, że ChatGPT jest wyłącznie stylem generatywnej sztucznej inteligencji typu text-to-text lub text-to-essay. Tak więc próby zapobieżenia dziwacznym i wściekłym wydarzeniom polegają na operowaniu słowami. Podobne problemy pojawiają się, gdy wynikiem są dzieła sztuki lub obrazy, chociaż może to być równie lub bardziej trudne do uchwycenia, aby zapobiec tworzeniu obraźliwych obrazów tego czy innego rodzaju.

Godna uwagi technika, która jest coraz częściej stosowana przez twórców sztucznej inteligencji, polega na używaniu RLHF (uczenie się ze wzmocnieniem poprzez informację zwrotną od człowieka). Oto jak to ogólnie działa. Gdy aplikacja generatywnej sztucznej inteligencji została wstępnie przeszkolona w zakresie danych, na przykład poprzez skanowanie tekstu w Internecie, weryfikatorzy są wykorzystywani do pomocy lub pokazywania sztucznej inteligencji, co warto powiedzieć, a co jest skandaliczne. Opierając się na tej serii zatwierdzeń i odrzuceń, generatywna sztuczna inteligencja jest z grubsza w stanie dopasować wzorce do tego, co wydaje się w porządku do wyemitowania, a co wydaje się niedozwolone.

Chciałbym jeszcze wspomnieć o jeszcze jednej niezwykle ważnej kwestii.

AI nie jest świadoma.

Bez względu na to, co głoszą zwariowane nagłówki, bądźcie pewni, że dzisiejsza sztuczna inteligencja nie jest świadoma. W przypadku generatywnej sztucznej inteligencji aplikacja jest rozbudowanym oprogramowaniem do dopasowywania wzorców obliczeniowych i aparatem do modelowania danych. Po przeanalizowaniu milionów słów z Internetu uzyskuje się wzorce dotyczące słów i ich zależności statystycznych. Rezultatem jest niesamowita forma naśladowania ludzkiego języka (niektórzy znawcy sztucznej inteligencji określają to jako stochastyczna papuga, co w pewnym sensie ma sens, choć niestety wnosi do dyskusji element sensacyjny).

Możesz myśleć o generatywnej sztucznej inteligencji jako o funkcji autouzupełniania podczas korzystania z pakietu edytora tekstu, chociaż jest to znacznie bardziej wszechstronna i zaawansowana funkcja. Jestem pewien, że zacząłeś pisać zdanie i masz autouzupełnianie, które zaleciło sformułowanie pozostałej części zdania. Dzięki generatywnej sztucznej inteligencji, takiej jak ChatGPT, wprowadzasz monit, a aplikacja AI próbuje nie tylko uzupełnić twoje słowa, ale także odpowiedzieć na pytania i skomponować całe odpowiedzi.

Ponadto błąd nowicjusza, który wielu popełnia podczas korzystania z ChatGPT lub jakiejkolwiek innej podobnej generatywnej aplikacji AI, polega na nieużywaniu osławionych interaktywnych możliwości konwersacyjnych. Niektórzy ludzie wpisują monit, a następnie czekają na odpowiedź. Wydaje im się, że to wszystko. Jeden i gotowe. Ale brakuje tu sedna generatywnej sztucznej inteligencji. Bardziej przydatne podejście polega na wykonaniu serii podpowiedzi związanych z zaangażowaniem się w dialog z generatywną sztuczną inteligencją. W tym miejscu naprawdę błyszczy generatywna sztuczna inteligencja, zobacz moje przykłady pod linkiem tutaj.

ChatGPT został ogłoszony przez media i ogół społeczeństwa jako niesamowity przełom w sztucznej inteligencji.

W rzeczywistości opracowano wiele innych podobnych aplikacji AI, często w laboratoriach badawczych lub think tankach, aw niektórych przypadkach ostrożnie udostępniono je opinii publicznej. Jak powiedziałem powyżej, wynik zazwyczaj nie był ładny. Ludzie szturchali i szturchali generatywną sztuczną inteligencję i udało im się zdobyć eseje o okropnej naturze, zobacz moją relację pod linkiem tutaj. Twórcy sztucznej inteligencji w takich przypadkach byli zwykle zmuszani do wycofania sztucznej inteligencji z otwartego rynku i powrotu do skupienia się na zastosowaniach laboratoryjnych lub starannie dobranych beta testerach i programistach sztucznej inteligencji.

Znaczna część pozostałej części branży sztucznej inteligencji była oszołomiona, że ​​ChatGPT udało się chodzić po linie wciąż generując złe wyniki, a jednak nie w takim stopniu, w jakim opinia publiczna zmusiła OpenAI do usunięcia aplikacji AI z ogólnego dostępu.

To był prawdziwy szok dla ChatGPT.

Większość ludzi zakładała, że ​​szokiem była umiejętność porozumiewania się. Nie dla tych w AI. Niespodzianką, która zaskoczyła prawie wszystkich znawców sztucznej inteligencji, było to, że można było wypuścić generatywną sztuczną inteligencję, która może wypluwać nienawistną mowę, a reakcja nie była na tyle gwałtowna, by zmusić do szybkiego odwrotu. Kto wiedział? Rzeczywiście, przed wydaniem ChatGPT plotki przewidywały, że w ciągu kilku dni lub najwyżej tygodni OpenAI będzie żałować, że aplikacja AI była łatwo dostępna dla wszystkich chętnych. Musieliby ograniczyć dostęp lub ewentualnie odprowadzić go do domu i odetchnąć.

Niesamowity sukces wdrożenia ChatGPT ostrożnie otworzył drzwi innym generatywnym aplikacjom AI, które również trafiły na ulicę. Na przykład omówiłem ujawnienie Barda przez Google i to, jak rozgrzewają się wojny w wyszukiwarkach internetowych z powodu chęci podłączenia generatywnej sztucznej inteligencji do konwencjonalnego wyszukiwania w sieci, zobacz link tutaj.

ChatGPT można rozsądnie scharakteryzować jako przebój. Jest to również taki, który pojawił się znikąd, że tak powiem. Czasami wiadomo z góry, że hit kinowy będzie hitem po premierze. W innych przypadkach film jest usypiaczem, który zaskakuje publiczność, a nawet twórcę filmu. Tak stało się z ChatGPT i OpenAI.

Dobra, więc mamy przebój, ChatGPT.

ChatGPT jest zasadniczo oparty na wersji GPT znanej jako GPT-3.5. Wcześniej istniały GPT-3, GPT-2 i tym podobne. Świat sztucznej inteligencji i osoby związane z sztuczną inteligencją wiedziały, że OpenAI pracuje nad następną wersją, GPT-4.

GPT-4 byłby uważany za następcę lub kontynuację ChatGPT.

To prowadzi nas z powrotem do mojej analogii do filmów. ChatGPT, niespodziewany przebój, cieszył się ogromną popularnością. Oczekiwania co do tego, czym będzie GPT-4 i jak zareaguje opinia publiczna, były pełne dzikich spekulacji. GPT-4 chodziłby po wodzie! GPT-4 będzie szybszy niż pędzący pocisk! GPT-4 będzie osiągnięciem świadomej sztucznej inteligencji lub sztucznej inteligencji ogólnej (AGI)!

To i tak minęło.

Być może niejasno wiesz, że dyrektor generalny OpenAI, Sam Altman, powiedział to w wywiadzie opublikowanym na YouTube (datowanym na 17 stycznia 2023 r.): „Młyn plotek o GPT-4 to niedorzeczna rzecz. Nie wiem, skąd to wszystko się bierze. Ludzie błagają o rozczarowanie i będą. Szum jest taki, jak… Nie mamy rzeczywistego AGI i tego się od nas oczekuje”.

Cóż, GPT-4 jest tutaj.

Film wyszedł.

Możemy to zobaczyć na własne oczy. Nigdy więcej nieokiełznanych spekulacji. Rzeczywistość doszła do głosu.

Rozpakujmy nową, błyszczącą zabawkę.

Podstawy GPT-4

Bez wątpienia chcesz wiedzieć, co zapewnia GPT-4.

W mojej dyskusji będę odwoływał się do różnych dokumentów i filmów, które OpenAI udostępnił na temat GPT-4, wraz z uwagami opartymi na moim korzystaniu z GPT-4. Aby ułatwić dyskusję, proszę wiedzieć, że istnieją dwa przydatne dokumenty, które będę chętnie cytować, jeden zatytułowany Oficjalny OpenAI Raport techniczny GPT-4 a drugi to urzędnik OpenAI Karta systemowa GPT-4 dokument (oba są dostępne na stronie OpenAI). Będę je cytować za pomocą skrótów TR dla Raport techniczny GPT-4 i SC dla Karta systemowa GPT-4.

Zacznijmy od przytoczenia pierwszego zdania streszczenia dla TR:

  • „Donosimy o rozwoju GPT-4, wielkoskalowego, multimodalnego modelu, który może przyjmować dane wejściowe obrazu i tekstu oraz generować wyniki tekstowe”.

Wierzcie lub nie, ale w tym jednym zdaniu jest wiele rzeczy.

Usiądź wygodnie i trzymaj w dłoni wygodny napój.

Jednym z aspektów, który jest ogólnie przyjętą praktyczną zasadą dotyczącą generatywnej sztucznej inteligencji, jest to, że im większy system, tym bardziej prawdopodobne staje się płynność i ogólne możliwości. Wydaje się, że jest to stosunkowo dobrze ugruntowane przez historycznie rosnące rozmiary generatywnych systemów sztucznej inteligencji i ich coraz bardziej niezwykłą płynność w zakresie prowadzenia interaktywnych rozmów. Nie wszyscy uważają, że tak musi być, a niektórzy badacze aktywnie poszukują mniejszych konfiguracji, które wykorzystują różne optymalizacje, aby potencjalnie osiągnąć tyle samo, co ich więksi bracia.

W cytowanym powyżej zdaniu o GPT-4 z TR mogłeś zauważyć sformułowanie, że jest to generatywna sztuczna inteligencja „na dużą skalę”. W oparciu o względne rozmiary dzisiejszych generatywnych systemów sztucznej inteligencji prawdopodobnie wszyscy by się zgodzili.

Oczywistym pytaniem, które zadają sobie osoby znające sztuczną inteligencję, jest to, jak duże jest na dużą skalę jeśli chodzi o GPT-4?

Zwykle twórca sztucznej inteligencji z dumą deklaruje różne wskaźniki rozmiaru swojej generatywnej sztucznej inteligencji. Możesz to zrobić, aby poinformować resztę świata sztucznej inteligencji o tym, jak ważny jest rozmiar i skala. Możesz to zrobić, żeby się pochwalić. Możesz to zrobić po prostu dlatego, że jest jak samochód, w którym naturalną ciekawostką jest to, jak duży jest tam silnik i jak szybko się porusza.

Według TR, oto co jest wskazane:

  • „Biorąc pod uwagę zarówno konkurencyjny krajobraz, jak i implikacje bezpieczeństwa wielkoskalowych modeli, takich jak GPT-4, ten raport nie zawiera dalszych szczegółów na temat architektury (w tym rozmiaru modelu), sprzętu, obliczeń szkoleniowych, konstrukcji zestawu danych, metody szkolenia lub podobnych”.

Znawcy sztucznej inteligencji uważają to za urzekające. Z jednej strony niepokojące wydaje się zerwanie z dyplomacją, aby nie mówić o tych istotnych cechach. Biorąc to pod uwagę, logika, zgodnie z którą takie postępowanie może ujawnić tajemnice zastrzeżone lub ewentualnie otworzyć drzwi do bryczesów cyberbezpieczeństwa, cóż, to też wydaje się mieć sens.

Czy twórcy sztucznej inteligencji powinni być zmuszani do ujawniania szczególnych cech swojej generatywnej sztucznej inteligencji, robiąc to w stopniu i w sposób, który przypadkowo nie ujawni żadnych istotnych wskazówek?

Pozwolę ci założyć czapkę etyki AI, aby rozważyć tę kwestię.

Niektórzy uważają, że możemy również ustanowić nowe przepisy dotyczące sztucznej inteligencji, które wymagałyby wyraźnego ujawnienia.

Myślenie jest takie, że opinia publiczna powinna wiedzieć, co dzieje się z AI, zwłaszcza gdy sztuczna inteligencja staje się coraz większa i prawdopodobnie ma potencjał, by ostatecznie skręcić w okropną strefę egzystencjalnego ryzyka, zobacz moją analizę pod linkiem tutaj.

Idąc dalej, nie wiemy też, jakie dane zostały użyte do trenowania GPT-4.

Dane powodują lub przerywają nadejście generatywnej sztucznej inteligencji. Niektórzy ludzie błędnie zakładają, że cały Internet został przeskanowany w celu opracowania tych generatywnych możliwości sztucznej inteligencji. Nie. W rzeczywistości, jak omawiam pod linkiem tutaj, skanowana jest tylko niewielka część Internetu.

Powiązanym aspektem jest to, czy generatywna sztuczna inteligencja skanuje Internet w czasie rzeczywistym i dostosowuje w locie dopasowywanie wzorców obliczeniowych. ChatGPT był ograniczony do skanów, które miały miejsce nie później niż w roku 2021. Oznacza to, że kiedy korzystasz z ChatGPT, nie ma prawie żadnych danych o tym, co wydarzyło się w 2022 i 2023 roku.

Plotki głosiły, że GPT-4 będzie zawierał aktualne i działające w czasie rzeczywistym połączenie z Internetem w celu regulacji w locie.

Oto, co mówi TR:

  • „GPT-4 generalnie nie ma wiedzy o wydarzeniach, które miały miejsce po odcięciu ogromnej większości danych przedtreningowych we wrześniu 2021 r. i nie uczy się na swoich doświadczeniach. Czasami może popełniać proste błędy w rozumowaniu, które wydają się nie pasować do kompetencji w tak wielu dziedzinach, lub być zbyt łatwowiernym w przyjmowaniu oczywiście fałszywych oświadczeń od użytkownika.

Być może wtedy zrozumiesz, dlaczego niektórzy są nieco rozczarowani GPT-4. Plotki sugerowały, że będzie działać w czasie rzeczywistym, jednocześnie dostosowując się w locie do Internetu. Uważana za dużą poprawę w stosunku do ChatGPT. Rzeczywistość jest taka, że ​​GPT-4 wciąż ma do czynienia z przestarzałymi danymi. I nie ma korekty w czasie rzeczywistym do dopasowywania wzorców obliczeniowych per se w oparciu o odświeżenia z Internetu.

Mam dla ciebie więcej wiadomości.

Zdanie, które zacytowałem wcześniej o GPT-4 jako o dużej skali, mówiło również, że GPT-4 jest multimodalny.

Pozwólcie, że przedstawię nieco tło pojęcia multimodalny generatywna sztuczna inteligencja.

Wspomniałem na początku tej dyskusji, że istnieją różne typy generatywnej sztucznej inteligencji, takie jak zamiana tekstu na tekst lub tekst na esej, tekst na sztukę lub tekst na obraz, tekst na audio, tekst -to-video itp. Wszystkie one są uważane za pojedynczy sposób obsługi treści. Na przykład możesz wprowadzić tekst i otrzymać wygenerowany esej. Innym przykładem może być wprowadzenie tekstu i uzyskanie wygenerowanej grafiki.

Pod koniec zeszłego roku przedstawiłem swoje roczne prognozy dotyczące tego, co zobaczymy w postępach AI na rok 2023 (patrz link tutaj). Powiedziałem, że multimodalna generatywna sztuczna inteligencja będzie gorąca. Pomysł polega na tym, że możesz na przykład wprowadzić tekst i obraz (dwa tryby na wejściu), używając ich jako zachęty do generatywnej sztucznej inteligencji, i możesz otrzymać esej jako wynik wraz z wygenerowanym wideo i ścieżką dźwiękową (trzy tryby na wyjście).

W ten sposób może współistnieć wiele trybów. Możesz mieć wiele trybów monitowania lub wprowadzania. Możesz także mieć wiele trybów w wygenerowanej odpowiedzi lub danych wyjściowych. Możesz mieć mix-and-match na obu wejściach i wyjściach. W tym kierunku zmierzają sprawy. Ekscytujące i możliwości tego, co można zrobić z generatywną sztuczną inteligencją, są ogromnie otwarte dzięki multimodalnej funkcjonalności.

ChatGPT ma tylko jeden tryb. Wprowadzasz tekst, otrzymujesz wygenerowany tekst jako wynik.

Plotki głosiły, że GPT-4 niejako przełamie barierę dźwięku i zapewni pełną zdolność multimodalną wszystkiego do wszystkiego. Wszyscy wiedzieli, że tekst zostanie uwzględniony. Oczekiwano, że zostaną dodane obrazy lub grafika wraz z dźwiękiem, a być może nawet wideo. Byłoby to bezpłatne dla wszystkich. Dowolny tryb na wejściu, w tym tyle trybów, ile chcesz. Plus dowolny tryb na wyjściu, w tym tyle trybów mieszanych, ile chcesz.

Prawdziwy szwedzki stół trybów.

Co zapewnia GPT-4?

Wróć do tego zdania z TR:

  • „Donosimy o rozwoju GPT-4, wielkoskalowego, multimodalnego modelu, który może przyjmować dane wejściowe obrazu i tekstu oraz generować wyniki tekstowe”.

Możesz wprowadzić tekst, a otrzymasz tekst wyjściowy, a także możesz wprowadzić obraz na wejściu.

Demonstracje pokazujące przetwarzanie obrazu lub wizji wprowadzonych obrazów pokazały, że na przykład elementy na obrazie mogą zostać zidentyfikowane przez generatywną sztuczną inteligencję, a następnie skomponowane w pisemną narrację wyjaśniającą obraz. Możesz poprosić generatywną sztuczną inteligencję o wyjaśnienie, co wydaje się przedstawiać obraz. Podsumowując, przetwarzanie wizji będzie godnym uwagi dodatkiem.

Możliwości przetwarzania obrazu lub analizy obrazu nie są jeszcze dostępne do użytku publicznego (zgodnie z blogiem witryny OpenAI):

  • „Aby przygotować możliwość wprowadzania obrazów do szerszej dostępności, na początek ściśle współpracujemy z jednym partnerem”.

Istota tego wszystkiego polega na tym, że świadomość, że GPT-4 najwyraźniej ma możliwość wprowadzania i analizowania obrazu, podnosi na duchu. Wielu z niecierpliwością czeka na publiczne udostępnienie tej funkcji. Uznanie dla OpenAI za wkroczenie na arenę multimodalną.

Mamy więc tekst jako dane wejściowe, a także obraz jako dane wejściowe (jeśli są udostępniane do użytku publicznego) i tekst jako dane wyjściowe.

Niektórzy jednak załamywali ręce w społeczności AI, że to ledwo przestrzega pojęcia multimodalny. Tak, jest jeszcze jeden tryb, obraz jako wejście. Ale nie obraz jako wynik. Wydaje się, że nie ma dźwięku jako wejścia ani dźwięku jako wyjścia. Wydaje się, że nie ma wideo jako wejścia ani wideo jako wyjścia. Ci, którzy mają smykałkę, uważają to za „multimodalne” w najbardziej minimalistyczny sposób.

Kontrargumentem jest to, że musisz czołgać się, zanim zaczniesz chodzić, i chodzić, zanim zaczniesz biegać.

Myślę, że to obejmuje pierwsze zdanie TR i możemy przejść do dodatkowych tematów.

Więcej podstaw GPT-4

Zamierzam przyspieszyć teraz, gdy masz dodatkowe ogólne tło w tej sprawie.

Oto coś istotnego, jak zauważono w blogu OpenAI na temat GPT-4:

  • „W ciągu ostatnich dwóch lat przebudowaliśmy cały nasz stos głębokiego uczenia się i wspólnie z platformą Azure zaprojektowaliśmy od podstaw superkomputer do naszych zadań”.

Dwie krótkie uwagi na ten temat.

Po pierwsze, wskazanie, że przebudowali cały stos głębokiego uczenia, jest z pewnością godną uwagi uwagą i osiągnięciem (oznacza to, że przerobili modele dopasowywania wzorców obliczeniowych i zdecydowali się zrestrukturyzować sposób działania pod maską). Dobrze dla nich. Błagającym pytaniem, które niektórzy wyrażają, jest to, że z pewnością byłoby miło wiedzieć dokładnie, co zrobili w tej przebudowie. TR i SC nieco wspominają o tym, co miało miejsce, ale nie w stopniu dogłębnym.

Oczywiście można przekonująco argumentować, że nie powinni ujawniać swojego sekretnego sosu. Nie mają takiego obowiązku. Po co niepotrzebnie udzielać pomocy swoim konkurentom? Druga strona medalu twierdzi, że dla ulepszenia sztucznej inteligencji i całego społeczeństwa prawdopodobnie pomogłoby to w rozwoju generatywnej sztucznej inteligencji, która pozornie będzie dobra dla ludzkości (mamy nadzieję).

Wracamy do tej delikatnej linii podziału etyki AI i prawa AI.

Po drugie, cytowana uwaga wskazuje, że zaprojektowali superkomputer od podstaw. Oprócz zainteresowania tym, co robi ten superkomputer i jak dokładnie działa, z których część została wyjaśniona, pojawia się zupełnie inna sprawa.

Niektórzy martwią się, że generatywna sztuczna inteligencja staje się grą o duże pieniądze. Tylko firmy technologiczne z największymi dochodami i największymi zasobami będą w stanie opracować i wdrożyć generatywną sztuczną inteligencję. Powodem, dla którego jest to kwestionowane, jest to, że być może będziemy mieć generatywną sztuczną inteligencję, która będzie ściśle kontrolowana przez tylko garstkę firm technologicznych. Możemy stać się silnie uzależnieni od tych firm i ich towarów.

Czy potencjalnie musimy wykorzystać istniejące prawa lub opracować nowe przepisy dotyczące sztucznej inteligencji, aby zapobiec koncentracji generatywnej sztucznej inteligencji będącej w wąskim zasięgu zaledwie kilku osób?

Coś do przemyśleń.

Jeśli czekasz, aż but spadnie pod względem niewiarygodnie ogromnej różnicy między ChatGPT a GPT-4, spójrz na to z wpisu na blogu OpenAI o GPT-4:

  • „W swobodnej rozmowie rozróżnienie między GPT-3.5 i GPT-4 może być subtelne. Różnica pojawia się, gdy złożoność zadania osiąga wystarczający próg — GPT-4 jest bardziej niezawodny, kreatywny i jest w stanie obsłużyć znacznie bardziej szczegółowe instrukcje niż GPT-3.5”.

Odkryłem, że ten brak charakterystycznej różnicy jest w pewnym sensie faktem, a mianowicie, że jeśli prowadzisz codzienne bezczynne pogawędki z ChatGPT i robisz to samo z GPT-4, możesz nie szczególnie zdawać sobie sprawy, że GPT-4 jest ogólnie uważany za potężniejszy .

Jednym z aspektów, który wydaje się wyróżniać, jest ustanowienie kontekstu dla rozmów z dwiema generatywnymi aplikacjami AI.

Oto co mam na myśli.

Kiedy używasz generatywnej aplikacji AI, czasami po prostu wskakujesz do rozmowy, którą rozpoczynasz i kontynuujesz wraz z AI. W innych przypadkach zaczynasz od poinformowania sztucznej inteligencji o kontekście rozmowy. Na przykład mogę zacząć od poinformowania generatywnej sztucznej inteligencji, że chcę rozmawiać z sztuczną inteligencją o silnikach samochodowych i że chcę, aby sztuczna inteligencja udawała, że ​​jest mechanikiem samochodowym. To następnie ustawia scenę lub ustawienie dla sztucznej inteligencji, aby odpowiednio zareagować.

Wiele osób korzystających z ChatGPT nie zdaje sobie sprawy, jak ważne jest ustawienie kontekstu, kiedy po raz pierwszy angażują się w dialog z aplikacją AI. To może być ogromna różnica pod względem odpowiedzi, jaką otrzymasz. Często stwierdzam, że ChatGPT nie radzi sobie zbyt dobrze z określonymi kontekstami. Próbuje, ale często zawodzi. Jak dotąd GPT-4 wydaje się naprawdę błyszczeć dzięki wykorzystaniu kontekstualnego ustanowienia.

Jeśli zamierzasz używać generatywnej sztucznej inteligencji i chcesz ustalić konteksty, kiedy to robisz, zdecydowanie dałbym ogólną przewagę GPT-4 nad ChatGPT.

Na pokrewnym elemencie istnieje również aspekt znany jako sterowność to wchodzi w grę.

Niektórzy użytkownicy ChatGPT byli zaskoczeni, że czasami aplikacja AI zapewnia odpowiedzi, które wydają się być może zbyt humorystyczne lub zbyt zwięzłe. Może się to zdarzyć, jeśli generatywna sztuczna inteligencja wykryje coś w twoim monicie wprowadzania, co wydaje się wyzwalać tego rodzaju odpowiedź. Możesz żartobliwie zapytać o coś i nie zdawać sobie sprawy, że to pokieruje ChatGPT w stronę żartów i beztroskiego tonu.

Zgodnie z wpisem na blogu OpenAI na temat GPT-4 i sterowalności:

  • „Zamiast klasycznej osobowości ChatGPT ze stałą gadatliwością, tonem i stylem, programiści (a wkrótce użytkownicy ChatGPT) mogą teraz określić styl i zadanie swojej sztucznej inteligencji, opisując te kierunki w komunikacie „systemowym”. Komunikaty systemowe pozwalają użytkownikom API na znaczne dostosowanie doświadczenia użytkowników w określonych granicach.”

Ponownie poprawi to wrażenia użytkownika dzięki generatywnym aplikacjom AI. Inni twórcy generatywnej sztucznej inteligencji robią to samo i nieuchronnie będziemy mieć prawie wszystkie takie aplikacje sztucznej inteligencji z jakąś formą sterowalności i funkcjonalnością kontekstowego ustanawiania.

Wyboista droga wciąż przed nami

Ciągłym i niepokojącym problemem leżącym u podstaw generatywnej sztucznej inteligencji jest ogólnie to, że można wytwarzać wszelkiego rodzaju nieprzyjemne i wręcz niepokojące wyniki.

W moich wpisach w kolumnach omówiłem te różne i otrzeźwiające obawy:

  • Generatywne błędy generowane przez sztuczną inteligencję
  • Generatywna sztuczna inteligencja wyprodukowała kłamstwa
  • Generatywne uprzedzenia wbudowane w sztuczną inteligencję
  • Halucynacje AI
  • Naruszenia prywatności
  • Słabości w zakresie poufności danych
  • Rozsiewacz dezinformacji
  • Propagator nieprawdziwych informacji
  • Podwójne zastosowanie w broni
  • Nadmierne poleganie na ludziach
  • Wpływ ekonomiczny na ludzi
  • Wzmacnianie cyberprzestępczości
  • Itd.

Krążyły pogłoski, że magicznie i cudownie GPT-4 miał oczyścić i rozwiązać wszystkie te generatywne dolegliwości AI.

Nikt z głową na karku nie sądził, że taka plotka może się utrzymać. To są bardzo trudne problemy AI. Nie da się ich łatwo rozwiązać. Jest jeszcze wiele do zrobienia, aby poradzić sobie z tymi trwałymi i irytującymi trudnościami. Prawdopodobnie zajmie to całą wioskę, aby pokonać litanię problemów związanych z etyką sztucznej inteligencji uwikłanych w środowisko generatywnej sztucznej inteligencji.

Aby przyznać uznanie tam, gdzie jest to należne, OpenAI starało się wyjaśnić, w jaki sposób rozwiązuje te różnorodne wyzwania. Ci z was, którzy są zainteresowani etyką sztucznej inteligencji, powinni rozważyć uważne przeczytanie TR i SC.

Oto na przykład kilka prostych komentarzy na temat GPT-4, jak stwierdził OpenAI w TR:

  • „GPT-4 może generować potencjalnie szkodliwe treści, takie jak porady dotyczące planowania ataków lub mowy nienawiści. Może reprezentować różne społeczne uprzedzenia i światopoglądy, które mogą nie być reprezentatywne dla intencji użytkowników lub szeroko podzielanych wartości. Może również generować kod, który jest zagrożony lub podatny na ataki. Dodatkowe możliwości GPT-4 prowadzą również do nowych powierzchni ryzyka”.

Ponadto w TR mówią tak:

  • „Dzięki tej analizie stwierdziliśmy, że GPT-4 może zostać wykorzystany do próby identyfikacji osób prywatnych, gdy zostanie uzupełniony o dane zewnętrzne. Odkryliśmy również, że chociaż możliwości cyberbezpieczeństwa GPT-4 nie są znacznie lepsze od poprzednich generacji LLM, kontynuuje on trend potencjalnego obniżania kosztów niektórych etapów udanego cyberataku, na przykład poprzez inżynierię społeczną lub ulepszanie istniejących narzędzi bezpieczeństwa . Bez środków ograniczających bezpieczeństwo GPT-4 jest również w stanie udzielić bardziej szczegółowych wskazówek dotyczących prowadzenia szkodliwych lub nielegalnych działań”.

Nie mam tu miejsca na kolumny, aby omówić wszystkie liczne pozycje związane z tymi trudnościami. Poszukaj dodatkowych kolumn w mojej bieżącej analizie generatywnej sztucznej inteligencji z perspektywy etyki sztucznej inteligencji i prawa AI.

Wydaje się, że warto poświęcić chwilę i przyznać, że OpenAI udostępniło ich identyfikację tego, w jaki sposób podchodzą do tych żmudnych wyzwań. Można powiedzieć, że nie było powodu, aby musieli to robić. Mogli po prostu udawać, że nie ma tam nic do oglądania. Lub mogliby po prostu machnąć ręką i zapewnić, że robią wiele sprytnych rzeczy, aby poradzić sobie z tymi problemami.

Na szczęście wybrali rozsądne podejście, starając się wyjść przed reakcjami i zastraszeniem, które zwykle towarzyszy generatywnym wydaniom AI. Przypuszczalnie mają na celu mocne pokazanie swojej powagi i zaangażowania w wykorzenienie tych problemów i dążenie do ich złagodzenia lub rozwiązania.

Chciałbym zaproponować dodatkową myśl, że dziedzina sztucznej inteligencji, jak wszyscy mówią, zostanie mocno pobita, jeśli nie będzie ciągłych i usilnych wysiłków, aby zająć się tymi sprawami w bezpośredni i otwarty sposób. Przyjęcie metody ukrytej czarnej skrzynki z pewnością wywoła oburzenie opinii publicznej. Można również przewidzieć, że jeśli firmy zajmujące się sztuczną inteligencją nie spróbują poradzić sobie z tymi problemami, istnieje prawdopodobieństwo, że prawodawcy i organy regulacyjne zostaną wciągnięte w te sprawy, a tsunami nowych przepisów dotyczących sztucznej inteligencji zmiażdży wszystkich twórców sztucznej inteligencji i tych, którzy zajmują się tą dziedziną. sztuczna inteligencja.

Niektórzy uważają, że jesteśmy już w tym momencie.

Twierdzą, że chociaż wielu twórców sztucznej inteligencji wydaje się dzielić tym, co robią, jest to nieco podstępna forma wiarygodnego zaprzeczania. Krótko mówiąc, zamiast czekać, aż sprawy zostaną lepiej opracowane, opublikuj sztuczną inteligencję, która jest przerażająca i ewidentnie bezprawna, i powstrzymaj te w etyce sztucznej inteligencji i prawie AI, ogłaszając, że robisz wszystko, co możliwe, aby naprawić sytuację. Często omawiałem tę trwającą kontrowersję „poczekaj, aż się przygotuje” w moich felietonach.

Według TR:

  • „OpenAI iteruje GPT-4 i nasz plan wdrożenia od początku sierpnia, aby przygotować się do bezpieczniejszego uruchomienia. Uważamy, że zmniejszyło to powierzchnię ryzyka, choć nie wyeliminowało go całkowicie. Dzisiejsze wdrożenie zapewnia równowagę między minimalizacją ryzyka związanego z wdrożeniem, umożliwieniem pozytywnych przypadków użycia i uczeniem się na podstawie wdrożenia”.

Wracając do omawianej sprawy, wspomniałem wcześniej, że halucynacje AI są dominującym problemem, jeśli chodzi o generatywną sztuczną inteligencję.

Znowu nie podoba mi się to hasło, ale wydaje się, że się przyjęło. Podstawą problemu z halucynacjami AI jest to, że mogą one generować dane wyjściowe zawierające bardzo szalone rzeczy. Być może myślisz, że to do użytkownika należy rozeznanie, czy dane wyjściowe są dobre, czy złe. Problem polega na tym, że dane wyjściowe mogą zawierać zmyślone rzeczy, których użytkownik nie ma w łatwy sposób określić. Mogą uwierzyć w całą świnię, niezależnie od tego, co mówi wynik.

Istnieje również subtelna tendencja do usypiania wiary w wyniki generatywnej sztucznej inteligencji. Zwykle dane wyjściowe są pisane tonem i sposobem, który sugeruje pewne pozory pewności siebie. Zakładając, że regularnie korzystasz z generatywnej sztucznej inteligencji, łatwo jest uśpić się oglądaniem prawdziwych materiałów przez większość czasu. Możesz wtedy łatwo dać się oszukać, gdy coś wymyślonego zostanie wciągnięte w środek czegoś, co inaczej wydaje się być całkowicie rozsądnym i wypełnionym faktami wygenerowanym esejem.

Oto, co TR mówi o GPT-4:

  • „GPT-4 ma tendencję do „halucynacji”, tj. „tworzenia treści, które są bezsensowne lub nieprawdziwe w odniesieniu do pewnych źródeł”. Tendencja ta może być szczególnie szkodliwa, ponieważ modele stają się coraz bardziej przekonujące i wiarygodne, co prowadzi do nadmiernego polegania na nich przez użytkowników. Wbrew intuicji, halucynacje mogą stać się bardziej niebezpieczne, gdy modele stają się bardziej zgodne z prawdą, ponieważ użytkownicy budują zaufanie do modelu, gdy dostarcza on prawdziwych informacji w obszarach, które są im znane”.

Dobrą wiadomością jest to, że podjęto starania i wydaje się, że trwają, aby spróbować zmniejszyć szanse na halucynacje AI w GPT-4. Twierdzono również, że GPT-4 przewyższa GPT-3.5 pod względem unikania halucynacji AI, chociaż jasno wynika, że ​​nadal będą się one pojawiać.

Oto TR na ten temat:

  • „Podczas wewnętrznych ocen, GPT-4-launch osiąga wyniki o 19 punktów procentowych wyższe niż nasz najnowszy model GPT-3.5 w unikaniu halucynacji w domenie otwartej io 29 punktów procentowych wyżej w unikaniu halucynacji w domenie zamkniętej”.

Aby na razie zakończyć tę część dyskusji, generatywna sztuczna inteligencja wszystkich twórców sztucznej inteligencji stawia czoła tym problemom. Nikt tego jakoś nie wyleczył. Jeśli szukasz trudnych problemów z AI, zachęcam do wskoczenia na te wody i pomocy. Pracy jest mnóstwo.

Wnioski

Kiedy przebojowy film istnieje już od jakiegoś czasu i przeszedł z kin do transmisji strumieniowej w domu, całkiem sporo osób prawdopodobnie widziało ten film lub wie coś o nim od innych, którzy go widzieli. Następnie, gdy zapowiedziano i kręcono kontynuację, oczekiwanie może osiągnąć astronomiczne poziomy.

JJ Abrams, obecnie legendarny twórca części serii Gwiezdne wojny i ponownego uruchomienia Star Trek, powiedział o kontynuacjach: „Nie ma nic złego w robieniu kontynuacji, po prostu łatwiej je sprzedać”.

Edwin Catmull, współzałożyciel Pixara, podkreślił to w przypadku sequeli: „Uwierz mi, sequele są tak samo trudne do zrobienia jak oryginalne filmy”.

Jeśli chcesz zobaczyć hit ChatGPT, możesz się łatwo zarejestrować. Dostęp do kontynuacji GPT-4 jest nieco trudniejszy. Pamiętaj też, że dostępnych jest wiele innych filmów, no cóż, innych generatywnych aplikacji AI, więc możesz chcieć upewnić się, że Twoje wrażenia z chodzenia do kina (inaczej generatywnej sztucznej inteligencji) są różnorodne i satysfakcjonujące.

Ostatnia, otrzeźwiająca uwaga. Ostrzegamy, że zawartość, którą możesz napotkać, może być PG13, R, a nawet NC-17. Miej to w pamięci.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-etyka-i-ai-law-considerations/