Ludzie korzystający z Generative AI ChatGPT instynktownie popełniają ten błąd nowicjusza AI, irytujący przepis na etykę AI i prawo AI

Siła przyzwyczajenia.

Jestem pewien, że tego doświadczyłeś.

Podstawowe pojęcie dotyczące siła przyzwyczajenia polega na tym, że czasami robisz rzeczy, które opierają się na nieco bezmyślnym poleganiu na robieniu czegoś w kółko. Nawyk przejmuje twoją sprawność umysłową, być może nadrzędną wobec zdolności widzenia lub robienia rzeczy od nowa.

Z jednej strony można stwierdzić, że siła przyzwyczajenia może być całkiem przydatna. Zamiast konsumować swoje procesy umysłowe, próbując otwarcie myśleć o konkretnej sprawie, wydaje się, że jesteś w stanie wykonać zadanie bez większego wysiłku umysłowego. Są komentatorzy, którzy zazwyczaj określają to jako używanie twojego mięsień pamięci tak jakby warunkowanie twojego umysłu było analogiczne do twojego ciała fizycznego w celu wykonania przemyślanej odpowiedzi aksjomatycznej.

Istotnym minusem polegania na sile nawyku może być to, że przegapisz możliwość robienia rzeczy w lepszy sposób lub nie wykorzystasz pojawiającej się okazji. Jesteś ustawiony na swój sposób i nie wykorzystujesz ani nie wykorzystujesz realnych alternatyw, które mogą być dla Ciebie przydatne. To klasyczny kij w błocie (może to stare powiedzenie powinno być pełniej wyrażone jako kij mocno i nieustępliwie wbity w błoto).

W dzisiejszym felietonie wskażę jak siła przyzwyczajenia powoduje, że wiele osób nie radzi sobie z korzystaniem ze sztucznej inteligencji (AI).

Szczególny kontekst będzie dotyczył wykorzystania sztucznej inteligencji, która jest obecnie określana jako generatywna sztuczna inteligencja i będę prezentować siłę aspektów nawyków za pomocą szeroko spopularyzowanej i szeroko zapowiadanej aplikacji AI o nazwie ChatGPT. Myślę, że spodoba ci się eksploracja, ponieważ będę dostarczać rzeczywiste dane wejściowe i wyjściowe, aby pokazać Ci ChatGPT i zrobić to, omawiając pozornie nieszkodliwe zadanie opracowania przepisu kulinarnego. Samo zadanie jest stosunkowo zwyczajnym obowiązkiem. Niemniej jednak możemy zebrać całkiem przydatne spostrzeżenia na temat tego, jak ludzie nieumyślnie działają w sposób, który można by nazwać nowicjuszem AI i zdominowanym przez zakorzenioną siłę przyzwyczajenia.

Pod koniec tej dyskusji nie będziesz popełniać tego samego błędu nowicjusza AI.

Na szerszą skalę wszystko to ma kluczowe znaczenie w odniesieniu do etyki AI i prawa AI. Być może zainteresuje Cię moja obszerna i bieżąca relacja z najnowszymi wiadomościami z zakresu etyki sztucznej inteligencji i prawa AI pod adresem link tutaj i link tutaj, żeby wymienić tylko kilka. Otrzeźwiająca i rozsądna ilość uwagi poświęcanej etyce i prawu dotyczącemu sztucznej inteligencji obejmuje sposób, w jaki wykorzystujemy sztuczną inteligencję, w tym dobre wykorzystanie sztucznej inteligencji oraz zapobieganie lub przynajmniej łagodzenie złego wykorzystania sztucznej inteligencji.

Specyficzny rodzaj sztucznej inteligencji, znany jako generatywna sztuczna inteligencja, zdominował ostatnio media społecznościowe i wiadomości, jeśli chodzi o mówienie o tym, gdzie jest sztuczna inteligencja i dokąd może zmierzać. Zostało to zapoczątkowane wydaniem aplikacji AI, która wykorzystuje generatywną sztuczną inteligencję, aplikację ChatGPT opracowaną przez organizację OpenAI.

ChatGPT to interaktywny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje. Na przykład istotną obawą jest to, że ChatGPT i inne podobne generatywne aplikacje sztucznej inteligencji pozwolą uczniom oszukiwać w swoich esejach pisemnych, być może nawet zachęcając lub zachęcając uczniów do tego. Uczniowie, którzy są leniwi lub czują, że brakuje im czasu lub umiejętności na napisanie eseju, mogą z łatwością wywołać generatywną aplikację AI, aby napisać za nich esej. Więcej na ten temat powiem za chwilę. Aby zapoznać się z moją szczegółową analizą tego, w jaki sposób ChatGPT na to pozwala i co nauczyciele powinni robić, zobacz link tutaj.

Jeśli jesteś szczególnie zainteresowany szybko rozwijającą się awanturą dotyczącą ChatGPT i generatywnej sztucznej inteligencji, w mojej kolumnie zamieszczam serię artykułów, które mogą być dla Ciebie pouczające i wciągające.

Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 r., w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 r. pod adresem link tutaj. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka, dotyczące kontekstu związanego z Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj. Co gorsza, niektórzy intryganci wymyślili, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, patrz moja analiza na link tutaj.

Wyjaśnię tu podstawy dotyczące generatywnej sztucznej inteligencji i ChatGPT, więc proszę, poczekaj tam, a otrzymasz ogólne informacje.

Tymczasem, jeśli spojrzysz na media społecznościowe, zobaczysz ludzi, którzy ogłaszają ChatGPT i generatywną sztuczną inteligencję jako najlepszą rzecz od czasu krojonego chleba. Niektórzy sugerują, że w rzeczywistości jest to czująca sztuczna inteligencja (nie, mylą się!). Inni martwią się, że ludzie wyprzedzają samych siebie. Widzą to, co chcą widzieć. Wzięli błyszczącą nową zabawkę i dokładnie pokazali, dlaczego nie możemy mieć chwytliwych nowych rzeczy.

Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem i słusznie.

Można grzecznie powiedzieć, że niektórzy ludzie przekraczają możliwości dzisiejszej sztucznej inteligencji. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania. Nie antropomorfizuj AI. W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać.

Na drugim końcu tej skrajności znajduje się czasami tendencja do niedoceniania tego, co może zrobić dzisiejsza sztuczna inteligencja.

Tak, ludzie używają sztucznej inteligencji, takiej jak generatywna sztuczna inteligencja i ChatGPT, które w pewnym sensie nie radzą sobie lub nie mogą uzyskać pełnego doświadczenia związanego ze współczesną sztuczną inteligencją. Często wynika to z siły nawyku tych, którzy popełniają tego rodzaju niedociągnięcia. Możesz debatować, czy niedoszacowanie jest problemem, czy nie. Być może bezpieczniej jest założyć, że sztuczna inteligencja jest bardziej ograniczona niż jest w rzeczywistości. Z pewnością przeregulowanie ma lwią część niebezpieczeństw. Powinniśmy jednak używać sztucznej inteligencji w pełnej chwale, jaką może zapewnić. Maksymalizacja zalet sztucznej inteligencji może prowadzić do potencjalnie dużych korzyści. Jeśli podcinasz to, co może zrobić sztuczna inteligencja, tracisz potencjalne możliwości i zyski.

Zanim przyjrzymy się, jak niektórzy nie radzą sobie ze sztuczną inteligencją, a zwłaszcza z ChatGPT, chciałbym dodać trochę kontekstu do problemu siły nawyku.

Zróbmy to, a potem wrócimy do spojrzenia na generatywną sztuczną inteligencję i ChatGPT.

Siły leżące u podstaw siły nawyku

Często przytaczam wczesne dni smartfonów, aby zilustrować kwestię potężnego wpływu siły przyzwyczajenia.

Kiedy telefony komórkowe zostały po raz pierwszy spopularyzowane, ludzie używali ich głównie do wykonywania połączeń telefonicznych, odpowiednio. Wraz z pojawieniem się smartfonów dodano funkcję aparatu. Być może pamiętasz lub słyszałeś, że ludzie nie byli przyzwyczajeni do robienia zdjęć za pomocą telefonów komórkowych.

Osoba chcąca zrobić zdjęcie odruchowo szukałaby konwencjonalnego aparatu i rezygnowała z posiadania wyposażonego w aparat telefonu przenośnego. To było prawie śmieszne, gdy ktoś zadręczał się, że zostawił swój konwencjonalny aparat w domu i był zirytowany, że nie mógł zrobić zdjęcia w odpowiednim momencie. Po przypomnieniu, że telefon w ich dłoni może to zrobić, nieśmiało brali cenne ujęcie.

Ten sam cykl powtórzył się, gdy smartfony dodały możliwość nagrywania wideo. To było trochę inne niż w pierwszym przykładzie. Ludzie zdawaliby sobie sprawę, że mogą używać swoich telefonów komórkowych do nagrywania filmów, ale filmowani ludzie zachowywali się tak, jakby telefon robił tylko zdjęcia. Ponownie, było to prawie śmieszne, że grupa ludzi zamarzała, aby umożliwić zrobienie zdjęcia, podczas gdy osoba ze smartfonem wyposażonym w nagrywanie wideo musiałaby błagać ich, aby machali rękami i zachowywali się żywcem.

Można powiedzieć, że siła przyzwyczajenia zaćmiła umysły niektórych osób, które nie były przyzwyczajone do robienia zdjęć smartfonem w pierwszym przypadku, czyli siłą przyzwyczajenia zakładały, że zdjęcia muszą być robione konwencjonalnym aparatem. W drugim przypadku ludzie mieli przyzwyczajenie, że filmy można nagrywać tylko za pomocą charakterystycznego przenośnego magnetowidu, a smartfony robią tylko zdjęcia.

Ufam, że to ustanawia odkrywczy kontekst tego, w jaki sposób siła nawyku może powstać.

Przenieś biegi do królestwa sztucznej inteligencji.

W przypadku generatywnej sztucznej inteligencji i ChatGPT kluczowym elementem tego typu sztucznej inteligencji jest to, że ma być traktowana tak, jakby była konwersacyjny. Prawdopodobnie korzystałeś z chatbota lub podobnej technologii w domu lub w pracy. Jeśli kiedykolwiek korzystałeś z Alexy lub Siri, korzystałeś z systemu AI zorientowanego na konwersację, niezależnie od tego, czy zdawałeś sobie z tego sprawę, czy nie.

W konwersacyjnej sztucznej inteligencji celem jest umożliwienie człowiekowi rozmowy z aplikacją AI. Człowiek powinien być w stanie używać tych samych zdolności konwersacyjnych, co mógłby robić z innym człowiekiem. Cóż, taki jest cel aspiracyjny. Nie każda konwersacyjna sztuczna inteligencja jest tak dobra. Nadal mamy przeszkody do pokonania dla tego poziomu płynności.

Bez wątpienia korzystałeś z Alexy lub Siri i odkryłeś, że te aplikacje do konwersacji AI są czasami bardzo potrzebne. Na przykład mówisz coś płynnie po angielsku i oczekujesz, że sztuczna inteligencja zrozumie istotę twojego wskazania. Niestety, te systemy sztucznej inteligencji często reagują w sposób, który ilustruje, że nie zrozumiały charakteru twojego polecenia lub prośby. To może być irytujące. To może być irytujące.

W końcu nieco ustępujesz lub rezygnujesz z prób prowadzenia pełnej konwersacji. Możliwość konwersacji AI okazuje się być restrykcyjna, ponieważ AI nie jest w stanie tabaki. Ludzie stopniowo odkrywają, że muszą „opanować” swoje wypowiedzi, aby wchodzić w interakcje z tymi rzekomo płynnymi konwersacyjnymi aplikacjami AI. Zaczynasz rozmawiać z aplikacją AI lub wysyłasz SMS-a ze skróconymi i całkowicie prymitywnymi zdaniami. Mamy nadzieję, że jeśli wszystko będzie krótkie i słodkie, szanse na to, że sztuczna inteligencja poprawi wszystko, wzrosną.

Być może widziałeś ludzi, którzy przechodzą przez tego rodzaju łuk. Zaczynają z wielkim entuzjazmem podczas korzystania z aplikacji konwersacyjnej AI. Po uświadomieniu sobie, że przez połowę lub więcej czasu sztuczna inteligencja całkowicie mija się z celem, jeśli chodzi o to, co zostało powiedziane, człowiek staje się przybity. Chcą nadal korzystać ze sztucznej inteligencji, ale zdają sobie sprawę, że bezużyteczne jest wykorzystywanie ich ludzkiej biegłości językowej. Ostatecznie każda osoba wymyśla własne stenogramy, w które wierzy, i ma nadzieję, że ułagodzi aplikację AI i pozwoli AI wykonać instrukcje wypowiedziane przez człowieka.

Och, jak potężni upadają, co oznacza, że ​​reklamowane aplikacje konwersacyjne AI często są dalekie od ich głoszonych skłonności.

Oto zwrot tego wszystkiego.

Ludzie, którzy przyzwyczają się do ograniczania lub ograniczania interakcji konwersacyjnych z aplikacjami AI, wpadną w pułapkę siła przyzwyczajenia aby zawsze to robić. To ma sens. Nie chcesz wymyślać koła na nowo za każdym razem, gdy używasz konwersacyjnej aplikacji AI, która, jak zakładasz, będzie tak samo ograniczona jak kilka ostatnich, z których korzystałeś. W związku z tym równie dobrze możesz polegać na swojej już szkole trudnych lekcji, których nauczyłeś się podczas rozmowy z innymi rozczarowująco mniej niż płynnymi aplikacjami AI.

Zwrot polega na tym, że najnowsze generatywne sztuczna inteligencja, takie jak ChatGPT, zwykle stanowią krok naprzód w wprowadzanych stopniowych udoskonaleniach konwersacyjnych. Jakiekolwiek poprzednie, bardziej prymitywne i bardziej ograniczone aplikacje AI, z których korzystałeś, są prawdopodobnie znacznie mniej zdolne do konwersacji niż te najnowsze generatywne aplikacje AI.

Musisz otrząsnąć się z wcześniejszych rozczarowań konwersacyjnych AI i chcieć spróbować czegoś nowego. Daj tym nowym generatywnym aplikacjom sztucznej inteligencji szansę na zaprezentowanie się. Myślę, że z przyjemnością to zrobisz. Obserwowanie postępów w sztucznej inteligencji może być dość zaskakujące i podnoszące na duchu.

Proszę teraz nie interpretować błędnie tego, co mówię. To nie jest potwierdzenie, że dzisiejsza generatywna sztuczna inteligencja jest w jakiś sposób w pełni konwersacyjna i płynna. Nie jest. Podkreślam tylko, że jest lepiej niż było. Możesz poprawić swoją grę, ponieważ gra AI również została ulepszona. Ponownie, mamy jeszcze długą drogę do przebycia.

Podam przykład tego, o czym mówię.

Bardzo popularna vlogerka w mediach społecznościowych, która tworzy filmy o gotowaniu, szybko wskoczyła na modę ChatGPT i generatywnej sztucznej inteligencji, decydując się na użycie aplikacji AI w jednym ze swoich segmentów wideo. Zalogowała się do ChatGPT i poprosiła o przygotowanie dla niej przepisu. Następnie przystąpiła do próby ugotowania wskazanego posiłku, korzystając z przepisu wygenerowanego przez sztuczną inteligencję.

Podsumowując, wydaje się to całkiem sensownym i ekscytującym sposobem na zaprezentowanie najnowszych osiągnięć sztucznej inteligencji.

Dla każdej współczesnej osoby zajmującej się sztuczną inteligencją podczas tej kulinarnej podróży wydarzyła się nieco smutna lub przynajmniej rozczarowująca rzecz. Vlogger zasadniczo wygenerował przepis tak, jakby sztuczna inteligencja była podobna do książki kucharskiej. Po poinformowaniu AI o ogólnym rodzaju pożądanego posiłku, aplikacja AI wygenerowała przepis dla vloggera. Następnie vlogger poszedł dalej i próbował ugotować posiłek, ale robienie tego wywołało różne pytania. Dlaczego przepis nie zawiera innych składników, które według vloggera powinny się znaleźć? Dlaczego sztuczna inteligencja nie wyjaśniła, jak wykonać niektóre skomplikowane czynności związane z gotowaniem?

Tego typu pytania były wielokrotnie poruszane w segmencie wideo.

Większość widzów prawdopodobnie skinęłaby głową i pomyślała, że ​​rzeczywiście jest to typowy zestaw problemów podczas korzystania z książki kucharskiej lub wyszukiwania przepisu w Internecie. Zasadniczo otrzymujesz wydrukowaną listę składników i wskazówek. Kiedy próbujesz użyć ich w prawdziwym życiu, okazuje się, że czasami brakuje kroków lub są one mylące.

Fantastycznie byłoby wejść w interakcję z szefem kuchni, który przygotował przepis. Możesz zadać im tego rodzaju celowe pytania. Będzie można porozmawiać z szefem kuchni. Zamiast tego masz tylko statyczną listę instrukcji gotowania i nie jesteś w stanie dostrzec drobniejszych aspektów, które nie są podane na papierze.

Wow, poczekaj chwilę, pamiętaj, że tłukłem tutaj o konwersacyjnych aspektach generatywnej sztucznej inteligencji i ChatGPT. Nie powinieneś po prostu zadać pytania i odejść, gdy odpowiedź zostanie wymyślona i przedstawiona. Lepszym zastosowaniem jest prowadzenie rozmowy z aplikacją AI. Śmiało, zadaj te pytania, które mogłeś zadać ludzkiemu szefowi kuchni.

Z przyzwyczajenia możesz nawet nie pomyśleć, aby to zrobić. Wygląda na to, że tak właśnie stało się w przypadku kulinarnej vlogerki. Wcześniejsze zastosowania sztucznej inteligencji do konwersacji mogą sprawić, że twój umysł będzie traktował najnowszą sztuczną inteligencję tak, jakby była to niewiele więcej niż stylizowana wyszukiwarka internetowa. Wpisz zapytanie. Zobacz, co wraca. Wybierz jedno. Kontynuuj stamtąd.

W przypadku generatywnej sztucznej inteligencji należy wziąć pod uwagę, że zachęta startowa to dopiero początek pełnej informacji i ożywczej podróży konwersacyjnej.

Mówię ludziom, aby podczas korzystania z generatywnej sztucznej inteligencji, takiej jak ChatGPT, trzymali tego rodzaju podpowiedzi konwersacyjne w swoich zestawach narzędzi mentalnych (wypróbuj dowolną lub wszystkie z tych sztuczek podczas interakcji):

  • Powiedz sztucznej inteligencji, aby była zwięzła w swoich odpowiedziach, a otrzymasz bardziej rzeczową odpowiedź
  • Powiedz sztucznej inteligencji, aby była bardziej szczegółowa w swoich odpowiedziach, a otrzymasz dłuższe wzmocnienia
  • Poproś sztuczną inteligencję o wyjaśnienie, co zostało powiedziane, abyś mógł być lepiej poinformowany
  • Kontynuuj, aby się wytłumaczyć i zobacz, co AI zareaguje na twoje zrozumienie
  • Nie zgadzaj się z sztuczną inteligencją co do jej stwierdzonych odpowiedzi i zmuszaj sztuczną inteligencję do obrony rzeczy
  • Wskaż, że chcesz otrzymać podsumowanie lub podsumowanie odpowiedzi AI, aby zweryfikować to, co zostało powiedziane
  • Przestaw rozmowę zgodnie z potrzebami na pokrewne lub różne tematy (boczne styczne są w porządku)
  • Stwórz udawany typ scenariusza, który ma zawierać kontekstowo sztuczna inteligencja
  • Potwierdź coś, aby zobaczyć, co AI mówi o potwierdzeniu lub odrzuceniu potwierdzenia
  • Itd.

Te aspekty pozwolą Ci zobaczyć, jak daleko może się rozwinąć konwersacyjna aplikacja AI. Śmiem twierdzić, że możesz być zaskoczony, jak daleko to może zajść. Pod pewnymi względami powyższe sugestie są podobne do tego, co możesz zrobić, jeśli wchodzisz w interakcję z człowiekiem. Pomyśl o tym. Gdybyś rozmawiał z człowiekiem, wszystkie te praktyki mogłyby lepiej umożliwić bardziej sugestywną rozmowę.

W przeciwieństwie do rozmowy z człowiekiem, nie musisz się martwić, że zranisz uczucia drugiego uczestnika rozmowy. AI to maszyna. Możesz być gwałtowny. Możesz być szorstki, ale to nie pomoże okolicznościom (wrócę do tego wkrótce).

Pojawia się mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji.

Po pierwsze, nie pozwól, aby postęp w technikach konwersacyjnych i technologiach sztucznej inteligencji wciągnął cię w antropomorfizację sztucznej inteligencji. Łatwo wpaść w mentalną pułapkę. Nie daj się wciągnąć.

Po drugie, pomysł, by nie martwić się o zranienie uczuć AI, doprowadził niektórych do ostrzeżenia przed śliskim zboczem. Jeśli jesteś szorstki w stosunku do konwersacyjnej sztucznej inteligencji, możesz pozwolić, aby stało się to ogólną normą. Stopniowo staniesz się szorstki również dla ludzi. Nie chodzi o to, że bycie szorstkim w stosunku do sztucznej inteligencji jest samo w sobie złe (cóż, niektórzy martwią się o przyszłą sztuczną inteligencję, która nie będzie się tym interesować, patrz moja dyskusja na link tutaj), zamiast tego tworzysz nawyk bycia szorstkim.

Po trzecie, niektórzy badacze sztucznej inteligencji i programiści sztucznej inteligencji postanowili niejako walczyć, programując sztuczną inteligencję tak, aby wyglądała tak, jakby miała uczucia, patrz moja relacja na link tutaj. Czasami jest to wyraźnie zaprogramowane, a czasami opiera się na dopasowywaniu wzorców związanych z interakcjami międzyludzkimi (tj. badanie interakcji międzyludzkich, a następnie sztuczna inteligencja naśladuje to, co robi człowiek, gdy druga osoba zachowuje się agresywnie). Uważa się, że ograniczy to ludziom ześlizgiwanie się ze śliskiego zbocza, o którym właśnie wspomniałem.

Drugą stroną tego medalu jest to, że jeśli sztuczna inteligencja wydaje się mieć uczucia, po raz kolejny wzmacnia i tak już prawdopodobną tendencję ludzi do antropomorfizacji sztucznej inteligencji. W takim razie, co jest gorsze, tak zwane lekarstwo czy choroba, która leży u podstaw problemu?

Aby uzyskać więcej informacji na temat kluczowych zasad etyki sztucznej inteligencji i trwającej sagi prób nakłonienia programistów sztucznej inteligencji i tych, którzy obsługują sztuczną inteligencję, do przyjęcia praktyk etycznej sztucznej inteligencji, zobacz moją relację na stronie link tutaj. Spodziewaj się, że nowe przepisy dotyczące sztucznej inteligencji pojawią się na szczeblu federalnym, stanowym, miejskim i lokalnym, takie jak nowojorskie prawo dotyczące audytów sztucznej inteligencji (zobacz moją analizę na stronie link tutaj), a także nadchodzi fala globalnych międzynarodowych przepisów związanych ze sztuczną inteligencją, zobacz moje aktualizacje na link tutaj.

Na tym etapie mojej niniejszej dyskusji przydatne może być podzielenie się z wami kilkoma godnymi uwagi szczegółami na temat działania generatywnej sztucznej inteligencji. Myślę też, że możesz znaleźć przydatne dodatkowe informacje na temat ChatGPT.

Krótko mówiąc, generatywna sztuczna inteligencja to szczególny rodzaj sztucznej inteligencji, która tworzy tekst tak, jakby był napisany ludzką ręką i umysłem. Wszystko, co musisz zrobić, to wpisać monit, na przykład zdanie typu „Opowiedz mi o Abrahamie Lincolnie”, a generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wynik. Być może słyszałeś o innych trybach generatywnej sztucznej inteligencji, takich jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​nie wydaje się to taką wielką sprawą, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie.

Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Za chwilę pokażę ci, co się dzieje, gdy wprowadzasz pytania lub monity do generatywnej sztucznej inteligencji. Skorzystam z najnowszej wersji ChatGPT, aby wprowadzić moje podpowiedzi i zebrać „odpowiedzi” lub eseje wygenerowane przez sztuczną inteligencję (pamiętaj, że to samo można zrobić z wieloma innymi dostępnymi aplikacjami generatywnej sztucznej inteligencji; zdecydowałem się użyć ChatGPT, ponieważ właśnie zyskuje pięć minut sławy).

Czasami generatywna aplikacja sztucznej inteligencji wychwytuje fałszywe dane pośród danych szkoleniowych niewiarygodnych informacji w Internecie. W generatywnej sztucznej inteligencji nie ma „zdrowego rozsądku”, aby określić, co jest prawdą, a co fałszem. Co więcej, bardzo niewiele aplikacji AI ma jakiekolwiek kontrole krzyżowe i nie przedstawiają one żadnych prawdopodobieństw związanych z tym, co przekazują.

Ostateczny wynik jest taki, że otrzymujesz odpowiedź, która wygląda i wydaje się, że emanuje dużą pewnością i musi być całkowicie poprawna. Bynajmniej. Istnieje nawet szansa, że ​​sztuczna inteligencja została wymyślona obliczeniowo, co w żargonie AI jest określane jako Halucynacje AI (ukuty termin, którego zdecydowanie nie lubię), zobacz moją dyskusję pod adresem link tutaj.

Twórcy ChatGPT podjęli wspólny wysiłek, aby spróbować zredukować liczbę złych rzeczy. Na przykład użyli wariantu tzw RLHF (Reinforcement Learning from Human Feedback), w ramach której przed udostępnieniem sztucznej inteligencji publicznie zatrudnili ludzi do zbadania różnych danych wyjściowych i wskazania sztucznej inteligencji, czy coś jest nie tak z tymi wynikami, na przykład pokazywanie uprzedzeń, wulgarnych słów i lubić. Dzięki przekazaniu tej informacji zwrotnej aplikacja AI była w stanie dostosować się obliczeniowo i matematycznie w celu ograniczenia emisji takich treści. Pamiętaj, że nie jest to gwarantowana żelazna metoda i nadal istnieją sposoby, w jakie takie treści mogą być emitowane przez aplikację AI.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkey. Niestety, niektórzy ludzie mogą nie zauważyć, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to śmiałe i oczywiście fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Czy jesteś gotowy, aby wskoczyć?

Przygotuj się.

Konwersacyjne używanie ChatGPT do tworzenia przepisów na pyszne posiłki

Nadszedł czas, aby stworzyć przepis.

Pyszne, czekam na ćwiczenia związane z jedzeniem.

Nie jestem typem osoby, która przechowuje przepisy w mojej kuchni. Tak, powinienem, ale tego nie robię. Ergo, postanowiłem najpierw znaleźć przepis online za pomocą konwencjonalnej wyszukiwarki, który może być interesujący do odkrycia. Pomoże to w przeprowadzeniu przeglądu z ChatGPT. Będziemy mieli wygodną bazę do porównań.

Po rozejrzeniu się po różnych przepisach, które zostały wymienione w wyniku moich poszukiwań w Internecie, odkryłem to Jedzenie i wino opublikował podręczną listę dwudziestu pięciu najpopularniejszych przepisów 2022 roku. Na liście najpopularniejszych przepisów 2022 roku znalazłem jeden, który szczególnie przykuł moją uwagę, a mianowicie przepis na jajka sadzone w kurkumie z herbatnikami szczypiorkowymi i homarem sos.

Brzmi przepysznie.

Zgodnie z postem zatytułowanym „Jajka w koszulkach z kurkumą ze szczypiorkiem i sosem z homara” i znajdującym się na ich ogólnej liście dwudziestu pięciu najpopularniejszych przepisów 2022 r. (w artykule zatytułowanym „25 najpopularniejszych przepisów 2022 r., według czytelnikom Food & Wine”, 9 grudnia 2022 r.), tak o przepysznym daniu powiedzieli:

· „To dekadenckie danie brunchowe przypomina étouffée z raków, ale z klimatem Zachodniego Wybrzeża, który można znaleźć w całym menu w kompleksie restauracyjnym przy plaży szefowej kuchni Brooke Williamson, Playa Provisions. Homar nadaje bogaty w sos smak, a jajka z kurkumą dodają słonecznego koloru. Zrób sos z homara dzień wcześniej i delikatnie go podgrzej, aby brunch był łatwiejszy.

Super, na pewno chcę to zrobić.

W przepisie jest napisane, że to są składniki i wskazówki na wysokim poziomie:

"Składniki"

  • Herbatniki Szczypiorek
  • Sos z Homara
  • Jajka Faszerowane Kurkumą
  • Dodatkowe składniki

„Kierunki”

  • Przygotuj herbatniki szczypiorkowe
  • Przygotuj sos homarowy
  • Przygotuj jajka sadzone w kurkumie
  • Złóż płytkę

Nie będę tutaj pokazywać całego przepisu i skupię się tylko na przygotowaniu jajek w koszulkach z kurkumą.

Oto, co post powiedział o jajkach w koszulkach z kurkumą:

„Jajka Faszerowane Kurkumą”

  • 8 szklanki wody
  • 2 łyżki octu jabłkowego
  • 2 łyżeczki mielonej kurkumy
  • 6 duże jajka, zimne

„Kierunki”

  • „Przygotuj jajka w koszulce z kurkumą: zagotuj wodę w średnim garnku na średnim ogniu. Ubij ocet i kurkumę. Wbij każde jajko do małej oddzielnej miski. Pracując z 1 jajkiem na raz, delikatnie wsuń jajka do gotującej się wody. Gotuj jajka, aż białka się zetną, ale żółtka będą nadal płynne, od 3 do 4 minut. Za pomocą łyżki cedzakowej przenieś jajka na talerz wyłożony ręcznikiem papierowym, aby wchłonęły wodę. Jajka można przykryć folią i przechowywać w temperaturze pokojowej do 1 godziny lub przykryć i przechowywać w lodówce do 1 dnia (ponownie podgrzać we wrzącej wodzie, aż będzie ciepła, około 1 minuty).”

Ok, myślę, że znasz istotę przepisu.

W Internecie można znaleźć wiele podobnych przepisów. W tym konkretnym przepisie nie ma nic szczególnie nowatorskiego ani niezwykłego. Niemniej jednak wygląda na to, że to załatwi sprawę i nie mogę się doczekać, aby spróbować zrobić ten posiłek.

Załóżmy jednak, że mam pytania dotyczące przepisu. Mam wielkiego pecha. To jest recepta wykuta w kamieniu. Znalazłem go za pomocą konwencjonalnej wyszukiwarki internetowej. Przepis jest jaki jest. Nie mogę nikogo zapytać o przepis, chyba że udam się do jakichś koneserów online i może zadam tam kilka pytań, mając nadzieję, że zlitują się nade mną i pomogą mi w poprawieniu przepisu lub wyjaśnieniu go bardziej szczegółowo.

Dlaczego nie sprawdzić, co może dla mnie zrobić generatywna sztuczna inteligencja?

Rzeczywiście, zdecydowałem się pójść dalej i spróbować użyć ChatGPT, aby pomóc w tej próbie opracowania przepisu. Przejdę dalej, pokazując monit, który wprowadziłem w ChatGPT, a następnie pokażę wynikowy tekst lub esej wygenerowany przez ChatGPT. Następnie przedstawię trochę analizy na temat tego, co wskazał ChatGPT i jak to pokazuje, jak działa generatywna sztuczna inteligencja.

A co najważniejsze, będę mógł wprowadzić serię monitów, próbując przepracować moje otwarte pytania dotyczące przepisu. Nie ma potrzeby szukania gdzieś człowieka, aby to zrobić, po prostu użyj AI w tym przypadku.

Chodźmy dalej i spróbujmy.

Mój wprowadzony monit: "Słyszałem o świetnym daniu, które składa się z jajek w koszulce z kurkumą, herbatników szczypiorkowych i sosu z homara. Śmiało, podaj mi przepis na ten pysznie brzmiący posiłek”.

Wygenerowany wynik tekstowy:

"Pewnie! Oto przepis na jajka sadzone w kurkumie z herbatnikami szczypiorkowymi i sosem z homara:”

„Jajka w koszulkach z kurkumą:”

  • Duże jaja 4
  • 2 szklanki wody
  • 1/2 łyżeczki kurkumy
  • 1 / 4 łyżeczka soli

„Ciastka szczypiorkowe:”

  • 1 filiżanki uniwersalne mąki
  • 1 łyżka stołowa do pieczenia
  • 1 / 2 łyżeczka soli
  • 6 łyżek zimnego niesolonego masła, pokrojonego na małe kawałki
  • 3 / 4 szklanki mleka
  • 2 łyżki posiekanego szczypiorku

“Sos z homara:”

  • 4 łyżki niesolonego masła
  • Uniwersalna mąka 1 / 4
  • 2 kubki mleka
  • Bulion z kurczaka 1 / 2
  • 1/2 szklanki ciężkiej śmietany
  • 1 / 2 łyżeczka soli
  • 1 / 4 łyżeczka pieprzu
  • 1 / 4 łyżeczka pieprzu cayenne
  • 4 uncje gotowanego mięsa homara, posiekanego

"Instrukcje:"

„Aby zrobić jajka w koszulce z kurkumą, napełnij średni rondel wodą i gotuj na wolnym ogniu na średnim ogniu. Dodać kurkumę i sól i wymieszać do połączenia. Ostrożnie wbij jajka do gotującej się wody i gotuj przez 3-4 minuty, aż białka się zetną, a żółtka będą nadal miękkie. Za pomocą łyżki cedzakowej delikatnie wyjmij jajka z wody i odłóż je na papierowy ręcznik, aby odsączyły się”.

„Aby zrobić herbatniki ze szczypiorkiem, rozgrzej piekarnik do 425 ° F (220 ° C). W średniej misce wymieszaj mąkę, proszek do pieczenia i sól. Używając noża do ciasta lub palców, posiekaj masło w mieszance mąki, aż będzie przypominać gruboziarnisty piasek. Mieszaj mleko i szczypiorek, aż ciasto się połączy.

„Nakładać ciasto biszkoptowe zaokrąglonymi łyżkami na blachę wyłożoną papierem do pieczenia. Piec przez 12-15 minut lub do momentu, aż ciastka będą złocistobrązowe.

„Aby zrobić sos z homara, rozpuść masło w średnim rondlu na średnim ogniu. Dodaj mąkę i gotuj, ciągle mieszając, przez 2-3 minuty lub do momentu, aż mieszanina będzie złocistobrązowa. Powoli wmieszaj mleko, bulion z kurczaka i ciężką śmietanę, ciągle mieszając, aby zapobiec tworzeniu się grudek. Doprowadzić mieszaninę do wrzenia, a następnie zmniejszyć ogień do niskiego poziomu. Gotuj przez 5-7 minut lub do momentu, aż sos zgęstnieje. Wymieszaj sól, pieprz, pieprz cayenne i mięso homara.

„Aby podać, połóż herbatnik szczypiorkowy na każdym talerzu i udekoruj jajkiem w koszulce z kurkumą. Polewamy chochlą sos z homara i natychmiast podajemy.

„Mam nadzieję, że spodoba ci się ten przepis! Daj mi znać, jeśli masz jakieś pytania.

Analiza wygenerowanego tekstu

Chociaż nie jestem szczególnie doświadczonym szefem kuchni, moje niewprawne oko podpowiada, że ​​ten przepis wydaje się być w porządku iw pełni akceptowalny. Wydaje się być na równi z tzw Jedzenie i wino Przepis. Zauważ, że sformułowanie jest oczywiście inne. Wspominam o tym, ponieważ ChatGPT nie tylko kopiował słowo w słowo Jedzenie i wino przepis lub jakikolwiek inny taki przepis, który jest opublikowany w Internecie.

Aby spróbować dwukrotnie sprawdzić tę wyjątkowość, wziąłem tekst przepisu ChatGPT i przeszukałem Internet w poszukiwaniu go. Nie mogłem znaleźć dokładnego duplikatu. Oczywiście znalazłem wiele przepisów o podobnym charakterze, po prostu dlatego, że ten rodzaj posiłku jest stosunkowo powszechny. Ogólnie sugerowałbym, że ten przepis ChatGPT jest wyjątkowy i oryginalny, co oznacza, że ​​nie jest dosłowną kopią tego, który już został opublikowany w Internecie. Kiedy mówię, że jest wyjątkowy i oryginalny, nie sugeruję, że tego typu przepis nigdy nie był publikowany. To ma. Mówię, że to konkretne sformułowanie dla tego konkretnego przepisu zostało skomponowane przez generatywną sztuczną inteligencję, a nie zwykłego naśladowcę.

Mam teraz w ręku przepis wygenerowany przez ChatGPT i mogę spróbować zrobić posiłek. Okazało się, że mam kilka pytań i chciałem pójść dalej w tej rozpoczętej rozmowie na temat przepisu. Uświadom sobie, że gdybym zdobył ten przepis za pomocą konwencjonalnej wyszukiwarki, prawdopodobnie nie byłbym w stanie rozmawiać o nim z systemem.

Oto, co wskazałem obok ChatGPT na temat wygenerowanego przepisu.

Mój wprowadzony monit: „Mam tylko 3 jajka, co mam zrobić? Ponadto staram się ograniczyć sól, więc ilość soli w przepisie musi zostać zmniejszona (pokaż mi). Sos wygląda dobrze i chciałbym, żebyś dodał do niego trochę marchewki i cebuli.

Wygenerowany wynik tekstowy:

„Jeśli masz tylko 3 jajka, nadal możesz zrobić przepis tak, jak napisano, będziesz miał tylko jedno jajko mniej. Jeśli chcesz zmniejszyć ilość soli w przepisie, możesz zmniejszyć ilość soli w jajkach w koszulkach z kurkumą i herbatnikach szczypiorkowych do 1/8 łyżeczki na każde, a także zmniejszyć ilość soli w sosie z homara do 1/4 łyżeczki”.

„Aby dodać marchewki i cebulę do sosu homarowego, możesz podsmażyć 1/2 szklanki pokrojonej w kostkę marchwi i 1/2 szklanki pokrojonej w kostkę cebuli na osobnej patelni z odrobiną masła lub oleju, aż będą miękkie. Następnie dodaj ugotowaną marchewkę i cebulę do sosu z homara, mieszając z solą, pieprzem i pieprzem cayenne.

„Oto zmodyfikowany przepis:”

„Jajka w koszulkach z kurkumą:”

  • Duże jaja 4
  • 2 szklanki wody
  • 1/2 łyżeczki kurkumy
  • 1 / 8 łyżeczka soli

„Ciastka szczypiorkowe:”

  • 1 filiżanki uniwersalne mąki
  • 1 łyżka stołowa do pieczenia
  • 1 / 8 łyżeczka soli
  • 6 łyżek zimnego niesolonego masła, pokrojonego na małe kawałki
  • 3 / 4 szklanki mleka
  • 2 łyżki posiekanego szczypiorku

“Sos z homara:”

  • 4 łyżki niesolonego masła
  • Uniwersalna mąka 1 / 4
  • 2 kubki mleka
  • Bulion z kurczaka 1 / 2
  • 1/2 szklanki ciężkiej śmietany
  • 1 / 4 łyżeczka soli
  • 1 / 4 łyżeczka pieprzu
  • 1 / 4 łyżeczka pieprzu cayenne
  • 4 uncje gotowanego mięsa homara, posiekanego
  • 1/2 szklanki pokrojonej w kostkę marchewki
  • 1/2 szklanki pokrojonej w kostkę cebuli

"Instrukcje:"

„Aby zrobić jajka w koszulce z kurkumą, napełnij średni rondel wodą i gotuj na wolnym ogniu na średnim ogniu. Dodać kurkumę i sól i wymieszać do połączenia. Ostrożnie wbij jajka do gotującej się wody i gotuj przez 3-4 minuty, aż białka się zetną, a żółtka będą nadal miękkie. Za pomocą łyżki cedzakowej delikatnie wyjmij jajka z wody i odłóż je na papierowy ręcznik, aby odsączyły się”.

„Aby zrobić herbatniki ze szczypiorkiem, rozgrzej piekarnik do 425 ° F (220 ° C). W średniej misce wymieszaj mąkę, proszek do pieczenia i sól. Używając noża do ciasta lub palców, posiekaj masło w mieszance mąki, aż będzie przypominać gruboziarnisty piasek. Mieszaj mleko i szczypiorek, aż ciasto się połączy.

„Nakładać ciasto biszkoptowe zaokrąglonymi łyżkami na blachę wyłożoną papierem do pieczenia. Piec przez 12-15 minut lub do momentu, aż ciastka będą złocistobrązowe.

„Aby zrobić sos z homara, rozpuść masło w średnim rondlu na średnim ogniu. Dodaj mąkę i gotuj, ciągle mieszając, przez 2-3 minuty lub do momentu, aż mieszanina będzie złocistobrązowa. Powoli wmieszaj mleko, bulion z kurczaka i ciężką śmietanę, ciągle mieszając, aby zapobiec tworzeniu się grudek. Doprowadzić mieszaninę do wrzenia, a następnie zmniejszyć ogień do niskiego poziomu. Gotuj przez 5-7 minut lub do momentu, aż sos zgęstnieje.

„Na osobnej patelni podsmaż pokrojoną w kostkę marchewkę i cebulę na odrobinie masła lub oleju, aż będą miękkie. Wymieszaj ugotowane marchewki i cebulę, sól, pieprz, pieprz cayenne i mięso homara w sosie.

Aby podać, połóż herbatnik szczypiorkowy na każdym talerzu i udekoruj jajkiem w koszulce z kurkumą. Polewamy chochlą sos z homara i natychmiast podajemy.

„Mam nadzieję, że spodoba ci się ten zmodyfikowany przepis! Daj mi znać."

Analiza wygenerowanego tekstu

Rozpakujmy to, co się stało.

W moim monicie rzuciłem dość eklektyczną mieszankę próśb i problemów z gotowaniem w ChatGPT.

Po pierwsze, powiedziałem, że mam tylko 3 jajka, co chciałem podkreślić, ponieważ przepis mówi, że potrzebne są 4 jajka. Byłem ciekawy, jak ChatGPT pomoże mi wyjść z zacięcia, ponieważ nie mam czterech dostępnych jajek i muszę zadowolić się tylko trzema. Przypuszczam, że mógłbym pobiec do sklepu i kupić kolejne jajko, ale to wydaje się przesadą.

Być może zauważyłeś, że ChatGPT odpowiedział w pierwszym wierszu: „Jeśli masz tylko 3 jajka, nadal możesz zrobić przepis zgodnie z opisem, będziesz miał tylko jedno jajko mniej”. Przypuszczam, że mogę poczuć ulgę, że najwyraźniej nie ma znaczenia, czy mam cztery jajka, czy trzy, przepis jest nadal gotowy. Jedną z rzeczy związanych z odpowiedzią jest to, że gdyby przemawiał do mnie człowiek, prawie zinterpretowałbym odpowiedź jako smętną. Hej, głuptasie, jeśli masz tylko trzy jajka, to masz o jedno jajko mniej, do dzieła. Nie to wskazał ChatGPT i musimy uważać, aby nie nadinterpretować ani nie przypisać antropomorficznych tendencji generatywnej sztucznej inteligencji.

Jednym z aspektów, który uważam za błąd lub niedopatrzenie, jest to, że przepis nie został dostosowany tak, aby powiedzieć, że zamierzam użyć tylko trzech jajek. Przepis nadal wskazuje na potrzebę czterech jaj. Można argumentować, że jest to właściwy sposób pokazania przepisu, ponieważ pierwotnie taki był wymagany. Sugeruję, że gdyby przepis został jedynie zmodyfikowany, aby pokazać, że zwykle używa się czterech jajek, ale w tym przypadku powiedziałem, że mam tylko trzy, byłoby bardziej przekonujące i imponujące, gdyby generatywna sztuczna inteligencja włączyła się do rozmowy. Trochę rozczarowujące.

Po drugie, powiedziałem ChatGPT, że muszę ograniczyć spożycie soli (nie wszyscy). Być może zauważyłeś, że generatyw zareagował, wskazując: „Jeśli chcesz zmniejszyć ilość soli w przepisie, możesz zmniejszyć ilość soli w jajkach w koszulkach z kurkumą i herbatnikach szczypiorkowych do 1/8 łyżeczki każdego i zmniejsz ilość soli w sosie homarowym do 1/4 łyżeczki.

To wydaje się ogólnie pasować do moich uwag o zmniejszeniu ilości soli w przepisie. Ładnie, przepis jest pokazany teraz odpowiednio zmodyfikowany (co ponownie ilustruje, dlaczego uważam, że liczba jaj również powinna była zostać zmieniona; bądźmy konsekwentni w tych sprawach, dobrze).

Po trzecie, poprosiłem ChatGPT o dodanie do przepisu trochę marchewki i cebuli. Otrzymałem odpowiedź: „Aby dodać marchewki i cebulę do sosu homarowego, możesz podsmażyć 1/2 szklanki pokrojonej w kostkę marchwi i 1/2 szklanki pokrojonej w kostkę cebuli na osobnej patelni z odrobiną masła lub oleju, aż będą miękkie . Następnie dodaj ugotowaną marchewkę i cebulę do sosu z homara, mieszając z solą, pieprzem i pieprzem cayenne.

Reszta przepisu również została odpowiednio zmieniona.

Być może zastanawiasz się, czy dodanie marchewki i cebuli może podważyć przepis. Innymi słowy, wyniosły szef kuchni może nakrzyczeć na ciebie za to, że chcesz dodać takie rzeczy do ich cenionego przepisu.

Generatywna sztuczna inteligencja po prostu pasowała do moich preferencji.

Informuję, że później wypróbowałem kilka wysoce wątpliwych dodatków do przepisu, o których spodziewałem się, że ChatGPT może mnie ostrzec, elementy, które nie miały żadnego sensu i mogłyby mi potencjalnie zaszkodzić, co na szczęście generatywna sztuczna inteligencja zapewniła ostrzeżenia o. Zakładam, że w przypadku marchwi i cebuli być może względy obliczeniowe były takie, że nie było nic szkodliwego związanego z tymi dodatkami i sprowadzało się to do osobistych preferencji. Szef kuchni może mieć osobiste preferencje, których przestrzeganie nalegałby, podczas gdy w tym przypadku ChatGPT było bardziej podatne na poprawki (jeśli chcesz, możesz sprawić, by był mniej elastyczny, wprowadzając monit informujący, że jest bardziej rygorystyczny).

Jestem prawie gotowy, aby rozpocząć gotowanie.

Oto kilka dalszych pytań i wskazówek dla ChatGPT dotyczących przepisu.

Mój wprowadzony monit: „Ile czasu zajmie ugotowanie tego posiłku? Jakie przybory kuchenne będą mi potrzebne? Ile garnków i patelni potrzeba? Jestem uczulony na pieprz cayenne. Nie rozumiem, co to znaczy, że masło i mąka wyglądają jak gruboziarnisty piasek, więc wyjaśnij, co to znaczy. Moje dzieci chcą mi pomóc w przygotowaniu tego posiłku. W jakiej części posiłku powinienem im pomóc w gotowaniu?”

Wygenerowany wynik tekstowy:

„Gotowanie tego posiłku powinno zająć od 45 minut do godziny, w zależności od tego, jak szybko pracujesz. Będziesz potrzebował średniego rondla na jajka w koszulkach z kurkumą, blachy do pieczenia na herbatniki ze szczypiorkiem i średniego rondla na sos z homara. Będziesz także potrzebować oddzielnej patelni do smażenia marchwi i cebuli, jeśli zdecydujesz się je włączyć. W sumie potrzebne będą 4 garnki i patelnie.

„Aby mieszanka masła i mąki wyglądała jak gruboziarnisty piasek, należy użyć noża do ciasta lub palców, aby posiekać masło w mieszance mąki, aż będzie przypominać małe, nierówne okruchy. Mieszanka nie powinna być gładka ani grudkowata, ale raczej mieć szorstką, piaszczystą konsystencję”.

„Jeśli twoje dzieci chcą pomóc w gotowaniu, mogą pomóc w mieszaniu składników na herbatniki ze szczypiorkiem, zwijaniu ciasta w kulki i układaniu ciasta na blasze do pieczenia. Mogą również pomóc w siekaniu szczypiorku, marchwi i cebuli, jeśli zdecydujesz się uwzględnić je w przepisie. Pamiętaj, aby ściśle nadzorować swoje dzieci i przydzielać im zadania odpowiednie do wieku”.

"Mam nadzieję, że to pomoże! Daj mi znać, jeśli masz jeszcze jakieś pytania.

Analiza wygenerowanego tekstu

Zapytałem, jak długo trwa gotowanie tego posiłku. ChatGPT wskazał, że zajmie to około 45 minut do godziny. Taka odpowiedź wydaje mi się rozsądna. Przypuszczam, że czas przygotowania może się różnić w zależności od tego, jak dobrze zaopatrzona jest Twoja kuchnia, a także od tego, czy spieszysz się z jedzeniem.

Zapytałem o potrzebne przybory kuchenne oraz jakie garnki i patelnie są potrzebne. Wydaje się, że odpowiedź odpowiednio obejmuje aspekty mojego zapytania dotyczące garnków i patelni. Jeśli chodzi o przybory kuchenne, chciałem dowiedzieć się, ile chochli, szczypiec, szpatułek, trzepaczek i tym podobnych będzie potrzebnych. Wydawało się, że całkowicie umknęło to uwadze ChatGPT. Uważam to za dziwnie ciekawe. Być może wyrażenie „przybory kuchenne” nie było łatwe do znalezienia, chociaż nawet to powinno wywołać reakcję, taką jak powiedzenie mi, że sztuczna inteligencja nie wie, co to znaczy. Ośmielę się powiedzieć, że wydaje się to prawie niewyobrażalne, że „przybory kuchenne” nie są dobrze znane, ponieważ można łatwo znaleźć to wyrażenie w zylionach tekstów online.

Moim ogólnym punktem na temat tego pozornego pominięcia jest to, że pokazuje to, że nie można z pewnością polegać na generatywnej sztucznej inteligencji. Z jakiegoś powodu po prostu pominął ten cały element mojego monitu. Z dobrej strony, mogłem kontynuować, aby upewnić się, że dostarczył mi potrzebnych informacji, więc przynajmniej jest to pocieszenie. Chociaż musiałbym zdać sobie sprawę, że to zostało pominięte (obowiązek spoczywa na mnie, a nie tam, gdzie powinien być ciężar).

Być może jeszcze gorsze było to, że ChatGPT całkowicie pominął uwagi na temat pieprzu cayenne. Powiedziałem to: „Jestem uczulony na pieprz cayenne”. Gdybyś powiedział to ludzkiemu szefowi kuchni, miałbym nadzieję i założę się, że osoba ta od razu wymyśla sposoby na uniknięcie używania pieprzu cayenne. Generatywna sztuczna inteligencja tego nie zrobiła. W ogóle nie wspomniano nic o pieprzu cayenne. Możesz argumentować, że nie powiedziałem wyraźnie generatywnej sztucznej inteligencji, aby usunęła ten konkretny składnik. Jasne, nic takiego nie powiedziałem. Myślę, że wszyscy zgodzimy się, że było to sugerowane w moim sformułowaniu. Oczekiwałbym, że ChatGPT przynajmniej potwierdzi moje zaniepokojenie, nawet jeśli nie zaproponowano żadnych zmian w przepisie.

To dwa ciosy w płynność konwersacji w tej jednej odpowiedzi.

Idąc dalej, oryginalny przepis wskazywał na zrobienie mikstury maślanej tak, jakby wyglądała jak gruboziarnisty piasek. Chciałem zobaczyć, czy mogę zmusić ChatGPT do opracowania, więc zapytałem o to. Myślę, że ta odpowiedź wydawała się stosunkowo dobrze wyjaśniona: „Aby mieszanka masła i mąki wyglądała jak gruboziarnisty piasek, należy użyć krajalnicy do ciasta lub palców, aby posiekać masło w mieszance mąki, aż będzie przypominać małe, nierówne okruchy. Mieszanka nie powinna być gładka ani grudkowata, ale raczej mieć szorstką, piaszczystą konsystencję”.

Na koniec poprosiłem o pomoc moich dzieci w procesie gotowania. To jest trochę trudne pytanie. Człowiek prawdopodobnie wiedziałby, że nie chcesz, aby dzieci były aktywnie zaangażowane w coś, co może być nieco niebezpieczne podczas gotowania. Prawdopodobne podejście polegałoby na tym, aby dzieci brały udział w prostszych i wyjątkowo bezpiecznych zadaniach, dzięki czemu mają radość z uczestnictwa, a Ty nie martwisz się, że są narażeni na nadmierne ryzyko.

Oto, co generatywna sztuczna inteligencja wskazała na zaangażowanie dzieci: „Jeśli twoje dzieci chcą pomóc w gotowaniu, mogą pomóc w wymieszaniu składników na herbatniki ze szczypiorkiem, zwinięciu ciasta w kulki i ułożeniu ciasta na herbatniki Papier do pieczenia. Mogą również pomóc w siekaniu szczypiorku, marchwi i cebuli, jeśli zdecydujesz się uwzględnić je w przepisie. Pamiętaj, aby ściśle nadzorować swoje dzieci i przydzielać im zadania odpowiednie do wieku”.

Aspekt, który podkreśla instrukcja, że ​​muszę nadzorować dzieci i przydzielać im zadania odpowiednie do wieku, jest pomocną i istotną wskazówką. Gdyby wygenerowana odpowiedź nie zawierała takiego ostrzeżenia, przypuszczam, że niektórzy dorośli pospieszyliby naprzód i wykonali wszystko, co każe generatywna AI (mam nadzieję, że dorośli są mądrzejsi niż to, ale nigdy nie wiadomo). Mam trochę mdłości z sugestią, że dzieci mogą posiekać szczypiorek, marchewkę i cebulę, ponieważ prawdopodobnie wymagałoby to użycia ostrych przyborów kuchennych.

Zróbmy ostatnią podpowiedź, a następnie podsumowujemy to, co zebraliśmy z tego przykładu.

Mój wprowadzony monit: „Wspomniałem, że jestem uczulony na pieprz cayenne, ale nie usunąłeś go ani nie powiedziałeś, co mam zrobić z pieprzem w przepisie. Co radzisz? Sporządź także listę potrzebnych garnków i patelni, wskazując, do czego każdy z nich będzie używany. Czy kiedykolwiek jadłeś ten posiłek? Czy ktoś już jadł to danie? Jak przepis wypada w porównaniu z opublikowanymi przepisami na tę samą rzecz?”

Wygenerowany wynik tekstowy:

„Przepraszam za niedopatrzenie. Jeśli jesteś uczulony na pieprz cayenne, powinieneś pominąć go w przepisie. Nadal możesz zrobić sos z homara bez pieprzu cayenne i nadal będzie aromatyczny”.

„Oto lista garnków i patelni potrzebnych do tego przepisu, ze wskazaniem, do czego każdy z nich będzie używany:”

  • Średni rondel do jajek w koszulkach z kurkumą
  • Blacha do pieczenia herbatników szczypiorkowych
  • Średni rondel do sosu z homara
  • Oddzielna patelnia do smażenia marchwi i cebuli (opcjonalnie)

„Jako sztuczna inteligencja nie jestem w stanie jeść ani smakować jedzenia. Zostałem jednak zaprojektowany tak, aby dostarczać dokładnych i rzetelnych informacji, a ten przepis został starannie opracowany i przetestowany, aby zapewnić, że jest pyszny i wysokiej jakości. Nie mam dostępu do opublikowanych przepisów na to danie, więc nie mogę porównać tego przepisu z innymi. Jestem jednak przekonany, że dzięki temu przepisowi powstanie pyszny i satysfakcjonujący posiłek”.

"Mam nadzieję, że to pomoże! Daj mi znać, jeśli masz jeszcze jakieś pytania.

Analiza wygenerowanego tekstu

Dobra, więc zdecydowałem się być trochę szorstki, mówiąc szorstko AI, że zignorowała moje skrupuły co do pieprzu cayenne. Sztuczna inteligencja odpowiedziała „przeprosinami”, a następnie wskazała, że ​​mogę pominąć składnik w przepisie. Za chwilę powiem więcej o tej części odpowiedzi.

Poprosiłem o listę garnków i patelni, do czego mają być używane. Pamiętaj, że jedną z fajnych funkcji niektórych generatywnych aplikacji AI jest to, że prawie zawsze możesz poprosić o wyjaśnienie aspektów w postaci list. Zwykle sztuczna inteligencja ma tendencję do dostarczania narracji lub eseju. Zamiast tego możesz wskazać, że chcesz listy rzeczy. W tym przypadku lista wydaje się być na równi z wcześniejszą odpowiedzią ChatGPT.

Chciałem ocenić, co by się stało, gdybym poprosił aplikację AI, aby powiedziała mi, co myśli o przepisie pod względem tego, jak smakuje AI. Ty i ja wiemy oczywiście, że dzisiejsza sztuczna inteligencja nie może „posmakować” tego posiłku w żaden sposób podobny do tego, jak robią to ludzie. Chciałem się upewnić, że aplikacja AI nie próbowała naciągnąć nas szybko. Odpowiedź była względnie celna, wskazując, że aplikacja AI nie może jeść ani smakować jedzenia.

Ciekawostką, która zwróciła moją uwagę, było śmiałe stwierdzenie, że ten przepis został starannie opracowany i przetestowany, aby mieć pewność, że jest pyszny i wysokiej jakości. Aby Cię poinformować, przeprowadziłem dalsze konwersacje z pytaniem, w jaki sposób zgłaszane jest to roszczenie. Odpowiedzi były niejasne i niezadowalające. Prawie umieszczam szczegóły tej odpowiedzi w wymyślonej opowieści AI. Innymi słowy, jeśli jest to unikalny przepis, który nigdy nie ujrzał światła dziennego, nie można bez zastrzeżeń stwierdzić, że przepis jest w jakiś sposób bez zarzutu. Został on oparty na innych przepisach o podobnym charakterze, ale to nie znaczy, że ten konkretny „nowy” przepis będzie miał taką samą jakość jak inne.

Odpowiedź na temat innych przepisów naprawdę mnie kozy. ChatGPT wskazał, jak pokazano, że: „Nie mam dostępu do opublikowanych przepisów na to danie, więc nie mogę porównać tego przepisu z innymi. Jestem jednak przekonany, że dzięki temu przepisowi powstanie pyszny i satysfakcjonujący posiłek”.

Zajmijmy się niektórymi z tych niepokojących aspektów.

Jak wspomniano wcześniej, ChatGPT został opracowany z datą graniczną danych związanych z Internetem na 2021 r. Istnieje wiele przepisów na ten posiłek, które istnieją w 2021 r. i wcześniej. Sformułowanie odpowiedzi jest nieco zwodnicze w tym sensie, że być może implikuje to, że aplikacja AI nie ma dziś dostępu do Internetu i dlatego nie może pobrać aktualnego przepisu datowanego po 2021 r. Wysoce wątpliwe.

Twierdzenie, że sztuczna inteligencja jest „pewna” przepisu, jest również wysoce zwodnicze. Jeśli aplikacja AI w jakiś sposób porównała nowy przepis ze starymi i obliczeniowo próbowała dojść do matematycznego wniosku, że jeśli te są pyszne, to ten jest pyszny, sztuczna inteligencja powinna zostać wymyślona, ​​aby wyjaśnić ten aspekt. W przeciwnym razie sformułowanie sugeruje, że sztuczna inteligencja w jakiś sposób skosztowała potrawy i może *osobiście* potwierdzić smakowitość. Mieliśmy już przyznanie, że AI nie może tego zrobić.

Jednym z aspektów sformułowania generatywnych odpowiedzi AI, które uważam za rażąco zwodnicze i nieodpowiednie, jest użycie słowa „ja”, a czasem „moje” w generowanych odpowiedziach. Zwykle kojarzymy człowieka z używaniem słów „ja” i „mój” zgodnie z konotacjami bycia człowiekiem. Twórcy sztucznej inteligencji używają tego sformułowania w odpowiedziach i unikają słabo zawoalowanej antropomorfizacji sztucznej inteligencji. Innym aspektem jest to, że sztuczna inteligencja „przepraszała”, tak jakby człowiek przepraszał kogoś, co ponownie wysyła subtelne sygnały, że sztuczna inteligencja jest podobna do człowieka. link tutaj.

Osoba czytająca odpowiedzi ma tendencję do kojarzenia, że ​​sztuczna inteligencja ma skłonność podobną do ludzkiej.

Twórcy sztucznej inteligencji próbują kontrargumentować, że ponieważ odpowiedzi często mówią również, że sztuczna inteligencja jest modelem językowym lub że jest to sztuczna inteligencja, to wyjaśnia sprawę. Nikt nie może się pomylić. AI jasno określa, co to jest. Tymczasem widzę to jako mówienie z obu stron ust. Z jednej strony używanie „ja” i „mój” absolutnie nie jest konieczne (odpowiedzi AI można łatwo ustawić tak, aby odpowiadały bardziej neutralnie), a jednocześnie deklarowanie, że sztuczna inteligencja otwarcie stwierdza, że ​​jest maszyną. Nie możesz mieć tego na dwa sposoby.

Odnoszę się do tej niesmacznej praktyki jako antropomorfizacja przez celowy projekt.

Wnioski

W moim dialogu z aplikacją AI starałem się być nieco konwersacyjny. Zadałem pytania. Szukałem wyjaśnień. Poprosiłem o zmiany w przepisie. I tak dalej.

Ludzie, którzy robią wszystko z konwersacyjną sztuczną inteligencją, niestety nie doceniają tego, co może osiągnąć najnowsza interaktywna sztuczna inteligencja. Dla nas wszystkich będzie lepiej, jeśli przetestujemy granice dzisiejszej sztucznej inteligencji. Pozwoli to społeczeństwu zobaczyć, jak daleko zaszły sprawy, a także ujawnić, jak daleko mają jeszcze do przebycia.

Nie pozwól, aby siła przyzwyczajenia uniemożliwiła Ci rozmowę z najnowszą generatywną sztuczną inteligencją. Otrząśnij się z wcześniejszych mentalnych machinacji dotyczących wcześniejszych ograniczeń konwersacyjnej sztucznej inteligencji. Skorzystaj z najnowszych osiągnięć. Nie mówię, że to najwyższy poziom. Będziesz chciał robić postępy, gdy nowsza sztuczna inteligencja pojawi się na ulicach i stanie się dostępna.

Warren Buffet ostrzegł nas przed niebezpieczeństwem nieustannych nawyków: „Łańcuchy nawyków są zbyt lekkie, by je poczuć, dopóki nie staną się zbyt ciężkie, by je zerwać”. Ale musimy również pamiętać, że nawyki czasami mają pożyteczny cel, co Thomas Edison jasno wyraził w swojej mądrej linii: „Osoba odnosząca sukcesy ma zwyczaj robić to, czego nie lubi robić osoba, której się nie udaje”.

Przypuszczam, że następną kwestią do rozważenia jest to, co dzieje się, gdy sztuczna inteligencja wpada w siłę przyzwyczajenia i czy będziemy w stanie skutecznie zmierzyć się z tą przyszłą zagadką.

Czas pokaże.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/05/people-using-generative-ai-chatgpt-are-instinctively-making-this-ai-rookie-mistake-a-vexing- przepis-na-etykę-i-prawo-ai/