Szkoły, które zakazują dostępu do generatywnego czatu AI

Zakazać, czy nie zakazać, oto jest pytanie.

Przypuszczam, że gdyby Szekspir żył w dzisiejszych czasach, mógłby powiedzieć coś takiego o niedawnych wysiłkach zmierzających do zakazania używania sztucznej inteligencji znanej jako generatywna sztuczna inteligencja, który jest szczególnie zilustrowany i spopularyzowany dzięki aplikacji AI o nazwie ChatGPT.

Oto oferta.

Niektóre znane podmioty próbowały zakazać korzystania z ChatGPT.

Na przykład Departament Edukacji miasta Nowy Jork (NYC) ogłosił niedawno, że zamierza zablokować dostęp do ChatGPT w różnych sieciach i podłączonych urządzeniach. Zgłoszone uzasadnienie zakazu zawierało wskazówki, że ta aplikacja AI i ogólne użycie generatywnej sztucznej inteligencji pozornie zwiastuje negatywne konsekwencje dla nauki uczniów. Mówi się, że uczniowie, którzy zdecydują się korzystać z ChatGPT, utrudniają rozwój ich kluczowych umiejętności krytycznego myślenia i podkopują rozwój ich umiejętności rozwiązywania problemów.

Oprócz tych dość niepokojących skrupułów istnieje niekwestionowany fakt, że taka sztuczna inteligencja może generować niedokładne dane wyjściowe, które zawierają błędy i inne faktyczne dolegliwości. To źle. Niebezpieczną wisienką na torcie jest wyobrażona możliwość, że wyniki mogą być potencjalnie wykorzystane w niebezpieczny sposób przez uczniów, którzy nieświadomie polegają na wspomnianych kłamstwach. Żadne takie udokumentowane szkody nie pojawiły się jeszcze, które widziałem, więc musimy po prostu przyjąć za dobrą monetę, że to może się potencjalnie wydarzyć (omówiłem zakres możliwości w moich postach; na przykład niektórzy zakładali, że generatywna sztuczna inteligencja eseje mogą nakłaniać kogoś do przyjmowania leków, których nie powinien przyjmować, lub udzielać porad dotyczących zdrowia psychicznego, które powinny być udzielane przez specjalistów zajmujących się zdrowiem psychicznym itp.).

W dzisiejszym felietonie zbadam naturę ostatnio wprowadzonych zakazów i określę, czy mają one sens, czy nie. Jest wiele pytań do rozważenia. Czy takie zakazy coś dają? Czy te zakazy są wykonalne? Jeśli pojawi się więcej takich zakazów, czy pomożemy ludzkości, czy też nieumyślnie postrzelimy sobie w stopę?

Jak można się domyślić, nic z tego nie jest tak pocięte i wysuszone, jak mogłoby się wydawać na powierzchni.

Do tego wszystkiego dochodzi mnóstwo kwestii związanych z etyką sztucznej inteligencji i prawem sztucznej inteligencji. Należy pamiętać, że trwają wysiłki mające na celu włączenie zasad etycznej sztucznej inteligencji do opracowywania i wdrażania aplikacji AI. Rosnący kontyngent zainteresowanych i niegdysiejszych etyków sztucznej inteligencji stara się zapewnić, aby wysiłki mające na celu opracowanie i przyjęcie sztucznej inteligencji uwzględniały pogląd na robienie AI na dobre i unikanie AI na złe. Podobnie, proponowane są nowe przepisy dotyczące sztucznej inteligencji, które są rozpowszechniane jako potencjalne rozwiązania mające na celu powstrzymanie wysiłków AI przed popadnięciem w amok w zakresie praw człowieka i tym podobnych. Aby zapoznać się z moimi ciągłymi i obszernymi relacjami z etyki AI i prawa AI, patrz link tutaj i link tutaj, żeby wymienić tylko kilka.

Pomysł zakazania niektórych rodzajów sztucznej inteligencji nie jest nową koncepcją.

W jednym ze swoich felietonów dokładnie przeanalizowałem proponowane zakazy związane z wykorzystaniem AI do autonomicznych systemów uzbrojenia, zob link tutaj. Różne kraje opracowują broń, która obejmuje pokładową sztuczną inteligencję. Jest to przysłowiowy rodzaj broni typu „odpal i zapomnij”. Wszystko, co musisz zrobić, to uwolnić broń, a sztuczna inteligencja przejmuje kontrolę od tego momentu. Miejmy nadzieję, że sztuczna inteligencja poprowadzi uzbrojenie do odpowiedniego miejsca docelowego i zdetonuje je lub odpowiednio dostarczy. Często jest bardzo mało nadrzędnych działań człowieka w pętli, ponieważ proces może przebiegać szybciej, niż ludzie i tak byliby w stanie zareagować, lub szansa na zhakowanie systemu przez wroga i uniemożliwienie broni wykonania swojej pracy jest zmniejszona lub ograniczona przez uniemożliwienie czegokolwiek innego niż AI od kierowania amunicją.

Oczywiście jest to przypadek, w którym sztuczna inteligencja pociąga za sobą konsekwencje życia lub śmierci. Możesz przekonująco argumentować, że powinniśmy zastanawiać się nad skutkami tak strasznej sztucznej inteligencji. Zewnętrznie mądrze jest przewrócić każdy kamień, zanim pozwolimy, aby sztuczna inteligencja została wrzucona do betonu w celu stworzenia autonomicznej broni. Stawką jest życie wielu osób.

Czy to samo przeczucie i powaga mają zastosowanie do korzystania z generatywnej sztucznej inteligencji, w tym ChatGPT?

Trudno byłoby powiedzieć, że ten typ sztucznej inteligencji należy do tej samej ligi, co inny rodzaj sztucznej inteligencji, który kieruje śmiercionośnymi pociskami i inną amunicją. To powiedziawszy, nawet jeśli życie lub śmierć nie są zagrożone, nie oznacza to, że nie możemy z należytą starannością zbadać, jakie negatywne skutki może wysunąć na pierwszy plan generatywna sztuczna inteligencja. Stawka może nie być taka sama, niemniej jednak prawdziwe obawy związane z generatywną sztuczną inteligencją mają swoje zalety.

Mam tendencję do dzielenia różnych zakazów związanych z sztuczną inteligencją na następujące spektrum:

  • Absolutny zakaz
  • Częściowy zakaz
  • Słaby zakaz
  • Bez bana

Istnieje również druga strona medalu, a mianowicie dążenie do umożliwienia lub wsparcia sztucznej inteligencji, jak pokazano w tym spektrum:

  • Potwierdzenie
  • Łagodna akceptacja
  • Pełna akceptacja
  • Obowiązkowy wymóg

Różne zakresy zakazów wraz z zakresami akceptacji będą przydatne do rozważenia, gdy przyjrzymy się niedawnym wysiłkom mającym na celu zakazanie korzystania z ChatGPT.

Po pierwsze, upewnijmy się, że wszyscy rozumiemy, z czego składa się generatywna sztuczna inteligencja, a także o co chodzi w ChatGPT. Kiedy omówimy ten fundamentalny aspekt, możemy przeprowadzić przekonującą ocenę, czy zakazy na ChatGPT będą owocne.

Szybki elementarz o generatywnej sztucznej inteligencji i ChatGPT

ChatGPT to interaktywny, konwersacyjny system AI ogólnego przeznaczenia, zasadniczo pozornie nieszkodliwy ogólny chatbot, niemniej jednak jest aktywnie i chciwie używany przez ludzi w sposób, który wielu całkowicie zaskakuje, co wkrótce omówię. Ta aplikacja AI wykorzystuje technikę i technologię w dziedzinie AI, która jest często określana jako generatywna sztuczna inteligencja. Sztuczna inteligencja generuje dane wyjściowe, takie jak tekst, co robi ChatGPT. Inne oparte na sztucznej inteligencji aplikacje generatywne generują obrazy, takie jak obrazy lub dzieła sztuki, podczas gdy inne generują pliki audio lub wideo.

W tej dyskusji skupię się na tekstowych generatywnych aplikacjach AI, ponieważ to właśnie robi ChatGPT.

Aplikacje Generative AI są niezwykle łatwe w użyciu.

Wszystko, co musisz zrobić, to wpisać monit, a aplikacja AI wygeneruje dla Ciebie esej, który spróbuje odpowiedzieć na Twój monit. Skomponowany tekst będzie wyglądał tak, jakby esej został napisany ludzką ręką i umysłem. Jeśli wpiszesz monit „Opowiedz mi o Abrahamie Lincolnie”, generatywna sztuczna inteligencja dostarczy ci esej o Lincolnie. Jest to powszechnie klasyfikowane jako generatywna sztuczna inteligencja, która działa zamiana tekstu na tekst lub niektórzy wolą to nazywać tekst do eseju wyjście. Jak wspomniano, istnieją inne tryby generatywnej sztucznej inteligencji, takie jak text-to-art i text-to-video.

Twoja pierwsza myśl może być taka, że ​​ta zdolność do generowania nie wydaje się tak wielka, jeśli chodzi o tworzenie esejów. Możesz łatwo przeszukać Internet i łatwo znaleźć tony esejów o prezydencie Lincolnie. Kopacz w przypadku generatywnej sztucznej inteligencji polega na tym, że wygenerowany esej jest stosunkowo unikalny i zapewnia oryginalną kompozycję, a nie naśladowcę. Gdybyś miał spróbować znaleźć gdzieś online esej stworzony przez sztuczną inteligencję, jest mało prawdopodobne, że go znajdziesz.

Generatywna sztuczna inteligencja jest wstępnie wyszkolona i wykorzystuje złożone formuły matematyczne i obliczeniowe, które zostały opracowane na podstawie badania wzorców w słowach pisanych i historiach w Internecie. W wyniku zbadania tysięcy i milionów pisemnych fragmentów sztuczna inteligencja może wypluć nowe eseje i historie, które są mieszanką tego, co zostało znalezione. Dzięki dodaniu różnych funkcji probabilistycznych wynikowy tekst jest prawie unikalny w porównaniu z tym, co zostało użyte w zbiorze uczącym.

Dlatego właśnie wybuchła wrzawa, że ​​uczniowie mogą oszukiwać podczas pisania esejów poza salą lekcyjną. Nauczyciel nie może po prostu wziąć eseju, o którym twierdzą kłamliwi uczniowie, że jest jego własnym pismem i sprawdzić, czy nie został on skopiowany z innego źródła internetowego. Ogólnie rzecz biorąc, nie będzie żadnego ostatecznego istniejącego eseju online, który pasowałby do eseju wygenerowanego przez sztuczną inteligencję. Podsumowując, nauczyciel będzie musiał niechętnie zaakceptować fakt, że uczeń napisał esej jako pracę oryginalną.

Istnieją dodatkowe obawy dotyczące generatywnej sztucznej inteligencji.

Jednym z kluczowych minusów jest to, że eseje tworzone przez generatywną aplikację AI mogą zawierać różne nieprawdziwe fakty, w tym jawnie nieprawdziwe fakty, fakty, które są przedstawiane w sposób wprowadzający w błąd, oraz pozorne fakty, które są całkowicie sfabrykowane. Te sfabrykowane aspekty są często określane jako forma Halucynacje AI, slogan, którego nie lubię, ale niestety wydaje się, że i tak zyskuje popularność (szczegółowe wyjaśnienie, dlaczego jest to kiepska i nieodpowiednia terminologia, można znaleźć w mojej relacji na link tutaj).

Chciałbym wyjaśnić jeden ważny aspekt, zanim przejdziemy do sedna sprawy na ten temat.

W mediach społecznościowych pojawiło się kilka dziwacznych, przerośniętych roszczeń generatywna sztuczna inteligencja twierdząc, że ta najnowsza wersja AI jest w rzeczywistości czująca sztuczna inteligencja (nie, mylą się!). Osoby zajmujące się etyką sztucznej inteligencji i prawem sztucznej inteligencji są szczególnie zaniepokojone tym rosnącym trendem wysuwanych roszczeń. Można grzecznie powiedzieć, że niektórzy ludzie przeceniają to, co dzisiejsza sztuczna inteligencja faktycznie potrafi. Zakładają, że sztuczna inteligencja ma możliwości, których nie byliśmy jeszcze w stanie osiągnąć. To niefortunne. Co gorsza, mogą pozwolić sobie i innym na wpadnięcie w tragiczne sytuacje z powodu założenia, że ​​sztuczna inteligencja będzie świadoma lub podobna do człowieka i będzie w stanie podjąć działania.

Nie antropomorfizuj AI.

W ten sposób zostaniesz złapany w lepką i ponurą pułapkę polegania na oczekiwaniu, że sztuczna inteligencja zrobi rzeczy, których nie jest w stanie wykonać. Biorąc to pod uwagę, najnowsze generatywne AI są stosunkowo imponujące pod względem tego, co potrafią. Należy jednak pamiętać, że istnieją znaczne ograniczenia, o których należy stale pamiętać podczas korzystania z dowolnej aplikacji do generatywnej sztucznej inteligencji.

Jeśli interesuje Cię szybko rozwijające się zamieszanie związane z ChatGPT i generatywną sztuczną inteligencją, przygotowałem w mojej kolumnie skoncentrowaną serię, która może być dla Ciebie pouczająca. Oto rzut oka na wypadek, gdyby któryś z tych tematów wpadł Ci w oko:

  • 1) Prognozy dotyczące nadchodzących postępów generatywnej sztucznej inteligencji. Jeśli chcesz wiedzieć, co prawdopodobnie wydarzy się na temat sztucznej inteligencji w 2023 roku i później, w tym nadchodzące postępy w generatywnej sztucznej inteligencji i ChatGPT, przeczytaj moją obszerną listę prognoz na 2023 rok link tutaj.
  • 2) Generatywne porady dotyczące sztucznej inteligencji i zdrowia psychicznego. Zdecydowałem się sprawdzić, w jaki sposób generatywna sztuczna inteligencja i ChatGPT są wykorzystywane do porad dotyczących zdrowia psychicznego, co jest kłopotliwym trendem, zgodnie z moją skoncentrowaną analizą na link tutaj.
  • 3) Kontekst i generatywne wykorzystanie sztucznej inteligencji. Przeprowadziłem również sezonowo przyprawione badanie z przymrużeniem oka na temat kontekstu związanego ze Świętym Mikołajem, obejmującego ChatGPT i generatywną sztuczną inteligencję na link tutaj.
  • 4) Oszuści korzystający z generatywnej sztucznej inteligencji. Złowieszcza uwaga: niektórzy oszuści odkryli, jak używać generatywnej sztucznej inteligencji i ChatGPT do popełniania wykroczeń, w tym generowania fałszywych wiadomości e-mail, a nawet tworzenia kodu programowego dla złośliwego oprogramowania, zobacz moją analizę na link tutaj.
  • 5) Błędy nowicjuszy przy użyciu generatywnej sztucznej inteligencji. Wiele osób zarówno przesadza, jak i zaskakująco nie osiąga tego, co może zrobić generatywna sztuczna inteligencja i ChatGPT, więc przyjrzałem się szczególnie niedoszacowaniu, jakie zwykle robią nowicjusze AI, zobacz dyskusję na link tutaj.
  • 6) Radzenie sobie z generatywnymi monitami AI i halucynacjami AI. Opisuję najnowocześniejsze podejście do korzystania z dodatków AI do radzenia sobie z różnymi problemami związanymi z próbą wprowadzenia odpowiednich podpowiedzi do generatywnej sztucznej inteligencji, a ponadto istnieją dodatkowe dodatki AI do wykrywania tak zwanych halucynacji i fałszywych wyników AI, jak pokryty o godz link tutaj.
  • 7) Obalanie twierdzeń Bonehead o wykrywaniu generatywnych esejów stworzonych przez sztuczną inteligencję. Istnieje błędna gorączka złota aplikacji AI, które głoszą, że są w stanie ustalić, czy dany esej został stworzony przez człowieka, czy przez sztuczną inteligencję. Ogólnie rzecz biorąc, jest to mylące, aw niektórych przypadkach twierdzenie bezmyślne i nie do utrzymania, zobacz mój zasięg na stronie link tutaj.
  • 8) Odgrywanie ról za pomocą generatywnej sztucznej inteligencji może zwiastować problemy ze zdrowiem psychicznym. Niektórzy używają generatywnej sztucznej inteligencji, takiej jak ChatGPT, do odgrywania ról, w której aplikacja AI reaguje na człowieka tak, jakby istniał w świecie fantasy lub innym wymyślonym otoczeniu. To może mieć reperkusje dla zdrowia psychicznego, patrz link tutaj.
  • 9) Ujawnianie zakresu wyprowadzanych błędów i fałszów. Różne zebrane listy są tworzone razem, aby spróbować pokazać naturę błędów i fałszów stworzonych przez ChatGPT. Niektórzy uważają, że jest to niezbędne, podczas gdy inni twierdzą, że ćwiczenie to jest daremne, patrz moja analiza na link tutaj.

Może Cię zainteresować fakt, że ChatGPT jest oparty na wersji poprzedniej aplikacji AI znanej jako GPT-3. ChatGPT jest uważany za nieco następny krok, określany jako GPT-3.5. Przewiduje się, że GPT-4 zostanie prawdopodobnie wydany wiosną 2023 roku. Przypuszczalnie GPT-4 będzie imponującym krokiem naprzód pod względem możliwości tworzenia pozornie jeszcze płynniejszych esejów, sięgania głębiej i wzbudzania podziwu - inspirujące zdumienie co do kompozycji, które może stworzyć.

Możesz spodziewać się nowej rundy wyrażanego zachwytu, gdy nadejdzie wiosna i zostanie wydana najnowsza generacyjna sztuczna inteligencja.

Wspominam o tym, ponieważ należy pamiętać o innym aspekcie, składającym się z potencjalnej pięty achillesowej tych lepszych i większych generatywnych aplikacji AI. Jeśli jakikolwiek dostawca sztucznej inteligencji udostępni generatywną aplikację sztucznej inteligencji, która pieni się wypluwa obrzydliwość, może to zniweczyć nadzieje tych twórców sztucznej inteligencji. Skutki społeczne mogą spowodować, że cała generatywna sztuczna inteligencja dostanie poważnego podbitego oka. Ludzie z pewnością będą bardzo zdenerwowani niecnymi wynikami, które miały miejsce już wiele razy i doprowadziły do ​​​​hałaśliwych reakcji społecznych na potępienie sztucznej inteligencji.

Na razie ostatnie ostrzeżenie.

Cokolwiek zobaczysz lub przeczytasz w generatywnej odpowiedzi AI wydaje być przekazywane jako oparte na faktach (daty, miejsca, ludzie itp.), zachowaj sceptycyzm i bądź gotów dwukrotnie sprawdzić to, co widzisz.

Tak, daty można zmyślać, miejsca można zmyślać, a elementy, które zwykle oczekujemy, że będą bez zarzutu, są cała kolekcja podlega podejrzeniom. Nie wierz w to, co czytasz i zachowuj sceptycyzm podczas sprawdzania generatywnych esejów lub wyników AI. Jeśli generatywna aplikacja AI powie ci, że Abraham Lincoln latał po kraju swoim prywatnym odrzutowcem, z pewnością wiedziałbyś, że to malarkowskie. Niestety, niektórzy ludzie mogą nie zdawać sobie sprawy, że w jego czasach nie było odrzutowców, lub mogą wiedzieć, ale nie zauważać, że esej zawiera to bezczelne i oburzająco fałszywe twierdzenie.

Silna dawka zdrowego sceptycyzmu i uporczywy brak wiary będą Twoimi największymi atutami podczas korzystania z generatywnej sztucznej inteligencji.

Jesteśmy gotowi przejść do następnego etapu wyjaśniania.

Kiedy zakaz staje się niewielkim zakazem

Teraz, gdy mamy ustalone podstawy, możemy zagłębić się w kwestię nakładania zakazów na ChatGPT. Zaczniemy od praktycznych realiów, które wchodzą w grę.

W przypadku Departamentu Edukacji Nowego Jorku najwyraźniej zablokowali dostęp do ChatGPT w swoich sieciach wewnętrznych i podłączonych urządzeniach.

Oczywistą luką jest to, że student mógłby prawdopodobnie korzystać z innej sieci Wi-Fi za pośrednictwem swojego smartfona lub innego dostawcy internetowego i łatwo ominąć blokadę mającą miejsce w sieci elektronicznej kampusu. Wyobraź sobie ucznia siedzącego w klasie, który z jakiegokolwiek powodu decyduje, że chce korzystać z ChatGPT. Mogą przejść do ustawień swojego smartfona i wybrać sieć Wi-Fi inną niż instancja zapewniana przez kampus. Voila, uczeń może korzystać z ChatGPT siedząc przy biurku i prawdopodobnie wykonując pracę związaną ze szkołą.

Zakaz przyćmiony.

Innym problemem, o którym niektórzy wspominali, jest to, że studenci w domu mogą oczywiście korzystać z ChatGPT tyle, ile chcą, ponieważ nie korzystają z sieci kampusowej w domu. Wszystko, co wydaje się robić ten zakaz, to próba ograniczenia użytkowania na terenie kampusu lub w inny sposób podczas bezpośredniego korzystania z sieci zapewnianej przez kampus (możliwość również za pośrednictwem dostępu zdalnego).

Co gorsza, niektórzy narzekaliby, że tym uczniom, których nie stać na dostęp do Internetu w domu, odmawia się (w pewnym sensie) czegoś, z czego mogą skorzystać inni, bardziej zamożni studenci. Podczas gdy uczniowie, których to dotyczy, mogliby korzystać z ChatGPT w szkole, nie wolno im tego robić. Być może jest to niesprawiedliwy podział uczniów na tych, którzy mają i tych, którzy nie mają.

Ktoś mógłby zasugerować politykę z niezamierzonymi negatywnymi konsekwencjami.

Możemy ułożyć więcej na słabo wspieranym grzbiecie tej próby zakazu.

ChatGPT nie jest jedyną grą w mieście. Istnieje wiele innych generatywnych aplikacji AI. Jeśli zakaz opiera się wyłącznie na wyszukiwaniu aplikacji ChatGPT, wszystkie te inne generatywne aplikacje AI są najwyraźniej wolne do roamingu. Student może korzystać z sieci kampusu i wybrać inną generatywną aplikację AI. Ogólnie rzecz biorąc, inne takie aplikacje AI są porównywalne i robią prawie to samo, co ChatGPT.

Dodam jeszcze kilka słomek, aby zobaczyć, czy ten wielbłąd się zapadnie. Twórca sztucznej inteligencji ChatGPT poinformował, że wkrótce udostępniony zostanie interfejs API (interfejs programowania aplikacji) dla aplikacji AI. Krótko mówiąc, interfejs API to sposób na umożliwienie innym programom korzystania z programu, który udostępnia portal do danej aplikacji. Oznacza to, że prawie każdy inny program na tej planecie może potencjalnie wykorzystać ChatGPT (cóż, zgodnie z licencją i po zatwierdzeniu przez twórcę AI ChatGPT).

Załóżmy, że firma tworzy aplikację edukacyjną, która pomaga uczniom zarządzać czasem. Świetne, zapowiadane chyba przez większość okręgów szkolnych. Twórca aplikacji edukacyjnej decyduje się na użycie API ChatGPT, a co za tym idzie, zapewnia możliwość generatywnego pisania esejów w swojej aplikacji. Widzisz, ich aplikacja edukacyjna jest tym, co widzi uczeń, tymczasem w tle aplikacja wywołuje ChatGPT i przekazuje do niej monity, zbiera wygenerowane eseje i wyświetla je uczniowi.

Jest bardzo mało prawdopodobne, aby okręg szkolny, który jedynie skanuje w poszukiwaniu aplikacji ChatGPT, wiedział lub odkrył, że na zapleczu aplikacji edukacyjnej jest korzystanie z ChatGPT. Można powiedzieć, że ChatGPT jest ukryty. Uczeń, który wie, że aplikacja edukacyjna woła ChatGPT, z łatwością uruchomi aplikację edukacyjną i obali zakaz. Bułka z masłem.

Myślę, że to chyba wystarczy w tej chwili, dlaczego ten konkretny zakaz jest nieco chwiejny.

Chwileczkę, pada riposta, jeśli ChatGPT jest zły dla uczniów, to wysiłek zmierzający do zakazania jego używania jest godny pochwały i powinniśmy przyklaskiwać tym zasadom. Studenci, którzy zdecydują się obalić zakaz, czy to na kampusie, czy poza nim, szkodzą tylko sobie, wykorzystując coś, co ma negatywny wpływ na naukę uczniów. Zamierzają obalić własną edukację.

Słaby zakaz jest przynajmniej próbą naprawienia tej niekorzystnej sytuacji, nawołują. Jasne, zakaz może mieć dziury, ale musisz przyznać, że administratorzy próbowali. Może zaostrzą zakaz. Być może wymyślą dodatkowe przepisy, które wzmocnią zakaz.

Ponadto zakaz ma istotną wartość symboliczną. Podmiot mówi wszystkim, że ChatGPT jest niechętny edukacji dzisiejszych studentów. Rodzice mogą zostać zaalarmowani. Twórcy sztucznej inteligencji, którzy dostarczają podobne aplikacje, zostaną powiadomieni. Mianowicie, nie próbujcie sprzedawać tych brzydkich rzeczy naszym ukochanym uczniom.

Być może można by opracować i wdrożyć surowe zasady, które obficie deklarują, że żaden student nie może używać generatywnej sztucznej inteligencji w dowolnym momencie, niezależnie od tego, czy na terenie kampusu, czy poza nim. Każdy uczeń przyłapany na korzystaniu z takiej generatywnej aplikacji opartej na sztucznej inteligencji podlegałby surowym karom, prawdopodobnie włącznie z wydaleniem ze szkoły. Bądź surowy dla osób naruszających zasady. Pokaż im, że masz na myśli biznes.

Sprawy mogą pójść jeszcze dalej. Jeśli uczeń użyje generatywnej sztucznej inteligencji i spróbuje ukradkiem uciec od tego, zawsze będzie miał nad sobą wyłaniający się cień. W późniejszym czasie, jeśli odkryje się, że student korzystał z generatywnej sztucznej inteligencji i nie powiedział, że to zrobił, prawdopodobnie zostanie mu cofnięty stopień naukowy lub ponure oceny w jego wynikach akademickich. Zatrzaśnij pokrywę tym, którzy rozważają użycie generatywnej sztucznej inteligencji. Powinni być tak przestraszeni i zdenerwowani łamaniem zasad, że powstrzyma ich to przed włożeniem w to choćby joty wysiłku. Zostaną zamrożeni w skrajnym strachu.

Liczącym argumentem na te riposty jest to, że cała sprawa wydaje się nieproporcjonalna. Drakońskie kary nie są dobrym rozwiązaniem. Robisz górę z kretowiska. I nie rozumiesz zalet i korzyści płynących z używania generatywnej sztucznej inteligencji.

Pozwólcie, że wyjaśnię, jakie są różne wspomniane korzyści.

Niektórzy uważają, że generatywna sztuczna inteligencja może pomóc uczniom w opracowywaniu lepszych esejów. Uczeń może użyć aplikacji, takiej jak ChatGPT, do przygotowania eseju, którego nie zamierza oddawać. Zamiast tego zamierza przestudiować wygenerowany esej. Ponieważ eseje są zwykle dobrze napisane, uczeń może dokładnie przyjrzeć się brzmieniu, strukturze i innym najistotniejszym aspektom. Można więc stwierdzić, że jest to pomocne narzędzie do nauki.

Kolejną zaletą korzystania z generatywnej sztucznej inteligencji jest to, że uczeń może przesłać swój esej do aplikacji AI i poprosić o recenzję eseju. Aplikacje takie jak ChatGPT zazwyczaj wykonują zaskakująco przyzwoitą robotę, analizując dostarczony esej. To może nie być tak wnikliwe, jak recenzja nauczyciela, ale łatwość użycia i możliwość wielokrotnego korzystania z aplikacji AI tak często, jak chcesz, sprawia, że ​​jest to przydatne podejście (prawdopodobnie nie zamiast nauczyciela, zamiast tego zwiększa nauczyciel i ich ograniczona dostępność).

Możemy iść dalej.

Często uczeń może być niepewny lub pozornie zdziwiony, gdy próbuje wymyślić, jak kontynuować przypisany projekt eseju. Wpatrują się w pustą kartkę papieru. Co mają robić? Poczucie desperacji i rozpaczy ogarnia ich ducha. Może porzucą wysiłek i postanowią, że dostaną ocenę niedostateczną. Następuje smutek.

Uczeń może poprosić generatywną sztuczną inteligencję, taką jak ChatGPT, o sporządzenie proponowanego konspektu lub przynajmniej kilku wskazówek dotyczących eseju. Na podstawie uzyskanych pomysłów uczeń przerabia strukturę, a następnie pisze esej. Na własną rękę. To, czy takie użycie sztucznej inteligencji jako startera lub angażującego jest „oszukiwaniem”, zależy od twojej perspektywy. Trzeba przyznać, że aplikacja AI uruchomiła studenta, chociaż można twierdzić, że tak długo, jak uczeń napisał esej, jest to niewielka cena do zapłacenia, ponieważ sztuczna inteligencja dała jedynie wskazówki, jak postępować.

Nieznacznie zmieniając biegi, jeśli chodzi o skrupuły związane z generatywną sztuczną inteligencją generującą dane wyjściowe, które zawierają kłamstwa lub błędy, typowa replika jest taka, że ​​uczniowie już muszą zdawać sobie sprawę, że wszystko, co czytają, czy to znalezione w Internecie, czy gdzie indziej, może zawierać dezinformację i dezinformację. Musimy upewnić się, że uczniowie rozwijają odpowiednie umiejętności potrzebne do odróżniania tego, co jest ważne, od tego, co jest wątpliwe, jeśli chodzi o to, co czytają.

Dodamy generatywną sztuczną inteligencję do tej listy źródeł do zbadania.

Istotą jest to, że uczniom należy pokazać, jak przyglądać się generatywnym wynikom sztucznej inteligencji z odrobiną ostrożności w interpretacji i otwarcie kwestionować to, co czytają. Możesz wykonać ten pomocny krok naprzód. Przydziel uczniom zadania polegające na użyciu generatywnej sztucznej inteligencji, aby celowo skłonić aplikację sztucznej inteligencji do tworzenia fałszywych informacji. Dostajesz dwójkę. Jednym z nich jest pokazanie studentom, w jaki sposób sztuczna inteligencja może generować błędne dane wyjściowe, oraz doskonalenie ich umiejętności wykrywania i radzenia sobie z dezinformacją i dezinformacją. Można by twierdzić, że możemy zamienić wadę w swego rodzaju zaletę, wykorzystując problemy generatywnej sztucznej inteligencji jako narzędzie do szerszej nauki radzenia sobie ze współczesnym światem i zalewem kwaśnych i ponurych informacji.

Mógłbym kontynuować z dodatkowymi sposobami wykorzystania generatywnej sztucznej inteligencji do celów edukacyjnych w dobrej wierze. Aby uzyskać dodatkowe informacje, zob link tutaj.

Podsumowując, obóz, który mówi, że powinniśmy objąć generatywną sztuczną inteligencję, musi zwrócić uwagę, że i tak nie cofniesz czasu. Aplikacje takie jak ChatGPT będą wychodzić z stolarki. Nie ma możliwości znalezienia sposobów na zatrzymanie tego trendu. Równie dobrze możesz wskoczyć na pokład.

W takim przypadku nie musisz pozwalać, by zapanował chaos. Ten obóz wzywa szkoły do ​​opracowania zasad, które mają na celu zrównoważenie zła generowania wypracowań z dobrocią, jaką mogą zapewnić te aplikacje AI. Pokaż uczniom, jak korzystać z tych generatywnych aplikacji AI we właściwy sposób i jak unikać niewłaściwych sposobów.

Cokolwiek robisz, z pewnością nie uwolnij ślepo wykorzystania generatywnej sztucznej inteligencji. Współpracuj z nauczycielami przy ustalaniu zasad. Upewnij się, że nauczyciele mogą swobodnie korzystać z tych aplikacji AI. Przedstaw uczniom generatywne aplikacje sztucznej inteligencji i wyjaśnij, co jest dozwolone, a co nie.

Statek generatywnej sztucznej inteligencji już odpłynął.

Dżin wyszedł z butelki.

Odruchowe reakcje na zakazanie tych aplikacji AI ostatecznie będą daremne. Inną obawą jest to, że nieco podpuszczasz uczniów. Powiedzenie im, że nie mogą korzystać z tej technologii, potencjalnie wywoła falę zainteresowania jej użyciem. Ryzykujesz, że uczciwi i uczciwi uczniowie staną się bandytami, głównie dlatego, że szkoły zrobiły dużo, jeśli chodzi o powoływanie się na zakazy.

Wszyscy wiemy, że czasami zakazany owoc staje się jeszcze bardziej pociągający. Może się zdarzyć, że te słabe zakazy zachęcą uczniów do używania, daleko wykraczających poza to, co w przeciwnym razie mogłoby mieć miejsce.

Wracając do mojej wcześniejszej wskazówki dotyczącej stratyfikacji zakazów, oto, gdzie wydaje się, że sprawy wylądują w przypadku tych ostatnich prób zablokowania ChatGPT (które ogólnie będę nazywać generatywną sztuczną inteligencją):

  • Całkowity zakaz generatywnej sztucznej inteligencji: Niewykonalne samo w sobie i jeszcze nie szczególnie wypróbowane
  • Częściowy zakaz generatywnej sztucznej inteligencji: Prawie to, co zostało wypróbowane, ale ma wiele dziur
  • Słaby zakaz generatywnej sztucznej inteligencji: To, co pozornie jest wypróbowywane, szalenie słabe i prawdopodobnie nieskuteczne
  • Brak zakazu generatywnej sztucznej inteligencji: Wszyscy inni, którzy czekają, aby zobaczyć, co się stanie i co robić

Istnieje również druga strona medalu, a mianowicie dążenie do umożliwienia lub wsparcia generatywnej sztucznej inteligencji, takiej jak reprezentowana w tym spektrum:

  • Potwierdzenie generatywnej sztucznej inteligencji: Nalega, aby szkoły przynajmniej uznały istnienie generatywnej sztucznej inteligencji
  • Łagodna akceptacja generatywnej sztucznej inteligencji: Szkoły powinny zezwalać na korzystanie z generatywnej sztucznej inteligencji w ograniczony sposób
  • Pełna akceptacja generatywnej sztucznej inteligencji: Szkoły powinny kompleksowo przyjąć generatywną sztuczną inteligencję
  • Obowiązkowe wymaganie generatywnej sztucznej inteligencji: Szkoły powinny otwarcie wymagać stosowania generatywnej sztucznej inteligencji i uczynić ją częścią swojego programu nauczania i metod pedagogicznych

Wnioski

Słynny redaktor tzw Katalog całej Ziemi, Stewart Brand, powiedział to godne uwagi zdanie: „Kiedy pojawi się nowa technologia, jeśli nie jesteś częścią walca, jesteś częścią drogi”.

Niektórzy żarliwie wierzą, że szkoły próbujące zakazać sztucznej inteligencji opartej na generatywnej, są w błędzie. Są zdezorientowani co do tego, co może zrobić ta sztuczna inteligencja i jak wykorzystać dobro wraz ze złem. Muszą się obudzić i stać się częścią walca, w przeciwnym razie staną się przerażająco przestarzałymi i staną się opuszczonymi dziurami w dziurach, przetoczonymi przez część drogi (podobnie jak ich uczniowie).

Inni twierdzą, że jest za wcześnie, aby przejść do szaleństwa opartego na sztucznej inteligencji.

Albo nie podejmuj teraz żadnych działań, albo podejmij łagodne działania. Poczekaj i zobacz, co się pojawi. Jeśli istnieje uzasadnione zastosowanie i potrzeba tych aplikacji AI, dobrze, przestudiujmy to i systematycznie i ostrożnie opracujmy najlepszy sposób działania obejmujący je w środowisku edukacyjnym.

Adwokaci odpowiadają, że takie czekanie, które może zająć lata, pozostawi całą sprawę w stanie zamętu. Wszelkiego rodzaju niepożądane problemy bez wątpienia pojawią się, gdy nie będzie żadnych wyraźnych wskazówek. Uczniowie będą zaskoczeni, gdy nagle odkryją ze zdziwieniem, że nie powinni używać tych aplikacji AI. Niektórzy zostaną oskarżeni o korzystanie z aplikacji generatywnej sztucznej inteligencji, gdy tego nie robili, co jest całkiem możliwym fałszywym oskarżeniem, które z pewnością zostanie postawione. W kółko bagno będzie się poszerzać i pogłębiać.

Jak myślisz, co należy zrobić?

Daj temu trochę trzeźwej i uważnej myśli. Tak, bądź uważny. Mówimy o dzisiejszych studentach i ich przyszłości, a także o naszej przyszłości. Pouczająca może być trafna uwaga Abrahama Lincolna: „Najlepszym sposobem przewidywania przyszłości jest jej tworzenie”.

zróbmy tak.

Źródło: https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the- igła-i-brakuje-the-boat-mówi-ai-etyka-i-prawo-ai/