Etyka AI i szczepienie psychologiczne wywołane sztuczną inteligencją, aby pomóc ludziom w dezinformacji

Co zrobimy z ogromnym nadmiarem dezinformacji i dezinformacji?

Z każdym dniem wszystko staje się coraz gorsze.

Być może sztuczna inteligencja (AI) może przyjść nam z pomocą. Tak, zgadza się, być może będziemy w stanie wykorzystać korzystne zastosowania sztucznej inteligencji, aby poradzić sobie z naszym nieustannym tsunami dezinformacji i dezinformacji. Być może powinniśmy spróbować to zrobić. Każda droga potencjalnego rozwiązania wydawałaby się warta poszukiwania.

Nawiasem mówiąc, chciałbym od razu przyznać i zauważyć, że sztuczna inteligencja niewątpliwie będzie również być częścią problemu. Nie ma wątpliwości, że ludzie mogą łatwo wykorzystać sztuczną inteligencję do generowania dezinformacji i dezinformacji. Co więcej, sztuczna inteligencja może być podstępnie wykorzystana do tego, aby dezinformacja i dezinformacja wydawały się niezwykle ważne i oszukać ludzi, aby uwierzyli, że prezentowane informacje są kusząco dokładne i oparte na faktach. Zdecydowanie smutna twarz tego, co sztuczna inteligencja wnosi do stołu. Do tej zagadki powrócimy pod koniec tej dyskusji.

Na razie załóżmy nasze uśmiechnięte buźki i zbadajmy, w jaki sposób sztuczna inteligencja jest korzystna w sprowadzaniu dezinformacji i dezinformacji na potężne kolana. Jednym z ważnych wątków będzie to, że wszystko to łączy się z istotnymi elementami etyki sztucznej inteligencji. Moje artykuły dotyczące etyki AI i etycznej sztucznej inteligencji trwają i są obszerne, w tym: link tutaj i link tutaj, żeby wymienić tylko kilka.

Rozważ te podstawowe sposoby, w jakie sztuczna inteligencja może być szczególnie pomocnym sojusznikiem w wojnie z dezinformacją i dezinformacją:

  • Zatrzymaj się na początku: Sztuczna inteligencja może być wykorzystywana do wykrywania i prób wycinania dezinformacji i dezinformacji, zanim się uwolnią
  • Filtruj przed wyświetleniem: Sztuczna inteligencja może być używana do filtrowania dezinformacji i dezinformacji, dzięki czemu nie musisz się martwić, że je zobaczysz
  • Przygotuj się na odporność: Sztuczna inteligencja może być wykorzystana do wzmocnienia twojej gotowości i zdolności do radzenia sobie z dezinformacją i dezinformacją (znaną nieco formalnie jako rodzaj psychologicznego zaszczepienia)
  • Inne

Pierwszy wymieniony punkt dotyczy próby powstrzymania dezinformacji i dezinformacji w najwcześniejszym możliwym momencie, zanim treść trafi na świat.

To bardzo problematyczne podejście. Niektórzy głośno argumentowaliby, że może to być próba zdławienia wolności słowa przez Wielkiego Brata. Jak daleko może się posunąć ta sztuczna inteligencja? Czy może uniemożliwić ludziom swobodne wyrażanie swoich poglądów? To niesamowicie może stać się śliskim zboczem AI, ostatecznie stając się najgorszym koszmarem złych rezultatów, które niewinnie zaczęły się od najlepszych intencji.

Jestem pewien, że masz zdjęcie.

Drugi punkt jest nieco bardziej umiarkowany i sugeruje, że moglibyśmy użyć sztucznej inteligencji do filtrowania dla nas treści.

Możesz mieć bota filtrującego AI, który skanuje wszystkie przychodzące kanały danych z różnych wiadomości i innych źródeł. Sztuczna inteligencja jest dostosowana do wyłapywania wszelkich dezinformacji lub dezinformacji, które pasują do twoich osobistych kryteriów. Zatem w takim scenariuszu nie jest to sytuacja cenzury Wielkiego Brata. Kontrolujesz sztuczną inteligencję i sposób, w jaki filtruje ona Twoją prawdziwą skrzynkę odbiorczą z informacjami w Twoim imieniu.

Brzmi całkiem nieźle.

Istnieją jednak pewne godne uwagi obawy.

Na przykład, jesteśmy już mocno spolaryzowani w naszych poglądach, a takie wykorzystanie sztucznej inteligencji może sprawić, że ta polaryzacja będzie głębsza i ciemniejsza. Wyobraź sobie, że dzięki tej zgrabnej sztucznej inteligencji, która działa nieprzerwanie przez całą dobę, nigdy nie będziesz musiał zobaczyć odrobiny informacji, które sklasyfikowałeś jako potencjalnie dezinformacyjne i dezinformacyjne. Twoja spolaryzowana perspektywa ma teraz prawie gwarancję, że pozostanie nienaruszona. Przez cały dzień i za każdym razem, gdy szukasz informacji oczekujących na twoją uwagę, zawsze są one w pełni wybrane i nie ma szans na rzucenie okiem na tak zwaną dezinformację i dezinformację.

Mówię, że dezinformacja i dezinformacja mogą być Tzw ponieważ istnieje ogromna ilość kontrowersji dotyczących tego, co faktycznie stanowi dezinformację i dezinformację. Niektórzy eksperci twierdzą, że istnieje absolutna podstawa do ustalenia, co jest dezinformacją, a co dezinformacją. Jest dobro i zło. Wszystko można obliczyć bez pomyłki, że coś jest dezinformacją lub dezinformacją.

Nie wszyscy postrzegają rzeczy jako tak jednoznaczne.

Mówi się, że przysłowiowy, wykluczający się wzajemnie kontrast dychotomii, włącza lub wyłącza, wprowadza w błąd. Dezinformacja jednej osoby może nie zostać uznana za dezinformację dla innej osoby. Podobnie o dezinformacji. Twierdzenie jest takie, że dezinformacja i dezinformacja różnią się pod względem natury i wielkości. Próba ostatecznego sklasyfikowania wszystkich informacji w jednym lub drugim stosie jest o wiele trudniejsza niż sugeruje machanie ręką.

Istotą jest to, że drugi punkt dotyczący używania AI jako mechanizmu filtrowania ma swoje kompromisy. Nie ma wątpliwości, że sztuczna inteligencja będzie coraz częściej wykorzystywana do tego celu. Jednocześnie musimy pamiętać o wyzwaniach, jakie taka sztuczna inteligencja wysuwa na pierwszy plan. Sztuczna inteligencja jako filtr dezinformacji i dezinformacji nie jest jakąś srebrną kulą lub slam dunkem.

To prowadzi nas do trzeciego punktu, a mianowicie możliwości wykorzystania sztucznej inteligencji, aby ludzie lepiej radzili sobie z dezinformacją i dezinformacją.

Wątpię, abyś prawdopodobnie dużo słyszał o tej trzeciej drodze używania AI w tym kontekście. Dopiero zaczyna się pojawiać. Jesteś teraz w czołówce czegoś, co prawdopodobnie będzie się rozwijać i stopniowo wprowadzać do użytku. Pamiętaj jednak, że wraz z rozwojem tej popularności, kontrowersje dotyczące tego, czy jest to odpowiednie podejście, będą również bardzo widoczne.

Częścią problemu jest to, że sztuczna inteligencja jest w pewnym stopniu wykorzystywana do tego, co niektórzy nazwaliby w uwłaczający sposób granie w gry umysłowe z ludźmi.

To wydaje się złowieszcze.

To również prowadzi nas do sfery etyki AI.

Wszystko to odnosi się również do trzeźwo pojawiających się obaw o dzisiejszą sztuczną inteligencję, a zwłaszcza wykorzystanie uczenia maszynowego i głębokiego uczenia jako formy technologii i sposobu jej wykorzystania. Widzisz, istnieją zastosowania ML/DL, które zwykle wiążą się z antropomorfizacją AI przez ogół społeczeństwa, wierząc lub decydując się na założenie, że ML/DL jest albo świadomą AI, albo bliską (nie jest). Ponadto ML/DL może zawierać aspekty dopasowywania wzorców obliczeniowych, które są niepożądane lub wręcz niewłaściwe lub nielegalne z punktu widzenia etyki lub prawa.

Przydatne może być najpierw wyjaśnienie, co mam na myśli, odnosząc się ogólnie do sztucznej inteligencji, a także krótkie omówienie uczenia maszynowego i uczenia głębokiego. Istnieje wiele niejasności co do tego, co kojarzy się ze sztuczną inteligencją. Chciałbym również przedstawić wam zasady etyki AI, które będą szczególnie integralną częścią pozostałej części tego dyskursu.

Ogłaszanie historii AI

Upewnijmy się, że jesteśmy po tej samej stronie, jeśli chodzi o naturę dzisiejszej sztucznej inteligencji.

Nie ma dziś żadnej sztucznej inteligencji, która byłaby świadoma.

Nie mamy tego.

Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy czująca sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej Osobliwością, zobacz moje sprawozdanie na link tutaj).

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. Najnowsza era sztucznej inteligencji szeroko wykorzystała uczenie maszynowe i głębokie uczenie, które wykorzystują dopasowanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia ludzkiego myślenia.

Częścią problemu jest nasza skłonność do antropomorfizacji komputerów, a zwłaszcza sztucznej inteligencji. Kiedy system komputerowy lub sztuczna inteligencja wydaje się działać w sposób, który kojarzymy z ludzkim zachowaniem, pojawia się niemal przytłaczająca potrzeba przypisania systemowi ludzkich cech. Jest to powszechna mentalna pułapka, która może złapać nawet najbardziej nieprzejednanego sceptyka, jeśli chodzi o szanse osiągnięcia świadomości.

Do pewnego stopnia właśnie dlatego etyka AI i etyczna sztuczna inteligencja są tak istotnym tematem.

Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Nastawienie na etykę sztucznej inteligencji i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne. Zobacz na przykład mój zasięg na link tutaj.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za spełniających obowiązujące normy etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Skupmy się na ziemi i skupmy się na dzisiejszej obliczeniowej, pozbawionej świadomości sztucznej inteligencji.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wierzę, że przygotowałem już scenę, aby wystarczająco omówić rolę sztucznej inteligencji jako środka do szybkiego zaszczepienia psychologicznego związanego z radzeniem z dezinformacją i dezinformacją.

Wchodzenie w umysły ludzi

Zacznijmy od podstaw lub podstaw leżących u podstaw dezinformacji i dezinformacji.

Ogólnie rzecz biorąc, dezinformacja odnosi się do fałszywych lub wprowadzających w błąd informacji.

Dezinformacja jest mniej więcej taka sama, chociaż składa się z dodanego elementu zamiar. Zwykle interpretujemy informację jako dezinformację, gdy jest informacją zamierzony dezinformować.

Mogę powiedzieć, że obecnie jest godzina dziesiąta w nocy, co, powiedzmy, jest fałszywe, ponieważ tak naprawdę jest północ. Gdybym powiedział ci o godzinie dziesiątej jako przeczucie i nie próbował być zwodniczy, zwykle powiedzielibyśmy, że cię źle poinformowałem. Przekazałem dezinformację. Może byłem leniwy, a może naprawdę wierzyłem, że jest godzina dziesiąta. Z drugiej strony, gdybym wspomniał o godzinie dziesiątej, ponieważ celowo chciałem cię oszukać, że jest godzina dziesiąta i że wiem, że w rzeczywistości jest północ, to można by powiedzieć, że jest to forma dezinformacji .

Jednym godnym uwagi aspektem informacji jest to, że zazwyczaj jesteśmy w stanie rozprzestrzenić się wokół informacji, a zatem informacje mogą stać się w pewnym stopniu rozpowszechnione. Informacja może rzeczywiście płynąć jak woda w szerokim tego słowa znaczeniu.

Mówię ci, że jest godzina dziesiąta wieczorem. Masz teraz tę konkretną informację. Możesz głośno krzyczeć do grupy ludzi w pobliżu, że jest godzina 10 w nocy. Teraz również mają te same informacje. Być może niektórzy z tych ludzi dzwonią do swoich telefonów komórkowych i dzwonią do innych ludzi, aby im powiedzieć, że jest godzina dziesiąta. Ogólnie rzecz biorąc, informacje mogą być rozpowszechniane lub udostępniane, a czasami są wykonywane tak szybko, podczas gdy w innych przypadkach robią to powoli.

W pewnym sensie można twierdzić, że informacje mogą stać się wirusowe.

Istnieje ukute słowo lub terminologia, których być może nie widziałeś lub nie używałeś, a które pomagają opisać to zjawisko rozprzestrzeniania się informacji, słowo to jest infodemia. To słowo jest mieszanką zarówno informacji, jak i epidemii. Ogólnie rzecz biorąc, infodemia jest związana z okolicznościami obejmującymi rozprzestrzenianie się dezinformacji lub dezinformacji. Chodzi o to, że fałszywe lub wprowadzające w błąd informacje mogą stać się wirusowe, w sposób niepożądany, podobnie jak niepożądane rozprzestrzenianie się chorób lub chorób.

W przykładzie o godzinie 10 w nocy ten pozorny fakt był informacją, która została przekazana pobliskiej grupie ludzi. Oni z kolei przekazują ten fakt innym. Jeśli godzina 10 była fałszywa, to ten konkretny przypadek dezinformacji lub dezinformacji rozprzestrzenił się na wiele innych. Mogą nie wiedzieć, że informacje były dezinformacją lub być może dezinformacją.

Ufam, że wszystkie te definicje i podstawy wydają się sensowne i do tej pory jesteś na pokładzie.

Świetnie, kontynuujmy.

Trochę ukradkiem wprowadziłem cię w coś, co zajmuje wiele fascynacji i niepokoju. Istotą jest to, że istnieją prawdopodobnie rozsądne podobieństwa między tym, jakie choroby są wirusowe, a tym, co dezinformacja lub dezinformacja wirusowo.

Nie wszyscy zgadzają się z tymi rzekomymi paralelami. Mimo to są intrygujące i godne uwagi.

Pozwólcie mi rozwinąć.

Widzisz, możemy spróbować wykorzystać przydatną analogię odnoszenia się do chorób przenoszonych przez ludzi i chorób, które się rozprzestrzeniają, aby porównać podobną możliwość z rozprzestrzenianiem się dezinformacji i dezinformacji. Aby spróbować powstrzymać rozprzestrzenianie się chorób, możemy dążyć do wczesnego wykrywania i dążyć do powstrzymania pojawiającego się źródła choroby, wskazującego potencjalne rozprzestrzenianie się dolegliwości. Innym podejściem do radzenia sobie z rozprzestrzeniającą się chorobą jest zapobieganie jej zachorowaniu poprzez rozważne noszenie maski lub sprzętu ochronnego. Trzecie podejście może polegać na przyjęciu szczepień, aby spróbować zbudować swoją odporność związaną z chorobą.

Zatoczyliśmy teraz pełne koło w tym, że te same podejścia do radzenia sobie z chorobami można wyraźnie przyrównać do radzenia sobie z dezinformacją i dezinformacją. Wspomniałem wcześniej, że podejmowane są podobne próby wykorzystania sztucznej inteligencji w celu radzenia sobie z dezinformacją i dezinformacją, w szczególności (jak wspomniano wcześniej):

  • Zatrzymaj się na początku: Sztuczna inteligencja może być wykorzystywana do wykrywania i prób wycinania dezinformacji i dezinformacji, zanim się uwolnią
  • Filtruj przed wyświetleniem: Sztuczna inteligencja może być używana do filtrowania dezinformacji i dezinformacji, dzięki czemu nie musisz się martwić, że je zobaczysz
  • Przygotuj się na odporność: Sztuczna inteligencja może być wykorzystana do wzmocnienia twojej gotowości i zdolności do radzenia sobie z dezinformacją i dezinformacją (znaną nieco formalnie jako rodzaj psychologicznego zaszczepienia)
  • Inne

Trzeci aspekt będzie tutaj najbardziej interesujący.

Oto oferta.

Wiemy, że choroby zwykle dotykają Ludzkie ciało. Dzięki analogii do tego, jak występują dezinformacje i dezinformacje, możemy zasugerować, że nieczyste informacje uderzają w umysł ludzki. Tak, prawdopodobnie możesz wejść w kontakt z dezinformacją lub dezinformacją, która napływa do twojego umysłu. Dezinformacja lub dezinformacja potencjalnie psuje lub zatruwa twój sposób myślenia.

Organizm człowieka można zaszczepić, aby spróbować przygotować się na kontakt z chorobami. Powstaje wielkie pytanie, czy możemy zrobić to samo dla ludzkiego umysłu. Czy jest możliwe, aby spróbować zaszczepić umysł tak, że kiedy dezinformacja lub dezinformacja przyjdą ci do głowy, abyś był na to gotowy i zostałeś odpowiednio zaszczepiony?

Kierunek studiów znany jako szczepienie psychologiczne zakłada, że ​​umysł może rzeczywiście zostać zaszczepiony w sensie gotowości do radzenia sobie z dezinformacją lub dezinformacją.

Rozważ ten opis w niedawnym badaniu dotyczącym psychologicznego zaszczepiania i tego, co czasami jest określane jako robienie przed buntem:

  • „Obalanie dezinformacji jest również problematyczne, ponieważ korygowanie dezinformacji nie zawsze całkowicie niweluje jej skutki, zjawisko znane jako efekt ciągłego wpływu. W związku z tym, w przeciwieństwie do podważania, wstępne podważanie zyskało na znaczeniu jako środek do prewencyjnego budowania odporności na przewidywane narażenie na dezinformację. Takie podejście jest zwykle ugruntowane w teorii inokulacji. Teoria szczepień opiera się na analogii do immunizacji medycznej i zakłada, że ​​możliwe jest zbudowanie odporności psychologicznej na niechciane próby perswazji, podobnie jak szczepienia medyczne budują odporność fizjologiczną na patogeny” (Postępy nauki, 24 sierpnia 2022 r., „Psychological Inoculation Improves Resilience Against Misinformation on Social Media” współautorów Jona Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje i Stephan Lewandowsky).

Wracając do mojego przykładu, że godzina jest godzina 10 w nocy, załóżmy, że wcześniej powiedziałem ci, że czasami podany czas nie jest rzeczywistym czasem. Odtąd masz formę szczepienia, aby uważać na czasy, o których mowa. Ta szczepionka przygotowała Cię do kontaktu z deklarowanymi czasami, które są dezinformacją lub dezinformacją.

Gdybym ostrzegał Cię kilka lat temu, że zgłoszone czasy nie są rzeczywistymi czasami, istnieje szansa, że ​​możesz nie pomyśleć o tym dawno temu ostrzeżeniu. Tak więc wcześniejsza inokulacja (możemy powiedzieć) przestała działać. Moje szczepienia dla ciebie mogą wymagać wzmocnienia.

Istnieje również szansa, że ​​szczepienie nie było wystarczająco specyficzne, abyś mógł go użyć w razie potrzeby. Gdybym lata temu ostrzegał Cię o deklarowanych czasach w porównaniu z rzeczywistymi czasami, to mogłoby być zbyt szerokie. Szczepienie może nie zadziałać w konkretnym przypadku, gdy zostaniesz poinformowany o godzinie dziesiątej. W tym sensie, być może, moim zaszczepieniem powinno być to, że powinieneś być ostrożny, kiedy stosuje się deklarowaną godzinę 10 rano. Oczywiście szczepienia w przypadku chorób są trochę takie same, czasami bardzo specyficzne dla znanych dolegliwości, podczas gdy w innych przypadkach mają szerokie spektrum.

Często cytowane badanie naukowe przeprowadzone w 1961 r. nad psychologicznym zaszczepieniem przez Williama McGuire'a z Columbia University jest obecnie powszechnie uważane za klasykę w tej dziedzinie badań. Mogą Cię zainteresować te kluczowe kwestie, które poczynił w tamtym czasie:

  • „Tak uogólniona immunizacja może wynikać z jednego z dwóch mechanizmów. Wstępna ekspozycja może zaszokować osobę i uświadomić sobie, że „truizmy”, które zawsze akceptował, są rzeczywiście podatne na zranienie, prowokując w ten sposób do rozwinięcia obrony swoich przekonań, w wyniku czego jest bardziej odporny na silne kontrargumenty, gdy się pojawią. Alternatywnie, obalania zaangażowane we wstępną ekspozycję mogą sprawić, że wszystkie później przedstawione kontrargumenty przeciwko temu przekonaniu wydają się mniej imponujące” (William McGuire, „Resistance To Persuasion Conferred By Active And Passive Prior Reputation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Psychologia społeczna, 1961).

Czy uważasz, że ta analogia szczepień i szczepień jest użytecznym i trafnym porównaniem ze sferą dezinformacji i dezinformacji?

Niektórzy tak, inni nie.

Na potrzeby tej dyskusji proszę zaakceptować, że założenie jest uzasadnione i trafne.

Jak mamy próbować zaszczepiać lub uodparniać ludzkie umysły?

Moglibyśmy zachęcić ludzi do czytania książek, które mogą oświecić ich umysły. Możemy im o tym opowiedzieć, kazać im obejrzeć filmy lub posłuchać taśm audio. Itp.

I możemy wykorzystać sztuczną inteligencję, aby zrobić to samo.

System sztucznej inteligencji może zostać opracowany jako inokulator. Za każdym razem, gdy zaczynasz korzystać z Internetu, np. przeglądasz Internet, aplikacja oparta na sztucznej inteligencji może przygotować Cię do podróży online. Sztuczna inteligencja może karmić cię niewielką ilością dezinformacji, która jest oznaczona jako taka, pozwalając ci zdać sobie sprawę, że za chwilę zobaczysz coś, co jest celowo fałszywe.

Po zetknięciu się z tą dezinformacją zasilaną przez sztuczną inteligencję twój umysł jest teraz przygotowywany do radzenia sobie z dezinformacją lub dezinformacją, które możesz napotkać w Internecie. Twój umysł został przygotowany. Voila, widzisz bloga w Internecie, który przedstawia rzekomy fakt, że obce istoty z Marsa są już tutaj na ziemi i ukrywają się na widoku, ale ta pozorna dezinformacja lub dezinformacja jest łatwo odrzucana przez twój umysł z powodu wcześniejszego zaszczepienia (cóż, z drugiej strony, może to prawda i naprawdę są tutaj!).

W każdym razie mam nadzieję, że jesteś teraz w stanie dostrzec, w jaki sposób sztuczna inteligencja może pomóc zaszczepić lub uodpornić ludzi na dezinformację lub dezinformację.

Opracowywane są różne aplikacje AI, które będą działać jako inokulanty dezinformacji lub dezinformacji. Sztuczna inteligencja może starać się zapewnić szczepienie, które jest szerokie i zapewnia ogólne pozory immunizacji. Sztuczną inteligencję można również opracować dla bardziej specyficznych form zaszczepiania. Ponadto sztuczna inteligencja może działać w sposób spersonalizowany, dostosowany do Twoich szczególnych potrzeb lub zainteresowań. Zaawansowana sztuczna inteligencja w tej przestrzeni spróbuje również określić twój poziom tolerancji, szybkość absorpcji psychicznej, zdolność retencji i inne czynniki podczas komponowania i prezentowania tak zwanych ujęć immunizacyjnych.

Wydaje się całkiem przydatne.

AI jako niebezpieczny gracz w grach umysłowych

Wykorzystywana w ten sposób sztuczna inteligencja na pierwszy rzut oka wydaje się całkiem przydatna (hej, wspomniałem o tym zaledwie sekundę temu).

Istnieje wiele potencjalnych wad i problemów, które są niepokojące i być może przerażające.

W moich felietonach często omawiam możliwości podwójnego zastosowania sztucznej inteligencji, patrz na przykład link tutaj. Sztuczna inteligencja może mieć istotny wkład w rozwój ludzkości. Niestety, sztuczna inteligencja jest również obciążona wieloma niebezpieczeństwami i niefortunnymi pułapkami.

W przypadku AI jako inicjatora, rozważmy następujące poglądowe kwestie związane z etyką AI:

  • Działania niepożądane ze strony ludzi
  • Reakcje niereagujące ze strony ludzi
  • Błędne kierowanie AI
  • Niepełne kierowanie AI
  • Cybernaruszenie AI
  • Inne

Pokrótce omówimy te obawy.

Niepożądane reakcje ludzi

Załóżmy, że człowiek otrzymujący tego rodzaju szczepienie oparte na sztucznej inteligencji ma niepożądaną reakcję lub wywołuje niepożądany efekt.

Osoba ta może źle zinterpretować szczepionkę i nagle stać się niewrażliwa na wszelkie otrzymywane informacje. Blokują wszystkie informacje. Sztuczna inteligencja w jakiś sposób skłoniła ich do wylania dziecka z kąpielą (stare powiedzenie, być może warte przejścia na emeryturę). Zamiast tylko próbować radzić sobie z dezinformacją i dezinformacją, dana osoba zareagowała, uznając, że wszystkie informacje są zawsze fałszywe.

Nie sądzę, żebyśmy chcieli, żeby ludzie przesadzali.

Istnieje wiele niepożądanych reakcji, które może wywołać sztuczna inteligencja. Wynika to częściowo ze sposobu, w jaki sztuczna inteligencja próbowała przeprowadzić szczepienie, ale także musimy położyć część problemu u stóp człowieka, który otrzymał szczepienie. Mogli zareagować w dziki lub dziwaczny sposób, że inni, którzy otrzymali tę samą szczepienie AI, tego nie zrobili.

Ponownie można to porównać do analogii szczepień na choroby.

Krótko mówiąc, ważne będzie, aby takie działania sztucznej inteligencji odbywały się w odpowiedzialny sposób, który ma na celu zminimalizowanie negatywnych skutków. Powinna również istnieć kontynuacja działania sztucznej inteligencji, aby spróbować ustalić, czy wystąpiła reakcja niepożądana. W przypadku wykrycia reakcji niepożądanej należy opracować sztuczną inteligencję, aby spróbować pomóc osobie w jej reakcji niepożądanej i starać się przezwyciężyć lub złagodzić reakcję.

Reakcje niereagujące przez ludzi

Inną możliwością jest to, że szczepienie karmione sztuczną inteligencją nie ma wpływu na osobę przyjmującą.

Osoba otrzymuje szczepienie oparte na sztucznej inteligencji związane z dezinformacją lub dezinformacją. Podczas gdy większość ludzi „dostaje to” i zostaje zaszczepiona, na pewno znajdą się ludzie, którzy w ogóle nie zareagują. Niczego się nie uczą z zaszczepienia. Nie reagują na próby sztucznej inteligencji, mające na celu uodpornienie ich na wszystkie lub niektóre rodzaje dezinformacji lub dezinformacji.

Po raz kolejny jest to porównywalne do szczepień na choroby.

AI powinna być tak opracowana, aby zmagać się z taką sytuacją.

Błędne kierowanie AI

Wyobraź sobie, że sztuczna inteligencja ma nadzieję uodpornić ludzi na konkretny temat, który powiemy, że jest tematem X, ale okazuje się, że temat Y jest zamiast tego omawiany. Sztuczna inteligencja myli się.

To dwojaki problem. Po pierwsze, temat X nie został wówczas omówiony jako domniemany i oczekiwany cel inokulatora AI. Po drugie, omawiany jest temat Y, ale mogliśmy nie chcieć, aby ludzie byli szczepieni na ten temat.

Ups.

Mnóstwo pytań. Czy można było temu zapobiec? Jeśli tak się stanie, czy możemy cofnąć temat szczepień Y? Czy możemy starać się omówić temat zaszczepiania X, czy też osoba będzie mniej lub mniej otwarta z powodu pierwotnie błędnego kierowania przez sztuczną inteligencję?

Pojawia się wiele problematycznych obaw.

Niepełne kierowanie AI

AI zapewnia szczepienie na temat Z. Ludzie otrzymujący szczepienie wydają się mieć minimalną lub prawie nieistotną reakcję. Inokulacja była niewystarczająca do utrzymania.

Możesz ulec pokusie, aby szybko stwierdzić, że można to łatwo rozwiązać. Wszystko, co musisz zrobić, to powtórzyć szczepienie. Może tak może nie.

Inokulacja AI może mieć tak ograniczoną wartość, że bez względu na to, czy ludzie doświadczą jej sto razy, wynik nadal będzie marginalny. Być może będziesz musiał wzmocnić szczepienie, zamiast po prostu je powtarzać.

W międzyczasie wyobraź sobie, że próbuje się zwiększyć szczepienie karmione sztuczną inteligencją, ale to przesadza. Wersja wzmocniona powoduje hiperreakcje. Hej, przeszliśmy od złego do gorszego.

Cybernaruszenie AI

Wyobraź sobie, że sztuczna inteligencja jest szeroko wykorzystywana, aby pomóc ludziom w uodpornieniu się na dezinformację i dezinformację.

Ludzie ogarniają ogólne zaufanie. Wiedzą i oczekują, że sztuczna inteligencja przedstawi im fragmenty, które otworzą im oczy na to, co jest znane jako dezinformacja i dezinformacja.

Wydaje się, że wszystko jest dobrze i dobrze.

Złoczyńca jest w jakiś sposób w stanie dokonać cyberprzełomu w sztucznej inteligencji. Potajemnie wymuszają na sztucznej inteligencji pewną pożądaną dezinformację, o której chcą, aby ludzie myśleli, że nie jest dezinformacją. Sztuczna inteligencja jest tak zaaranżowana, aby faktyczna dezinformacja wydawała się być prawdziwą informacją. Co więcej, prawdziwe informacje mają wyglądać na dezinformację.

Ludzie są całkowicie snooker. Są dezinformowani przez sztuczną inteligencję. Co więcej, ponieważ stali się zależni od sztucznej inteligencji i ufając, że sztuczna inteligencja postępuje słusznie, spadają z haka, linki i ciężarka za tę złamaną sztuczną inteligencję. Bez wahania.

Biorąc pod uwagę, jak szybko dezinformacja może się dalej rozprzestrzeniać, złoczyńcy mogą cieszyć się, że istnienie tego rodzaju sztucznej inteligencji jest ich najłatwiejszym i najszybszym sposobem na rozpowszechnianie ich podstępnych kłamstw na całym świecie. Jak na ironię, oczywiście, wykorzystując inokulator AI, aby zasadniczo rozprzestrzenić chorobę.

Wnioski

Czy powinniśmy mieć sztuczną inteligencję bawiącą się z nami w gry umysłowe?

Czy sztuczna inteligencja służąca do zaszczepiania dezinformacji i dezinformacji może być groźnym koniem trojańskim?

Możesz mieć merytoryczne argumenty za zamartwianiem się takim koszmarem.

Inni szydzą z takiej możliwości. Ludzie są wystarczająco sprytni, aby wiedzieć, kiedy sztuczna inteligencja próbuje ich oszukać. Ludzie nie nabiorą się na taki drybling. Tylko idioci dawaliby się zwieść takiej sztucznej inteligencji. To są zwykłe riposty i kontrargumenty.

Nie chcąc wydawać się mniej niż w pełni podziwiającym ludzi i ludzką naturę, sugerowałbym jedynie, że istnieje wiele wskazówek, że ludzie mogą dać się nabrać na sztuczną inteligencję, która ich wprowadza w błąd.

Jest jeszcze większy problem, który być może unosi się nad tym wszystkim.

Kto tworzy sztuczną inteligencję i w jaki sposób sztuczna inteligencja decyduje algorytmicznie, co jest uważane za dezinformację i dezinformację?

Na całym świecie toczy się dziś cała wymiana ognia o to, co stanowi konkretnie dezinformację i dezinformację. Niektórzy twierdzą, że fakty są faktami, dlatego nigdy nie może być wątpliwości, czym jest informacja właściwa, a czym niewłaściwa. Diabeł jednak czasami tkwi w szczegółach, to jest cholernie pewne.

Na razie ostatnia uwaga. Abraham Lincoln powiedział: „Możesz oszukiwać wszystkich ludzi przez jakiś czas, a niektórych przez cały czas, ale nie możesz oszukiwać wszystkich ludzi przez cały czas”.

Czy sztuczna inteligencja wykorzystywana do wspomagania zaszczepiania ludzkości przed dezinformacją i dezinformacją będzie istotnym narzędziem zapewniającym, że nie wszyscy ludzie mogą być oszukiwani przez cały czas? A może może być używany do oszukiwania większej liczby ludzi przez większość czasu?

Czas pokaże.

A to z pewnością nie jest dezinformacja ani dezinformacja.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-ductive-psychological-inoculation-to-help-humans-with-disinformation/