Etyka AI poirytowana przez tych, którzy skoncentrowani na sztucznej inteligencji, skoncentrowani na Gaslightingu, którzy mówią o dziwacznie irytujących rzeczach na temat etyki AI i autonomicznych systemów AI

Są ludzie, dla których misją życiową jest prowokowanie i doprowadzanie do wściekłości pozostałych z nas.

Na pewno znasz kogoś takiego. Wrzucą do rozmowy bezczelne i nieuzasadnione oświadczenie, które całkowicie wstrząsnie wszystkimi i wywoła słowną bójkę. Pomimo konwersacyjnego rozprysku, który jest odpowiednikiem wybuchowego granatu ręcznego, można lekko zasugerować, że taki irytujący i zakłócający spokój akt jest jedynie oznaką doświadczonego prowokatora. Być może dialog był zupełnie przyziemny i nieciekawy, stąd uzasadniona potrzeba buntowniczego wysiłku w celu ożywienia interakcji.

Z drugiej strony może się zdarzyć, że prowokacja nie będzie niczym innym jak próbą powstrzymania merytorycznego przekomarzania się. Wydawałoby się, że niespodziewany showstoper osiągnął ten niestosowny cel. Odwracając uwagę na inny wysoce kontrowersyjny temat, rozpęta się całe zamieszanie i nikt nie będzie pamiętał toku myślenia, który jeszcze chwilę temu był rozważanym przedmiotem uwagi grupy.

Wyjaśnijmy sobie, że to wtrącające się stwierdzenie będzie dziwaczne. Jeśli wtrącenie byłoby istotne, a może nawet nieistotne, kluczem byłoby to, czy stwierdzenie lub stwierdzenie jest czymś, co mogłoby wywołać pozory zrównoważonej dyskusji. Wszystko, co nie wywołuje obfitego i absolutnego szoku i podziwu, nie będzie wystarczająco satysfakcjonujące dla naprawdę destrukcyjnego gracza. Starają się wymyślić absolutnie „najlepszy” szok, który wprawi wszystkich uczestników w zawrót głowy.

Im większe podsycenie Tizzy, tym lepiej.

Jak za chwilę się przekonasz, w świecie sztucznej inteligencji (AI) jest mnóstwo entuzjastów. Są to ludzie, którzy lubią namawiać innych do dyskusji na temat sztucznej inteligencji, które nie mają na celu celów edukacyjnych ani informacyjnych, a zamiast tego służą po prostu destrukcyjnemu i irytująco fałszywemu obrazowi tego, czym jest sztuczna inteligencja i co musimy z nią zrobić.

Ci zwolennicy na ogół psują sprawę, zwłaszcza odrzucając tych, którzy nie mają pojęcia o sztucznej inteligencji i, niestety, podkopują wspólny ruch w kierunku etycznej sztucznej inteligencji. Naświetlę także inny punkt widzenia na powiązanie sztucznej inteligencji, a mianowicie to, że niektórzy prowokatorzy korzystają z narzędzi internetowych opartych na sztucznej inteligencji w żałosnym celu, jakim jest prowokowanie ich w ich imieniu. Jak mówi stare powiedzenie, pozornie dowodzi to, że nie można dać niektórym ludziom nowych błyszczących zabawek (ponieważ z pewnością będą ich używać niewłaściwie).

Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Zanim przejdziemy do tematu sztucznej inteligencji jako takiej, przyjrzyjmy się, w jaki sposób ci prowokatorzy w sposób ogólny i potajemnie wykonują swoje zadania prowokacyjne.

Jak niewątpliwie wiesz, pobożni, gadatliwi zakłócacze nie ograniczają się do interakcji werbalnych twarzą w twarz. Jestem pewien, że doświadczyłeś tego samego typu zachowań w Internecie. Tego typu działania mogą mieć miejsce podczas dowolnej serii opublikowanych wiadomości tekstowych, np. gdy ludzie elektronicznie odpowiadają na transmisję wideo na żywo i wyrażają swoje opinie na temat tego, co się dzieje. Istnieje duże prawdopodobieństwo, że trafisz na kogoś, kto po prostu musi wtrącić swoje trzy grosze i zrobić to w najbardziej niesforny sposób.

Reakcją może być to, że inni zaczną wskakiwać na nowo wprowadzony temat. Stopniowo elektroniczne wtrącanie się w tę i z powrotem odchodzi od omawiania transmisji na żywo i zamiast tego zajmuje się jakąkolwiek inną bombą, którą rzucił goader. Na pewno nastąpi spiętrzenie.

Tymczasem niektórzy z publikujących posty będą sfrustrowani możliwością przejęcia przez tego zakłócacza komentarzy w SMS-ach. Podjęte zostaną wysiłki, aby ponownie zwrócić uwagę na daną sprawę. Natychmiast zobaczysz takie, które oznaczą zakłócacza jako trolla, substancję drażniącą zapalanie gazu lub prawdopodobnie będą określane jako Władca krawędzi.

Być może nie znasz slangowego określenia bycia Edgelordem. Ogólnie rzecz biorąc, terminologia odnosi się do osoby, która publikuje posty w Internecie i decyduje się na umieszczenie szokujących, a czasem nihilistycznych uwag. Co więcej, osoba, która to robi, niekoniecznie jest wierząca we własne uwagi. Często są oni wyłącznie i wyjątkowo zainteresowani rozwścieczeniem ludzi. Nie ma znaczenia, czy uwaga jest szczera. Odpowiednie będzie niemal każde kłótliwe stwierdzenie, pod warunkiem, że poruszy gniazdo szerszeni.

Jakiego rodzaju stwierdzenia mogą odwrócić uwagę innych i skierować się w tępą pajęczą sieć, którą władca krawędzi próbuje utkać?

Oto kilka przydatnych fragmentów dotyczących oświetlenia gazowego, które są często używane:

  • Życie jest całkowicie pozbawione wartości i sensu (to jest łagodne).
  • Ludzie to idioci i powinniśmy zakładać kaganiec głupim ludziom (to jest iskrzące).
  • Szczerze mówiąc, musimy opuścić Ziemię i zacząć wszystko od nowa na innej planecie (to jest podstępne).
  • Itd.

Rozważ półinteligentne aspekty tych przykładów oświetlenia gazowego.

Weźmy pierwszą, dotyczącą sensu życia. Jeśli w niemal każdej rozmowie wtrącisz, że życie jest całkowicie pozbawione wartości, wyobraź sobie reakcje, które możesz wywołać. Niektórzy mogliby zareagować współczująco. Martwią się, że prawdopodobnie jesteś przygnębiony i przygnębiony. Starając się zachować ostrożność, mogą spróbować poprawić humor osobie, która napisała komentarz.

Inni mogą odpowiedzieć, twierdząc, że życie nie jest bezwartościowe. Będą żarliwie bronić tego, że warto żyć i że wszyscy możemy dodać wartość wszystkim wokół nas. Może to następnie sprowadzić dyskusję do króliczej nory na temat różnych sposobów uzyskiwania wartości dodanej. Zalecenia zaczną napływać do dialogu.

Czy władca krawędzi lub goader zwraca uwagę na te reakcje w sensie przyjęcia rozszerzonej empatii lub ostrego ponownego rozważenia swojego stanowiska w sprawie natury życia?

Na pewno nie.

Kluczem do tego potępionego gazownika jest to, że grupa została rozproszona. Co więcej, grupa jest teraz żywo zafascynowana tym, co dał złoczyńca jako kość do przeżucia. To jest tutaj klucz do sukcesu. Niech wszyscy przejdą do tematu zaproponowanego przez pogawędkę. Zobacz, jak daleko zajdzie grupa. Jeśli to konieczne, podtrzymaj rozproszenie uwagi.

Czasami konieczne będzie tankowanie. Zasadniczo grupa może na chwilę zostać zepchnięta na boczny tor, ale potem zda sobie sprawę, że chce wrócić do bieżącej sprawy. Nie tak szybko, myśli w milczeniu intrygant. Będą starali się dolać więcej amunicji lub oliwy do ognia.

Dodatkowa iskra może wiązać się z reagowaniem na tych, którzy połknęli przynętę. Być może prowokator spróbuje uświadomić sympatykom, że goader nadal jest w dupie i potrzebuje więcej słów pocieszenia. A może błazen spróbuje obalić twierdzenia, że ​​życie ma wartość. Dostępnych jest wiele kątów, aby zapewnić, że rozproszenie uwagi będzie się toczyć i trollować.

Kiedy wydaje się, że żadne dalsze prowokacje nie rozproszą uwagi, władca krawędzi prawdopodobnie zdecyduje się rzucić tłumowi kolejny temat. Rozważmy na przykład drugi przykład, o którym wspomniałem wcześniej, dotyczący twierdzenia, że ​​ludzie są głupi i powinni nosić kaganiec. To naprawdę dopadnie niektórych ludzi. Ze złością odpowiedzą, że nazywanie ludzi głupimi jest niewłaściwe i oskarżą gadułę o nietolerancję. Niektórzy będą całkowicie przerażeni głoszoną koncepcją nakładania ludziom kagańca, co być może doprowadzi do długotrwałego odchodzenia od wolności słowa i praw człowieka.

Wszystko to przywodzi na myśl słynne powiedzenie, że nigdy nie należy walczyć ze świnią.

Dlaczego tak?

Bo oboje ugrzęźniecie w błocie, a świnia to lubi.

Krótko mówiąc, celem Edgelorda Gaslighting jest wyciągnięcie uwagi innych i odwrócenie uwagi od wszystkiego, co było w centrum uwagi. Nie ma szczególnego zainteresowania rozwijaniem inteligentnego dialogu i ewentualną edukacją ludzi w jakichkolwiek ważnych kwestiach. Nie ma prawdziwej próby zapewnienia spostrzeżeń i pomocy ludziom w poprawie sytuacji.

Podstępność, jaka się z tym wiąże, może zapierać dech w piersiach. Biorąc pod uwagę, że obecnie często poszukujemy osób, które celowo próbują wszcząć walkę słowną, osoby podejmujące te diabelskie wysiłki muszą wykazać się większą bystrością niż kiedyś.

Można stosować różne triki:

  • Zacznij od stwierdzenia, które wydaje się być powiązane z danym tematem, starając się w ten sposób uciszyć rozmowę i nie dać się przyłapać na próbie
  • Wrzuć dowcip do dialogu, ale potem wydaje się, że żałujesz, że to zrobiłeś, przepraszasz, a potem wróć silniejszy z odkryciem, że to, co pierwotnie powiedziałeś, jest rzeczywiście prawdziwe i godne
  • Twierdź, że ktoś inny poruszył zinger, którym się teraz zajmujesz, zachowując się tak, jakbyś niewinnie odpowiadał na „oburzające” komentarze kogoś innego
  • Jeśli respondenci są podzieleni w taki sposób, że niektórzy popierają, a inni są przeciwni Twojej podsycającej uwagi, przejdź na pomoc jednej ze stron i dodaj komentarz, poczekaj, aż sprawy się potoczą, a następnie przeskocz na drugą stronę, zachowując się jak choć ciągle cię namawiają
  • Wydaje się, że wycofujesz swoją początkową, błyskotliwą uwagę, ale robiąc to, upewnij się, że „niezdarnie” ją wzmocnisz, wprawiając innych w zamieszanie i konsternację
  • Kiedy ktoś bierze przynętę, zachęć go, aby energicznie kontynuował (będzie twoim nieświadomym wspólnikiem), ale jeśli zrozumie, że jest przez ciebie wykorzystywany, szybko znajdź innego niczego niepodejrzewającego nawróconego.
  • Przyznaj się swobodnie, że prowokujesz grupę, a następnie nagle powiedz im, że są tam wszystkie owce, co z pewnością wywoła ponowną burzę z powodu tego, co zrobiłeś i tego, jak podły jesteś (zwłaszcza, że ​​nadal będzie to generować więcej takich samych zapaleń gazowych czynność, która zresztą jest celem).
  • I tak dalej.

Ośmielę się powiedzieć, że w dzisiejszym społeczeństwie, w którym panuje dość widoczne podziały, sfera oświetlenia gazowego jest w zasięgu ręki. Zapewniając poręczną iskrę, istnieje ryzyko, że goader będzie mógł usiąść i oglądać fajerwerki. Być może nie będą musieli nawet zwracać uwagi na to, co się dzieje. Prawie tak, jakby uruchomiła się reakcja termojądrowa, rozpraszająca rozmowa będzie własną maszyną perpetuum mobile. Przemyślny i przebiegły władca krawędzi może chichotać i śmiać się aż do brzegu.

Mówiąc o banku, możesz być zdziwiony, dlaczego istnieją ci władcy krawędzi i żołdacy. Dlaczego robią to, co robią? Jaka byłaby monetyzacja ich podejrzanych działań? Czy płacą im za doprowadzenie do upadku dialogu obywatelskiego? Czy istnieje jakiś ukryty zestaw złych funduszy zarezerwowanych dla tych, którzy mogą doprowadzić świat do chaosu?

Powody stosowania tej taktyki prowokacji mogą się znacznie różnić.

Istnieje możliwość wypłaty środków pieniężnych, choć ogólnie jest to prawdopodobnie mniej prawdopodobne. Zwykle czynnikiem jest to, że dana osoba lubi tę akcję. Niektórzy ludzie lubią grać w kasynach. Niektórzy ludzie lubią skakać z samolotów jako spadochroniarze. Niektórzy ludzie lubią i mają jawną pasję doprowadzania ludzi do wściekłości.

Piękno Internetu w przypadku tego rodzaju zachowań polega na tym, że zazwyczaj można sobie z tym poradzić anonimowo i bezlitośnie. Będąc w piżamie. O każdej porze dnia i nocy. Na całym świecie.

Dla kontrastu, w prawdziwym świecie fizycznego przebywania wśród innych ludzi, Twoja tożsamość może zostać łatwo odkryta. Poza tym narażasz się na fizyczne niebezpieczeństwo, ponieważ ktoś może się na ciebie tak zirytować, że słowne sprzeczki prowadzą do bójki z siniakami na ciele. Będąc online, możesz w dużym stopniu uniknąć negatywnych konsekwencji swoich szalonych działań. Biorąc to pod uwagę, nadal istnieje ryzyko, że ktoś dowie się, kim jesteś, być może wyzwie Cię lub w jakiś sposób dokuczy.

Można również zasugerować, że niektórzy mogliby to zrobić, wierząc żarliwie i kontrowersyjnie cnotliwy przyczyna.

Oto, co to oznacza.

Niektórzy z tych hodowców będą próbowali twierdzić, że pomagają światu poprzez te pozornie dziwaczne lub diabelskie wysiłki. Sprawiają, że ludzie myślą poza nosem. Uważa się, że wywołana lub sprowokowana kłótnia zmusza ludzi do dokładnego przemyślenia swojego stanowiska, nawet jeśli zaproponowana postawa wykracza poza zakres dotychczasowej rozmowy.

Co więcej, twierdzi się, że im więcej ludzie będą w stanie wypowiadać się na dany temat, na jakikolwiek temat, tym lepiej będą postrzegać swoje procesy myślenia. Tak, choć mogłoby się to wydawać szalone, twierdzenie jest takie, że porywający dialog wynikający z oświetlenia gazowego będzie psychicznie korzystny dla uczestników. W wyniku tych porywających debat staną się silniejszymi myślicielami. Być może powinniśmy poklepać władcę krawędzi lub prowokatora po plecach za głębokie nakłonienie ludzkości do głębszego i bardziej wyrazistego myśliciela.

Bzdura, odpowiada ktoś ze złością.

Są to jedynie fałszywe racjonalizacje złego zachowania. Edgelord lub goader próbuje usprawiedliwić swoje problematyczne i szkodliwe działania. Jedyne, czego dokonuje oświetlenie gazowe, to dalsze oddzielanie nas od siebie. Goaderzy nie są bohaterskimi postaciami, które wykonują ciężką pracę na rzecz wzmacniania ludzkości. Podsycają niezadowolenie, złość i sieją nieuprzejmość w całym społeczeństwie.

Zawroty głowy i niepokojące.

Jesteśmy teraz przygotowani do zmiany biegów i zagłębienia się w aspekty prowokacji zorientowane na sztuczną inteligencję.

Istota sztucznej inteligencji celującej w władców krawędzi i goaderów polega na wykorzystaniu konkretnego tematu sztucznej inteligencji jako wymyślonego sposobu na wkurzanie ludzi. Spełnia to ich rację bytu. Szczególnie lubią czepiać się sztucznej inteligencji, ponieważ jest to niemal pewny temat, który można wykorzystać, próbując odwrócić uwagę ludzi. Większość ludzi ma swoje zdanie na temat sztucznej inteligencji, chociaż mogą nie wiedzieć zbyt wiele na jej temat. Ponadto w codziennych wiadomościach, które czytamy i słyszymy, pojawia się mnóstwo szalonych i zapierających dech w piersiach nagłówków na temat sztucznej inteligencji, które uświadamiają nam, że coś się dzieje w dziedzinie sztucznej inteligencji i że musimy zachować czujność.

Sztuczna inteligencja to jeden z tematów, który najlepiej rozpala ogień.

Wrzuć do rozmowy informację, że sztuczna inteligencja nas wszystkich zniszczy lub że sztuczna inteligencja jest najlepszą rzeczą od czasu krojonego chleba, a następnie poczekaj, co się stanie. Mamy nadzieję, że uwaga tłumu zmieni się z tego, czym była chwilę wcześniej, i teraz całkowicie zajmie się bombą wywołaną sztuczną inteligencją, która została między nimi rzucona.

Kontekst, w którym nagle pojawia się sztuczna inteligencja, może przybierać różne formy. Możesz spróbować sprawić wrażenie, że temat sztucznej inteligencji jest w jakiś sposób powiązany z czymkolwiek innym, co było omawiane. Istnieje prawdopodobieństwo, że ktoś już biorący udział w rozmowie znajdzie sposób, aby nawiązać dla Ciebie dalsze nawiązanie do tematu sztucznej inteligencji, próbując Ci pomóc tak, jakbyś był szczery, a Ty możesz być zaskoczony lub nawet nieco okrzyknięty swoim sprytnym „błyskiem” wglądu”, że sztuczna inteligencja jest istotnym aspektem (cóż, chociaż może nie być).

Oczywiście, jeśli temat AI jest już na stole, goader będzie musiał podjąć bardziej ekstremalne działania. Nie chcą, aby ich bomba AI została wciągnięta do rozmowy. Nie, to nie wystarczy. Należy pamiętać, że celownik ma na celu siać spustoszenie i zakłócać toczący się dialog.

W takim przypadku nacisk zostanie położony na sformułowanie uwagi na temat AI wykraczającej poza toczącą się dyskusję. Stwierdzenie lub stwierdzenie musi być czymś, co rozwścieczy grupę. Jeśli potrafisz rozzłościć tylko jedną osobę, prawdopodobnie nie ma w tym nic złego, ponieważ istnieje duże prawdopodobieństwo, że to wystarczy, aby inni również przyłączyli się do odwrócenia uwagi. Optymalnym rozwiązaniem byłoby wrzucenie do strumienia dyskusji komentarza odbiegającego od sztucznej inteligencji, który zostałby uzyskany wszyscy rozpalić się całkowicie do czerwoności. Zrobienie tego byłoby szczytem sukcesu Edgelorda.

Jakiego rodzaju oświadczenia AI można zastosować?

Rozważ te:

  • Sztuczna inteligencja nas wszystkich zniszczy i musimy natychmiast zaprzestać jej tworzenia (to z pewnością wywoła dyskusję).
  • Sztuczna inteligencja uratuje całą ludzkość przed samą sobą i musimy pozwolić jej na pełną swobodę (trochę prowokujące twierdzenie).
  • Wiem, że sztuczna inteligencja jest świadoma, ponieważ niedawno rozmawiałem z sztuczną inteligencją i ona mi to powiedziała (pamiętaj, że musisz zachować ostrożność podczas korzystania z tej kulki, inni mogą pomyśleć, że straciłeś kulki i całkowicie zignorują tę uwagę, w związku z czym nie złapią przynęty).
  • Posłuchaj mnie uważnie, sztuczna inteligencja nigdy nie będzie istnieć i kropka, koniec historii (być może ma to pewną wartość, ponieważ zakłada się, że może to doprowadzić do dialogu, jaka jest definicja sztucznej inteligencji, ale nie to jest tym, na czym zależy gadaczowi, chce, aby ta sprzeczka odwróciła uwagę i rozproszyła uwagę).
  • Itd.

Zdaję sobie sprawę, że niektórzy z Was są nieco zaniepokojeni faktem, że są to rzekomo prowokacyjne stwierdzenia.

Z pewnością każda z tych uwag ma zdrową wartość. Czy nie powinniśmy się martwić, czy sztuczna inteligencja może nas wszystkich unicestwić? Tak, to z pewnością wydaje się przydatne. Czy nie powinniśmy rozważyć, czy sztuczna inteligencja może ocalić ludzkość i dlatego powinniśmy skoncentrować nasze wysiłki na tej kwestii? Tak, z pewnością tak.

Można w zasadzie przedstawić przekonujący argument, że niemal każdy punkt widzenia lub uwaga na temat sztucznej inteligencji będzie miała przemyślane i pozytywne konotacje. Miejmy nadzieję, że im więcej będziemy omawiać sztuczną inteligencję, tym lepiej będziemy sobie radzić z tym, czym będzie sztuczna inteligencja. Społeczeństwo zdecydowanie powinno zwrócić należytą uwagę na to, co dzieje się ze sztuczną inteligencją. Tym, którzy czasami lekceważą temat sztucznej inteligencji, uznając go za odnoszący się wyłącznie do osób bezpośrednio zajmujących się tą dziedziną, brakuje szerszego zrozumienia wpływu sztucznej inteligencji na społeczeństwo.

Biorąc to pod uwagę, jest odpowiedni czas i miejsce na dyskusję na temat kontrowersyjnych tematów związanych ze sztuczną inteligencją. Przypomnijmy, że Edgelord nie stara się edukować ani informować. Dlatego też wybierają moment wprowadzenia kontrowersji dotyczących sztucznej inteligencji, aby jedynie podsycić chaotyczne argumenty. Istnieje nadzieja, że ​​ślepy będzie prowadził ślepego w tym sensie, że ci, którzy nie mają żadnej wiedzy merytorycznej na temat sztucznej inteligencji, nieumyślnie nakłonią innych do równie bezsensownej argumentacji. To będzie wspaniała kula kurzu pełna brudu i brudu. Trudno powiedzieć, że omawianie tych drażliwych tematów dotyczących sztucznej inteligencji poprawi czyjeś zrozumienie, skoro prowokator celowo wywołał kontrowersje w okolicznościach, o których wie lub w co wierzy, że wywołają dużo oburzenia i dadzą niewiele, jeśli w ogóle, rozsądnego światła.

Zanim zagłębimy się w kolejne bzdury na temat dzikich i wełnistych rozważań leżących u podstaw prowokacji na temat sztucznej inteligencji, ustalmy kilka dodatkowych podstaw na niezwykle istotne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do skupienia się na drwieniu z AI.

Łotry z Edgelord rozszerzyły się na to, co stało się obecnie ich ulubionym podtematem sztucznej inteligencji wzmacniającym awantury, czyli etyką sztucznej inteligencji. Tak, goaderzy odkryli, że oburzające komentarze na temat etyki sztucznej inteligencji są idealną pożywką dla ludzi, którzy interesują się sztuczną inteligencją. Podczas gdy osoby niebędące sztuczną inteligencją mogą nie wiedzieć, czy zjadliwa uwaga na temat etyki sztucznej inteligencji jest godna gniewu, ludzie przesiąknięci sztuczną inteligencją to wiedzą.

Oto najnowsza praktyczna zasada zakłócania porządku:

a) W przypadku osób niebędących sztuczną inteligencją przekaż ogólne uwagi na temat tego, jak sztuczna inteligencja nas wszystkich zniszczy lub uratuje

b) W przypadku osób zajmujących się sztuczną inteligencją rzucaj ostrą jak brzytwa krytykę etyki sztucznej inteligencji i obserwuj, jak lecą iskry

c) Nie marnuj zjadliwych uwag na temat etyki sztucznej inteligencji na osoby, które nie mają sztucznej inteligencji, ponieważ i tak tego nie zrozumieją (a zatem nie wpadną w szał)

d) Nie używaj ostrych uwag na temat sztucznej inteligencji jako destrukcyjnej lub oszczędzającej nas na ludziach zajmujących się sztuczną inteligencją, ponieważ słyszeli to już wiele razy i przyzwyczaili się do tego (odpowiednio wyciszając swoje reakcje)

Jakiego rodzaju komentarze prowokujące do etyki AI można wykorzystać?

Wypróbuj te dla rozmiaru:

  • Sztuczna inteligencja zawsze będzie uczciwa i całkowicie bezstronna
  • Sztuczna inteligencja jest całkowicie godna zaufania
  • Sztuczna inteligencja zapewnia całkowitą ochronę naszej prywatności
  • AI nigdy nie może zrobić nic złego
  • AI gwarantuje bezpieczeństwo ludzkości
  • Sztuczna inteligencja zawsze będzie szanować ludzi
  • Itd.

Każdy godny zaufania etyk AI będzie miał bolesną reakcję na tego rodzaju twierdzenia. Jedną z odpowiedzi byłoby spokojne i systematyczne wyjaśnianie, dlaczego te komentarze są błędne. Dobra wiadomość dla gaduła jest taka, że ​​osoba reagująca robi to, czego on chce i chwyciła przynętę.

Goader jednak tak naprawdę pragnie czegoś więcej, na przykład cudownie niestabilnej i ognistej reakcji.

Jeśli uczestnik grupy zareaguje, mówiąc coś w rodzaju tego, że są to najbardziej szalone i najbardziej błędne uwagi, jakie kiedykolwiek widział w życiu, goader zacznie tańczyć ceremonialny jig typu hit-the-jackpot. Respondent waha się przed wysadzeniem stosu. Jeśli nie stanie się to naturalnie, goader dołoży ostatniej kropli, aby przełamać grzbiet wielbłąda. Szybka reakcja goadera polegająca na dogmatycznym stwierdzeniu, że uwaga ta jest absolutną, nielakierowaną, prostą i niezaprzeczalną prawdą, prawie na pewno spowoduje pęknięcie tamy.

Inny wariant tych wybuchających głową uwag jest następujący, chociaż nie są one tak pewne:

  • Sztuczna inteligencja nigdy nie będzie sprawiedliwa i całkowicie bezstronna
  • AI nigdy nie jest godna zaufania
  • Sztuczna inteligencja gwarantuje, że nasza prywatność jest całkowicie niechroniona
  • AI nigdy nie będzie miała racji
  • Sztuczna inteligencja gwarantuje ludzkości całkowity brak bezpieczeństwa
  • AI nigdy nie będzie szanować ludzi
  • Itd.

Myślę, że prawdopodobnie domyślasz się, dlaczego te uwagi nie są tak mocne. Na przykład pierwszy punkt mówi, że sztuczna inteligencja to zrobi nigdy bądź uczciwy i bezstronny. Można w pewnym sensie wysunąć logiczny argument, że jest w tym ziarno prawdy, chociaż słowo „nigdy” jest pewnym semantycznym oszustwem i sprawia, że ​​jest to twierdzenie zdecydowanie dyskusyjne. Porównaj sformułowanie z wcześniejszym stwierdzeniem, które twierdziło, że sztuczna inteligencja tak zrobi zawsze bądź uczciwy i bezstronny. Słowo „zawsze” ma potężną konotację, która podnieci każdego etyka AI.

Jeśli te zjadliwe komentarze Cię zaniepokoiły, odetchnij.

Aby cię poinformować, zachowałem najbardziej jadowite z kwaśnych uwag, aby ułatwić ci przejście do tej ostatniej, którą na razie się z tobą podzielę. Jeśli należysz do osób, które łatwo ulegają pobudzeniu, możesz usiąść i usiąść przy tym. Upewnij się, że w pobliżu ciebie nie ma nic, co mogłoby się stłuc, w przeciwnym razie możesz odruchowo uderzyć i wyrzucić pobliską roślinę doniczkową przez okno kuchenne.

Czy jesteś gotowy?

Pamiętaj, że dałem ci mnóstwo ostrzeżeń z wyprzedzeniem.

Tutaj jest:

  • Etyka AI to kupa bzdur i całość powinna zostać spuszczona do ścieków.

Chodzi!

To słowa wywołujące zacięcie.

Goader zwykle trzyma to szczególnie złośliwą wypowiedź w tylnej kieszeni i wyciąga ją tylko wtedy, gdy jakakolwiek osoba zajmująca się sztuczną inteligencją sprzeciwia się innym zjadliwym uwagom na temat etyki sztucznej inteligencji. Jest to bazooka używana przez władców krawędzi, którzy chcą wysłać sumiennych ludzi AI w powietrze nad krawędź i w roztargnioną i kłótliwą otchłań.

Dla tych z Was, którzy już na tym grali, zakładam, że jesteście teraz przygotowani, aby sobie z tym poradzić. Później powiem więcej o tym, jak reagować na tego rodzaju wywołujące wściekłość uwagi.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na cokolwiek, co dotyczy prowokacji na temat sztucznej inteligencji, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i narzekanie na sztuczną inteligencję

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Zastanówmy się, jakiego rodzaju żartów na temat sztucznej inteligencji może używać Edgelord w kontekście samochodów autonomicznych opartych na sztucznej inteligencji. Przydatnym aspektem jest to, że trzeba dużo naciskać przyciski pojazdów autonomicznych i ludzi AI, co można łatwo wymyślić w dziedzinie pojazdów autonomicznych. Należy także zdać sobie sprawę, że można je potencjalnie wykorzystać w dowolnym rodzaju samobieżnego transportu, w tym w samochodach autonomicznych, ciężarówkach autonomicznych, hulajnogach autonomicznych, motocyklach samojezdnych, łodziach podwodnych z własnym napędem, dronach z własnym napędem, pojazdach autonomicznych do kierowania samolotami, autonomicznymi statkami i innymi pojazdami autonomicznymi.

Przedstawiam Wam kilka ulubionych obecnie używanych:

  • Sztuczna inteligencja nigdy nie będzie w stanie samodzielnie prowadzić samochodu
  • AI nigdy nie będzie bezpieczna podczas jazdy
  • Sztuczna inteligencja nigdy nie zastąpi ludzkich kierowców
  • Sztuczna inteligencja przejmie nasze pojazdy i będziemy zdani na jej całkowitą łaskę
  • Itd.

Wszystkie te uwagi są warte argumentacji.

Omówiłem każdy z nich w moich felietonach i nie będę tutaj powtarzał moich analiz.

W tej chwili chodzi o to, że są to komentarze celowo skonstruowane, aby wzbudzić zainteresowanie wśród tych, którzy opowiadają się za pojazdami autonomicznymi i autonomicznymi. Jeszcze raz powtarzam, nie sugeruję, że są to niegodne uwagi, a jedynie podkreślam, że jeśli prowokator chce odwrócić uwagę od rozmowy, która w przeciwnym razie nie miałaby nic wspólnego z tymi sprawami, jest dobrze nastawiony na wywołanie zamieszania.

Wnioski

Ponieważ do tej pory możesz się wściekać z powodu tych wszystkich zgryźliwych komentarzy, których używają goaderzy, przejdziemy do uspokajającej, medytacyjnej przestrzeni mentalnej. Zanim wpadniesz w senny stan psychiczny, wiedz, że ci Edgelordowie coraz częściej używają chatbotów AI, aby wykonać za nich brudną robotę. Oznacza to, że goaderzy mogą zwielokrotnić swoje destrukcyjne wysiłki konwersacyjne na masową skalę. To jest proste, jak tylko może być. Za pomocą kilku naciśnięć klawiszy mogą skierować swoją armię chatbotów internetowych „wspomaganych przez sztuczną inteligencję” do zanurzenia się w dialogach i wygłaszania mnóstwa wywołujących gniew, bombowych wypowiedzi.

Cóż, może to nie pomogło ci stać się medytacyjnym i spokojnym.

Znajdźmy wszyscy spokojną chwilę i zamiast tego pomyślmy o Bambi.

Bambi może nam zaoferować ciekawe spostrzeżenia na ten temat. Zakładam, że znasz na pamięć historię Bambiego, młodego jelonka. W pewnym momencie pochopny i dziecinny królik o imieniu Thumper spotyka Bambiego. Z przysłowiowych ust lasek wychodzi komentarz Thumpera, który wydaje się raczej ostry i niestosowny, a mianowicie, że Bambi wydaje się być trochę chwiejny. W pobliżu stoi matka Thumpera.

Przypomina Thumperowi mądrość, którą przekazał tego samego ranka ojciec Thumpera: „Jeśli nie możesz powiedzieć czegoś miłego, nie mów nic”.

Chcielibyśmy, aby władcy krawędzi i łowcy jawnie przyjęli tę radę. Niestety, jedna rzecz, która wydaje się niezawodnie gwarantowana na tym świecie, to to, że na pewno nic nie powiedzą. Mają motywację, żeby coś powiedzieć. A to, co powiedzą, jest złośliwie obliczone na wywołanie burzy. Burza nie będzie miała innego celu niż sianie spustoszenia.

Co możesz z tym zrobić?

Po pierwsze, nie graj w ich grę. Jeśli zostaniesz wciągnięty w tunel czasoprzestrzenny słownych kłótni, będzie ci trudno się z niego wydostać. Później, gdy już wszystko będzie jasne, istnieje prawdopodobieństwo, że spojrzysz wstecz na to, co się wydarzyło i będziesz kopał się za wplątanie się w spisek. Jak powiedziałem wcześniej, wejście w błoto ze świnią powoduje tylko błoto i niestety powoduje zapłon i wzmacnia zachowanie bestii.

Spróbuj zignorować goader'a.

Jeśli nadal będą się utrzymywać, sprawdź, czy istnieją sposoby, aby odciąć ich od rozmowy.

Uważaj, aby nie zrobić tego na podstawie fałszywie pozytywnego wyniku. Nie zamykaj wypowiedzi osoby, która może legalnie i szczerze próbować wziąć udział w dyskusji. Ci, którzy wydają się być w tym obozie, prawdopodobnie zrozumieją, kiedy grzecznie ich poinformujesz, że to nie czas i miejsce na poruszaną przez nich sprawę. Spróbuj zasugerować, kiedy ich uwagi mogłyby lepiej zostać rozpatrzone.

Tym z Was, którzy myślą, że uda wam się zmienić Edgelorda lub Goader'a i nakłonić ich do rozpoczęcia nowego rozdziału, życzę powodzenia. To nie będzie łatwe. To może być niemożliwe.

Zgodnie ze słynnymi słowami Mahatmy Gandhiego: „Nie możesz zmienić tego, jak ludzie Cię traktują i co o Tobie mówią. Jedyne, co możesz zrobić, to zmienić sposób, w jaki na to reagujesz.

Czasami to najwięcej, do czego możesz dążyć.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/10/ai-ethics-exasperated-by-those-gaslighting-ai-focused-edgelords-that-goadingly-say-outlandishly-infuriating- rzeczy-o-etyce-AI-i-systemach-autonomicznych-AI/