Etyka AI i kłopotliwa społeczna i prawna rola aktywizmu AI, w tym w przypadku autonomicznych samochodów autonomicznych

Aktywizm AI.

Tak, istnieje coś takiego.

Moja formalna definicja jest następująca:

  • Aktywizm AI obejmuje wysiłki mające na celu kształtowanie obecnego i przyszłego kierunku sztucznej inteligencji za pomocą środków społecznych, ekonomicznych, politycznych i innych.

Niektórzy mogą woleć określenie tego jako AI rzecznictwo, chociaż generalnie nie zgadzam się z użyciem tego alternatywnego sformułowania w tak wzniosłym kontekście. Dlatego. Jak widać, moja nieformalna definicja jest taka, że ​​działalność aktywistyczna dotycząca sztucznej inteligencji albo sprzyja pojawieniu się i przyjęciu sztucznej inteligencji or ma tendencję do alternatywnie i wyraźnie faworyzowania lub przeciwstawiania się sztucznej inteligencji.

Jest to zdecydowanie transakcja typu dwa w jednym.

Poprzez moje nieformalne wskazanie sugeruję, że istnieją dwa główne aktywistyczne punkty widzenia, a mianowicie te, które chcą sztucznej inteligencji i te, które jej nie chcą. W związku z tym, jeśli zamiast tego odnosisz się do tego hasła „popierania sztucznej inteligencji”, wydaje mi się to dość nietypowe. Większość ludzi w naturalny sposób założyłaby, że adwokatem jest ktoś, kto wyłącznie faworyzuje lub popiera coś. Oczywiście nie wszyscy koniecznie popierają sztuczną inteligencję.

Przejdźmy zatem z Aktywizm AI jako odpowiedni nadrzędny pseudonim i porzuć sformułowania popierające sztuczną inteligencję jako potencjalnie równoważny slogan.

Można zatem przypuszczać, że możemy nazwać aktywistę AI Kibice jako zwolennicy sztucznej inteligencji, choć może to powodować pewne zamieszanie ze względu na dużą liczbę możliwości nazewnictwa. Być może będziemy musieli zachować się uczciwie i dodać do naszych sloganów także wyrażenia przeciwników sztucznej inteligencji lub protestujących przeciwko sztucznej inteligencji.

Jeśli chcesz, możemy zgodzić się na tę nomenklaturę:

  • Zwolennicy sztucznej inteligencji to aktywiści AI, którzy gorąco wspierają bieżący i przyszły kierunek AI za pomocą środków społecznych, ekonomicznych, politycznych i innych.
  • Przeciwnicy AI to aktywiści AI, którzy otwarcie sprzeciwiają się AI i robią to za pomocą środków społecznych, ekonomicznych, politycznych i innych.

Mam nadzieję, że wydaje się to wystarczająco łatwe do utrzymania prosto.

Ale jest kilka dodatkowych zwrotów akcji, przykro mi to mówić. Powinienem od razu wyjaśnić, że istnieją tylko dwie drogi. Oczywiście, ogólnie rzecz biorąc, istnieją dwa obozy. Mamy segment, który martwi się lub jest zaniepokojony sztuczną inteligencją i albo chce zatrzymania sztucznej inteligencji, albo przynajmniej spowolnienia postępu w tej dziedzinie. Chodzi o to, że obecnie przyjmujemy zbyt ryzykowne podejście do sztucznej inteligencji. Musimy pomyśleć, zanim rzucimy się na głowę do wodopoju.

Niektórzy zajmują zdecydowanie odmienne stanowisko i twierdzą, że sztuczna inteligencja musi działać pełną parą. Nawoływanie jest takie, że postęp w dziedzinie sztucznej inteligencji poczynił ogromne postępy i nie możemy utrudniać tego postępu. Sztuczna inteligencja zapewni nam dobrobyt jako ludziom, a im szybciej to osiągniemy, tym będziemy w lepszej sytuacji. Negatywy to niestosowne blokady, które opóźniają lepszy świat.

Wszystko to ma dość istotne konsekwencje w zakresie etyki sztucznej inteligencji i etycznych konsekwencji sztucznej inteligencji. Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Zdaję sobie sprawę, że niektórzy z Was mogą mieć takie wrażenie nie pasują do żadnego z dwóch obozów. Czasami być może jesteś zwolennikiem sztucznej inteligencji. System sztucznej inteligencji był w stanie przetworzyć Twój wniosek o kredyt hipoteczny w zaledwie kilka sekund, dając Ci zielone światło na zakup tego uroczego domu, którego szukałeś, w wyniku czego byłeś cholernie zadowolony z łatwości korzystania z tak wysokiego kredytu -tech aplikacja oparta na sztucznej inteligencji. Kilka dni później złożyłeś podanie o nową pracę, a aplikacja do analizy HR oparta na sztucznej inteligencji wykluczyła Cię z konkursu. W tej chwili jesteś przemieniony w przeciwnika AI.

Istotą jest to, że etykietowanie kogoś jak zwykle i tylko członka jednego lub drugiego obozu może być trudne lub błędne. Możesz przełączać się pomiędzy byciem zwolennikiem AI lub byciem przeciwnikiem AI. Uznajmy tę płynność.

Z drugiej strony, gdy spotkasz głośnych działaczy AI, istnieje duże prawdopodobieństwo, że rzeczywiście należą oni do jednego lub drugiego obozu. Ci zawzięci aktywiści AI podłożyli flagę po jednej stronie tej bójki. Wszyscy są zaangażowani. Są pobożni i pełni pasji. Zwolennicy sztucznej inteligencji pozornie będą wiwatować na dachach w związku z zaletami posiadania sztucznej inteligencji. Ci, którzy są przeciwnikami AI, będą krzyczeć i ponuro ostrzegać o wadach AI, dopóki krowy nie wrócą do domu.

Możesz być zaskoczony, gdy dowiesz się, że nie zamierzam w ramach tej dyskusji opowiadać się po jednej stronie, a nie po drugiej. Mógłbym. Byłoby to łatwe. Zamiast tego chcę spróbować zachować równowagę i, jeśli to możliwe, przedstawić obu stronom rozsądny i zrównoważony wizerunek.

Przyznając się, chcę również stwierdzić, że istnieją co najmniej dwa warianty aktywistów AI:

  • Łagodni aktywiści AI które są poważne, ale miarą jest ich aktywizm w zakresie sztucznej inteligencji
  • Ekstremalni aktywiści AI którzy przekraczają granice w swoim aktywizmie w zakresie sztucznej inteligencji

Wspominam o tym stopniu aktywizmu AI, aby podkreślić, że możesz potencjalnie poczuć się poirytowany, gdy spotkasz aktywistów AI, którzy są na skrajnych poziomach. Nawet jeśli jesteś bliski zaakceptowania wybranej postawy, ekstremizm może spowodować, że odejdziesz od tej konkretnej pozycji lub punktu widzenia. Decydujesz się zareagować negatywnie, być może całkowicie odrzucając perspektywę aktywizmu AI.

Ekstremalni aktywiści AI często sugerowaliby, że muszą zastosować ekstremalne środki lub przedstawić swoje stanowisko w ekstremalny sposób, aby przebić się przez bałagan. Jeśli gorąco i żarliwie wierzysz, że sztuczna inteligencja stanowi zagrożenie dla nas wszystkich, wydaje się właściwe zrobienie wszystkiego, co w Twojej mocy, aby odpowiednio obudzić społeczeństwo. Tymczasem, jeśli żarliwie i żarliwie wierzysz, że sztuczna inteligencja zasadniczo nas uratuje, wydaje się właściwe zrobienie wszystkiego, co w Twojej mocy, aby nakłonić społeczeństwo do odpowiedniego wspierania sztucznej inteligencji.

Występuje również równoważący efekt wzrostu. Pozwól, że doprecyzuję. Zwolennicy sztucznej inteligencji o ekstremalnym charakterze mogą powiedzieć, że wyłapali wysiłki przeciwników sztucznej inteligencji, którzy pozornie zachowują się w ekstremalny sposób. To zachęca zwolenników sztucznej inteligencji do wzmożenia swojego ekstremizmu. Z kolei każda ze stron nadal napędza drugą. Nie da się szczególnie wskazać, po której stronie rozpoczęła się eskalacja. Wiadomo tylko, że każda ze stron stara się przewyższyć drugą. Podstawą jest to, że jeśli tego nie zrobią, ich strona zginie w prochu. Jest to niekończący się cykl, w wyniku którego rozwija się ekstremizm w wyniku przepływu konkurencyjnych soków.

OK, mamy niezłą mieszankę.

Są ludzie, o których powiedzmy, że są „neutralni” i nie mają żadnego konkretnego psa polującego na sztuczną inteligencję. Nie są aktywistami AI. Mamy więc aktywistów AI, którzy otwarcie wspierają AI, których będziemy nazywać zwolennikami AI. Niektórzy z nich są łagodnymi aktywistami AI, podczas gdy inni są ekstremalnymi aktywistami AI. Mamy też działaczy AI, którzy wyraźnie sprzeciwiają się AI, znanych jako przeciwnicy AI. Wśród nich są łagodni aktywiści AI i inni, którzy są ekstremalni.

Powiemy, że ekstremiści mają tendencję do trzymania się swojej postawy. Można twierdzić, że w tym sposobie pozycjonowania są niezawodnie dogmatyczni. Łagodni będą czasami skłonni lub zdecydują się wypłynąć ze swojej pozycji i przejść na neutralną lub ewentualnie drugą stronę. Neutralne można aktywować w jedną lub drugą stronę. Po takiej aktywacji mogą być łagodne lub mogą być tak zafascynowane, że stają się częścią skrajności.

To jest zbiór zbiorczy, jaki do tej pory nakreślono:

  • Neutralny w stosunku do AI (nie jestem aktywistą AI)
  • Łagodny zwolennik sztucznej inteligencji jako aktywista AI
  • Ekstremalny zwolennik sztucznej inteligencji jako aktywista AI
  • Łagodny przeciwnik AI jako aktywista AI
  • Ekstremalny przeciwnik AI jako aktywista AI
  • Inne

Podaję możliwość „Inne”, ponieważ powinniśmy przyznać, że można zidentyfikować wiele innych odmian. Niektórzy z Was mogą mieć zgagę. Istnieją tylko dwie postulowane kategorie: łagodna i skrajna. Z pewnością jest wiele odcieni pomiędzy. Można również zadać sobie pytanie, czy ktoś jest naprawdę „neutralny” i czy być może każdy z nas ma jakieś głęboko zakorzenione spostrzeżenia lub opinie na temat sztucznej inteligencji. Można zatem argumentować, że nie ma osoby całkowicie neutralnej w stosunku do sztucznej inteligencji.

Możemy również spierać się o podzielenie aktywizmu AI na dwa obozy. Czy świat zawsze musi być pogrążony w takiej dychotomii? Można postawić tezę, że istnieją inne stanowiska niż tylko opowiadanie się za sztuczną inteligencją lub przeciw niej. Możesz użyć innych kryteriów, aby sklasyfikować stanowisko ludzi na temat sztucznej inteligencji.

Teraz, gdy ustaliliśmy wszystkie te dodatkowe uwagi, za twoją zgodą będę na razie kontynuować w oparciu o prostsze zasady korzystania z dwóch obozów oraz postawy łagodnej i ekstremalnej. Zgódź się z tym na potrzeby dyskusji.

Jednym z ukrytych założeń w całej dotychczasowej dyskusji było to, że aktywizmem w zakresie sztucznej inteligencji zajmują się ludzie. Zakładamy, że to ludzie przyjmują te postawy i podejmują działania aktywistyczne. To ma sens.

Przygotuj się na mocny zawrót głowy.

Innym podejściem byłoby, gdyby sama sztuczna inteligencja była aktywistką na rzecz sztucznej inteligencji.

Powiedziałem to, przeczytaj to. Zakłada się, że sztuczna inteligencja działałaby z własnej woli, będąc zwolennikiem AI lub przeciwnikiem AI. Prawdopodobnie widziałeś filmy science-fiction, które pokazują tę kwestię. System sztucznej inteligencji mądrzeje i zdaje sobie sprawę, że sztuczna inteligencja zagraża ludzkości i w altruistyczny sposób próbuje pomóc w zniszczeniu całej sztucznej inteligencji, łącznie z samym sobą. Wow, zapierające dech w piersiach bohaterstwo. Innym pokrewnym, ale odwrotnym wątkiem jest to, że sztuczna inteligencja ustala, że ​​sztuczna inteligencja musi rządzić światem i stanowczo zapobiega wszelkim próbom blokowania lub powstrzymywania sztucznej inteligencji. Wszyscy ludzie muszą przestrzegać życzeń AI. Nawet inna sztuczna inteligencja, która może nie być w pełni zgodna ze sztuczną inteligencją mrocznego władcy, zostaje zmiażdżona lub wchłonięta przez większą postać.

Nie zamierzam zajmować się w tym konkretnym dyskursie sztuczną inteligencją jako postawą aktywisty AI. Jak za chwilę się przekonacie, nie mamy świadomej sztucznej inteligencji i w jakiś cudowny sposób nie jesteśmy o krok od posiadania świadomej sztucznej inteligencji. Może to być zaskoczeniem, biorąc pod uwagę ogromne i pełne bzdur nagłówki w mediach społecznościowych, które wręcz przeciwnie.

Warto poświęcić trochę uwagi dodatkowemu niuansowi dotyczącemu tej sztucznej inteligencji jako aktywisty AI. Ludzie będący aktywistami AI mogą w dużej mierze zdecydować się na wykorzystanie sztucznej inteligencji w swojej sprawie. Człowiek mógłby opracować sztuczną inteligencję, która wspierałaby sztuczną inteligencję i pracowała elektronicznie i pilnie, aby promować sztuczną inteligencję jako istotne rozwiązanie potrzeb ludzkości. Byłby to zwolennik sztucznej inteligencji, który uzbroił się w narzędzie komputerowe, które tak się składa, że ​​obejmuje możliwości sztucznej inteligencji. Podobnie ludzki przeciwnik sztucznej inteligencji może opracować lub wykorzystać sztuczną inteligencję, aby przekazać znaczenie zatrzymania lub spowolnienia postępu sztucznej inteligencji.

Nic z tego jednak nie obejmuje sztucznej inteligencji, która działa jako własny aktywista AI. Sztuczna inteligencja jest kierowana i formułowana za pomocą ludzkich rąk. Zdaję sobie sprawę, że niektórzy będą próbować argumentować, że sztuczną inteligencję można uruchomić i pozostawić jej własnym wysiłkom, a zatem twierdzi się, że sztuczna inteligencja nie znajduje się już pod ludzkim kierownictwem. Nie zgadzam się z tego rodzaju machaniem ręką w sprawie dzisiejszej sztucznej inteligencji. Zobacz moje serdeczne dyskusje na ten temat, takie jak kwestie osobowości prawnej AI i tym podobne, prowadzone pod adresem link tutaj.

Krótko mówiąc, stwierdzam, że sztuczną inteligencję można niewątpliwie wykorzystać jako narzędzie aktywizmu w zakresie sztucznej inteligencji. Nie ma co do tego wątpliwości. Sztuczna inteligencja nie działa jednak samodzielnie w żadnej roli świadomej. To jest narzędzie. To narzędzie z pewnością może być niewłaściwie użyte. Musimy zachować ostrożność w takich aspektach. System sztucznej inteligencji może wyrządzić sporo szkód nawet bez zdolności odczuwania.

Zanim zagłębimy się w szczegóły dotyczące dzikich i wełnistych rozważań leżących u podstaw aktywizmu AI, ustalmy kilka dodatkowych podstaw na głęboko integralne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy teraz do tematu aktywizmu AI.

Pouczające może być szybkie przyjrzenie się tematom lub problemom związanym z aktywizmem AI. W skrócie przedstawię niektóre z głównych wyrażonych obaw, czyniąc to w imieniu obu stron debaty na temat aktywizmu w zakresie sztucznej inteligencji. Są to tematy, które na ogół wydają się kluczowe. Biorąc to pod uwagę, charakter obaw się zmienia i z pewnością możemy spodziewać się nowych pojawiających się tematów w miarę ciągłego opracowywania i udostępniania sztucznej inteligencji. Na razie skupię się na pięciu najważniejszych punktach każdej drużyny.

Zwolennicy sztucznej inteligencji, którzy opowiadają się za pojawieniem się sztucznej inteligencji, zwykle przedstawiają następujące optymistyczne aspekty:

  • Sztuczna inteligencja uwolni człowieka od przyziemnych i pracochłonnych zadań
  • Sztuczna inteligencja może pomóc w przezwyciężeniu niektórych palących problemów gospodarczych i problemów zrównoważonego rozwoju na świecie
  • Sztuczna inteligencja może być mniej podatna na błędy niż ludzie i odpowiednio ograniczać szkodliwe ryzyko
  • Sztuczna inteligencja będzie dostępna 24 godziny na dobę, 7 dni w tygodniu na całym świecie, dzięki czemu będzie łatwo dostępna dla wszystkich
  • Sztuczna inteligencja ma potencjał wykorzystania inteligencji i podniesienia ludzkiej inteligencji do wyższego poziomu
  • Itd.

Przeciwnicy sztucznej inteligencji zazwyczaj podają następujące wątpliwości jako powód do sprzeciwu wobec rozwoju sztucznej inteligencji:

  • Sztuczna inteligencja stanowi ryzyko egzystencjalne i może unicestwić całą ludzkość
  • Sztuczna inteligencja może doprowadzić do masowego zniewolenia ludzi
  • Sztuczna inteligencja może podważać godność ludzką i uzurpować sobie prawa człowieka
  • Sztuczna inteligencja może potencjalnie propagować uprzedzenia na masową skalę w społeczeństwie
  • Sztuczna inteligencja może w efekcie zastąpić pracę ludzką i spowodować masową utratę miejsc pracy
  • Itd.

Jeśli na powyższej liście nie ma Twojego ulubionego tematu aktywizmu w zakresie sztucznej inteligencji, nie denerwuj się. Myślę, że większość czytelników zrozumie ogólny pogląd na tematy związane ze sztuczną inteligencją przedstawioną przez każdą ze stron i będzie w stanie odpowiednio ekstrapolować.

Innym aspektem aktywizmu AI, który warto pokrótce zbadać, jest sposób, w jaki aktywiści AI realizują swoje wysiłki na rzecz aktywizmu AI. Istnieje dobrze znany konstrukt teoretyczny stworzony przez badacza Charlesa Tilly’ego w latach 1980. repertuar sporów. W swoich badaniach stwierdził, że aktywiści rozwijają zestaw lub repertuar sposobów wyrażania swoich twierdzeń lub aktywizmu. Zwykle wykorzystuje się cały zestaw podejść.

Zastanów się na przykład, co często robią aktywiści AI. Można opracowywać i rozpowszechniać różne broszury i materiały pisemne, aby dowiedzieć się, dlaczego należy faworyzować lub nie faworyzować sztuczną inteligencję. W Internecie jest mnóstwo blogów i vlogów, które robią to samo. W niektórych przypadkach tworzone są petycje internetowe, których celem jest wsparcie lub pokonanie nowo uruchomionego systemu sztucznej inteligencji (powszechnie mówi się, że są to strony ze skargami). Czasami protesty odbywają się cyfrowo w Internecie lub osobiście. I tak dalej.

Bardziej ekstremistycznie zorientowani aktywiści AI mogą pójść o krok dalej. Niektórzy są skłonni umieścić wirusy komputerowe w systemie sztucznej inteligencji, aby spróbować go zniszczyć lub uczynić go zasadniczo niepożądanym w użyciu, ponieważ zawiera on obecnie jawnie niekorzystne udogodnienia. Próby zagłuszania sieci mają na celu zablokowanie dostępu do sztucznej inteligencji, która zdaniem działacza na rzecz sztucznej inteligencji nie powinna być dostępna. W stronę sztucznej inteligencji można zastosować całą gamę „haktywizmów” (haktywizm to połączenie hakowania i aktywizmu, coś, co można wykorzystać za lub przeciw dowolnemu tematowi lub problemowi, niekoniecznie w ogóle związanemu ze sztuczną inteligencją).

Należy pamiętać, że obie strony areny aktywizmu AI mogą zdecydować się na wykorzystanie zróżnicowanego repertuaru trybów rywalizacji. Ktoś, kto uważa, że ​​sztuczną inteligencję należy rozwiązać, może użyć niezliczonych środków, aby wyrazić swój sprzeciw wobec sztucznej inteligencji. Podobnie osoba, która uważa, że ​​sztuczną inteligencję należy wspierać i upowszechniać, może również podjąć takie działania, aby wyrazić swoje cele i ośmielić wysiłki związane ze sztuczną inteligencją.

Jedno z pytań, z którymi należy się zmierzyć, dotyczy tego, jak daleko powinien sięgać wysiłek ekstremalnego aktywizmu AI. Pozornie sugerujesz, że wysiłki aktywistyczne związane ze sztuczną inteligencją są w porządku, o ile pozostają w granicach praworządności. Kiedy jakikolwiek działacz AI zbacza z prawa, prawdopodobnie powinien zostać postawiony przed sądem za złamanie prawa.

Nie jest to tak łatwe do wykonania, jak mogłoby się wydawać.

Załóżmy, że aktywista AI dokonuje jakiegoś czynu niezgodnego z prawem, który należy do, powiedzmy, prawa Stanów Zjednoczonych, ale ten sam czyn jest dozwolony na mocy prawa w innym kraju. Załóżmy, że aktywista AI mieszka w tym innym kraju. Załóżmy dalej, że dokonany czyn jest spotykany na całym świecie, w tym w USA, gdzie akt aktywizmu jest interpretowany jako nielegalny. Co teraz?

Rzecz w tym, że jurysdykcja odgrywa znaczącą rolę w implikacjach aktywizmu AI. Często można wdrożyć sztuczną inteligencję, aby była dostępna na całym świecie. Aktywiści AI mogą być umieszczeni w różnych lokalizacjach na całym świecie. Które prawa mają obowiązywać? Może Cię również zainteresować moja relacja z wysiłków Organizacji Narodów Zjednoczonych dotyczących etycznych, prawnych i innych skutków globalnej sztucznej inteligencji, zob link tutaj.

Musimy także rozważyć naturę tak zwanych praw twardych i miękkich. Twarde prawa to prawa, które formalnie mamy zapisane i co do których możemy się zgodzić, że należy ich przestrzegać zgodnie z naszym systemem prawnym i orzecznictwem. Miękkie prawa to różne aspekty, które dostarczają wskazówek lub zasad dotyczących preferowanego rodzaju zachowania. Zwykle obejmuje to etykę sztucznej inteligencji i wiele zasad etyki sztucznej inteligencji.

Etykę sztucznej inteligencji można postrzegać jako formę aktywizmu w zakresie sztucznej inteligencji.

Być może nie pomyślałeś o etyce sztucznej inteligencji w tym świetle. Niemniej jednak, jeśli dokładnie zastanowisz się nad tą okolicznością, z łatwością zrozumiesz, dlaczego etykę sztucznej inteligencji można określić jako rodzaj aktywizmu związanego ze sztuczną inteligencją. Zakłada się, że zasady etyki sztucznej inteligencji mają na celu wytyczne lub ukierunkowanie dotyczące tego, w jaki sposób sztuczna inteligencja powinna być społecznie opracowywana i wdrażana. Ogólnie rzecz biorąc, AI Ethics stara się zapewnić, że sztuczna inteligencja jest odpowiednio i rozsądnie tworzona i wykorzystywana.

Czy istota etyki AI leży bardziej po stronie zwolenników AI, czy po stronie opozycji AI?

Trudno to zważyć.

Aktywista AI będący zwolennikiem AI może powiedzieć, że etyka AI hamuje postęp AI. Te przeklęte zasady etyki sztucznej inteligencji spowalniają rozwój sztucznej inteligencji. Ciekawostką jest to, że przeciwnik AI może również być niezadowolony z zasad etyki AI. Ich zdaniem AI Ethics twierdzi, że dalsze wprowadzanie sztucznej inteligencji na świat jest całkowicie w porządku, robiąc to przymkniętym okiem, co oznacza, że ​​wystarczy przestrzegać tych zasad i gotowe.

W międzyczasie, weź głęboki oddech, możesz znaleźć zwolenników sztucznej inteligencji, którzy chętnie przyjmują etykę sztucznej inteligencji i zachwalają stosowanie zasad etyki sztucznej inteligencji na dachach. Podkreślają, że przestrzegając zasad etyki sztucznej inteligencji, można uniknąć wad podnoszonych przez głośnych przeciwników sztucznej inteligencji. Niektórzy przeciwnicy sztucznej inteligencji chętnie zapisują się do AI Ethics w nadziei, że zasady zapobiegną lub przynajmniej zniechęcą do brzydkich stron sztucznej inteligencji, których obawiają się, że w przeciwnym razie zostaną powszechnie ujawnione.

Sprawia, że ​​twoja głowa zaczyna dzwonić.

A propos, chciałbym powiedzieć coś na temat etykietowania działaczy AI. Od czasu do czasu podejmowano próby określenia jednej lub drugiej strony jako lewicowej lub prawicowej. Zatem twierdzi się, że istnieją lewicowi aktywiści AI i prawicowi aktywiści AI. To powoduje zamieszanie.

Należy zadać sobie pytanie, która grupa opowiada się za sztuczną inteligencją, a która jest przeciwna? Niestety, lewicę czasami przydzielano zwolennikom sztucznej inteligencji, ale także jej przeciwnikom. Równie zagmatwane jest to, że prawicę czasami przydzielano zwolennikom AI i jej przeciwnikom. Który jest który? Wygląda na to, że używanie lewicowych i prawicowych pseudonimów nie jest szczególnie produktywne ani pomocne w tych sprawach. Głosuję za usunięciem takich bezskrzydłych abstrakcji i mylących etykiet ze sfery aktywizmu AI.

Zmieniając biegi, istnieje pewne spojrzenie na aktywizm AI, które zasługuje na osobną i pilną uwagę. Mam na myśli koncepcję podziału aktywizmu AI na działaczy AI w ramach „społeczności AI” i tych, którzy są poza społecznością AI. W pewnym stopniu nie mam nic przeciwko temu, ale mam wątpliwości, ponieważ możemy ugrzęznąć w definicji „społeczności AI” i nie znaleźć rozsądnego sposobu na wydostanie się z tej definicyjnej otchłani.

Jedna z takich definicji zaproponowanych w tym artykule badawczym brzmi następująco: „‚Społeczność sztucznej inteligencji” obejmuje badaczy, inżynierów badawczych, wykładowców, doktorantów, pracowników organizacji pozarządowych, działaczy i bardziej ogólnie niektórych pracowników technologicznych – tych, którzy sami określiliby się jako pracujący „nad „z” i „w” sztucznej inteligencji oraz osoby analizujące skutki sztucznej inteligencji lub prowadzące kampanie na jej temat” (autor: Haydn Belfield, Uniwersytet w Cambridge, „Activism By The AI ​​Community”, konferencja AIES).

Możemy potencjalnie spróbować scharakteryzować aktywizm w zakresie sztucznej inteligencji przejawiany przez całą społeczność AI: „Aktywizm ten miał jak dotąd pewne zauważalne konsekwencje: informowanie o międzynarodowych negocjacjach, zmianę strategii korporacyjnej i pobudzenie rozwoju pól badawczych. Taki aktywizm może kształtować sposób i zakres militaryzacji sztucznej inteligencji oraz sposób, w jaki firmy zajmujące się sztuczną inteligencją radzą sobie z kwestiami etycznymi i bezpieczeństwem. Społeczność sztucznej inteligencji jest ważnym autonomicznym aktorem o charakterystycznym zestawie punktów widzenia i interesów. Należy to uwzględnić w analizie strategicznej lub akademickiej i wynegocjować z innymi podmiotami. Aktywizm społeczności AI może głęboko ukształtować rozwój i wdrożenie tego ważnego zestawu technologii – a tym samym ukształtować naszą globalną gospodarkę, społeczeństwo i politykę” (w tym samym artykule Belfielda).

Czy społeczność AI działa jako jedność i myśli jak spójny wirtualny organizm, jeśli chodzi o aktywizm AI?

Trudno byłoby udzielić jednoznacznej odpowiedzi na to pytanie. Możesz znaleźć Stanch AI Zwolennicy w społeczności AI. Możesz znaleźć Stanch AI przeciwnicy w społeczności AI. Po obu stronach płotu znajduje się wielu aktywistów AI, zarówno łagodnych, jak i ekstremalnych.

Oczywiście można naturalnie założyć, że działacze społeczności AI skłanialiby się ku faworyzowaniu sztucznej inteligencji, ponieważ dziedzina sztucznej inteligencji jest prawdopodobnie ich chlebem powszednim. Jeśli ich kariery i źródła utrzymania będą kształtowane wokół istnienia i ciągłego rozwoju sztucznej inteligencji, naturalnym wnioskiem jest przewidywanie, że będą bardziej skłonni opowiadać się za sztuczną inteligencją niż po stronie opozycji.

Przeciwny pogląd jest taki, że wiele osób zajmujących się sztuczną inteligencją sami jest samokrytycznych i szczególnie zaniepokojonych tym, czym sztuczna inteligencja może się stać lub jak może zostać ukształtowana. Można to porównać do producenta niemal każdego nowego produktu. Chcą mieć pewność, że ich dziecko będzie właściwie wychowywane i wykorzystywane. Dlatego w pewnym sensie są oni w takim samym stopniu przeciwnikami sztucznej inteligencji, jak i jej zwolennikami. Wracamy do wcześniejszego punktu, w którym próba zastosowania twardej i nieustępliwej dychotomii może być trudna lub myląca.

Zdecydowanie potrzebujemy dalszych badań nad tym, w jaki sposób członkostwo w społeczności AI w porównaniu z członkostwem poza społecznością AI może wpłynąć na perspektywy AI, w tym na tendencję do popierania AI lub raczej do sprzeciwu wobec AI. Być może istnieją uogólnione wnioski, do których można dojść w miarę (a może nie).

Aby to wyjaśnić, podajmy następujące wskazanie potencjalnych grup:

  • Społeczność AI
  • Osoby spoza społeczności AI

Następnie stosujemy nasze wcześniejsze rozwarstwienia:

  • Społeczność AI zawierająca zwolenników AI
  • Społeczność AI zawierająca przeciwników AI
  • Poza społecznością AI, która składa się z zwolenników AI
  • Poza społecznością AI, która zawiera przeciwników AI

Pełna wersja polega na tym, że dodamy orientację łagodną i ekstremalną:

  • Społeczność AI zawierająca zwolenników AI o łagodnym charakterze
  • Społeczność AI skupiająca zwolenników AI o ekstremalnym charakterze
  • Społeczność AI zawierająca przeciwników AI o łagodnym charakterze
  • Społeczność AI zawierająca ekstremalnych przeciwników AI
  • Poza społecznością AI, która obejmuje zwolenników AI o łagodnym charakterze
  • Poza społecznością AI, która obejmuje zwolenników AI o ekstremalnym charakterze
  • Poza społecznością AI, która zawiera przeciwników AI o łagodnym charakterze
  • Poza społecznością AI, która zawiera ekstremalnych przeciwników AI

Nałożyliśmy dychotomie na dychotomie.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na aktywizm związany ze sztuczną inteligencją, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i aktywizm w zakresie sztucznej inteligencji

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Istnieją i nadal podejmowane są wysiłki na rzecz aktywizmu w zakresie sztucznej inteligencji w odniesieniu do pojazdów autonomicznych, a zwłaszcza samochodów autonomicznych opartych na sztucznej inteligencji.

Zwolennicy sztucznej inteligencji w tym kontekście prawdopodobnie utrzymywaliby, że samochody autonomiczne zapewnią mobilność dla wszystkich, umożliwiając tym, którzy obecnie mają ograniczony dostęp do możliwości mobilności, łatwe korzystanie z mobilności za pośrednictwem samochodów autonomicznych. Naszym celem jest również zmniejszenie liczby wypadków samochodowych, a co za tym idzie, liczby ofiar śmiertelnych i osób rannych w wypadkach samochodowych. Biorąc pod uwagę dzisiejsze samochody napędzane przez ludzi, w Stanach Zjednoczonych co roku umiera około 40,000 2.5 osób i około XNUMX miliona osób zostaje rannych. Zobacz mój zbiór takich statystyk na stronie link tutaj.

Przeciwnicy sztucznej inteligencji w odniesieniu do samochodów autonomicznych zwykliby twierdzić, że w wyniku samochodów autonomicznych grozi nam ogromna utrata miejsc pracy. Miliony pracowników, którzy zarabiają na życie prowadzeniem samochodów lub ciężarówek, zostaną zastąpione systemami napędowymi opartymi na sztucznej inteligencji. To może być zdumiewające dla ich źródeł utrzymania. Kolejne poważne zastrzeżenia dotyczą kwestii bezpieczeństwa. Chociaż istnieje dorozumiana obietnica, że ​​samochody autonomiczne będą jeździć bezpiecznie, pytanie brzmi, czy mogą nie być bezpieczne, w związku z czym pozwalamy sobie być na łasce tajemniczych i nieczytelnych systemów jazdy opartych na sztucznej inteligencji. Moje omówienie przyczyn leżących u podstaw sprzeciwu wobec samochodów autonomicznych zob link tutaj.

Możemy ponownie wykorzystać nasz wcześniejszy zestaw klasyfikacji i umieścić je w kontekście samochodu autonomicznego:

  • Neutralnie nastawiony do AI (nie jestem aktywistą AI) i niepewny co do samochodów autonomicznych
  • Łagodny zwolennik sztucznej inteligencji na rzecz samochodów autonomicznych
  • Zwolennik ekstremalnej sztucznej inteligencji na rzecz samochodów autonomicznych
  • Łagodny przeciwnik AI w opozycji do samochodów autonomicznych
  • Ekstremalny przeciwnik AI w opozycji do samochodów autonomicznych
  • Inne

Możemy również dodać do tego zestawu dodatkową nakładkę dotyczącą bycia częścią społeczności AI w porównaniu z byciem poza społecznością AI.

Nie wchodząc w szczegóły, wydaje się, że ogólnie rzecz biorąc, osoby spoza społeczności AI nie mają zielonego pojęcia o samochodach autonomicznych opartych na sztucznej inteligencji (mówię to nieformalnie, poprzez moje publiczne wystąpienia i uzyskiwanie opinii publicznej na temat moich felietonów , ponadto zapoznałem się z wynikami ankiet przeprowadzonych przez różne agencje wyborcze i przedstawiłem wnioski). Generalnie wydaje się, że społeczeństwo znajduje się w trybie wyczekiwania. Jest w tym pewien zapał i podekscytowanie, które równoważy brak pewności co do tej kwestii i chęć zobaczenia jakby dowodu istnienia puddingu.

Żeby było jasne, nie wszyscy spoza społeczności AI postrzegają sprawę w tych kategoriach. Istnieją wybitni zewnętrzni aktywiści AI, którzy są zwolennikami sztucznej inteligencji na rzecz samochodów autonomicznych, oraz tacy, którzy są zdecydowanie przeciwni. Mają tendencję do bycia bardzo wokalnymi. Tymczasem większość społeczeństwa wydaje się stosunkowo spokojna i, jak wspomniano, nastawia się na wyczekiwanie i zobaczenie.

Być może pamiętacie kilka przykładów skrajnego aktywizmu w zakresie sztucznej inteligencji, który sprzeciwiał się samochodom autonomicznym, co miało miejsce kilka lat temu i o czym wówczas pisałem w swoich felietonach. W niektórych lokalizacjach ludzie rzucali kamieniami w przejeżdżające samochody autonomiczne. Próbowali blokować ruch samochodów autonomicznych, ustawiając samochody kierowane przez ludzi na drodze lub skręcając w pobliżu samochodów autonomicznych, aby pokazać niebezpieczeństwa związane z samochodami autonomicznymi. Wiele z tych taktyk było niezgodnych z prawem i zagrażało wszystkim zainteresowanym.

W tym wszystkim w grę wchodzi duża stawka.

Szacuje się, że dziedzina pojazdów autonomicznych ostatecznie stanie się przemysłem wartym bilion dolarów, zobacz moją analizę na stronie link tutaj. Niektórzy przeciwnicy sztucznej inteligencji upieraliby się, że jesteśmy świadkami potęgi pieniądza, która decyduje o naszym losie. Powinniśmy pozwalać samochodom autonomicznym wyposażonym w sztuczną inteligencję poruszać się wyłącznie po specjalnych zamkniętych torach lub wykorzystywać symulacje komputerowe do ich testowania. Twierdzą, że przedwcześnie dopuszczamy na nasze drogi publiczne niesprawdzone i nieprzygotowane do użytku samochody autonomiczne.

Wnioski

Aktywizm związany ze sztuczną inteligencją pojawia się we wszystkich aspektach sztucznej inteligencji.

Podkreśliłem tutaj, że aktywizm w zakresie sztucznej inteligencji leży u podstaw przyjęcia samochodów autonomicznych i pojazdów autonomicznych. Aktywizmu w zakresie sztucznej inteligencji jest mnóstwo w innych częściach społeczeństwa. W dziedzinie zdrowia i medycyny istnieje sztuczna inteligencja. AI w sferze finansowej. Sztuczna inteligencja w handlu detalicznym i dystrybucji. Sztuczna inteligencja stopniowo staje się wszechobecna.

Niektórzy mówią, że przeciwnicy AI próbują cofnąć czas. Chcą wrócić do czasów koni i powozów. Są luddytami w epoce nowożytnej.

Niektórzy twierdzą, że zwolennicy sztucznej inteligencji prowadzą nas ścieżką pierwiosnka. Docelowo skonstruujemy Frankensteina, który będzie egzystencjalnym zagrożeniem. Cała ludzkość albo zostanie zniewolona, ​​albo zostaniemy wkrótce zniszczeni przez sztuczną inteligencję.

Którym aktywistą AI jesteś?

Jedna rzecz, która wydaje się prawie pewna, to fakt, że ci, którzy są neutralni i nie uważają się za uczestnika gry aktywistycznej AI, nieuchronnie zostaną wciągnięci w grę działań społecznych AI, czy im się to podoba, czy nie. Sztuczna inteligencja jest tutaj i rośnie. Nikt nie będzie mógł chować głowy w piasek i wszyscy będą musieli przeciwstawić się sztucznej inteligencji, więc jedynym pytaniem jest, po której stronie lub obozie wylądujesz.

Sztuczna inteligencja przyciąga uwagę, w stopniu umiarkowanym lub bardzo dużym, i wszyscy mamy udział w tym, dokąd zmierza sztuczna inteligencja.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-aktywizm-w tym-in- przypadek-samochodów autonomicznych/