Etyka AI zakłócona przez najnowsze chińskie opracowanie sztucznej inteligencji opartej na lojalności wobec partii, atest rozpoznawania twarzy, który może zapowiadać opresyjne systemy autonomiczne

Czy jesteś lojalny?

Teoretycznie możliwe byłoby zbadanie twoich jawnych czynów i upewnienie się, czy przejawiają one lojalność.

Załóżmy jednak, że zamiast tego podjęto próbę odczytania Twoich myśli i w międzyczasie zeskanowania Twojej twarzy w celu określenia Twojego ilorazu lojalności. Jest to niesamowicie natrętne; możesz łatwo potępić. Brzmi jak jeden z tych szalonych filmów science-fiction, które przedstawiają przyszłe dystopijne społeczeństwo.

Na szczęście, szepczesz do siebie ukradkiem, dzisiaj nie mamy czegoś takiego.

Whoa, wstrzymaj konie.

Nagłówki gazet ostatnio donoszą, że artykuł badawczy opublikowany w Internecie w Chinach 1 lipca 2022 r. przedstawia badanie, które rzekomo obejmowało ocenę fal mózgowych ludzi i ich wyrazu twarzy w celu obliczenia, czy są oni lojalni wobec Komunistycznej Partii Chin (KPCh). . A więc proszę bardzo, przyszłość jest coraz bliżej, przynajmniej jeśli chodzi o osiągnięcie dystopijnego społeczeństwa, którego pewnego dnia się obawialiśmy.

Artykuł badawczy szybko zniknął z linku zamieszczonego w Internecie.

Można przypuszczać, że pogarda, która szybko przetoczyła się przez Internet, wystarczyła, aby gazetę usunięto. A może badacze chcą po prostu wprowadzić kilka zmian w sformułowaniach i innych nieszkodliwych poprawek, mając na celu ponowne opublikowanie, gdy będą mieli dokładniejszą szansę na upewnienie się, że „i” jest kropkowane, a wszystkie „t” są skrzyżowane. Musimy mieć oczy szeroko otwarte i zobaczyć, czy gazeta dostanie drugie życie.

Pójdę dalej i dokładnie zagłębię się w to, co wiemy o badaniu badawczym, i spróbuję połączyć fakty na temat znaczenia tego rodzaju prac związanych ze sztuczną inteligencją dla nas wszystkich, wykraczającego daleko poza zakres tego postrzegania jako ograniczone do jednego konkretnego kraju. Moja relacja będzie nieco szersza niż inne niedawne doniesienia na temat tej godnej opublikowania pozycji, więc proszę o wyrozumiałość.

Chciałbym również podkreślić, że z rzekomego artykułu możemy wyciągnąć mnóstwo ważnych lekcji z zakresu etyki sztucznej inteligencji. Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Oto, co dotychczas powiedziano na temat badania.

Najwyraźniej do udziału w eksperymencie dotyczącym postrzegania KPCh zrekrutowano kilku „ochotników”. Nie wiadomo, czy byli to chętni ochotnicy, czy też bardziej podobni do prowokowanych lub może ochotników z przewodnikiem. Na potrzeby dyskusji założymy, że zgodzili się na udział w badaniu.

Mówię o tym, żeby nie być po prostu śmiesznym. Ilekroć przeprowadza się eksperyment z udziałem ludzi, istnieje mnóstwo ogólnie przyjętych praktyk dotyczących rekrutacji i zaangażowania takich podmiotów w wysiłek badawczy. Częściowo nawiązuje to do wcześniejszych badań, które często oszukiwały ludzi lub zmuszały ich do wzięcia udziału w eksperymencie, co czasami prowadziło do niekorzystnych konsekwencji psychologicznych, a nawet szkód fizycznych dla uczestników. Społeczność naukowa usilnie próbowała ograniczyć tego typu podstępne badania i wymaga, aby osobom ubiegającym się o włączenie do badań dotyczących ludzi udzielano wszelkiego rodzaju ujawnień i ostrzeżeń.

Gwoli wyjaśnienia, nie wszyscy stosują się do tak rozważnych i sumiennych wskazówek.

Idąc dalej, według doniesień było 43 badanych i uznano ich za członków Komunistycznej Partii Chin. Należy pamiętać, że dobór obiektów do eksperymentu jest dla niego bardzo istotny i należy go także wziąć pod uwagę przy wszelkich wnioskach, jakie można będzie później wyciągnąć na temat wyników eksperymentu.

Załóżmy, że chcę przeprowadzić eksperyment dotyczący tego, jak ludzie postrzegają uznaną serię Gwiezdnych Wojen. Jeśli wstępnie wybiorę tematy, z których wszyscy stanowczo nienawidzą Gwiezdnych Wojen (jak tacy ludzie mogą istnieć?) i pokażę im klipy wideo z Gwiezdnych Wojen, istnieje duże prawdopodobieństwo, że prawdopodobnie powiedzą, że nadal nie lubią Gwiezdnych Wojen. Opierając się na tym pseudonaukowym eksperymencie, być może podstępnie twierdzę, że ludzie – ogólnie rzecz biorąc – naprawdę nienawidzą Gwiezdnych Wojen, co zostało „udowodnione” (mrugnięcie okiem) w moich „starannie” przygotowanych warunkach badawczych.

Być może nie wiecie, że w pewnym sensie sfałszowałem koło ruletki, wybierając wstępnie tematy, które, jak sądziłem, przyniosą potajemnie pożądane rezultaty. Oczywiście, gdybym zamiast tego celowo zrekrutował ludzi, którzy kochają Gwiezdne Wojny i są zagorzałymi fanami, istnieje duże prawdopodobieństwo, że ogłosiliby, że są zachwyceni oglądaniem tych klipów z Gwiezdnych Wojen. Ponownie, wszelkie wnioski na temat tego, jak ludzie ogólnie reagują na Gwiezdne Wojny, zostaną złagodzone przez wstępnie wybrany zestaw tematów wybranych do wysiłku.

W badaniu skupiającym się na KPCh badani najwyraźniej siedzieli przed kioskiem wideo i czytali różne artykuły na temat polityki i osiągnięć KPCh. Jest to prawdopodobnie uważane za „leczenie eksperymentalne”, na które narażeni są badani. Planując eksperyment, zwykle wymyślasz czynnik lub aspekt eksperymentalny, który chcesz sprawdzić, czy wpłynie on na uczestników.

Najwyraźniej badanym pytaniem badawczym było to, czy przeglądanie tych materiałów będzie miało jakikolwiek wpływ na osoby badane pod względem zwiększenia, zmniejszenia lub zachowania neutralności w odniesieniu do ich późniejszych wrażeń na temat KPCh.

W klasycznej hipotezie zerowej można by tak zaaranżować badanie, aby stwierdzić, że spożywane materiały nie mają wpływu na późniejsze wrażenia wyrażane przez osoby badane. Kiedy już dokonasz porównania ich punktów widzenia na temat KPCh przed i po, spróbujesz statystycznie sprawdzić, czy nastąpiło statystycznie istotne wykrycie zmiany w ich wrażeniach.

Może się zdarzyć, że stan przed i po nie różnią się statystycznie, dlatego można rozsądnie wstępnie stwierdzić, że w przypadku tego konkretnego badania wyświetlone materiały (obróbka eksperymentalna) nie wydawały się mieć wpływu na wrażenia. Z drugiej strony, jeśli istniałaby statystycznie istotna różnica, sprawdzałbyś, czy efekt końcowy był większy niż poprzedni, co pozwala na ostrożną sugestię, że materiały wzmocniły wrażenie (a z drugiej strony medalu, jeśli później było mniej niż przed, co może sugerować, że materiały osłabiły lub obniżyły wrażenia).

Istnieje wiele dokuczliwych nierozwiązanych kwestii, którymi należy się zająć w takim badaniu.

Zwykle chcemy np. mieć tzw. grupę kontrolną, którą będziemy mogli porównać z tymi, które zostaną poddane leczeniu eksperymentalnemu. Dlatego. Załóżmy, że fakt siedzenia przed kioskiem w celu przeczytania materiałów był prawdziwą przyczyną zmiany wrażeń. Może się zdarzyć, że rodzaj zużytych materiałów jest mniej więcej nieistotny dla wpływu wrażenia. Samo siedzenie i czytanie czegokolwiek, na przykład najnowszych historii o kotach, które robią śmieszne rzeczy, może wystarczyć. Dlatego też moglibyśmy zorganizować, aby niektórzy badani znajdowali się w naszej grupie kontrolnej, która miałaby do przeczytania inny materiał, inny niż zasady KPCh i materiały dotyczące osiągnięć.

Nie wiemy, czy zrobiono to w tym przypadku (wydaje się, że nikt jeszcze nie wspomniał o tym aspekcie).

Zdaję sobie sprawę, że denerwuje Cię ta część badania, która wywołała wybuchy medialne. Szybko przejdziemy do tej części.

Jak możemy wykryć, czy osoby biorące udział w tym eksperymencie zareagowały lub zmieniły swoje wrażenia w wyniku czytania wyświetlonych materiałów?

Zwyczajowym sposobem byłoby ich o to zapytać.

Być może wcześniej wypełnilibyście kwestionariusz, w którym zapytaliby ich o wrażenia na temat KPCh. Następnie, po poddaniu się zabiegowi eksperymentalnemu, podobnie jak przy czytaniu wyświetlanych materiałów, mogliśmy przeprowadzić kolejną ankietę. Można następnie porównać odpowiedzi udzielone przez osoby badane przed i po. Gdybyśmy korzystali także z grupy kontrolnej, założylibyśmy, że odpowiedzi grupy kontrolnej nie uległyby istotnej zmianie w porównaniu z sytuacją przed i po (w przekonaniu, że oglądanie historii o bawiących się kotach nie powinno mieć wpływu na ich wrażenia z KPCh).

Zadawanie pytań badanym o wrażenia niekoniecznie jest tak proste, jak mogłoby się wydawać.

Załóżmy, że uczestnicy eksperymentu mają poczucie lub ogólne przekonanie, że chcesz, aby zareagowali na eksperymentalne leczenie w określony sposób. W takim przypadku mogliby celowo wyolbrzymiać swoje reakcje w końcowej fazie podawania eksperymentalnego. Z pewnością byłeś świadkiem takiego zdarzenia. Jeśli przeprowadzam test smaku nowego napoju gazowanego wchodzącego na rynek, mogę zachowywać się tak, jakbym szalenie rozkoszował się napojem gazowanym, robiąc to w nadziei, że może wystąpię w reklamie producenta napoju gazowanego i zyskam zasłużone piętnaście minut sławy .

Istota jest taka, że ​​samo pytanie ludzi o ich opinie nie jest pewnym sposobem oceny zmian. To jedno podejście. Można i często stosuje się inne podejścia.

W jaki sposób w tym konkretnym badaniu zbadano reakcje badanych?

Najwyraźniej zastosowano co najmniej dwie metody. Jedna z metod polegała na skanowaniu twarzy i wykorzystaniu oprogramowania do rozpoznawania twarzy opartego na sztucznej inteligencji w celu oceny reakcji osób badanych. Według doniesień inną metodą była jakaś forma skanowania fal mózgowych. Nie podano jeszcze, jakiego rodzaju urządzenia skanujące fale mózgowe zostały użyte ani jakie oprogramowanie do analizy fal mózgowych oparte na sztucznej inteligencji zostało zastosowane.

Różne raporty wskazują, że w badaniu stwierdzono tak na temat natury eksperymentu: „Z jednej strony można ocenić, w jaki sposób członkowie partii zaakceptowali myśl i edukację polityczną”. W badaniu podobno też o tym wspomniano: „Z drugiej strony dostarczy prawdziwych danych do myślenia i edukacji politycznej, dzięki czemu będzie można ją ulepszyć i wzbogacić”. Badanie przypisano realizacji pod auspicjami kompleksowego Narodowego Centrum Nauki Hefei w Chinach.

Doniesienia mediów sugerują, że badanie nawiązywało do twierdzenia, że ​​skany rozpoznawania twarzy i skany fal mózgowych były w stanie pomóc w wykryciu, że wrażenia po KPCh zostały wzmocnione.

Chciałbym zauważyć, że bez możliwości bezpośredniego przeglądu wykorzystywanych systemów i dokładnego zbadania publikacji naukowych nie znamy szczegółów dotyczących dokładnego wykorzystania tych systemów opartych na sztucznej inteligencji.

Możliwe, że badani reagowali na warunki eksperymentalne, a nie na eksperymentalne leczenie. Na początku każdy, kto bierze udział w badaniu, może być zaniepokojony. Może to udaremnić wszelkie wysiłki związane ze skanowaniem fal mózgowych lub analizą wzorców twarzy. Istnieje również szansa, że ​​poczuli motywację, by zadowolić badaczy, decydując się na wymyślenie pozytywnych myśli po obejrzeniu materiałów, co teoretycznie mogłoby znaleźć odzwierciedlenie w skanach fal mózgowych i skanach twarzy (być może, choć proszę pamiętać, że istnieje wielka toczyły się gorące kontrowersje dotyczące zasadności takich twierdzeń, co za chwilę wyjaśnię), mając nadzieję na wypaczenie wyników i pokazanie, że wywarły one pozytywny wpływ.

W reakcji na Twitterze zasadniczo potępiono, że sam pomysł wykorzystania skanów fal mózgowych wspomaganych przez sztuczną inteligencję i rozpoznawania twarzy jest sam w sobie aktem przerażającym i oburzającym. Z niektórych tweetów wynika, że ​​tylko ludzkie potwory korzystałyby z tego rodzaju urządzeń.

Muszę cię poprosić, żebyś usiadł i przygotował się na coś, co może być niegrzeczną i szokującą niespodzianką.

Na całym świecie jest wielu badaczy, którzy wykorzystują tego typu technologie w swoich badaniach. Z pewnością nie jest to pierwszy przypadek wykorzystania w badaniach ludzi funkcji skanowania fal mózgowych. Z pewnością nie był to pierwszy przypadek wykorzystania rozpoznawania twarzy na ludziach w celach eksperymentalnych. Nawet pobieżne wyszukiwanie w Internecie pokaże Ci mnóstwo badań eksperymentalnych przeprowadzonych w najróżniejszych krajach i laboratoriach, w których używano tego typu urządzeń.

Biorąc to pod uwagę, wykorzystywanie ich do mierzenia lojalności wobec KPCh nie jest czymś, na czym można by się szczególnie skupić. Jak mówią, wykorzystanie takiej sztucznej inteligencji do kontroli rządowej oznacza przekroczenie czerwonej linii.

To oczywiście mrożąca krew w żyłach część całego zestawu i kaboodle.

Wiele osób wyraża obawę, że jeśli rządy zdecydują się na wykorzystanie technologii skanowania fal mózgowych i rozpoznawania twarzy w celu sprawdzenia lojalności wobec reżimów, znajdziemy się w dystopijnym świecie bólu. Kiedy idziesz ulicą publiczną, może się zdarzyć, że urządzenie zamontowane na latarni w potajemny sposób określi Twój współczynnik lojalności.

Można przypuszczać, że jeśli twoja twarz nie sugeruje, że jesteś wystarczająco lojalny lub jeśli skan fal mózgowych sugeruje to samo, rządowi bandyci mogą nagle podbiec i cię złapać. Wytrącający z równowagi. Bezdenny. Nie wolno.

To jest sedno tego, dlaczego w tej wiadomości pojawił się nagłówek pełen wrzasku i oburzenia.

Wyobraź to sobie. Prawdopodobnie stworzymy, a następnie wdrożymy systemy komputerowe, które będą wykorzystywać najnowszą sztuczną inteligencję do decydowania, czy jesteśmy lojalni, czy nie. Gdybyś próbował zatrudnić ludzi, żeby siedzieli i robili to samo, potrzebowałbyś wielu ludzi i pojawiłby się problem logistyczny polegający na rozmieszczeniu ich tak, aby wszyscy mieli na oku oko. W przypadku systemu opartego na sztucznej inteligencji wystarczy ustawić urządzenia elektroniczne na latarniach, ścianach budynków itp. Skanowanie pod kątem lojalności może odbywać się 24 godziny na dobę, 7 dni w tygodniu, zawsze i we wszystkich tak wyposażonych miejscach. Można je następnie wprowadzić do ogromnej bazy danych.

Stajemy się ludźmi, którzy są jedynie trybikami w kolosalnym, wszystkowidzącym, wszystko obserwującym, opresyjnym ekosystemie społecznym. Widzące oko nie tylko obserwuje to, co robimy. To także interpretacja tego, co nasze twarze mówią na temat naszej lojalności wobec rządu. Nasze umysły również należy zbadać pod kątem podobnej strasznej przyczyny.

Chodzi!

Z tego wynika również druga obawa, choć być może nie tak drażliwa w porównaniu z implikacjami Wielkiego Brata, jak już naszkicowano.

Zastanów się nad tymi dwoma palącymi pytaniami:

  • Czy możemy wiarygodnie stwierdzić, że skan fal mózgowych może potwierdzić Twoją lojalność?
  • Czy możemy wiarygodnie stwierdzić, że skan rozpoznawania twarzy może potwierdzić Twoją lojalność?

Trzymaj się, możesz krzyczeć z całych sił.

Zdaję sobie sprawę i przyjmuję do wiadomości, że aspekty niezawodności jako takie mogą nie przejmować się tak bardzo. To, czy można to zrobić niezawodnie, jest mniej istotne niż fakt, że w ogóle się to robi. Nikt nie powinien być poddawany takiej kontroli. Zapomnij o tym, czy technologia sprawdzi się odpowiednio do tego zadania. Nie powinniśmy podejmować się tego zadania od razu.

W każdym razie odpowiedź w tej chwili brzmi zdecydowanie nie, a mianowicie, że istniejące systemy sztucznej inteligencji, które dokonują jakichkolwiek pozorów „skanów fal mózgowych” i rozpoznawania twarzy, nie są w wystarczającym stopniu zdolne do dokonania tego skoku.

Być może ostatnio widzieliście, że niektórzy twórcy rozpoznawania twarzy cofnęli się w zakresie sposobu wykorzystania swoich systemów rozpoznawania twarzy. W nadchodzącym artykule omówię niedawne wysiłki, na przykład podjęte przez firmę Microsoft, mające na celu powstrzymanie fali osób korzystających z narzędzi do rozpoznawania twarzy dostarczonych przez firmę Microsoft do celów znacznie wykraczających poza to, do czego ta technologia jest w stanie zrobić lub do czego powinna być używana . Być może zainteresuje Cię moje wcześniejsze spojrzenie na wątpliwości związane z etyką sztucznej inteligencji, które zostały już szeroko nagłośnione w związku z rozpoznawaniem twarzy, zob. link tutaj. Omówiłem także obszar skanów fal mózgowych, zobacz moją dyskusję na stronie link tutaj.

Krótko mówiąc, nie ma jeszcze wiarygodnych i rozsądnych sposobów sugerowania, że ​​skan fal mózgowych lub skan rozpoznawania twarzy może mieć na celu zobrazowanie czyjejś lojalności. Nawet przypuszczalnie podstawowe aspekty, takie jak to, czy można wiarygodnie powiązać te skany z tym, czy ktoś jest szczęśliwy, czy smutny, są wciąż przedmiotem gorących dyskusji. Próba podniesienia stawki do czegoś tak amorficznego i zmiennego jak lojalność jest o jeden most za daleko.

Dodam, że niektórzy gorąco wierzą, że w końcu nam się to uda. Dlatego też starałem się uważnie zauważyć, że jeszcze nie osiągnęliśmy celu, zamiast twierdzić, że nigdy tam nie dotrzemy. Nigdy to duże słowo. Musisz mieć całkowitą pewność, że tak się stanie, jeśli będziesz się rzucać nigdy być wykonalne (pamiętając, że „nigdy” obejmuje dziesięciolecia, stulecia i tysiące lub miliony lat od teraz).

Niektórzy zareagowali na doniesienia o badaniach prowadzonych w chińskim laboratorium jako na wskaźnik tego, jak niebezpiecznie świat zmierza w stronę niewłaściwego i niebezpiecznego wykorzystania sztucznej inteligencji. Za chwilę podzielę się z Wami wglądem w istotę etyki AI. Pomoże ci to wyraźniej zobaczyć, dlaczego to konkretne badanie rzeczywiście wydaje się naruszać wiele, jeśli nie prawie wszystkie, ogólnie przyjęte zasady etycznej sztucznej inteligencji.

Wierzcie lub nie, ale niektórzy sugerują, że być może w związku z tym konkretnym badaniem robimy górę z kretowiska.

Jesteśmy?

Kontrargumentem jest to, że kretowisko może wkrótce stać się górą. Zgodnie z przysłowiową koncepcją kuli śnieżnej, która staje się coraz większa w miarę toczenia się po zaśnieżonym wzgórzu, musimy powstrzymać tę kulę przed rozpłynięciem się. Jeśli będziemy tolerować tego typu badania, pozwolimy tej kuli śnieżnej rozpocząć swoją podróż. Być może uda nam się zapobiec kuli śnieżnej, wypowiadając się i nawołując do takich badań.

Jedno jest pewne, jeśli chodzi o aspekty sztucznej inteligencji, jesteśmy o krok od otwarcia puszki Pandory i pozostaje pytanie, czy możemy zapobiec otwarciu puszki lub przynajmniej znaleźć sposób, aby ostrożnie postępować z tym, co wyjdzie gdy pudełko uwolniło swoją diabelską zawartość.

Miejmy nadzieję, że tego rodzaju burze medialne wywołają powszechną dyskusję na temat tego, w jaki sposób mamy zamiar zapobiegać złu związanym ze sztuczną inteligencją i unikać licznych zagrożeń egzystencjalnych wywołanych przez sztuczną inteligencję. Musimy podnieść poziom naszej świadomości społecznej na temat etyki sztucznej inteligencji i zagadnień etycznych związanych ze sztuczną inteligencją.

Zanim przejdziemy do grubszego omówienia dzikich i wełnistych rozważań leżących u podstaw tego rodzaju systemów sztucznej inteligencji, ustalmy kilka dodatkowych podstaw na niezwykle istotne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do skupienia się na systemach sztucznej inteligencji, które są wykorzystywane do niewłaściwych lub potencjalnie niewłaściwych celów, i do tego, jak to się ma do niedawno opublikowanego badania na temat lojalności KPCh.

Przychodzą mi na myśl dwie podstawowe kwestie:

1) Ta instancja sztucznej inteligencji jest częścią większego, trwającego wzorca niepokojącego wykorzystania sztucznej inteligencji, a zatem jest złowieszcza i otwiera oczy na to, co się dzieje

2) Kota można wypuścić z worka, tak że w przypadku adopcji takiej sztucznej inteligencji w jednym kraju może ona łatwo rozprzestrzenić się na inne kraje

Zacznij od pierwszego punktu dotyczącego tego przypadku, w którym sztuczna inteligencja jest częścią ciągłego wzorca.

Szczególnie ważną przyczyną szczególnego zaniepokojenia tym konkretnym badaniem jest fakt, że stanowi ono część szerszego wzorca tego, w jaki sposób sztuczna inteligencja ma być wykorzystywana przez niektórych. Gdyby było to jedyne takie badanie, jakie kiedykolwiek przeprowadzono, mogłoby nas to lekko poruszyć. Niemniej jednak prawdopodobnie nie wywołałoby to takiego zapału, jaki obecnie obserwujemy.

Być może jest to krok w stronę czegoś, co wymknie się spod kontroli.

Jak donoszą wiadomości, Chiny są dobrze znane z tego, że nalegały na wylewną lojalność wobec KPCh. Co więcej, ustanowiono lub ustanawia się różne środki w celu zapewnienia, że ​​ludzie zostaną wtajemniczeni w doktrynę rządową. Przytaczano przykłady wcześniejszych badań mających na celu opracowanie algorytmów sztucznej inteligencji, które mogłyby ocenić stan myślenia członków partii (zob. Godziny nauki w 2019 r., w którym wspomniano o tych wysiłkach).

Być może pamiętacie, że w 2018 roku wiceprezydent Mike Pence wygłosił przemówienie w Instytucie Hudsona i podkreślił, że „władcy Chin dążą do wdrożenia orwellowskiego systemu opartego na kontrolowaniu praktycznie każdego aspektu życia ludzkiego” (było to nawiązanie do wdrożenia przez KPCh system scoringu zdolności kredytowej, będący przedmiotem znaczących kontrowersji). Można śmiało stwierdzić, że to ostatnie badanie KPCh jest kolejnym krokiem w tym kierunku.

Nie wiemy, kiedy i czy ostatnia kropla przeleje się na wielbłąda, a te jednorazowe badania zostaną przekształcone w szeroko rozpowszechnione systemy monitorowania oparte na sztucznej inteligencji.

Drugą kwestią godną uwagi jest to, że nie możemy zakładać, że tego typu sztuczna inteligencja będzie ograniczona tylko do Chin. Zasadniczo, choć wykorzystanie tego rodzaju sztucznej inteligencji w Chinach, które może stać się powszechne, samo w sobie jest niepokojące, inne kraje mogą zrobić podobnie.

Kiedy już zostanie uznane, że sztuczna inteligencja będzie gotowa i będzie dostępna w najlepszym momencie, inne kraje prawdopodobnie nie będą potrzebowały wiele czasu, aby zdecydować, że też chcą ją wdrożyć. Kot wyjdzie z worka. Niektóre kraje prawdopodobnie będą używać tej sztucznej inteligencji w wręcz opresyjny sposób i nie będą próbowały stwarzać żadnych pozorów, że to robią. Inne kraje mogą pozornie starać się wykorzystywać tego typu sztuczną inteligencję do celów, które wydają się korzystne, co ostatecznie wiąże się z wadą, której prawie nie da się uniknąć.

W rzeczywistości sugerowanie, że tego typu sztuczna inteligencja zostanie być może przyjęta dopiero wtedy, gdy zostanie uznana za gotową do premiery, jest nieco mylące. Może nie mieć większego znaczenia, czy sztuczna inteligencja może z pewnością działać w ten sposób. Sztuczną inteligencję można wykorzystać jako przykrywkę, zobacz moje wyjaśnienie pod adresem link tutaj. Niezależnie od tego, co sztuczna inteligencja jest faktycznie w stanie osiągnąć, zakłada się, że sztuczna inteligencja może być przydatnym pretekstem do wprowadzenia monitorowania populacji oraz planów oceny i zapewniania absolutnej lojalności wobec władz.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na niewłaściwe wykorzystanie sztucznej inteligencji, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i niewłaściwe wykorzystanie sztucznej inteligencji

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Naszkicujmy scenariusz samochodu autonomicznego, który może wykorzystać sztuczną inteligencję w pobieżny lub niewłaściwy sposób.

Podzielę się z Wami niektórymi konsekwencjami korzystania z samochodów autonomicznych opartych na sztucznej inteligencji, które mogą wywołać dreszcze i zakłopotanie. Są to aspekty, o których prawie nikt obecnie nie dyskutuje. Wielokrotnie poruszałem tę kwestię, choć otwarcie przyznaję, że dopóki nie dojdziemy do powszechnego przyjęcia samochodów autonomicznych, nie uzyskamy większego rozgłosu w związku z obawami lub zdenerwowaniem społeczeństwa z powodu tego, co dzisiaj wydaje się jedynie abstrakcyjnymi pojęciami. .

Czy jesteś gotowy?

Zaczniemy od położenia fundamentów.

Samochody autonomiczne oparte na sztucznej inteligencji będą, rozsądnie, wyposażone w kamery wideo. Dzięki temu samochód autonomiczny może odbierać obrazy wideo z miejsca jazdy. Z kolei system jazdy AI działający na komputerach w autonomicznym samochodzie ma za zadanie obliczeniowo zbadać zebrany obraz i dowiedzieć się, gdzie jest droga, gdzie są pobliskie samochody, gdzie są piesi itd. Zdaję sobie sprawę, że recytuję 101 podstawowych zasad dotyczących samochodów autonomicznych.

Na zewnątrz pojazdu autonomicznego zamontowane są kamery wideo, które są skierowane na zewnątrz. Ponadto, ogólnie rzecz biorąc, można spodziewać się, że w pojeździe lub wewnątrz pojazdu znajdą się kamery wideo skierowane do wewnątrz samochodu autonomicznego. Dlaczego tak? To proste, ponieważ rejestrowanie wideo wydarzeń wewnątrz pojazdu autonomicznego będzie miało wiele ważnych zastosowań.

Wybierając się na przejażdżkę samochodem autonomicznym, nie musisz już być kierowcą. Co będziesz wtedy robić, siedząc w samochodzie autonomicznym?

Jedną z rzeczy, które możesz zrobić, to kontaktować się z innymi osobami w domu lub w biurze. Jesteś w drodze do pracy, co oznacza, że ​​poświęć godzinę jazdy autonomicznym samochodem i możesz już rozpocząć dzień pracy, wykonując interaktywną sesję online w czasie rzeczywistym podobną do Zoom. Mogą Cię zobaczyć dzięki kamerom skierowanym do wnętrza autonomicznego samochodu. Można je zobaczyć być może na ekranie LED wewnątrz autonomicznego samochodu. Pod koniec dnia, wracając do domu, możesz przeprowadzić podobną interaktywną dyskusję wideo ze swoimi dziećmi, gdy zaczynają odrabiać zadanie domowe na wieczór.

Innym zastosowaniem byłoby uczęszczanie na zajęcia. Teraz, gdy nie musisz tracić czasu na jazdę, możesz zamienić ten bezsensowny czas spędzony w samochodzie autonomicznym na doskonalenie swoich umiejętności lub zdobycie certyfikatu lub stopnia naukowego. Dzięki kamerom skierowanym do wewnątrz instruktor może Cię zobaczyć i omówić przebieg treningu.

Jeszcze innym zastosowaniem byłoby dopilnowanie, aby pasażerowie samochodów autonomicznych nie wpadli w amok. W samochodzie kierowanym przez człowieka kierowca to osoba dorosła, która zwykle powstrzymuje pasażerów od robienia szalonych rzeczy, takich jak oznaczanie wnętrza graffiti. Co stanie się z samochodami autonomicznymi opartymi na sztucznej inteligencji? Niektórzy obawiają się, że pasażerowie zdecydują się na zniszczenie wnętrza pojazdów. Aby temu zapobiec, firma oferująca wspólne przejazdy wdrażająca samochody autonomiczne prawdopodobnie użyje kamer wideo skierowanych do wewnątrz, aby monitorować, co ludzie robią w pojeździe autonomicznym.

Zakładam, że jesteście przekonani, że oprócz kamer skierowanych na zewnątrz w celu rozróżnienia sceny jazdy będziemy mieć kamery wideo skierowane do wnętrza samochodów autonomicznych.

Jesteś teraz gotowy na to, co określiłem mianem ruchomego oka, zobacz moją analizę pod adresem link tutaj.

Najpierw rozważ kamery wideo skierowane na zewnątrz.

Gdziekolwiek pojedzie autonomiczny samochód, potencjalnie będzie mógł nagrywać wideo wszystko, co zobaczą kamery. Autonomiczny samochód, który podwiezie kogoś z domu i zawiezie do sklepu spożywczego, przejedzie po okolicy, a na filmie zarejestruje nie tylko jezdnię, ale także wszystko inne, co dzieje się w zasięgu wzroku. Ojciec i syn bawią się na podwórku przed domem. Rodzina siedząca na werandzie przed domem. I tak dalej.

Obecnie na drogach publicznych jest tak mało samochodów autonomicznych, że możliwość rejestrowania wideo codziennych czynności jest stosunkowo rzadka i nieistotna.

Wyobraźmy sobie, że ostatecznie uda nam się stworzyć bezpieczne i powszechne samochody autonomiczne. Tysiące z nich. Może miliony. Obecnie w USA jest około 250 milionów samochodów kierowanych przez człowieka. Ostatecznie zostaną one w dużej mierze zastąpione samochodami autonomicznymi lub po prostu przestaną być używane, a na naszych drogach będą głównie samochody autonomiczne. Te autonomiczne samochody są napędzane przez sztuczną inteligencję i jako takie mogą poruszać się zasadniczo 24 godziny na dobę, 7 dni w tygodniu. Żadnych przerw na odpoczynek, żadnych przerw na toaletę.

Dane wideo można przesyłać z tych autonomicznych samochodów za pośrednictwem elektronicznych połączeń sieciowych OTA (Over-The-Air). Samochody autonomiczne będą korzystać z OTA, aby pobierać do pojazdu najnowsze aktualizacje oprogramowania AI. Ponadto za pomocą OTA można przesyłać dane z samochodu autonomicznego do bazy danych w chmurze.

Podsumowując, możliwe byłoby połączenie przesłanych danych. Dzięki szyciu można potencjalnie poskładać w całość codzienne wejścia i wyjścia każdego, kto wychodził na zewnątrz każdego dnia w dowolnym miejscu, w którym intensywnie korzystano z samochodów autonomicznych.

To jest to poruszające się oko, przed którym ostrzegałem.

Możemy teraz powiązać badanie KPCh z tego rodzaju zdolnościami. Załóżmy, że rząd ma dostęp do wszystkich zebranych danych wideo. Następnie mogliby użyć algorytmu rozpoznawania twarzy opartego na sztucznej inteligencji, aby ustalić, gdzie się udałeś, o której porze dnia podczas codziennych podróży. Ponadto prawdopodobnie mogliby użyć swojego analizatora opartego na sztucznej inteligencji opartego na „lojalności”, aby sprawdzić, czy wyglądasz na lojalnego, czy nie.

Wyobraź sobie, że we wtorkowe popołudnie szedłeś do lokalnej restauracji po kanapkę. Po jezdni przejeżdżały samochody autonomiczne. Na wszystkich wielu filmach uchwycono Cię podczas pięciominutowego spaceru, aby coś przekąsić. Dane zostały przesłane do scentralizowanej bazy danych. Na tych danych rząd uruchomił program rozpoznawania twarzy oparty na sztucznej inteligencji.

Okazuje się, że sztuczna inteligencja „ustaliła”, że masz nielojalny wyraz twarzy.

Być może to nielojalne spojrzenie trwało tylko chwilę. Czekałeś na rogu ulicy na zmianę świateł, abyś mógł przejść przez ulicę do restauracji. W tym momencie poczułeś lekkie drgnięcie z obrzydzenia, że ​​musiałeś zbyt długo czekać na symbol Spaceru. Czy było to być może oznaką pańskiej nielojalności wobec rządu?

Tak, AI obliczyła komputerowo, w tamtym momencie byłeś wyjątkowo nielojalny. Kiedy wieczorem wrócisz do domu, rząd zorganizował twoje aresztowanie.

Ale czekaj, jest więcej.

Pamiętaj, że kamery wideo również są skierowane do wewnątrz.

W ten sam wtorek, gdy jechałeś do pracy autonomicznym samochodem, kamery wideo rejestrowały każdą Twoją chwilę. Zostało to przesłane do scentralizowanej bazy danych. Oprogramowanie AI, które analizuje wzorce twarzy pod kątem nielojalności, przeprowadziło analizę wzorców obliczeniowych wyrazu twarzy podczas podróży do biura.

W pewnym momencie od niechcenia wyjrzałeś na zewnątrz pojazdu autonomicznego i zauważyłeś pracownika budowlanego, który częściowo blokował jezdnię i spowodował, że system jazdy AI spowolnił autonomiczny samochód. Przez ułamek sekundy na twojej twarzy pojawił się wyraz szyderstwa wobec pracownika budowlanego spowalniającego ruch.

Analiza wzoru twarzy AI zinterpretowała to jako oznakę nielojalności wobec rządu.

Dwa ataki na ciebie jednego dnia.

Żyjesz na cienkim lodzie.

Oczywiście to, czy sztuczna inteligencja ma „rację”, czy „nie ma racji” co do możliwości określenia Twojej lojalności, jest w tym kontekście prawie nieistotne. Istotą jest to, że w tym celu wprowadzono sztuczną inteligencję. Ludzi wdrażających sztuczną inteligencję może, ale nie musi, obchodzić, czy sztuczna inteligencja nadaje się do tego typu zadań. Sztuczna inteligencja pozwala na kontrolę rządową, niezależnie od samej ważności technologicznej.

Dotyczy to skanowania twarzy.

Jeśli w końcu będziemy mieli jakiekolwiek przenośne, opłacalne urządzenia do wykonywania (rzekomego) skanowania fal mózgowych, z pewnością będzie można je zastosować w samochodach autonomicznych. Kamery wideo są teraz rzeczą oczywistą. Możliwość posiadania urządzeń skanujących fale mózgowe tego kalibru nie jest obecnie brana pod uwagę, ale wyraźnie przewiduje się ją na przyszłość.

Jeśli chodzi o moje badania nad tym, jak rząd mógłby próbować przejąć kontrolę nad społeczeństwem poprzez przejęcie kontroli nad samochodami autonomicznymi, zob. link tutaj. Istnieje podobna możliwość, że złośliwy aktor mógłby spróbować zrobić to samo, patrz link tutaj. Nie mają one na celu zastraszania w kontekście poruszania powiązanych tematów, lecz raczej ostrzeżenie o znaczeniu cyberbezpieczeństwa i innych środków ostrożności, które jako społeczeństwo musimy podjąć w związku z pojawieniem się wszechobecnych samochodów autonomicznych i inne pojazdy autonomiczne.

Wnioski

Chciałbym szybko omówić jeden dodatkowy aspekt wykorzystania sztucznej inteligencji do sprawdzania lojalności, który moim zdaniem jest nieco odrębnym tematem, ale omawianym w niektórych tweetach i mediach społecznościowych.

Wspomniałem wcześniej, że nie mamy świadomej sztucznej inteligencji i nie wiemy, czy i kiedy to zrobimy. Załóżmy, że będziemy mieć świadomą sztuczną inteligencję. W takim przypadku rozważ następujący scenariusz.

Za pośrednictwem nieświadomej sztucznej inteligencji decydujemy się na szerokie zastosowanie sztucznej inteligencji, która sprawdza obliczeniowo, czy ludzie są lojalni wobec swojego rządu, za pomocą skanów twarzy, skanów fal mózgowych i tak dalej. Jest on w całości zarządzany i używany przez ludzi sprawujących władzę. Jest to niepokojący scenariusz, który opisałem chwilę wcześniej.

Czas podnieść stawkę.

Sztuczna inteligencja staje się świadoma. Potencjalnie przekazaliśmy teraz tej świadomej sztucznej inteligencji powszechną zdolność przypuszczalnego identyfikowania lojalności i nielojalności u ludzi. Zło czyniąca sztuczna inteligencja, która rozważa unicestwienie ludzi, może wykorzystać tę zdolność, aby zdecydować, że rzeczywiście ludzie okażą się nielojalni i powinni zostać całkowicie zniszczeni. A może szczególnie należy wytępić tych ludzi, którzy na twarzy lub w myślach wykazują oznaki nielojalności.

Innym aspektem jest to, że sztuczna inteligencja chce zniewolić ludzi, zobacz moją dyskusję pod adresem link tutaj.

Wygląda na to, że daliśmy AI idealny prezent za wykonanie tego zadania. Istniejąca infrastruktura, którą stworzyliśmy, pozwala sztucznej inteligencji uważnie obserwować nas, ludzi. Ci, którzy wydają się wyrażać nielojalny wyraz twarzy lub myślą o władcach AI, poczują gniew AI.

Zdaję sobie sprawę, że powiedziałem, iż jest to podbicie stawki. Nie jestem pewien, czy tak jest. Wydaje mi się, że niezależnie od tego, czy mamy władców AI bezpośrednio decydujących o naszym losie, czy władców ludzkich, którzy być może używają systemu sztucznej inteligencji do określenia lojalności, cóż, żadna z propozycji nie wydaje się szczególnie pożądana.

Na razie ostatni komentarz.

Rzymski uczony i filozof Marek Tulliusz Cyceron stwierdził, że nie ma nic szlachetniejszego, bardziej czcigodnego niż lojalność. Być może pozwolimy, aby sztuczna inteligencja wyprzedziła nas i stała się narzędziem do pozyskiwania i zapewniania „lojalności” za pomocą strasznych środków.

Warto pamiętać, aby umieścić etykę sztucznej inteligencji na szczycie naszej listy rzeczy do zrobienia.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- zaświadczenie-które-może-zapowiadać-opresyjne-systemy-autonomiczne/