Etyka AI sceptycznie odnosi się do ustanowienia tak zwanych przepisów dotyczących czerwonej flagi AI w celu wywoływania stronniczych algorytmów w autonomicznych systemach AI

Porozmawiajmy o przepisach dotyczących czerwonej flagi.

Bez wątpienia wiesz, że pojęcie przepisów dotyczących czerwonej flagi było ostatnio szeroko omawiane w wiadomościach. Nagłówków poruszających dany temat jest mnóstwo. Namiętności i żarliwe debaty na ten temat są na pierwszym miejscu jako problem społeczny i pociągają za sobą obecne i szybko powstające przepisy dotyczące broni czerwonej flagi.

Ośmielę się jednak powiedzieć, że być może nie znasz innych przepisów dotyczących czerwonej flagi, uchwalonych pod koniec XIX wieku, dotyczących pojazdów silnikowych i prekursorów współczesnych, nowoczesnych samochodów. Tak, zgadza się, przepisy dotyczące czerwonej flagi mają swoje korzenie w historii, choć obejmują inne tematy w porównaniu z dzisiejszymi zagadnieniami. Nazywa się je zazwyczaj przepisami ruchu drogowego czerwonej flagi.

Te stuletnie i całkowicie nieaktualne przepisy wymagały, aby w tamtym czasie każdy pojazd silnikowy lub lokomotywa napędzana parą miała przed pojazdem osobę dorosłą i niosła czerwoną flagę w celach ostrzegawczych. Pomysł był taki, że zwierzęta gospodarskie mogły zostać zaniepokojone hałaśliwymi i kłótliwymi urządzeniami, które toczyły się powoli i nierówno po gruntowych lub słabo utwardzonych drogach, w związku z czym posiadanie kogoś, kto będzie szedł przed urządzeniem, energicznie machając czerwoną flagą, mogłoby, miejmy nadzieję, uniknąć nieszczęść. Gdybyście się zastanawiali, uznano, że koleje i pociągi są wyłączone z tych samych przepisów, ponieważ są to pojazdy integralnie związane z szynami i podlegają innym przepisom regulującym ich działanie.

Wyobraź sobie, że dzisiaj musisz machać czerwonymi flagami jako wymóg w przypadku każdego samochodu na naszych drogach publicznych.

Na przykład zwykły kierowca jadący ulicą w Twojej okolicy musiałby upewnić się, że przed jadącym samochodem jest osoba dorosła machająca czerwoną flagą. Musiałoby to mieć miejsce w przypadku każdego pojazdu przejeżdżającego Twoją ulicą. Być może ludzie staliby się pracownikami czerwonej flagi i wynajmowaliby przejeżdżających kierowców samochodów, którzy w przeciwnym razie nie mieliby przyjaciela lub krewnego, który mógłby stanąć przed nimi i wykonać przewidzianą akcję machania.

Obecnie machanie czerwoną flagą związane z autostradami kojarzy nam się z placami budowy dróg. Gdy zbliżysz się do rozkopanej drogi, pracownicy będą trzymać w górze czerwoną flagę, aby zwrócić Twoją uwagę. Oznacza to, że należy zwolnić i zachować czujność. Może pojawić się buldożer, który wjedzie na twoją ścieżkę. Przed tobą może znajdować się gigantyczna dziura i będziesz musiał ostrożnie ją ominąć.

Wróćmy jednak do XIX-wiecznego używania czerwonych flag.

Wierzcie lub nie, ale czerwona flaga miała znajdować się co najmniej jedną ósmą mili przed nadchodzącą maszyną zmotoryzowaną. Wydaje się, że to dość duża odległość. Można jednak przypuszczać, że w tamtych czasach miało to mnóstwo sensu. Zaskakujące dźwięki silnika i być może sam widok pojazdu mogą wystarczyć, aby wytrącić zwierzęta z równowagi. Niektóre z przepisów dotyczących czerwonej flagi z tamtej epoki wymagały również, aby w nocy trzymać w górze świecące czerwone światło, tak aby widoczne czerwone ostrzeżenie ostrzegawcze było widoczne z zaciemnionej odległości.

Ogólnie rzecz biorąc, uważam, że słuszne jest stwierdzenie, że jako społeczeństwo mamy tendencję do kojarzenia czerwonej flagi z rodzajem sygnału lub oznaki, że coś jest potencjalnie nie tak lub przynajmniej wymaga naszej szczególnej uwagi.

Przygotuj się na małą odmianę związaną ze zjawiskiem czerwonej flagi.

Panuje pogląd, że w odniesieniu do sztucznej inteligencji (AI) powinniśmy wymagać przepisów ostrzegawczych.

To nieco zaskakująca i zaskakująca koncepcja, od której wiele osób drapie się po głowach. Możesz być zdziwiony, jak i dlaczego powinien istnieć tzw Przepisy dotyczące sztucznej inteligencji czerwonej flagi. Proszę pamiętać, że określam to mianem przepisów dotyczących sztucznej inteligencji czerwonej flagi, aby odróżnić tę kwestię od przepisów drogowych dotyczących czerwonej flagi (takich jak te z końca XIX wieku), a także aby odróżnić je od innych dzisiejszych, bardziej rozpowszechnionych przepisów dotyczących broni czerwonej flagi.

Czy rzeczywiście potrzebujemy przepisów dotyczących sztucznej inteligencji czerwonej flagi, które są wyraźnie i wyłącznie zorientowane na kwestie sztucznej inteligencji?

Zwolennicy proponowanego podejścia upieraliby się, że absolutnie potrzebujemy przepisów prawnych, które pomogłyby w zwalczaniu sztucznej inteligencji, która zawiera nadmierne uprzedzenia i działa w sposób dyskryminujący. W tej chwili budowanie i wdrażanie sztucznej inteligencji przypomina sytuację na Dzikim Zachodzie, w której wszystko jest dozwolone. Wysiłki mające na celu powstrzymanie złej sztucznej inteligencji zależą obecnie od sformułowania i przyjęcia wytycznych dotyczących etyki sztucznej inteligencji. Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Powoli opracowywane i wprowadzane są w życie przepisy dotyczące złej sztucznej inteligencji, zobacz moją relację na stronie link tutaj. Niektórzy obawiają się, że prawodawcy nie działają wystarczająco szybko. Wygląda na to, że bramy umożliwiające wspieranie stronniczej sztucznej inteligencji na świecie są obecnie w dużej mierze otwarte. Załamywanie rąk mówi, że zanim nowe przepisy wejdą w życie, zły dżin będzie już poza butelką.

Nie tak szybko, kontrargumenty znikają. Istnieją obawy, że jeśli przepisy zostaną wprowadzone zbyt szybko, zabijemy niejako złotą gęś, przez co wysiłki związane ze sztuczną inteligencją dobiegną kresu i nie uzyskamy społecznie wzmacniających korzyści z nowych systemów sztucznej inteligencji. Twórcy sztucznej inteligencji i firmy chcące korzystać ze sztucznej inteligencji mogą się przestraszyć, jeśli na szczeblu federalnym, stanowym i lokalnym zostanie nagle wprowadzony bizantyjski zestaw nowych przepisów regulujących sztuczną inteligencję, nie wspominając o międzynarodowych przepisach związanych ze sztuczną inteligencją, które również mają się rozwijać.

W tę chaotyczną aferę pojawia się wezwanie do wprowadzenia przepisów dotyczących sztucznej inteligencji czerwonej flagi.

Zanim przejdziemy do bliższego omówienia dzikich i wełnistych rozważań leżących u podstaw przewidywanej ustawy o sztucznej inteligencji Czerwonej Flagi, ustalmy kilka dodatkowych podstaw na niezwykle istotne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do skupienia się na przepisach dotyczących sztucznej inteligencji czerwonej flagi.

Podstawowa koncepcja polega na tym, że ludzie mogliby zasygnalizować sygnał ostrzegawczy, gdy uznają, że system sztucznej inteligencji działa w sposób nadmiernie stronniczy lub dyskryminujący. Nie podnosiłbyś fizycznej flagi jako takiej, a zamiast tego po prostu użyłbyś środków elektronicznych, aby zgłosić swoje obawy. Część schematu lub podejścia sygnalizowana czerwoną flagą jest bardziej metaforą niż fizycznym ucieleśnieniem.

Udawaj, że ubiegasz się o kredyt mieszkaniowy. Aby ubiegać się o pożyczkę, decydujesz się skorzystać z usługi bankowości internetowej. Po wprowadzeniu niektórych danych osobowych, chwilę poczekasz, aż system AI zadecyduje, czy jesteś godny pożyczki, czy nie. Sztuczna inteligencja poinformuje Cię, że odmówiono Ci pożyczki. Gdy poprosisz o wyjaśnienie, dlaczego zostałeś odrzucony, narracja tekstowa zdaje się sugerować, że sztuczna inteligencja wykorzystała niepotrzebne, stronnicze czynniki w ramach algorytmu podejmowania decyzji.

Czas wywiesić czerwoną flagę w sprawie sztucznej inteligencji.

Gdzie dokładnie będzie powiewać ta czerwona flaga?

To pytanie za milion dolarów.

Jednym z punktów widzenia jest to, że powinniśmy stworzyć ogólnokrajową bazę danych, która umożliwiłaby ludziom oznaczanie sygnałów ostrzegawczych związanych z sztuczną inteligencją. Niektórzy twierdzą, że powinien to uregulować rząd federalny. Agencje federalne byłyby odpowiedzialne za badanie sygnałów ostrzegawczych i udzielanie pomocy ogółowi społeczeństwa w zakresie prawdziwości informacji oraz radzenie sobie z prawdopodobnie „złą sztuczną inteligencją”, która podsycała raportowanie sygnałów ostrzegawczych.

Krajowa ustawa o sztucznej inteligencji czerwonej flagi zostałaby najwyraźniej ustanowiona przez Kongres. Prawo określałoby, czym jest czerwona flaga związana z sztuczną inteligencją. Prawo opisuje, w jaki sposób sygnalizowane są niepokojące czerwone flagi AI. I tak dalej. Może się również zdarzyć, że poszczególne stany również zdecydują się na stworzenie własnych przepisów dotyczących sztucznej inteligencji czerwonej flagi. Być może robią to zamiast inicjatywy krajowej lub robią to, aby podkreślić szczegóły, które są szczególnie atrakcyjne dla ich konkretnego stanu.

Krytycy federalnego lub jakiegokolwiek wspieranego przez rząd programu sztucznej inteligencji Czerwonej Flagi argumentowaliby, że jest to coś, co może zrobić prywatny przemysł i nie potrzebujemy, aby Wielki Brat wysunął się na pierwszy plan. Branża mogłaby stworzyć repozytorium internetowe, w którym ludzie mogliby rejestrować sygnały ostrzegawcze dotyczące systemów sztucznej inteligencji. Działania samokontroli podejmowane przez branżę w wystarczającym stopniu rozwiązałyby te problemy.

Wątpienie w związku z rzekomym podejściem branży polega na tym, że ma ono posmak kumoterstwa. Czy firmy byłyby skłonne przestrzegać prywatnej bazy danych AI Red Flag? Wiele firm potencjalnie zignorowałoby oznaczone czerwone flagi dotyczące ich sztucznej inteligencji. Nie byłoby ostrych zębów, aby zmusić firmy do radzenia sobie z wprowadzonymi czerwonymi flagami.

Hej, brzmią zwolennicy podejścia sektora prywatnego, byłoby to podobne do krajowej usługi podobnej do Yelp. Konsumenci mogliby przyjrzeć się sygnałom ostrzegawczym i sami zdecydować, czy chcą robić interesy z firmami, które zarejestrowały mnóstwo sygnałów ostrzegawczych związanych ze sztuczną inteligencją. Bank, który dostawał mnóstwo sygnałów ostrzegawczych na temat sztucznej inteligencji, musiałby zwrócić uwagę i zmodernizować swoje systemy sztucznej inteligencji, zgodnie z logiką, w przeciwnym razie konsumenci unikaliby tej firmy jak ognia.

To, czy całe to podejście przyjmie rząd, czy przemysł, to tylko wierzchołek góry lodowej w przypadku drażliwych kwestii stojących przed proponowanym postulatem przepisów dotyczących sztucznej inteligencji czerwonej flagi.

Postaw się w sytuacji firmy, która opracowała sztuczną inteligencję lub ją wykorzystuje. Może się zdarzyć, że konsumenci podniosą sygnał ostrzegawczy, mimo że nie ma ku temu realnej podstawy. Gdyby ludzie mogli swobodnie wywieszać czerwone flagi na temat sztucznej inteligencji, mogliby ulec pokusie, aby zrobić to dla kaprysu lub może w ramach zemsty na firmie, która w przeciwnym razie nie zrobiłaby nic złego wobec konsumenta.

Krótko mówiąc, może pojawić się wiele fałszywie pozytywnych sygnałów ostrzegawczych dotyczących sztucznej inteligencji.

Inną kwestią jest ogromny rozmiar lub wielkość powstałych czerwonych flag. Z łatwością mogłyby zostać wywieszone miliony czerwonych flag. Kto będzie podążał za tymi wszystkimi czerwonymi flagami? Jaki byłby koszt takiego wykonania? Kto zapłaci za działania następcze w związku z czerwoną flagą? Itp.

Jeśli chcesz powiedzieć, że każdy, kto rejestruje lub zgłasza sygnał ostrzegawczy dotyczący sztucznej inteligencji, musi uiścić opłatę, wkraczasz w mroczny i podstępny świat. Problem polegałby na tym, że tylko bogaci mogliby sobie pozwolić na wywieszanie czerwonych flag. To z kolei oznacza, że ​​zubożeni nie mogliby w równym stopniu uczestniczyć w działaniach związanych z sygnałami ostrzegawczymi i zasadniczo nie mieliby miejsca, w którym mogliby ostrzegać o niekorzystnej sztucznej inteligencji.

Na razie jeszcze jeden dodatkowy zwrot akcji, a mianowicie to, że tego rodzaju przepisy i wytyczne dotyczące czerwonych flag dotyczące sztucznej inteligencji wydają się być podawane po fakcie, a nie służyć jako wcześniejsze ostrzeżenie.

Wracając do przepisów drogowych dotyczących czerwonej flagi, użycie czerwonej flagi kładło nacisk na uniknięcie nieszczęścia na początku. Falująca czerwona flaga miała być daleko przed nadchodzącym samochodem. Znajdując się przed pojazdem, zwierzęta gospodarskie zostaną zaalarmowane, a osoby pilnujące zwierząt będą wiedziały, że powinny podjąć środki ostrożności ze względu na zbliżające się niepokojące źródło.

Jeśli ludzie będą w stanie jedynie podnieść czerwoną flagę w związku ze sztuczną inteligencją, która pozornie już zaszkodziła lub podcięła ich prawa, przysłowiowy koń już wyszedł ze stodoły. Wszystko, co wydaje się osiągnąć, to to, że, miejmy nadzieję, inne osoby, które się pojawią, będą teraz wiedzieć, że należy uważać na ten system sztucznej inteligencji. Tymczasem osoba rzekomo pokrzywdzona już cierpiała.

Niektórzy sugerują, że moglibyśmy pozwolić ludziom sygnalizować sygnały ostrzegawcze na temat sztucznej inteligencji posądzać mogą być stronniczy, nawet jeśli nie korzystali ze sztucznej inteligencji i sztuczna inteligencja nie miała na nich bezpośredniego wpływu. W ten sposób czerwona flaga zostaje wywieszona, zanim szkody zostaną wyrządzone.

Tak, odpowiada riposta, naprawdę sprawisz, że czerwone flagi związane z radzeniem sobie ze sztuczną inteligencją staną się sprawą całkowicie niemożliwą do opanowania i chaotyczną. Jeśli ktokolwiek z jakiegokolwiek powodu może podnieść czerwoną flagę w związku z systemem sztucznej inteligencji, mimo że w ogóle nic nie zrobił z tą sztuczną inteligencją, zostaniesz zasypany czerwonymi flagami. Co gorsza, nie będziesz w stanie odróżnić pszenicy od plew. Całe podejście związane z czerwoną flagą zawali się pod własnym ciężarem, burząc dobroć pomysłu, pozwalając, aby flotsam i hołota zatopiły cały statek.

Zawroty głowy i dezorientacja.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na przepisy dotyczące sztucznej inteligencji czerwonej flagi, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i przepisy dotyczące sztucznej inteligencji związane z czerwoną flagą

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Naszkicujmy scenariusz, który może wykorzystać ustawę o sztucznej inteligencji czerwonej flagi.

Wsiadasz do autonomicznego samochodu opartego na sztucznej inteligencji i chcesz, aby autonomiczny pojazd zawiózł Cię do lokalnego sklepu spożywczego. Podczas stosunkowo krótkiej podróży sztuczna inteligencja wybiera trasę, która wydaje ci się nieco błędna. Zamiast jechać najbardziej bezpośrednią drogą, sztuczna inteligencja kieruje się do ulic znajdujących się na uboczu, co powoduje, że czas jazdy jest dłuższy niż normalnie.

Co się dzieje?

Zakładając, że płacisz za korzystanie z samochodu autonomicznego, możesz podejrzewać, że sztuczna inteligencja została zaprogramowana tak, aby pokonywała dłuższą trasę, aby podnieść cenę biletu lub koszt podróży. Każdy, kto kiedykolwiek podróżował konwencjonalną taksówką prowadzoną przez człowieka, wie, jakie sztuczki można wykonać, aby uzyskać więcej ciasta na liczniku. Oczywiście, jeśli ludzie mają GPS w smartfonach i podróżują taksówką lub jej odpowiednikiem, można łatwo złapać ludzkiego kierowcę, który wydaje się podstępnie pokonywać niepotrzebnie długie trasy.

Okazuje się, że masz jeszcze jedną obawę związaną z wyborem trasy, coś, co naprawdę Cię niepokoi.

Załóżmy, że trasowanie miało na celu ominięcie pewnych części miasta ze względu na aspekty rasowe. Istnieją udokumentowane przypadki ludzkich kierowców przyłapanych na dokonywaniu tego rodzaju wyborów, zobacz moje omówienie pod adresem link tutaj. Być może sztuczna inteligencja została zaprogramowana w ten sposób niekorzystnie.

Decydujesz się wywiesić czerwoną flagę.

Załóżmy na potrzeby dyskusji, że wprowadzono ustawę o czerwonej flagie dotyczącą sztucznej inteligencji, która obejmuje Twoją jurysdykcję. Może to być prawo lokalne, prawo stanowe, prawo federalne lub międzynarodowe. Analizę, której jestem współautorem wraz z Harvard’s Autonomous Vehicle Policy Initiative (AVPI), dotyczącą rosnącego znaczenia lokalnego przywództwa w sytuacji, gdy społeczności zaczynają korzystać z samochodów autonomicznych, zob. link tutaj.

Zatem łączysz się z bazą danych AI Czerwonej Flagi. W bazie zdarzeń wprowadzasz informację dotyczącą przejazdu samochodem autonomicznym. Obejmuje to datę i godzinę jazdy, a także markę i model samochodu autonomicznego. Następnie wchodzisz na trasę nawigacyjną, która wydawała się podejrzana, i sugerujesz, a może wręcz twierdzisz, że sztuczna inteligencja została opracowana z stronniczymi lub dyskryminującymi zamiarami i możliwościami.

Musielibyśmy spekulować na temat innych szczegółów ustawy o sztucznej inteligencji Czerwonej Flagi, co stanie się dalej w tym konkretnym scenariuszu. Teoretycznie istniałaby możliwość sprawdzenia przez kogoś czerwonej flagi. Prawdopodobnie staraliby się nakłonić producenta samochodów lub firmę zajmującą się technologią pojazdów autonomicznych do wyjaśnienia swojego punktu widzenia na temat zarejestrowanej czerwonej flagi. Ile innych takich sygnałów ostrzegawczych zostało zarejestrowanych? Jakie rezultaty przyniosły te czerwone flagi?

I tak dalej.

Wnioski

Niedorzeczne – nawołują niektórzy sceptycy.

Nie potrzebujemy przepisów dotyczących sztucznej inteligencji Czerwonej Flagi, są surowe. Zrobienie czegokolwiek tego rodzaju utrudni prace, jeśli chodzi o tempo i postęp sztucznej inteligencji. Wszelkie tego typu przepisy byłyby nieporęczne. Stworzyłbyś problem, który nie rozwiązuje problemu. Istnieją inne sposoby radzenia sobie ze sztuczną inteligencją, które są złe. Nie chwytaj się ślepo słomek, aby poradzić sobie z stronniczą sztuczną inteligencją.

Zmieniając biegi, wszyscy wiemy, że torreadorzy używają czerwonych peleryn, aby najwyraźniej przyciągnąć uwagę wściekłego byka. Chociaż czerwony jest kolorem, który najbardziej kojarzy nam się z tą praktyką, możesz być zaskoczony, gdy dowiesz się, że naukowcy twierdzą, że byki nie dostrzegają czerwonego koloru mulety (są daltonistami na kolor czerwony). Popularny spektakl Pogromcy mitów przeprowadził całkiem zabawne badanie tej kwestii. Kluczowym elementem jest ruch peleryny, a nie wybrany kolor.

Ci, którzy odrzucają potrzebę wprowadzenia przepisów dotyczących sztucznej inteligencji czerwonej flagi, twierdzą wzajemną tezą, że potrzebujemy czegoś o dramatycznym i charakterystycznym charakterze, aby mieć pewność, że twórcy sztucznej inteligencji i firmy wdrażające sztuczną inteligencję będą unikać stronniczej lub złej sztucznej inteligencji. Gdyby nie czerwona flaga, być może trzepocząca peleryna lub w zasadzie jakikolwiek sposób ostrzegania mógłby zostać należycie uwzględniony.

Wiemy na pewno, że istnieje zła sztuczna inteligencja i że w naszym kierunku będzie zmierzać znacznie więcej złej sztucznej inteligencji. Znalezienie sposobów ochrony przed niekorzystną sztuczną inteligencją ma kluczowe znaczenie. Równie ważne jest ustawienie barier ochronnych, które mają powstrzymać złą sztuczną inteligencję przed przedostaniem się na świat.

Ernest Hemingway zasłynął ze stwierdzenia, że ​​nikt nie żyje na pełnych obrotach, z wyjątkiem torreadorów. Musimy mieć pewność, że ludzie będą mogli żyć przez całe życie, pomimo tego, jakie zło i szaleństwo sztucznej inteligencji jest na nas głoszone.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-ustanawianie-tak zwane-red-flag-ai-laws-for-calling-out- stronnicze algorytmy-w-autonomicznych-systemach-AI/