Etyka AI i prawo AI zmierzają w kierunku standardów, które wyraźnie identyfikują i zarządzają uprzedzeniami AI

Czy kiedykolwiek grałeś w pick-up za pięćdziesiąt dwie karty?

Nie jest to gra, której normalnie byś chętnie się podjął. Dlatego. Ktoś oferuje ci, że jest to rzekomo fajny sport, a jeśli weźmiesz słodką przynętę, wtedy rzucą całą talię kart do gry w powietrze i natychmiast na podłogę. Następnie osoba ta uśmiecha się do ciebie bezczelnie i każe ci iść dalej i odebrać karty. To cała gra.

Dowcipniś!

Mam do ciebie nieco przemyślane pytanie.

Załóżmy, że jedna z kart wsunęła się pod pobliską sofę. Kiedy skończysz zbierać wszystkie karty, będziesz wiedział, że brakuje jednej, ponieważ w twojej ręce będzie tylko pięćdziesiąt jeden.

Pytanie brzmi, czy możesz określić, której karty brakowało?

Jestem pewien, że od razu powiedziałbyś, że możesz łatwo dowiedzieć się, która karta nie była w twoich rękach. Wszystko, co musisz zrobić, to uporządkować talię. Wiesz, że standardowa talia składa się z czterech kolorów i że w każdym kolorze karty są ponumerowane od jednego do dziesięciu, a następnie walet, dama i król.

Wiesz o tym, ponieważ standardowa talia kart do gry jest oparta na standardzie.

Whoa, to stwierdzenie może wydawać się jednym z tych całkowicie oczywistych twierdzeń. No tak, oczywiście, standardowa talia do gry jest oparta na standardzie. Wszyscy to wiemy. Chodzi mi o to, że mając standard, możemy na nim polegać, kiedy jest to potrzebne. Oprócz możliwości wywnioskowania, której karty brakuje w talii, możesz również łatwo grać w miliony dobrze znanych gier karcianych z innymi ludźmi. Kiedy ktoś pozna zasady gry, może bezpośrednio zagrać, ponieważ już w pełni wie, z czego składa się ta talia. Nie trzeba im tłumaczyć, że talia składa się z czterech kolorów i różnie ponumerowanych kart. Oni już to wiedzą.

Dokąd z tym zmierzam?

Staram się poprowadzić cię ścieżką, która jest istotnym środkiem postępu w dziedzinie sztucznej inteligencji, a zwłaszcza w sferze etyki sztucznej inteligencji i etycznej sztucznej inteligencji. Widzisz, musimy spróbować wymyślić powszechne i uzgodnione standardy dotyczące etyki AI. Jeśli będziemy mogli to zrobić, zwiększy to łatwość przyjęcia etycznej sztucznej inteligencji i wyraźnie będzie dążyć do ulepszenia systemów sztucznej inteligencji, które są nieustannie rzucane na rynek (jak nienumerowana i nieuporządkowana talia dzikich kart). Aby zapoznać się z moim stałym i obszernym omówieniem etyki sztucznej inteligencji, etycznej sztucznej inteligencji i prawa sztucznej inteligencji, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Wspominam o tym, aby stworzyć podstawę do mojej dyskusji w tym miejscu, która skupi się na konkretnym segmencie lub części szerszej sfery etyki AI, a mianowicie, jak wspomniano wcześniej, na konkretnym elemencie stronniczości AI. Powodem, dla którego dzielę się z wami tym tematem, jest to, że dokument wydany przez Narodowy Instytut Standardów i Technologii (NIST) próbuje nas nakłonić do posuwania się w kierunku standardu charakteryzującego błędy AI. Dokument jest zatytułowany W kierunku standardu identyfikacji i zarządzania uprzedzeniami w sztucznej inteligencji autorzy Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt i Patrick Hall, i została opublikowana przez Departament Handlu USA, publikacja specjalna NIST 1270, w marcu 2022 r.

Będziemy rozpakowywać ten przydatny i zachęcający wysiłek w celu ustalenia, co rozumiemy przez uprzedzenia AI. Stare powiedzenie mówi, że nie możesz zarządzać tym, czego nie możesz zmierzyć. Mając standard, który określa różnorodność uprzedzeń AI, możesz zacząć mierzyć i zarządzać plagą uprzedzeń AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności AI Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do możliwości AI, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedur projektowych i dokumentacji.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

U podstaw wielu z tych kluczowych zasad etyki sztucznej inteligencji leży podstępna natura stronniczości sztucznej inteligencji.

Podobnie jak talia kart, z pewnością byłoby fajnie, gdybyśmy mogli w jakiś sposób pogrupować uprzedzenia AI w zestaw „kolorów” lub kategorii. Rzeczywiście, dokument NIST proponuje sugerowane grupowanie.

Proponowane są trzy główne kategorie:

1) Błędy systemowe

2) Błędy statystyczne i obliczeniowe

3) Ludzkie uprzedzenia

To, czy wszystkie uprzedzenia AI idealnie pasują do jednej z tych trzech kategorii, jest z pewnością czymś do rozważenia. Z pewnością możesz argumentować, że niektóre błędy AI należą do jednej, dwóch lub wszystkich trzech kategorii jednocześnie. Co więcej, możesz twierdzić, że więcej kategorii zasługuje na wymienienie, na przykład jakaś czwarta, piąta, szósta lub więcej serii grupowań.

Mam nadzieję, że tak myślisz, ponieważ musimy zaangażować wszystkich w pomoc w kształtowaniu tych standardów. Jeśli jesteś zdenerwowany sposobem, w jaki te standardy kształtują się po raz pierwszy, zachęcam cię, abyś zamienił tę energię na pomoc reszcie z nas w tworzeniu tych pączkujących standardów tak solidnych i kompletnych, jak można je wyrzeźbić.

Na razie możemy przyjrzeć się bliżej proponowanym trzem kategoriom i zobaczyć, z jakim układem mieliśmy do czynienia do tej pory (tak, zamierzam dalej używać analogii do talii kart do gry, robiąc to w całym tym pisemnym utworze możesz postawić swoją najniższą złotówkę na tego nie tak ukrytego asa motywu).

Co rozumiemy przez odwoływanie się do uprzedzeń systemowych?

Oto, co mówi dokument NIST: „Systemowe uprzedzenia wynikają z procedur i praktyk poszczególnych instytucji, które działają w sposób, który powoduje, że pewne grupy społeczne są uprzywilejowane lub faworyzowane, a inne pokrzywdzone lub zdewaluowane. Nie musi to wynikać z jakichkolwiek świadomych uprzedzeń lub dyskryminacji, ale raczej z przestrzegania przez większość istniejących zasad lub norm. Najczęstszymi przykładami są rasizm i seksizm instytucjonalny” (należy zauważyć, że jest to tylko krótki fragment i zachęcamy czytelników do zapoznania się z pełniejszym wyjaśnieniem).

Sztuczna inteligencja wchodzi w mieszankę systemowych uprzedzeń, zapewniając środki do przekazywania i stosowania tych uprzedzeń w aplikacjach opartych na sztucznej inteligencji. Za każdym razem, gdy korzystasz z oprogramowania wykorzystującego sztuczną inteligencję, o ile wiesz, może zawierać mnóstwo błędów, które są już wpisane do systemu za pośrednictwem firm i praktyk branżowych, które doprowadziły do ​​powstania sztucznej inteligencji. Zgodnie z badaniem NIST: „Te uprzedzenia są obecne w zbiorach danych wykorzystywanych w sztucznej inteligencji oraz w instytucjonalnych normach, praktykach i procesach w całym cyklu życia sztucznej inteligencji oraz w szerszej kulturze i społeczeństwie”.

Następnie rozważ zestaw błędów systematycznych oznaczonych jako błędy statystyczne i obliczeniowe.

Dokument NIST stwierdza to: „Błędy statystyczne i obliczeniowe wynikają z błędów, które pojawiają się, gdy próbka nie jest reprezentatywna dla populacji. Te uprzedzenia wynikają z błędu systematycznego, a nie z przypadkowych błędów i mogą wystąpić przy braku uprzedzeń, stronniczości lub dyskryminujących intencji. W systemach AI te błędy są obecne w zbiorach danych i procesach algorytmicznych wykorzystywanych przy opracowywaniu aplikacji AI i często pojawiają się, gdy algorytmy są szkolone na jednym rodzaju danych i nie mogą ekstrapolować poza te dane”.

Ten rodzaj błędu statystycznego i obliczeniowego jest często przygotowywany w systemie AI, który wykorzystuje uczenie maszynowe (ML) i uczenie głębokie (DL). Poruszenie poważnej kwestii współczesnego ML/DL wymaga powiązanej strony stycznej na temat tego, czym jest AI i czym jest ML/DL.

Upewnijmy się, że jesteśmy po tej samej stronie, jeśli chodzi o naturę dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. Najnowsza era sztucznej inteligencji szeroko wykorzystała uczenie maszynowe i głębokie uczenie, które wykorzystują dopasowanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia ludzkiego myślenia.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

To prowadzi nas prosto do trzeciej kategorii zestawu trzech grup NIST, a konkretnie roli ludzkich uprzedzeń w pojawianiu się uprzedzeń AI. Oto, co wskazał dokument NIST: „Ludzkie uprzedzenia odzwierciedlają systematyczne błędy w ludzkiej myśli oparte na ograniczonej liczbie zasad heurystycznych i przewidywaniu wartości dla prostszych operacji osądzania. Te uprzedzenia są często dorozumiane i zwykle odnoszą się do tego, jak osoba lub grupa postrzega informacje (takie jak automatyczne wyniki sztucznej inteligencji) w celu podjęcia decyzji lub uzupełnienia brakujących lub nieznanych informacji. Te uprzedzenia są wszechobecne w instytucjonalnych, grupowych i indywidualnych procesach decyzyjnych w całym cyklu życia AI oraz w korzystaniu z aplikacji AI po wdrożeniu”.

Masz teraz szybkie wprowadzenie do trzech kategorii.

Chciałbym podzielić się z wami dodatkowym pożywką do przemyśleń wyrażoną w dokumencie NIST. Wykres w ich narracji zawiera przydatne podsumowanie kluczowych pytań i rozważań, które leżą u podstaw każdego z trzech zestawów stronniczości sztucznej inteligencji. Wymieniam je tutaj dla wygody odniesienia i zbudowania.

#1: Błędy systemowe

  • Kto jest liczony, a kto nie jest liczony?

— Problemy ze zmiennymi ukrytymi

— Niedoreprezentacja grup marginalizowanych

— Automatyzacja nierówności

— Niedoreprezentacja w wyznaczaniu funkcji użyteczności

— Procesy faworyzujące większość/mniejszość

— Nastawienie kulturowe w funkcji celu (najlepsze dla osób vs. najlepsze dla grupy)

  • Skąd wiemy, co jest słuszne?

— Wzmocnienie nierówności (grupy są bardziej narażone na większe wykorzystanie sztucznej inteligencji)

— Bardziej negatywny wpływ na politykę predykcyjną

— Powszechne przyjęcie wspólnych przejazdów/samochodów samojezdnych/itp. może zmienić politykę, która ma wpływ na populację w oparciu o użytkowanie

#2: Błędy statystyczne i obliczeniowe

  • Kto jest liczony, a kto nie jest liczony?

— Błąd w próbkowaniu i selekcji

— Używanie zmiennych pośredniczących, ponieważ są one łatwiejsze do zmierzenia

— Stronniczość automatyzacji

— Skala Likerta (od kategorycznej do porządkowej do kardynalnej)

— Nieliniowe vs liniowe

- Ekologiczny błąd

— Minimalizacja normy L1 vs. L2

— Ogólna trudność w ilościowym określeniu zjawisk kontekstowych

  • Skąd wiemy, co jest słuszne?

— Brak odpowiedniej walidacji krzyżowej

— Błąd przeżywalności

— Trudności z uczciwością

#3: Ludzkie uprzedzenia

  • Kto jest liczony, a kto nie jest liczony?

— Odchylenie obserwacyjne (efekt światła ulicznego)

— Błąd dostępności (kotwiczenie)

— błąd McNamary

— Myślenie grupowe prowadzi do wąskich wyborów

— Efekt Raszomona prowadzi do subiektywnego rzecznictwa

— Trudności w określeniu ilościowym celów mogą prowadzić do błędu McNamary

  • Skąd wiemy, co jest słuszne?

— Błąd potwierdzenia

— Stronniczość automatyzacji

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać trzy kategorie błędów sztucznej inteligencji. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, które żywo przedstawiają ten dylemat etycznej sztucznej inteligencji, jest pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji wyjaśnia cokolwiek na temat trzech proponowanych kategorii uprzedzeń sztucznej inteligencji, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i uprzedzenia AI

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani do głębokiego zanurzenia się w autonomicznych samochodach i możliwościach etycznej sztucznej inteligencji, obejmujących trzy kategorie stronniczości sztucznej inteligencji.

Wyobraź sobie, że autonomiczny samochód oparty na sztucznej inteligencji jest w ruchu na ulicach Twojej okolicy i wydaje się jechać bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na autonomiczny samochód. Autonomiczny pojazd wyróżniał się regałem z czujnikami elektronicznymi, na który składały się kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojezdnego samochodu jeżdżącego po Twojej społeczności, ledwo go zauważasz. Dla Ciebie to tylko kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zaznajomienie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które wchodzą w zakres testów autonomicznych samochodów, stopniowo przyzwyczaiły się do oglądania spreparowanych pojazdów, zobacz moją analizę na Ten link tutaj. Wielu miejscowych w końcu przeszło z gapiących się na gapiów, którzy teraz ziewnęli z nudów, gdy byli świadkami wijących się samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wróćmy do naszej opowieści.

Zastanowimy się teraz, w jaki sposób systemowe uprzedzenia mogą odgrywać rolę w kontekście autonomicznych samochodów.

Niektórzy eksperci obawiają się, że autonomiczne samochody będą domeną tylko zamożnych i elity. Możliwe, że koszty korzystania z autonomicznych samochodów będą zaporowo wysokie. Jeśli nie masz dużych pieniędzy, możesz nigdy nie zobaczyć wnętrza autonomicznego samochodu. Ci, którzy będą korzystać z autonomicznych samochodów, będą musieli być bogaci, twierdzi się rzekomo.

W związku z tym niektórzy w sposób niepokojący nawołują, że pojawienie się autonomicznych samochodów opartych na sztucznej inteligencji przeniknie do pewnego rodzaju systemowego uprzedzenia. Ogólny system przemysłowy pojazdów autonomicznych jako całość utrzyma autonomiczne samochody z rąk tych, którzy są biedni lub mniej zamożni. Niekoniecznie musi to być jawne zamierzenie i po prostu okazuje się, że jedynym sposobem na odzyskanie uciążliwych kosztów wynalezienia autonomicznych samochodów będzie pobieranie skandalicznie wysokich cen.

Jeśli ripostujesz, że dzisiaj są te testy samojezdnych samochodów, które pozwalają zwykłym ludziom korzystać, a zatem wydaje się oczywiste, że nie musisz być bogaty per se, kontrargumentem jest to, że jest to rodzaj gry typu shell, ponieważ to było. Producenci samochodów i autonomiczne firmy technologiczne podobno chcą sprawić, by wyglądało na to, że koszt nie będzie istotną barierą. Robią to teraz dla celów public relations i podniosą ceny, gdy zrozumieją zmarszczki. Konspirator może nawet twierdzić, że „świnki morskie” jako zwykli ludzie są zgubnie wykorzystywani, aby umożliwić bogatym wzbogacenie się.

Tak więc, biorąc pod uwagę dość kontrowersyjną sprawę i wkładając swoje dwa grosze na ten paskudny temat, nie wierzę, że autonomiczne samochody będą miały wyższą cenę w codziennym użytkowaniu. Nie będę wchodzić w szczegóły dotyczące mojej podstawy do złożenia takiego roszczenia i zapraszam do obejrzenia moich uważnych dyskusji pod adresem link tutaj a także o link tutaj.

Idąc dalej, możemy następnie rozważyć kwestię błędów statystycznych i obliczeniowych związanych z sztuczną inteligencją.

Zastanów się nad pozornie nieistotnym pytaniem, gdzie autonomiczne samochody będą wędrować po pasażerów. Wydaje się, że jest to temat nazbyt nieszkodliwy. Wykorzystamy opowieść o mieście lub mieście, które ma autonomiczne samochody, aby podkreślić być może zaskakująco potencjalne widmo błędów statystycznych i obliczeniowych związanych ze sztuczną inteligencją.

Na początku załóżmy, że sztuczna inteligencja przemierzała samojezdne samochody po całym mieście. Każdy, kto chciał poprosić o przejażdżkę samojezdnym samochodem, miał w zasadzie równe szanse na okrzyknięcia. Stopniowo sztuczna inteligencja zaczęła przede wszystkim utrzymywać autonomiczne samochody wędrujące tylko po jednej części miasta. Ta sekcja była większym narzędziem do zarabiania pieniędzy, a system sztucznej inteligencji został zaprogramowany tak, aby próbować maksymalizować przychody w ramach użytkowania w społeczności.

Członkowie społeczności w zubożałych częściach miasta mieli mniejsze szanse na podwiezienie autonomicznego samochodu. Wynikało to z tego, że autonomiczne samochody były dalej i krążyły po okolicy o wyższych dochodach. Gdy nadeszło żądanie z odległej części miasta, każde żądanie z bliższego miejsca, które prawdopodobnie znajdowało się w „szanowanej” części miasta, miałoby wyższy priorytet. W końcu możliwość zdobycia autonomicznego samochodu w dowolnym miejscu poza bogatszą częścią miasta była prawie niemożliwa, co było irytujące dla tych, którzy mieszkali na obszarach teraz ubogich w zasoby.

Można stwierdzić, że sztuczna inteligencja w dużej mierze wylądowała na formie błędów statystycznych i obliczeniowych, podobnych do formy dyskryminacji pośredniej (często nazywanej dyskryminacją pośrednią). Sztuczna inteligencja nie została zaprogramowana, by unikać tych biedniejszych dzielnic. Zamiast tego „nauczył się” tego robić, korzystając z ML/DL.

Zakładano, że sztuczna inteligencja nigdy nie wpadnie w tak haniebne ruchome piaski. Nie stworzono żadnego specjalistycznego monitoringu, aby śledzić, dokąd jadą autonomiczne samochody oparte na sztucznej inteligencji. Dopiero gdy członkowie społeczności zaczęli narzekać, władze miasta zorientowały się, co się dzieje. Aby uzyskać więcej informacji na temat tego typu ogólnomiejskich problemów, które będą przedstawiać pojazdy autonomiczne i samochody autonomiczne, zobacz moje relacje na Ten link tutaj i który opisuje badanie prowadzone przez Harvard, którego jestem współautorem na ten temat.

W przypadku trzeciej kategorii uprzedzeń ludzkich związanych z uprzedzeniami AI, zwracamy się do przykładu, w którym sztuczna inteligencja decyduje, czy zatrzymać się, by czekać na pieszych, którzy nie mają pierwszeństwa w przejściu przez ulicę.

Bez wątpienia prowadziłeś samochód i spotkałeś pieszych, którzy czekali na przejście przez ulicę, a mimo to nie mieli pierwszeństwa przejazdu. Oznaczało to, że miałeś swobodę wyboru, czy zatrzymać się i pozwolić im przejść. Możesz kontynuować, nie pozwalając im przekroczyć granicy i nadal w pełni przestrzegać przepisów prawa jazdy.

Badania nad tym, jak ludzie decydują się na zatrzymanie lub nie zatrzymywanie się dla takich pieszych, sugerują, że czasami kierowcy dokonują wyboru w oparciu o niesłuszne uprzedzenia. Kierowca może spojrzeć na pieszego i zdecydować się nie zatrzymywać, nawet jeśli zatrzymałby się, gdyby pieszy miał inny wygląd, na przykład ze względu na rasę lub płeć. Sprawdziłem to w link tutaj.

Wyobraź sobie, że autonomiczne samochody oparte na sztucznej inteligencji są zaprogramowane tak, aby radzić sobie z pytaniem, czy zatrzymać się, czy nie, dla pieszych, którzy nie mają pierwszeństwa. Oto jak twórcy AI postanowili zaprogramować to zadanie. Zebrali dane z miejskich kamer wideo, które są rozmieszczone w całym mieście. Dane pokazują kierowców, którzy zatrzymują się dla pieszych, którzy nie mają pierwszeństwa, i kierowców, którzy się nie zatrzymują. Wszystko to jest gromadzone w dużym zbiorze danych.

Korzystając z uczenia maszynowego i uczenia głębokiego, dane są modelowane obliczeniowo. System jazdy AI wykorzystuje następnie ten model, aby zdecydować, kiedy się zatrzymać, a kiedy nie. Generalnie chodzi o to, że niezależnie od tego, na czym polega lokalny zwyczaj, w ten sposób sztuczna inteligencja kieruje autonomicznym samochodem.

Ku zaskoczeniu przywódców miasta i mieszkańców AI najwyraźniej zdecydowała się zatrzymać lub nie zatrzymywać się w oparciu o wiek pieszego. Jak to się mogło stać?

Po bliższym zapoznaniu się z nagraniem wideo, na którym widać dyskrecję ludzkiego kierowcy, okazuje się, że wiele przypadków niezatrzymywania się dotyczyło pieszych z laską seniora. Kierowcy najwyraźniej nie chcieli zatrzymywać się i przepuszczać starszej osoby przez ulicę, prawdopodobnie ze względu na przewidywany czas, jaki może zająć komuś podróż. Jeśli pieszy wyglądał, jakby mógł szybko przebiec przez ulicę i zminimalizować czas oczekiwania kierowcy, kierowcy byli bardziej skłonni do przepuszczania tej osoby.

Zostało to głęboko zakopane w systemie jazdy AI. Czujniki autonomicznego samochodu skanowałyby oczekującego pieszego, wprowadzałyby te dane do modelu ML/DL, a model wysyłałby do AI, czy ma się zatrzymać, czy kontynuować. Wszelkie wizualne wskazówki, że pieszy może powoli przechodzić, takie jak użycie laski, były matematycznie wykorzystywane do określenia, czy system jazdy AI powinien przepuścić oczekującego pieszego na przejście, czy nie.

Można twierdzić, że było to poleganie na wcześniej istniejących ludzkich uprzedzeniach.

Wnioski

Na razie kilka końcowych przemyśleń.

Jest popularne powiedzenie, że nie możesz zmienić kart, które otrzymujesz, i zamiast tego musisz nauczyć się, jak prawidłowo grać z dowolną ręką, którą otrzymałeś.

W przypadku stronniczości sztucznej inteligencji, jeśli nie zajmiemy się gorliwie ustalaniem etyki sztucznej inteligencji, a zwłaszcza utrwalimy charakterystykę stronniczości sztucznej inteligencji, rodzaje rozdań, z którymi będziemy mieli do czynienia, będą przepełnione obskurnymi nieetycznymi, i ewentualnie warstwy niezgodnej z prawem. Po pierwsze, musimy powstrzymać rozdawanie tych kart. Odważny cel tworzenia i rozpowszechniania standardów etycznej sztucznej inteligencji jest kluczowym narzędziem do zwalczania rosnącego tsunami nadchodzącego AI na złe.

Zdecydowanie możesz przyjąć do banku, że szalejące nastawienie AI i nieetyczna sztuczna inteligencja będą jak kruchy domek z kart, implodujący sam w sobie i prawdopodobnie katastrofalny dla nas wszystkich.

Grajmy, aby wygrać, robiąc to z odpowiednio etyczną sztuczną inteligencją.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- uprzedzenia/