Etyka AI bije na alarm o zbliżającym się widmie uprzedzeń AI na ogromną skalę globalną, szczególnie napędzaną przez zbliżające się w pełni autonomiczne systemy

Platon zasłynął ze stwierdzenia, że ​​dobra decyzja opiera się na wiedzy, a nie na liczbach.

Ten bystry wgląd wydaje się zdumiewająco proroczy w kontekście dzisiejszej sztucznej inteligencji (AI).

Widzisz, pomimo rażących nagłówków, które obecnie głoszą, że sztuczna inteligencja w jakiś sposób osiągnęła świadomość i ucieleśnia ludzką wiedzę i rozumowanie, proszę mieć świadomość, że ta przesadna hiperbola dotycząca sztucznej inteligencji jest podstępnym oszustwem, ponieważ w dzisiejszym procesie decyzyjnym algorytmów nadal polegamy na przetwarzaniu liczb (ADM ) podejmowane przez systemy sztucznej inteligencji. Nawet osławione uczenie maszynowe (ML) i głębokie uczenie się (DL) polegają na dopasowywaniu wzorców obliczeniowych, co oznacza, że ​​liczby nadal stanowią podstawę wzniosłego wykorzystania ML/DL.

Nie wiemy, czy osiągnięcie świadomości przez sztuczną inteligencję jest możliwe. Może być, może nie być. Nikt nie jest w stanie powiedzieć z całą pewnością, jak do tego doszło. Niektórzy uważają, że będziemy stopniowo ulepszać nasze wysiłki w zakresie obliczeniowej sztucznej inteligencji, tak że forma odczuwania pojawi się spontanicznie. Inni uważają, że sztuczna inteligencja może wejść w swego rodzaju obliczeniową supernową i osiągnąć zdolność odczuwania w zasadzie samoistnie (co jest zwykle określane jako osobliwość). Więcej informacji na temat teorii na temat przyszłości sztucznej inteligencji można znaleźć w moim artykule na stronie link tutaj.

Nie oszukujmy się zatem i nie łudźmy, że współczesna sztuczna inteligencja potrafi myśleć jak ludzie. Przypuszczam, że w związku z uwagą Platona na pierwszy plan wysuwa się pytanie, czy możemy podejmować dobre decyzje w oparciu o obliczeniową sztuczną inteligencję, a nie świadomą sztuczną inteligencję. Możesz być zaskoczony, gdy dowiesz się, że stwierdziłbym, że rzeczywiście możemy podejmować dobre decyzje za pomocą codziennych systemów sztucznej inteligencji.

Drugą stroną tego medalu jest to, że możemy mieć również codzienne systemy sztucznej inteligencji, które podejmują złe decyzje. Zgniłe decyzje. Decyzje pełne niewłaściwych uprzedzeń i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy obecnie nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Mój obszerny opis etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć pod adresem Ten link tutaj i Ten link tutaj, żeby wymienić tylko kilka.

W ramach tej dyskusji chciałbym poruszyć szczególnie niepokojący aspekt sztucznej inteligencji, nad którym osoby zajmujące się etyką sztucznej inteligencji słusznie ubolewają i starają się zwiększyć odpowiednią świadomość. Otrzeźwiającą i niepokojącą sprawę można w rzeczywistości dość łatwo wskazać.

Tutaj jest: Sztuczna inteligencja ma rzeczywisty potencjał szerzenia uprzedzeń przesiąkniętych sztuczną inteligencją w alarmującej skali globalnej.

A kiedy mówię „na skalę”, wyraźnie oznacza to masową skalę ogólnoświatową. Ogromna skala. Skala wykraczająca poza skalę.

Zanim zagłębię się w to, jak będzie miało miejsce skalowanie uprzedzeń przesiąkniętych sztuczną inteligencją, upewnijmy się, że wszyscy mamy pozory tego, w jaki sposób sztuczna inteligencja może uwzględniać nadmierne uprzedzenia i nierówności. Przypomnijmy sobie jeszcze raz, że nie jest to odmiana czująca. To wszystko ma charakter obliczeniowy.

Możesz być zakłopotany tym, w jaki sposób sztuczna inteligencja może nasycić te same rodzaje niekorzystnych uprzedzeń i nierówności, co ludzie. Mamy tendencję do myślenia o sztucznej inteligencji jako całkowicie neutralnej, bezstronnej, po prostu maszynie, która nie ma emocjonalnego kołysania i wstrętnego myślenia, jakie mogą mieć ludzie. Jednym z najczęstszych sposobów, w jaki sztuczna inteligencja popada w błędy i nierówności, ma miejsce podczas korzystania z uczenia maszynowego i uczenia głębokiego, częściowo w wyniku polegania na zebranych danych o tym, jak ludzie podejmują decyzje.

Daj mi chwilę na rozwinięcie.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, uwzględniali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub dopasowywanie wzorców obliczeniowych głębokiego uczenia po prostu spróbuje odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji lub ADM AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

To prowadzi nas do kwestii uprzedzeń związanych ze sztuczną inteligencją, jeśli chodzi o skalę.

Najpierw przyjrzyjmy się, jak ludzkie uprzedzenia mogą powodować nierówności. Firma udzielająca kredytów hipotecznych decyduje się na zatrudnienie agenta kredytów hipotecznych. Agent ma za zadanie przeglądać wnioski konsumentów chcących otrzymać kredyt mieszkaniowy. Po ocenie wniosku agent podejmuje decyzję o udzieleniu lub odmowie przyznania pożyczki. Bułka z masłem.

Na potrzeby dyskusji wyobraźmy sobie, że agent pożyczkowy może przeanalizować 8 pożyczek dziennie, co zajmuje około godziny na sprawdzenie. W ciągu pięciodniowego tygodnia pracy agent dokonuje około 40 przeglądów kredytów. Rocznie agent zazwyczaj dokonuje około 2,000 przeglądów pożyczek, dając lub biorąc trochę.

Firma chce zwiększyć wolumen przeglądów kredytów, dlatego zatrudnia 100 dodatkowych agentów pożyczkowych. Załóżmy, że wszyscy mają mniej więcej taką samą produktywność, co oznacza, że ​​możemy obecnie obsłużyć około 200,000 2,000 pożyczek rocznie (przy współczynniku XNUMX przeglądów pożyczek rocznie na agenta). Wygląda na to, że naprawdę przyspieszyliśmy przetwarzanie wniosków kredytowych.

Okazuje się, że firma opracowuje system sztucznej inteligencji, który zasadniczo może przeprowadzać te same przeglądy kredytów, co agenci ludzcy. Sztuczna inteligencja działa na serwerach komputerowych w chmurze. Dzięki infrastrukturze chmurowej firma może łatwo zwiększyć moc obliczeniową, aby obsłużyć dowolną liczbę przeglądów kredytów, które mogą być potrzebne.

Przy istniejącej konfiguracji AI mogą przeprowadzić 1,000 przeglądów kredytów na godzinę. To również może się zdarzyć 24 godziny na dobę, 7 dni w tygodniu. AI nie potrzebuje urlopu. Żadnych przerw na lunch. Sztuczna inteligencja działa przez całą dobę i nie narzeka na przepracowanie. Powiedzmy, że w takim przybliżonym tempie sztuczna inteligencja jest w stanie przetworzyć blisko 9 milionów wniosków kredytowych rocznie.

Należy zauważyć, że przeszliśmy od zatrudniania 100 pracowników, którzy mogliby udzielić 200,000 9 pożyczek rocznie, i wielokrotnie przeszliśmy do znacznie zwiększonej liczby XNUMX milionów recenzji rocznie za pośrednictwem systemu sztucznej inteligencji. Radykalnie zwiększyliśmy przetwarzanie wniosków o pożyczkę. Nie ma wątpliwości.

Przygotuj się na kopacza, od którego być może spadniesz z krzesła.

Załóżmy, że niektórzy z naszych ludzkich agentów podejmują decyzje kredytowe na podstawie niewłaściwych uprzedzeń. Być może niektórzy przypisują czynnikom rasowym kluczową rolę w podejmowaniu decyzji o pożyczce. Być może niektórzy używają płci. Inni używają wieku. I tak dalej.

Ile spośród 200,000 10 corocznych przeglądów kredytów przeprowadza się pod błędnym spojrzeniem na niekorzystne uprzedzenia i nierówności? Być może 20,000%, czyli około 50 100,000 wniosków o pożyczkę. Co gorsza, załóżmy, że jest to XNUMX% wniosków o pożyczkę, a w tym przypadku mamy do czynienia z dość niepokojącą liczbą XNUMX XNUMX przypadków błędnych decyzji kredytowych rocznie.

To źle. Musimy jednak jeszcze rozważyć jeszcze bardziej przerażającą możliwość.

Załóżmy, że sztuczna inteligencja ma ukryte uprzedzenia, na które składają się takie czynniki, jak rasa, płeć, wiek i tym podobne. Jeśli 10% rocznych analiz kredytów podlega tej niesmaczności, mamy 900,000 100 wniosków o pożyczkę, które są niewłaściwie obsługiwane. To o wiele więcej, niż mogliby zrobić agenci ludzcy, głównie ze względu na aspekty objętości. Gdyby wszyscy ci 200,000 agentów dokonywali niesprawiedliwego przeglądu, mogliby to zrobić co najwyżej na podstawie 9,000,000 XNUMX rocznych przeglądów kredytów. Sztuczna inteligencja mogłaby zrobić to samo na znacznie większą skalę w ramach XNUMX XNUMX XNUMX rocznych przeglądów.

Chodzi!

To naprawdę przesiąknięta sztuczną inteligencją stronniczość na ogromną skalę.

Kiedy w systemie sztucznej inteligencji zakorzenione zostaną niepożądane uprzedzenia, to samo skalowanie, które wydawało się korzystne, zostaje teraz wywrócone do góry nogami i staje się potwornie zwodniczym (i niepokojącym) efektem skalowania. Z jednej strony sztuczna inteligencja może z korzyścią zwiększyć swoją wydajność, aby obsłużyć większą liczbę osób ubiegających się o kredyty mieszkaniowe. Na pozór wydaje się to ogromne AI na dobre. Powinniśmy poklepać się po plecach za przypuszczalne zwiększenie szans ludzi na uzyskanie potrzebnych pożyczek. Tymczasem, jeśli sztuczna inteligencja ma wbudowane uprzedzenia, skalowanie będzie niezwykle kiepskim skutkiem i żałośnie pogrążymy się w AI na złe, na naprawdę masową skalę.

Przysłowiowy miecz obosieczny.

Sztuczna inteligencja może radykalnie zwiększyć dostęp do procesu decyzyjnego dla tych, którzy szukają pożądanych usług i produktów. Nigdy więcej wąskiego gardła w pracy ograniczonego przez człowieka. Wybitny! Drugą krawędzią miecza jest to, że jeśli sztuczna inteligencja zawiera zło, takie jak ukryte nierówności, to samo masowe skalowanie spowoduje rozpowszechnienie tego niewłaściwego zachowania na niewyobrażalną skalę. Irytujące, bezprawne, haniebne i nie możemy pozwolić, aby społeczeństwo wpadło w tak brzydką otchłań.

Każdy, kto zastanawiał się, dlaczego musimy zastanawiać się nad znaczeniem etyki sztucznej inteligencji, powinien teraz zdać sobie sprawę, że zjawisko skalowania sztucznej inteligencji jest cholernie ważnym powodem do podążania za etyczną sztuczną inteligencją. Poświęćmy chwilę na krótkie rozważenie niektórych kluczowych zasad etyki sztucznej inteligencji, aby zilustrować, na czym powinien się skupiać każdy, kto tworzy, wystawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności AI Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do możliwości AI, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedur projektowych i dokumentacji.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, określenie szczegółów leżących u podstaw tych zasad może być niezwykle trudne. Co więcej, próba przekształcenia tych ogólnych zasad w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów sztucznej inteligencji, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest machać ręką na temat zasad etyki sztucznej inteligencji i tego, jak należy ich ogólnie przestrzegać, podczas gdy sytuacja jest znacznie bardziej skomplikowana, gdy kodowanie sztucznej inteligencji musi być prawdziwą gumą, która spełnia wymogi.

Zasady etyki AI mają być stosowane przez twórców sztucznej inteligencji, a także osoby zarządzające wysiłkami w zakresie rozwoju sztucznej inteligencji, a nawet te, które ostatecznie zajmują się wdrażaniem i konserwacją systemów sztucznej inteligencji. Wszyscy interesariusze w całym cyklu życia AI, rozwoju i użytkowania, są brani pod uwagę w zakresie przestrzegania ustalanych norm Etycznej AI. Jest to ważna informacja, ponieważ zwykle zakłada się, że „tylko programiści” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom etyki sztucznej inteligencji. Należy pamiętać, że do opracowania i wykorzystania sztucznej inteligencji potrzeba całej wioski. Przez co cała wioska musi bacznie przestrzegać zasad etyki sztucznej inteligencji.

Jak działa skalowanie uprzedzeń opartych na sztucznej inteligencji

Teraz, gdy już doszedłem do wniosku, że sztuczna inteligencja może zawierać błędy, jesteśmy gotowi zbadać niektóre powody, dla których skalowanie sztucznej inteligencji jest tak uciążliwe.

Rozważ tę kluczową listę dziesięciu podstawowych powodów:

  1. Łatwo replikowane
  2. Minimalny koszt skalowania
  3. Okropnie spójne
  4. Brak autorefleksji
  5. Ślepe posłuszeństwo
  6. Nie macha ręką
  7. Odbiorca niczego nie podejrzewający
  8. Nie skłania do prowokacji
  9. Fałszywa aura sprawiedliwości
  10. Trudno zaprzeczyć

Pokrótce omówię każdy z tych kluczowych punktów.

Jeśli spróbujesz zwiększyć skalę pracy, wykorzystując pracę ludzką, istnieje duże prawdopodobieństwo, że będzie to niezwykle skomplikowane. Trzeba znaleźć i zatrudnić ludzi. Trzeba ich przeszkolić, żeby wykonali tę pracę. Trzeba im płacić i brać pod uwagę ludzkie pragnienia i potrzeby. Porównaj to z systemem AI. Rozwijasz go i wprowadzasz w życie. Oprócz ciągłego utrzymywania sztucznej inteligencji, możesz usiąść i pozwolić jej działać w nieskończoność.

Oznacza to, że sztuczną inteligencję można łatwo replikować. Możesz dodać więcej mocy obliczeniowej, jeśli wymagają tego zadania i objętość (nie zatrudniasz ani nie zwalniasz). Globalne wykorzystanie odbywa się za naciśnięciem jednego przycisku i jest osiągane dzięki ogólnoświatowej dostępności Internetu. Zwiększanie skali jest minimalnym kosztem w porównaniu z pracą ludzką.

Praca ludzka jest notorycznie niespójna. Kiedy masz duże zespoły, masz prawdziwe pudełko czekoladek, w którym nigdy nie wiesz, co możesz mieć w rękach. System sztucznej inteligencji będzie prawdopodobnie bardzo spójny. Powtarza te same czynności w kółko, za każdym razem zasadniczo tak samo jak poprzednio.

Zwykle cieszylibyśmy się spójnością sztucznej inteligencji. Jeśli ludzie są podatni na uprzedzenia, zawsze będzie jakaś część naszej ludzkiej pracy, która pójdzie na manowce. Sztuczna inteligencja, gdyby była całkowicie bezstronna w swojej konstrukcji i wysiłkach obliczeniowych, byłaby zdecydowanie bardziej spójna. Problem polega jednak na tym, że jeśli sztuczna inteligencja ma ukryte uprzedzenia, jej spójność jest teraz boleśnie odrażająca. Istnieje ryzyko, że stronnicze zachowanie będzie stale powtarzane.

Miejmy nadzieję, że ludzie posiądą pewne pojęcie o autorefleksji i być może przyłapią się na podejmowaniu stronniczych decyzji. Nie mówię, że wszyscy by tak zrobili. Nie twierdzę też, że ci, którzy się złapią, koniecznie naprawią swoje błędy. W każdym razie przynajmniej niektórzy ludzie czasami poprawialiby się.

Jest mało prawdopodobne, aby sztuczna inteligencja posiadała jakąkolwiek formę obliczeniowej autorefleksji. Oznacza to, że sztuczna inteligencja po prostu kontynuuje to, co robi. Pozornie szanse na to, że sztuczna inteligencja wykryje, że narusza zasadę równości, są zerowe. Mając to na uwadze, opisałem pewne wysiłki mające na celu poradzenie sobie z tym problemem, takie jak budowanie komponentów etyki AI w ramach AI (patrz link tutaj) i opracowanie sztucznej inteligencji, która monitoruje inną sztuczną inteligencję w celu wykrycia nieetycznych działań sztucznej inteligencji (patrz link tutaj).

Pozbawiona jakiejkolwiek autorefleksji, sztuczna inteligencja będzie również prawdopodobnie zasadniczo ślepa posłuszna temu, co jej polecono. Ludzie mogą nie być tak posłuszni. Istnieje prawdopodobieństwo, że niektórzy ludzie wykonujący jakieś zadanie zadają sobie pytanie, czy nie zostali sprowadzeni na terytorium nierówności. Zwykle odrzucaliby nieetyczne polecenia lub pójdą drogą sygnalisty (zobacz moją relację na stronie Ten link tutaj). Nie należy się spodziewać, że współczesna sztuczna inteligencja w jakiś sposób zakwestionuje swoje oprogramowanie.

Następnie zajmiemy się tymi, którzy korzystają ze sztucznej inteligencji. Jeśli szukasz kredytu mieszkaniowego i rozmawiasz z człowiekiem, możesz być czujny, czy ten człowiek potrząsa tobą uczciwie. Większość ludzi, korzystając z systemu sztucznej inteligencji, wydaje się mniej podejrzliwa. Często zakładają, że sztuczna inteligencja jest sprawiedliwa i dlatego nie denerwują się tak szybko. Wydaje się, że sztuczna inteligencja wprawia ludzi w trans „to tylko maszyna”. Co więcej, protestowanie przeciwko sztucznej inteligencji może być trudne. Dla kontrastu, protestowanie przeciwko temu, jak zostałeś potraktowany przez człowieka, jest o wiele łatwiejsze i znacznie częściej akceptowane i zakładane, że jest to wykonalne.

Podsumowując, sztuczna inteligencja przesiąknięta uprzedzeniami ma haniebną przewagę nad ludźmi przesiąkniętymi uprzedzeniami, mianowicie pod względem możliwości wykorzystania przez sztuczną inteligencję masowego wdrażania tych uprzedzeń na gigantyczną skalę, unikając przy tym tak łatwego złapania lub posiadania konsumentów zdać sobie sprawę z tego, co dzieje się niepokojąco.

Założę się, że na tym etapie tej dyskusji pragniesz kilku dodatkowych przykładów, które mogłyby na dużą skalę ukazać zagadkę uprzedzeń przesiąkniętych sztuczną inteligencją.

Cieszę się, że zapytałeś.

Istnieje specjalny i niewątpliwie popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na jakiekolwiek uprzedzenia związane ze sztuczną inteligencją na dużą skalę, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Na poziomie 5 nie ma jeszcze prawdziwego samochodu do samodzielnego prowadzenia, którego nawet nie wiemy, czy będzie to możliwe do osiągnięcia, ani jak długo to zajmie.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i błędy sztucznej inteligencji na dużą skalę

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani, aby dogłębnie przyjrzeć się samochodom autonomicznym i możliwościom etycznym sztucznej inteligencji, co wiąże się z badaniem uprzedzeń związanych ze sztuczną inteligencją, które są rozpowszechniane na dużą skalę.

Użyjmy prostego przykładu. Autonomiczny samochód oparty na sztucznej inteligencji porusza się po ulicach Twojej okolicy i wydaje się, że jeździ bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na samojezdny samochód. Autonomiczny pojazd wyróżniał się zestawem czujników elektronicznych, które obejmowały kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojeżdżącego samochodu krążącego po Twojej społeczności, teraz prawie go nie zauważasz. Dla Państwa jest to po prostu kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zaznajomienie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które wchodzą w zakres testów autonomicznych samochodów, stopniowo przyzwyczaiły się do oglądania spreparowanych pojazdów, zobacz moją analizę na Ten link tutaj. Wielu miejscowych w końcu przeszło z gapiących się na gapiów, którzy teraz ziewnęli z nudów, gdy byli świadkami wijących się samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wróćmy do naszej opowieści.

Okazuje się, że zaczynają pojawiać się dwa niestosowne obawy dotyczące skądinąd nieszkodliwych i ogólnie przyjętych samochodów autonomicznych opartych na sztucznej inteligencji, a konkretnie:

a. Tam, gdzie sztuczna inteligencja wędruje, samojezdne samochody do odbierania przejażdżek, pojawiały się jako wyrażona troska

b. To, w jaki sposób sztuczna inteligencja traktuje oczekujących pieszych, którzy nie mają pierwszeństwa, pojawiało się jako palący problem

Początkowo sztuczna inteligencja przemierzała samojezdne samochody po całym mieście. Każdy, kto chciał poprosić o przejażdżkę autonomicznym samochodem, miał w zasadzie równe szanse na okrzyknięcia. Stopniowo sztuczna inteligencja zaczęła przede wszystkim utrzymywać autonomiczne samochody wędrujące tylko po jednej części miasta. Ta sekcja była większym narzędziem do zarabiania pieniędzy, a system sztucznej inteligencji został zaprogramowany tak, aby próbować maksymalizować przychody w ramach użytkowania w społeczności.

Członkowie społeczności w zubożałych częściach miasta mieli mniejsze szanse na podwiezienie autonomicznego samochodu. Wynikało to z tego, że autonomiczne samochody były dalej i krążyły po okolicy o wyższych dochodach. Gdy nadeszło żądanie z odległej części miasta, każde żądanie z bliższego miejsca, które prawdopodobnie znajdowało się w „szanowanej” części miasta, miałoby wyższy priorytet. W końcu możliwość zdobycia autonomicznego samochodu w dowolnym miejscu poza bogatszą częścią miasta była prawie niemożliwa, co było irytujące dla tych, którzy mieszkali na obszarach teraz ubogich w zasoby.

Można powiedzieć, że sztuczna inteligencja w dużej mierze wylądowała na formie dyskryminacji zastępczej (często określanej również jako dyskryminacja pośrednia). Sztuczna inteligencja nie została zaprogramowana, by unikać tych biedniejszych dzielnic. Zamiast tego „nauczył się” tego robić, korzystając z ML/DL.

Chodzi o to, że ludzie jeżdżący na przejażdżkach byli znani z robienia tego samego, choć niekoniecznie wyłącznie ze względu na perspektywę zarabiania pieniędzy. Niektórzy z ludzkich kierowców jeżdżących na wspólne przejażdżki mieli niesamowitą skłonność do zabierania pasażerów w niektórych częściach miasta. Było to dość znane zjawisko, a miasto wdrożyło podejście monitorujące, aby przyłapać kierowców na takich czynnościach. Kierowcy mogą mieć kłopoty za przeprowadzanie niesmacznych praktyk selekcji.

Zakładano, że sztuczna inteligencja nigdy nie wpadnie w ten sam rodzaj ruchomych piasków. Nie skonfigurowano żadnego specjalistycznego monitoringu, aby śledzić, dokąd jadą autonomiczne samochody oparte na sztucznej inteligencji. Dopiero gdy członkowie społeczności zaczęli narzekać, władze miasta zorientowały się, co się dzieje. Aby uzyskać więcej informacji na temat tego typu ogólnomiejskich problemów, które będą przedstawiać pojazdy autonomiczne i samochody autonomiczne, zobacz moje relacje na Ten link tutaj i który opisuje badanie prowadzone przez Harvard, którego jestem współautorem na ten temat.

Ten przykład aspektów roamingu w samochodach autonomicznych opartych na sztucznej inteligencji ilustruje wcześniejsze wskazanie, że mogą wystąpić sytuacje, w których ludzie mają niepożądane uprzedzenia, w przypadku których wprowadzono kontrole, i że sztuczna inteligencja zastępująca tych ludzkich kierowców jest pozostawiona wolny. Niestety, sztuczna inteligencja może stopniowo pogrążać się w podobnych uprzedzeniach i robić to bez wystarczających barier ochronnych.

Pokazuje to również przesiąknięte uprzedzeniami sztucznej inteligencji w kwestii skali.

Jeśli chodzi o kierowców-ludzi, moglibyśmy mieć kilku tu i ówdzie, którzy dopuścili się jakiejś formy nierówności. W przypadku systemu jazdy AI jest to zazwyczaj jedna taka ujednolicona sztuczna inteligencja dla całej floty samochodów autonomicznych. Zatem moglibyśmy zacząć od, powiedzmy, pięćdziesięciu samochodów autonomicznych w mieście (wszystkie obsługiwane przez ten sam kod AI) i stopniowo zwiększać liczbę, powiedzmy, 500 samochodów autonomicznych (wszystkie obsługiwane przez ten sam kod AI). Ponieważ wszystkimi tymi pięćset autonomicznymi samochodami zarządza ta sama sztuczna inteligencja, wszystkie one podlegają tym samym pochodnym uprzedzeniom i nierównościom tkwiącym w sztucznej inteligencji.

Skalowanie szkodzi nam pod tym względem.

Drugi przykład dotyczy SI ustalającej, czy zatrzymać się w oczekiwaniu na pieszych, którzy nie mają pierwszeństwa przejazdu przez ulicę.

Bez wątpienia prowadziłeś samochód i spotkałeś pieszych, którzy czekali na przejście przez ulicę, a mimo to nie mieli pierwszeństwa przejazdu. Oznaczało to, że miałeś swobodę wyboru, czy zatrzymać się i pozwolić im przejść. Możesz kontynuować, nie pozwalając im przekroczyć granicy i nadal w pełni przestrzegać przepisów prawa jazdy.

Badania nad tym, jak ludzie decydują się na zatrzymanie lub nie zatrzymywanie się dla takich pieszych, sugerują, że czasami kierowcy dokonują wyboru w oparciu o niesłuszne uprzedzenia. Kierowca może spojrzeć na pieszego i zdecydować się nie zatrzymywać, nawet jeśli zatrzymałby się, gdyby pieszy miał inny wygląd, na przykład ze względu na rasę lub płeć. Sprawdziłem to w link tutaj.

Wyobraź sobie, że autonomiczne samochody oparte na sztucznej inteligencji są zaprogramowane tak, aby radzić sobie z pytaniem, czy zatrzymać się, czy nie, dla pieszych, którzy nie mają pierwszeństwa. Oto jak twórcy AI postanowili zaprogramować to zadanie. Zebrali dane z miejskich kamer wideo, które są rozmieszczone w całym mieście. Dane pokazują kierowców, którzy zatrzymują się dla pieszych, którzy nie mają pierwszeństwa, i kierowców, którzy się nie zatrzymują. Wszystko to jest gromadzone w dużym zbiorze danych.

Korzystając z uczenia maszynowego i uczenia głębokiego, dane są modelowane obliczeniowo. System jazdy AI wykorzystuje następnie ten model, aby zdecydować, kiedy się zatrzymać, a kiedy nie. Generalnie chodzi o to, że niezależnie od tego, na czym polega lokalny zwyczaj, w ten sposób sztuczna inteligencja kieruje autonomicznym samochodem.

Ku zaskoczeniu władz miasta i mieszkańców, sztuczna inteligencja najwyraźniej decydowała o zatrzymaniu się lub nie, na podstawie wyglądu pieszego, w tym jego rasy i płci. Czujniki autonomicznego samochodu skanują oczekującego pieszego, wprowadzają te dane do modelu ML/DL, a model wysyła do sztucznej inteligencji informację, czy ma się zatrzymać, czy kontynuować. Niestety, w mieście było już wiele uprzedzeń w zakresie ludzkich kierowców pod tym względem, a sztuczna inteligencja teraz naśladowała to samo.

Ten przykład ilustruje, że system sztucznej inteligencji może jedynie powielić już istniejące niekorzystne uprzedzenia ludzi. Co więcej, robi to na dużą skalę. Każdego ludzkiego kierowcy można czasem nauczyć tej nieprzewidzianej formy selekcji lub być może osobiście do tego wybrano, ale są szanse, że większość ludzkich kierowców prawdopodobnie nie robi tego masowo.

Dla kontrastu system jazdy oparty na sztucznej inteligencji, który jest używany do kierowania samochodami autonomicznymi, prawdopodobnie będzie w odrażający sposób konsekwentnie i pewnie realizował wynikające z tego uprzedzenia.

Wnioski

Istnieje wiele sposobów na uniknięcie opracowywania sztucznej inteligencji, która ma niepożądane uprzedzenia lub która z biegiem czasu je gromadzi. W miarę możliwości chodzi o to, aby wychwycić problemy, zanim wrzucisz wysoki bieg i przyspieszysz skalowanie. Miejmy nadzieję, że uprzedzenia nie wydostaną się na zewnątrz, że tak powiem.

Załóżmy jednak, że w sztucznej inteligencji pojawią się takie czy inne uprzedzenia. Po wdrożeniu sztucznej inteligencji na masową skalę nie można po prostu zastosować się do jednego z często głoszonych technicznych pomysłów „odpal i zapomnij”. Należy pilnie śledzić działania sztucznej inteligencji i starać się wykrywać wszelkie niepożądane uprzedzenia, które należy skorygować.

Jak wskazano wcześniej, jedno podejście polega na upewnieniu się, że twórcy sztucznej inteligencji są świadomi etyki sztucznej inteligencji, a tym samym zachęcają ich do skupienia się na programowaniu sztucznej inteligencji w celu uniknięcia tych problemów. Innym rozwiązaniem jest posiadanie przez sztuczną inteligencję samokontroli pod kątem zachowań nieetycznych i/lub posiadanie innego elementu sztucznej inteligencji, który monitoruje inne systemy sztucznej inteligencji pod kątem potencjalnie nieetycznych zachowań. W swoich pismach opisałem wiele innych potencjalnych rozwiązań.

Na razie ostatnia myśl. Rozpocząwszy tę dyskusję cytatem Platona, wypadałoby zakończyć ją kolejną bystrą wypowiedzią Platona.

Platon twierdził, że powtarzanie czegoś dobrego nie jest niczym złym.

Łatwość wykorzystania sztucznej inteligencji na dużą skalę jest z pewnością realnym sposobem na osiągnięcie tak optymistycznych aspiracji, gdy sztuczna inteligencja jest AI na dobre różnorodność. Lubimy powtarzać dobrą rzecz. Kiedy sztuczna inteligencja jest AI na złe i pełni niestosownych uprzedzeń i nierówności, moglibyśmy oprzeć się na uwagach Platona i powiedzieć, że powtarzanie złych rzeczy powoduje wiele szkód.

Posłuchajmy uważnie mądrych słów Platona i odpowiednio opracujmy naszą sztuczną inteligencję.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- na skalę globalną-szczególnie-napędzaną-przez-wyłaniające się-w pełni-autonomiczne-systemy/