Etyka AI mówi, że sztuczną inteligencję należy stosować szczególnie wtedy, gdy ludzkie uprzedzenia są obfite

Ludzie poznali swoje ograniczenia.

Być może pamiętasz podobną słynną linijkę o poznaniu naszych ograniczeń, wypowiedzianą szorstko przez postać Brudny Harry w filmie z 1973 roku zatytułowanym Magnum Force (zgodnie z wypowiedzianymi słowami aktora Clinta Eastwooda w jego pamiętnej roli inspektora Harry'ego Callahana). Ogólnym założeniem jest to, że czasami mamy tendencję do przeoczenia własnych ograniczeń i odpowiednio wpadamy w gorącą wodę. Czy to z powodu pychy, bycia egocentrycznym, czy po prostu ślepego na własne możliwości, zasada bycia świadomym i brania pod uwagę naszych skłonności i niedociągnięć jest w pełni rozsądna i pomocna.

Dodajmy nowy zwrot do mądrej rady.

Sztuczna inteligencja (AI) poznała swoje ograniczenia.

Co mam na myśli przez ten wariant czczonego hasła?

Okazuje się, że początkowy pośpiech, by wykorzystać współczesną sztuczną inteligencję jako obiecującego rozwiązania problemów świata, został zepsuty i całkowicie zaciemniony przez świadomość, że dzisiejsza sztuczna inteligencja ma pewne dość poważne ograniczenia. Wyszliśmy z podnoszących na duchu nagłówków AI na dobre i coraz bardziej ugrzęzliśmy w AI na złe. Widzisz, wiele systemów sztucznej inteligencji zostało opracowanych i wykorzystanych z wszelkiego rodzaju nieprzewidzianymi uprzedzeniami rasowymi i płciowymi oraz mnóstwem innych takich przerażających nierówności.

Aby zapoznać się z moim obszernym i bieżącym omówieniem etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Błędy wykryte w tych systemach sztucznej inteligencji nie są, powiedzmy, „zamierzone” typu, który przypisalibyśmy ludzkiemu zachowaniu. Wspominam o tym, aby podkreślić, że dzisiejsza sztuczna inteligencja nie jest czująca. Pomimo tych rażących nagłówków, które sugerują inaczej, po prostu nie ma nigdzie sztucznej inteligencji, która choćby zbliżała się do świadomości. Co więcej, nie wiemy, jak wprowadzić sztuczną inteligencję do przedziału świadomości, a nikt nie może powiedzieć na pewno, czy kiedykolwiek osiągniemy świadomość AI. Może kiedyś to się stanie, a może nie.

Chodzi mi więc o to, że nie możemy szczególnie przypisać intencji do rodzaju sztucznej inteligencji, którą obecnie posiadamy. Biorąc to pod uwagę, możemy obficie przypisać intencję tym, którzy tworzą systemy AI. Niektórzy twórcy sztucznej inteligencji nie są świadomi faktu, że opracowali system sztucznej inteligencji, który zawiera niesmaczne i prawdopodobnie nielegalne uprzedzenia. Tymczasem inni programiści AI zdają sobie sprawę, że wprowadzają uprzedzenia do swoich systemów AI, potencjalnie robiąc to w celowy, niewłaściwy sposób.

Tak czy inaczej, wynik jest nadal niestosowny i prawdopodobnie niezgodny z prawem.

Trwają intensywne wysiłki na rzecz upowszechnienia zasad etyki sztucznej inteligencji, które oświecą twórców sztucznej inteligencji i zapewnią odpowiednie wskazówki dotyczące unikania osadzania uprzedzeń w ich systemach sztucznej inteligencji. Pomoże to w dwojaki sposób. Po pierwsze, ci, którzy tworzą sztuczną inteligencję, nie będą już mieli gotowej wymówki, że po prostu nie wiedzieli, jakich zasad należy przestrzegać. Po drugie, ci, którzy odbiegają od warunków etycznej sztucznej inteligencji, będą łatwiej schwytani i pokazani jako unikający tego, przed czym zostali ostrzeżeni, aby robić i czego nie robić.

Poświęćmy chwilę, aby pokrótce omówić niektóre z kluczowych zasad etycznej sztucznej inteligencji, aby zilustrować, o czym konstruktorzy AI powinni myśleć i rygorystycznie podejmować się z punktu widzenia etyki sztucznej inteligencji.

Jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności AI Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do możliwości AI, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedur projektowych i dokumentacji.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, określenie szczegółów leżących u podstaw tych zasad może być niezwykle trudne. Co więcej, próba przekształcenia tych ogólnych zasad w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów sztucznej inteligencji, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest machać ręką na temat zasad etyki sztucznej inteligencji i tego, jak należy ich ogólnie przestrzegać, podczas gdy sytuacja jest znacznie bardziej skomplikowana, gdy kodowanie sztucznej inteligencji musi być prawdziwą gumą, która spełnia wymogi.

Zasady etyki AI mają być stosowane przez twórców sztucznej inteligencji, a także osoby zarządzające wysiłkami w zakresie rozwoju sztucznej inteligencji, a nawet te, które ostatecznie zajmują się wdrażaniem i konserwacją systemów sztucznej inteligencji. Wszyscy interesariusze w całym cyklu życia AI, rozwoju i użytkowania, są brani pod uwagę w zakresie przestrzegania ustalanych norm Etycznej AI. Jest to ważna informacja, ponieważ zwykle zakłada się, że „tylko programiści” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom etyki sztucznej inteligencji. Należy pamiętać, że do opracowania i wykorzystania sztucznej inteligencji potrzeba całej wioski. Przez co cała wioska musi bacznie przestrzegać zasad etyki sztucznej inteligencji.

W każdym razie, teraz, kiedy doszedłem do wniosku, że sztuczna inteligencja może zawierać uprzedzenia, być może wszyscy możemy zgodzić się z tymi dwoma oczywistymi faktami:

1. Ludzie mogą mieć liczne niepożądane uprzedzenia i mogą na nie działać

2. Sztuczna inteligencja może mieć wiele niepożądanych uprzedzeń i może działać zgodnie z tymi uprzedzeniami

Nienawidzę w tym kontekście układania ludzi kontra AI, ponieważ może to w jakiś sposób sugerować, że sztuczna inteligencja ma zdolności czujące na równi z ludźmi. Z pewnością tak nie jest. Wrócę na chwilę do narastających obaw związanych z antropomorfizacją AI nieco później w tej dyskusji.

Co jest gorsze, ludzie wykazujący niepożądane uprzedzenia lub sztuczna inteligencja, która to robi?

Śmiem twierdzić, że to pytanie stanowi jeden z tych ponurych wyborów. Można by twierdzić, że jest to przysłowiowe mniejsze zło. Chcielibyśmy, aby ludzie nie ucieleśniali nieuczciwych uprzedzeń. Chcielibyśmy dalej, aby nawet jeśli ludzie mają niepożądane uprzedzenia, nie będą działać na te uprzedzenia. To samo można powiedzieć o sztucznej inteligencji. Chcielibyśmy, aby sztuczna inteligencja nie zakorzeniła niepożądanych uprzedzeń i nawet jeśli istnieją takie wewnętrznie zakodowane uprzedzenia, aby sztuczna inteligencja przynajmniej nie działała na nie.

Życzenia jednak niekoniecznie rządzą światem (dla mojej analizy narastającego i niepokojącego pozoru tzw Spełnienie życzeń AI przez społeczeństwo jako całość, patrz link tutaj).

OK, oczywiście chcemy, aby ludzie znali swoje ograniczenia. Ważne jest, aby rozpoznać, kiedy masz niesłuszne uprzedzenia. Równie ważne jest, aby nie dopuścić do tego, by te niepożądane uprzedzenia wpłynęły na twoje działania i decyzje. Dzisiejsze firmy próbują wszelkiego rodzaju podejść, aby powstrzymać swoich pracowników przed wpadnięciem w straszne pułapki niesfornych uprzedzeń. Pracownicy otrzymują specjalistyczne szkolenia dotyczące wykonywania pracy w sposób zgodny z zasadami etyki. Procesy kształtują się wokół pracowników, aby ostrzec ich, gdy wydają się przejawiać nieetyczne obyczaje. I tak dalej.

Innym sposobem radzenia sobie z ludźmi i ich niepożądanymi uprzedzeniami byłaby automatyzacja pracy opartej na ludziach. Tak, po prostu usuń człowieka z pętli. Nie pozwól człowiekowi wykonywać zadania związanego z podejmowaniem decyzji i prawdopodobnie nie masz już żadnych długotrwałych zmartwień o ludzki stosunek do jakichkolwiek niepożądanych uprzedzeń. Nie ma w tym żadnego człowieka, a zatem problem potencjalnych ludzkich uprzedzeń wydaje się być rozwiązany.

Wspominam o tym, ponieważ jesteśmy świadkami stopniowej i ogromnej zmiany w kierunku korzystania ze sztucznej inteligencji w algorytmie podejmowania decyzji (ADM). Jeśli możesz zastąpić ludzkiego pracownika sztuczną inteligencją, istnieje szansa, że ​​pojawi się wiele korzyści. Jak już wspomniano, nie martwiłbyś się już ludzkimi uprzedzeniami tego ludzkiego pracownika (tego, który już nie wykonuje tej pracy). Istnieje szansa, że ​​sztuczna inteligencja będzie ogólnie mniej kosztowna w porównaniu z długoterminowym horyzontem czasowym. Pozbywasz się wszystkich innych trudności, które pojawiają się niejednokrotnie z ludzkimi pracownikami. Itp.

Propozycja, która zyskuje na popularności, wydaje się być taka: Próbując zdecydować, gdzie najlepiej umieścić sztuczną inteligencję, najpierw spójrz na ustawienia, które już pociągają za sobą niepożądane ludzkie uprzedzenia twoich pracowników i dla których te uprzedzenia podcinają lub w inny sposób nadmiernie komplikują określone zadania decyzyjne.

Najważniejsze jest to, że rozsądne wydaje się zebranie największego zysku z inwestycji w sztuczną inteligencję poprzez bezpośrednie dążenie do wysoce eksponowanych zadań związanych z podejmowaniem decyzji przez ludzi, które są trudne do kontrolowania z perspektywy niepożądanej infuzji uprzedzeń. Usuń pracowników ludzkich w tej roli. Zastąp je sztuczną inteligencją. Założenie jest takie, że sztuczna inteligencja nie miałaby takich niepożądanych uprzedzeń. W związku z tym możesz mieć swoje ciasto i je zjeść, a mianowicie podjąć zadania decyzyjne i zrobić to bez etycznego i prawnego widma niesłusznych uprzedzeń.

Kiedy to określisz, ROI (zwrot z inwestycji) prawdopodobnie sprawi, że przyjęcie AI będzie oczywistym wyborem.

Oto jak to się zwykle rozgrywa.

Rozejrzyj się po swojej firmie i spróbuj zidentyfikować zadania związane z podejmowaniem decyzji, które mają wpływ na klientów. Spośród tych zadań, które najprawdopodobniej zostaną niewłaściwie przejęte, jeśli pracownicy ucieleśniają niepożądane uprzedzenia? Jeśli już próbowałeś poskromić te uprzedzenia, może pozwoliłeś, by wszystko pozostało tak, jak jest. Z drugiej strony, jeśli uprzedzenia wciąż się pojawiają, a wysiłek, aby je wyeliminować, jest uciążliwy, rozważ porzucenie odpowiedniej sztucznej inteligencji w tej roli. Nie trzymaj robotników w mieszance, ponieważ mogą oni przesłonić sztuczną inteligencję lub zepchnąć sztuczną inteligencję z powrotem w otchłań niewłaściwych uprzedzeń. Upewnij się również, że sztuczna inteligencja może sprawnie wykonać zadanie i wystarczająco uchwyciłeś aspekty decyzyjne wymagane do wykonania zadania.

Wypłukać i powtórzyć.

Zdaję sobie sprawę, że wydaje się to proste, ale zdaję sobie sprawę, że istnieje wiele sposobów na zastąpienie ludzkich pracowników sztuczną inteligencją. Wiele firm chętnie podejmowało takie działania i nie zastanawiało się nad tym, jak to zrobić. W rezultacie często robili znacznie gorszy bałagan, niż mieli na rękach.

Chcę wyjaśnić i podkreślić, że sztuczna inteligencja nie jest panaceum.

Mówiąc o tym, jest jeden wielki problem z czystością pozornego wyrzucania stronniczych decydentów z rzekomo bezstronną sztuczną inteligencją. Problem polega na tym, że możesz po prostu zastępować jeden zestaw niewłaściwych uprzedzeń innym. Zgodnie z wcześniejszym wskazaniem, sztuczna inteligencja może zawierać niepożądane uprzedzenia i może działać na podstawie tych uprzedzeń. Przyjmowanie bezczelnego założenia, że ​​zamiana stronniczych ludzi na bezstronną sztuczną inteligencję to nie wszystko, czym jest.

W skrócie, oto umowa, gdy patrzymy na sprawę ściśle z czynników uprzedzeń:

  • Sztuczna inteligencja nie ma niepożądanych uprzedzeń, a zatem oparty na sztucznej inteligencji ADM jest przydatny do wdrożenia
  • Sztuczna inteligencja ma te same niepożądane uprzedzenia, co istoty zastępowane przez ludzi, a zatem ADM oparty na sztucznej inteligencji jest niepokojący
  • Sztuczna inteligencja wprowadza nowe niepożądane uprzedzenia wykraczające poza te, które są zastępowane przez ludzi i prawdopodobnie odpowiednio pogorszy sytuację
  • Sztuczna inteligencja na początku wydaje się być w porządku, a następnie stopniowo chwieje się w niepożądaną stronniczość
  • Inne

Możemy pokrótce rozpakować te możliwości.

Pierwsza z nich to wyidealizowana wersja tego, co może się wydarzyć. Sztuczna inteligencja nie ma niepożądanych uprzedzeń. Umieszczasz sztuczną inteligencję na swoim miejscu i świetnie sobie radzi. Dobrze dla ciebie! Oczywiście można by mieć nadzieję, że w jakiś zręczny sposób poradziliście sobie również z przesiedleniem pracowników ludzkich z powodu włączenia AI.

W drugim przypadku wprowadzasz sztuczną inteligencję i odkrywasz, że sztuczna inteligencja wykazuje te same niepożądane uprzedzenia, które mieli pracownicy ludzcy. Jak to może być? Powszechnym sposobem wpadnięcia w tę pułapkę jest korzystanie z uczenia maszynowego (ML) i uczenia głębokiego (DL) na podstawie zebranych danych o tym, jak ludzie w tej roli wcześniej podejmowali decyzje.

Daj mi chwilę wyjaśnić.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy od lat wykonują tę pracę, wprowadzają niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub dopasowywanie wzorców obliczeniowych głębokiego uczenia będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych odczuwających aspektów modelowania per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje spora szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Podsumowując, możesz wrócić do punktu wyjścia. Te same niekorzystne uprzedzenia ludzi są teraz odzwierciedlane obliczeniowo w systemie sztucznej inteligencji. Nie wykorzeniłeś uprzedzeń.

Co gorsza, możesz być mniej prawdopodobne, że zdasz sobie sprawę, że sztuczna inteligencja ma uprzedzenia. W przypadku ludzi możesz normalnie uważać, że ludzie mają niepożądane uprzedzenia. To jest podstawowe oczekiwanie. Wykorzystanie sztucznej inteligencji może uśpić przywódców do uwierzenia, że ​​automatyzacja całkowicie usunęła wszelkie ludzkie uprzedzenia. W ten sposób ustawiają się za to, że strzelili sobie w stopę. Pozbyli się ludzi z pozornie znanymi niepożądanymi uprzedzeniami, zastąpieni przez sztuczną inteligencję, o której sądzono, że nie ma takich uprzedzeń, a jednak teraz zastosowali sztuczną inteligencję przepełnioną tymi samymi uprzedzeniami, o których już wiadomo, że istnieją.

To może sprawić, że sprawy staną się naprawdę zezowate. Mogłeś usunąć inne barierki używane z ludzkimi pracownikami, które zostały ustanowione w celu wykrywania i zapobiegania pojawianiu się tych już przewidywanych ludzkich uprzedzeń. AI ma teraz wolną rękę. Nic nie jest na miejscu, aby to złapać, zanim zaczniesz działać. Sztuczna inteligencja może wtedy zacząć prowadzić cię ponurą ścieżką ogromnej akumulacji stronniczych działań.

I jesteś w niezręcznej i być może odpowiedzialnej postawie, którą kiedyś wiedziałeś o uprzedzeniach, a teraz pozwoliłeś tym uprzedzeniom siać spustoszenie. Być może jedną rzeczą jest to, że nigdy nie spotkałem się z takimi niepożądanymi uprzedzeniami, a potem nagle, znienacka, sztuczna inteligencja je wyrzuca. Możesz spróbować usprawiedliwić to dystraktorem typu „kto by się domyślił” (być może niezbyt przekonująco). Ale aby teraz skonfigurować sztuczną inteligencję, która wykonuje te same nieuzasadnione, stronnicze działania, co wcześniej, cóż, twoje wymówki stają się cieńsze i słabsze.

Przekręcenie tego polega na tym, że sztuczna inteligencja wykazuje niepożądane uprzedzenia, które nie zostały wcześniej napotkane, gdy ludzie wykonywali zadanie. Można powiedzieć, że być może trudniej jest temu zapobiec, ponieważ składa się z „nowych” uprzedzeń, których firma wcześniej nie szukała. Ostatecznie jednak wymówki mogą nie przynieść ci wielkiej ulgi. Jeśli system sztucznej inteligencji wkroczył na terytorium zarówno nieetyczne, jak i niezgodne z prawem, twoja gęś może się ugotować.

Innym aspektem, o którym należy pamiętać, jest to, że sztuczna inteligencja może zacząć się dobrze, a następnie wkroczyć w niepożądane uprzedzenia. Jest to szczególnie prawdopodobne, gdy korzystanie z uczenia maszynowego lub głębokiego uczenia się odbywa się na bieżąco, aby zapewnić aktualność sztucznej inteligencji. Niezależnie od tego, czy ML/DL działa w czasie rzeczywistym, czy okresowo wykonuje aktualizacje, należy zwrócić uwagę na to, czy sztuczna inteligencja prawdopodobnie pozyskuje dane, które teraz zawierają błędy, a które wcześniej nie były obecne.

Liderzy, którzy myślą, że dostają darmowy lunch, machając magiczną różdżką, aby zastąpić tendencyjnych ludzkich pracowników sztuczną inteligencją, czeka ich bardzo niegrzeczne przebudzenie. Zobacz moją dyskusję na temat znaczenia wzmacniania przywódców zasad etyki sztucznej inteligencji pod adresem link tutaj.

W tym momencie tej dyskusji założę się, że pragniesz kilku przykładów z rzeczywistego świata, które mogą pokazać zagadkę zastąpienia (lub nie) niewłaściwych uprzedzeń ludzkich przez niekorzystne uprzedzenia oparte na sztucznej inteligencji.

Cieszę się, że zapytałeś.

Istnieje specjalny i niewątpliwie popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na niepożądane uprzedzenia w sztucznej inteligencji, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Na poziomie 5 nie ma jeszcze prawdziwego samochodu do samodzielnego prowadzenia, którego nawet nie wiemy, czy będzie to możliwe do osiągnięcia, ani jak długo to zajmie.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samojezdne samochody i sztuczna inteligencja z niepożądanymi uprzedzeniami

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani do głębokiego zanurzenia się w autonomicznych samochodach i możliwościach etycznej sztucznej inteligencji, które pociągają za sobą eksplorację sztucznej inteligencji i nieprzewidywalnych uprzedzeń.

Użyjmy prostego przykładu. Autonomiczny samochód oparty na sztucznej inteligencji porusza się po ulicach Twojej okolicy i wydaje się, że jeździ bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na samojezdny samochód. Autonomiczny pojazd wyróżniał się zestawem czujników elektronicznych, które obejmowały kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojeżdżącego samochodu krążącego po Twojej społeczności, teraz prawie go nie zauważasz. Dla Państwa jest to po prostu kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zaznajomienie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które wchodzą w zakres testów autonomicznych samochodów, stopniowo przyzwyczaiły się do oglądania spreparowanych pojazdów, zobacz moją analizę na Ten link tutaj. Wielu miejscowych w końcu przeszło z gapiących się na gapiów, którzy teraz ziewnęli z nudów, gdy byli świadkami wijących się samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wróćmy do naszej opowieści.

Okazuje się, że zaczynają pojawiać się dwa niestosowne obawy dotyczące skądinąd nieszkodliwych i ogólnie przyjętych samochodów autonomicznych opartych na sztucznej inteligencji, a konkretnie:

a. Tam, gdzie sztuczna inteligencja wędruje, autonomiczne samochody do odbierania przejażdżek stały się niepokojącym problemem w całej społeczności

b. Coraz większym problemem jest również sposób, w jaki sztuczna inteligencja traktuje oczekujących pieszych, którzy nie mają pierwszeństwa

Początkowo sztuczna inteligencja przemierzała samojezdne samochody po całym mieście. Każdy, kto chciał poprosić o przejażdżkę autonomicznym samochodem, miał w zasadzie równe szanse na okrzyknięcia. Stopniowo sztuczna inteligencja zaczęła przede wszystkim utrzymywać autonomiczne samochody wędrujące tylko po jednej części miasta. Ta sekcja była większym narzędziem do zarabiania pieniędzy, a system sztucznej inteligencji został zaprogramowany tak, aby próbować maksymalizować przychody w ramach użytkowania w społeczności.

Członkowie społeczności w zubożałych częściach miasta mieli mniejsze szanse na podwiezienie autonomicznego samochodu. Wynikało to z tego, że autonomiczne samochody były dalej i krążyły po okolicy o wyższych dochodach. Gdy nadeszło żądanie z odległej części miasta, każde żądanie z bliższego miejsca, które prawdopodobnie znajdowało się w „szanowanej” części miasta, miałoby wyższy priorytet. W końcu możliwość zdobycia autonomicznego samochodu w dowolnym miejscu poza bogatszą częścią miasta była prawie niemożliwa, co było irytujące dla tych, którzy mieszkali na obszarach teraz ubogich w zasoby.

Można powiedzieć, że sztuczna inteligencja w dużej mierze wylądowała na formie dyskryminacji zastępczej (często określanej również jako dyskryminacja pośrednia). Sztuczna inteligencja nie została zaprogramowana, by unikać tych biedniejszych dzielnic. Zamiast tego „nauczył się” tego robić, korzystając z ML/DL.

Chodzi o to, że ludzie jeżdżący na przejażdżkach byli znani z robienia tego samego, choć niekoniecznie wyłącznie ze względu na perspektywę zarabiania pieniędzy. Niektórzy z ludzkich kierowców jeżdżących na wspólne przejażdżki mieli niesamowitą skłonność do zabierania pasażerów w niektórych częściach miasta. Było to dość znane zjawisko, a miasto wdrożyło podejście monitorujące, aby przyłapać kierowców na takich czynnościach. Kierowcy mogą mieć kłopoty za przeprowadzanie niesmacznych praktyk selekcji.

Zakładano, że sztuczna inteligencja nigdy nie wpadnie w ten sam rodzaj ruchomych piasków. Nie skonfigurowano żadnego specjalistycznego monitoringu, aby śledzić, dokąd jadą autonomiczne samochody oparte na sztucznej inteligencji. Dopiero gdy członkowie społeczności zaczęli narzekać, władze miasta zorientowały się, co się dzieje. Aby uzyskać więcej informacji na temat tego typu ogólnomiejskich problemów, które będą przedstawiać pojazdy autonomiczne i samochody autonomiczne, zobacz moje relacje na Ten link tutaj i który opisuje badanie prowadzone przez Harvard, którego jestem współautorem na ten temat.

Ten przykład aspektów roamingu w samochodach autonomicznych opartych na sztucznej inteligencji ilustruje wcześniejsze wskazanie, że mogą wystąpić sytuacje, w których ludzie mają niepożądane uprzedzenia, w przypadku których wprowadzono kontrole, i że sztuczna inteligencja zastępująca tych ludzkich kierowców jest pozostawiona wolny. Niestety, sztuczna inteligencja może stopniowo pogrążać się w podobnych uprzedzeniach i robić to bez wystarczających barier ochronnych.

Drugi przykład dotyczy SI ustalającej, czy zatrzymać się w oczekiwaniu na pieszych, którzy nie mają pierwszeństwa przejazdu przez ulicę.

Bez wątpienia prowadziłeś samochód i spotkałeś pieszych, którzy czekali na przejście przez ulicę, a mimo to nie mieli pierwszeństwa przejazdu. Oznaczało to, że miałeś swobodę wyboru, czy zatrzymać się i pozwolić im przejść. Możesz kontynuować, nie pozwalając im przekroczyć granicy i nadal w pełni przestrzegać przepisów prawa jazdy.

Badania nad tym, jak ludzie decydują się na zatrzymanie lub nie zatrzymywanie się dla takich pieszych, sugerują, że czasami kierowcy dokonują wyboru w oparciu o niesłuszne uprzedzenia. Kierowca może spojrzeć na pieszego i zdecydować się nie zatrzymywać, nawet jeśli zatrzymałby się, gdyby pieszy miał inny wygląd, na przykład ze względu na rasę lub płeć. Sprawdziłem to w link tutaj.

Wyobraź sobie, że autonomiczne samochody oparte na sztucznej inteligencji są zaprogramowane tak, aby radzić sobie z pytaniem, czy zatrzymać się, czy nie, dla pieszych, którzy nie mają pierwszeństwa. Oto jak twórcy AI postanowili zaprogramować to zadanie. Zebrali dane z miejskich kamer wideo, które są rozmieszczone w całym mieście. Dane pokazują kierowców, którzy zatrzymują się dla pieszych, którzy nie mają pierwszeństwa, i kierowców, którzy się nie zatrzymują. Wszystko to jest gromadzone w dużym zbiorze danych.

Korzystając z uczenia maszynowego i uczenia głębokiego, dane są modelowane obliczeniowo. System jazdy AI wykorzystuje następnie ten model, aby zdecydować, kiedy się zatrzymać, a kiedy nie. Generalnie chodzi o to, że niezależnie od tego, na czym polega lokalny zwyczaj, w ten sposób sztuczna inteligencja kieruje autonomicznym samochodem.

Ku zaskoczeniu władz miasta i mieszkańców, sztuczna inteligencja najwyraźniej decydowała o zatrzymaniu się lub nie, na podstawie wyglądu pieszego, w tym jego rasy i płci. Czujniki autonomicznego samochodu skanują oczekującego pieszego, wprowadzają te dane do modelu ML/DL, a model wysyła do sztucznej inteligencji informację, czy ma się zatrzymać, czy kontynuować. Niestety, w mieście było już wiele uprzedzeń w zakresie ludzkich kierowców pod tym względem, a sztuczna inteligencja teraz naśladowała to samo.

Dobrą wiadomością jest to, że rodzi to problem, o którym prawie nikt wcześniej nie wiedział. Zła wiadomość była taka, że ​​ponieważ sztuczna inteligencja została przyłapana na robieniu tego, ponosi większość winy. Ten przykład ilustruje, że system sztucznej inteligencji może jedynie powielać już istniejące, niepożądane uprzedzenia ludzi.

Wnioski

Istnieje wiele sposobów, aby spróbować uniknąć opracowywania sztucznej inteligencji, która albo na zewnątrz ma niepożądane uprzedzenia, albo z czasem zbiera błędy. Jedno podejście polega na upewnieniu się, że twórcy sztucznej inteligencji są tego świadomi, a tym samym trzymają ich w gotowości, aby zaprogramować sztuczną inteligencję, aby uniknąć problemu. Inną drogą jest posiadanie samomonitorowania AI pod kątem nieetycznych zachowań (patrz moja dyskusja na link tutaj) i/lub posiadanie innego elementu sztucznej inteligencji, który monitoruje inne systemy sztucznej inteligencji pod kątem potencjalnie nieetycznych zachowań (omówiłem to na link tutaj).

Podsumowując, musimy zdać sobie sprawę, że ludzie mogą mieć niepożądane uprzedzenia i że jakoś muszą znać swoje ograniczenia. Podobnie sztuczna inteligencja może mieć niepożądane uprzedzenia i jakoś musimy znać ich ograniczenia.

Dla tych z was, którzy gorliwie przyjmują etykę AI, chciałbym teraz zakończyć kolejną słynną linijkę, którą wszyscy muszą już znać. Mianowicie, prosimy o dalsze wykorzystywanie i dzielenie się znaczeniem etycznej sztucznej inteligencji. A robiąc to, bezczelnie mówię: „Śmiało, zrób mi dzień”.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-specific-deployed-when-human-biases-are-aplenty/