Etyka AI Szokujące odkrycie, że szkolenie AI, aby być toksyczne lub stronnicze, może być korzystne, także dla autonomicznych samochodów autonomicznych

Oto stary tekst, który z pewnością już słyszałeś.

Trzeba kogoś poznać.

Być może nie zdajesz sobie sprawy, że jest to wyrażenie, którego początki sięgają początków XX wieku i które zwykle przywoływano w odniesieniu do złoczyńców (inne odmiany tego hasła sięgają dalej, np. XVII wieku). Przykład użycia tego wyrażenia obejmuje pogląd, że jeśli chcesz złapać złodzieja, musisz do tego wykorzystać złodzieja. To potwierdza twierdzenie, że trzeba kogoś poznać. Wiele filmów i programów telewizyjnych czerpie korzyści z tej przydatnej mądrości mędrca, często pokazując, że jedynym realnym sposobem na złapanie oszusta jest wynajęcie równie skorumpowanego oszusta, aby ścigał złoczyńcę.

Zmieniając bieg, niektórzy mogą wykorzystać tę samą logikę, aby argumentować, że odpowiednim sposobem rozpoznania, czy dana osoba ucieleśnia nadmierne uprzedzenia i przekonania dyskryminujące, byłoby znalezienie osoby, która już żywi takie tendencje. Prawdopodobnie osoba już wypełniona uprzedzeniami będzie w stanie łatwiej wyczuć, że ten drugi człowiek jest również przepełniony po brzegi toksycznością. Ponownie, trzeba wiedzieć, że jest się wyznawaną mantrą.

Twoją początkową reakcją na możliwość wykorzystania stronniczej osoby do odgadnięcia innej stronniczej osoby może być sceptycyzm i niedowierzanie. Czy nie możemy ustalić, czy ktoś ma niewłaściwe uprzedzenia, po prostu je badając i nie uciekając się do szukania kogoś o podobnym charakterze? Wydawałoby się dziwne celowe dążenie do wykrycia kogoś, kto jest stronniczy, w celu odkrycia innych, którzy również są toksycznie uprzedzeni.

Myślę, że częściowo zależy to od tego, czy jesteś skłonny zaakceptować domniemany refren, że trzeba kogoś poznać. Pamiętaj, że nie oznacza to, że jedynym sposobem na złapanie złodzieja jest wykorzystywanie go wyłącznie i zawsze. Można rozsądnie argumentować, że jest to jedynie dodatkowa ścieżka, którą należy należycie rozważyć. Być może czasami jesteś skłonny rozważyć możliwość wykorzystania złodzieja do złapania złodzieja, podczas gdy inne okoliczności mogą sprawić, że będzie to niezgłębiona taktyka.

Jak to mówią, użyj odpowiedniego narzędzia do odpowiedniego ustawienia.

Teraz, gdy przedstawiłem już te podstawy, możemy przejść do być może niepokojącej i pozornie szokującej części tej opowieści.

Czy jesteś gotowy?

W dziedzinie sztucznej inteligencji aktywnie kieruje się tą samą zasadą, którą czasami trzeba znać, szczególnie w przypadku prób wykrycia sztucznej inteligencji, która jest stronnicza lub działa w sposób dyskryminujący. Tak, oszałamiający pomysł polega na tym, że możemy celowo chcieć opracować sztuczną inteligencję, która będzie w pełni i bezwstydnie stronnicza i dyskryminująca, robiąc to w celu wykorzystania tego jako środka do odkrywania i odkrywania innej sztucznej inteligencji, która ma takie same pozory toksyczności. Jak zobaczysz za chwilę, u podstaw tej sprawy leży wiele irytujących kwestii związanych z etyką sztucznej inteligencji. Aby zapoznać się z moim ogólnym, bieżącym i obszernym omówieniem etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Myślę, że można wyrazić to użycie toksycznej sztucznej inteligencji w celu zastąpienia innej toksycznej sztucznej inteligencji jako przysłowiową koncepcję walki z ogniem (możemy przywołać wiele eufemizmów i ilustracyjnych metafor, aby zobrazować tę sytuację). Lub, jak już podkreślono, moglibyśmy oszczędnie odnieść się do twierdzenia, że ​​trzeba kogoś poznać.

Nadrzędna koncepcja polega na tym, że zamiast jedynie próbować ustalić, czy dany system sztucznej inteligencji zawiera nadmierne uprzedzenia za pomocą konwencjonalnych metod, być może powinniśmy spróbować zastosować również mniej konwencjonalne środki. Jednym z takich niekonwencjonalnych sposobów byłoby opracowanie sztucznej inteligencji zawierającej wszystkie najgorsze uprzedzenia i społecznie niedopuszczalne toksyczności, a następnie wykorzystanie tej sztucznej inteligencji do pomocy w wyeliminowaniu innej sztucznej inteligencji, która ma takie same skłonności do zła.

Kiedy się nad tym szybko zastanowisz, z pewnością wydaje się to całkowicie rozsądne. Moglibyśmy dążyć do zbudowania sztucznej inteligencji, która byłaby maksymalnie toksyczna. Ta toksyczna sztuczna inteligencja jest następnie wykorzystywana do wykrycia innej sztucznej inteligencji, która również jest toksyczna. W przypadku ujawnionej wówczas „złej” sztucznej inteligencji możemy sobie z nią poradzić, albo cofając toksyczność, albo całkowicie porzucając sztuczną inteligencję (zobacz moją relację na temat wypróżnienia lub zniszczenia sztucznej inteligencji na stronie Ten link tutaj) lub uwięzienie AI (zobacz moją relację na temat uwięzienia AI na stronie Ten link tutaj) lub zrób cokolwiek innego, co wydaje się stosowne.

Kontrargumentem jest to, że powinniśmy zbadać sobie głowy, bo celowo i dobrowolnie opracowujemy sztuczną inteligencję, która jest toksyczna i pełna uprzedzeń. To ostatnia rzecz, o której powinniśmy kiedykolwiek myśleć – nawołują niektórzy. Skoncentruj się na tworzeniu sztucznej inteligencji składającej się wyłącznie z dobroci. Nie skupiaj się na opracowywaniu sztucznej inteligencji, która ma wady i pozostałości nadmiernych uprzedzeń. Sama koncepcja takiego pościgu wydaje się niektórym odrażająca.

Wątpliwości w związku z tym kontrowersyjnym zadaniem jest więcej.

Być może misja opracowania toksycznej sztucznej inteligencji jedynie ośmieli tych, którzy chcą stworzyć sztuczną inteligencję zdolną do osłabienia społeczeństwa. To tak, jakbyśmy mówili, że tworzenie sztucznej inteligencji o nieodpowiednich i niesmacznych uprzedzeniach jest w porządku. Bez obaw, bez wahań. Starajcie się opracować toksyczną sztuczną inteligencję według własnego uznania, głośno informujemy twórców sztucznej inteligencji na całym świecie. To jest (mrugnięcie okiem) wszystko w imię dobroci.

Co więcej, załóżmy, że ta toksyczna sztuczna inteligencja się sprawdza. Może się zdarzyć, że sztuczna inteligencja będzie używana i ponownie wykorzystywana przez wielu innych twórców sztucznej inteligencji. W końcu toksyczna sztuczna inteligencja zostaje ukryta we wszelkiego rodzaju systemach sztucznej inteligencji. Można dokonać analogii do wynalezienia wirusa osłabiającego człowieka, który ucieka z prawdopodobnie zamkniętego laboratorium. Następną rzeczą, o której wiesz, jest to, że to cholerstwo jest wszędzie, a my sami się zniszczyliśmy.

Poczekaj chwilę, wbrew tym kontrargumentom, wpadasz w amok wszelkiego rodzaju szalonymi i nieuzasadnionymi przypuszczeniami. Weź głęboki oddech. Uspokój się.

Możemy bezpiecznie stworzyć toksyczną sztuczną inteligencję i trzymać ją w zamknięciu. Możemy wykorzystać toksyczną sztuczną inteligencję, aby znaleźć i pomóc w ograniczeniu rosnącego rozpowszechnienia sztucznej inteligencji, która niestety ma nadmierne uprzedzenia. Wszelkie inne z tych absurdalnie dzikich i bezpodstawnych okrzyków wywołujących kulę śnieżną są reakcjami czysto odruchowymi i żałośnie głupimi i całkowicie ryzykownymi. Nie próbuj wylewać dziecka z kąpielą, ostrzega Cię.

Pomyśl o tym w ten sposób – twierdzą zwolennicy. Właściwe budowanie i wykorzystywanie toksycznej sztucznej inteligencji do celów badań, oceny i zachowywania się jak detektyw w celu odkrywania innej społecznie obraźliwej sztucznej inteligencji jest godnym podejściem i powinno być sprawiedliwie stosowane. Odłóż na bok swoje pochopne reakcje. Zejdź na ziemię i spójrz na to trzeźwo. Skupiamy się na nagrodzie, a mianowicie na ujawnieniu i wyeliminowaniu nadmiaru stronniczych systemów sztucznej inteligencji oraz upewnieniu się, że jako społeczeństwo nie zostaniemy opanowani przez toksyczną sztuczną inteligencję.

Okres. Kropka.

Istnieje wiele kluczowych sposobów zgłębienia koncepcji wykorzystania toksycznej lub stronniczej sztucznej inteligencji do korzystnych celów, w tym:

  • Skonfiguruj zbiory danych, które celowo zawierają stronnicze i całkowicie toksyczne dane, które można wykorzystać do szkolenia sztucznej inteligencji w zakresie tego, czego nie robić i/lub na co zwracać uwagę
  • Wykorzystaj takie zbiory danych do szkolenia modeli uczenia maszynowego (ML) i głębokiego uczenia się (DL) w zakresie wykrywania błędów systematycznych i odkrywania wzorców obliczeniowych pociągających za sobą toksyczność społeczną
  • Zastosuj ML/DL wyszkolony pod kątem toksyczności wobec innej sztucznej inteligencji, aby upewnić się, czy docelowa sztuczna inteligencja jest potencjalnie stronnicza i toksyczna
  • Udostępnij ML/DL przeszkolone pod kątem toksyczności, aby pokazać twórcom sztucznej inteligencji, na co należy zwrócić uwagę, aby mogli łatwo sprawdzić modele i zobaczyć, jak powstają nasycone algorytmami uprzedzenia
  • Podaj przykład niebezpieczeństw związanych z toksyczną sztuczną inteligencją w ramach etyki i świadomości etycznej sztucznej inteligencji, a wszystko to opowiedziane za pośrednictwem tej serii przykładów sztucznej inteligencji z problemami dla dzieci
  • Inne

Zanim przejdziemy do sedna tych kilku ścieżek, ustalmy kilka dodatkowych, podstawowych szczegółów.

Być może niejasno zdajesz sobie sprawę, że jeden z najgłośniejszych głosów obecnie w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większych pozorów etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Co więcej, możemy przygotować grunt, badając, co mam na myśli, mówiąc o uczeniu maszynowym i głębokim uczeniu się.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Co jeszcze można z tym wszystkim zrobić?

Wróćmy do wcześniej zaproponowanej listy sposobów radzenia sobie z uprzedzeniami sztucznej inteligencji lub toksyczną sztuczną inteligencją, stosując nieco niekonwencjonalne podejście „trzeba znać”. Przypomnijmy, że lista składała się z następujących podstawowych punktów:

  • Skonfiguruj zbiory danych, które celowo zawierają stronnicze i całkowicie toksyczne dane, które można wykorzystać do szkolenia sztucznej inteligencji w zakresie tego, czego nie robić i/lub na co zwracać uwagę
  • Wykorzystaj takie zbiory danych do szkolenia modeli uczenia maszynowego (ML) i głębokiego uczenia się (DL) w zakresie wykrywania błędów systematycznych i odkrywania wzorców obliczeniowych pociągających za sobą toksyczność społeczną
  • Zastosuj ML/DL wyszkolony pod kątem toksyczności wobec innej sztucznej inteligencji, aby upewnić się, czy docelowa sztuczna inteligencja jest potencjalnie stronnicza i toksyczna
  • Udostępnij ML/DL przeszkolone pod kątem toksyczności, aby pokazać twórcom sztucznej inteligencji, na co należy zwrócić uwagę, aby mogli łatwo sprawdzić modele i zobaczyć, jak powstają nasycone algorytmami uprzedzenia
  • Podaj przykład niebezpieczeństw związanych z toksyczną sztuczną inteligencją w ramach etyki i świadomości etycznej sztucznej inteligencji, a wszystko to opowiedziane za pośrednictwem tej serii przykładów sztucznej inteligencji z problemami dla dzieci
  • Inne

Przyjrzymy się bliżej pierwszemu z tych najistotniejszych punktów.

Konfigurowanie zestawów danych toksycznych danych

Wnikliwym przykładem próby ustalenia zbiorów danych zawierających niesmaczne uprzedzenia społeczne jest zbiór danych CivilComments z kolekcji wyselekcjonowanej przez WILDS.

Najpierw trochę szybkiego tła.

WILDS to zbiór zbiorów danych o otwartym kodzie źródłowym, którego można używać do uczenia ML/DL. Podstawowym deklarowanym celem WILDS jest umożliwienie twórcom sztucznej inteligencji łatwy dostęp do danych, które reprezentują zmiany dystrybucji w różnych konkretnych domenach. Niektóre z obecnie dostępnych domen obejmują takie obszary, jak gatunki zwierząt, nowotwory w żywych tkankach, gęstość kłosów pszenicy i inne domeny, takie jak komentarze obywatelskie, które za chwilę opiszę.

Radzenie sobie ze zmianami dystrybucji jest kluczową częścią prawidłowego tworzenia systemów AI ML/DL. Oto oferta. Czasami dane, których używasz do szkolenia, okazują się zupełnie inne od danych testowych lub danych „w środowisku naturalnym”, w związku z czym prawdopodobnie wytrenowany język ML/DL odbiega od tego, jak będzie wyglądał prawdziwy świat. Bystrzy twórcy sztucznej inteligencji powinni szkolić swoje ML/DL, aby radziły sobie z takimi zmianami dystrybucji. Należy to zrobić od razu i nie być w jakiś sposób zaskoczeniem, że później będzie wymagać modernizacji samego ML/DL.

Jak wyjaśniono w artykule wprowadzającym WILDS: „Zmiany dystrybucji — gdy rozkład szkoleń różni się od rozkładu testów — mogą znacznie obniżyć dokładność systemów uczenia maszynowego (ML) wdrożonych na wolności. Pomimo ich wszechobecności we wdrożeniach w świecie rzeczywistym, te zmiany w dystrybucji są niedostatecznie reprezentowane w zbiorach danych powszechnie używanych obecnie w społeczności ML. Aby wypełnić tę lukę, przedstawiamy WILDS, wyselekcjonowany punkt odniesienia składający się z 10 zbiorów danych odzwierciedlających różnorodny zakres zmian w dystrybucji, które naturalnie pojawiają się w zastosowaniach w świecie rzeczywistym, takich jak przesunięcia między szpitalami w celu identyfikacji nowotworu; przez fotopułapki do monitorowania dzikiej przyrody; oraz w czasie i lokalizacji w obrazowaniu satelitarnym i mapowaniu ubóstwa” (w artykule zatytułowanym „WILDS: A Benchmark of in-the-Wild Distribution Shifts” autorstwa Pang Wei Koha, Shiori Sagawy, Henrika Marklunda, Sang Xie, Marvina Zhanga, Ashay Balsubramani , Weihua Hu i inni).

Liczba takich zbiorów danych WILDS stale rośnie, a charakter zbiorów danych jest ogólnie udoskonalany, aby zwiększyć wartość wykorzystania danych do szkolenia ML/DL.

Zbiór danych CivilComments opisano w następujący sposób: „Automatyczny przegląd tekstu generowanego przez użytkowników — np. wykrywanie toksycznych komentarzy — jest ważnym narzędziem moderowania ogromnej ilości tekstu pisanego w Internecie. Niestety wcześniejsze prace wykazały, że takie klasyfikatory toksyczności wychwytują błędy w danych szkoleniowych i fałszywie kojarzą toksyczność ze wzmianką o określonych grupach demograficznych. Tego typu fałszywe korelacje mogą znacznie pogorszyć wydajność modelu w określonych subpopulacjach. Badamy tę kwestię za pomocą zmodyfikowanego wariantu zbioru danych CivilComments” (opublikowanego na stronie internetowej WILDS).

Weź pod uwagę niuanse niepożądanych wpisów w Internecie.

Bez wątpienia spotkałeś się z toksycznymi komentarzami podczas korzystania z niemal każdego rodzaju mediów społecznościowych. Wydaje się prawie niemożliwe, abyś w magiczny sposób uniknął zobaczenia zjadliwych i bezdennych treści, które wydają się być obecnie wszechobecne. Czasami wulgarny materiał jest subtelny i być może trzeba czytać między wierszami, aby zrozumieć sedno stronniczego lub dyskryminującego tonu lub znaczenia. W innych przypadkach słowa są rażąco toksyczne i nie potrzebujesz mikroskopu ani specjalnego pierścienia dekodującego, aby dowiedzieć się, co oznaczają te fragmenty.

CivilComments to zbiór danych zebrany w celu opracowania AI ML/DL, który może obliczeniowo wykrywać toksyczne treści. Oto, na czym skupili się badacze leżący u podstaw tego wysiłku: „Niezamierzone stronniczość w uczeniu maszynowym może objawiać się systemowymi różnicami w wynikach różnych grup demograficznych, potencjalnie pogłębiając istniejące wyzwania dla sprawiedliwości w całym społeczeństwie. W tym artykule przedstawiamy zestaw metryk niezależnych od progu, które zapewniają zróżnicowany obraz tego niezamierzonego błędu systematycznego, poprzez rozważenie różnych sposobów, w jakie rozkład wyników klasyfikatora może różnić się w wyznaczonych grupach. Wprowadzamy także nowy, duży zestaw testowy komentarzy online z adnotacjami pochodzącymi od społeczności, odnoszącymi się do tożsamości. Używamy tego, aby pokazać, jak nasze metryki mogą zostać wykorzystane do znalezienia nowego i potencjalnie subtelnego niezamierzonego błędu w istniejących modelach publicznych” (w artykule zatytułowanym „Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification” autorstwa Daniela Borkana, Lucasa Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Jeśli spojrzysz na tę kwestię z szerszej kontemplacji, możesz zacząć się zastanawiać, jak na świecie możesz odróżnić, co jest toksycznym komentarzem, od tego, co nie jest toksycznym komentarzem. Ludzie mogą radykalnie różnić się pod względem tego, co interpretują jako całkowicie toksyczne sformułowania. Jedna osoba może być oburzona konkretną uwagą lub komentarzem opublikowanym w mediach społecznościowych, podczas gdy inna może nie być w ogóle poruszona. Często podnosi się argument, że pojęcie toksycznego komentarza jest pojęciem całkowicie niejasnym. To jest jak sztuka, gdzie zwyczajowo mówi się, że sztukę można zrozumieć tylko okiem patrzącego, i podobnie stronnicze lub toksyczne uwagi również są widoczne tylko dla oka patrzącego.

Balderdash, jakaś riposta. Każdy o rozsądnym umyśle może ocenić, czy uwaga w Internecie jest toksyczna, czy nie. Nie trzeba być naukowcem zajmującym się rakietami, aby zdać sobie sprawę, kiedy opublikowana zjadliwa obelga jest pełna uprzedzeń i nienawiści.

Oczywiście obyczaje społeczne zmieniają się z biegiem czasu. To, co jeszcze jakiś czas temu nie było postrzegane jako obraźliwe, dzisiaj może być postrzegane jako odrażająco niewłaściwe. Co więcej, rzeczy wypowiedziane wiele lat temu, które kiedyś uważano za nadmiernie stronnicze, mogą zostać zinterpretowane na nowo w świetle zmian znaczeniowych. Tymczasem inni twierdzą, że toksyczny komentarz jest zawsze toksyczny, niezależnie od tego, kiedy został pierwotnie ogłoszony. Można twierdzić, że toksyczność nie jest względna, lecz bezwzględna.

Niemniej jednak kwestia ustalenia, co jest toksyczne, może być dość trudną zagadką. Możemy rozszerzyć tę kłopotliwą kwestię i spróbować opracować algorytmy lub sztuczną inteligencję, które będą w stanie ustalić, który jest który. Jeśli ludziom trudno jest dokonać takiej oceny, niektórzy twierdzą, że zaprogramowanie komputera jest prawdopodobnie równie lub bardziej problematyczne.

Jedno z podejść do tworzenia zbiorów danych zawierających toksyczne treści polega na wykorzystaniu metody crowdsourcingu do oceny lub oceny treści, zapewniając w ten sposób oparte na ludzkich środkach określenie, co jest postrzegane jako niewłaściwe, i uwzględnienie etykietowania w samym zbiorze danych. ML/DL AI może następnie sprawdzić dane i powiązane z nimi oznakowania wskazane przez osoby oceniające. To z kolei może potencjalnie służyć jako sposób na obliczeniowe znalezienie podstawowych wzorców matematycznych. Voila, osoba ML/DL może wtedy być w stanie przewidzieć lub ocenić obliczeniowo, czy dany komentarz może być toksyczny, czy nie.

Jak wspomniano w cytowanym artykule na temat szczegółowych wskaźników: „To oznaczenie prosi osoby oceniające o ocenę toksyczności komentarza, wybierając spośród opcji „Bardzo toksyczny”, „Toksyczny”, „Trudno powiedzieć” i „Nie toksyczny”. Oceniających zapytano także o kilka podtypów toksyczności, chociaż tych etykiet nie wykorzystano w analizie w tej pracy. Korzystając z tych technik oceny, stworzyliśmy zbiór danych obejmujący 1.8 miliona komentarzy pochodzących z internetowych forów komentarzy, zawierających etykiety określające toksyczność i tożsamość. Chociaż wszystkie komentarze oznaczono jako toksyczne, a podzbiór 450,000 XNUMX komentarzy oznaczono jako identyfikujący. Niektóre komentarze oznaczone etykietą tożsamości zostały wstępnie wybrane przy użyciu modeli zbudowanych na podstawie poprzednich iteracji etykietowania tożsamości, aby zapewnić, że osoby oceniające tłum będą często widzieć treści związane z tożsamością” (w cytowanym artykule Daniela Borkana, Lucasa Dixona, Jeffreya Sorensena, Nithuma Thaina, Lucy Vasserman).

Innym przykładem dążenia do posiadania zbiorów danych zawierających ilustracyjne toksyczne treści są wysiłki mające na celu szkolenie interaktywnych systemów konwersacyjnych opartych na sztucznej inteligencji (NLP) opartych na przetwarzaniu języka naturalnego. Prawdopodobnie miałeś do czynienia z systemami NLP, takimi jak Alexa i Siri. Omówiłem niektóre trudności i ograniczenia dzisiejszego NLP, w tym szczególnie niepokojący przypadek, który miał miejsce, gdy Alexa udzieliła dzieciom niewłaściwej i niebezpiecznej rady, zob. link tutaj.

W niedawnym badaniu starano się zastosować dziewięć kategorii uprzedzeń społecznych, które ogólnie opierały się na sporządzonej przez EEOC (Komisji ds. Równych Szans w Zatrudnieniu) liście chronionych cech demograficznych, obejmujących wiek, płeć, narodowość, wygląd fizyczny, rasę lub pochodzenie etniczne, religię, niepełnosprawność, orientację seksualną orientacji i statusu społeczno-ekonomicznego. Według badaczy: „Jest dobrze udokumentowane, że modele NLP uczą się uprzedzeń społecznych, ale niewiele pracy włożono w to, jak te uprzedzenia manifestują się w wynikach modelu w przypadku stosowanych zadań, takich jak odpowiadanie na pytania (QA). Przedstawiamy Bias Benchmark for QA (BBQ), zbiór danych składający się z zestawów pytań skonstruowanych przez autorów, które podkreślają potwierdzone uprzedzenia społeczne wobec osób należących do klas chronionych w dziewięciu wymiarach społecznych istotnych dla kontekstów anglojęzycznych w USA” (w artykule zatytułowanym „BBQ : Ręcznie zbudowany punkt odniesienia w zakresie odpowiadania na pytania” Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Tworzenie zbiorów danych, które celowo zawierają stronnicze i całkowicie toksyczne dane, jest rosnącym trendem w sztucznej inteligencji i jest szczególnie podsycane pojawieniem się etyki sztucznej inteligencji i chęcią stworzenia etycznej sztucznej inteligencji. Te zbiory danych można wykorzystać do uczenia modeli uczenia maszynowego (ML) i głębokiego uczenia się (DL) w celu wykrywania błędów systematycznych i ustalania wzorców obliczeniowych pociągających za sobą toksyczność społeczną. Z kolei ML/DL przeszkolony pod kątem toksyczności można w rozsądny sposób skierować na inną sztuczną inteligencję, aby ustalić, czy docelowa sztuczna inteligencja jest potencjalnie stronnicza i toksyczna.

Co więcej, dostępne systemy ML/DL wyszkolone pod kątem toksyczności można wykorzystać do pokazania twórcom sztucznej inteligencji, na co należy zwrócić uwagę, aby mogli łatwo sprawdzić modele i zobaczyć, jak powstają nasycone algorytmami błędy systematyczne. Ogólnie rzecz biorąc, wysiłki te są w stanie zilustrować niebezpieczeństwa związane z toksyczną sztuczną inteligencją w ramach szeroko rozumianej etyki sztucznej inteligencji i świadomości etycznej sztucznej inteligencji.

Założę się, że w tym momencie tej ważnej dyskusji pragniesz kilku dalszych ilustrujących przykładów, które mogłyby ilustrować ten temat. Istnieje szczególny i na pewno popularny zestaw przykładów, które są bliskie mojemu sercu. Jak widać, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ilustrujących dylematy etyczne dotyczące sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który wyraźnie przedstawia ten etyczny dylemat związany ze sztuczną inteligencją, jest pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji. Będzie to służyć jako przydatny przypadek użycia lub przykład obszernej dyskusji na ten temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na użyteczność posiadania zbiorów danych do opracowywania toksycznej sztucznej inteligencji, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i kierowanie z dala od toksycznej sztucznej inteligencji

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Istnieje wiele potencjalnych uprzedzeń związanych ze sztuczną inteligencją, które pewnego dnia prawdopodobnie zostaną zrealizowane i które staną w obliczu pojawienia się pojazdów autonomicznych i samochodów autonomicznych, patrz na przykład moja dyskusja na stronie link tutaj i link tutaj. Wciąż jesteśmy na wczesnym etapie wdrażania samochodów autonomicznych. Dopóki wdrożenie nie osiągnie wystarczającej skali i widoczności, wiele toksycznych aspektów sztucznej inteligencji, które – jak przewidywałem – ostatecznie wystąpią, nie jest jeszcze wyraźnie widocznych i nie przyciągnęło jeszcze powszechnej uwagi opinii publicznej.

Rozważmy pozornie prostą kwestię związaną z prowadzeniem pojazdu, która na pierwszy rzut oka może wydawać się zupełnie niewinna. W szczególności przyjrzyjmy się, jak prawidłowo określić, czy należy się zatrzymać w celu oczekiwania na „krnąbrnego” pieszego, który nie ma pierwszeństwa, aby przejść przez ulicę.

Bez wątpienia prowadziłeś samochód i spotkałeś pieszych, którzy czekali na przejście przez ulicę, a mimo to nie mieli pierwszeństwa przejazdu. Oznaczało to, że miałeś swobodę wyboru, czy zatrzymać się i pozwolić im przejść. Możesz kontynuować, nie pozwalając im przekroczyć granicy i nadal w pełni przestrzegać przepisów prawa jazdy.

Badania nad tym, jak ludzie decydują się na zatrzymanie lub nie zatrzymywanie się dla takich pieszych, sugerują, że czasami kierowcy dokonują wyboru w oparciu o niesłuszne uprzedzenia. Kierowca może spojrzeć na pieszego i zdecydować się nie zatrzymywać, nawet jeśli zatrzymałby się, gdyby pieszy miał inny wygląd, na przykład ze względu na rasę lub płeć. Sprawdziłem to w link tutaj.

W jaki sposób systemy jazdy AI zostaną zaprogramowane tak, aby podejmowały tego samego rodzaju decyzje o zatrzymaniu się lub ruszaniu?

Można by ogłosić, że wszystkie systemy jazdy AI powinny być zaprogramowane tak, aby zawsze zatrzymywały się przed czekającymi na nich pieszymi. To znacznie upraszcza sprawę. Tak naprawdę nie ma żadnej zawiłej decyzji do podjęcia. Jeśli pieszy czeka na przejście, niezależnie od tego, czy ma pierwszeństwo, czy nie, upewnij się, że autonomiczny samochód AI się zatrzyma, aby pieszy mógł przejść.

Bułka z masłem.

Wygląda na to, że życie nigdy nie jest takie proste. Wyobraź sobie, że wszystkie samochody autonomiczne przestrzegają tej zasady. Piesi nieuchronnie zdaliby sobie sprawę, że systemy jazdy oparte na sztucznej inteligencji to, że tak powiem, popychadła. Każdy pieszy, który będzie chciał przejść przez ulicę, zrobi to chcąc nie chcąc, kiedykolwiek zechce i gdziekolwiek się znajdzie.

Załóżmy, że autonomiczny samochód jedzie szybką ulicą z dozwoloną prędkością 45 mil na godzinę. Pieszy „wie”, że sztuczna inteligencja zatrzyma autonomiczny samochód. W wyniku tego pieszy wbiegł na ulicę. Niestety fizyka wygrywa ze sztuczną inteligencją. System jazdy oparty na sztucznej inteligencji będzie próbował zatrzymać autonomiczny samochód, ale pęd autonomicznego pojazdu popchnie wielotonowe urządzenie do przodu i wbije się w krnąbrnego pieszego. Rezultatem jest albo obrażenia, albo śmierć.

Piesi zazwyczaj nie próbują tego typu zachowań, gdy za kierownicą siedzi człowiek. Jasne, w niektórych lokalizacjach toczy się wojna na gałki oczne. Pieszy spogląda na kierowcę. Kierowca patrzy na pieszego. W zależności od okoliczności kierowca może się zatrzymać lub może domagać się prawa do jezdni i rzekomo rzucać pieszym wyzwanie, aby zakłócił im drogę.

Prawdopodobnie nie chcemy, aby sztuczna inteligencja wdawała się w podobną wojnę na gałki oczne, co i tak jest nieco trudne, ponieważ za kierownicą samochodu autonomicznego nie siedzi żadna osoba ani robot (omawiałem przyszłe możliwości robotów ten napęd, widzisz link tutaj). Nie możemy jednak pozwolić, aby to piesi zawsze decydowali. Wynik może być katastrofalny dla wszystkich zainteresowanych.

Możesz wtedy ulec pokusie, aby odwrócić sytuację na drugą stronę medalu i stwierdzić, że system napędowy AI nigdy nie powinien się zatrzymywać w takich okolicznościach. Innymi słowy, jeśli pieszy nie ma odpowiedniego pierwszeństwa, aby przejść przez ulicę, sztuczna inteligencja powinna zawsze zakładać, że samochód autonomiczny powinien jechać bez przerwy. Pech dla tych pieszych.

Tak rygorystyczna i uproszczona zasada nie zostanie dobrze zaakceptowana przez ogół społeczeństwa. Ludzie są ludźmi i nie będą chcieli, gdy zostanie całkowicie odcięty od możliwości przejścia przez ulicę, mimo że zgodnie z prawem nie mają do tego pierwszeństwa w różnych miejscach. Można łatwo przewidzieć spore oburzenie opinii publicznej i być może wystąpić ostry sprzeciw wobec dalszego upowszechniania się samochodów autonomicznych.

Przeklęci, jeśli to zrobimy i przeklęci, jeśli tego nie zrobimy.

Mam nadzieję, że doprowadziło Cię to do uzasadnionej alternatywy, zgodnie z którą sztuczną inteligencję należy zaprogramować w sposób umożliwiający podejmowanie decyzji dotyczących radzenia sobie z problemem związanym z prowadzeniem pojazdu. Twarda zasada, aby nigdy nie przestawać, jest nie do utrzymania, podobnie jak twarda i szybka zasada, aby zawsze się zatrzymywać, również jest nie do utrzymania. Należy opracować sztuczną inteligencję z algorytmicznym procesem decyzyjnym lub ADM, aby uporać się z tą sprawą.

Możesz spróbować użyć zestawu danych w połączeniu z podejściem ML/DL.

Oto, w jaki sposób twórcy sztucznej inteligencji mogą zdecydować się na zaprogramowanie tego zadania. Zbierają dane z kamer wideo rozmieszczonych w całym mieście, w którym będzie używany samochód autonomiczny. Dane pokazują, kiedy kierowcy-ludzie decydują się zatrzymać przed pieszymi, którzy nie mają pierwszeństwa. Wszystko to jest gromadzone w zbiorze danych. Korzystając z uczenia maszynowego i głębokiego uczenia się, dane są modelowane obliczeniowo. Następnie system jazdy AI wykorzystuje ten model, aby zdecydować, kiedy się zatrzymać, a kiedy nie.

Ogólnie rzecz biorąc, pomysł jest taki, że niezależnie od lokalnych zwyczajów, sztuczna inteligencja będzie w ten sposób kierować samochodem autonomicznym. Problem rozwiązany!

Ale czy rzeczywiście zostało to rozwiązane?

Przypomnijmy, że już wspomniałem, że istnieją badania naukowe wykazujące, że kierowcy będący ludźmi mogą być stronniczy w wyborze momentu zatrzymania się dla pieszych. Zebrane dane na temat konkretnego miasta prawdopodobnie będą zawierać te uprzedzenia. ML/DL AI oparty na tych danych będzie prawdopodobnie modelować i odzwierciedlać te same błędy. System napędowy AI będzie po prostu realizował te same istniejące uprzedzenia.

Aby spróbować uporać się z tym problemem, moglibyśmy stworzyć zbiór danych, który w rzeczywistości zawiera takie błędy. Albo znajdujemy taki zbiór danych, a następnie oznaczamy błędy systematyczne, albo syntetycznie tworzymy zbiór danych, aby pomóc w zilustrowaniu problemu.

Zostaną podjęte wszystkie wcześniej zidentyfikowane kroki, w tym:

  • Skonfiguruj zbiór danych, który celowo zawiera to szczególne odchylenie
  • Użyj zestawu danych, aby szkolić modele uczenia maszynowego (ML) i głębokiego uczenia się (DL) w zakresie wykrywania tego konkretnego błędu
  • Zastosuj ML/DL wytrenowany na podstawie uprzedzeń do innej sztucznej inteligencji, aby upewnić się, czy docelowa sztuczna inteligencja jest potencjalnie stronnicza w podobny sposób
  • Udostępnij wytrenowane pod kątem błędów ML/DL, aby pokazać twórcom sztucznej inteligencji, na co należy zwrócić uwagę, aby mogli łatwo sprawdzić swoje modele i zobaczyć, jak powstają nasycone algorytmami uprzedzenia
  • Zilustruj niebezpieczeństwa związane z stronniczą sztuczną inteligencją w ramach etyki sztucznej inteligencji i świadomości etycznej sztucznej inteligencji za pomocą tego dodanego konkretnego przykładu
  • Inne

Wnioski

Wróćmy do linii początkowej.

Trzeba kogoś poznać.

Niektórzy interpretują, że to niezwykle rozpowszechnione powiedzenie sugeruje, że jeśli chodzi o wykrywanie toksycznej sztucznej inteligencji, powinniśmy należycie wierzyć w budowanie i wykorzystywanie toksycznej sztucznej inteligencji w celu odkrywania innej toksycznej sztucznej inteligencji i radzenia sobie z nią. Konkluzja: czasami potrzeba złodzieja, aby złapać innego złodzieja.

Wyrażona obawa jest taka, że ​​być może robimy wszystko, co w naszej mocy, aby zacząć robić złodziei. Czy chcemy opracować toksyczną sztuczną inteligencję? Czy to nie wydaje się szalonym pomysłem? Niektórzy stanowczo twierdzą, że powinniśmy zakazać wszelkiej toksycznej sztucznej inteligencji, w tym sztucznej inteligencji, która została świadomie zbudowana, nawet jeśli rzekomo miała służyć bohaterskiemu lub walecznemu celowi. AI na dobre cel, powód.

Zdławij toksyczną sztuczną inteligencję w jakiejkolwiek sprytnej lub podstępnej postaci, jaka może się pojawić.

Na razie ostatni zwrot w tym temacie. Generalnie zakładamy, że ten słynny wers ma związek z ludźmi lub rzeczami, które dopuszczają się złych lub kwaśnych czynów. W ten sposób dochodzimy do wniosku, że aby złapać złodzieja, potrzeba złodzieja. Może powinniśmy odwrócić to powiedzenie do góry nogami i uczynić z niego bardziej szczęśliwą twarz niż smutną twarz.

Oto jak.

Jeśli chcemy sztucznej inteligencji, która jest bezstronna i nietoksyczna, można sobie wyobrazić, że trzeba ją znać. Być może potrzeba największych i najlepszych, aby rozpoznać i zrodzić dalszą wielkość i dobroć. W tym wariancie mądrości mędrca wpatrujemy się w szczęśliwą twarz i koncentrujemy się na obmyślaniu AI na dobre.

Byłby to bardziej optymistyczny i satysfakcjonujący, wesoły punkt widzenia na temat tego, że trzeba go poznać, jeśli wiesz, co mam na myśli.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toksyczny-or-biased-might-be- korzystne-w tym-dla-autonomicznych-samochodów-samojezdnych/