Etyka AI Ostrożna ocena, czy oferowanie stronniczości AI Polowanie na nagrody za łapanie i łapanie etycznie niegodziwych, w pełni autonomicznych systemów jest rozważne lub daremne

Chciał: Łowcy stronniczości AI.

Może to być współczesna reklama, która zacznie pojawiać się w mediach społecznościowych i w różnych ogłoszeniach o pracę w Internecie. Jest to stosunkowo nowa koncepcja lub rola. Niesie ze sobą kontrowersje. Niektórzy zagorzali wierzący gorąco twierdzą, że ma to mnóstwo sensu i powinno mieć miejsce od samego początku, podczas gdy inni raczej nerwowo drapią się po głowie, nie będąc do końca pewni, czy jest to dobry pomysł.

Istota tej roli polega na wykryciu ze sztucznej inteligencji wszelkich ukrytych uprzedzeń lub osadzonych praktyk dyskryminacyjnych. Na ratunek przychodzą chętni i całkowicie niegdysiejsi sztuczni inteligenci, którzy uprzedzają łowców. Prawdopodobnie byliby to biegli w obsłudze komputera łowcy nagród. Bardziej, miejmy nadzieję, zanurzeni w głębinach możliwości sztucznej inteligencji.

Miej broń, podróżuj i dzięki umiejętnościom strzeleckim wyszkolonym przez sztuczną inteligencję możesz zdemaskować te niesmaczne i niekorzystne uprzedzenia sztucznej inteligencji.

Rodzi to mnóstwo drażliwych pytań o sens stosowania takiej taktyki, jeśli chodzi o odkrywanie uprzedzeń AI. Jak o tym za chwilę opowiem, pamiętajcie, że pojawienie się sztucznej inteligencji pociągnęło za sobą także pojawienie się uprzedzeń związanych ze sztuczną inteligencją. Potok uprzedzeń AI. Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Jak możemy odkryć, że konkretny system sztucznej inteligencji ma pewne uprzedzenia?

Możesz powierzyć to zadanie twórcom sztucznej inteligencji, którzy opracowali tę sztuczną inteligencję. Rzecz w tym, że mogą być tak pogrążeni w uprzedzeniach, że sami nie są w stanie rozpoznać tych uprzedzeń w swojej wymyślonej sztucznej inteligencji. Wszystko im się podoba. Mogą też być tak podekscytowani sztuczną inteligencją i mieć z tego powodu poczucie dumy, że konieczność krytycznego spojrzenia na nią pod kątem uprzedzeń byłaby trudna i naprawdę przygnębiająca. Wiele innych powodów może utrudniać podjęcie się tego zadania przez twórców sztucznej inteligencji, w tym brak umiejętności rozpoznawania wbudowanych uprzedzeń, brak czasu w projekcie na wykonanie tego itp.

OK, więc śmiało zatrudnij zewnętrznych konsultantów, którzy wykonali za ciebie brudną robotę. Okazuje się, że konsultanci z radością przeanalizują Twoją sztuczną inteligencję pod kątem uprzedzeń, pobierając za to całkiem niezłe grosze (dużo, mnóstwo groszy). Zdaj sobie sprawę, że musisz za nie zapłacić, aby przyspieszyć działanie Twojego systemu AI. Następnie musisz pozwolić im szperać, co może zająć niezliczoną liczbę kosztownych i pracochłonnych godzin. Korzystanie z konsultantów jest opcją, jeśli masz na to budżet.

W potencjalną „lukę” w wykrywaniu podstępnych uprzedzeń sztucznej inteligencji pojawiają się bohaterscy i zadziorni łowcy nagród.

Zwykle nie płacisz im z góry. Próbują znaleźć stronniczość sztucznej inteligencji w wolnym czasie i muszą przy tym płacić własne rachunki. Zarabiają tylko wtedy, gdy uda im się znaleźć uprzedzenia. Przypuszczam, że przy odpowiednim sposobie myślenia można z łatwością stwierdzić, że jest to konwencjonalna definicja łowcy nagród. Zarabiaj, jeśli odniesiesz sukces. Nie zarabiaj, jeśli nie odniesiesz sukcesu. Kropka, koniec historii.

Programy nagród istniały co najmniej od czasów Rzymian, zatem możemy przypuszczać, że działają, jako że z powodzeniem przetrwały jako praktyka przez te wszystkie lata.

Oto fascynujący fragment ciekawostek historycznych. Podobno w czasach Cesarstwa Rzymskiego w Pompejach rozesłano wiadomość, w której głoszono, że potrzebni są łowcy nagród, aby odnaleźć miedziany garnek, który zaginął w małym sklepie. Nagrodą za odzyskanie miedzianego garnka była imponująca nagroda w postaci sześćdziesięciu pięciu monet z brązu. Przykro mi to mówić, ale nie wiemy, czy jakiś łowca nagród znalazł miedziany garnek i odebrał brązowe monety, ale wiemy, że polowanie na nagrody z pewnością trwa od czasów starożytnych.

Być może w dzisiejszych czasach wiesz, że w latach 1980. XX wieku oferowano znaczące nagrody za znalezienie błędów komputerowych lub błędów w gotowych pakietach oprogramowania, a następnie w latach 1990. Netscape wyraźnie oferował nagrodę za znalezienie błędów w przeglądarce internetowej (stając się jedną z najbardziej znanych firm tamtych czasów, która to zrobiła). Google i Facebook zdecydowały się na polowanie na błędy odpowiednio od 2010 i 2013 roku. Kilka lat później, w 2016 r., do akcji włączył się nawet Departament Obrony Stanów Zjednoczonych (DoD), organizując akcję z nagrodami „Włam się do Pentagonu” (należy pamiętać, że nagroda przeznaczona publicznie dotyczyła błędów znalezionych na różnych stronach internetowych związanych z Departamentem Obrony, a nie w systemy obronne o znaczeniu krytycznym).

Zagłębmy się w temat nagród za błędy. Zdaję sobie sprawę, że w tej dyskusji chcę głównie omówić uprzedzenia sztucznej inteligencji w polowaniu na nagrody, ale istnieją pewne istotne podobieństwa z areną nagród za błędy.

Niektórzy są wyraźnie zaskoczeni faktem, że jakakolwiek firma chciałaby zaoferować nagrodę za znalezienie błędów (lub, w tym przypadku, błędów sztucznej inteligencji) w swoich systemach.

Na pozór wydaje się to strategią typu „sam o to prosisz”. Jeśli dasz światu znać, że witasz tych, którzy mogą próbować znaleźć dziury w Twoim oprogramowaniu, wydaje się to równoznaczne z nakazaniem włamywaczom, aby bez wahania spróbowali włamać się do Twojego domu. Nawet jeśli już wierzysz, że masz całkiem dobry system alarmowy i że nikt nie powinien dostać się do Twojego zabezpieczonego domu, wyobraź sobie, że pytasz, a nawet błagasz włamywaczy, aby wszyscy przyszli do Twojego miejsca zamieszkania i sprawdzili, czy mogą włamać się do niego. Och, kłopoty, które sami dla siebie tkamy.

To samo można powiedzieć o proszeniu łowców nagród o znalezienie błędów w sztucznej inteligencji.

Po pierwsze, być może oznacza to, że już wierzysz lub nawet całkowicie wiesz, że Twoja sztuczna inteligencja rzeczywiście ma uprzedzenia. Jest to szokująco szczere, dorozumiane przyznanie się, którego niewielu chciałoby dokonać i które mogłoby potencjalnie przynieść odwrotny skutek.

Po drugie, nie wiesz na pewno, co mogą zrobić ci łowcy nagród. Mogliby zdecydować się powiedzieć całemu światu, że znaleźli uprzedzenia w Twojej sztucznej inteligencji. Można przypuszczać, że może to oznaczać utratę nagrody, chociaż niektórzy mogą rozkoszować się uwagą lub dążyć do wzmocnienia swojego statusu w celu uzyskania występów konsultingowych i innych możliwości generowania przychodów. Być może byłoby to całkowicie altruistyczne. Może to być forma aktywizmu AI. Mogę iść dalej.

Po trzecie, cała sprawa może mieć przebiegły zwrot akcji. Łowca nagród twierdzący, że szuka stronniczości w sztucznej inteligencji, może diabelsko węszyć, aby znaleźć sposoby na zaatakowanie twojego systemu sztucznej inteligencji. Cała sprawa jest farsą mającą ostatecznie na celu przeprowadzenie poważnego cyberataku. Można by pomyśleć, że próbują pomóc, choć w sercach mają zło. Smutne, ale możliwe.

Po czwarte, możemy w tej kwestii jeszcze bardziej chytrze wykrzywić się. Łowca nagród odkrywa pewne zawstydzające i potencjalnie mogące stać się przyczyną pozwów uprzedzenia związane ze sztuczną inteligencją. Nagroda to pewna suma dolarów, którą nazwiemy X. Zamiast odebrać nagrodę, łowca nagród wykonuje coś w rodzaju dziwacznej prowokacji związanej z oprogramowaniem ransomware. Jeśli zapłacisz łowcy nagród kwotę dziesięciokrotną X lub być może limit, powie ci on o uprzedzeniach AI. Na odpowiedź masz czas do północy w niedzielę wieczorem. Po tym czasie wszyscy będą mogli zobaczyć uprzedzenia AI. Tak, nikczemna sytuacja, w której się znalazłem.

Po piąte, najnowszymi są tak zwani cyberprzestępcy typu „hack to return”, którzy po kradzieży forsy w Internecie decydują się okazać skruchę i zwrócić część nieuczciwie zdobytego łupu. Firma, która uzyska częściowy zwrot pieniędzy, jest wówczas skłonna potraktować pozostałą skradzioną kwotę jako nagrodę przyznaną złodziejom po fakcie. Wygląda na to, że wszyscy „wygrywają”, ponieważ większość środków zostaje zwrócona, a tymczasem cyberprzestępcy nie są ścigani zgodnie z prawem, a na dodatek dostają piracką nagrodę. Czy jest to postępowanie rozważne, czy też podstępne utrwalanie niewłaściwych zachowań?

Zdaję sobie sprawę, że niektórzy z Was mogą twierdzić, że nikt nie powinien publikować sztucznej inteligencji, która ma jakiekolwiek uprzedzenia. Wydaje się, że to rozwiązuje cały dylemat dotyczący tego, czy sztuczna inteligencja wpływa na łowców nagród, czy nie. Tylko nie wdawaj się w sytuację z nagrodą. Upewnij się, że twórcy sztucznej inteligencji postępują właściwie i nie pozwalają na uprzedzenia sztucznej inteligencji w swoich systemach sztucznej inteligencji. Być może skorzystaj z pomocy konsultantów, aby przeprowadzić podwójną kontrolę. Krótko mówiąc, rób wszystko, co musisz, aby uniknąć myślenia o łowcach nagród stronniczych od sztucznej inteligencji lub proszenia ich o przyjście do stołu.

Tak, wydawałoby się to całkowicie rozsądne. Problem w tym, że jest też trochę marzycielski. Złożoność wielu systemów sztucznej inteligencji jest tak duża, że ​​zapewnienie, że nie pojawi się ani grama uprzedzeń związanych ze sztuczną inteligencją, będzie trudne. Co więcej, niektóre systemy sztucznej inteligencji są celowo zaprojektowane tak, aby dostosowywać się i „uczyć” w miarę upływu czasu. Oznacza to, że w pewnym momencie w przyszłości sztuczna inteligencja, którą obmyśliłeś, która na początku udawajmy, że jest czysta i pozbawiona uprzedzeń, może skłaniać się ku ucieleśnianiu uprzedzeń (nie mam na myśli tego w sposób antropomorficzny, co wyjaśnię dalej, gdy będziemy kontynuować ten temat).

Zwolennicy polowania na nagrody za błędy oprogramowania są skłonni argumentować, że oferowanie takich nagród ma sens. Możemy rozważyć ich uzasadnienie i sprawdzić, czy odnosi się to również do sfery uprzedzeń AI.

Zwolennicy nagród za błędy podkreślają, że zamiast udawać, że w systemie nie ma żadnych dziur, dlaczego nie zachęcać do ich znajdowania w „kontrolowany” sposób? W przeciwieństwie do tego, bez takiego wysiłku związanego z nagrodami, możesz po prostu mieć nadzieję i modlić się, aby przez przypadek nikt nie znalazł dziury, ale jeśli zamiast tego oferujesz nagrodę i mówisz tym, którzy znajdą dziurę, że zostaną nagrodzeni, oferuje to szansę na samodzielne załatanie dziury i uniemożliwienie innym jej potajemnego odnalezienia w późniejszym czasie.

To samo można powiedzieć w przypadku stosowania stronniczości AI. Miejmy nadzieję, że jeśli zaoferujesz wystarczającą nagrodę, łowcy nagród zwrócą twoją uwagę na odkrycie stronniczości sztucznej inteligencji. Można wtedy poradzić sobie z uprzedzeniami sztucznej inteligencji w stosunkowo cichy i wyważony sposób. Może to zapobiec późniejszemu znacznie większemu i bardziej zniechęcającemu problemowi, a mianowicie temu, że ktoś inny znajdzie w twojej sztucznej inteligencji uprzedzenia związane ze sztuczną inteligencją i będzie krzyczeć o tym pod niebiosa.

Ogólnie rzecz biorąc, firma, która chce umożliwić polowanie na błędy, wdroży Politykę ujawniania luk w zabezpieczeniach (VDP). VDP wskazuje, w jaki sposób należy znaleźć błędy i zgłosić je firmie, a także sposób przekazania myśliwemu nagrody lub nagrody. Zwykle VDP będzie wymagać, aby myśliwy podpisał umowę o zachowaniu poufności (NDA), zgodnie z którą nie będzie ujawniał innym tego, co znalazł.

Pomysł stosowania umowy NDA z łowcami nagród budzi pewne kontrowersje. Choć być może dla firmy oferującej nagrodę sensowne jest, aby chcieć zataić wykryte narażenia, mówi się również, że tłumi to ogólną świadomość na temat takich błędów. Prawdopodobnie, jeśli pozwoli się mówić o błędach oprogramowania, potencjalnie poprawi to bezpieczeństwo innych systemów w innych firmach, które następnie wzmocnią swoje narażenie. Niektórzy łowcy nagród nie podpiszą umowy NDA, częściowo ze względu na wolę publiczną, a częściowo z powodu chęci ukrycia własnej tożsamości. Należy również pamiętać, że aspekt NDA zwykle nie pojawia się, dopóki myśliwy nie oświadczy, że znalazł błąd, zamiast wymagać tego wcześniej.

Niektóre VDP stanowią, że umowa NDA jest zawierana tylko na ograniczony okres czasu, co pozwala firmie najpierw znaleźć rozwiązanie widocznej luki, a następnie umożliwić szersze jej ujawnienie. Po załataniu dziury firma pozwala na poluzowanie umowy NDA, aby reszta świata mogła dowiedzieć się o błędzie. Typowy czas rozwiązania błędów, na które polują nagrody, wynosi około 15–20 dni, jeśli firma chce je natychmiast usunąć, podczas gdy w innych przypadkach może się on wydłużyć do 60–80 dni. Jeśli chodzi o zapłatę łowcy nagród, tzw. czas na zapłatę, po zweryfikowaniu, czy dziura faktycznie istnieje, według doniesień wypłata nagród następuje w ciągu około 15–20 dni w przypadku mniejszych instancji i około 50–60 dni dni w przypadku większych przypadków (są to stale zmieniające się wskazania branżowe i wymienione jedynie w celach ilustracyjnych).

Czy łowcy nagród nastawieni na sztuczną inteligencję również powinni zostać poproszeni o udział w VDP i zawarcie umowy NDA?

Na to pytanie możesz uzyskać odpowiedź „tak” i „nie”. Tak, niektóre firmy powinny pójść tą drogą. Nie, niekoniecznie musisz zdecydować się na pójście tą drogą. Czynniki obejmują rozmiar i charakter sztucznej inteligencji, potencjał narażenia na uprzedzenia związane ze sztuczną inteligencją oraz szereg innych czynników etycznych, prawnych i biznesowych, które mają znaczenie.

Mógłbym dodać, że ustanowienie przedsięwzięcia polegającego na polowaniu na nagrody w związku z uprzedzeniami sztucznej inteligencji w twojej sztucznej inteligencji jest zadaniem znacznie wyższym, niż mogłoby się wydawać na pierwszy rzut oka.

Zaczniemy od ogromnej możliwości, że zostaniesz przytłoczony przez sztuczną inteligencję łowców nagród.

W tej chwili trudno byłoby znaleźć wielu, którzy mieliby taką wizytówkę. Nie ma ich wielu w okolicy. Pod tym względem nadeszły czasy Dzikiego Zachodu. Jeśli jednak koncepcja stronniczości sztucznej inteligencji w polowaniu na nagrody przyjmie się, zwłaszcza gdy nagrody są obfite i dają dużą satysfakcję, można się założyć, że wszyscy zanurzą się w basenie związanym z polowaniem na uprzedzenia.

Czy chcesz, aby w Twoim systemie AI znajdowała się wszelkiego rodzaju hołota ścigająca uprzedzenia związane ze sztuczną inteligencją? Znajdziesz kilku chętnych, którzy są ekspertami w tego typu sprawach. Znajdziesz innych chętnych, którzy są amatorami i mogą narobić bałaganu lub płakać wilkiem. Następną rzeczą, którą wiesz, jest to, że każdy, kto potrafi przeliterować „sztuczną inteligencję”, przyjdzie, aby kopać w twojej kopalni złota systemu sztucznej inteligencji w poszukiwaniu cennych bryłek złota odchylających się od sztucznej inteligencji. Trwa gorączka złota. To może nie być dla ciebie dobre.

Będziesz musiał dokładnie sprawdzić zgłoszenia łowców nagród. W zgłaszanych twierdzeniach będzie dużo „hałasu” w tym sensie, że wiele z rzekomych uprzedzeń AI nie istnieje, chociaż łowca nagród upiera się, że jakieś znalazł. Wyobraź sobie, ile pracy będą potrzebne Twoje zespoły AI, aby zbadać roszczenia dotyczące nagród, zbadać zasadność każdego z nich, a następnie potencjalnie wymieniać się z łowcą nagród w sprawie tego, czy odkryto złoto, czy nie.

Niektórzy twierdzą, że to kolejny powód, aby zrobić wszystko samodzielnie. Możesz nieuchronnie odkryć, że nagroda to więcej kłopotów, niż była tego warta.

Oto kolejne pytanie do rozważenia. Skąd łowcy nagród będą wiedzieć, jak wygląda stronniczość sztucznej inteligencji? W istocie, bez pozorów tego, czego należy szukać, każdą błyszczącą skałę można uznać za wykazującą stronniczość sztucznej inteligencji w postrzeganej kopalni złota AI.

Załóżmy, że w czasach Dzikiego Zachodu oferowałeś nagrodę za schwytanie Billy’ego Kida (słynnego bandyty). Jeśli tak zrobiłeś i nie załączyłeś zdjęcia przedstawiającego wygląd Billy'ego, wyobraź sobie liczbę łowców nagród, którzy mogliby zaciągnąć do biura szeryfa osobę, o której mieli nadzieję lub którą uważali za Billy'ego Kida. Możesz zostać zasypany fałszywymi Billy'mi. To niedobrze, ponieważ prawdopodobnie musiałbyś przyjrzeć się każdemu z nich, zadać dociekliwe pytania i spróbować ustalić, czy dana osoba to naprawdę Billy, czy nie.

Chodzi o to, że przy ustalaniu nagród za uprzedzenia AI mądrze byłoby spróbować wyjaśnić, na czym według Ciebie polegają uprzedzenia AI. Wymaga to kalibracji typu Złotowłosa. Nie chcesz być tak ograniczający, aby łowcy nagród przeoczyli uprzedzenia AI tylko dlatego, że nie mieszczą się one w podanej przez ciebie definicji, ani nie chcesz, aby krzyczeli „Eureka!” przy każdym kawałku stronniczości AI, jaki przypadkiem znajdą.

Będziesz potrzebować odpowiedniej równowagi Złotowłosej, na czym polegają uprzedzenia AI, a tym samym zapewnisz, najlepiej wyraźne wskazówki na ten temat.

Wiele z uprzedzeń związanych ze sztuczną inteligencją podczas polowania na nagrody będzie koncentrować się na systemach uczenia maszynowego (ML) i głębokiego uczenia się (DL) opartych na sztucznej inteligencji. Ma to sens, ponieważ pojawianie się zjawiska ML/DL jest coraz bardziej powszechne, a ponadto wydaje się, że wiąże się to z niektórymi z najbardziej prawdopodobnych wyzwań związanych z uwzględnieniem nadmiernych uprzedzeń w zakresie sztucznej inteligencji.

Badacze ci identyfikują, jak istotne może być poszukiwanie nagród przez sztuczną inteligencję, szczególnie w kontekście ML/DL: „Z biegiem czasu społeczności zajmujące się oprogramowaniem i bezpieczeństwem opracowały „nagrody za błędy”, próbując zmienić podobną dynamikę między twórcami systemów a ich krytykami (lub hakerów) w kierunku bardziej interaktywnych i produktywnych celów. Istnieje nadzieja, że ​​celowe zapraszanie stron zewnętrznych do wyszukiwania błędów w oprogramowaniu lub sprzęcie w ich systemach i często zapewnianie za to zachęt finansowych spowoduje ewolucję zdrowszego i szybciej reagującego ekosystemu. To naturalne, że społeczność ML rozważa podobne podejście „nagroda za stronniczość” w przypadku szybkiego odkrywania i naprawy modeli i systemów charakteryzujących się uprzedzeniami lub innymi niepożądanymi zachowaniami. Zamiast znajdować błędy w oprogramowaniu, strony zewnętrzne proszone są o znalezienie błędów uprzedzeń — na przykład (demograficznych lub innych) podgrup danych wejściowych, w przypadku których wyszkolony model radzi sobie gorzej — i są za to nagradzani” (w artykule „An Algorithmic Framework for Bias Bounties” autorstwa Iry Globus-Harrisa, Michaela Kearnsa i Aarona Rotha).

W artykule badawczym autorzy przedstawiają sugerowane podejście do tego, jakiego rodzaju uprzedzenia sztucznej inteligencji mogą szukać łowcy nagród. Wskazano również, jak ocenić twierdzenia łowców nagród powiązane z odkrytymi w ten sposób rzekomymi błędami sztucznej inteligencji. Zgodnie z moimi wcześniejszymi uwagami w tym dokumencie istnieje ryzyko, że otrzymasz fałszywe twierdzenia i będziesz musiał oddzielić pszenicę od plew, która sprzyja sztucznej inteligencji.

Zanim zajmiemy się bardziej mięsem i ziemniakami na temat dzikich i wełnistych rozważań leżących u podstaw polowania na stronniczość AI, ustalmy kilka dodatkowych podstaw na głęboko integralne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy teraz do tematu polowania na stronniczość AI.

Dla tych z Was, którzy rozważają polowanie na nagrody oparte na sztucznej inteligencji, oto siedem zalecanych przeze mnie kluczowych kroków, jak najlepiej postępować:

1) Oszacować. Oceń przydatność polowania na nagrody opartego na sztucznej inteligencji w Twoich okolicznościach i zgodnie z Twoimi systemami AI

2) Wnętrze. Zaprojektuj odpowiednie podejście do polowania na nagrody oparte na sztucznej inteligencji

3) Wdrożenie. Wdrażaj i promuj swoje wysiłki związane z polowaniem na nagrody oparte na sztucznej inteligencji

4) Pole. W terenie sztuczna inteligencja faworyzuje roszczenia o nagrody i odpowiednio je przetwarza

5) Fix. Napraw lub dostosuj swoją sztuczną inteligencję w zależności od wykrytego narażenia na stronniczość AI

6) Dostosować. W razie potrzeby dostosuj preferencje AI podczas polowania na nagrody

7) Zaprzestać. Zaprzestań polowania na nagrody opartego na uprzedzeniach AI, gdy nie jest już potrzebne

W mojej serii powyższych kroków zauważ, że wspomniałem, że prawdopodobnie będziesz chciał naprawić lub dostosować swoją sztuczną inteligencję w oparciu o upewnienie się, że rzekoma stronniczość sztucznej inteligencji faktycznie istnieje w twoim systemie sztucznej inteligencji. To ma w dużym stopniu sens. Prawie na pewno chciałbyś wzmocnić wszelkie znalezione uprzedzenia AI. Pomyśl o konsekwencjach prawnych (i etycznych), jeśli tego nie zrobisz. Jedną rzeczą jest twierdzenie, że nie wiedziałeś o istnieniu uprzedzeń związanych ze sztuczną inteligencją i dlatego na to pozwoliłeś, podczas gdy o wiele bardziej niepewne jest posiadanie w aktach informacji, że zostałeś poinformowany o uprzedzeniach dotyczących sztucznej inteligencji i nic z tym nie zrobiłeś.

Charakter i stopień naprawy lub dostosowania sztucznej inteligencji będzie oczywiście zależał od tego, jak znaczące były błędy w sztucznej inteligencji i jak głęboko zakorzenione są problemy. Jeśli masz szczęście, być może niewielka liczba zmian w sztucznej inteligencji naprawi sytuację. Innym potencjałem jest to, że może być konieczne przepisanie całej sztucznej inteligencji. W przypadku sztucznej inteligencji typu ML/DL może to wymagać powrotu do deski kreślarskiej i rozpoczęcia od nowa z całkowicie nowym zestawem danych i oczyszczonym modelem ML/DL. Omawiałem pojawienie się usuwania lub niszczenia sztucznej inteligencji jako potencjalnego środka prawnego przeciwko niesmacznej sztucznej inteligencji, zob. link tutaj.

Pytaniem do rozważenia jest to, czy chcesz, aby łowcy nagród robili coś więcej niż tylko identyfikowali istnienie uprzedzeń AI. Możesz na przykład osłodzić nagrodę, wskazując, że proponowane poprawki również są mile widziane. Stronniczość AI znaleziono przez łowcę nagród może otrzymać jedną wskazaną nagrodę lub nagrodę. Jeśli łowca nagród może również zaoferować wykonalne stały ze względu na stronniczość sztucznej inteligencji mogliby wówczas otrzymać dodatkową nagrodę.

Niektórzy twierdzą, że to o jeden most za daleko. Mówią, że łowcy nagród ukierunkowani na sztuczną inteligencję powinni skupiać się wyłącznie na znajdowaniu uprzedzeń AI. Zamierzasz stworzyć szereg niepożądanych, negatywnych konsekwencji, zapraszając ich do sugerowania poprawek. Zachowaj prostotę. Celem jest zwrócenie jak największej liczby dodatkowych oczu na odkrywanie uprzedzeń AI, abyś mógł zdecydować, co robić dalej. Nie mąć wód.

Drażliwy aspekt, który należy rozwiązać, dotyczy wielkości nagrody dla łowców nagród, którzy rzeczywiście odkryją uprzedzenia AI. Chcesz, żeby zapłata była demonstracyjna. Bez wystarczająco wysokiej nagrody nie zdobędziesz wielu łowców nagród lub nie będą oni szczególnie chętni do poszukiwania stronniczości sztucznej inteligencji w twoich systemach sztucznej inteligencji. Zamiast tego mogliby skoncentrować się na innych przedsięwzięciach związanych z nagrodami za stronniczość sztucznej inteligencji.

Co więcej, jak już wspomniano, chcesz spróbować stłumić chęć łowców nagród do przekształcenia swoich odkryć związanych z uprzedzeniami sztucznej inteligencji w inne formy złota. Jeśli nagroda wydaje się marna, może skłonić łowców nagród do poszukiwania innych wyższych nagród. Mogą zastosować wobec Ciebie podejście ransomware. Mogą oświadczyć, że mają soczyste nastawienie do sztucznej inteligencji, o którym konkurent chciałby się dowiedzieć i który mógłby wykorzystać przeciwko Twojej firmie, zachwalając, że w Twojej sztucznej inteligencji istnieje uprzedzenie do sztucznej inteligencji. W ten sposób sprzedają odkrytą stronniczość sztucznej inteligencji oferentowi, który zaoferuje najwyższą cenę. I tak dalej.

Można założyć, że jeśli ustawisz nagrodę na bardzo wysokim poziomie, prosisz się również o potencjalne kłopoty. To może przyciągnąć wszelkiego rodzaju szalonych łowców nagród. Oni z kolei mogą zalać media społecznościowe mglistymi twierdzeniami, że odkryli wiele uprzedzeń związanych ze sztuczną inteligencją, robiąc to dla własnej autopromocji i tak naprawdę nie ujawniając żadnych uprzedzeń dotyczących sztucznej inteligencji. W pewnym sensie twoja podwyższona nagroda niechcący rzuca światło na twoją sztuczną inteligencję i popycha mnóstwo nieokrzesanych ćm, aby odpowiednio zostały zgubnie przyciągnięte przez świecącą wiązkę światła.

Kolejną kwestią jest dostępność sztucznej inteligencji.

Aby umożliwić polowanie na nagrody AI, łowcy nagród muszą uzyskać wystarczający dostęp do Twojej AI. Nie będą mieli zbyt wiele szczęścia w znajdowaniu stronniczości AI, jeśli zostaną całkowicie zablokowane. Nie chcesz jednak rezygnować z zabezpieczeń cybernetycznych, ponieważ może to całkowicie zagrozić Twojemu systemowi sztucznej inteligencji.

Możesz spróbować poprosić łowców nagród o podpisanie różnych prawnie wiążących deklaracji, a następnie zapewnić im niezbędny dostęp. Niektórym łowcom nagród nie spodoba się takie podejście. Ich punkt widzenia jest taki, że zrobią tylko to, na co pozwala jakakolwiek publicznie dostępna i otwarta ścieżka. Są w pewnym sensie wolnymi indywidualistami i nie lubią być osiodłani. Nakłonienie ich do złożenia podpisu na zastraszających dokumentach prawnych spowoduje, że wielu z nich będzie unikać szukania stronniczości w sztucznej inteligencji w swojej sztucznej inteligencji. Mogą też zezłościć się na Twoje wyzwanie prawne i zdecydować, że zobaczą, co uda im się znaleźć za pomocą środków publicznych, robiąc to z być może przenikliwą potrzebą pokazania Ci, jak naprawdę jesteś bezbronny.

Mam jeszcze inny punkt widzenia, od którego może zakręcić się w głowie.

Łowca nagród znający się na sztucznej inteligencji może zdecydować się na opracowanie systemu sztucznej inteligencji, który będzie w stanie przeanalizować twoją sztuczną inteligencję i prawdopodobnie odkryć jej uprzedzenia. Jest to producent narzędzi, który decyduje się na wykonanie narzędzia do wykonania danej pracy, zamiast samodzielnie wykonywać pracę fizyczną. Zamiast mozolnie badać sztuczną inteligencję, łowca nagród obeznany ze sztuczną inteligencją spędza czas na wymyślaniu narzędzia sztucznej inteligencji, które robi to samo. Następnie używają narzędzia AI na Twojej sztucznej inteligencji. Piękno polega również na tym, że prawdopodobnie mogą ponownie użyć narzędzia AI na każdym innym, kto również oferuje możliwość polowania na nagrody również na ich odpowiedniej sztucznej inteligencji.

Wiem, co prawdopodobnie myślisz. Jeżeli można opracować narzędzie sztucznej inteligencji do badania sztucznej inteligencji pod kątem uprzedzeń, twórca sztucznej inteligencji, która jest badana pod kątem uprzedzeń, powinien albo stworzyć takie narzędzie sztucznej inteligencji, albo kupić je na własny użytek. Teoretycznie nie będą musieli na początku zmagać się z całym karnawałem łowców nagród. Po prostu użyj sztucznej inteligencji, aby znaleźć ich uprzedzenia AI.

Tak, jest to coś, czego możesz się spodziewać, że będzie to stopniowo pojawiać się. Tymczasem głównym filarem tych wysiłków będzie prawdopodobnie polowanie na nagrody przez twórców sztucznej inteligencji. Mogą korzystać z różnych narzędzi, aby wspomóc swoje wysiłki, ale w najbliższej przyszłości jest mało prawdopodobne, że po prostu bezmyślnie ustawią narzędzie AI na automatyczne i zdrzemną się w taki sposób, że narzędzie wykryje za nich wszystkie uprzedzenia AI.

Jeszcze nas tam nie ma.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na wykorzystanie polowań na nagrody opartych na sztucznej inteligencji, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. automatyczne dodatki zwane ADAADA
S (Zaawansowane systemy wspomagania kierowcy).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i polowanie na nagrody oparte na sztucznej inteligencji

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

W moich artykułach szczegółowo omawiałem już wykorzystanie zorientowanych na błędy łowców nagród w dziedzinie pojazdów autonomicznych i samochodów autonomicznych. Takie podejście rzeczywiście miało miejsce w tej niszy. Toczą się zwykłe debaty na temat tego, czy jest to rozsądny pomysł, czy nie. Wysiłki te miały zazwyczaj ograniczony charakter i często były stosunkowo ciche.

Podobny dyskurs może nastąpić, gdy uwaga skupi się na poszukiwaniu błędów systemowych, a nie na poszukiwaniu błędów systemowych jako takich. Niektórzy sugerują, że jest to przeklęte, jeśli to zrobisz, przeklęte, jeśli nie będziesz zagadką.

Dlatego.

Po pierwsze, żeby było jasne, istnieje wiele sposobów, na jakie pojazdy autonomiczne i samochody autonomiczne będą podatne na uprzedzenia związane ze sztuczną inteligencją, zobacz moją relację na stronie link tutaj i link tutaj, żeby wymienić tylko kilka. Wydaje się, że mądrze byłoby spróbować zapobiec pojawianiu się uprzedzeń związanych ze sztuczną inteligencją w ich systemach AI. Burza prawna i etyczna przeciwko takim firmom będzie niewątpliwie intensywna.

Czy wykorzystanie sztucznej inteligencji do polowania na nagrody jest odpowiednim podejściem w tym konkretnym kontekście?

Jedna odpowiedź jest taka, że ​​tak, będzie to przydatne i zapewni mnóstwo „darmowych” zestawów nowych oczu, które pozwolą wyłapać wszelkie wbudowane uprzedzenia AI w samochodzie autonomicznym AI lub tym podobnym. Większość twórców sztucznej inteligencji budujących samochody autonomiczne jest zajęta tworzeniem sztucznej inteligencji, która może bezpiecznie prowadzić samochód z punktu A do punktu B. Są zajęci tą podstawową możliwością i nie mają czasu ani uwagi na jakiekolwiek uprzedzenia sztucznej inteligencji, które mogą kryć się gdzieś w ich sztuczna inteligencja.

Inna odpowiedź jest taka, że ​​nie, należy po prostu stanowczo unikać zezwalania na polowanie na pojazdy autonomiczne i samochody autonomiczne na jakiejkolwiek podstawie, czy to z powodu błędów, czy uprzedzeń związanych ze sztuczną inteligencją. Argument jest taki, że te pojazdy i ich sztuczna inteligencja są sprawą życia lub śmierci. Wszelkie ingerencje w sztuczną inteligencję mogą w jakiś sposób ją zrujnować i wpłynąć na działanie systemu sterującego sztuczną inteligencją.

Kontrargumentem do tego ostatniego punktu jest to, że łowcy nagród nie powinni być w stanie zmienić sztucznej inteligencji, którą badają. Zatem nie ma niebezpieczeństwa, że ​​będą bawić się sztuczną inteligencją i spowodować, że sztuczna inteligencja w tym kontekście nagle stanie się szalonym systemem sterowania sztuczną inteligencją. Łowcy nagród mają dostęp tylko do odczytu. Pozwolenie im pójść dalej byłoby wielką głupotą i ogromnym błędem.

Kontrargumentem dla tego kontrargumentu jest to, że pozwalając i zachęcając łowców nagród do sprawdzania twojej sztucznej inteligencji, cała sprawa staje się niepewna. Łowcy nagród mogą znaleźć sposoby wykorzystania znalezionych błędów lub uprzedzeń. Te exploity z kolei mogą mieć przebiegłe cele. Lepiej byłoby nie zapraszać „włamywaczy” do swojego domu, że tak powiem. Kiedy już zabezpieczą staw, ostatecznie będziesz miał mnóstwo kłopotów.

W przypadku tych, którzy posiadają systemy sztucznej inteligencji o wadze mniejszej niż życie lub śmierć, panuje przekonanie, że konsekwencje nieudanej wyprawy w poszukiwaniu nagród są znacznie mniej ryzykowne. Może tak. Z drugiej strony, jeśli firma włożyła pieniądze w system sztucznej inteligencji, który łowcy nagród zdołają uzurpować, można założyć, że utrata reputacji i inne potencjalne szkody nadal będą bolesne.

Jeśli chodzi o polowanie na nagrody oparte na sztucznej inteligencji, nie ma darmowego lunchu.

Na razie krótka uwaga końcowa.

Kiedy na Dzikim Zachodzie poszukiwano osławionego bandyty Jessego Jamesa, wydrukowano plakat z napisem „Poszukiwany”, w którym wyznaczono nagrodę w wysokości 5,000 dolarów za jego schwytanie (z napisem „żywy lub martwy”). Była to wówczas dość pokaźna suma pieniędzy. Jeden z członków jego gangu zdecydował się zastrzelić Jessego i odebrać nagrodę. To chyba pokazuje, jak skuteczna może być nagroda.

Czy korzystanie z łowców nagród opartych na sztucznej inteligencji będzie dobre, czy może złe?

Jeśli zdecydujesz się na podjęcie próby łowcy nagród opartej na sztucznej inteligencji, sugeruję, abyś miał szeroko otwarte oczy i przez cały czas oglądał się przez ramię. Jest to rozsądne dla Ciebie i Twojej sztucznej inteligencji. Nigdy nie wiesz, co może się wydarzyć, łącznie z tym, że przebiegły łowca nagród w jakiś sposób ukradkiem wstawia do twojej sztucznej inteligencji błąd AI i krzyczy do świata, że ​​znalazł pozbawione skrupułów stronniczość w twojej sztucznej inteligencji. Być może robili to w bezczelnej i przesadnej próbie zdobycia nagrody w postaci nagrody, a także ogłosili się bohaterem, który w zasadzie zdobył osławionego Jessego Jamesa.

Gdy się nad tym zastanowić, świadomej sztucznej inteligencji prawdopodobnie nie spodoba się pomysł niepokojącego zaopatrzenia na żywo lub martwego, jak można leniwie spekulować.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etycznie-nikczemne-w pełni-autonomiczne systemy-jest-rozważne-albo-daremne/