Etyka AI i sztuczna inteligencja prawna są zdenerwowane zwodniczymi pozorami znanymi jako mycie etyki AI, które są fałszywymi twierdzeniami o przestrzeganiu etycznej sztucznej inteligencji, w tym w przypadku autonomicznych samochodów autonomicznych

Przyjrzyjmy się niezliczonym sposobom rozciągnięcia słów „mycie” i „mycie” i wykorzystania ich do przekazywania różnorodnych pereł mądrości.

Wiemy na przykład, że ludzie czasami ostrzegają, że nie należy prać brudów w miejscach publicznych. Pamiętam, że jako dziecko dorośli często ostrzegali, że niewłaściwie wypowiedziana wypowiedź może skutkować umyciem ust mydłem. Innym często cytowanym stwierdzeniem było to, że ostatecznie wszystko wychodzi w praniu.

Jeśli martwiłeś się czymś, z czym nie chciałbyś być kojarzony, zalecanym pomysłem było sprawdzenie, czy możesz umyć od tego ręce. Często poruszane są różne kwestie związane z praniem, łącznie z tym, że możesz zostać szybko umyty lub wypłukany. Zmywanie jajka z twarzy to stare powiedzenie, które wciąż od czasu do czasu pojawia się w rozmowach.

Stosunkowo dobrze znane jest również użycie kolorów do przedstawienia odmian prania. Mówi się, że koncepcja wybielania sięga co najmniej XVI wieku. Istnieją obawy dotyczące prania czerwonego, prania fioletowego i tak dalej. Ośmieliłbym się powiedzieć, że być może „greenwashing” jest obecnie jednym z częściej używanych sloganów, rzekomo odnoszącym się do aktu pustki w reklamowaniu zrównoważonego rozwoju, a jednak nie popierającego tej tezy żadnymi podstawami „walk-the-talk”.

Być może nie słyszałeś o jednej z najnowszych wersji prania, czyli praniu AI Ethics.

Niektórzy wolą skrócić sformułowanie do „Etyka prania”, choć może to powodować pewne zamieszanie, ponieważ to pozornie alternatywne sformułowanie może odnosić się do niemal każdego rodzaju prania zorientowanego na etykę. Szczególna forma prania etyki, którą będę tutaj omawiać, obejmuje etykę skupioną na sztucznej inteligencji i wszystkie powiązane względy etyczne. Dla jasności chciałbym zasugerować, że mycie etyki obejmuje szeroką gamę zagadnień związanych z etyką, które mogą mieć niewiele lub nie mieć nic wspólnego z sztuczną inteligencją jako taką. I że mycie etyki AI jest szczególnym rodzajem prania etyki, którego celem jest konkretnie dziedzina AI.

Być może zastanawiasz się, na czym dokładnie polega mycie AI Ethics?

Moja ogólna definicja jest taka, że ​​mycie w ramach etyki AI można zdefiniować w następujący sposób:

  • Obmywanie się w zakresie etyki sztucznej inteligencji wiąże się z bezczelnym wyrażaniem opinii lub dekorowaniem okien wyrażaniem troskliwych obaw związanych z zasadami etyki sztucznej inteligencji, co obejmuje czasami nie tylko nieprzestrzeganie etycznego podejścia do sztucznej inteligencji, ale nawet posuwanie się tak daleko, że podważa lub podważa podejście do etyki sztucznej inteligencji.

Moje ciągłe i obszerne omówienie etyki sztucznej inteligencji i etycznej sztucznej inteligencji można znaleźć w artykule link tutaj i link tutaj, żeby wymienić tylko kilka.

Szybki przykład prania zgodnie z etyką AI może być dla Ciebie ilustracją.

Załóżmy, że firma tworząca system sztucznej inteligencji chce poinformować świat o tym, jak świetna będzie jej sztuczna inteligencja. Firma decyduje, że jednym ze sposobów przyciągnięcia dużej uwagi prasy i mediów społecznościowych na temat sztucznej inteligencji byłoby upublicznienie informacji, że sztuczna inteligencja została zaprojektowana w sposób całkowicie uczciwy i zrównoważony. Sztuczna inteligencja jest całkowicie godna zaufania. Firma ściśle trzymała się założeń tworzenia tzw Odpowiedzialna sztuczna inteligencja, zobacz moją relację na stronie link tutaj. Twierdzenie jest takie, że wszystkie dominujące zasady etyki sztucznej inteligencji zostały integralnie wplecione w system sztucznej inteligencji.

Brzmi wspaniale!

Tylko jeden mały problem.

Okazuje się, że firma nie zrobiła nic z tych rzeczy.

Nie przestrzegali zasad etyki AI. Powiedzieli, że tak, ale tak się nie stało. Liderzy firmy i zespół marketingowy zdecydowali, że twierdzenie, że rygorystycznie przestrzegali względów etycznych związanych ze sztuczną inteligencją, prawdopodobnie będzie dobre dla biznesu. Nie musisz tak naprawdę zajmować się tymi nieznośnymi wytycznymi dotyczącymi etyki sztucznej inteligencji, a zamiast tego po prostu powiedzieć, że to zrobiłeś.

Voila, natychmiast mogą promować swoją sztuczną inteligencję, wskakując na modę etyki AI.

Bułka z masłem.

Jest to jednak droga ryzykowna i potencjalnie generująca duże problemy.

Firmy i liderzy, którzy decydują się fałszywie powoływać się na etykę sztucznej inteligencji, choć niewiele zrobili, aby jej przestrzegać, potencjalnie narażają się na wiele konsekwencji. Po pierwsze, jeśli pewnego dnia zostaną zdemaskowani w związku z kłamstwami dotyczącymi etyki sztucznej inteligencji, ryzykują poważną reakcją na reputację. Kłamali, że myślą o etyce sztucznej inteligencji. Ponadto przyłapanie ich na kłamstwie, niezależnie od tego, czy mają do czynienia z etyką sztucznej inteligencji, również naraża ich na dodatkową gorącą wodę. To jest kłamstwo.

Po drugie, liczne konsekwencje prawne mogą dosięgnąć ich i ich firmę. Po pierwsze, nie zrobili tego, co twierdzili, i mogą potencjalnie zostać pociągnięci do odpowiedzialności prawnej za swoje fałszywe twierdzenia. Innym jest to, że ich sztuczna inteligencja prawdopodobnie zakończy się naruszeniem przepisów dotyczących obszarów wrażliwych społecznie, takich jak okazywanie nadmiernych uprzedzeń i dyskryminujące zachowanie. Lista kwestii prawnych jest długa i może w efekcie zmusić firmę do kosztownych batalii prawnych, a nawet zatopić cały statek.

Dlaczego, do cholery, firma i jej liderzy mieliby wybierać pranie w oparciu o etykę AI?

Cóż, włączenie praktyk etycznej sztucznej inteligencji może być nieco kosztowne, chociaż kontrargumentem jest to, że ostatecznie koszt ten zostanie łatwo przekroczony przez korzyści wynikające z posiadania prawdziwej sztucznej inteligencji o większym kalibrze w przestrzeganiu podejść do etyki sztucznej inteligencji. Niemniej jednak niektóre firmy wolałyby jak najszybciej pozbyć się sztucznej inteligencji, a później dochodzą do wniosku, że będą się martwić konsekwencjami nieuwzględnienia etycznej sztucznej inteligencji w procesie rozwoju.

Wydaje się, że stara zasada ma zastosowanie: zapłać mi teraz lub zapłać mi później. Niektórzy liderzy i firmy uważają, że warto rzucić kostką i mieć nadzieję, że nie będą musieli ponosić ceny typu „zapłać mi później”, jeśli zdecydują się uniknąć aspektów „zapłać mi teraz”. Twierdzę, że jeśli chodzi o etykę sztucznej inteligencji, nie ma darmowego lunchu. Albo zrobisz, co do ciebie należy, albo poniesiesz konsekwencje.

Nie oznacza to jednak, że nie ma w tym wszystkim dużego pola manewru.

Firmy mogą zanurzyć się w etyce sztucznej inteligencji, a następnie spróbować wyolbrzymić, jak wiele osiągnęły. Ich potencjalne założenie jest takie, że będą mieli wystarczającą obronę, aby odeprzeć wszelkie oskarżenia, że ​​w ogóle nie stosowali etyki sztucznej inteligencji. Mogą wskazać jakąś formę połowicznych działań w zakresie etyki sztucznej inteligencji, które mogą pomóc im uwolnić się od kłopotów. W związku z tym debata zmienia się z tego, że nie podjęły żadnych wysiłków w zakresie etyki sztucznej inteligencji, a zamiast tego koncentruje się na tym, czy zrobiły wystarczająco dużo.

Jest to argument, który można wymieniać w nieskończoność i który daje dostawcy prania w ramach AI Ethics duże pole manewru.

Częścią niejasnych aspektów jest to, że nie ma jeszcze uzgodnionych uniwersalnych i definitywnie możliwych do wdrożenia standardów dotyczących etyki sztucznej inteligencji. Bez spójnego i kompleksowego zestawu wskaźników wszelkie dyskusje na temat tego, czy etyka AI była właściwie przestrzegana, będą wątłe i niejasne. Firma będzie upierać się, że zrobiła wystarczająco dużo. Osoba z zewnątrz lub inna osoba twierdząca, że ​​firma nie zrobiła wystarczająco dużo, będzie musiała stoczyć żmudną walkę, w której przedstawi taką kontrtwierdzenie. Może królować dwuznaczność.

Zanim zajmiemy się bardziej mięsem i ziemniakami na temat dzikich i wełnistych rozważań leżących u podstaw prania etyki AI, ustalmy kilka dodatkowych podstaw na głęboko integralne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy teraz do tematu prania etyki AI.

Zwykle spotykam się z czterema głównymi wariantami prania etyki AI (wyjaśnię je za chwilę):

1) Osoby zajmujące się etyką AI, które nie wiedzą, że nimi są: Etyka AI obmyta niewiedzą lub analfabetyzmem na temat AI i/lub Etyki AI

2) Podstawki etyki AI, które się w nim znajdują: Etyka AI mylona przez niezamierzone poślizgi, choć poza tym autentyczna w odniesieniu do etyki AI i sztucznej inteligencji

3) Podkładki etyczne AI, które słabo się rozciągają: Mycie etyki AI z celowym zamiarem, choć tylko przez odrobinę i czasami prawie usprawiedliwione (lub nie)

4) Pralki etyczne AI, które wiedzą i bezczelnie je rozpowszechniają: Etyka AI obmyta na całego i podstępna, a często oburzająca

Ogólnie sugerowałbym, że cztery warianty rozciągają się od, powiedzmy, najbardziej niewinnego do najbardziej winnego, jeśli chodzi o świadomość, czym jest mycie etyki AI. Przejdźmy przez każdą z czterech, zaczynając od pierwszego i kierując się do dość wstydliwej czwartej.

Po pierwsze, są tacy, którzy są nieco nieumyci, ponieważ nie wiedzą, czym jest etyka AI, nie wiedzą, czym jest mycie etyki AI i prawdopodobnie nawet nie wiedzą zbyt wiele o sztucznej inteligencji. Można powiedzieć, że są ignorantami lub analfabetami w tych tematach. Dla nich prawdopodobnie dopuszczają się prania etyki AI i ślepo i błogo nie zdają sobie sprawy, że to robią.

To jest smutne.

Może to być szczególnie złe, jeśli myciem etyki AI zajmuje się duża agencja informacyjna lub wpływowy wpływowiec w mediach społecznościowych. Mogli być karmieni kłamstwami, ale nie zweryfikowali tych kłamstw. Tymczasem wykorzystują swój zasięg i wpływy, aby utrwalić roszczenia dotyczące prania etyki AI. Smutne i co gorsza, wyrządza to wszystkim szkodę społeczeństwu. Wstyd za tych, którzy dali się oszukać. Muszą zmądrzeć. Pamiętaj, bycie oszukanym i wyglądanie na głupca to bliscy kuzyni.

Następne w kolejności jest mycie etyki AI, które jest wpadką. Wyobraź sobie, że firma radzi sobie całkiem dobrze, przestrzegając zasad etyki sztucznej inteligencji. Możemy im pogratulować tego, że tego dokonali. Niestety, załóżmy, że w pewnym momencie ogłoszą ogłoszenie na temat swojej sztucznej inteligencji, które nie jest dobrze poparte z punktu widzenia etyki sztucznej inteligencji. Jeżeli jest to stosunkowo nieszkodliwe stwierdzenie lub niezamierzony błąd, możemy przyznać im pewną swobodę. Oczywiście, jeśli ich uwaga wyraźnie przekracza granicę, poślizgu nie można tak łatwo przeoczyć. Istnieje słynne powiedzenie, że reputację buduje się całą wieczność, a jej całkowite zburzenie zajmuje tylko krótką chwilę.

Następnie zajmiemy się dwiema ostatnimi z czterech kategorii.

Są to winowajcy, którzy są w pełni świadomi prania etyki AI i świadomie, z jawnym zamiarem, decydują się na jej wykorzystanie, być może w ramach strategii korporacyjnej lub w inny odgadnięty sposób. Główna różnica między tymi dwoma ostatnimi polega na tym, że mycie etyki AI może mieć niewielki charakter lub może mieć charakter znaczący i kluczowy. Niektórzy wolą rozciągać rzeczy i nieznacznie przekraczać linię. Są też inni, którzy są gotowi posunąć się do skrajności w zakresie etyki AI.

Być może myślisz, że z pewnością każde ekstremalne mycie etyki sztucznej inteligencji musiałoby być oczywiste i że ekstremista zostałby przyłapany z ręką w słoiku z ciasteczkami. Każdy zobaczyłby, że cesarz nie ma ubrania. Niestety, biorąc pod uwagę ogólne zamieszanie wokół sztucznej inteligencji i jej etyki w dzisiejszym świecie, jest na tyle niejasności, że nawet skrajne pranie etyki AI może zostać zaakceptowane.

Może to być dość irytujące dla osób, które poważnie i trzeźwo podchodzą do etyki sztucznej inteligencji. Patrzą, jak ktoś inny rzuca wszelkiego rodzaju niechlujami, co jest niezwykle widoczne w praniu w ramach etyki AI. Ekstremista przyciąga ogromne zainteresowanie mediów. Mają swoje przysłowiowe 15 minut sławy. Ci, którzy wykonują prawdziwą pracę i słusznie, jeśli chodzi o etykę AI, mogą czuć się słusznie zirytowani i słusznie zdenerwowani, gdy inni na rynku podejmują się prania w ramach etyki AI bez żadnych konsekwencji.

Można to niemal porównać do wyciskania soków i dopingu w sporcie. Sportowiec, który włożył całe swoje serce i duszę w to, by w naturalny sposób zostać czołowym sportowcem, może być całkowicie zawiedziony, jeśli komuś innemu uda się konkurować na tym samym poziomie i zrobi to za pomocą zakazanych środków poprawiających wydajność. Czy powinieneś wywołać drugiego spoilera? Czy może warto po cichu zdecydować się na branie tych leków i walczyć z ogniem? To jest zagadka. Aby zapoznać się z moją dyskusją na temat tego, jak dzieje się wyciskanie soku lub doping w dziedzinie sztucznej inteligencji, zob link tutaj.

Teraz, gdy omówiliśmy już trochę kwestię prania etyki AI, możemy wprowadzić kilka innych powiązanych sloganów, które są równie ważne w tym samym obszarze.

Oto kilka, które możemy pokrótce zbadać:

  • Teatr etyki AI
  • Zakupy w ramach etyki AI
  • Walenie z etyką AI
  • Osłona etyki AI
  • Uczciwe mycie etyki AI

Przyjrzyjmy się pokrótce każdemu z tych haseł. Nie wszyscy zgadzają się z tym, co dokładnie oznacza każde zdanie, dlatego podzielę się z Wami moimi ogólnymi wrażeniami.

Teatr Etyki AI

Teatr AI Ethics może przypominać pranie AI Ethics w tym sensie, że jego ideą jest pokaźny pokaz przestrzegania zasad etyki AI w przemyślany, inscenizowany i ceremonialny sposób. Jeśli firma prowadząca cyrk lub teatr zajmujący się etyką AI rzeczywiście przestrzegała praktyk związanych z etyką AI, można postawić tezę, że słusznie powinna być w stanie to zrobić. Rzeczywiście można dalej twierdzić, że, miejmy nadzieję, zainspiruje to innych do przestrzegania etyki sztucznej inteligencji.

Z drugiej strony wydaje się, że teatr AI Ethics zwykle przesadza. Cyrkowy akt posiadania tych wszystkich kucyków i słoni może mieć tendencję do przeceniania tego, co naprawdę zostało podjęte. To z kolei zaczyna wchodzić w drugą, trzecią lub czwartą kategorię wspomnianych wcześniej działań związanych z myciem AI Ethics. Czas pokaże, czy teatr jest bardziej dobry niż zły (np. jest inspirujący), czy też bardziej zły niż dobry (być może pobudzając innych do prania etyki AI).

Zakupy związane z etyką AI

Wyobraź sobie, że firma zamierza zbudować system sztucznej inteligencji i zdaje sobie sprawę, że powinna uwzględnić aspekty etyki sztucznej inteligencji podczas cyklu życia sztucznej inteligencji. Z których z wielu wytycznych dotyczących etyki sztucznej inteligencji powinni skorzystać?

Wybranie kilku z nich na raz może być mylące i sprawić, że wysiłki związane ze sztuczną inteligencją będą zbyt duże. Istnieje prawdopodobieństwo, że wysiłki rozwojowe będą z większym prawdopodobieństwem zgodne z praktykami etyki sztucznej inteligencji, jeśli istnieje jeden wewnętrznie przyjęty zestaw, do którego wszyscy będą mogli łatwo się odwołać i który będzie mógł zrozumieć.

OK, więc jednym ze sposobów oparcia się na zestawie zasad etyki AI byłoby wybranie tylko jednego z wielu dostępnych. Innym rozwiązaniem byłoby wzięcie kilku zestawów i próba połączenia ich ze sobą. Problem z łączeniem może polegać na tym, że poświęcasz dużo cennej energii i czasu na dyskusje o tym, jak najlepiej połączyć zestawy w jedną kompleksową całość. Tego rodzaju uwaga prawdopodobnie oderwałaby Cię od kontynuowania procesu tworzenia oprogramowania, a ponadto mogłaby rozzłościć zespół ds. sztucznej inteligencji po prostu z powodu ostrych debat, które mogły mieć miejsce podczas działań związanych z łączeniem etyki AI.

Ogólnie rzecz biorąc, możesz także spróbować skierować swoją uwagę na zestaw wytycznych dotyczących etyki sztucznej inteligencji, który Twoim zdaniem będzie najłatwiejszy do przyjęcia. To wydawałoby się całkowicie w porządku. Po co utrudniać życie, niż prawdopodobnie już jest? Jednym tchem, zakładając, że wybierzesz zestaw etyki AI, który jest rozwodniony. Twoim celem jest zrobić przynajmniej tyle, ile możesz. Chcesz trzymać głowę wysoko, że przestrzegasz zasad etyki AI, a tymczasem w tajemnicy wybierasz minimalizm, a może nawet mniej.

Niektórzy nazwaliby to zakupami związanymi z etyką AI.

Rozglądasz się, aby znaleźć zasady etyki AI, które pozwolą ci najłatwiej stwierdzić, że przestrzegasz etyki AI. Ma to sens, ponieważ dlaczego miałbyś robić więcej, niż jest to konieczne? Można to jednak wypaczyć, znajdując słabo zawoalowany zestaw etyki sztucznej inteligencji i trzymając się go tak, jakby był solidny i bona fide, podczas gdy w rzeczywistości jest on rzadki i marginalny.

Atakowanie etyki AI

Koncepcja krytykowania etyki AI jest dość prosta.

Negujesz lub oczerniasz naturę i sposób stosowania zasad etyki AI. Powszechną formą krytyki byłoby utrzymywanie, że wytyczne dotyczące etyki sztucznej inteligencji są bezwartościowe i niewarte papieru, na którym są wydrukowane. Innym popularnym argumentem jest to, że etyka AI to ćwiczenie akademickie, które nie ma nic wspólnego ze światem rzeczywistym. Pojawia się nawet napomnienie, że etyka sztucznej inteligencji jest zła, prawdopodobnie dlatego, że zapewnia fałszywą przykrywkę dla tych, którzy chcą sprawiać wrażenie, że prawidłowo rozwijają sztuczną inteligencję. W ten sposób etyka sztucznej inteligencji jest planem maskującym.

Nie będę się rozpisywał na temat ataków na etykę AI i sugeruję zapoznanie się z moim opisem tego, dlaczego te ataki są albo błędne, albo przynajmniej wprowadzane w błąd, zobacz link tutaj.

Osłona etyczna AI

Osłona etyczna AI zwykle odnosi się do idei, że etyka AI jest zwodniczym rodzajem tarczy, która może ukryć lub zasłonić złych aktorów i złe wysiłki w zakresie etyki AI. Wspominałem o tym wielokrotnie w całej tej dyskusji.

Istnieje ciągła obawa, że ​​niektórzy z dumą będą pokazywać, że stosują etykę sztucznej inteligencji, a rzeczywistość jest taka, że ​​nie robią prawie nic w tym rodzaju. Tym, którzy twierdzą, że powinniśmy całkowicie pozbyć się tarczy, odpowiadam, że jest to równoznaczne z wylaniem dziecka z kąpielą.

Uczciwe mycie etyki AI

Uczciwość jest ważna.

Być może pamiętacie, że kiedy omawiałem zasady etyki AI, jedna z najczęściej identyfikowanych wytycznych etyki AI polega na próbie zapewnienia, że ​​sztuczna inteligencja jest uczciwa lub wykazuje pozory uczciwości. Doprowadziło to do powstania sloganu „fairwashing”, którego czasami używa się, aby przywołać możliwość stwierdzenia lub zarzucenia systemu sztucznej inteligencji, że jest sprawiedliwy, chociaż może nie być sprawiedliwy lub istnieje niewiele dowodów na poparcie tej uczciwości. Jest to trochę połączenie etyki sztucznej inteligencji z koncepcyjnym uznaniem, że sztuczna inteligencja jest sprawiedliwa, więc skrótowym sposobem wyrażenia tego jest stwierdzenie, że istnieje potencjalne uczciwe pranie to może się zdarzyć. Badacze tak opisują sprawę: „W szczególności w związku z rosnącym znaczeniem koncepcji fairness w uczeniu maszynowym, firma może ulec pokusie dokonania fairwashingu, który definiujemy jako promowanie fałszywego przekonania, że ​​stosowane przez firmę modele uczenia się są sprawiedliwe, choć może nie być” (Ulrich Aiıvodji, Hiromi Arai, Olivier Fortineau, Sebastien Gambs, Satoshi Hara i Alain Tapp w „Fairwashing: The Risk Of Rationalization”).

Jest jeszcze jedna zmiana dotycząca prania w ramach etyki AI, którą powinieneś wziąć pod uwagę.

W nieco makroskopowej skali wyrażana jest obawa, że ​​rozwój etyki sztucznej inteligencji stanowi tarczę lub przykrywkę dla czegoś jeszcze wspanialszego. Być może zdajesz sobie sprawę, że podejmuje się wiele wysiłków w celu ustanowienia przepisów dotyczących zarządzania sztuczną inteligencją. To dzieje się na całym świecie. W UE trwają intensywne wysiłki, o których pisałem w moich felietonach, a także w USA, które mają miejsce w wielu krajach.

Niektórzy sugerują, że przyjęcie etyki sztucznej inteligencji może być sposobem na powstrzymanie wprowadzenia tych praw. Firmy mogą pozornie przekonująco argumentować, że nowe przepisy nie są potrzebne, ponieważ stosowanie etyki AI odpowiednio rozwiązuje wszelkie problemy związane ze sztuczną inteligencją. Etykę sztucznej inteligencji klasyfikuje się zwykle jako formę „prawa miękkiego” i zwyczajowo ma ona charakter dobrowolny (przy zachowaniu wszystkich pozostałych zasad). Przepisy dotyczące sztucznej inteligencji są klasyfikowane jako tak zwane „prawa twarde” i nie mają (ogólnie) konstrukcji dobrowolnej.

Powszechnie mówi się, że firmy zdecydowanie wolą miękkie prawa od twardych, dając im większą swobodę i swobodę. Nie wszyscy zgadzają się z tą opinią. Niektórzy twierdzą, że miękkie prawa pozwalają firmom uniknąć niewłaściwych wysiłków, a jedynym sposobem, aby je dobić, jest uchwalenie twardych praw. Inni zwracają uwagę, że firmy czasami wolą twarde przepisy, które mogą zapewnić jaśniejsze warunki działania. Twarde przepisy mogą potencjalnie zmusić wszystkich graczy do przestrzegania tych samych zasad. Miękkie prawa pozwalają na wybór, powodując zamieszanie i zakłócając reguły gry.

Oto jak badania pokazują, jak etyka sztucznej inteligencji zanika w obliczu szerszego spojrzenia na to, co może mieć miejsce: „Z jednej strony firmy używają tego terminu jako akceptowalną fasadę, która uzasadnia deregulację, samoregulację lub zarządzanie oparte na zasadach rynkowych, a z drugiej jest coraz częściej utożsamiana z egoistycznym przyjmowaniem przez firmy technologiczne pozorów etycznego zachowania. Nazywamy taką rosnącą instrumentalizację języka etycznego przez firmy technologiczne „myciem etyki”. Poza radami etyki AI mycie etyki obejmuje inne próby uproszczenia wartości etycznej pracy, które często stanowią część strategii komunikacji korporacyjnej: zatrudnianie wewnętrznych filozofów moralności, którzy mają niewielką władzę w zakresie kształtowania wewnętrznej polityki firmy; skupienie się na humanitarnym projektowaniu – np. nakłanianie użytkowników do skrócenia czasu spędzanego w aplikacjach – zamiast eliminowania zagrożeń nieodłącznie związanych z istnieniem samych produktów; finansowanie prac nad „uczciwymi” systemami uczenia maszynowego, co pozytywnie przesłania głębsze pytania dotyczące szerszego wpływu tych systemów na społeczeństwo” (Elettra Bietti, „From Ethics Washing to Ethics Bashing: A View on Tech Ethics from Within Moral Philosophy”, Materiały z konferencji 2020 na temat uczciwości, odpowiedzialności i przejrzystości).

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na kwestię mycia w ramach etyki AI, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i mycie etyki AI

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Prawie na pewno widziałeś nagłówki gazet głoszące odważne twierdzenie, że pojazdy autonomiczne są już na rynku, a samochody autonomiczne są już udoskonalone. Zwykle oznacza to, że aspekty autonomii zostały rozwiązane. Opracowaliśmy sztuczną inteligencję, która jest tak dobra jak ludzie, a być może nawet lepsza od ludzi.

Aby z całą pewnością przebić tę bańkę i uporządkować sytuację, jeszcze tak nie jest.

Wiemy, że kierowcy-ludzi w Stanach Zjednoczonych biorą udział w około 2.5 miliona wypadków samochodowych rocznie, w wyniku których rocznie ginie ponad 40,000 XNUMX osób, zobacz moje statystyki na stronie link tutaj. Każdy, kto wydaje się rozsądny, z radością przyjąłby systemy jazdy oparte na sztucznej inteligencji, gdyby były w stanie prowadzić równie bezpiecznie lub bezpieczniej niż ludzie. Co więcej, mamy nadzieję, że doświadczymy mobilności dla wszystkich, dzięki czemu osoby z ograniczoną mobilnością będą miały pojazdy napędzane sztuczną inteligencją, które zapewnią łatwy dostęp do wygodnego i niedrogiego transportu.

Niektórzy eksperci w szokujący sposób idą „dodatkową milę” i haniebnie twierdzą, że samochody autonomiczne będą niezniszczalne. Jest to całkowicie szalone i całkowicie fałszywe. Co gorsza, powoduje to powstawanie podwyższonych oczekiwań, którym nie można sprostać. Jeśli uda ci się przekonać społeczeństwo, że samochodów autonomicznych nie da się rozbić, będą krzyczeć i wrzeszczeć w chwili, gdy zdarzy się chociaż jeden wypadek związany z samochodem autonomicznym. Moje szczegółowe wyjaśnienie, dlaczego nierozerwalne twierdzenie jest szalone i wyrządza społeczeństwu krzywdę, można znaleźć w mojej relacji pod adresem link tutaj.

Można powiedzieć, że wszystkie tego rodzaju przesady lub inne kłamstwa są objęte zasadami etyki AI, ponieważ jeśli przestrzegasz zasad etyki AI, nie powinieneś wysuwać tego typu dzikich i bezpodstawnych twierdzeń. Dlatego te fałszywe oświadczenia i nieprawdy łatwo mieszczą się w rubryce „Prawo w zakresie etyki AI”.

Mycie AI Ethic związane z pojazdami autonomicznymi i samochodami autonomicznymi jest niestety szeroko i niezwykle powszechne. Przypadkowe i nieszablonowe przeszukanie Internetu pokaże Ci miliony absurdalnych i niepotwierdzonych twierdzeń na temat pojazdów autonomicznych. Nie dotyczy to tylko osób prowadzących własne blogi. W sprawę wmieszały się największe agencje informacyjne. Duże firmy są w to wplątane. Startupy są w to wplątane. Spółki Venture Capital są w to uwikłane. Akcjonariusze są w to wplątani. I tak dalej.

Powiedziałbym z ponurą pewnością, że mycie etyki AI w tej konkretnej dziedzinie jest powszechne.

Wyspecjalizowanym wariantem hasła dotyczącego prania w ramach etyki AI, które obejmuje autonomię i systemy autonomiczne, jest pojęcie automatycznego mycia. Oto autorka Liza Dixon, która tak to opisuje: „Przystosowane do automatyzacji, automatyczne mycie jest definiowane jako praktyka wygłaszania niezweryfikowanych lub wprowadzających w błąd twierdzeń, które fałszywie przedstawiają odpowiedni poziom nadzoru człowieka wymagany przez częściowo lub półautonomiczny produkt, usługę lub technologię. Automatyczne mycie można również rozszerzyć na systemy w pełni autonomiczne, w przypadkach, gdy możliwości systemu są przesadzone poza to, co można wykonać niezawodnie w każdych warunkach. Funkcja automatycznego mycia sprawia, że ​​coś wydaje się bardziej autonomiczne, niż jest w rzeczywistości. Celem automatycznego mycia jest wyróżnienie i/lub zaoferowanie przewagi konkurencyjnej podmiotowi poprzez użycie powierzchownego słownictwa mającego na celu przekazanie poziomu niezawodności systemu, który jest niedopasowany do możliwości technicznych systemu. Automatyczne mycie może również nastąpić nieumyślnie, gdy nieświadomie powtarza się innym błędne informacje o możliwościach zautomatyzowanego systemu. Autonowashing jest formą dezinformacji i w pewnym sensie ma charakter wirusowy” (Interdyscyplinarna perspektywa badań transportu, „Autonowash: ekologiczne mycie automatyki pojazdów”, 2020).

Przypominam o moich wcześniejszych wskazówkach, że zazwyczaj spotykam cztery główne warianty mycia w ramach etyki AI, które można łatwo znaleźć również w obszarze pojazdów autonomicznych:

  • Pradawcy etyki AI, którzy nie wiedzą, że nimi są: Etyka AI zmywana przez niewiedzę lub analfabetyzm na temat AI i/lub Etyka AI w pojazdach autonomicznych
  • Podstawki etyki AI, które się w nim znajdują: Etyka AI mylona przez niezamierzone poślizgi, choć poza tym autentyczna w odniesieniu do etyki AI i sztucznej inteligencji w pojazdach autonomicznych
  • Podkładki etyczne AI, które słabo się rozciągają: AI Ethics myje się celowo, choć tylko nieznacznie i czasami prawie usprawiedliwionym (lub nie) w pojazdach autonomicznych
  • Pralki etyczne AI, które wiedzą i bezczelnie je rozpowszechniają: Etyka sztucznej inteligencji wymyta na całość oraz podstępne i często oburzające projekty pojazdów autonomicznych

Ponadto w obszarze autonomii można łatwo zobaczyć przypadki innych rodzajów prania w ramach etyki AI i związanych z nimi problemów związanych z praniem, w tym:

  • Teatr etyki AI w pojazdach autonomicznych i samochodach autonomicznych
  • Zakupy w ramach etyki AI w pojazdach autonomicznych i samochodach autonomicznych
  • Walenie z etyką AI w pojazdach autonomicznych i samochodach autonomicznych
  • Osłona etyki AI w pojazdach autonomicznych i samochodach autonomicznych
  • Uczciwe mycie etyki AI w pojazdach autonomicznych i samochodach autonomicznych

Wnioski

Pranie zgodnie z etyką AI jest wszędzie wokół nas. Kąpiemy się w nim.

Mam nadzieję, że zwracając twoją uwagę na tę poważną i pozornie niekończącą się sprawę, będziesz w stanie rozpoznać, kiedy jesteś czyszczony z etyki AI. Może być trudno to odgadnąć. Ci, którzy zajmują się praniem w oparciu o etykę AI, mogą być niezwykle sprytni i przebiegli.

Przydatną sztuczką jest dodanie do prania odrobiny prawdy, która zostanie zmieszana z fałszem lub przesadą. Ponieważ możesz łatwo wykryć i zgodzić się na część zawierającą prawdę, potencjalnie możesz zostać nakłoniony do uwierzenia, że ​​druga część, nieprawdziwa lub zwodnicza, jest również prawdziwa. Sprytna i paskudna forma oszustwa.

Nazwijmy to bzdurą.

Czy możemy umyć usta tym, którzy wprost myją się zgodnie z etyką AI?

Z przykrością muszę stwierdzić, że nie jest to tak łatwe do wykonania, jak by się chciało. To powiedziawszy, tylko dlatego, że łapanie i wzywanie do mycia się w ramach etyki AI może być trudne i czasami przypominać Syzyfa wpychającego ciężki głaz pod górę, musimy spróbować.

Gdybyście nie wiedzieli, Zeus zlecił mu pchanie tego głazu przez całą wieczność, a ogromna skała zawsze będzie się staczać w dół, gdy tylko wysiłek osiągnie szczyt. Myślę, że stoimy przed tym samym problemem, jeśli chodzi o pranie w ramach etyki AI.

Zawsze będzie więcej prania związanego z etyką AI, które należy wyprać. To pewna gwarancja, która nie ma w sobie nic fantazyjnego.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- mycie-które-jest-fałszywym-twierdzeniem-przestrzegania-etyki-AI-w tym-samochodów-autonomicznych-samojezdnych/