Lekcje etyki AI i autonomicznych systemów wyciągnięte z niedawnego lotu Alaska Airlines, w którym pilot i drugi pilot nie zgodzili się przed startem i nagle zdecydowali się na taksówkę z powrotem do terminalu i pójście własnymi drogami

Linie lotnicze są ostatnio dość często w wiadomościach.

Jesteśmy w letnim kryzysie lotów. Zmęczeni i sfrustrowani pasażerowie stają w obliczu różnego rodzaju zakłóceń w lotach i przekrętów w rozkładzie lotów. Loty zostają niespodziewanie odwołane. Loty są opóźnione. Pasażerowie dymią. Niestety, zdarzało się wiele przypadków, w których pasażerowie pozwalali na wybuch tych złości, i widzieliśmy zdecydowanie zbyt wiele wirusowych filmów wideo z konfrontacji jeden na jednego, a czasem okładania pięściami.

Rzadziej dowiadujemy się o sporach między pilotem a drugim pilotem, które mogą mieć miejsce w kokpicie.

To spora niespodzianka.

Rzeczywiście, jesteśmy naturalnie zdumieni myślą, że pilot i drugi pilot mieliby jakiekolwiek pozory poważnego nieporozumienia na dowolnym etapie lotu. Jeśli spór dotyczy tego, która marka kawy jest najlepsza, zakładamy, że nie wpłynęłoby to na nakład pracy związany z lataniem samolotem. Obaj po prostu zlekceważyliby swój brak bezpośredniego podejścia do pozornie nieistotnego tematu. Ich zawodowa postawa i wieloletnie szkolenie pilotażowe zadziałają, a oni skupią się z powrotem na szczegółach lotu.

Zastanów się jednak, kiedy zawodowy spór interweniuje.

Pokrótce podzielę się z wami wiadomością szeroko publikowaną na temat niedawnego przypadku czegoś, co wydarzyło się podczas lotu w USA, w związku z rzekomym nieporozumieniem zawodowym w kokpicie.

Jest to głównie cytowane tutaj, abyśmy mogli zbadać pokrewny temat, który ma ogromne znaczenie dla nadejścia sztucznej inteligencji (AI). Widzisz, może istnieć forma, powiedzmy, zawodowy spór między nie tylko między ludźmi w sporze między człowiekiem, ale możemy również mieć coś podobnego, gdy pojawi się sztuczna inteligencja i ergo wynikające z profesjonalnych sporów między człowiekiem a sztuczną inteligencją . Pojawiają się wszelkiego rodzaju rozważania dotyczące etyki SI. Aby zapoznać się z moim obszernym i bieżącym omówieniem zagadnień związanych z etyką AI i etyczną sztuczną inteligencją, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Przygotuj się na fascynującą opowieść.

Jak niedawno doniesiono w wiadomościach, przypadek „sporu zawodowego” najwyraźniej miał miejsce podczas lotu linii lotniczych Alaska, który leciał z Waszyngtonu do San Francisco. Według doniesień prasowych samolot oddalił się od bramki i czekał na płycie lotniska na pozwolenie na kołowanie i odlot. Trwała burza, która spowodowała opóźnienie lotu o ponad półtorej godziny. Okazuje się, że samolot w końcu zawrócił i skierował się z powrotem do bramki, co niektórzy pasażerowie mogliby normalnie założyć, że jest to po prostu środek bezpieczeństwa związany z burzą.

Z różnych tweetów wynika, że ​​pilot i drugi pilot pokłócili się podczas swojego pobytu w kokpicie i jakoś doszli do wniosku, że najostrożniejszym podejściem będzie szorowanie lotu i powrót do terminalu. . Tweety sugerowały, że kapitan i pierwszy oficer najwyraźniej nie mogli się ze sobą dogadać. Linia lotnicza wydała później oświadczenie, że sytuacja była niefortunna (sytuacja nie została wyraźnie określona ani wyjaśniona per se), dwóch oficerów lotu zostało ocenionych przez kierownictwo i uznanych za zdolnych do lotu, załogi zostały zamienione, a lot zakończył się a później dotarł do San Francisco.

W pewnym sensie, jeśli w rzeczywistości pilot i drugi pilot rzeczywiście spierali się zawodowo, na przykład, czy samolot był odpowiednio gotowy do lotu lub czy ryzyko przelotu przez burzę mieściło się w odpowiednim zakresie bezpieczeństwa, pasażerowie ci powinni zostać zwolnieni i wdzięczny, że samolot wrócił do bramy. Lepiej być bezpiecznym niż potem przepraszać. Dodatkowe opóźnienie jest warte przypuszczalnego zmniejszenia ryzyka związanego z uważaną za nierówną lub niekorzystną podróż lotniczą.

Niektóre osoby mogą być zdziwione, że taka zawodowa spór może powstać.

Być może mamy fałszywe wrażenie, że wszystko, co dzieje się w kokpicie, jest w pełni precyzyjne i dobrze napisane. Wszelka forma ludzkiej dyskrecji najwyraźniej została wykręcona z tego procesu. Opierając się na dokładnych i dokładnie obliczonych mapach, lot jest w porządku lub nie. Nie może być żadnej różnicy zdań, gdy uważa się, że cały zestaw i caoodle opiera się na niepodważalnym rachunku faktów i liczb.

To nie jest pełna prawda. Jasne, jest mnóstwo protokołów i wszelkiego rodzaju kontroli i równowagi, ale to nie wypiera całej ludzkiej oceny. Piloci i dwaj piloci nadal oceniają ludzi. Na szczęście ten ludzki osąd jest doskonalony przez lata latania. Wszystko wskazuje na to, że pilot i drugi pilot w komercyjnym samolocie pasażerskim mają ogromne doświadczenie w lotach i chętnie wykorzystują swoje wieloletnie dogłębne rozumowanie i osądy związane z przebywaniem za sterami lotu.

Biorąc pod uwagę ważną rolę ludzkiego osądu, możemy logicznie przewidzieć, że pilot i drugi pilot czasami będą mieć zawodowe nieporozumienia. Przez większość czasu przypuszczalnie jest bardzo mało takich nieporozumień. Pilot i drugi pilot podczas codziennych lotów prawdopodobnie będą dobrze wyrównani w przewadze czasu. Tylko wtedy, gdy scenariusz lotu może wyjść poza konwencjonalne granice, możemy spodziewać się napiętego tarcia.

Jeśli istnieje silna różnica zdań między nimi, ośmielę się powiedzieć, że chcemy, aby to wymieszali.

Wyobraź sobie sytuację, w której pilot ostro chce kontynuować, ale drugi pilot uważa, że ​​ryzyko jest zbyt duże. Samo kłanianie się drugiego pilota przed pilotem wydawałoby się niepożądane. Drugi pilot to kontrola i równowaga tego, co pilot może myśleć o zrobieniu. Dla tych, którzy chcą, aby drugi pilot się zamknął i działał wyłącznie bezmyślnie zgodnie z jego dekretami, cóż, nie jest to zbytnio uspokajające. Drugi pilot to nie tylko zapasowy „pilot”, który pojawia się na obrazie tylko wtedy, gdy pilot jest całkowicie ubezwłasnowolniony. To błędne zrozumienie wartości posiadania pilota i drugiego pilota w kokpicie.

Jest w tym inny punkt widzenia.

Rozważmy przypadek pilota, który nie wierzy, że lot powinien się odbyć, a tymczasem drugi pilot ma ochotę wstać w powietrze. Co wtedy? Zgodnie z oczekiwaną hierarchią pilot ma umownie przeważać nad drugim pilotem. Wyznaczona rola bycia głównym dowódcą sprawia, że ​​pilot jest lepszy od tego, co w przeciwnym razie jest nieco równe. Zwykle pilot ma większy ogólny czas lotu niż drugi pilot i ergo drugi pilot ma hierarchicznie podporządkować się życzeniom pilota (jeśli jest w granicach rozsądku).

W każdym razie myślę, że wszyscy możemy się zgodzić, że zrezygnowanie z lotu jest z pewnością mniej ryzykownym wyborem niż decyzja o lataniu. Gdy samolot znajduje się w powietrzu, poziom ryzyka staje się ogromny w porównaniu z przebywaniem na zwykłym, stabilnym podłożu. Zwykły lot komercyjny, który po prostu jedzie z powrotem do terminalu bez wzbijania się w powietrze, byłby całkiem polubownym rozwiązaniem każdej gorącej, zaciekłej debaty na temat wejścia w lot.

Zmieńmy biegi i użyjmy tej odważnej wiadomości w zupełnie innym, ale możliwym do odniesienia celu.

Stopniowo mamy wśród nas przewagę autonomicznych systemów opartych na sztucznej inteligencji. Czasami sztuczna inteligencja niejako prowadzi program. Sztuczna inteligencja robi wszystko od A do Z i możemy to interpretować jako sztuczną inteligencję, która jest w pełni autonomiczna lub prawie taka sama. W innych przypadkach możemy mieć sztuczną inteligencję, która wchodzi w interakcję i do pewnego stopnia jest zaprogramowana, aby polegać na obecności człowieka w pętli.

Chciałbym się skoncentrować na kwestii autonomicznego lub półautonomicznego systemu opartego na sztucznej inteligencji, który od samego początku ma w pętli człowieka. Sztuczna inteligencja i człowiek są celowo zepchnięci do siebie i mają współpracować ze sobą. Są kohortami wykonującymi określone zadanie. Sama sztuczna inteligencja nie powinna wykonywać zadania. AI musi wchodzić w interakcję z wyznaczonym człowiekiem w pętli.

Wspominam tę charakterystykę, aby odróżnić się od sytuacji, w których „człowiek w pętli” jest uważany za opcjonalny aspekt. W istocie sztuczna inteligencja ma wolną rękę. Jeśli sztuczna inteligencja zdecyduje się wykorzystać człowieka, niech tak będzie. Nie ma wymogu, aby sztuczna inteligencja miała kontakt z bazą lub pracowała ręka w rękę z wyznaczonym człowiekiem. Analizy, które zamierzam opowiedzieć, z pewnością odnoszą się do tego rodzaju fakultatywny układ interakcji, ale to nie jest to, do czego zmierzam w tej konkretnej dyskusji.

Ok, mamy więc zadanie, nad którym człowiek i sztuczna inteligencja będą pracować razem, nierozłącznie od siebie. W sensie abstrakcyjnym mamy człowieka siedzącego na jednym siedzeniu i system AI na drugim towarzyszącym siedzeniu. Mówię to bezczelnie, ponieważ nie ograniczamy tej dyskusji do robota, który faktycznie może siedzieć na siedzeniu. Metaforycznie nawiązuję do poglądu, że sztuczna inteligencja gdzieś uczestniczy w zadaniu, podobnie jak człowiek. Fizycznie ich miejsce pobytu nie jest szczególnie istotne w dyskusji.

Możesz nie być pewien, kiedy taka okoliczność może się pojawić.

Bułka z masłem.

Później będę omawiać nadejście pojazdów autonomicznych i autonomicznych samochodów. Na pewnych poziomach autonomii sztuczna inteligencja i człowiek mają ze sobą współpracować. Sztuczna inteligencja może prowadzić samochód i żądać, aby człowiek przejął kontrolę nad jazdą. Człowiek może prowadzić samochód i aktywować sztuczną inteligencję, aby przejąć kontrolę. Na zmianę zasiadają za kierownicą.

Ponadto w niektórych projektach sztuczna inteligencja jest zasadniczo aktywna przez cały czas (lub, o ile nie jest wyłączona), tak że sztuczna inteligencja jest zawsze w gotowości. Co więcej, sztuczna inteligencja może bezpośrednio interweniować, nawet bez pytania człowieka, w zależności od rozwijającej się sytuacji. Załóżmy na przykład, że człowiek wydaje się zasnąć za kierownicą. Ponieważ człowiek nie może pozornie aktywować sztucznej inteligencji (ponieważ osoba śpi), sztuczna inteligencja może zostać zaprogramowana do przejęcia kontroli od człowieka.

Niektóre projekty wprowadzają sztuczną inteligencję i ludzi w podwójne podejście. Sztuczna inteligencja prowadzi, a człowiek prowadzi. Lub, jeśli wolisz, prowadzi człowiek, a sztuczna inteligencja również prowadzi. Każdy z nich prowadzi pojazd. Porównuję to do tych specjalnie uzbrojonych samochodów, których być może używałeś podczas szkolenia kierowców, a w pojeździe były dwa zestawy kontroli jazdy, jeden dla ucznia-kierowcy i jeden dla instruktora jazdy.

To tylko jeden przykład sytuacji, w której sztuczna inteligencja i ludzie mogą wspólnie pracować nad zadaniem. Istnieje wiele możliwości. Inne rodzaje pojazdów autonomicznych mogą być podobnie opracowane, takie jak samoloty, drony, łodzie podwodne, statki nawodne, pociągi i tak dalej. Nie musimy brać pod uwagę tylko ustawienia pojazdów i transportu. Wyobraź sobie dziedzinę medyczną i operacje, które są wykonywane wspólnie przez lekarza i system AI. Lista jest nieskończona.

Niemal mam ochotę odnieść się do klasycznie hałaśliwego żartu o człowieku i sztucznej inteligencji, którzy wchodzą razem do baru. To całkiem zabawne dla tych, którzy interesują się sztuczną inteligencją.

Poważnie, wróćmy do skupienia się na człowieku i systemie AI, które pracują razem nad danym zadaniem. Po pierwsze, chcę uniknąć antropomorfizacji sztucznej inteligencji, co będę podkreślał przez cały czas. Sztuczna inteligencja nie jest świadoma. Proszę o tym pamiętać.

Oto coś do przemyślenia: Czy wyznaczony człowiek w pętli zawsze będzie w całkowitej zgodzie ze współpracującą ze sobą sztuczną inteligencją?

W przypadku każdego złożonego zadania wydaje się mało prawdopodobne, że człowiek i sztuczna inteligencja będą całkowicie i zawsze w pełni zsynchronizowani. W niektórych przypadkach człowiek prawdopodobnie nie zgodzi się z AI. Możemy przyjąć to założenie aż do banku.

Chciałbym, abyś rozważył również tę być może zaskakującą możliwość: Czy sztuczna inteligencja zawsze będzie w całkowitej zgodzie z wyznaczonym człowiekiem w pętli?

Ponownie, w przypadku każdego złożonego zadania, wydaje się całkiem możliwe, że sztuczna inteligencja nie będzie w niektórych przypadkach w porozumieniu z ludźmi. Jeśli już skłaniasz się ku idei, że sztuczna inteligencja zawsze musi się mylić, podczas gdy ludzie zawsze muszą mieć rację, rozsądnie byłoby przemyśleć ten pochopny wniosek. Wyobraź sobie samochód, w którym człowiek i sztuczna inteligencja wspólnie prowadzą pojazd półautonomiczny. Człowiek kieruje się w stronę ceglanego muru. Czemu? Nie wiemy, być może człowiek jest odurzony lub zasnął, ale wiemy, że uderzenie w ceglaną ścianę nie jest dobrym pomysłem, ponieważ wszystko inne jest równe. Sztuczna inteligencja może wykryć nadchodzące nieszczęście i dążyć do odejścia od zbliżającej się bariery.

Podsumowując, będziemy mieli wyraźną możliwość, że sztuczna inteligencja i człowiek nie będą się ze sobą zgadzać. Innym sposobem powiedzenia tego samego jest to, że ludzie i sztuczna inteligencja nie zgadzają się ze sobą. Zauważ, że nie chcę, aby sekwencjonowanie AI-i-człowieka kontra człowiek-i-AI sugerowało cokolwiek na temat kierunku lub prawdopodobieństwa sporu.

Dwóch pracowników, jeden człowiek i jeden, który jest sztuczną inteligencją, nie zgadzają się ze sobą.

Moglibyśmy z góry zadeklarować, że ilekroć dochodzi do niezgodności między daną sztuczną inteligencją a danym człowiekiem, z góry ogłaszamy, że człowiek dominuje nad sztuczną inteligencją. Biorąc to pod uwagę, mój ilustracyjny przykład samochodu, który wjeżdża w ceglaną ścianę, wydaje się odwodzić od przekonania, że ​​człowiek zawsze będzie miał rację.

Możemy, dla kontrastu, zdecydować się z góry zadeklarować, że za każdym razem, gdy pojawi się spór, wcześniej ustalimy, że sztuczna inteligencja ma rację, a człowiek się myli. Nie jest to również rozsądnie uogólniony przepis. Wyobraź sobie samochód, w którym sztuczna inteligencja ma jakiś wbudowany błąd oprogramowania lub błąd, a sztuczna inteligencja próbuje skierować pojazd z drogi do rowu. Zakładając, że wszystko inne jest równe, człowiek powinien być w stanie pokonać tę akcję jazdy AI i zapobiec lądowaniu pojazdu w wąwozie.

Zróbmy krótkie podsumowanie tego:

  • Czy człowiek w pętli zawsze będzie w całkowitej zgodzie z AI? Odpowiedź: Nie.
  • Czy sztuczna inteligencja zawsze będzie w całkowitej zgodzie z człowiekiem w pętli? Odpowiedź: Nie.
  • Czy człowiek w pętli zawsze będzie miał rację w porównaniu ze sztuczną inteligencją? Odpowiedź: Niekoniecznie.
  • Czy sztuczna inteligencja zawsze będzie mieć rację w porównaniu z człowiekiem w pętli? Odpowiedź: Niekoniecznie.

Z pewnością możesz ustawić sztuczną inteligencję, aby była domyślnie uważana za „niewłaściwą” lub słabszą stronę i dlatego zawsze zwlekaj z człowiekiem, gdy pojawia się spór. Podobnie możesz skonfigurować sztuczną inteligencję, aby zakładać, że sztuczna inteligencja jest uważana za „właściwą”, gdy człowiek nie zgadza się z AI. Chcę wyjaśnić, że możemy to zrobić programowo, jeśli chcemy. Twierdzę jednak, że generalnie nie zawsze tak będzie. Z pewnością istnieją ustawienia, w których nie wiemy z góry, czy sztuczna inteligencja ma rację, czy człowiek ma rację, jeśli chodzi o wybór jednego lub drugiego w przypadku sporu związanego z danym zadaniem.

Doprowadziłem cię do bardzo ważnego i bardzo skomplikowanego pytania.

Co powinniśmy zrobić, gdy między sztuczną inteligencją a sztuczną inteligencją wystąpi zawodowy spór (lub, równoważnie, możemy określić to jako bycie między sztuczną inteligencją a człowiekiem w pętli)?

Nie próbuj unikać pytania.

Niektórzy mogą twierdzić, że to się nigdy nie wydarzy, ale jak przedstawiłem w moim przykładzie dotyczącym samochodu, z pewnością może się to zdarzyć. Niektórzy mogą argumentować, że człowiek jest oczywiście lepszy i musi być zwycięzcą wszelkich sporów. Mój przykład samochodu i ceglanego muru przewraca go. Są zwolennicy sztucznej inteligencji, którzy mogą upierać się, że sztuczna inteligencja musi być zwycięzcą, z powodu pozornego przezwyciężania ludzkich emocji i bezmyślnego myślenia przez tych przypadkowych, rozmytych ludzi. Po raz kolejny mój inny przykład dotyczący samochodu wjeżdżającego do rowu podważa to twierdzenie.

W prawdziwym świecie sztuczna inteligencja i ludzie będą się nie zgadzać, nawet jeśli celowo zostaną doprowadzeni do sytuacji zespołowej, aby wykonać wspólnie podjęte zadanie. To się stanie. Nie możemy chować głowy w piasek i udawać, że to się nie stanie.

Widzieliśmy, że ludzie pilotujący samolot najwyraźniej pokłócili się. Na szczęście zgodzili się nie zgodzić, tak się wydaje. Przywieźli samolot z powrotem do terminalu. Znaleźli sposób na poradzenie sobie z nieporozumieniem. Rozwiązanie ich niezgody zadziałało dobrze, w porównaniu z tym, czy może poszli na pięści w kokpicie, a może wylecieli w powietrze i nadal walczyli ze sobą. To smutny scenariusz, który jest nie do utrzymania i możemy być wdzięczni, że się nie spełnił.

Pozwolę sobie przedstawić moją listę różnych sposobów rozwiązywania sporów dotyczących sztucznej inteligencji i człowieka w pętli (lub człowieka w pętli i sztucznej inteligencji):

  • Sztuczna inteligencja i połączony zespół ludzi pracują (polubownie lub nie)
  • Człowiek domyślnie dominuje nad sztuczną inteligencją
  • Sztuczna inteligencja domyślnie przeważa nad człowiekiem
  • Domyślnie przeważają inne ustalone z góry rozdzielczości
  • Osoba trzecia jest zapętlona, ​​a ich wskazanie ma pierwszeństwo nad stronami
  • Zewnętrzna sztuczna inteligencja jest zapętlona, ​​a jej wskazanie ma pierwszeństwo nad stronami
  • Człowiek zewnętrzny zastępuje istniejącego człowieka, sprawy toczą się od nowa
  • Zewnętrzna sztuczna inteligencja zastępuje dotychczasową sztuczną inteligencję, sprawy toczą się od nowa
  • Człowiek innej firmy zastępuje istniejącą sztuczną inteligencję, sprawy toczą się od nowa (teraz człowiek-człowiek)
  • Zewnętrzna sztuczna inteligencja zastępuje istniejącego człowieka, sprawy toczą się od nowa (teraz AI-to-AI)
  • Inne

Są one w pełni godne rozpakowania.

Zanim przejdziemy do większej ilości mięsa i ziemniaków na temat dzikich i wełnianych rozważań leżących u podstaw tego, jak radzić sobie ze sztuczną inteligencją i ludzkimi nieporozumieniami, przedstawmy kilka dodatkowych podstaw na niezwykle istotne tematy. Musimy krótko zagłębić się w etykę sztucznej inteligencji, a zwłaszcza w nadejście uczenia maszynowego (ML) i uczenia głębokiego (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do naszego skupienia się na sporach między sztuczną inteligencją a człowiekiem.

Wspomniałem wcześniej, że są to niektóre ze strategii rozwiązywania sporów:

  • Sztuczna inteligencja i połączony zespół ludzi pracują (polubownie lub nie)
  • Człowiek domyślnie dominuje nad sztuczną inteligencją
  • Sztuczna inteligencja domyślnie przeważa nad człowiekiem
  • Domyślnie przeważają inne ustalone z góry rozdzielczości
  • Osoba trzecia jest zapętlona, ​​a ich wskazanie ma pierwszeństwo nad stronami
  • Zewnętrzna sztuczna inteligencja jest zapętlona, ​​a jej wskazanie ma pierwszeństwo nad stronami
  • Człowiek zewnętrzny zastępuje istniejącego człowieka, sprawy toczą się od nowa
  • Zewnętrzna sztuczna inteligencja zastępuje dotychczasową sztuczną inteligencję, sprawy toczą się od nowa
  • Człowiek innej firmy zastępuje istniejącą sztuczną inteligencję, sprawy toczą się od nowa (teraz człowiek-człowiek)
  • Zewnętrzna sztuczna inteligencja zastępuje istniejącego człowieka, sprawy toczą się od nowa (teraz AI-to-AI)
  • Inne

Czas je rozpakować.

Po pierwsze, zastanów się, że o to chodzi profesjonalny nieporozumienia.

Spór zawodowy jest luźno zdefiniowany jako spór związany z zadaniem związanym z pracą.

Na przykład spór między pilotem a drugim pilotem dotyczący tego, czy kontynuować lot, któremu grozi burza, może być rozsądnie oznaczony jako spór zawodowy. W przeciwieństwie do tego, zaciekły spór o to, którą markę kawy preferuje pilot, a którą preferuje drugi pilot, jest łatwo kategoryzowany jako nieprofesjonalny spór w tym konkretnym kontekście.

Oczywiście, jeśli nieprofesjonalny spór wkradnie się w spór zawodowy, możemy ostatecznie zainteresować się sporem nieprofesjonalnym jako domniemanym źródłem lub iskrą dla zawodu. Wyobraź sobie, że pilot i drugi pilot gorzko kłócą się o to, która marka kawy jest najlepsza, co niestety przeradza się w kwestie związane z lotem (gra słów!), na przykład, czy wystartować, czy nie.

Po drugie, musimy mieć na uwadze skalę nieporozumień zawodowych.

Być może pilot i drugi pilot lub w łagodnej niezgodzie co do kontynuowania lotu. Nie są w sprzeczności i tylko rozważają zalety i wady tego, czy wystartować. Nie jest to kaliber ani wielkość nieporozumienia zawodowego, które zwykle rozważamy w niniejszym dokumencie. Chodzi o to, że może się zdarzyć, że spór zawodowy jest przejściowy i obie strony wypracowują rozwiązanie w sposób serdeczny lub przynajmniej terminowy. Ogólnie rzecz biorąc, spór zawodowy w zakresie skupia się na tych, które wydają się nierozwiązywalne, a obie strony niezmiennie pozostają w niezgodzie.

Po trzecie, zwykle musi być coś poważnego na linii, aby te wytyczne weszły w życie.

Jeśli lot jest zagrożony z powodu burzy lub samolot jest uważany za nie w pełni przygotowany do takiej podróży, wybór lotu lub nielotu jest zdecydowanie decyzją typu życie lub śmierć. To poważna sprawa. Nadal możemy zastosować wytyczne do mniej znaczących nieporozumień zawodowych, chociaż może to być bardziej kłopotliwe niż jest to warte.

Dobra, nasze rozważania są następujące:

  • Spór dotyczy głównie profesjonalizmu, a nie czegoś nieprofesjonalnego
  • Spór ma charakter trwały, a nie tylko przejściowy lub w inny sposób łatwo rozwiązany
  • Spór zapowiada poważne konsekwencje i zwykle ma wpływ na wynik
  • Strony są skłócone i wydają się nieustępliwe

Przyjrzyjmy się teraz bliżej każdej z moich sugerowanych wskazówek lub podejść dotyczących tego, jak radzić sobie z takimi zawodowymi nieporozumieniami.

Sztuczna inteligencja i połączony zespół ludzi pracują (polubownie lub nie)

Zaczynam listę od prostej możliwości, że sztuczna inteligencja i człowiek w pętli są w stanie rozwiązać zawodowy spór między sobą. Wydaje się, że być może przykład dwóch ludzi, pilota i drugiego pilota, ilustruje tego rodzaju okoliczności. W jakiś sposób postanowili wrócić do terminalu i rozejść się. Możliwe, że system sztucznej inteligencji i człowiek są w stanie znaleźć rozwiązanie, które jest ogólnie satysfakcjonujące dla obu stron, a zatem sprawa jest zadowalająco zakończona.

Człowiek domyślnie dominuje nad sztuczną inteligencją

Konfigurując sztuczną inteligencję, możemy zaprogramować regułę, która mówi, że człowiek w pętli zawsze będzie dominował, gdy pojawi się zawodowy spór. Byłaby to jawnie zakodowana wartość domyślna. Możemy również dopuścić jakąś formę nadpisania, na wszelki wypadek, chociaż obowiązującą zasadą będzie to, że zwycięży człowiek.

Sztuczna inteligencja domyślnie przeważa nad człowiekiem

Konfigurując sztuczną inteligencję, możemy zaprogramować regułę, która mówi, że sztuczna inteligencja zawsze będzie dominować nad człowiekiem w pętli, gdy pojawi się spór zawodowy. To jest jawnie zakodowana wartość domyślna. Możemy również zezwolić na jakąś formę nadpisania, na wszelki wypadek, chociaż obowiązującą zasadą będzie to, że zwycięży sztuczna inteligencja.

Domyślnie przeważają inne ustalone z góry rozdzielczości

Konfigurując sztuczną inteligencję, możemy zaprogramować regułę, która mówi, że jakaś inna z góry ustalona rozdzielczość będzie miała pierwszeństwo, gdy pojawi się zawodowy spór z człowiekiem w pętli. Domyślnie nie ma znaczenia „człowiek w pętli”. Sztuczna inteligencja domyślnie nie ma pierwszeństwa. Jest jeszcze inne z góry określone rozwiązanie. Na przykład, być może jest rzucanie monetą, która zostanie użyta do podjęcia decyzji, która z dwóch stron jest uważana za właściwą drogę. To oczywiście wydawałoby się dość arbitralne; zatem innym przykładowym podejściem byłoby to, że uruchamiana jest specjalna reguła, która oblicza wartość na podstawie danych wejściowych od dwóch stron i osiąga wynik jako rozstrzygający remis.

Osoba trzecia jest zapętlona, ​​a ich wskazanie ma pierwszeństwo nad stronami

W przypadku sporu zawodowego, regułą może być przywołanie osoby trzeciej, która jest człowiekiem, i zapętlenie jej w otoczeniu w celu podjęcia decyzji o rozwiązaniu sporu. Sztuczna inteligencja jest zaprogramowana, aby zdać się na to, co zadecyduje osoba trzecia. Człowiek znajdujący się już w pętli „człowieka w pętli” został wcześniej poinstruowany, że jeśli taka sytuacja wystąpi, on również ma podporządkować się osobie trzeciej. Na marginesie, prawdopodobnie możesz przewidzieć, że człowiek w pętli może mieć niepokój z powodu przystąpienia do tego, co zdecyduje osoba trzecia, jeśli decyzja nie zgadza się z postawą człowieka w pętli.

Zewnętrzna sztuczna inteligencja jest zapętlona, ​​a jej wskazanie ma pierwszeństwo nad stronami

W przypadku sporu zawodowego regułą może być przywoływanie strony trzeciej, która jest innym systemem SI, i włączanie jej do otoczenia w celu podjęcia decyzji o rozwiązaniu sporu. Oryginalna sztuczna inteligencja jest zaprogramowana, aby odroczyć to, co zdecyduje sztuczna inteligencja innej firmy. Człowiek znajdujący się już w pętli „człowieka w pętli” został wcześniej poinstruowany, że jeśli taka sytuacja wystąpi, on również ma zdać się na sztuczną inteligencję innej firmy. Na marginesie, prawdopodobnie możesz przewidzieć, że człowiek w pętli może mieć niepokój z powodu przystąpienia do tego, co zdecyduje sztuczna inteligencja innej firmy, jeśli decyzja nie zgadza się z postawą człowieka w pętli.

Człowiek zewnętrzny zastępuje istniejącego człowieka, sprawy toczą się od nowa

W przypadku nieporozumienia zawodowego, człowiek w pętli zostaje zastąpiony przez osobę trzecią, która jest człowiekiem i odtąd staje się człowiekiem w pętli. Człowiek, który był pierwotnym człowiekiem w pętli zadania, nie jest już uważany za część bieżącego zadania. To otwarty aspekt tego, co w przeciwnym razie dzieje się z zastąpionym teraz człowiekiem w pętli, ale mówimy, że na pewno nie odgrywają już żadnej stałej roli w zadaniu pracy.

Zewnętrzna sztuczna inteligencja zastępuje dotychczasową sztuczną inteligencję, sprawy toczą się od nowa

W przypadku nieporozumienia zawodowego sztuczna inteligencja zostaje zastąpiona przez sztuczną inteligencję innej firmy, która staje się odtąd sztuczną inteligencją wykorzystywaną do wykonywania danego zadania. Sztuczna inteligencja, która była pierwotnie używana do zadania, nie jest już uważana za część bieżącego zadania. Jest to otwarty aspekt tego, co inaczej dzieje się z zastąpioną teraz sztuczną inteligencją, ale mówimy, że na pewno sztuczna inteligencja nie odgrywa już żadnej stałej roli w zadaniu roboczym.

Człowiek innej firmy zastępuje istniejącą sztuczną inteligencję, sprawy toczą się od nowa (teraz człowiek-człowiek)

W przypadku nieporozumienia zawodowego, sztuczna inteligencja zostaje zastąpiona przez osobę trzecią, dla której ta osoba staje się teraz uważaną za wspólną drużynę, która będzie wykorzystywana do danego zadania roboczego. Sztuczna inteligencja, która była pierwotnie używana do zadania, nie jest już uważana za część bieżącego zadania. Jest to otwarty aspekt tego, co inaczej dzieje się z zastąpioną teraz sztuczną inteligencją, ale mówimy, że na pewno sztuczna inteligencja nie odgrywa już żadnej stałej roli w zadaniu roboczym. Krótko mówiąc, teraz staje się to zadaniem wykonywanym przez dwie strony między człowiekiem a człowiekiem.

Zewnętrzna sztuczna inteligencja zastępuje istniejącego człowieka, sprawy toczą się od nowa (teraz AI-to-AI)

W przypadku nieporozumienia zawodowego, człowiek w pętli zostaje zastąpiony przez sztuczną inteligencję innej firmy, a ta sztuczna inteligencja staje się odtąd zastępstwem dla poprzedniego człowieka w pętli. Człowiek, który był pierwotnym człowiekiem w pętli zadania, nie jest już uważany za część bieżącego zadania. To otwarty aspekt tego, co w przeciwnym razie dzieje się z zastąpionym teraz człowiekiem w pętli, ale mówimy, że na pewno nie odgrywają już żadnej stałej roli w zadaniu pracy. Krótko mówiąc, teraz staje się to dwustronną sztuczną inteligencją, która wykonuje zadanie.

Inne

Można opracować inne warianty, aby poradzić sobie z nieporozumieniami zawodowymi, ale omówiliśmy tutaj niektóre kluczowe elementy.

Jak mamy zdecydować, które z tych podejść będzie właściwe w danej sytuacji?

Przy dokonywaniu takiego wyboru pojawia się wiele różnych kwestii. Istnieją względy technologiczne. Są względy biznesowe. Istnieją względy prawne i etyczne.

Do pewnego stopnia właśnie dlatego etyka AI i etyczna sztuczna inteligencja są tak istotnym tematem. Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Posiadanie nastawienia na etykę AI i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym (być może zaskakująco lub jak na ironię) oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. W rzeczywistości ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji wyjaśnia cokolwiek na temat rozwiązywania sporów między sztuczną inteligencją a ludźmi, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Autonomiczne samochody i spór AI-kontra-człowiek

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

W przypadku w pełni autonomicznych pojazdów może nie być żadnej szansy na zawodowy spór między człowiekiem a sztuczną inteligencją ze względu na możliwość, że na początku nie ma żadnego człowieka w pętli. Dążeniem wielu dzisiejszych producentów samojezdnych samochodów jest całkowite usunięcie ludzkiego kierowcy z zadania prowadzenia pojazdu. Pojazd nie będzie zawierał nawet dostępnych dla ludzi elementów sterujących jazdą. W takim przypadku kierowca-człowiek, jeśli jest obecny, nie będzie mógł brać udziału w zadaniu prowadzenia pojazdu, ponieważ nie ma dostępu do żadnych elementów sterujących prowadzeniem pojazdu.

W przypadku niektórych w pełni autonomicznych pojazdów, niektóre projekty nadal pozwalają człowiekowi być w pętli, chociaż człowiek nie musi być w ogóle dostępny ani brać udziału w procesie prowadzenia pojazdu. W ten sposób człowiek może uczestniczyć w prowadzeniu pojazdu, jeśli chce to zrobić. Jednak w żadnym momencie sztuczna inteligencja nie jest uzależniona od człowieka w wykonywaniu któregokolwiek z zadań związanych z prowadzeniem pojazdu.

W przypadku pojazdów półautonomicznych istnieje bezpośrednia relacja między kierowcą a sztuczną inteligencją. Człowiek-kierowca może całkowicie przejąć kontrolę nad jazdą i zasadniczo powstrzymać sztuczną inteligencję przed uczestnictwem w jeździe. Jeśli kierowca-człowiek chce przywrócić sztuczną inteligencję do roli kierowcy, może to zrobić, chociaż czasami zmusza to człowieka do rezygnacji z kontroli jazdy.

Inna forma działania na wpół autonomicznego wymagałaby współpracy ludzkiego kierowcy i sztucznej inteligencji w sposób zespołowy. Sztuczna inteligencja prowadzi, a człowiek prowadzi. Jeżdżą razem. Sztuczna inteligencja może ulegać człowiekowi. Człowiek może poddać się sztucznej inteligencji.

W pewnym momencie system jazdy AI i ludzki kierowca w pętli mogą dojść do „sporu zawodowego” co do wykonywanego zadania.

Aby zilustrować, w jaki sposób niektóre z wyżej wymienionych zasad radzenia sobie z sporem zawodowym mogą być trudne do wdrożenia, rozważ przykład wezwania osoby trzeciej do wejścia w sprawę i zaproponowania decyzji w sprawie rozwiązania nierozwiązanego problemu.

Załóżmy, że producent samochodów lub samojezdna firma technologiczna zapewniła zdalnym operatorom dostęp do elementów sterujących pojazdami należącymi do ich floty. Operator siedzi w jakimś odległym biurze lub podobnym otoczeniu. Za pośrednictwem systemu komputerowego mogą oglądać scenę jazdy, uzyskując dostęp do kamer i innych czujników zainstalowanych w samojezdnym samochodzie. Dla nich jest to prawie jak granie w internetową grę wideo, choć oczywiście rzeczywiste okoliczności mają potencjalnie tragiczne konsekwencje.

System sztucznej inteligencji i kierowca wewnątrz samochodu prowadzą półautonomiczny pojazd po długiej autostradzie. Nagle sztuczna inteligencja chce skierować się do rowu. Człowiek-kierowca nie chce tego zrobić. Obaj kłócą się o sterowanie.

Jak zostanie to rozwiązane?

Moglibyśmy być może zawczasu ustalić, że człowiek zawsze wygrywa. Załóżmy jednak, że zdecydowaliśmy się tego nie robić.

Mogliśmy wcześniej ustalić, że sztuczna inteligencja zawsze wygrywa. Załóżmy, że zdecydowaliśmy się tego nie robić. Podsumowując, nie przyjęliśmy żadnej z tych zasad, poza tym, że zdecydowaliśmy się pozwolić osobie trzeciej na interwencję i rozwiązanie profesjonalnego sporu o jakiejkolwiek merytorycznej naturze.

W tym przypadku sztuczna inteligencja i kierowca za kierownicą walczą o kontrolę nad jazdą. Powiedzmy, że jest to przekazywane zdalnemu człowiekowi-operatorowi (naszemu człowiekowi będącemu stroną trzecią). Zdalny człowiek-operator bada, co się dzieje i postanawia odejść od rowu, pozornie odwracając to, co próbowała zrobić sztuczna inteligencja. W tym samym czasie załóżmy, że zdalny człowiek-operator kieruje się na nadjeżdżający ruch, czego być może ani sztuczna inteligencja, ani ludzki kierowca w samochodzie nie chcieli zrobić.

Chodzi o to, że sposób, w jaki ta zasada została zaimplementowana, polega na tym, że zewnętrzny operator ludzki jest w stanie całkowicie obejść zarówno sztuczną inteligencję, jak i człowieka w pętli. To, czy przyniesie to dobry wynik, z pewnością nie jest pewne.

Użyję tego przykładu, aby podkreślić dodatkowe spostrzeżenia w tych sprawach.

Nie można przyjąć bezczelnego założenia, że ​​tylko dlatego, że jedna z tych zasad została wprowadzona w życie, wynik rozstrzygniętego sporu jest koniecznie gwarantowanym dobrym wynikiem. Może nie być. Nie ma żadnej żelaznej, zawsze właściwej reguły, którą można by wybrać.

Następnie niektóre z tych zasad mogą nie być wykonalne.

Rozważmy przykład zdalnego operatora, który interweniuje, gdy sztuczna inteligencja i ludzki kierowca kłócą się o sterowanie. Zorientowanie się, co się dzieje, może zająć zdalnemu operatorowi wiele sekund. Do tego czasu pojazd mógł już wylądować w rowie lub mieć inny niekorzystny wynik. Załóżmy również, że położenie pojazdu uniemożliwia zdalny dostęp, np. przebywanie w miejscu, w którym nie ma żadnej łączności elektronicznej w sieci. A może w danym momencie funkcje sieciowe pojazdu nie działają.

Jak widać, reguła może wyglądać elegancko na papierze, chociaż wprowadzenie reguły do ​​rzeczywistego użycia może być bardzo trudnym lub bardzo niefortunnym podejściem. Zobacz moje relacje krytycznego oka na zdalnym operatorze pojazdów autonomicznych i autonomicznych samochodów na link tutaj.

Chciałbym pokrótce omówić inny powiązany temat, który omówię bardziej szczegółowo w nadchodzącej analizie.

Jednym z rosnących obaw dotyczących pojazdów autonomicznych i samojezdnych, które są półautonomiczne, jest tzw Zespół gorących ziemniaków.

Oto oferta.

System jazdy AI i człowiek współkierują. Powstaje straszna sytuacja. Sztuczna inteligencja została zaprogramowana, aby porzucić zadanie prowadzenia pojazdu i przekazać rzeczy człowiekowi, gdy nadejdzie straszny moment. Wydaje się to być może „rozsądne”, ponieważ wydaje się, że odwołujemy się do zasady, że człowiek jest domyślnym „zwycięzcą” w każdym potencjalnym sporze zawodowym.

Ale sztuczna inteligencja odpadająca może mieć bardziej nikczemne lub podstępne cele. Możliwe, że producent samochodów lub samodzielna firma technologiczna nie chce, aby ich sztuczna inteligencja była uważana za „stronę winną” w przypadku wypadku samochodowego. Aby pozornie uniknąć takiego przygwożdżenia, sztuczna inteligencja nagle przekazuje kontrolę człowiekowi. Voila, człowiek jest teraz prawdopodobnie całkowicie odpowiedzialny za pojazd.

Kicker polega na tym, że przypuśćmy, że sztuczna inteligencja wykona to przekazanie, powiedzmy, że pozostała jedna sekunda, zanim nastąpi awaria.

Czy człowiek naprawdę miałby czas na uniknięcie katastrofy?

Raczej nie.

Załóżmy, że sztuczna inteligencja wykonuje przekazanie, gdy zostało kilka milisekund lub nanosekund. Śmiem twierdzić, że człowiek ma zasadniczo zerową szansę na zrobienie czegokolwiek, aby zapobiec katastrofie.

Z perspektywy producenta samochodów lub firmy zajmującej się samodzielnym prowadzeniem samochodu mogą próbować zachowywać się tak, jakby ich ręce były czyste, gdy dochodzi do takiego wypadku samochodowego. Samochód był prowadzony przez człowieka. Sztuczna inteligencja nie prowadziła samochodu. Wydaje się, że jedynym „logicznym” wnioskiem jest to, że człowiek musi być winny, a sztuczna inteligencja musi być całkowicie bez winy.

To garnek.

Omówię to bardziej szczegółowo w następnej kolumnie.

Wnioski

Pojawią się zawodowe nieporozumienia.

Trudno wyobrazić sobie jakiekolwiek złożone zadanie, w którym dwie strony współwykonują zadanie i dla którego nigdy nie byłoby żadnych zawodowych nieporozumień. To wydaje się krainą fantazji, a przynajmniej wielką rzadkością.

Dziś mamy wiele, bardzo wiele przypadków międzyludzkich sporów zawodowych, dla których na co dzień są pokojowo i rozsądnie wypracowywane rozwiązania w taki czy inny sposób. W rzeczywistości często celowo aranżujemy sytuacje, aby podsycać i ujawniać zawodowe nieporozumienia. Możesz argumentować, że to pokazuje słynną mądrość, że czasami dwie głowy to nie jedna.

W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna, będziemy mieć wielu dwustronnych wykonawców zadań AI-do-ludzi lub człowiek-AI-AI i będzie zawodowe nieporozumienia to nastąpi. Leniwe podejście polega na tym, by zawsze ulegać człowiekowi. To może nie być najbardziej odpowiednie podejście. AI może być lepszym wyborem. Lub jedna z pozostałych wyżej wymienionych zasad może być rozsądniejszym podejściem.

Często powtarzana jest ta mędrzec, że wszyscy powinniśmy być w stanie ogólnie zgodzić się na odmowę, chociaż kiedy sprowadza się to do drutu, czasami spór musi zostać jednoznacznie rozwiązany, w przeciwnym razie dana sprawa doprowadzi do niewypowiedzianego nieszczęścia. Nie możemy tak po prostu pozwolić, by na winorośli zamarł spór. Czas może być najważniejszy, a życie może być zagrożone.

Istnieje wyraźny wymóg pewnych ostrożnych sposobów rozwiązywania sporów, nawet jeśli niekoniecznie jest to zadowalające, w tym gdy sztuczna inteligencja i człowiek w pętli nie widzą ani oko w oko, ani bajt po bajcie.

Ufam, że nie zaprzeczysz temu całkowicie zgodnemu twierdzeniu.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-i-drugim-pilotem-nie zgodzili się-przed-odlotem-i-nagle-zdecydowali-się-powrócić-do-terminalu-i-jedź-swoimi-osobnymi drogami/