Etyczna sztuczna inteligencja ma ambitną nadzieję, że sztuczna inteligencja sama nauczy się etycznego zachowania, tak jak w przypadku sztucznej inteligencji w autonomicznych samochodach autonomicznych

Arystoteles zasłynął ze stwierdzenia, że ​​wychowywanie umysłu bez kształcenia serca nie jest żadną edukacją.

Tę wnikliwą uwagę można zinterpretować w ten sposób, że poznawanie zasad etyki i postępowania moralnego jest niezwykle istotne dla ludzkości. W klasycznej debacie na temat natury i wychowania należy zadać sobie pytanie, ile z naszych obyczajów etycznych jest instynktownie wrodzonych, a ile wykształciliśmy w ciągu naszego życia. Małe dzieci obserwują innych ludzi i prawdopodobnie czerpią podstawy etyczne na podstawie tego, co widzą i słyszą. To samo można powiedzieć o nastolatkach. W przypadku dorosłych o otwartych umysłach oni również będą w dalszym ciągu dostosowywać się i rozwijać swoje myślenie etyczne w wyniku doświadczania codziennego świata.

Oczywiście, wyraźne nauczanie kogoś o etyce jest również na porządku dziennym. Ludzie z pewnością zdobywają wiedzę na temat sposobów etyki poprzez uczestnictwo w zajęciach na ten temat lub być może poprzez udział w wydarzeniach i praktykach, które ich interesują. Wartości etyczne można łatwo zidentyfikować i podzielić się nimi, aby pomóc innym w formułowaniu własnej struktury etycznej. Ponadto etyka może być subtelnie ukryta w opowieściach lub innych sposobach instruktażu, które ostatecznie niosą przesłanie tego, na czym polega etyczne zachowanie.

W ten sposób ludzie zdają się wpajać etykę.

A co ze sztuczną inteligencją (AI)?

Zdaję sobie sprawę, że takie pytanie może wydawać się dziwne. Z pewnością oczekujemy, że ludzie będą kierować się etyką i iść przez życie, kierując się pozorami kodeksu moralnego. To prosty i oczywisty fakt. Z drugiej strony maszyna lub komputer nie wydają się pasować do tych samych ram odniesienia. Twoja przeczucie może być taka, że ​​uważanie sztucznej inteligencji za ucieleśnienie zasad etyki i moralności jest naciągane lub dziwaczne.

Najlepsze, co moglibyśmy zrobić w sprawie sztucznej inteligencji, to opracować ją tak, aby nie odbiegała od etycznego zachowania. Twórcy sztucznej inteligencji i osoby ją wdrażające mają ponosić odpowiedzialność za zapewnienie, że sztuczna inteligencja w postaci zaprojektowanej i po wdrożeniu jest już zgodna z zasadami etycznymi. Można powiedzieć, że po wyjściu sztuczna inteligencja powinna być już nieskazitelna i gotowa do działania jako urządzenie w pełni etyczne.

Z pewnością miałbyś rację, sądząc, że systemy sztucznej inteligencji rzeczywiście powinny być tworzone tak, aby całkowicie mieściły się w podstawach etycznych. Społeczeństwo było bardzo podekscytowane, kiedy po raz pierwszy wypuszczono na rynek najnowszą falę systemów sztucznej inteligencji i wydawało się, że pokazało, że żyjemy w epoce AI na dobre. Sztuczna inteligencja pomogłaby w rozwiązaniu wielu najtrudniejszych problemów świata. Postęp technologiczny wykorzystywano do uzupełniania ludzkich możliwości za pomocą obiektów o charakterze poznawczym, chociaż pozwolę sobie podkreślić, że nie mamy jeszcze żadnej świadomej sztucznej inteligencji i nie wiemy, czy świadoma sztuczna inteligencja zostanie osiągnięta.

Problem związany z ciągłym pośpiechem, aby wprowadzić sztuczną inteligencję na świat, stopniowo ujawnił brzydkie podbrzusze sztucznej inteligencji, znane jako AI na złe. Pojawiło się wiele nagłówków na temat systemów sztucznej inteligencji wykorzystujących algorytmiczne podejmowanie decyzji (ADM), które jest pełne uprzedzeń i nierówności. Co więcej, znaczna część współczesnej sztucznej inteligencji cierpi na brak przejrzystości, jest zwykle niewytłumaczalna w zakresie wyjaśniania decyzji obliczeniowych, często wykazuje brak uczciwości i pozwoliła niektórym odwrócić swoją ludzką odpowiedzialność, wskazując palcami na sztuczną inteligencję.

W moich pismach obszernie omawiałem etyczną sztuczną inteligencję i etykę sztucznej inteligencji, m.in link tutaj i link tutaj, żeby wymienić tylko kilka.

Jak to możliwe? AI na złe jeśli przyjmiemy za twierdzenie, że sztuczną inteligencję należy tworzyć od początku, aby uniknąć nieetycznych działań?

Odpowiedź jest wieloraka.

Po pierwsze, wielu twórców sztucznej inteligencji i firm zajmujących się sztuczną inteligencją same nie mają pojęcia o znaczeniu kształtowania sztucznej inteligencji tak, aby mieściła się w granicach etycznych. Ta koncepcja w ogóle nie leży im na radarze. Urok szybkiego zarabiania pieniędzy powoduje, że niektórzy forsują wszelkie szalone koncepcje sztucznej inteligencji, które chcą świadomie stworzyć. Nie ma potrzeby zastanawiać się nad żadnymi kwestiami etycznymi. Po prostu zbuduj sztuczną inteligencję i rozpocznij pracę.

Po drugie, niektórzy tworzą sztuczną inteligencję, która upiększa całkowitą świadomość konsekwencji etycznych, ale jawnie bagatelizuje lub w pewnym stopniu ignoruje względy etyczne sztucznej inteligencji. Jedną z powszechnych perspektyw jest klasyczna mantra techniczna, mówiąca o dążeniu do szybkiego i częstego ponoszenia porażek. Po prostu powtarzaj, aż wszystko, miejmy nadzieję, zostanie odpowiednio uregulowane. Szanse na wciśnięcie jakiegokolwiek systematycznego i przemyślanego włączenia etyki sztucznej inteligencji do tych szybkich wysiłków związanych ze sztuczną inteligencją są niestety niewielkie. Omawiam potrzebę wzmocnienia przywództwa w kierunku etycznej sztucznej inteligencji na stronie: link tutaj.

Po trzecie, istnieje wiele niejasności co do tego, jakie bariery etyczne należy zastosować przy opracowywaniu sztucznej inteligencji. Jasne, obecnie istnieje wiele wytycznych dotyczących etyki AI, zobacz moją relację na stronie link tutaj, chociaż te przydatne wskazówki teoretyczne trudno koniecznie przekształcić w szczegóły dotyczące danego budowanego systemu sztucznej inteligencji. Wskazałem, że powoli będziemy świadkami pojawiania się narzędzi i metodologii tworzenia sztucznej inteligencji, które obejmują praktyki etycznego kodowania sztucznej inteligencji, pomagając zamknąć lukę między abstrakcyjnymi aspektami a przysłowiowymi aspektami „spotykania się z drogą”.

Po czwarte, zgodnie z niniejszym podkreśleniem, badamy dotknięty przypadek sztucznej inteligencji, która nawet jeśli początkowo mieściła się w granicach etycznych, później w trakcie użytkowania wykraczała poza przyjęte, zakodowane etycznie parametry.

Musimy to rozpakować.

Duża część dzisiejszej sztucznej inteligencji wykorzystuje uczenie maszynowe (ML) i głębokie uczenie się (DL). Są to techniki i technologie dopasowywania wzorców obliczeniowych. Ogólnie rzecz biorąc, pomysł jest taki, że zbiera się wiele odpowiednich danych na temat tego, co sztuczna inteligencja ma być w stanie zrobić, przekazuje te dane do wybranego modułu dopasowującego wzorce obliczeniowe, a dopasowywanie wzorców matematycznie próbuje znaleźć przydatne wzorce. Zauważ, że ta sztuczna inteligencja nie ma żadnej świadomości (która, znowu, coś takiego jeszcze nie istnieje). Nie ma tu też mowy o zdrowym rozsądku. To wszystko matematyka i obliczenia.

Może się zdarzyć, że dane wprowadzone do procesu ML/DL są już obciążone uprzedzeniami i nierównościami. W takim przypadku istnieje prawdopodobieństwo, że dopasowanie wzorca obliczeniowego będzie jedynie naśladować te same skłonności. Jeśli podasz dane, które faworyzują jedną rasę nad drugą lub jedną płeć nad drugą, istnieje spora szansa, że ​​dopasowanie wzorca zostanie uznane za odkryty wzorzec.

Dużym problemem związanym z tego rodzaju blokowaniem jest to, że możemy mieć trudności z wykryciem, czy wzorce opierają się na tym aspekcie danych. Drażliwa i złożona matematyka może sprawić, że ujawnienie takich znalezionych wzorców będzie dość problematyczne. Nawet testowanie sztucznej inteligencji niekoniecznie ujawni te tendencje, w zależności od zakresu i głębokości zastosowanych testów.

Załóżmy więc, że zbudowałeś system sztucznej inteligencji i odrobiłeś pracę domową, starając się najpierw uniknąć korzystania z danych, które miały wcześniej istniejące uprzedzenia. Następnie, po przeprowadzeniu uczenia maszynowego i głębokiego uczenia się, testowano wyniki, aby sprawdzić, czy w jakiś sposób nie pojawiły się jakieś uprzedzenia lub nierówności. Załóżmy, że nie jesteś w stanie znaleźć takich niepożądanych skłonności.

Podsumowując, dano zielone światło, aby kontynuować wdrażanie sztucznej inteligencji. Ludzie zaczną korzystać ze sztucznej inteligencji i prawdopodobnie założą, że jest ona etycznie właściwa. Twórcy też tak myślą. Firma wdrażająca sztuczną inteligencję tak właśnie uważa. Wszyscy odchodzimy.

Oto, co może się wydarzyć.

Być może aktywowane jest przeczucie błędu systematycznego, którego nie stwierdzono w oryginalnych danych i którego nie wykryto podczas testowania sztucznej inteligencji. Być może zdarza się to rzadko. Możesz wierzyć, że dopóki zdarza się to rzadko, wszystko jest w porządku. Wątpię jednak, czy osoby podatne na wspomniane uprzedzenia są skłonne postrzegać rzeczy w ten sposób. Śmiem twierdzić, że system sztucznej inteligencji i ci, którzy go stworzyli, spotkają się z konsekwencjami zarówno przed sądami, jak i przed otwartym sądem opinii społecznej.

Inną odmianą jest przysłowiowe pojęcie: wziąć cal i złapać milę. Przeczucie może początkowo być niewielkie. Podczas korzystania ze sztucznej inteligencji mogła ona zostać zaprojektowana tak, aby zmieniać się w miarę rozwoju wydarzeń. Ten rodzaj „uczenia się” lub „samouczenia się” może być całkiem przydatny. Zamiast wymagać od programistów zajmujących się ludzką sztuczną inteligencją ciągłego modyfikowania i dostosowywania systemu sztucznej inteligencji, sztuczna inteligencja jest zbudowana tak, aby robiła to samodzielnie. Bez opóźnień, bez kosztownej siły roboczej itp.

Wadą tej poręcznej samoregulacji jest to, że przeczucie może być coraz większe w zakresie wykorzystania przez sztuczną inteligencję. Podczas gdy stronniczość mogła znajdować się w ciasnym zakątku, teraz ma miejsce na rozwój. Sztuczna inteligencja nie sprawia wrażenia, że ​​jest to „złe” i jedynie obliczeniowo rozszerza coś, co wydaje się działać.

Jeśli od tego jeżą Ci się włosy na głowie, to będziesz musiał usiąść do następnego wariantu.

Załóżmy, że od samego początku nie istniało uprzedzenie i mamy uzasadnione przekonanie, że sztuczna inteligencja jest całkowicie wolna od uprzedzeń. Albo mieliśmy szczęście, albo systematycznie upewnialiśmy się, że w danych nie ma żadnych odchyleń i żadne nie powstało w wyniku dopasowywania wzorców obliczeniowych. Pomimo tego westchnienia ulgi, sztuczna inteligencja może dostosowywać się podczas użytkowania. Drzwi Pandory zostają otwarte, a sztuczna inteligencja decyduje się skierować obliczenia w kierunku uprzedzeń, które można znaleźć we wszystkim, czym zajmuje się sztuczna inteligencja.

Nowo odkryte uprzedzenia zostają wchłonięte przez sztuczną inteligencję i nikt nie jest szczególnie mądrzejszy, że tak się stało. Tak, stworzyliśmy potwora, prawdziwego Frankensteina.

Jak można temu zjawisku zapobiec lub przynajmniej je zasygnalizować?

Jedno z podejść, które zyskuje na popularności, polega na wbudowaniu w sztuczną inteligencję elementu zbierającego dane dotyczące etyki. Sztuczna inteligencja jest skonstruowana tak, aby zawierała elementy etycznej sztucznej inteligencji. Elementy te następnie obserwują lub monitorują resztę sztucznej inteligencji, podczas gdy sztuczna inteligencja dostosowuje się w czasie. Kiedy wydaje się, że sztuczna inteligencja wykracza poza zaprogramowane zasady etyczne, etyczna sztuczna inteligencja próbuje wprowadzić te dostosowania lub ostrzega programistów, że coś poszło nie tak.

Możesz spróbować zaprogramować tę zdolność do nadzorowania etycznej sztucznej inteligencji i mieć nadzieję, że będzie ona przeważać, gdy sztuczna inteligencja będzie używana.

Innym nieco kontrowersyjnym podejściem byłoby wykorzystanie uczenia maszynowego i głębokiego uczenia się do szkolenia aspektów etycznych sztucznej inteligencji w systemie sztucznej inteligencji.

Co proszę?

Tak, być może niekonwencjonalną koncepcją jest to, że zamiast ludzkiego programisty bezpośrednio kodującego zestaw zasad etycznych sztucznej inteligencji, sztuczna inteligencja jest ukształtowana tak, aby zamiast tego próbować się ich „nauczyć”. Przypomnijmy, że krótko wspomniałem, że użycie ML/DL zazwyczaj polega na wprowadzaniu danych do algorytmów i następuje dopasowywanie wzorców obliczeniowych. Pytanie za milion dolarów brzmi, czy możemy zastosować ten sam mechanizm, aby zaszczepić wartości etyczne w systemie sztucznej inteligencji.

Przypuszczam, że można to porównać do mojej dyskusji na początku na temat tego, jak ludzie stają się świadomi zasad etycznych, chociaż proszę nie antropomorfizować dzisiejszej sztucznej inteligencji jako porównywalnej z ludzkim sposobem myślenia (tak nie jest i wkrótce powtórzę to wezwanie). Sztuczną inteligencję można zaprogramować „od urodzenia” zgodnie z zasadami etycznymi sztucznej inteligencji. Lub sztuczna inteligencja mogłaby „nauczyć się” etycznych zasad sztucznej inteligencji. Oczywiście można zrobić jedno i drugie, o czym pisałem gdzie indziej, patrz link tutaj.

Poświęć chwilę na rozważenie pozornie zaskakującej koncepcji, że sztuczna inteligencja może „nauczyć się” etyki i prawdopodobnie przestrzegać etycznych zachowań.

Badacze ci wykorzystują przykład systemu sztucznej inteligencji, który oblicza pożądaną temperaturę w domu, aby zilustrować, jak to może działać: „Najpierw „obserwował” zachowanie ludzi w różnych gospodarstwach domowych przez zaledwie tydzień i wyciągał wnioski na temat ich preferencji. Następnie za pomocą czujnika wykrywającego ruch ustalono, czy ktoś jest w domu. Kiedy dom był pusty, inteligentny termostat przeszedł w tryb wysokiego oszczędzania energii; gdy ludzie byli w domu, termostat dostosowywał temperaturę do ich preferencji. Termostat ten wyraźnie spełnia dwa wymagania bota etycznego, choć są one bardzo proste. Ocenia preferencje ludzi i narzuca je na sterowanie systemem ogrzewania i chłodzenia. Ktoś może zapytać, co to ma wspólnego ze społecznymi wartościami moralnymi. Ten termostat umożliwia osobom o różnych wartościach ustawienie preferowanej temperatury. Mieszkańcy domu nie muszą codziennie resetować termostatu podczas przychodzenia i wychodzenia. Ten prosty bot etyczny zmniejsza również całkowity ślad energetyczny społeczności” (zgodnie z artykułem Amitai Etzioni i Oren Etzioni zatytułowanym „AI Assisted Ethics” w tomie pt. Etyka i technologia informacyjna).

Zanim zagłębię się w zawiłości związane z posiadaniem sztucznej inteligencji, która „uczy się” etycznego zachowania, chciałbym powiedzieć coś więcej na temat statusu sztucznej inteligencji.

Sztuczna inteligencja może składać się z następujących możliwych stanów:

1. Nieświadoma, zwykła, stara sztuczna inteligencja dzisiejszych czasów

2. Świadoma sztuczna inteligencja o jakości ludzkiej (jeszcze tego nie mamy)

3. Świadoma sztuczna inteligencja, która jest superinteligentna (rozciągnięcie poza punkt 2)

Skoncentruję się na istniejącym stanie, którym jest zwykła, pozbawiona świadomości sztuczna inteligencja. Wiele z tego, co można przeczytać na temat etycznej sztucznej inteligencji, czasami dotyczy czującej sztucznej inteligencji i dlatego ma charakter wysoce spekulacyjny. Mówię, że to spekulacje, ponieważ nikt nie jest w stanie przypiąć osła ogona tego, czym będzie świadoma sztuczna inteligencja. Jeszcze dalej poza sferę czującej sztucznej inteligencji o jakości ludzkiej znajduje się bardzo zawzięta superinteligentna sztuczna inteligencja. Istnieje wiele historii science fiction i obaw dotyczących tego, jak odmiany sztucznej inteligencji mogą zdecydować o zniewoleniu ludzkości, a może po prostu nas wszystkich unicestwić. Nazywa się to ryzykiem egzystencjalnym związanym ze sztuczną inteligencją. Czasami dylemat ten określa się także mianem katastrofalnego ryzyka związanego ze sztuczną inteligencją.

Niektórzy twierdzą, że wszystko będzie w porządku, jeśli będziemy trzymać sztuczną inteligencję przy nieświadomej, zwykłej sztucznej inteligencji, którą mamy dzisiaj. Załóżmy, że nie możemy dotrzeć do świadomej sztucznej inteligencji. Wyobraź sobie, że niezależnie od tego, jak bardzo staramy się stworzyć świadomą sztuczną inteligencję, nie udaje nam się to. Załóżmy też na potrzeby dyskusji, że czująca sztuczna inteligencja nie powstaje w wyniku jakiegoś tajemniczego, spontanicznego procesu.

Czy nie jesteśmy zatem pewni, że sztuczna inteligencja mniejszego kalibru, która jest wyobrażonym jedynym możliwym rodzajem sztucznej inteligencji, będzie w użyciu?

Nie całkiem.

Prawdopodobnie pojawią się te same ogólne problemy. Nie sugeruję, że sztuczna inteligencja „wymyśla” swój sposób, chcąc nas zniszczyć. Nie, zwykła nieświadoma sztuczna inteligencja jest po prostu umieszczana na pozycjach władzy, które wciągają nas w samozagładę. Na przykład umieszczamy nieświadomą sztuczną inteligencję w broni masowego rażenia. Ta autonomiczna broń nie jest w stanie myśleć. Jednocześnie ludzie nie są w pełni informowani. W rezultacie sztuczna inteligencja jako forma autonomicznej automatyzacji nieumyślnie powoduje katastrofalne skutki na skutek ludzkiego polecenia, błędu lub błędu, wszczepionego zła lub samodostosowania, które prowadzi do gorszego stanu rzeczy. brzydka ścieżka itp.

Twierdzę, że problem etyki sztucznej inteligencji istnieje we wszystkich trzech stanach określonych przez sztuczną inteligencję, a mianowicie, że mamy problemy etyczne związane ze sztuczną inteligencją w przypadku nieczującej, zwykłej sztucznej inteligencji oraz w przypadku świadomej sztucznej inteligencji, która jest albo jedynie na poziomie ludzkim, albo rozciągniętą sztuczną inteligencją, która sięga uznany poziom superinteligencji.

Biorąc pod uwagę to otrzeźwiające stwierdzenie, z pewnością możemy przedyskutować skalę i trudność związaną z problemami etycznymi na każdym z odpowiednich poziomów sztucznej inteligencji. Zwyczajowy punkt widzenia jest taki, że problemy etyczne związane ze sztuczną inteligencją są mniej nie do pokonania w przypadku nieświadomej sztucznej inteligencji, trudniejsze na poziomie świadomej sztucznej inteligencji równej człowiekowi i naprawdę drapią głowę na etapie spraw świadomej superinteligentnej sztucznej inteligencji.

Im lepsza staje się sztuczna inteligencja, tym poważniejszy staje się problem etyki sztucznej inteligencji.

Być może jest to nienaruszalne prawo natury.

Wracając do dzisiejszej sztucznej inteligencji, próby nauczenia się przez nią etycznych zachowań za pomocą współczesnego uczenia maszynowego i głębokiego uczenia się wiążą się z obawami i trudnymi problemami. Załóżmy, że sztuczna inteligencja nie zdoła zebrać pożądanych zasad etycznych? Skąd będziemy wiedzieć na pewno, że przy tym zawiódł? Czy inne części systemu sztucznej inteligencji potencjalnie zastąpią zebrane konstrukty etyczne? Dodaj do tego, że jeśli sztuczna inteligencja dostosowuje się na bieżąco, dostosowania te mogą osłabić aspekty etyczne lub przypadkowo je całkowicie przytłoczyć.

Co gorsza, „uczenie się” może doprowadzić do tego, że sztuczna inteligencja zacznie zachowywać się naprawdę nieetycznie. Chociaż myśleliśmy, że postępujemy słusznie, nakłaniając sztuczną inteligencję do postępowania etycznego, okazuje się, że zamiast tego sztuczna inteligencja zaczęła dopasowywać wzorce w aspektach nieetycznych. Mówimy o strzeleniu sobie w stopę, to absolutnie może się zdarzyć.

Założę się, że na tym etapie tej dyskusji pragniesz kilku dodatkowych przykładów ze świata rzeczywistego, które mogłyby ukazać, w jaki sposób „nauka” etyki sztucznej inteligencji może odnosić się do dzisiejszej sztucznej inteligencji (poza smakowitym zwiastunem przykładu termostatu).

Cieszę się, że zapytałeś.

Istnieje specjalny i niewątpliwie popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na to, że sztuczna inteligencja jest w stanie „nauczyć się” etycznych zasad sztucznej inteligencji, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Na poziomie 5 nie ma jeszcze prawdziwego samochodu do samodzielnego prowadzenia, którego nawet nie wiemy, czy będzie to możliwe do osiągnięcia, ani jak długo to zajmie.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i etyczne zaszczepianie sztucznej inteligencji

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Ufam, że dostarcza to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Jesteśmy teraz przygotowani, aby dogłębnie przyjrzeć się samochodom autonomicznym i możliwościom etycznej sztucznej inteligencji, co pociąga za sobą zaskakujące stwierdzenie, że możemy sprawić, że sztuczna inteligencja sama „nauczy się” zachowań etycznych.

Użyjmy prostego przykładu. Autonomiczny samochód oparty na sztucznej inteligencji porusza się po ulicach Twojej okolicy i wydaje się, że jeździ bezpiecznie. Na początku poświęcałeś szczególną uwagę za każdym razem, gdy udało ci się rzucić okiem na samojezdny samochód. Autonomiczny pojazd wyróżniał się zestawem czujników elektronicznych, które obejmowały kamery wideo, jednostki radarowe, urządzenia LIDAR i tym podobne. Po wielu tygodniach samojeżdżącego samochodu krążącego po Twojej społeczności, teraz prawie go nie zauważasz. Dla Państwa jest to po prostu kolejny samochód na i tak już ruchliwych drogach publicznych.

Abyście nie myśleli, że zaznajomienie się z samojezdnymi samochodami jest niemożliwe lub nieprawdopodobne, często pisałem o tym, jak lokalizacje, które wchodzą w zakres testów autonomicznych samochodów, stopniowo przyzwyczaiły się do oglądania spreparowanych pojazdów, zobacz moją analizę na Ten link tutaj. Wielu miejscowych w końcu przeszło z gapiących się na gapiów, którzy teraz ziewnęli z nudów, gdy byli świadkami wijących się samojezdnych samochodów.

Prawdopodobnie głównym powodem, dla którego teraz zauważają pojazdy autonomiczne, jest czynnik irytacji i irytacji. Standardowe systemy jazdy AI zapewniają, że samochody przestrzegają wszystkich ograniczeń prędkości i przepisów drogowych. Dla rozgorączkowanych ludzkich kierowców w swoich tradycyjnych samochodach napędzanych przez ludzi, denerwujesz się czasami, gdy utkniesz za ściśle przestrzegającymi prawa, autonomicznymi samochodami opartymi na sztucznej inteligencji.

To jest coś, do czego wszyscy możemy się przyzwyczaić, słusznie lub niesłusznie.

Wracając do naszej opowieści. Załóżmy, że pewnego dnia w Twoim mieście jedzie autonomiczny samochód i dochodzi do sytuacji, w której pieszy czeka na przejście przez jezdnię. Załóżmy, że pieszy sam w sobie nie ma pierwszeństwa. Samochód prowadzony przez człowieka mógłby minąć pieszego i zrobić to całkowicie legalnie. Podobnie system jazdy AI może zgodnie z prawem ominąć czekającego pieszego.

Decyzja o tym, czy zatrzymać się i przepuścić pieszego przez ulicę, należy wyłącznie do kierowcy, niezależnie od tego, czy jest to człowiek, czy system jazdy oparty na sztucznej inteligencji.

Jestem pewien, że spotkałeś się z tego rodzaju sytuacją niezliczoną ilość razy. Być może spieszysz się i nie zatrzymujesz się, aby przepuścić pieszego. Innym razem masz dużo czasu na dotarcie do celu, dlatego decydujesz się zatrzymać i pozwolić oczekującej osobie przejść na drugą stronę ulicy. Twój nastrój i szczególne okoliczności decydują o tym, co zdecydujesz się zrobić.

Nic w tym scenariuszu nie wydaje się niezwykłe ani irytujące.

Zanim przeanalizuję kwestie związane ze sztuczną inteligencją, być może zainteresuje Cię fakt, że dokładnie zbadano ten konkretny aspekt swobody zezwalania pieszym na przejście przez ulicę. Badacze ustalili, że czasami wybór dokonany przez kierowcę może najwyraźniej zależeć od uprzedzeń rasowych lub płciowych. Kierowca będący człowiekiem może ocenić wielkość czekającego pieszego i zdecydować się na zezwolenie tej osobie na przejście, opierając się na wrodzonych uprzedzeniach kierowcy. To, czy kierowca w ogóle zdaje sobie sprawę, że to robi, jest przedmiotem ciągłych badań. Zobacz moją relację na stronie Ten link tutaj.

Przygotowałem grunt pod nasze badanie tego, co system jazdy oparty na sztucznej inteligencji może zrobić w sytuacji na przejściu dla pieszych.

Konwencjonalne programowanie sztucznej inteligencji może wiązać się z tym, że twórcy sztucznej inteligencji zdecydują się zawsze zatrzymywać system napędowy oparty na sztucznej inteligencji i przepuszczać pieszego. Wydaje się, że jest to postępowanie etycznie właściwe i obywatelskie. Autonomiczny samochód podporządkowuje się czekającemu człowiekowi, który chce przejść przez ulicę.

Ośmielę się powiedzieć, że jeśli byłeś pasażerem samochodu autonomicznego, a sztuczna inteligencja zawsze zatrzymywała się dla wszystkich oczekujących pieszych, możesz oszaleć. Szybka wyprawa do sklepu spożywczego może zająć wiele razy więcej czasu. Pamiętaj też, że nie mamy tu na myśli pieszych, którzy mają prawo do przejścia przez jezdnię, ponieważ w takich przypadkach sztuczna inteligencja prawdopodobnie jest już zaprogramowana tak, aby zawsze na to pozwalała. Skupiamy się wyłącznie na okolicznościach uznaniowych.

Deklaracja o konieczności ciągłego zatrzymywania się, aby przepuścić pieszych na przejściu przez ulicę, ma więcej wad.

Ci, którzy produkują i wdrażają samochody autonomiczne oparte na sztucznej inteligencji, chcą, aby ludzie nimi jeździli. Pomysł jest taki, że dzięki samochodom autonomicznym możemy zmniejszyć liczbę corocznych wypadków samochodowych, które obecnie w samych Stanach Zjednoczonych powodują około 40,000 2.5 ofiar śmiertelnych i XNUMX miliona obrażeń rocznie. Zobacz moje statystyki na stronie Ten link tutaj. Oprócz tego szanowanego celu społecznego, producenci samochodów i technologii pojazdów autonomicznych mają nadzieję oczywiście zarabiać również na swoich dziełach sztucznej inteligencji.

Poruszam tę kwestię, ponieważ ludzie mogą zdecydować, że nie będą jeździć samochodami autonomicznymi, jeśli system jazdy AI będzie tak reagował niepotrzebnie kończy się opóźnianiem podróży. Każda zwykła osoba pomyślałaby, że wybierając zamiast tego ludzkiego kierowcę, podróż mogłaby być szybsza, a zatem wybranie na podróż samochodu autonomicznego opartego na sztucznej inteligencji mogłoby zająć bardzo niskie miejsce na liście jej wyborów. To z kolei oznaczałoby, że nie osiągnęlibyśmy pożądanego zmniejszenia liczby wypadków samochodowych, a także, że producenci mogliby potencjalnie uznać swoje produkty za nierentowne.

Biorąc pod uwagę ten zestaw argumentów, można by pomyśleć, że sztuczna inteligencja nigdy nie powinna się zatrzymywać, gdy wystąpi uznaniowy przypadek pieszego chcącego przejść przez ulicę. Wystarczy zaprogramować system jazdy AI, aby robił wszystko, co jest ściśle zgodne z prawem. Jeśli nie ma prawnego wymogu przepuszczenia pieszego na przejściu, to czekający pieszy ma pecha. Być może dana osoba powinna udać się na przejście graniczne, na którym istnieje podstawa prawna do zatrzymania przez sztuczną inteligencję samochodu autonomicznego.

Wyobrażacie sobie ten protest?

Mieszkańcy Twojego miasta stopniowo odkrywają, że samochody autonomiczne oparte na sztucznej inteligencji nigdy nie przepuszczą przypadkowego pieszego. Ta cholerna, irytująca sztuczna inteligencja! To tak, jakby sztuczna inteligencja grała ludziom na nosie. Źle wychowany bachor, kawałek kiepskiej automatyzacji. Na domiar złego wyobraź sobie, że istnieją udokumentowane okoliczności, w których piesi desperacko muszą przejść na drugą stronę, a sztuczna inteligencja w ogóle się nie zatrzyma.

Tymczasem ludzcy kierowcy chętnie się zatrzymywali, aby „zdesperowani” ludzie mogli bezpiecznie przejść na drugą stronę ulicy.

W wyniku tego oburzenia samochody autonomiczne oparte na sztucznej inteligencji nie są już mile widziane na ulicach i obwodnicach w Twojej okolicy. Zezwolenia wydane przez władze miasta zostają cofnięte. Wypędzanie niewdzięcznych bestii z naszych dróg to wrzask wokalny.

W porządku, wygląda na to, że jesteśmy pomiędzy młotem a kowadłem. Sztuczna inteligencja nie powinna zawsze pozwalać wybranemu pieszemu na przejście (nie zawsze się zatrzymywać). Sztuczna inteligencja nie powinna zawsze uniemożliwiać dowolnemu pieszemu przejścia przez jezdnię (nie zawsze przejeżdżaj obok). Co robić?

Oczywistą odpowiedzią byłoby zaprogramowanie sztucznej inteligencji tak, aby działała w sposób uznaniowy.

Proszę o rozważenie ADM (algorytmicznego podejmowania decyzji), z którego to powinno się składać. Czy sztuczna inteligencja będzie próbowała wykryć charakter pieszego i wykorzystać rozpoznane cechy jako podstawę do podjęcia decyzji o zatrzymaniu autonomicznego samochodu? Może ktoś starszy będzie dobrym wyborem. Ale czy szykuje się dyskryminacja ze względu na wiek? I tak dalej.

Być może system jazdy AI jest zaprogramowany tak, aby zatrzymywał się w ciągu dnia i nigdy nie zatrzymywał się w nocy. Być może logika jest taka, że ​​dla pasażerów autonomicznego samochodu bezpieczniejsze jest zatrzymanie pojazdu autonomicznego w ciągu dnia, a nie w bardziej pochmurnych godzinach wieczornych.

To może brzmi rozsądnie. Częścią problemu będą oczekiwania pieszych. Oto, co mam na myśli. Piesi widzą, jak autonomiczne samochody AI zatrzymują się na uznaniowych przejściach, które odbywają się w świetle dziennym. Piesi nie wiedzą, według jakich kryteriów AI podejmuje decyzję o zatrzymaniu się. Niektórzy piesi zakładają, że sztuczna inteligencja zawsze się zatrzyma (nie zdając sobie sprawy, że prawdziwym wyznacznikiem jest światło dzienne i pora nocna). W rezultacie piesi, którzy wierzą, że autonomiczny samochód zawsze się zatrzyma, zaryzykują i zaczną przechodzić przez jezdnię, gdy system jazdy AI wcale nie będzie miał na celu zatrzymania się (co AI prawdopodobnie zatrzymałoby się, gdyby pieszy wchodzi na ulicę, chociaż może to być ryzykowne, a fizyka może uniemożliwić sztucznej inteligencji zatrzymanie autonomicznego samochodu na czas wystarczający do uniknięcia uderzenia pozornie „błąkającego się” pieszego).

Załóżmy, że twórcy sztucznej inteligencji i firmy składające i wystawiające samochody autonomiczne w Twoim mieście nie są pewni, jak zaktualizować sztuczną inteligencję w tym zakresie.

Decydują się „wyszkolić” sztuczną inteligencję na danych zebranych z całej lokalizacji. Okazuje się, że w miastach jest mnóstwo kamer, które rejestrują wjazdy i wyjazdy samochodów po całym miasteczku. Dane te pokazują wiele przypadków pieszych, którzy chcą przejść przez ulicę w sposób uznaniowy. Wszystkie dane są wprowadzane do systemów uczenia maszynowego i głębokiego uczenia się w celu uzyskania tego, co jest uważane za zwyczajowe w danej jurysdykcji.

Czy szkolimy sztuczną inteligencję, aby robiła to, co nakazują lokalne obyczaje?

Innymi słowy, jeśli w danym mieście panowała lokalna kultura, która bardziej skłaniałaby się do zatrzymywania i przepuszczania pieszych przez dyskrecję, o czym świadczą działania ludzkich kierowców, ML/DL potencjalnie nawiązywałoby obliczenia do tego wzorca. Sztuczna inteligencja zostanie następnie przeszkolona, ​​aby postępować podobnie. Z drugiej strony, jeśli kierowcy rzadko się zatrzymują, sztuczna inteligencja potencjalnie wyciągnie tę „lekcję” z obliczeniowej analizy danych. Sztuczna inteligencja będzie działać tak, jak ludzie.

Twierdzenie jest takie, że dane rejestrują etyczne zachowania ludzi i że sztuczna inteligencja wdroży te same zasady etyczne za pomocą analizy obliczeniowej. Etyk ogólnie określiłby to jako wspólnotowe podejście do etyki. Wspólne wartości społeczności znajdują odzwierciedlenie w wysiłkach społeczności jako całości.

To może wydawać się eleganckim rozwiązaniem.

Niestety, jest wiele pułapek.

Być może oczywistym problemem jest to, że ludzcy kierowcy mogą już kierować się pewnymi uprzedzeniami przy podejmowaniu decyzji o zatrzymaniu się lub niezatrzymaniu (jak wspomniano wcześniej). Sztuczna inteligencja będzie wówczas naśladowcą tych uprzedzeń. Czy chcemy, żeby tak było?

Rozważ inny problem. Załóżmy, że ludzcy kierowcy nie akceptują sposobu, w jaki działają autonomiczne samochody AI. Tylko dlatego, że ludzie, powiedzmy, kierowcy chcieli się zatrzymać, nie można tego zakładać w równym stopniu w przypadku samochodów autonomicznych. Może być tak, że ludzkich kierowców irytują autonomiczne samochody oparte na sztucznej inteligencji, które zatrzymują się dla pieszych, mimo że to samo dzieje się z rąk ludzkich kierowców, ale nie wydaje się, aby to przeszkadzało.

Oprócz tego, że jest to niepokojące, można również wyobrazić sobie możliwość nieumyślnego wjechania na tył samochodu autonomicznego przez ludzkich kierowców. Jeśli kierowca-człowiek nie spodziewał się, że samochód autonomiczny zatrzyma się przed pieszym i jeśli samochód prowadzony przez człowieka znajduje się bezpośrednio za samochodem autonomicznym, może wystąpić ogromna rozbieżność oczekiwań. System jazdy AI zatrzymuje autonomiczny samochód. Ludzki kierowca nie przewidział takiego działania. Ludzki kierowca uderza w autonomiczny samochód. Następują obrażenia i być może ofiary śmiertelne.

Celowo zwróciłem uwagę na ryzyko wyrządzenia krzywdy człowiekowi.

Pytanie o pieszego przechodzącego przez ulicę może na pierwszy rzut oka wydawać się trywialne. Wydawałoby się, że nikt nie może zostać skrzywdzony, niezależnie od tego, jaką metodę sztuczna inteligencja wybierze do zatrzymania lub nie. Zło! Istnieje ryzyko, że pieszy zostanie potrącony. Istnieje ryzyko, że samochód prowadzony przez człowieka wjedzie w samochód autonomiczny. Kierowca i pasażerowie samochodu prowadzonego przez ludzi mogą odnieść obrażenia. Osoby podróżujące samochodem autonomicznym mogą odnieść obrażenia. Łatwo można sobie wyobrazić dodatkowe permutacje możliwej szkody dla człowieka.

Wnioski

A skoro mowa o krzywdzie ludzkiej, dam wam coś jeszcze, żebyście zaprzątnęli sobie głowę tą zagadką dotyczącą etycznej sztucznej inteligencji.

Z doniesienia prasowego wynika, że ​​mężczyzna wjechał samochodem na skrzyżowanie i miał do tego zielone światło. Inny samochód kierowany przez człowieka zdecydował się przejechać na czerwonym świetle skrzyżowania i nielegalnie i niebezpiecznie wjechał bez przeszkód na skrzyżowanie, grożąc uderzeniem w legalnie poruszający się samochód.

Kierowca powiedział reporterom, że musi wybrać między przyjęciem uderzenia a skręceniem samochodu, aby – miejmy nadzieję – uniknąć uderzenia, ale w pobliżu byli piesi i zmiana kierunku jazdy mogła zagrozić tym osobom. Co byś zrobił? Możesz zdecydować, że zostaniesz potrącony przez ten nadciągający samochód i być może przeżyjesz, aby opowiedzieć swoją historię. Możesz też spróbować uniknąć uderzenia, ale w międzyczasie prawdopodobnie potrącić niewinnych pieszych.

Duża część naszej codziennej jazdy wiąże się z koniecznością podejmowania natychmiastowych i etycznie ogromnych decyzji. Omówiłem to szczegółowo, łącznie z powiązaniem decyzji decydujących o życiu lub śmierci ze słynnym lub, jak twierdzą, niesławnym problemem wózka, zobacz moje opracowanie pod adresem link tutaj.

W tym scenariuszu zastąp ludzkiego kierowcę systemem jazdy opartym na sztucznej inteligencji.

Co chcesz, żeby sztuczna inteligencja zrobiła?

To kłopotliwe pytanie.

Jednym ze sposobów jest zaprogramowanie sztucznej inteligencji tak, aby wyraźnie wykonywała jazdę na wprost, a zatem nawet nie uwzględniała obliczeniowo innych opcji, takich jak odwrócenie się od prawdopodobnego wypadku. Spodziewam się, że kierowcy samochodów autonomicznych będą zdenerwowani, gdy dowiedzą się, że sztuczna inteligencja nie została zaprojektowana do niczego innego niż przyjmowanie trafień. Możesz spodziewać się procesów sądowych i zamieszania.

Innym podejściem byłaby próba zaprogramowania sztucznej inteligencji tak, aby uwzględniała różne możliwości. Kto jednak ustanawia ADM, który decyduje, w którą stronę pójdzie system napędowy AI? Wydawałoby się, że zezwolenie twórcom sztucznej inteligencji na samodzielne podejmowanie tak ważnych decyzji wiąże się z wieloma obawami.

Można spróbować pozwolić sztucznej inteligencji „uczyć się” na podstawie danych dotyczących jazdy ludzi, zebranych na podstawie codziennych sytuacji na drodze. Przypomina to dylemat przejścia dla pieszych i wcześniej sugerowany pomysł wykorzystania zebranych danych, aby sztuczna inteligencja zebrała informacje na temat lokalnych obyczajów etycznych. Istnieje wiele zastrzeżeń w tej kwestii, np. czy odkryte wzorce ML/DL są trafne, czy nie itp.

Ostrzegłem również, że istnieje ryzyko, że sztuczna inteligencja wykryje być może nieetyczne zachowanie, w zależności od obowiązujących zasad etycznych. Załóżmy na przykład, że sztuczna inteligencja w jakiś sposób opracowała wzór obliczeniowy, aby zawsze celować w pieszych, ilekroć inny samochód grozi uderzeniem w samochód autonomiczny.

Whoa, uważaj na pieszych, będziesz gotowym celem.

Czas na razie zakończyć dyskusję i zrobić to z pokrzepiającą myślą końcową.

Być może wiesz, że Isaac Asimov zaproponował swoje „Trzy prawa robotyki” w 1950 roku i do dziś jesteśmy zachwyceni tymi głoszonymi zasadami. Chociaż zasady wydają się łatwe do przestrzegania, np. system lub robot sztucznej inteligencji nie może wyrządzić krzywdy człowiekowi ani nie pozwolić, aby człowiek doznał krzywdy, istnieje wiele kluczowych niuansów, które sprawiają, że jest to skomplikowane, a czasami nie do utrzymania, zobacz moją analizę Na link tutaj.

W każdym razie Asimov jest również znany z czegoś innego, choć w mniejszym stopniu: „Nigdy nie pozwól, aby twoje poczucie moralności przeszkadzało w robieniu tego, co słuszne”.

W przypadku etycznej sztucznej inteligencji, którą wszyscy mamy nadzieję opracować, musimy pamiętać, że przepojona etyką sztucznej inteligencji może nie być taka, jakiej oczekiwaliśmy, i że w jakiś sposób sztuczna inteligencja nadal będzie musiała robić wszystko, co właściwe. Asimov dobrze to powiedział. Długo wcześniej wydawało się, że Arystoteles myśli podobnie.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitious-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- przypadek-z-AI-w-autonomicznych-samochodach/