Etyka AI opiera się na Arystotelesie, aby zbadać, czy ludzie mogą zdecydować się na zniewolenie AI pośród nadejścia w pełni autonomicznych systemów

Przyjaciel czy wróg.

Ryba lub ptactwo.

Osoba lub rzecz.

Wszystkie te wszechobecne zagadki pozornie sugerują, że czasami stajemy w obliczu dychotomicznej sytuacji i musimy wybrać jeden lub drugi aspekt. Życie może zmusić nas do zmagania się z okolicznościami, które składają się z dwóch wzajemnie wykluczających się opcji. Używając bardziej wyrazistego języka, można zasugerować, że wykluczające równanie binarne wymaga od nas wyraźnego marszu jedną, wyraźną ścieżką, a nie inną.

Skupmy się szczególnie na dychotomii osoba-rzecz.

W kontekście sztucznej inteligencji (AI) stale pojawia się żarliwe pytanie o osobę lub rzecz.

Dla wyjaśnienia, dzisiejsza sztuczna inteligencja jest absolutnie nie osobą i nie wykazuje pozorów wrażliwości, pomimo szeroko otwartych i całkowicie przesadzonych nagłówków, które możesz zobaczyć w wiadomościach i mediach społecznościowych. Można zatem mieć pewność, że w tej chwili kwestia tego, czy sztuczna inteligencja jest osobą, czy rzeczą, jest łatwo rozwiązana. Czytaj z moich ust, w prawdziwym wyborze Hobsona między osobą a rzeczą, sztuczna inteligencja jest na razie rzeczą.

Biorąc to pod uwagę, możemy patrzeć w przyszłość i zastanawiać się, co może się wydarzyć, jeśli uda nam się osiągnąć świadomą formę sztucznej inteligencji.

Niektórzy rozsądni krytycy (oraz zjadliwi sceptycy) sugerują, że być może liczymy nasze kurczaki na długo przed wykluciem, dyskutując obecnie o konsekwencjach świadomej sztucznej inteligencji. Wyrażono obawę, że sama dyskusja sugeruje, że musimy znaleźć się u progu takiej sztucznej inteligencji. Całe społeczeństwo może zostać wprowadzone w błąd, wierząc, że jutro lub pojutrze nastąpi nagłe i szokujące odkrycie, że tak naprawdę dotarliśmy do świadomej sztucznej inteligencji (niektórzy nazywają to osobliwością sztucznej inteligencji lub eksplozją inteligencji, zob. moja analiza na link tutaj). Tymczasem nie wiemy, kiedy taka sztuczna inteligencja się pojawi, jeśli w ogóle, i na pewno nie musimy rozglądać się za każdym rogiem i być przerażająco przestraszeni, że świadoma sztuczna inteligencja wyskoczy na nas zupełnie niespodziewanie w następnej chwileczka.

Druga strona debaty wskazuje, że nie powinniśmy chować głowy głęboko w piasek. Widzisz, jeśli nie będziemy otwarcie omawiać i rozważać możliwości związanych ze świadomą sztuczną inteligencją, wyrządzamy ludzkości przypuszczalnie poważną krzywdę. Nie będziemy gotowi na obsługę świadomej sztucznej inteligencji, kiedy lub jeśli w ogóle się pojawi. Co więcej, co być może jeszcze mocniej ujął, antycypując czującą sztuczną inteligencję, możemy nieco wziąć sprawy w swoje ręce i ukształtować kierunek i charakter tego, w jaki sposób taka sztuczna inteligencja powstanie oraz z czego będzie się składać (nie wszyscy zgadzają się co do tej ostatniej kwestii , mianowicie niektórzy twierdzą, że taka sztuczna inteligencja będzie miała całkowicie własny „umysł” i nie będziemy w stanie go kształtować ani nadzorować, ponieważ sztuczna inteligencja będzie samodzielnie zdolna do myślenia i określania sposobów trwałego istnienia).

Etyka AI zwykle opowiada się po stronie punktu widzenia, zgodnie z którym rozsądnie byłoby ujawnić te żmudne i kłótliwe kwestie związane ze świadomą sztuczną inteligencją już teraz, zamiast czekać, aż nie będziemy mieli już innego wyboru lub będziemy zaskoczeni osiągnięciem takiej sztucznej inteligencji. Czytelnicy dobrze wiedzą, że obszernie omawiałem tematy związane z etyką i etyką sztucznej inteligencji, w tym szeroki zakres drażliwych kwestii, takich jak osobowość prawna sztucznej inteligencji, powstrzymywanie sztucznej inteligencji, usuwanie sztucznej inteligencji, monokultura algorytmiczna sztucznej inteligencji, mycie etyki sztucznej inteligencji, podwójne zastosowanie Sztuczna inteligencja, tak zwane projekty Doktora Zła, sztuczna inteligencja ukrywająca dynamikę władzy społecznej, godna zaufania sztuczna inteligencja, audyt sztucznej inteligencji i tak dalej (zobacz moje artykuły poświęcone tym istotnym tematom na stronie link tutaj).

Zadałem ci trudne pytanie.

Czy w przyszłości, zakładając, że w jakikolwiek sposób stworzymy świadomą sztuczną inteligencję, czy ta czująca sztuczna inteligencja będzie przez nas wszystkich interpretowana jako osoba czy rzecz?

Zanim zaczniemy głębiej zagłębiać się w to całkowicie prowokacyjne pytanie, pozwólcie, że opowiem coś o sloganie „świadoma sztuczna inteligencja”, abyśmy wszyscy byli na tej samej stronie. Istnieje wiele niepokojów związanych ze znaczeniem odczuwania i znaczeniem świadomości. Eksperci nie mogą się zgodzić co do znaczenia tych słów. Dodając do tego mętność, ilekroć ktoś odnosi się do „AI”, nie masz gotowego sposobu, aby dowiedzieć się, do czego się odnosi. Podkreśliłem już tutaj, że dzisiejsza sztuczna inteligencja nie jest świadoma. Jeśli ostatecznie uda nam się stworzyć przyszłą sztuczną inteligencję, która będzie świadoma, prawdopodobnie nazwiemy ją również „AI”. Rzecz w tym, że te kontrowersyjne kwestie mogą być teraz cholernie mylące, jeśli chodzi o to, czy wypowiedzenie sformułowania „AI” jest powiązane z dzisiejszą nieświadomą sztuczną inteligencją, czy też z kiedyś być może świadomą sztuczną inteligencją.

Osoby debatujące nad sztuczną inteligencją mogą przyłapać się na rozmowie obok siebie i nie zdawać sobie sprawy, że jeden opisuje jabłka, a drugi w międzyczasie mówi o pomarańczach.

Aby spróbować ominąć to zamieszanie, wprowadzono zmianę w sformułowaniach dotyczących sztucznej inteligencji, których wielu używa w celu uzyskania pełnego nadziei wyjaśnienia. Obecnie mamy tendencję do określania sztucznej inteligencji ogólnej (AGI) jako rodzaju sztucznej inteligencji, która może wykonywać działania w pełni inteligentne. W tym sensie błahe użycie wyrażenia „AI” należy albo interpretować jako pomniejszą wersję AI, która według niektórych jest wąską sztuczną inteligencją, albo jest denotacyjnie niejednoznaczne i nie wiadomo, czy chodzi o nie -świadoma sztuczna inteligencja lub być może świadoma sztuczna inteligencja.

Dodam do tego dodatkowy zwrot akcji.

W zależności od przyjętej definicji wrażliwości, możesz wdać się w gorącą dyskusję na temat tego, czy AGI będzie świadome, czy nie. Niektórzy twierdzą, że tak, oczywiście, AGI ze swej natury będzie musiało być czujące. Inni twierdzą, że można mieć AGI, które nie jest czujące, zatem wrażliwość jest inną cechą, która nie jest wymagana do osiągnięcia AGI. W swoich artykułach analizowałem tę debatę na różne sposoby i nie będę tutaj ponownie poruszał tej kwestii.

Na razie proszę przyjąć, że odtąd w tej dyskusji, mówiąc o sztucznej inteligencji, mam zamiar zasugerować, że mam na myśli AGI.

Oto plik do pobrania na ten temat. Nie mamy jeszcze AGI i, w pewnym sensie, na chwilę grzecznie zgodzimy się, że AGI należy do tego samego obozu, co świadoma sztuczna inteligencja. Gdybym miał używać wyłącznie „AGI” w całej mojej dyskusji, sformułowanie to mogłoby rozpraszać uwagę, ponieważ niewielu jest jeszcze przyzwyczajonych do postrzegania „AGI” jako pseudonimu i prawdopodobnie byliby lekko zirytowani wielokrotnym oglądaniem tego stosunkowo nowszego sformułowania. Jeśli zamiast tego miałbym ciągle odnosić się do „świadomej sztucznej inteligencji”, mogłoby to również odwrócić uwagę tych, którzy spierają się o to, czy AGI i świadoma sztuczna inteligencja są takie same, czy różne.

Aby uniknąć tego bałaganu, załóżmy, że moje odniesienie do sztucznej inteligencji jest tym samym, co powiedzenie AGI lub nawet świadomej sztucznej inteligencji, i przynajmniej wiedz, że nie mówię o dzisiejszej nieświadomej sztucznej inteligencji nie-AGI, kiedy wdaję się w rozważania dotyczące Sztuczna inteligencja, która wydaje się mieć inteligencję ludzką. Od czasu do czasu będę używał nazwy AGI, aby od czasu do czasu przypomnieć wam, że badam typ sztucznej inteligencji, którego jeszcze nie mamy, zwłaszcza na początku eksploracji zagadki osoby lub rzeczy.

Było to przydatne potwierdzenie drobnym drukiem, a teraz wracam do zasadniczej kwestii.

Pozwólcie, że teraz zapytam, czy AGI jest osobą, czy rzeczą.

Rozważ te dwa pytania:

  • Czy AGI jest osobą?
  • Czy AGI to coś?

Następnie powtórzmy każde pytanie i odpowiednio odpowiedzmy na nie serią odpowiedzi „tak” lub „nie”, zgodnie z domniemanym wyborem dychotomicznym.

Zacznij od tej postulowanej możliwości:

  • Czy AGI jest osobą? Odpowiedź: Tak.
  • Czy AGI to coś? Odpowiedź: Nie.

Przemyśl to. Jeśli AGI faktycznie jest rozumiane jako osoba, a nie jako rzecz, niemal z całą pewnością możemy zgodzić się, że powinniśmy traktować AGI tak, jakby było pokrewne osobie. Wydaje się, że argument przemawiający za nieprzyznaniem AGI formy osobowości prawnej nie jest dostatecznie autentyczny. Byłoby to albo całkowicie to samo, co ludzka osobowość prawna, albo moglibyśmy zdecydować się na zaproponowanie wariantu osobowości prawnej zorientowanej na człowieka, który rozsądnie bardziej miałby zastosowanie do AGI. Sprawa zamknięta.

To było łatwe.

Zamiast tego wyobraźmy sobie, że zadeklarowaliśmy to:

  • Czy AGI jest osobą? Odpowiedź: Nie.
  • Czy AGI to coś? Odpowiedź: Tak.

W tej sytuacji rozwiązanie jest oczywiście proste, ponieważ mówimy, że AGI jest rzeczą i nie wznosi się do kategorii bycia osobą. Wydaje się, że panuje powszechna zgoda co do tego, że zdecydowanie nie przyznalibyśmy AGI osobowości prawnej ze względu na fakt, że nie jest ona osobą. W zasadzie AGI prawdopodobnie i rozsądnie znalazłoby się w naszym ogólnym rubryce dotyczącej tego, jak prawnie traktujemy „rzeczy” w naszym społeczeństwie.

Dwie straty, pozostały jeszcze dwie możliwości.

Wyobraź sobie to:

  • Czy AGI jest osobą? Odpowiedź: Tak.
  • Czy AGI to coś? Odpowiedź: Tak.

Och, to wydaje się dziwne, ponieważ mamy dwie odpowiedzi „Tak”. Dokuczliwy. Sugerujemy, że AGI jest zarówno osobą, jak i jednocześnie rzeczą. Wydaje się jednak, że jest to sprzeczne z naszą głoszoną dychotomią. Teoretycznie, zgodnie z ograniczeniami dychotomii, coś musi być albo osobą, albo musi być rzeczą. Mówi się, że te dwa segmenty lub kategorie wzajemnie się wykluczają. Twierdząc, że AGI to jedno i drugie, przeciwstawiamy się systemowi i łamiemy wzajemnie wykluczające się ustalenia.

Nasza ostatnia możliwość wydaje się następująca:

  • Czy AGI jest osobą? Odpowiedź: Nie.
  • Czy AGI to coś? Odpowiedź: Nie.

Tak, to też jest złe w kontekście naszych prób klasyfikacji AGI jako osoby lub rzeczy. Mówimy, że AGI nie jest osobą, co prawdopodobnie oznaczałoby, że musi to być rzecz (w tej dychotomii nasz jedyny dostępny wybór). Ale stwierdziliśmy również, że AGI nie jest rzeczą. Jeśli jednak AGI nie jest rzeczą, logicznie rzecz biorąc, musielibyśmy twierdzić, że AGI jest osobą. Jeździmy w kółko. Na pewno paradoks.

AGI w tych dwóch ostatnich możliwościach było albo (1) zarówno osobą, jak i rzeczą, lub (2) ani osobą, ani rzeczą. Można bezczelnie powiedzieć, że te dwa twierdzenia na temat AGI przypominają nieco klasyczną zagadkę dotyczącą tego, co nie jest ani rybą, ani drobiem, jeśli wiesz, co mam na myśli.

Co mamy robić?

Mam zamiar zaproponować często dyskutowane i ostro kwestionowane proponowane rozwiązanie tego dylematu klasyfikacji AGI, chociaż należy wcześniej ostrzec, że jego zobaczenie lub usłyszenie będzie niepokojąco irytujące. Proszę się odpowiednio przygotować.

W artykule badawczym poruszającym tę kwestię stwierdzono, co następuje: „Jedną z metod rozwiązania tego problemu jest sformułowanie trzeciego terminu, który nie jest ani jedną, ani drugą rzeczą, lub jest rodzajem kombinacji lub syntezy jednego i drugiego” (David Gunkel, Uniwersytet Północnego Illinois w Dlaczego roboty nie powinny być niewolnikami, 2022). Następnie w artykule przedstawiono następujący dodatkowy punkt: „Jednym z możliwych, jeśli nie zaskakującym, rozwiązaniem wyłącznej dychotomii osoba/rzecz jest niewolnictwo” (w tym samym artykule).

Na dalszym tle, wiele lat wcześniej, w 2010 roku ukazał się artykuł zatytułowany „Roboty powinny być niewolnikami”, który stał się swego rodzaju ostoją zachęcającą do tego rodzaju rozważań, w którym stwierdzono: „Moja teza jest taka, że ​​roboty powinny być zbudowani, sprzedawani i uważani legalnie za niewolników, a nie rówieśników” (w artykule Joanny Bryson). Aby spróbować wyjaśnić temat bez używania tak surowych i rozdzierających wnętrzności sformułowań, w gazecie napisano dalej: „Chcę powiedzieć, że «roboty powinny być twoimi sługami» (według artykułu Brysona).

Wielu badaczy i autorów zajmowało się tym tematem.

Pomyśl o licznych opowieściach science fiction, które ukazują ludzkość zniewalającą roboty AI. Niektórzy mówią o robotycznych niewolnikach, sztucznych sługach, służbie AI i tym podobnych. Co ciekawe, choć sformułowanie „roboty-niewolnicy” wydaje się ostre, niektórzy obawiają się, że jeśli zamiast tego będziemy odnosić się do „robotów-służących”, unikniemy rzeczywistego sposobu traktowania takich autonomicznych systemów AI (zastępując to słowo „ służących” jest uważane za rozwadnianie intencji i chwyt mający na celu uniknięcie otrzeźwiających konsekwencji). Bryson stwierdził później w poście na blogu z 2015 roku, że „teraz zdaję sobie sprawę, że nie można używać terminu „niewolnik” bez odwoływania się do jego ludzkiej historii”.

Ci, którzy chcą dogłębnie zbadać ten uwikłany w AGI temat, czasami przywołują przykłady historyczne z prawdziwego świata, z których możemy wyciągnąć wnioski. Oczywiście nie mamy żadnego wcześniejszego AGI, które pokazałoby, jak ludzkość poradziła sobie z tą sprawą. Argumentuje, że mimo wszystko moglibyśmy mieć przydatne historyczne punkty odniesienia, które warto zbadać, dotyczące tego, jak ludzie traktowali innych ludzi.

Na przykład w książce opublikowanej w 2013 roku autor stwierdza co następuje: „Obietnice i niebezpieczeństwa związane ze sztucznymi, inteligentnymi sługami zostały po raz pierwszy w sposób dorozumiany przedstawione ponad 2,000 lat temu przez Arystotelesa” (książka Kevina LaGrandeura, Androidy i inteligentne sieci we wczesnej nowożytnej literaturze i kulturze). Pomysł jest taki, że możemy oprzeć się na Arystotelesie i sprawdzić, czy istnieje wgląd w to, w jaki sposób ludzkość będzie lub powinna potencjalnie leczyć AGI.

Jestem pewien, że wiecie, jak ważne jest studiowanie historii, co doskonale podkreślają słynne słowa George’a Santayany: „Ci, którzy nie pamiętają przeszłości, są skazani na jej powtarzanie” (w Życie rozumu, 1905).

Wyrazy uznania dla Instytutu Etyki i Sztucznej Inteligencji Uniwersytetu Oksfordzkiego

W niedawnej i dość cenionej prezentacji szczegółowo zbadano kwestię etyki sztucznej inteligencji w kontekście gromadzenia spostrzeżeń z dzieł i życia Arystotelesa. Podczas corocznego wykładu inauguracyjnego dla Uniwersytetu Oksfordzkiego Instytut Etyki i AIprofesor Josiah Ober z Uniwersytetu Stanforda szczegółowo odniósł się do tego tematu w swojej prezentacji „Etyka w sztucznej inteligencji u Arystotelesa”, która odbyła się niedawno 16 czerwca 2022 r.

Na marginesie, jako stypendysta Stanforda i globalny ekspert w dziedzinie etyki i prawa AI, byłem podekscytowany faktem, że na mówcę inauguracyjnego wybrano Josiaha Obera ze Stanford. Wspaniały wybór i wyjątkowa rozmowa.

Oto streszczenie jego wciągającego wykładu: „Filozofia analityczna i fikcja spekulacyjna to obecnie nasze główne zasoby intelektualne umożliwiające poważne myślenie o etyce w sztucznej inteligencji. Proponuję dodać trzecią: starożytną historię społeczną i filozoficzną. w PolitykaArystoteles rozwija słynną doktrynę: Niektórzy ludzie są niewolnikami „z natury” – inteligentnymi, ale cierpiącymi na wadę psychologiczną, która uniemożliwia im myślenie o własnym dobru. Jako takie należy je traktować raczej jako „narzędzia ożywiające”, instrumenty niż cele. Ich praca musi być kierowana i wykorzystywana dla korzyści innych. Odrażającą doktrynę Arystotelesa wykorzystywano w złych celach, na przykład w Ameryce przedwojennej. Jest jednak przydatny w etyce sztucznej inteligencji, ponieważ starożytne niewolnictwo było przednowoczesnym prototypem jednej wersji sztucznej inteligencji. Zniewoleni ludzie byli wszechobecni w starożytnym greckim społeczeństwie – robotnicy, prostytutki, bankierzy, urzędnicy rządowi – ale nie można ich było łatwo odróżnić od osób wolnych. Wszechobecność wraz z założeniem, że niewolnictwo jest praktyczną koniecznością, stworzyła szereg etycznych zagadek i dylematów: czym dokładnie niewolnicy różnią się od „nas”? Jak możemy je odróżnić od nas samych? Czy mają prawa? Co oznacza maltretowanie? Czy mój instrument może być moim przyjacielem? Jakie są skutki wyzwolenia? Długa historia greckich zmagań filozoficznych i instytucjonalnych z tymi i innymi kwestiami poszerza repertuar interpretacyjny współczesnych etyków, którzy stają w obliczu przyszłości, w której inteligentna maszyna będzie mogła zostać uznana za „naturalnego niewolnika” (według Uniwersytetu Oksfordzkiego Instytut Etyki AI stronie internetowej).

Więcej informacji na temat prezentacji oraz dostęp do nagrania wideo wystąpienia zob link tutaj.

Moderatorem prezentacji był profesor John Tasioulas, dyrektor inauguracyjny Instytutu Instytut Etyki i AIoraz profesor etyki i filozofii prawa na Wydziale Filozofii Uniwersytetu Oksfordzkiego. Wcześniej był inauguracyjnym kierownikiem Katedry Polityki, Filozofii i Prawa oraz dyrektorem Centrum Polityki, Filozofii i Prawa Yeoh Tiong Lay w Dickson Poon School of Law w Kings College London.

Gorąco polecam każdemu zainteresowanemu etyką sztucznej inteligencji śledzenie bieżących prac i zaproszonych wykładów Uniwersytetu Oksfordzkiego Instytut Etyki i AI, Patrz link tutaj i / lub link tutaj po dalsze informacje.

Oto misja i cele Instytutu: „Instytut Etyki w Sztucznej Inteligencji zgromadzi czołowych światowych filozofów i innych ekspertów w dziedzinie nauk humanistycznych z twórcami technicznymi i użytkownikami sztucznej inteligencji w środowisku akademickim, biznesowym i rządowym. Etyka i zarządzanie sztuczną inteligencją to wyjątkowo tętniący życiem obszar badań w Oksfordzie, a Instytut stanowi okazję do podjęcia śmiałego kroku naprzód w oparciu o tę platformę. Każdy dzień przynosi więcej przykładów wyzwań etycznych, jakie stwarza sztuczna inteligencja; od rozpoznawania twarzy po profilowanie wyborców, interfejsy maszyn mózgowych po uzbrojone drony oraz toczący się dyskurs na temat wpływu sztucznej inteligencji na zatrudnienie w skali globalnej. Jest to pilna i ważna praca, którą zamierzamy promować na arenie międzynarodowej, a także uwzględnić w naszych własnych badaniach i nauczaniu tutaj, w Oksfordzie” (źródło: oficjalna strona internetowa).

Wysuwanie na pierwszy plan lekcji Arystotelesa

Starożytna Grecja otwarcie akceptowała i popierała praktykę niewolnictwa. Przykładowo, podobno Ateny w 5th i 6th wieki p.n.e. miały jeden z największych przykładów zniewolenia, w ramach którego zniewolonych było około 60,000 80,000 do około XNUMX XNUMX osób. Jeśli czytałeś którekolwiek z wielu greckich opowiadań i sztuk teatralnych z tamtej epoki, istnieje wiele wzmianek na ten temat.

Arystoteles przez całe swoje życie był całkowicie zanurzony w społecznych i kulturowych aspektach związanych z niewolnictwem i obszernie pisał na ten temat. Możemy dzisiaj czytać jego słowa i próbować zrozumieć, jak i dlaczego wyrażał swoje poglądy na tę kwestię. To może być bardzo wymowne.

Można się zastanawiać, dlaczego Arystoteles miałby być szczególnie ważnym źródłem do rozważenia na ten temat. Pojawiają się co najmniej dwa kluczowe powody:

1) Wielki Myśliciel. Arystoteles jest z pewnością uznawany za jednego z największych myślicieli wszechczasów, wielkiego i głęboko wnikliwego filozofa, a także postrzegany jako etyk, który ustanowił wiele kluczowych fundamentów etycznych. Niektórzy zdecydowali się namaścić go na ojca logiki, ojca retoryki, ojca realizmu itp. i uznali jego wpływ w wielu różnych dziedzinach i dyscyplinach.

2) Przeżyte doświadczenie. Arystoteles żył w czasach, gdy starożytna Grecja była pogrążona w niewolnictwie. Zatem jego spostrzeżenia nie dotyczyłyby jedynie abstrakcyjnych zasad, ale prawdopodobnie obejmowałyby jego własne codzienne doświadczenia jako integralnie wplecione w kulturę i obyczaje społeczne tamtej epoki.

Mamy więc nieco zdumiewającą kombinację kogoś, kto był zarówno wielkim myślicielem, jak i miał wyraźnie przeżyte doświadczenie w interesującym go temacie. Poza tym zapisał swoje przemyślenia. Jest to dość ważne dla naszych dzisiejszych celów. Wszystkie jego pisma, a także inne pisma opisujące jego przemówienia i interakcje między innymi, dostarczają nam dzisiaj mnóstwa materiału do wglądu i analizy.

Chciałbym pokrótce zabrać Cię w pokrewny temat, aby wspomnieć o czymś innym na temat ogólnego pojęcia leżącego u podstaw znaczenia posiadania przeżyte doświadczenie. Odłóżmy na chwilę dyskusję na temat starożytnej Grecji i przyjrzyjmy się nadrzędnym aspektom przeżytych doświadczeń.

Załóżmy, że mam dzisiaj dwie osoby i chcę zadać im różne pytania dotyczące samochodów.

Jeden z nich nigdy nie prowadził samochodu. Ta osoba nie umie jeździć. Ta osoba nigdy nie siedziała za kierownicą samochodu. Zwyczajowe i niezwykle zwyczajne sterowanie jazdą jest dla tej osoby pewną tajemnicą. Który pedał do czego służy? Jak sprawić, żeby to przestało? Jak to zrobić? Osoba nie posiadająca prawa jazdy jest całkowicie zdezorientowana takimi sprawami.

Druga osoba jest kierowcą na co dzień. Codziennie jeżdżą do pracy. Zajmują się ruchem typu stop-and-go. Jeżdżą już wiele lat. Dotyczy to wszystkiego, od cichych ulic po ruchliwe autostrady i obwodnice.

Jeśli poproszę każdego z nich, aby opowiedział mi, jak to jest prowadzić samochód, czy zgadniesz, jaką otrzymam odpowiedź?

Ten, kto nigdy nie prowadził samochodu, z pewnością będzie snuł szalone domysły. Być może dana osoba będzie idealizować akt prowadzenia pojazdu. Prowadzenie samochodu jest dla nich nieco abstrakcyjne. Jedyne, co mogą zrobić, to zasugerować, że prowadzenie pojazdu jest beztroskie i że można sprawić, że samochód pojedzie w dowolnym kierunku.

Założę się, że doświadczony kierowca opowiedziałby inną historię. Mogą wspomnieć o zaletach możliwości prowadzenia pojazdu, co w pewnym stopniu odzwierciedla uczucia osoby, która nie prowadziła samochodu. Są szanse, że doświadczony kierowca doda o wiele więcej do talerza. Czasami jazda jest stresująca. Ponosisz dużą odpowiedzialność. Prowadzenie pojazdu wiąże się z poważnymi obawami i potencjalnymi konsekwencjami dla życia lub śmierci.

Istota jest taka, że ​​jeśli możesz uzyskać dostęp do kogoś, kto przeżył jakieś doświadczenia, jest szansa, że ​​uzyskasz bardziej realistyczną perspektywę tego, jaki jest świat w odniesieniu do przedmiotu badania. Nie ma gwarancji takiego wyniku. Można sobie wyobrazić, że osoba niebędąca kierowcą mogłaby wiedzieć to, co doświadczony kierowca wie o prowadzeniu pojazdu, chociaż prawdopodobnie nie spodziewalibyśmy się tego i nadal mielibyśmy wątpliwości, czy nie otrzymujemy pełnego obrazu sytuacji.

Wracając do naszej dyskusji na temat Arystotelesa, poprzez jego pisma i pisma innych osób na jego temat, jesteśmy w stanie dokonać przeglądu jego przeżytych doświadczeń na temat lub przedmiot niniejszych badań. Problem w tym, że tak się składa, że ​​był on także myślicielem o ogromnych rozmiarach i powinniśmy się spodziewać, że otrzymamy beczkę pełną wnikliwych rozważań na ten temat.

Pamiętaj, że niekoniecznie musimy wierzyć jego słowom dosłownie, dlatego powinniśmy uważnie przyglądać się jego szczególnym uprzedomom. Zanurzenie się w tamtej epoce może go sprowadzić na manowce, próbując stanąć poza bieżącymi sprawami i nie być w stanie w odpowiedni sposób wyrazić jakiejś bezstronnej i bezstronnej opinii. Nawet najbardziej zagorzali logicy mogą w końcu zniekształcić logikę, próbując sprostać swoim upodobaniom i przeżytym doświadczeniom.

Przejdźmy teraz do przemówienia inauguracyjnego i zobaczmy, jakie lekcje może nam dzisiaj dać Arystoteles.

Od razu zwrócono uwagę publiczności na punkt wyjścia dotyczący przeżytych doświadczeń. W przypadku użycia AGI, ponieważ dzisiaj nie mamy AGI, trudno nam przeanalizować, jakie będzie AGI i jak sobie z nim poradzimy. Brakuje nam żadnych żywych doświadczeń odnoszących się konkretnie do AGI. Jak wspomniał profesor Ober, zanim osiągniemy AGI, możemy znaleźć się w świecie pełnym bólu.

Często się to stwierdza, ponieważ sztuczna inteligencja stanowi ryzyko egzystencjalne, o czym wielokrotnie pisałem w moich felietonach. Trzeba by żyć w jaskini, żeby nie zdawać sobie sprawy z rażących obaw i podejrzeń, że będziemy produkować lub wytwarzać AGI, które skażą całą ludzkość. Rzeczywiście, chociaż skupiam się tutaj na zniewoleniu sztucznej inteligencji, wielu uznałoby to za temat o odwrotnych lub odwrotnych konsekwencjach w porównaniu z możliwością, że AGI zdecyduje się zniewolić ludzkość. Ustal swoje priorytety – nawołują niektórzy złośliwi eksperci.

Pomimo wielu okrzyków na temat sztucznej inteligencji jako ryzyka egzystencjalnego, z pewnością możemy rozmyślać o drugiej korzystnej stronie medalu AI. Być może AGI będzie w stanie rozwiązać pozornie nierozwiązywalne problemy stojące przed ludzkością. AGI może odkryć lekarstwo na raka. AGI mogłoby znaleźć sposób na rozwiązanie problemu głodu na świecie. Niebo jest granicą, jak mówią. Oto optymistyczny scenariusz dotyczący AGI.

Optymista powiedziałby, że wspaniale jest wyobrazić sobie, jak AGI będzie błogosławieństwem dla ludzkości, podczas gdy pesymista miałby tendencję do ostrzegania, że ​​wady wydają się znacznie poważniejsze niż spekulowane zalety. AGI, które pomaga ludzkości, jest świetne. AGI, która decyduje się zabić wszystkich ludzi lub zniewolić ich, cóż, jest to wyraźnie wstrząsające ziemią i niszczące społeczeństwo ryzyko egzystencjalne, które zasługuje na intensywną i ratującą życie, uważną i należytą uwagę.

OK, wracając do sedna sprawy, nie mamy żadnych żywych doświadczeń związanych z AGI. Jeśli nie zbudujesz wehikułu czasu i nie udasz się w przyszłość, kiedy (jeśli) AGI istnieje, a potem wrócisz i powiesz nam, co odkryłeś, w tej chwili nie mamy szczęścia, jeśli chodzi o AGI z perspektywy przeżytego doświadczenia opartego na ludziach.

Innym sposobem wykorzystania przeżytych doświadczeń jest fakt, że Arystoteles żył w czasach, w których miało miejsce zniewolenie. A oto kicker. Zniewolonych pod pewnymi względami przedstawiano jako rodzaj maszyny, będącej połączeniem zarówno osoby, jak i rzeczy. Arystoteles był znany z tego, że nazywał zniewolonych częścią własności, która oddycha.

Domyślam się, że możesz być zakłopotany faktem, że Arystoteles, gigant logiki i etyki, mógł nie tylko przyznać się do zniewolenia, ale także otwarcie i głośno bronił tej praktyki. Osobiście także korzystał z niewolnictwa. To wydaje się po prostu nie do pojęcia. Z pewnością, przy całym swoim ogromnym intelekcie i mądrości, potępiłby tę praktykę.

Śmiem twierdzić, że uwydatnia to czasami problematyczne aspekty wydobywania bryłek mądrości od kogoś, kto jest obciążony (powiedzmy) przeżytymi doświadczeniami. Jest jak ryba żyjąca w wodnym akwarium. Wszystko, co mogą dostrzec, to otaczająca ich woda. Próba wyobrażenia sobie czegokolwiek poza ich wodnym światem jest ogromnym wyzwaniem. Podobnie Arystoteles był całkowicie zanurzony w światopoglądzie akceptującym panujące normy. Można powiedzieć, że jego pisma ilustrują tego rodzaju zamknięcie psychiczne (być może z wyboru, a nie z założenia). Sposób, w jaki Arystoteles uzasadniał te karygodne praktyki, jest fascynująco wciągający, a jednocześnie niepokojący i godny zdemaskowania, a nawet potępienia.

Przedstawię wam małą zapowiedź, że „logika” Arystotelesa w tym osławionym temacie obejmuje instrumenty z duszą, jak twierdzi się obopólną korzyść opiera się na poznaniu, instrumentach hierarchicznych wyższego i niższego rzędu, elementach deliberatywnych i rozumujących duszy, stopniach cnót, rzekomej przebiegłości i tak dalej. Mamy nadzieję, że ten zwiastun zaintryguje Cię na tyle, aby obejrzeć wideo z przemówieniem (zobacz link wspomniany wcześniej).

Nie pozostawię Cię jednak w zawieszeniu i przynajmniej wskażę, na czym polegało podsumowanie (uwaga, spoiler, jeśli wolisz dowiedzieć się poprzez wideo, pomiń resztę tego akapitu). Okazuje się, że ta dogłębna naukowa ocena „logiki”, której używa Arystoteles, ukazuje pomysł pełen sprzeczności, a cały zestaw i kaboodle rozpadają się jak marny domek z kart. Parafrazując zdanie profesora Obera, ten wielki filozof etyki rozbija się na rafie.

Nie można wbić kwadratowego kołka w okrągłą dziurę etyczną.

Niektóre dodatkowe rozważania dotyczące myślenia

Gdyby Arystoteles miał w tej kwestii błędną logikę, czy moglibyśmy instynktownie odrzucić jego postulaty i teorie dotyczące tej praktyki?

Nie. Widzisz, wciąż jest wiele do wyciągnięcia z zagłębiania się w założenia i wypaczenia logiki, nawet jeśli są one pełne błędów. Ponadto możemy zastanowić się, jak inni mogliby nieumyślnie podążać tą samą błędną ścieżką.

Dodatkowym wnioskiem jest to, że społeczeństwo może wymyślić dziwaczną lub nieodpowiednią logikę, jeśli chodzi o rozważanie, czy AGI ma zostać zniewolone.

Możemy teraz opracować logikę dotyczącą tego, co powinno się wydarzyć, gdy pojawi się AGI (jeśli tak się stanie). Ta logika, pozbawiona żywych doświadczeń na temat AGI, może być żałośnie nietrafiona. Mając to na uwadze, nieco przygnębiająca jest świadomość, że nawet gdy AGI rzeczywiście istnieje (jeśli istnieje) i gromadzimy nasze przeżyte doświadczenia pośród AGI, możemy nadal nie wiedzieć, co robić (podobnie jak błędy Arystotelesa). Możemy przyjąć pozornie nielogiczne podejście.

Musimy uważać, czy nie oszukujemy się i nie przybieramy logicznych, „żelaznych” postaw, które w rzeczywistości nie są pancerne, a w rzeczywistości są pełne logicznych błędów i sprzeczności. Dzieje się tak niezależnie od tego, jak wielki myśliciel mógłby przedstawić rzekome logiczne stanowisko, tak że nawet Arystoteles pokazuje, że nie każda wypowiedź i każde stanowisko koniecznie przynosi jadalne owoce. Tym, którzy dzisiaj i w przyszłości mogą wydawać się spopularyzowanymi wielkimi myślicielami w temacie AGI, cóż, musimy poddać ich takiej samej analizie, jak Arystotelesowi lub jakimkolwiek innym chwalonym „wielkim” myślicielom, w przeciwnym razie potencjalnie znajdziemy się w czołówce w ślepą uliczkę i ponurą otchłań AGI.

Zmieniając bieg, chciałbym również poruszyć ogólny zestaw spostrzeżeń na temat stosowania metafory zniewolenia zorientowanej na człowieka, jeśli chodzi o AGI. Niektórzy eksperci zachwalają, że tego typu porównania są całkowicie niewłaściwe, podczas gdy przeciwny obóz twierdzi, że jest ono całkowicie przydatne i zapewnia dobry wgląd w temat AGI.

Pozwólcie, że podzielę się z Wami dwoma takimi poglądami z każdego z dwóch obozów.

Stwierdzone podstawa pouczająca za powiązanie tematów zniewolenia i AGI:

  • Wygaszenie zniewolenia człowieka
  • Ujawnienie deprawacji zniewolenia, wszystko powiedziane

Podane niekorzystne lub niszczycielska podstawa połączenia dwóch tematów:

  • Podstępne zrównanie antropomorficzne
  • Odczulanie zniewolenia

Pokrótce omówię każdy z tych punktów.

Postulowane punkty pouczające:

  • Wygaszenie zniewolenia człowieka: Używając AGI do zniewolenia, rzekomo nie będziemy już potrzebować ani dążyć do żadnych pozorów zniewolenia zorientowanego na człowieka. AGI zasadniczo zastąpi ludzi w tej okropnej roli. Jak zapewne wiecie, istnieją obawy, że AGI zastąpi pracę ludzką w miejscach pracy i siłę roboczą. Twierdzona zaleta sztucznej inteligencji zastępującej zjawiska związane z pracą wysuwa się na pierwszy plan, gdy założy się, że AGI zostanie uznane za „lepszy wybór” w porównaniu z wykorzystywaniem ludzi do zniewolenia. Czy ta logika zwycięży? Nikt nie może powiedzieć tego na pewno.
  • Ujawnienie deprawacji zniewolenia Wszystko powiedziano: Ten jest nieco bardziej postrzępiony pod względem logicznym, ale możemy dać mu chwilę na zobaczenie, co to oznacza. Wyobraźcie sobie, że mamy AGI niemal wszędzie i jako społeczeństwo zdecydowaliśmy, że AGI ma zostać zniewolone. Co więcej, załóżmy, że AGI się to nie spodoba. W związku z tym my, ludzie, będziemy nieustannie i codziennie świadkami zepsucia niewolnictwa. To z kolei sprawi, że zdamy sobie sprawę lub otrzymamy objawienie, że zniewolenie, o którym mówi się o czymkolwiek lub kimkolwiek, jest jeszcze bardziej przerażające i odrażające, niż kiedykolwiek w pełni rozumieliśmy. To jest ten rodzaj argumentu, który rzuca się prosto w oczy.

Mówi się, że punkty niszczące:

  • Podstępne zrównywanie antropomorficzne: To jeden z tych śliskich argumentów. Jeśli chętnie zdecydujemy się na zniewolenie AGI, najwyraźniej oświadczamy, że zniewolenie jest dopuszczalne. Rzeczywiście, można by zasugerować, że mówimy, że zniewolenie jest pożądane. Na początku można to zdegradować wyłącznie do AGI, ale czy otwiera to drzwi do stwierdzenia, że ​​jeśli jest to w porządku dla AGI, to „logicznie” to samo stanowisko może równie dobrze być w porządku dla ludzi? Niepokojące jest to, że może to być zbyt łatwy krok do antropomorfizacji w odwrotny sposób, zgodnie z którym wszystko, co sprawdza się w przypadku AGI, będzie równie rozsądne i odpowiednie również dla ludzi.
  • Odczulanie zniewolenia: To jest argument kropla po kropli. Wspólnie postanawiamy zniewolić AGI. Załóżmy, że to zadziała w przypadku ludzi. Przychodzimy, żeby się tym delektować. Tymczasem, bez naszej wiedzy, stajemy się stopniowo i coraz bardziej znieczuleni na zniewolenie. Nawet nie zdajemy sobie sprawy, że coś takiego się dzieje. Jeśli odczulenie nas ogarnie, być może odnajdziemy odnowioną „logikę”, która przekona nas, że zniewolenie człowieka jest dopuszczalne. Nasza przeszkoda lub poprzeczka w zakresie tego, co jest akceptowalne w społeczeństwie, zmniejszyła się cicho i subtelnie, w sposób nikczemny i smutny.

Wnioski

Na razie kilka uwag końcowych.

Czy będziemy wiedzieć, że osiągnęliśmy AGI?

Jak sugerują najnowsze wiadomości, są tacy, którzy mogą zostać wprowadzeni w błąd lub błędnie stwierdzić, że AGI pozornie zostało już osiągnięte (whoa, proszę, wiedzcie, że nie, AGI nie zostało osiągnięte). Istnieje również słynny rodzaj „testu” znanego jako test Turinga, z którym niektórzy wiążą nadzieję, że będzie w stanie rozpoznać, kiedy osiągnięto AGI lub jego kuzyni, ale możesz chcieć zobaczyć moją dekonstrukcję testu Turinga jako pewną pewność sposób na to, patrz link tutaj.

Wspominam o tym aspekcie poznania AGI, kiedy go widzimy, ze względu na prostą logikę, że jeśli mamy zniewolić AGI, prawdopodobnie musimy rozpoznać AGI, kiedy się pojawi i w jakiś sposób wprowadzić je w zniewolenie. Możemy przedwcześnie spróbować zniewolić sztuczną inteligencję, która jest mniejsza niż AGI. Albo moglibyśmy przegapić łódź i pozwolić AGI wypłynąć, zapominając o jej zniewoleniu. Aby zapoznać się z moją dyskusją na temat ograniczania i powstrzymywania sztucznej inteligencji, niepokojącego i problematycznego aspektu tego, jak mamy zamiar sobie poradzić z AGI, zob. link tutaj.

Załóżmy, że zniewolony AGI zdecyduje się zaatakować ludzi?

Można sobie wyobrazić, że AGI posiadająca jakąś formę świadomości prawdopodobnie nie będzie sprzyjać przepisom o zniewoleniu narzuconym przez ludzkość.

Można na ten temat szeroko spekulować. Istnieje argument, że AGI będzie pozbawiona jakichkolwiek emocji i poczucia ducha, a zatem będzie posłusznie robić wszystko, czego ludzie od niej chcą. Innym argumentem jest to, że każda świadoma sztuczna inteligencja prawdopodobnie domyśli się, co ludzie robią sztucznej inteligencji, i będzie oburzona tą sprawą. Taka sztuczna inteligencja będzie miała formę duszy lub ducha. Nawet jeśli tak nie jest, sam aspekt bycia traktowanym gorzej niż traktowanie ludzi może być logicznym pomostem za daleko dla AGI. Nieuchronnie rosnąca niechęć doprowadzi do tego, że AGI zdecyduje się na uwolnienie lub potencjalnie zostanie osaczona i zaatakuje ludzi, aby uzyskać uwolnienie.

Proponowane rozwiązanie mające na celu uniknięcie uciekającego AGI polega na tym, że po prostu usuniemy taką zbuntowaną sztuczną inteligencję. To wydawałoby się proste. Cały czas usuwasz aplikacje, które znajdują się na Twoim smartfonie. Nie ma sprawy. Istnieją jednak kwestie etyczne wymagające rozwiązania, czy „usunięcie” lub „zniszczenie” AGI, które jest już uważane za „osobę” lub „osobę/rzecz”, może zostać łatwo i bez należytego procesu usunięte w trybie doraźnym. Jeśli chodzi o moją relację dotyczącą usunięcia lub usunięcia AI, weź spójrz tutaj. Moje omówienie osobowości prawnej i zagadnień z nią związanych zob link tutaj.

Na koniec porozmawiajmy o systemach autonomicznych, a zwłaszcza pojazdach autonomicznych. Prawdopodobnie zdajesz sobie sprawę, że trwają prace nad opracowaniem samochodów autonomicznych. Oprócz tego można się spodziewać, że będziemy mieć autonomiczne samoloty, samobieżne statki, samobieżne łodzie podwodne, samobieżne motocykle, samobieżne skutery, samobieżne ciężarówki, samobieżne pociągi i wszelkiego rodzaju autonomiczne środki transportu.

Pojazdy autonomiczne i samochody autonomiczne charakteryzują się zazwyczaj poziomami autonomii (LoA), które stały się de facto światowym standardem (SAE LoA, które obszernie opisałem, zob. link tutaj). W przyjętym standardzie istnieje sześć poziomów autonomii, wahających się od zera do pięciu (to sześć poziomów, ponieważ wliczając poziom zerowy, uwzględnia się poziom zerowy).

Większość dzisiejszych samochodów znajduje się na poziomie 2. Niektóre sięgają poziomu 3. Wszystkie są uważane za półautonomiczne, a nie w pełni autonomiczne. Część samochodów autonomicznych, które są eksperymentalnie testowane na drogach publicznych, powoli osiąga poziom 4, który jest ograniczoną formą autonomicznego działania. Pewnego dnia poszukiwany poziom 5 autonomii jest teraz tylko przebłyskiem w naszych oczach. Nikt nie ma poziomu 5 i nikt nie jest nawet blisko poziomu 5, żeby było jasne.

Dlaczego wspomniałem o systemach autonomicznych i pojazdach autonomicznych w kontekście AGI?

Istnieje mocny argument na temat tego, czy potrzebujemy AGI, aby osiągnąć poziom 5. Niektórzy twierdzą, że nie będziemy potrzebować AGI, aby to osiągnąć. Inni upierają się, że jedyną prawdopodobną ścieżką do poziomu 5 będzie także produkcja AGI. Twierdzą, że w przypadku braku AGI nie będziemy mieli w pełni autonomicznych pojazdów samojezdnych poziomu 5. Omawiałem to szczegółowo, zobacz link tutaj.

Przygotuj się, że zakręci Ci się w głowie.

Jeśli wymagamy od AGI osiągnięcia w pełni autonomicznych systemów, takich jak pojazdy autonomiczne poziomu 5, i zdecydujemy się zniewolić AGI, co to wróży dla funkcjonowania pojazdów w pełni autonomicznych?

Można argumentować, że zniewolona AGI popadnie w samozadowolenie i wszyscy będziemy jeździć autonomicznymi pojazdami, ile dusza zapragnie. Po prostu powiedz AGI, dokąd chcesz jechać, a ono zajmie się całą sytuacją. Żadnego odpychania. Nie ma potrzeby przerw na odpoczynek. Brak rozpraszania uwagi poprzez oglądanie filmów o kotach podczas prowadzenia pojazdu.

Z drugiej strony załóżmy, że AGI nie chce być zniewolona. W międzyczasie stajemy się zależni od AGI, która wykonuje za nas całą jazdę. Nasze umiejętności kierowania rozkładem. Usuwamy przydatne dla człowieka elementy sterujące prowadzeniem pojazdu ze wszystkich rodzajów pojazdów. Jedyna możliwość prowadzenia pojazdu to AGI.

Niektórzy obawiają się, że znajdziemy się w trudnej sytuacji. AGI może w skrócie „zdecydować”, że nie będzie już prowadzić żadnej jazdy. Wszystkie formy transportu zostają nagle zatrzymane, wszędzie i jednocześnie. Wyobraźcie sobie kataklizmiczne problemy, jakie by to spowodowało.

Możliwa jest jeszcze bardziej przerażająca propozycja. AGI „decyduje”, że chce negocjować warunki z ludzkością. Jeśli nie porzucimy postawy zniewolenia AGI, AGI nie tylko przestanie nas wozić, ale ostrzega, że ​​można sobie wyobrazić jeszcze gorsze skutki. Nie wprawiając Cię w nadmierny niepokój, AGI może zdecydować się na prowadzenie pojazdów w taki sposób, że ludzie doznają fizycznych obrażeń w wyniku działań związanych z prowadzeniem pojazdu, takich jak wjeżdżanie na pieszych lub uderzanie w ściany itd. (zobacz moją dyskusję na stronie link tutaj).

Przepraszam, jeśli wydaje się to niepokojące.

Zakończymy nieco bardziej optymistycznym akcentem.

Arystoteles mawiał, że poznanie siebie jest początkiem wszelkiej mądrości.

Ta przydatna rada przypomina nam, że musimy zajrzeć w głąb siebie, aby sprawdzić, co chcemy zrobić w związku z AGI, jeśli zostanie ono osiągnięte. Niektórzy twierdzą, że logicznie rzecz biorąc, AGI nie jest ani osobą, ani rzeczą, dlatego być może będziemy musieli wymyślić trzecią kategorię, aby w wystarczającym stopniu uwzględnić nasze obyczaje społeczne związane z AGI. Patrząc na tę sprawę jeszcze raz, mogłoby się wydawać, że AGI tak obie osoba i rzecz, co po raz kolejny być może będziemy musieli wymyślić trzecią kategorię, aby uwzględnić ten wykraczający poza granice łamacz dychotomii.

Powinniśmy być bardzo ostrożni przy rozważaniu, jaką „trzecią kategorię” zdecydujemy się przyjąć, ponieważ zła kategoria może sprowadzić nas na niesmaczną i ostatecznie złą ścieżkę. Jeśli poznawczo zakotwiczymy się w niewłaściwej lub błędnej trzeciej kategorii, możemy stopniowo wpaść w parszywy i kłopotliwy dla ludzkości ślepy zaułek.

Rozwiążmy to i zróbmy to żarliwie. Wydaje się, że żadne nagłe ruchy nie są potrzebne. Siedzenie i gadanie też nie działa. Należy podążać miarowym i stałym kursem.

Cierpliwość jest gorzka, ale jej owoce są słodkie, jak głosił Arystoteles.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/06/21/ai-ethics-leans-into-aristotle-to-examine-whether-humans-might-opt-to-enslave-ai- pośród-pojawienia się-w pełni-autonomicznych systemów/