Etyka AI surowo kwestionuje klonowanie ludzkiego głosu, takie jak klonowanie głosu twoich zmarłych krewnych, przeznaczone do użytku w autonomicznych systemach AI

Ups, pozornie fajny kawałek nowej technologii wpakował siebie i swojego twórcę w gorący temat.

Mam na myśli pojawienie się klonowania ludzkiego głosu w oparciu o sztuczną inteligencję jako nową technologię, która ostatnio trafiła na pierwsze strony gazet. W tym przypadku firmą jest Amazon i jej stale rozwijająca się Alexa.

Czytelnicy mojego felietonu mogą pamiętać, że już wcześniej opisywałem niestosowne bu-ku, które miało miejsce, gdy doniesiono, że Alexa zachęcała nastolatka do włożenia grosza do gniazdka elektrycznego (nie rób tego!). Zobacz moją relację na stronie link tutaj. W tej sytuacji na szczęście nikomu nic się nie stało, a skutkiem było to, że najwyraźniej system Alexa AI wychwycił wcześniejszy trend wirusowy i bez cienia zdrowego rozsądku po prostu powtórzył tę szaloną sugestię, gdy został poproszony o zrobienie czegoś fajnego dziecko w interakcji z Alexą. Podkreśla to obawy etyki sztucznej inteligencji, że jesteśmy zalewani sztuczną inteligencją, której brakuje całkowicie zdrowego rozsądku, co stanowi szczególnie trudny problem, przed którym stoi sztuczna inteligencja, która w dalszym ciągu przeciwstawia się wysiłkom ucieleśnienia się w sztucznej inteligencji (dla mojej analizy dotyczącej zdrowego rozsądku opartego na sztucznej inteligencji wysiłki, zob link tutaj).

Najnowsza aktualizacja polega na klonowaniu głosu, znanym również jako replikacja głosu. Najnowsze osiągnięcia takich technologii i sztucznej inteligencji podnoszą pilne kwestie dotyczące etyki i etyki sztucznej inteligencji. Aby zapoznać się z moim bieżącym, ogólnym opisem etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zob link tutaj i link tutaj, żeby wymienić tylko kilka.

Klonowanie głosu w oparciu o sztuczną inteligencję to prosta koncepcja.

System sztucznej inteligencji jest zaprogramowany do nagrywania dźwięku niektórych wypowiadanych słów. Następnie sztuczna inteligencja próbuje obliczyć wzorce mowy. Na podstawie wykrytych wzorców mowy sztuczna inteligencja próbuje następnie wyemitować mowę dźwiękową, która brzmi dokładnie tak, jak Ty. Trudną częścią jest to, że mowa obejmuje słowa, których wcześniej nie dostarczyłeś AI jako próbki audio. Innymi słowy, sztuczna inteligencja musi matematycznie oszacować, w jaki sposób słowa mogą zostać wypowiedziane przez Ciebie. Obejmuje to wszystkie cechy mowy, takie jak ton, wznoszenie i obniżanie głosu, tempo lub szybkość mówienia i tak dalej.

Kiedy słyszysz, jak ktoś próbuje podszywać się pod innego człowieka, zazwyczaj możesz rozpoznać, że jest to podszywanie się. Na krótką metę, gdy podszywający się użyje zaledwie kilku słów, rozpoznanie, że głos nie jest oryginalnym mówcą, może być trudne. Co więcej, jeśli osoba podszywająca się naśladuje słowa, które faktycznie wypowiedział pierwotny mówca, istnieje prawdopodobieństwo, że uda mu się dostroić swój własny głos do głosu drugiej osoby, bardziej w przypadku tej konkretnej wypowiedzi.

Zwięzłość i usłyszenie dokładnie tych samych słów może pozwolić komuś na złapanie podszywania się.

Wyzwaniem staje się zakrywanie słów, których druga osoba nie wypowiedziała, lub takich, w przypadku których odtwórca nigdy nie słyszał, jak dana osoba wypowiadała te konkretne słowa. Nie masz pojęcia, jak naśladowana osoba powiedziałaby te słowa. Dobra wiadomość jest taka, że ​​jeśli ktokolwiek inny słuchający podszywającego się również nie wie, jak pierwotna osoba wypowiedziałaby te słowa, podszywający się może znajdować się stosunkowo daleko od prawdziwego głosu, a mimo to nadal sprawiać wrażenie eleganckiego i celnego.

Chciałbym także na chwilę usunąć z równania maniery i fizyczny ruch personifikacji. Widząc podszywacza, możesz być zachwycony, jeśli potrafi on marszczyć twarz lub machać rękami w sposób, który również naśladuje osobę, pod którą się podszywa. Dodatkowe wskazówki dotyczące ciała i twarzy zwiodą twój umysł i pomyślą, że głos również jest martwy, nawet jeśli tak nie jest. Purysta zajmujący się podszywaniem się pod głos nalegałby, aby jako kryterium ustalania, czy głos trafnie naśladuje podszywaną osobę, należy stosować wyłącznie sam głos.

Z pewnością widziałeś różne filmy zawierające deepfake, które krążą obecnie w mediach społecznościowych. Ktoś sprytnie zmienia ustawienia wideo, tak aby w filmie pojawiła się twarz innej osoby, nakładając twarz innej osoby z oryginalnego nagrania. Zwykle towarzyszy temu również deepfake na głosie. Dostajesz podwójne uderzenie, polegające na wizualnej zmianie wideo za pomocą deepfake AI i zmianie dźwięku za pomocą deepfake AI.

Na potrzeby niniejszej dyskusji skupiam się wyłącznie na aspektach dźwięku typu deepfake opartych na sztucznej inteligencji, które, jak wspomniano wcześniej, są powszechnie określane jako klonowanie głosu lub replikacja głosu. Niektórzy bezczelnie nazywają to głosem w puszce.

Jestem pewien, że niektórzy z Was właśnie teraz nawołują, że od dłuższego czasu mamy możliwość wykorzystania programów komputerowych do klonowania głosów. To nie jest nic nowego samo w sobie. Zgadzam się. Jednocześnie musimy przyznać, że możliwości tej zaawansowanej technologii są coraz lepsze. No cóż, mówię coraz lepiej, ale może, jak za chwilę zobaczycie, powinienem powiedzieć, że jest to coraz bardziej niepokojące.

Trzymaj się tej myśli.

Możliwości technologiczne z pewnością postępują w zakresie klonowania głosu. Na przykład kiedyś trzeba było „wyszkolić” program do replikacji dźwięku AI, opowiadając całą historię związaną z mieszaniem i dopasowywaniem słów. Podobnie jak w przypadku słynnego lub niesławnego wersu o szybkim brązowym lisie, który przeskoczył leniwego psa (wiersz mający na celu nakłonienie kogoś do zakrycia wszystkich liter alfabetu), istnieją specjalnie przygotowane opowiadania, które zawierają mieszankę słów na potrzeby nakłonienie Cię do wypowiedzenia wystarczającej liczby słów i wystarczająco dużej różnorodności słów, aby dopasowanie wzorca AI było o wiele łatwiejsze.

Być może będziesz musiał przeczytać kilka stron słów, często zawierających słowa, których wymówienie sprawia ci trudność i nawet nie jesteś pewien, co znaczą, aby w wystarczającym stopniu umożliwić dopasowanie wzorca AI. Zapewnienie sztucznej inteligencji wystarczającej ilości dźwięku do znalezienia odrębnych wzorców głosu może zająć wiele minut, a czasem godzin. Jeśli skróciłeś tę aktywność szkoleniową, istniało ryzyko, że powstała w ten sposób replikacja głosu zostanie z łatwością zniszczona przez Twoich znajomych, którzy dobrze znają Twój głos.

OK, zainteresowanie twórców sztucznej inteligencji skupiało się wówczas na optymalizacji aspektów replikacji dźwięku. Twórcy sztucznej inteligencji lubią wyzwania. Mówi się, że w głębi serca są optymalizatorami. Daj im problem, a zaczną optymalizować, niezależnie od tego, dokąd to może prowadzić (wspominam o tym jako zapowiedź, która wkrótce stanie się jaśniejsza).

Odpowiedz mi na to:

  • Jaka jest najmniejsza ilość próbki audio, która byłaby wymagana do maksymalnego sklonowania głosu danej osoby i dla której próbką audio może być prawie dowolny losowo dozwolony zestaw słów, a jednocześnie pozwalać na klonowanie głosu w celu wytworzenia prawie wszystkich słów, jakie kiedykolwiek zostaną wypowiedziane przez docelowy głos i brzmi zasadniczo identycznie z głosem tej osoby w wybranym przez Ciebie kontekście konwersacyjnym lub innym kontekście?

Jest tam dużo do rozpakowania.

Pamiętaj, że potrzebujesz minimalnej próbki audio, która maksymalnie sklonuje głos, tak aby powstałe wypowiedzi AI w tym teraz automatycznie replikowanym głosie wydawały się całkowicie nie do odróżnienia od rzeczywistej osoby. To jest trudniejsze niż myślisz.

To prawie jak w tym teleturnieju, w którym musisz spróbować nazwać piosenkę na podstawie najmniejszej liczby usłyszanych nut. Im mniej zagranych nut, tym trudniej odgadnąć, która to piosenka. Jeśli Twoje przypuszczenie jest błędne, tracisz punkty lub przegrywasz grę. Następuje walka o to, czy powinieneś użyć tylko jednej nuty, najmniejszej możliwej wskazówki, ale wtedy prawdopodobieństwo odgadnięcia piosenki prawdopodobnie znacznie się zmniejsza. Im więcej nut usłyszysz, tym większe jest prawdopodobieństwo odgadnięcia właściwej piosenki, ale dajesz też innym uczestnikom większą szansę na odgadnięcie.

Pamiętaj, że w przypadku klonowania głosu mamy do czynienia również z pojęciem przepisanych słów, a nie dowolnych słów. Jeśli ktoś powie słowa „Nie poradzisz sobie z prawdą”, a my chcemy, aby sztuczna inteligencja naśladowała tę osobę lub podszywała się pod nią, sztuczna inteligencja obliczeniowa prawdopodobnie z łatwością wychwyci ten wzorzec. Z drugiej strony, załóżmy, że mamy tylko te słowa wypowiedziane przez tę osobę: „Czy to wszystko, o co musisz mnie zapytać” i chcemy użyć tych słów, aby sztuczna inteligencja powiedziała: „Nie możesz znieść prawdy”. Myślę, że widać trudność uczenia się na jednym zestawie słów i konieczności ekstrapolacji na zupełnie inny zestaw słów.

Kolejnym uciążliwym elementem jest kontekst wypowiadanych słów. Załóżmy, że poprosimy Cię o nagranie zdania, gdy będziesz spokojny i spokojny. AI wzoruje się na tych słowach. Może również wzorować się na spokoju Twojego głosu. Wyobraź sobie, że chcemy, aby sztuczna inteligencja udawała, że ​​to ty, kiedy krzyczysz wściekły i wściekły jak szerszeń. Zniekształcenie przez sztuczną inteligencję oryginalnego wzorca w dokładnie wyrażającą gniew wersję Twojego głosu może być zniechęcające.

Jakie minima mamy na myśli?

Celem na ten moment jest złamanie znaku minutowego.

Chwyć nagrany głos, dla którego masz mniej niż minutę dźwięku, i poproś sztuczną inteligencję, aby wykonała całe niesamowite klonowanie głosu wyłącznie na podstawie tej maleńkiej próbki. Chcę wyjaśnić, że prawie każdy może skomponować sztuczną inteligencję, która będzie w stanie to zrobić ogólnie w mniej niż minutę, chociaż powstały klon głosu jest słaby i można go łatwo wykryć jako niekompletny. Ponownie wyraźnie i stanowczo twierdzę, że czas próbkowania jest minimalny i w międzyczasie klonowanie głosu jest maksymalne. Dolt może osiągnąć minimalne próbkowanie, jeśli pozwoli się mu być rażąco submaksymalnym w klonowaniu głosu.

To zabawne i ekscytujące wyzwanie technologiczne. Być może zastanawiasz się jednak nad wartością i zaletami takiego działania. W jakim celu szukamy? Jakich korzyści dla ludzkości możemy się spodziewać, będąc w stanie tak wydajnie i skutecznie replikować głos w oparciu o sztuczną inteligencję?

Chcę, żebyś przemyślał to mięsiste pytanie.

Zła odpowiedź może wpędzić Cię w kupę papki.

Oto coś, co wydaje się optymistyczne i całkowicie pozytywne.

Załóżmy, że możemy mieć dawne nagrania znanych osób, takich jak Abraham Lincoln, i moglibyśmy wykorzystać te zakurzone fragmenty audio do stworzenia klona głosu opartego na sztucznej inteligencji. Następnie mogliśmy usłyszeć, jak Lincoln przemawiał w Gettysburgu, jakbyśmy byli tam w dniu, w którym wygłosił pamiętną przemowę sprzed czterdziestu i siedmiu lat. Na marginesie, niestety nie posiadamy żadnych nagrań dźwiękowych głosu Lincolna (technologia jeszcze nie istniała), ale posiadamy nagrania głosu prezydenta Benjamina Harrisona (pierwszego z prezydentów USA, któremu nagrano głos ) i późniejsi inni prezydenci.

Wierzę, że wszyscy prawdopodobnie zgodzimy się, że to specyficzne zastosowanie klonowania głosu w oparciu o sztuczną inteligencję jest całkowicie w porządku. Tak naprawdę prawdopodobnie byśmy tego bardziej chcieli, niż gdyby dzisiejszy aktor próbował udawać, że mówi jak Lincoln. Aktor prawdopodobnie zmyślał, jak według nich brzmiał prawdziwy głos Lincolna. Byłaby to fabrykacja, być może bardzo odległa od głosu Lincolna. Zamiast tego, dzięki zastosowaniu dobrze wykwalifikowanego systemu klonowania głosu AI, nie byłoby dyskusji na temat tego, jak naprawdę brzmiał głos Lincolna. Sztuczna inteligencja byłaby zgodna z faktami, przynajmniej w zakresie, w jakim jest dobra w replikowaniu docelowego głosu.

W kategorii dobroci dotyczącej klonowania głosu AI możemy odnieść zwycięstwo dzięki tego rodzaju przypadkom użycia.

Nie chcę być ponury, ale nawet to pozornie pozytywne użycie ma wadę.

Ktoś używa systemu klonowania głosu AI, aby odgadnąć głos Theodore’a Roosevelta („Teddy”), naszego cennego 26th Prezydent Stanów Zjednoczonych, przyrodnik, działacz na rzecz ochrony przyrody, mąż stanu, pisarz, historyk i niemal powszechnie nazywany osobą cenioną. Przemówienia, które wygłosił, a dla których nie posiadamy żadnych historycznie zachowanych wersji audio, można teraz „wygłaszać” tak, jakby on osobiście przemawiał dzisiaj. Godna pochwały zachęta do studiowania historii.

Zmieńmy to na brzydkie, po prostu w celu ujawnienia jego wad.

Używamy klona głosu opartego na Teddy AI, aby przeczytać przemówienie wygłoszone przez złego dyktatora. Sztuczna inteligencja nie przejmuje się tym, co mówi, ponieważ nie ma w niej pozorów świadomości. Słowa to po prostu słowa, a ściślej mówiąc, po prostu kłęby dźwięku.

Możesz być zdumiony, że ktoś zrobił coś tak podstępnego. Dlaczego, do cholery, sklonowany głos znanego i szanowanego Theodore'a Roosevelta oparty na sztucznej inteligencji miałby zostać użyty do wygłoszenia przemówienia, którego Teddy nie tylko pierwotnie nie wygłosił, ale w dodatku wypowiada się na temat przedstawiający jakąś niegodziwość nikczemnego człowieka dyktator?

Oburzające, można by zawołać.

Łatwo to zrobić, brzmi odpowiedź.

Zasadniczo bardzo ważną obawą związaną z replikacją głosu w oparciu o sztuczną inteligencję jest to, że nagle zostaniemy zalani fałszywymi przemówieniami i wypowiedziami, które nie mają nic wspólnego z żadnymi faktami ani dokładnościami historycznymi. Jeśli wystarczająco dużo z nich zostanie stworzonych i ogłoszonych, możemy mieć wątpliwości co do tego, co jest faktem, a co fikcją.

Można doskonale zobaczyć, jak mogłoby to nastąpić. Używając klona głosu opartego na sztucznej inteligencji, ktoś nagrywa przemówienie Woodrowa Wilsona, którego tak naprawdę nigdy nie wygłosił. To jest publikowane w Internecie. Ktoś inny słyszy nagranie i wierzy, że jest prawdziwe. Zamieszczają to gdzie indziej, wspominając, że znaleźli to wspaniałe historyczne nagranie Woodrowa Wilsona. Wkrótce uczniowie na lekcjach historii będą korzystać z wersji audio zamiast czytać pisemną wersję przemówienia.

Nikt nie dowie się ostatecznie, czy przemówienie wygłosił Woodrow Wilson, czy nie. Może tak było, może nie, i wszyscy uważają, że to tak naprawdę nie ma znaczenia (cóż, ci, którzy nie skupiają się na historycznej dokładności i faktach). Oczywiście, jeśli przemówienie jest nikczemne, powoduje to błędne wyobrażenie lub dezinformację na temat tej postaci historycznej. Historia i fikcja łączą się w jedno.

Mam nadzieję, że jesteście przekonani, że jest to wada związana z klonowaniem głosu w oparciu o sztuczną inteligencję.

Ponownie, możemy już robić tego typu rzeczy, robiąc to bez nowszej i ulepszonej replikacji głosu opartej na sztucznej inteligencji, ale stanie się to łatwiejsze, a powstały dźwięk będzie niezwykle trudny do odróżnienia pomiędzy prawdziwym a fałszywym. Obecnie, korzystając z konwencjonalnych programów do produkcji dźwięku, zazwyczaj można odsłuchać sygnał wyjściowy i często łatwo stwierdzić, że dźwięk jest sfałszowany. Wraz z postępem sztucznej inteligencji wkrótce nie będziesz już w stanie wierzyć własnym uszom w pewnym sensie.

Choć klonowanie głosów postaci historycznych może być szkodliwe, musimy przemyśleć być może szczególnie rażące zastosowania, które dotyczą współczesnych żyjących ludzi.

Po pierwsze, czy słyszałeś kiedyś o dość popularnym oszustwie polegającym na podszywaniu się pod szefa lub jego odpowiedniku? Kilka lat temu panowała niepokojąca moda na dzwonienie do restauracji lub sklepu i udawanie szefa lokalu. Fałszerstwo polegałoby na nakazaniu pracownikowi, aby zrobił absurdalne rzeczy, które często posłusznie robili, mając fałszywe przekonanie, że rozmawiają ze swoim szefem.

Nie chcę dać się wciągnąć w tego rodzaju wściekłe czyny, ale inne istotne dotyczy dzwonienia do kogoś, kto może być niedosłyszący, i udawania, że ​​jest jego wnukiem lub wnuczką. Podszywający się próbuje przekonać dziadka, aby przekazał pieniądze na pomoc lub może w jakiś sposób je uratował. Sądząc po podrobionym głosie, dziadek zostaje oszukany. Podły. Haniebny. Smutny.

Wkrótce wkroczymy w erę, w której klonowanie głosu w oparciu o sztuczną inteligencję umożliwi, na sterydach, pojawienie się oszustw i oszustw związanych z głosem. Sztuczna inteligencja wykona tak niezwykłą pracę polegającą na replikacji głosu, że każdy, kto go usłyszy, złoży przysięgę, że to rzeczywista osoba mówiła.

Jak daleko to może zajść?

Niektórzy obawiają się, że do wypuszczenia, powiedzmy, broni atomowej i ataków wojskowych może dojść w wyniku użycia klonu głosu opartego na sztucznej inteligencji, który wmawia innym, że bezpośredni rozkaz wydaje oficer wojskowy najwyższego szczebla. To samo można powiedzieć o każdym, kto zajmuje ważne stanowisko. Użyj niezwykle dokładnego klona głosu AI, aby nakłonić dyrektora banku do uwolnienia milionów dolarów w funduszach, opierając się na przekonaniu, że rozmawia z danym klientem bankowym.

W przeszłości robienie tego za pomocą sztucznej inteligencji niekoniecznie byłoby przekonujące. W momencie, gdy człowiek po drugiej stronie telefonu zacznie zadawać pytania, sztuczna inteligencja będzie musiała odejść od przygotowanego scenariusza. W tym momencie klonowanie głosu uległo pogorszeniu, czasami radykalnie. Jedynym sposobem na kontynuację oszustwa było wciągnięcie rozmowy z powrotem do scenariusza.

Przy dzisiejszym typie sztucznej inteligencji, w tym postępie w przetwarzaniu języka naturalnego (NLP), można odstąpić od scenariusza i potencjalnie sprawić, że klon głosu AI będzie wydawał się mówić w naturalny sposób podczas konwersacji (nie zawsze tak jest, i nadal istnieją sposoby na potknięcie AI).

Zanim zagłębimy się w szczegóły dotyczące dzikich i wełnistych rozważań leżących u podstaw klonowania głosu w oparciu o sztuczną inteligencję, ustalmy kilka dodatkowych podstaw na niezwykle istotne tematy. Musimy na chwilę zająć się etyką sztucznej inteligencji, a zwłaszcza pojawieniem się uczenia maszynowego (ML) i głębokiego uczenia się (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja może pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja miałaby podobno jakość ludzką. Należy wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może okazać się mądrzejsza od ludzi.

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do skupienia się na klonowaniu głosu w oparciu o sztuczną inteligencję.

Na niedawnej konferencji prezentacja Amazona miała na celu zaprezentowanie pożądanych zalet klonowania głosu w oparciu o sztuczną inteligencję i zwrócenie uwagi na najnowszą, wiodącą sztuczną inteligencję wykorzystywaną w Alexie w celu zwiększania jej możliwości. Według doniesień prasowych przygotowany przykład, który miał podnosić na duchu i podnosić na duchu, polegał na tym, że dziecko poprosiło Alexę, aby babcia dokończyła im czytać historię Czarnoksiężnik z krainy Oz. Publiczności powiedziano, że babcia zmarła i że jest to dla dziecka sposób na ponowne nawiązanie kontaktu z ukochanym dziadkiem. Wszystko to najwyraźniej stanowiło część filmu przygotowanego przez Amazon, aby pomóc w zaprezentowaniu najnowszych przełomowych osiągnięć w zakresie klonowania głosu AI dokonanych przez zespół programistów Alexa (obejmujących funkcje, które nie zostały jeszcze formalnie wprowadzone do użytku publicznego).

Jedną z reakcji na ten przykład jest to, że mogliśmy być bardzo poruszeni faktem, że dziecko mogło ponownie usłyszeć głos swojej babci. Należy przypuszczać, że babcia nie nagrała jeszcze pełnego przeczytania historii, zatem klonowanie AI sprawiło, że wyglądało to tak, jakby babcia czytała teraz całość.

Niezwykły i niesamowity sposób na ponowne nawiązanie kontaktu z bliskimi, których nie ma już z nami.

Nie wszyscy reporterzy i analitycy (w tym Twitter) byli tak skłonni do pozytywnej interpretacji tego postępu. Niektórzy określili to jako wręcz przerażające. Próba odtworzenia głosu zmarłej ukochanej osoby była uważana za dziwne i nieco dziwaczne przedsięwzięcie.

Mnóstwo pytań, takich jak:

  • Czy dziecko byłoby zdezorientowane i uwierzyłoby, że zmarła bliska osoba wciąż żyje?
  • Czy można teraz wciągnąć dziecko w jakiś niestosowny żart lub oszustwo w oparciu o fałszywe przekonanie, że babcia nadal jest z nami?
  • Czy dziecko może cierpieć, słysząc o zmarłej bliskiej osobie, i popaść w przygnębienie, ponownie tęskniąc za dziadkami, jakby otwierając już zagojone rany emocjonalne?
  • Czy dziecko pomyśli, że zmarły może mówić z drugiej strony, czyli że zza grobu przemawia do niego ten mistyczny głos, który wydaje się być właśnie jego babcią?
  • Czy można sobie wyobrazić, że dziecko pomyśli, że sztuczna inteligencja w jakiś sposób ucieleśniała jego babcię, antropomorfizując sztuczną inteligencję w taki sposób, że dziecko dorośnie wierząc, że sztuczna inteligencja może całkowicie replikować ludzi?
  • Załóżmy, że dziecko tak bardzo zakochuje się w głosie babci odtwarzanym przez sztuczną inteligencję, że popada w obsesję i używa go do wszelkiego rodzaju słuchania dźwięku?
  • Czy sprzedawca replikujący głos może zdecydować się na użycie tego głosu dla innych osób korzystających z tego samego ogólnego systemu, robiąc to bez uzyskania wyraźnej zgody rodziny i w ten sposób „czerpiąc korzyści” z opracowanego głosu?
  • I tak dalej.

Ważne jest, aby zdać sobie sprawę, że możesz wyczarować tyle samo negatywów, co pozytywów, lub, powiedzmy, tyle samo pozytywów, co negatywów. U podstaw tych postępów w zakresie sztucznej inteligencji leżą kompromisy. Patrzenie tylko na jedną stronę medalu może być krótkowzroczne.

Najważniejsze jest, aby upewnić się, że patrzymy na wszystkie strony tych kwestii. Nie bądźcie zachmurzeni w swoim myśleniu. Łatwo jest szukać tylko pozytywów. Łatwo jest odkrywać tylko negatywy. Musimy zbadać jedno i drugie i dowiedzieć się, co można zrobić, aby, miejmy nadzieję, wykorzystać zalety i starać się zredukować, wyeliminować lub przynajmniej złagodzić wady.

Do pewnego stopnia właśnie dlatego etyka sztucznej inteligencji i etyczna sztuczna inteligencja są tak kluczowym tematem. Zasady etyki sztucznej inteligencji każą nam zachować czujność. Technolodzy sztucznej inteligencji mogą czasami być zaabsorbowani technologią, w szczególności optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Kierowanie się etyką sztucznej inteligencji i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji jest niezbędne do stworzenia odpowiedniej sztucznej inteligencji.

Oprócz stosowania etyki sztucznej inteligencji pojawia się odpowiednie pytanie, czy powinniśmy mieć przepisy regulujące różne zastosowania sztucznej inteligencji, takie jak funkcje klonowania głosu oparte na sztucznej inteligencji. Na szczeblu federalnym, stanowym i lokalnym wprowadzane są nowe przepisy dotyczące zakresu i charakteru opracowywania sztucznej inteligencji. Wysiłki związane z opracowaniem i uchwaleniem takich przepisów mają charakter stopniowy. Etyka AI jest przynajmniej przemyślaną przerwą.

W związku z tym niektórzy twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. W rzeczywistości ostrzegają, że jeśli rzeczywiście wprowadzimy w życie niektóre z tych przepisów dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które zapewniają ogromne korzyści społeczne. Zobacz na przykład mój zasięg na link tutaj i link tutaj.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwie autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na klonowanie głosu w oparciu o sztuczną inteligencję, a jeśli tak, co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samochody autonomiczne i klonowanie głosu w oparciu o sztuczną inteligencję

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Naszkicujmy scenariusz, który może wykorzystać klonowanie głosu w oparciu o sztuczną inteligencję.

Rodzic i dziecko wsiadają do autonomicznego samochodu opartego na sztucznej inteligencji. Idą do lokalnego sklepu spożywczego. Przewiduje się, że będzie to stosunkowo spokojna podróż. Wystarczy cotygodniowy przejazd do sklepu, chociaż kierowcą jest system prowadzenia pojazdu oparty na sztucznej inteligencji i rodzic nie musi w ogóle prowadzić.

Dla rodzica to wielka ulga. Zamiast skupiać się na kierowaniu i radzeniu sobie z prowadzeniem pojazdu, rodzic może zamiast tego poświęcić swoją uwagę dziecku. Mogą wspólnie bawić się pojazdem autonomicznym i spędzać cenny czas. Podczas gdy rodzic normalnie byłby rozproszony prowadzeniem pojazdu i prawdopodobnie czułby się niespokojny i spięty, poruszając się po ruchliwych ulicach i mając do czynienia z innymi szalonymi kierowcami w pobliżu, w tym przypadku rodzic jest błogo nieświadomy tych obaw i jedynie rozkosznie wchodzi w interakcję ze swoim ukochanym dzieckiem.

Rodzic rozmawia z systemem napędowym AI i każe AI zabrać dziecko do sklepu spożywczego. W typowym scenariuszu sztuczna inteligencja odpowiedziałaby neutralną wypowiedzią dźwiękową, którą można znajomo usłyszeć za pośrednictwem dzisiejszej Alexy lub Siri. Sztuczna inteligencja może odpowiedzieć, stwierdzając, że do sklepu spożywczego można dojechać w 15 minut. Ponadto sztuczna inteligencja może stwierdzić, że autonomiczny samochód wywiezie ich pod sam przód sklepu.

Może to być jedyna aktywność AI związana z głosem w takim scenariuszu. Być może, gdy autonomiczny samochód zbliży się do sklepu spożywczego, sztuczna inteligencja powie coś o zbliżaniu się celu podróży. Może pojawić się także dźwiękowe przypomnienie o zabraniu ze sobą rzeczy przy wyjściu z pojazdu autonomicznego.

Wyjaśniłem, że niektóre systemy sterujące AI będą w pewnym sensie gadatliwymi kotami. Zostaną zaprogramowane tak, aby zapewnić płynniejszą i ciągłą interakcję z ludzkimi jeźdźcami. Kiedy wsiadasz do pojazdu wspólnego przejazdu prowadzonego przez człowieka, czasami chcesz, aby kierowca był rozmowny. Oprócz przywitania się, możesz chcieć, aby opowiedzieli Ci o lokalnych warunkach pogodowych lub wskazali inne miejsca warte zobaczenia w okolicy. Nie każdy będzie chciał gadatliwego kota, dlatego sztuczną inteligencję należy opracować tak, aby angażowała się w dialogi tylko wtedy, gdy człowiek o to poprosi, zobacz moją relację na stronie link tutaj.

Teraz, gdy już wszystko ustaliliśmy, zmieńmy wszystko w mały, ale znaczący sposób.

Udawaj, że system jazdy AI ma funkcję klonowania głosu opartą na sztucznej inteligencji. Załóżmy również, że rodzic wcześniej zaszczepił klonowanie głosu AI, dostarczając fragment audio babci dziecka. Niespodzianka, myśli rodzic, sprawię, że system napędowy AI będzie mówił tak, jakby to była zmarła babcia dziecka.

Podczas jazdy do sklepu spożywczego system jazdy AI wchodzi w interakcję z rodzicem i dzieckiem, wykorzystując przez cały czas wyłącznie sklonowany głos babci.

Co o tym sądzisz?

Przerażające czy miło zapadające w pamięć?

Podkręcę sprawę o krok. Przygotuj się. Zapnij pasy.

Niektórzy, podobnie jak ja, wierzą, że w końcu pozwolimy dzieciom samodzielnie jeździć samochodami autonomicznymi opartymi na sztucznej inteligencji, zobacz moją analizę pod adresem link tutaj.

We współczesnych samochodach kierowanych przez ludzi obecność osoby dorosłej musi być zawsze obecna, ponieważ prawo wymaga, aby za kierownicą siedział dorosły kierowca. Ze względów praktycznych nigdy nie można przewozić w jadącym samochodzie dziecka, które jest samo w pojeździe (tak, wiem, że to się zdarza, na przykład prominentny 10-letni syn dużej gwiazdy filmowej, który niedawno wspierał bardzo drogi samochód na inny bardzo drogi samochód, ale i tak są to rzadkości).

Dzisiejsi rodzice prawdopodobnie zdecydowanie sprzeciwialiby się umożliwieniu swoim dzieciom jazdy autonomicznym samochodem, w którym nie ma osoby dorosłej, która pełniłaby funkcję opiekuna lub czuwała nad ich dziećmi. Wiem, że wydaje się to prawie niemożliwe do wyobrażenia, ale założę się, że gdy samochody autonomiczne będą powszechne, nieuchronnie zaakceptujemy pomysł, aby dzieci podróżowały samochodem autonomicznym bez dorosłych.

Weź pod uwagę czynnik wygody.

Jesteś w pracy, a Twój szef namawia Cię, abyś wykonał zadanie. Musisz odebrać dziecko ze szkoły i zabrać je na trening baseballowy. Tkwisz między młotem a kowadłem, ponieważ nie chcesz zbyt uspokajać szefa lub nie zabierać dziecka na zajęcia. Nikt inny, kogo znasz, nie jest w stanie podwieźć Twojego dziecka. W każdym razie na pewno nie chcesz korzystać z usługi wspólnego przejazdu z kierowcą-człowiekiem, ponieważ w naturalny sposób martwiłbyś się tym, co nieznajomy dorosły może powiedzieć lub zrobić podczas podwożenia Twojego dziecka.

Nie ma problemu, nie martw się, po prostu skorzystaj z samochodu autonomicznego opartego na sztucznej inteligencji. Zdalnie kierujesz autonomicznym samochodem, aby odebrał dziecko. Za pośrednictwem kamer autonomicznego samochodu możesz zobaczyć i obserwować, jak Twoje dziecko wsiada do autonomicznego pojazdu. Co więcej, kamery są skierowane do wewnątrz, dzięki czemu możesz obserwować swoje dziecko przez całą podróż. Wydaje się to równie bezpieczne, jeśli nie bezpieczniejsze, niż poproszenie nieznajomego kierowcy o podwiezienie Twojego dziecka. Biorąc to pod uwagę, niektórzy słusznie obawiają się, że jeśli prowadzenie pojazdu nie powiedzie się, zostaniesz z dzieckiem samym w sobie i nie pojawi się natychmiast żaden dorosły, który mógłby mu pomóc lub udzielić wskazówek.

Pomijając liczne wątpliwości, załóżmy, że ten sam rodzic i dziecko, o których mówiłem w poprzednim scenariuszu, nie mają nic przeciwko, aby dziecko jeździło na przejażdżki bez obecności rodzica. Po prostu zaakceptuj fakt, że jest to ostatecznie realny scenariusz.

Oto kopacz finałowy.

Za każdym razem, gdy dziecko wsiada do samochodu autonomicznego opartego na sztucznej inteligencji, jest witane i wchodzi w interakcję z sztuczną inteligencją, która wykorzystuje klonowanie głosu oparte na sztucznej inteligencji i replikuje głos zmarłej babci dziecka.

Co sądzisz o tych jabłkach?

Kiedy rodzic był również obecny w samochodzie autonomicznym, być może moglibyśmy usprawiedliwić użycie głosu AI, ponieważ rodzic jest tam, aby poinformować dziecko o tym, co się dzieje, gdy mówi dźwięk AI. Ale gdy rodzica nie ma w domu, zakładamy teraz, że dziecku idyllicznie dobrze jest słuchać głosu babci.

Jest to z pewnością jeden z tych momentów, w których można się zatrzymać, aby poważnie zastanowić się, czy jest to w sumie dobre, czy złe dla dziecka.

Wnioski

Przeprowadźmy mały eksperyment myślowy, aby przemyśleć te ważne sprawy.

Proszę o solidne trzy pozytywny powody, dla których warto klonować głos w oparciu o sztuczną inteligencję.

Poczekam, aż je wymyślisz.

Następnie wymyśl trzy solidnie ujemny powodów, które utrudniają pojawienie się klonowania głosu w oparciu o sztuczną inteligencję.

Zakładam, że coś wymyśliłeś.

Zdaję sobie sprawę, że niewątpliwie można podać znacznie więcej powodów, niż tylko trzy, które przemawiają za lub przeciw tej technologii. Czy Twoim zdaniem negatywy przeważają nad pozytywami? Niektórzy krytycy twierdzą, że powinniśmy położyć kres takim wysiłkom.

Niektórzy chcą próbować uniemożliwić firmom korzystanie z klonowania głosu w oparciu o sztuczną inteligencję, choć zdają sobie sprawę, że jest to jedna z klasycznych sytuacji typu „walnij kreta”. Jeśli firma przestanie go używać, istnieje ryzyko, że zacznie go używać inna firma. Zamrożenie zegara lub schowanie tego rodzaju sztucznej inteligencji będzie prawie niemożliwe.

W ostatniej uwadze na ten temat wyobraźmy sobie, co by się stało, gdyby pewnego dnia udało nam się stworzyć świadomą sztuczną inteligencję. Nie mówię, że tak się stanie. Tak czy inaczej możemy spekulować i zobaczyć, dokąd to może doprowadzić.

Najpierw rozważ wnikliwy cytat na temat mówienia i posiadania głosu. Madeleine Albright powiedziała słynne zdanie: „Dość dużo czasu zajęło mi wyrobienie sobie głosu, a teraz, kiedy go mam, nie zamierzam milczeć”.

Jeśli jesteśmy w stanie wyprodukować świadomą sztuczną inteligencję lub w jakiś sposób pojawia się świadomość, nawet jeśli nie wywołujemy jej bezpośrednio, jaki głos powinna mieć ta sztuczna inteligencja? Załóżmy, że może użyć klonowania głosu opartego na sztucznej inteligencji i w związku z tym wyprodukować dowolny głos dowolnego człowieka za pomocą malutkiego fragmentu próbkowania dźwięku, który może być dostępny w postaci wypowiedzianej przez tego człowieka. Taka sztuczna inteligencja mogłaby następnie przemówić i oszukać cię, abyś uwierzył, że sztuczna inteligencja jest pozornie tą osobą.

Z drugiej strony, być może sztuczna inteligencja będzie chciała mieć swój własny głos i celowo wymyśli głos zupełnie inny niż wszystkie inne ludzkie głosy, chcąc być wyjątkowa na swój swój uroczy sposób.

Na Boga, to sprawia, że ​​prawie oniemiali.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- przeznaczony-do-użycia-w-systemach-autonomicznych-AI/