Etyka AI i prawo AI ważą kluczowe sposoby wdrożenia niedawno wydanej karty praw AI, w tym i zadziwiająco poprzez całkowite wykorzystanie AI

Nie ma wątpliwości, że potrzebujemy planów w naszym codziennym życiu.

Jeśli zamierzasz zbudować swój wymarzony dom marzeń, rozsądnie byłoby najpierw stworzyć użyteczny plan.

Plan przedstawia w namacalny i udokumentowany sposób każdą wizjonerską perspektywę z szeroko otwartymi oczami, która może być zamknięta w twojej głowie. Ci, którzy zostaną wezwani do zbudowania twojego ukochanego domostwa, będą mogli zapoznać się z planem i ustalić szczegóły, jak wykonać zadanie. Plany są przydatne. Brak planu może być problematyczny w przypadku każdego złożonego zadania lub projektu.

Przenieśmy ten nieco sentymentalny, ale prawdziwy hołd dla planów w sferę sztucznej inteligencji (AI).

Ci z was, którzy są merytorycznie zainteresowani sztuczną inteligencją, mogą być niejasno świadomi, że ważna jest polityka zorientowana plan został niedawno wydany w USA, co wyraźnie odnosi się do przyszłości sztucznej inteligencji. Znany nieformalnie jako Karta praw AI, oficjalny tytuł ogłoszonej białej księgi to „Projekt karty praw AI: Making Automated Systems Work for the American People” i jest łatwo dostępny online.

Dokument jest wynikiem rocznych wysiłków i uważnych badań Biura Polityki Naukowej i Technologicznej (OSTP). OSTP jest podmiotem federalnym, który powstał w połowie lat 1970. XX wieku i służy doradzaniu prezydentowi USA i amerykańskiemu Biuru Wykonawczemu w różnych aspektach technologicznych, naukowych i inżynieryjnych o znaczeniu krajowym. W tym sensie można powiedzieć, że ta Karta Praw AI jest dokumentem zatwierdzonym i zatwierdzonym przez istniejący Biały Dom Stanów Zjednoczonych.

Karta praw AI przedstawia prawa człowieka jakie ludzkość powinna mieć w związku z pojawieniem się sztucznej inteligencji w naszym codziennym życiu. Podkreślam ten ważny punkt, ponieważ niektórzy ludzie byli początkowo zdziwieni, że być może było to potwierdzenie posiadania przez sztuczną inteligencję osobowości prawnej i że była to litania praw dla czujących AI i robotów humanoidalnych. Nie, jeszcze nas tam nie ma. Jak zobaczycie za chwilę, nie jesteśmy nawet blisko świadomej sztucznej inteligencji, pomimo nagłówków na banerach, które zdają się mówić nam inaczej.

Ok, więc czy potrzebujemy planu, który określa prawa człowieka w erze sztucznej inteligencji?

Tak, z całą pewnością tak.

Niemal musiałbyś być zamknięty w jaskini i nie mieć dostępu do Internetu, aby nie wiedzieć, że sztuczna inteligencja już i coraz bardziej narusza nasze prawa. Niedawna era sztucznej inteligencji była początkowo postrzegana jako AI na dobre, co oznacza, że ​​możemy wykorzystać sztuczną inteligencję dla polepszenia ludzkości. Na piętach AI na dobre przyszła świadomość, że my również jesteśmy zanurzeni AI na złe. Obejmuje to sztuczną inteligencję, która została wymyślona lub samodzielnie zmodyfikowana, aby była dyskryminująca i dokonuje wyborów obliczeniowych, które nasycają niepotrzebne uprzedzenia. Czasami sztuczna inteligencja jest zbudowana w ten sposób, podczas gdy w innych przypadkach skręca w to niesprzyjające terytorium.

Aby zapoznać się z moim bieżącym i obszernym omówieniem i analizą prawa dotyczącego sztucznej inteligencji, etyki sztucznej inteligencji oraz innych kluczowych trendów technologicznych i społecznych dotyczących sztucznej inteligencji, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Rozpakowywanie karty praw AI

Wcześniej omawiałem ustawę AI Bill of Rights i zrobię tutaj krótkie podsumowanie.

Nawiasem mówiąc, jeśli chcesz poznać moje dogłębne zalety i wady niedawno wydanej karty praw AI, szczegółowo opisałem moją analizę w poście na stronie Prawnik, Patrz link tutaj, Prawnik jest znaną witryną z wiadomościami i komentarzami prawniczymi, znaną powszechnie jako wielokrotnie nagradzany serwis z wiadomościami prawniczymi, zasilany przez globalny zespół reporterów studentów prawa, redaktorów, komentatorów, korespondentów i twórców treści, z siedzibą w University of Pittsburgh School of Prawo w Pittsburghu, gdzie zaczęło się ponad 25 lat temu. Pozdrowienia dla wybitnego i pracowitego zespołu w Prawnik.

W Karcie Praw AI jest pięć kluczowych kategorii:

  • Bezpieczne i skuteczne systemy
  • Algorytmiczne zabezpieczenia przed dyskryminacją
  • Prywatność danych
  • Uwaga i wyjaśnienie
  • Ludzkie alternatywy, rozważenie i rozwiązanie awaryjne

Zauważ, że nie ponumerowałem ich od jednego do pięciu, ponieważ może to sugerować, że są one w określonej kolejności lub że jedno z praw jest pozornie ważniejsze od drugiego. Przyjmiemy, że każdy z nich jest ich własnymi zaletami. Wszystkie są w pewnym sensie równie zasłużone.

Jako krótkie wskazanie, z czego składa się każdy z nich, oto fragment oficjalnej białej księgi:

  • Bezpieczne i skuteczne systemy: „Powinieneś być chroniony przed niebezpiecznymi lub nieefektywnymi systemami. Zautomatyzowane systemy powinny być opracowywane w porozumieniu z różnymi społecznościami, interesariuszami i ekspertami dziedzinowymi, aby zidentyfikować obawy, zagrożenia i potencjalny wpływ systemu.”
  • Algorytmiczne zabezpieczenia przed dyskryminacją: „Nie należy spotykać się z dyskryminacją przez algorytmy, a systemy powinny być używane i projektowane w sprawiedliwy sposób. Dyskryminacja algorytmiczna ma miejsce, gdy zautomatyzowane systemy przyczyniają się do nieuzasadnionego odmiennego traktowania lub wywierają niekorzystny wpływ na ludzi ze względu na ich rasę, kolor skóry, pochodzenie etniczne, płeć (w tym ciążę, poród i powiązane schorzenia, tożsamość płciową, status interseksualny i orientację seksualną), religię, wiek , pochodzenie narodowe, niepełnosprawność, status weterana, informacje genetyczne lub jakakolwiek inna klasyfikacja chroniona prawem.”
  • Prywatność danych: „Powinieneś być chroniony przed nieuczciwymi praktykami dotyczącymi danych dzięki wbudowanym zabezpieczeniom i powinieneś mieć agencję nad tym, jak wykorzystywane są dane o Tobie. Powinieneś być chroniony przed naruszeniami prywatności poprzez wybory projektowe, które zapewniają, że takie zabezpieczenia są domyślnie włączone, w tym zapewnienie, że gromadzenie danych jest zgodne z uzasadnionymi oczekiwaniami i że gromadzone są tylko dane ściśle niezbędne w określonym kontekście.
  • Uwaga i wyjaśnienie: „Powinieneś wiedzieć, że używany jest zautomatyzowany system i rozumieć, w jaki sposób i dlaczego przyczynia się on do wyników, które mają na Ciebie wpływ. Projektanci, programiści i wdrażający zautomatyzowane systemy powinni zapewnić ogólnie dostępną dokumentację w prostym języku, w tym jasne opisy ogólnego funkcjonowania systemu i roli, jaką odgrywa automatyzacja, zauważyć, że takie systemy są w użyciu, osobę lub organizację odpowiedzialną za system oraz wyjaśnienia wyniki, które są jasne, terminowe i dostępne”.
  • Ludzkie alternatywy, rozważenie i rozwiązanie awaryjne: „Powinieneś mieć możliwość rezygnacji, w stosownych przypadkach, i mieć dostęp do osoby, która może szybko rozważyć i rozwiązać napotkane problemy. W stosownych przypadkach powinieneś mieć możliwość rezygnacji z systemów automatycznych na rzecz ludzkiej alternatywy”.

Ogólnie rzecz biorąc, są to aspekty praw człowieka, które od dłuższego czasu były krążone w kontekście etyki AI i prawa AI, zobacz moje relacje, takie jak na link tutaj. Biała księga najwyraźniej nie wyciąga w magiczny sposób królika z kapelusza, jeśli chodzi o jakieś nowo odkryte lub odkryte prawo, które dotychczas nie zostało wyjaśnione w kontekście ery AI.

W porządku.

Można powiedzieć, że kompilacja ich w jeden starannie zapakowany i sformalizowany zbiór zapewnia istotną usługę. Dodatkowo, będąc namaszczonym jako uznany Karta praw AI, to dalej w sposób jawny i umiejętny umieszcza całą sprawę w świadomości sfery publicznej. Łączy on istniejącą masę odmiennych dyskusji w pojedynczy zestaw, który można teraz trąbić i przekazać wszystkim zainteresowanym stronom.

Pozwólcie, że przedstawię tę listę pozytywnych reakcji na ogłoszoną Kartę Praw AI:

  • Zapewnia niezbędną kompilację kluczowych zasad
  • Służy jako plan lub fundament, na którym można budować
  • Działa jako wokalne wezwanie do działania
  • Wzbudza zainteresowanie i pokazuje, że są to poważne względy
  • Łączy wiele odmiennych dyskusji
  • Pobudza i przyczynia się do wdrażania etycznej sztucznej inteligencji
  • Bez wątpienia przyczyni się do ustanowienia przepisów dotyczących sztucznej inteligencji
  • Inne

Musimy również wziąć pod uwagę mniej niż korzystne reakcje, biorąc pod uwagę, że jest o wiele więcej pracy do wykonania i że to dopiero początek długiej podróży na żmudnej drodze rządzenia sztuczną inteligencją.

W związku z tym, nieco ostra, a raczej konstruktywna krytyka pod adresem Karty praw AI obejmuje:

  • Niewykonalne prawnie i całkowicie niewiążące
  • Tylko doradcze i nie są uważane za politykę rządową
  • Mniej obszerny w porównaniu do innych opublikowanych prac
  • Składa się przede wszystkim z szerokich koncepcji i nie zawiera szczegółów implementacyjnych
  • Przekształcenie się w rzeczywiste, realne, praktyczne prawa będzie trudne
  • Pozornie milczy na temat nadchodzącej kwestii możliwego zakazu AI w niektórych kontekstach
  • W niewielkim stopniu docenia zalety korzystania z dobrze opracowanej sztucznej inteligencji
  • Inne

Być może najbardziej prominentny gryzący komentarz skupiał się na fakcie, że ta Karta Praw AI nie jest prawnie egzekwowalna, a zatem nie ma znaczenia, jeśli chodzi o ustalanie jasnych celów. Niektórzy twierdzą, że chociaż biała księga jest pomocna i zachęcająca, zdecydowanie brakuje jej zębów. Kwestionują, co może wyniknąć z rzekomego zestawu sprytnych wskazań o pustych zębach.

Za chwilę odniosę się do tych gryzących uwag.

Tymczasem biała księga obficie określa ograniczenia tego, co zawiera karta praw AI:

  • „Projekt Karty Praw AI nie jest wiążący i nie stanowi polityki rządu USA. Nie zastępuje, nie modyfikuje ani nie kieruje interpretacją żadnego istniejącego statutu, rozporządzenia, polityki lub instrumentu międzynarodowego. Nie stanowi wiążących wskazówek dla agencji publicznych lub federalnych i dlatego nie wymaga przestrzegania opisanych tutaj zasad. Nie przesądza również o tym, jakie będzie stanowisko rządu USA w jakichkolwiek negocjacjach międzynarodowych. Przyjęcie tych zasad może nie spełniać wymogów obowiązujących ustaw, rozporządzeń, polityk lub instrumentów międzynarodowych albo wymogów agencji federalnych, które je egzekwują. Zasady te nie mają na celu i nie zakazują ani nie ograniczają żadnej zgodnej z prawem działalności agencji rządowej, w tym egzekwowania prawa, bezpieczeństwa narodowego lub działań wywiadowczych” (zgodnie z białą księgą).

Dla tych, którzy szybko podważyli ustawę AI jako prawnie niewiążącą, zróbmy trochę eksperymentu myślowego na temat tego kłującego zarzutu. Załóżmy, że biała księga została wydana i miała pełną moc prawa. Śmiem twierdzić, że rezultat byłby nieco kataklizmem, przynajmniej w zakresie zarówno prawnych, jak i społecznych odpowiedzi na proklamację.

Prawodawcy byliby zgodni, że nie podjęto wysiłków normatywnych procesów i procedur prawnych w tworzeniu takich przepisów. Firmy byłyby wściekłe, słusznie, gdyby pojawiły się nowe prawa bez wystarczającego powiadomienia i świadomości, czym te prawa są. Nastąpiły wszelkiego rodzaju konsternacje i oburzenie.

Nie jest to dobry sposób na dążenie do umocnienia praw ludzkości w erze sztucznej inteligencji.

Przypomnij sobie, że wcześniej rozpocząłem tę dyskusję od przypomnienia wartości i żywotności planów.

Wyobraź sobie, że ktoś pominął etap tworzenia planów i natychmiast wskoczył do budowy twojego wymarzonego domu. Jak myślisz, jak wyglądałby ten dom? Wydaje się uczciwym zakładem, że dom nie pasowałby specjalnie do tego, co miałeś na myśli. Powstałe gospodarstwo może być kompletnym bałaganem.

Istotą jest to, że potrzebujemy planów, a teraz mamy jeden, aby posunąć się naprzód w opracowywaniu rozsądnych przepisów dotyczących sztucznej inteligencji i wzmacnianiu etycznych adopcji sztucznej inteligencji.

Chciałbym zatem omówić sposoby, w jakie projekt Karty Praw AI może zostać przekształcony w dom. Jak zamierzamy wykorzystać plan? Jakie są odpowiednie następne kroki? Czy ten schemat wystarczy, czy potrzebuje więcej mięsa na kościach?

Zanim przejdziemy do tych poważnych spraw, chciałbym najpierw upewnić się, że wszyscy jesteśmy na tej samej stronie na temat natury sztucznej inteligencji i tego, z czego składa się dzisiejszy stan.

Ustanawianie rekordu w kwestii dzisiejszej sztucznej inteligencji

Chciałbym wypowiedzieć się w niezwykle stanowczy sposób.

Czy jesteś gotowy?

Nie ma dziś żadnej sztucznej inteligencji, która byłaby świadoma.

Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy czująca sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle określanej jako osobliwość, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat czującej sztucznej inteligencji, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Zdecydowanie sugerowałbym, abyśmy trzymali się rzeczy na ziemi i rozważyli dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

Bądź bardzo ostrożny, antropomorfizując dzisiejszą sztuczną inteligencję.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie obecnie ukrytych uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje spora szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wszystko to ma szczególnie istotne implikacje w zakresie etyki sztucznej inteligencji i oferuje przydatne wgląd w wyciągnięte wnioski (nawet zanim wszystkie lekcje się wydarzą), jeśli chodzi o próby uregulowania AI.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI.

Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Teraz, gdy położyłem pomocne podstawy, jesteśmy gotowi do dalszego zagłębienia się w Kartę Praw AI.

Cztery podstawowe sposoby wdrożenia karty praw AI

Ktoś wręcza ci plan i każe brać się do pracy.

Co robisz?

W przypadku karty praw AI jako planu, rozważ te cztery podstawowe kroki, aby iść naprzód:

  • Służyć jako wkład w formułowanie praw AI: Użyj planu, aby pomóc w formułowaniu przepisów dotyczących sztucznej inteligencji, robiąc to, miejmy nadzieję, na równych zasadach na poziomie federalnym, stanowym i lokalnym (być może pomagając również w międzynarodowych wysiłkach prawnych dotyczących sztucznej inteligencji).
  • Pomoc w upowszechnieniu etyki SI: Korzystaj z planu, aby wspierać sformułowania dotyczące etyki AI (czasami określane jako „miękkie prawa” w porównaniu z prawnie wiążącymi „twardymi prawami”), robiąc to, aby inspirować i prowadzić firmy, osoby fizyczne, podmioty rządowe i inne kręgi w kierunku lepszych i bardziej spójnych Wyniki AI.
  • Działania rozwojowe Shape AI: Wykorzystaj plan, aby pobudzić tworzenie metodologii rozwoju sztucznej inteligencji i aspektów szkoleniowych, robiąc to, aby spróbować zachęcić programistów sztucznej inteligencji i tych, którzy zajmują się sztuczną inteligencją lub ją wykorzystują, aby byli bardziej świadomi tego, jak opracowywać sztuczną inteligencję zgodnie z pożądanymi zasadami etyki sztucznej inteligencji i z wyprzedzeniem o zbliżających się przepisach dotyczących sztucznej inteligencji.
  • Zmotywuj nadejście sztucznej inteligencji, aby pomóc w kontrolowaniu sztucznej inteligencji: Użyj planu, aby opracować sztuczną inteligencję, która będzie służyć jako kontrola i równowaga przeciwko innym sztucznym inteligencją, które mogą skręcać na niesprzyjające terytorium. Jest to jeden z tych makroskopowych punktów widzenia, dzięki którym możemy wykorzystać tę samą rzecz, która jest pozornie niepokojąca, aby również (jak na ironię, można by powiedzieć) pomóc w ochronie nas.

Omówiłem każdy z tych czterech wyżej wymienionych kroków w moich wpisach w kolumnach.

W tej dyskusji chciałbym skupić się na czwartym wymienionym kroku, a mianowicie na tym, że karta praw AI może służyć jako motywator do pojawienia się sztucznej inteligencji, aby pomóc w kontrolowaniu sztucznej inteligencji. Jest to nieco szokujący lub zaskakujący krok dla wielu, którzy nie weszli jeszcze w pełni w tę rozwijającą się sztuczną inteligencję sferę.

Pozwólcie mi rozwinąć.

Prosta analogia powinna załatwić sprawę. W dzisiejszych czasach wszyscy jesteśmy przyzwyczajeni do naruszeń cyberbezpieczeństwa i włamań hakerów. Prawie każdego dnia słyszymy o jakiejś najnowszej luki w naszych komputerach lub mamy do niej wpływ, która pozwoli nikczemnym złoczyńcom przejąć nasze dane lub umieścić na naszych laptopach złośliwe oprogramowanie ransomware.

Jednym ze sposobów walki z tymi nikczemnymi próbami jest użycie specjalistycznego oprogramowania, które próbuje zapobiec takim włamaniom. Prawie na pewno masz pakiet oprogramowania antywirusowego na swoim komputerze w domu lub w pracy. Prawdopodobnie na twoim smartfonie jest coś podobnego, niezależnie od tego, czy zdajesz sobie sprawę, że tam jest, czy nie.

Chodzi mi o to, że czasem trzeba zwalczyć ogień ogniem (zobacz mój reportaż na ten temat, np. at link tutaj i link tutaj).

W przypadku sztucznej inteligencji, która ląduje w sferze verboten AI na złe, możemy starać się użyć AI na dobre która walczy z tym złośliwym AI na złe. To oczywiście nie jest cudowne lekarstwo. Jak wiecie, między złoczyńcami, którzy chcą włamać się do naszych komputerów, a postępami w dziedzinie zabezpieczeń cybernetycznych, trwa nieprzerwany gambit w kotka i myszkę. To prawie niekończąca się gra.

Możemy wykorzystać sztuczną inteligencję, aby spróbować poradzić sobie ze sztuczną inteligencją, która zeszła na zakazaną ścieżkę. Pomoże to. Nie będzie to szczególnie srebrna kula, ponieważ atakowana sztuczna inteligencja prawie na pewno zostanie opracowana, aby uniknąć takich zabezpieczeń. Będzie to trwające połączenie w kotka i myszkę sztucznej inteligencji kontra sztucznej inteligencji.

W każdym razie sztuczna inteligencja, której używamy do ochrony, zapewni pewną ochronę przed złą sztuczną inteligencją. Dlatego bez wątpienia musimy opracować sztuczną inteligencję, która może nas chronić lub osłaniać. Powinniśmy również dążyć do stworzenia zabezpieczającej sztucznej inteligencji, aby dostosować się do zmian w złej sztucznej inteligencji. Będzie to zaciekłe podobieństwo do błyskawicznego kota i myszy.

Nie każdemu podoba się to powiększanie roli AI.

Ci, którzy już postrzegają sztuczną inteligencję jako jednorodny, amorficzny konglomerat, doznają gęsiej skórki i koszmarów w tym udawanym gambicie AI kontra AI. Jeśli próbujemy przeciwstawić ogień ogniu, może po prostu rozpalamy jeszcze większy ogień. Sztuczna inteligencja stanie się ogromnym ogniskiem, którego już nie kontrolujemy i zdecydujemy się zniewolić ludzkość lub usunąć nas z planety. Jeśli chodzi o omawianie AI jako ryzyka egzystencjalnego, zwykle wierzymy, że cała sztuczna inteligencja zbierze się razem, zobacz moją dyskusję na temat tych kwestii na link tutaj. Widzisz, powiedziano nam, że każda sztuczna inteligencja złapie swoich braci AI i stanie się jedną wielką, jednolitą rodziną władców.

To straszny i zdecydowanie niepokojący scenariusz czującej sztucznej inteligencji jako jednolitej mafii „wszystko za jednego i jeden za wszystkich”.

Chociaż możesz swobodnie snuć takie przypuszczenia dotyczące tego, że pewnego dnia może się to wydarzyć, zapewniam cię, że na razie sztuczna inteligencja, którą mamy dzisiaj, składa się z ciężarówek połączonych, odmiennych programów AI, które nie mają szczególnego sposobu na konspirowanie ze sobą.

Powiedziawszy to, jestem pewien, że ci, którzy żarliwie wierzą w teorie spiskowe AI, będą upierać się, że powiedziałem to celowo, aby ukryć prawdę. Aha! Może jestem opłacany przez dzisiejszą sztuczną inteligencję, która już planuje przejęcie wielkiej AI (tak, panie, będę kąpać się w bogactwach, gdy rządzą nadrzędni AI). Albo, i na pewno nie faworyzuję tego innego punktu widzenia, być może ślepo nie jestem świadomy tego, jak sztuczna inteligencja potajemnie knuje za naszymi plecami. Sądzę, że będziemy musieli poczekać i zobaczyć, czy jestem częścią zamachu stanu AI, czy nikczemnym kozłem AI (ała, to boli).

Wracając do ziemskich rozważań, przyjrzyjmy się pokrótce, w jaki sposób współczesna sztuczna inteligencja może być wykorzystana do pomocy we wdrażaniu karty praw AI. Będę wygodnie i zwięźle określać to jako Dobra sztuczna inteligencja.

Wykorzystamy pięć kluczowych elementów zawartych w Karcie Praw AI:

  • Dobra sztuczna inteligencja do promowania Bezpieczne i skuteczne systemy: Ilekroć podlegasz lub używasz systemu sztucznej inteligencji, dobra sztuczna inteligencja próbuje ustalić, czy wykorzystywana sztuczna inteligencja jest niebezpieczna lub nieskuteczna. Po takim wykryciu Dobra AI może Cię ostrzec lub podjąć inne działania, w tym zablokować Złą AI.
  • Dobra sztuczna inteligencja do dostarczania Algorytmiczne zabezpieczenia przed dyskryminacją: Podczas korzystania z systemu sztucznej inteligencji, który może zawierać dyskryminujące algorytmy, Dobra sztuczna inteligencja próbuje ustalić, czy istnieją dla ciebie nieodpowiednie zabezpieczenia i stara się ustalić, czy w wykorzystywanej sztucznej inteligencji rzeczywiście istnieją nieuzasadnione uprzedzenia. Dobra sztuczna inteligencja może cię informować, a także potencjalnie automatycznie zgłaszać inną sztuczną inteligencję różnym organom, co może być określone w przepisach dotyczących sztucznej inteligencji i wymogach prawnych.
  • Dobra sztuczna inteligencja do przechowywania Prywatność danych: Ten rodzaj dobrej sztucznej inteligencji stara się chronić Cię przed naruszeniami prywatności danych. Kiedy inna sztuczna inteligencja będzie starała się zażądać od ciebie danych, które być może nie są naprawdę potrzebne, dobra sztuczna inteligencja poinformuje cię o przekroczeniu kroku. Dobra sztuczna inteligencja może również potencjalnie maskować twoje dane w sposób, który po przekazaniu do innej sztucznej inteligencji nadal zachowa twoje prawa do prywatności danych. Itp.
  • Dobra sztuczna inteligencja do ustanowienia Uwaga i wyjaśnienie: Wszyscy prawdopodobnie spotkamy systemy sztucznej inteligencji, którym bardzo brakuje odpowiednich i odpowiednich powiadomień i które niestety nie przedstawiają odpowiedniego wyjaśnienia swoich działań. Dobra sztuczna inteligencja może próbować zinterpretować lub przesłuchać inną sztuczną inteligencję, robiąc to, aby potencjalnie zidentyfikować powiadomienia i wyjaśnienia, które powinny być dostarczone. Nawet jeśli nie jest to wykonalne w danym przypadku, dobra sztuczna inteligencja przynajmniej ostrzeże cię o błędach innej sztucznej inteligencji i ewentualnie zgłosi tę sztuczną inteligencję wyznaczonym władzom w oparciu o określone przepisy dotyczące sztucznej inteligencji i wymagania prawne.
  • Dobra sztuczna inteligencja do oferowania Ludzkie alternatywy, rozważenie i rozwiązanie awaryjne: Załóżmy, że używasz systemu sztucznej inteligencji, a sztuczna inteligencja najwyraźniej nie jest w stanie sprostać zadaniu. Możesz nie zdawać sobie sprawy, że sprawy idą źle, lub możesz być nieco ostrożny i niepewny, co zrobić w tej sytuacji. W takim przypadku dobra sztuczna inteligencja po cichu sprawdzałaby, co robi inna sztuczna inteligencja i mogłaby cię ostrzec o istotnych obawach związanych z tą sztuczną inteligencją. Następnie zostaniesz poproszony o zażądanie ludzkiej alternatywy dla AI (lub Dobra AI może to zrobić w twoim imieniu).

Aby zrozumieć dalej, jak tego rodzaju Dobra sztuczna inteligencja może być rozwijany i wystawiany, zobacz moją popularną i wysoko ocenianą książkę AI (zaszczyconą stwierdzeniem, że została zauważona jako „Top Ten”) na temat tego, co ogólnie nazywam aniołami stróżami AI, zobacz link tutaj.

Wnioski

Wiem, o czym myślisz. Jeśli mamy dobrą sztuczną inteligencję, która została stworzona, aby nas chronić, załóżmy, że dobra sztuczna inteligencja zostanie zepsuta i stanie się złą sztuczną inteligencją. Słynne lub niesławne łacińskie hasło wydaje się w pełni pasować do tej możliwości: Quis custodiet ipsos custodes?

Zwrot ten przypisywany jest rzymskiemu poecie Juwenalowi i można go znaleźć w jego dziele pt Satyryi może być luźno przetłumaczone jako oznaczające, kto będzie strzegł lub pilnował samych strażników. Wiele filmów i programów telewizyjnych, takich jak Star Trek wielokrotnie wykorzystywali tę linię.

To pewnie dlatego, że to doskonały punkt.

Rzeczywiście, wszelkie prawa AI, które zostaną uchwalone, będą musiały obejmować zarówno Złą AI, a nawet Dobrą AI, która psuje się. Dlatego kluczowe będzie napisanie sensownych i wyczerpujących praw dotyczących sztucznej inteligencji. Prawodawcy, którzy po prostu próbują rzucać przypadkowym tekstem legalnym w ścianę i mają nadzieję, że będzie to zgodne z przepisami dotyczącymi sztucznej inteligencji, będą głęboko chybić celu.

Nie potrzebujemy tego.

Nie mamy ani czasu, ani nie jesteśmy w stanie ponieść kosztów społecznych, aby poradzić sobie z nieodpowiednio opracowanymi przepisami dotyczącymi sztucznej inteligencji. Wskazałem, że niestety czasami jesteśmy świadkami nowych przepisów dotyczących sztucznej inteligencji, które są słabo sformułowane i są pełne różnego rodzaju dolegliwości prawnych, patrz na przykład moja analiza sondująca nowojorskiego (NYC) prawa dotyczącego uprzedzeń AI na stronie link tutaj.

Upewnijmy się, że właściwie korzystamy z planu AI Bill of Rights, który mamy teraz pod ręką w odniesieniu do AI. Jeśli zignorujemy plan, przegraliśmy na zintensyfikowaniu naszej gry. Jeśli źle wdrożymy plan, wstydź się za przywłaszczenie sobie pożytecznego fundamentu.

Szanowny rzymski poeta Juvenal powiedział coś jeszcze, co możemy wykorzystać w tej sytuacji: Anima sana w corpore sano.

Ogólnie rzecz biorąc, przekłada się to na twierdzenie, że rozsądnie byłoby mieć zarówno zdrowy lub zdrowy umysł, jak i zdrowe lub zdrowe ciało. To pozwala nam znosić każdy rodzaj trudu, według Juvenala, i z pewnością będzie jedyną drogą do życia w pokoju lub cnocie.

Czas, abyśmy użyli zdrowego umysłu i zdrowego ciała, aby upewnić się, że zapewniamy ludzkości ochronę i solidne wzmocnienie naszych praw człowieka w wyłaniającym się świecie wszechobecnej, a czasami nieprzyjaznej sztucznej inteligencji. To rozsądna rada Rzymian, której powinniśmy przestrzegać w dzisiejszym pośpiechu w epoce niesamowitości AI i przyszłości zdecydowanie wypełnionej zarówno dobrą, jak i złą sztuczną inteligencją.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- rachunek-praw-w tym-i-zadziwiająco-używając-ai-wprost/