Odpowiedzialna sztuczna inteligencja cieszy się wyjątkowym wzmocnieniem dzięki proklamacji etyki AI wydanej przez najlepsze stowarzyszenie zawodowe ACM

Widziałeś lub słyszałeś wiadomości?

Niedawno ogłoszono kolejny zestaw zasad etyki SI.

Ochrypłe oklaski, jeśli łaska.

Potem znowu możesz nie Zauważyłem to ze względu na fakt, że tak wiele innych dekretów dotyczących etyki AI krąży już od jakiegoś czasu. Niektórzy twierdzą, że pozornie nieprzerwane przesiąkanie proklamacji etycznej sztucznej inteligencji staje się nieco odrętwiające. Jak dużo potrzebujemy? Czy ktoś może nadążyć za nimi wszystkimi? Która jest najlepsza? Czy może nie przesadzamy z zasadami etyki sztucznej inteligencji? I tak dalej.

Cóż, w tym konkretnym przypadku uważam, że powinniśmy szczególnie powitać tego najnowszego członka klubu.

Za chwilę wnikliwie wyjaśnię dlaczego.

Po pierwsze, jako wyjaśnienie, odnoszę się do zestawu zasad etyki AI, obecnie oficjalnie znanego jako „Oświadczenie w sprawie zasad odpowiedzialnych systemów algorytmicznych” który został niedawno opublikowany przez ACM Technology Policy Council 26 października 2022 r. Uznanie dla zespołów ekspertów, które opracowały ten cenny dokument, w tym współprowadzących autorów Jeanny Matthews (Clarkson University) i Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Ci z was, którzy wiedzą, mogą po bliższym przyjrzeniu się zdać sobie sprawę, że ten dokument wydaje się nieco znajomy.

Dobre oko!

To najnowsze wcielenie jest zasadniczo zaktualizowaną i rozszerzoną wersją wcześniejszego wspólnego „Oświadczenia w sprawie przejrzystości i odpowiedzialności algorytmicznej”, które zostało ogłoszone przez ACM US Technology Policy Committee i ACM Europe Technology Policy Committee w 2017 r. Wierni czytelnicy moich felietonów mogą pamiętać, że Od czasu do czasu wspominałem o dekrecie z 2017 r. w mojej kolumnie poświęconej kluczowym aspektom leżącym u podstaw etyki AI i prawa AI.

Aby zapoznać się z moją obszerną i bieżącą oceną oraz analizami trendów etyki AI i prawa AI, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

To ostatnie oświadczenie ACM jest szczególnie ważne z kilku istotnych powodów.

Dlatego.

ACM, który jest wygodnym akronimem dla Stowarzyszenie Maszyn Komputerowych, jest uważane za największe na świecie stowarzyszenie zajmujące się komputerami. Licząca około 110,000 1947 członków ACM jest długoletnim pionierem w dziedzinie informatyki. ACM prowadzi jedne z najważniejszych badań naukowych w dziedzinie informatyki, a także zapewnia profesjonalną sieć i apele do praktyków informatyki. Jako taka, ACM jest ważnym głosem reprezentującym ogólnie te, które są zaawansowane technologicznie i nieustannie dąży do rozwoju dziedziny komputerów (ACM została założona w XNUMX r.).

Może dodam też trochę osobistego komentarza na ten temat. Kiedy po raz pierwszy zetknąłem się z komputerami w szkole średniej, dołączyłem do ACM i brałem udział w ich programach edukacyjnych, zwłaszcza w ekscytującej szansie wzięcia udziału w dorocznym konkursie programowania komputerowego (takie zawody są obecnie bardzo powszechne i zwykle oznaczane jako hackathony). Pozostaję zaangażowany w ACM podczas studiów za pośrednictwem mojego lokalnego oddziału uniwersyteckiego i mam okazję uczyć się o przywództwie, zostając oficerem oddziału studenckiego. Po wejściu do branży dołączyłem do profesjonalnego oddziału i po raz kolejny przyjąłem rolę lidera. Później, kiedy zostałem profesorem, służyłem w komitetach ACM i radach redakcyjnych, a także sponsorowałem kapitułę studencką kampusu. Nawet dzisiaj jestem aktywny w ACM, w tym zasiadam w Komitecie ds. Polityki Technologicznej ACM US.

Rozkoszuję się ujmującą i trwałą wizją ACM uczenia się przez całe życie i rozwoju kariery.

W każdym razie, jeśli chodzi o najnowsze oświadczenie AI Ethics, fakt, że zostało ono wydane przez ACM, ma dużą wagę. Możesz rozsądnie twierdzić, że zasady etycznej sztucznej inteligencji są całością lub zbiorowym głosem ogólnoświatowej grupy profesjonalistów komputerowych. To coś tam mówi.

Istnieje również aspekt, który zainspiruje innych w dziedzinie komputerów do ożywienia się i wysłuchania w sensie należytego rozważenia tego, co oświadczenie deklaruje ich koledzy z informatyki. Tak więc nawet ci, którzy nie są w ACM lub nie wiedzą nic o tej szanowanej grupie, będą, miejmy nadzieję, żywo zainteresowani odkryciem, o czym jest to oświadczenie.

Tymczasem ci, którzy są zewnętrzne z branży komputerowej może zostać przyciągnięty do tego stwierdzenia jako swego rodzaju wtajemniczonego zakulisowego spojrzenia na to, co osoby związane z komputerami mówią o etycznej sztucznej inteligencji. Chcę jednak podkreślić, że oświadczenie jest przeznaczone dla wszystkich, nie tylko dla społeczności komputerowej, dlatego należy pamiętać, że zasady etyki AI są niejako ogólne.

Wreszcie, jest dodatkowy zwrot akcji, o którym niewielu by pomyślało.

Czasami osoby z zewnątrz postrzegają stowarzyszenia komputerowe jako zanurzone w technologii po kolana i niezbyt świadome społecznego wpływu komputerów i sztucznej inteligencji. Możesz pokusić się o założenie, że takim profesjonalnym podmiotom zależy tylko na najnowszych i najgorętszych przełomach w sprzęcie lub oprogramowaniu. Są postrzegani przez opinię publiczną, w prosty sposób, jako maniacy techniki.

Żeby było jasne, byłem zanurzony w społecznych skutkach komputerów, odkąd po raz pierwszy zetknąłem się z komputerami, podobnie jak ACM był również głęboko zaangażowany w takie tematy.

Dla każdego, kto jest zaskoczony, że to oświadczenie dotyczące zasad etyki AI zostało zebrane i opublikowane przez ACM, nie zwraca uwagi na długotrwałe badania i prace mające miejsce w tych sprawach. Zachęcam również zainteresowanych do zapoznania się z ACM Kodeks etyczny, surowy kodeks etyki zawodowej, który ewoluował przez lata i podkreśla, że ​​twórcy systemów muszą być świadomi, przestrzegać i zachować czujność w zakresie etycznych konsekwencji swoich przedsięwzięć i produktów.

Sztuczna inteligencja podsyca pożary, zdobywając informacje na temat etyki komputerowej.

Widoczność kwestii etycznych i prawnych w dziedzinie informatyki ogromnie wzrosła wraz z pojawieniem się dzisiejszej sztucznej inteligencji. Przedstawiciele tego zawodu są informowani i czasami namawiani do zwracania należytej uwagi na kwestie związane z etyką sztucznej inteligencji i prawem sztucznej inteligencji. Prawodawcy stają się coraz bardziej świadomi aspektów związanych z etyką sztucznej inteligencji i przepisami dotyczącymi sztucznej inteligencji. Firmy dochodzą do wniosku, że sztuczna inteligencja, którą opracowują lub wykorzystują, jest zarówno korzystna, jak i czasami stwarza ogromne ryzyko i potencjalne wady.

Rozpakujmy to, co miało miejsce w ciągu ostatnich kilku lat, aby można było ustalić odpowiedni kontekst, zanim przejdziemy do tego najnowszego zestawu zasad etyki sztucznej inteligencji.

Rosnąca świadomość etycznej sztucznej inteligencji

Niedawna era sztucznej inteligencji była początkowo postrzegana jako AI na dobre, co oznacza, że ​​możemy wykorzystać sztuczną inteligencję dla polepszenia ludzkości. Na piętach AI na dobre przyszła świadomość, że my również jesteśmy zanurzeni AI na złe. Obejmuje to sztuczną inteligencję, która została wymyślona lub samodzielnie zmodyfikowana, aby była dyskryminująca i dokonuje wyborów obliczeniowych, które nasycają niepotrzebne uprzedzenia. Czasami sztuczna inteligencja jest zbudowana w ten sposób, podczas gdy w innych przypadkach skręca w to niesprzyjające terytorium.

Chcę być całkowicie pewien, że jesteśmy na tej samej stronie co do natury dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat czującej sztucznej inteligencji, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Zdecydowanie sugerowałbym, abyśmy trzymali się rzeczy na ziemi i rozważyli dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

Bądź bardzo ostrożny, antropomorfizując dzisiejszą sztuczną inteligencję.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie obecnie ukrytych uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje spora szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wszystko to ma szczególnie istotne implikacje w zakresie etyki sztucznej inteligencji i oferuje przydatne wgląd w wyciągnięte wnioski (nawet zanim wszystkie lekcje się wydarzą), jeśli chodzi o próby uregulowania AI.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI.

Wszyscy interesariusze w całym cyklu rozwoju i użytkowania AI są uważani za spełniających obowiązujące normy etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają pojęciom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Niedawno zbadałem również Karta praw AI który jest oficjalnym tytułem oficjalnego dokumentu rządu USA zatytułowanego „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, który był wynikiem rocznej pracy Biura ds. Polityki Nauki i Technologii (OSTP ). OSTP jest podmiotem federalnym, który służy doradzaniu prezydentowi USA i amerykańskiemu Biuru Wykonawczemu w różnych technologicznych, naukowych i inżynieryjnych aspektach o znaczeniu krajowym. W tym sensie można powiedzieć, że ta Karta Praw AI jest dokumentem zatwierdzonym i zatwierdzonym przez istniejący Biały Dom Stanów Zjednoczonych.

W Karcie Praw AI jest pięć kluczowych kategorii:

  • Bezpieczne i skuteczne systemy
  • Algorytmiczne zabezpieczenia przed dyskryminacją
  • Prywatność danych
  • Uwaga i wyjaśnienie
  • Ludzkie alternatywy, rozważenie i rozwiązanie awaryjne

Dokładnie przejrzałem te wskazania, zobacz link tutaj.

Teraz, gdy położyłem pomocne podstawy na te powiązane tematy związane z etyką sztucznej inteligencji i prawem sztucznej inteligencji, jesteśmy gotowi, aby przejść do niedawno opublikowanego „Oświadczenia w sprawie zasad odpowiedzialnych systemów algorytmicznych” ACM (nawiasem mówiąc, ponieważ tytuł dokumentu odnosi się do odpowiedzialny systemów algorytmicznych, może zechcesz rzucić okiem na moją ocenę tego, co to znaczy mówić Wiarygodna sztuczna inteligencja, Patrz link tutaj).

Przygotuj się na podróż do najnowszego zestawu zasad etyki sztucznej inteligencji.

Uważne zagłębianie się w zadeklarowane przez ACM zasady etyki AI

Oświadczenie ACM dotyczące etycznej sztucznej inteligencji składa się z dziewięciu kluczowych elementów:

  • Legitymacja i kompetencje
  • Minimalizowanie szkód
  • Bezpieczeństwo i prywatność
  • Przezroczystość
  • Interpretowalność i wyjaśnialność
  • Łatwość utrzymania
  • Kontestowalność i audytowalność
  • Odpowiedzialność i odpowiedzialność
  • Ograniczanie wpływu na środowisko

Jeśli porównasz ten najnowszy zestaw z innymi dostępnymi zestawami, znajdziesz między nimi wiele podobieństw lub pokrewnych odpowiedników.

Z jednej strony można to uznać za dobry znak.

Możemy ogólnie mieć nadzieję, że cała masa zasad etyki sztucznej inteligencji, które krążą wokół, łączy się w taki sam ogólny zakres. Widząc, że jeden zestaw jest w pewnym stopniu porównywalny z innym, daje pozory pewności, że te zestawy są w tym samym polu gry, a nie w jakiś zagadkowy lewy obszar.

Potencjalnym zarzutem niektórych jest to, że te różne zestawy wydają się być z grubsza takie same, co może powodować zamieszanie lub przynajmniej konsternację z powodu wątpliwości, że nie powinniśmy mieć wielu pozornie powielających się list. Czy nie może być tylko jedna lista? Problem polega oczywiście na tym, że nie ma prostego sposobu, aby wszystkie takie listy były dokładnie takie same. Różne grupy i różne podmioty podchodziły do ​​tego na różne sposoby. Dobrą wiadomością jest to, że prawie wszyscy doszli do tego samego nadrzędnego wniosku. Możemy odetchnąć z ulgą, że zestawy nie mają ogromnych różnic, co być może niepokoiłoby nas, gdyby nie było ogólnego konsensusu.

Przeciwnik mógłby nawoływać, że powszechność tych list jest niepokojąca, argumentując, że być może dzieje się myślenie grupowe. Być może wszystkie te odmienne grupy myślą w ten sam sposób i nie są w stanie spojrzeć poza normę. Wszyscy wpadamy w identyczną pułapkę. Listy rzekomo zakotwiczają nasze myślenie i nie jesteśmy w stanie patrzeć poza własny nos.

Spoglądanie poza nasze nosy to bez wątpienia słuszna sprawa.

Z pewnością jestem otwarty na to, co przeciwnicy mają do powiedzenia. Czasami łapią wiatr czegoś, co ma Tytaniczny w kierunku gigantycznej góry lodowej. Przydałoby nam się kilka obserwatorów orlich oczu. Ale w kwestii tych zasad etyki sztucznej inteligencji przeciwnicy nie wyartykułowali niczego definitywnie, co wydaje się wyraźnie podważać lub budzić obawy związane z nadmierną wspólnością. Myślę, że mamy się dobrze.

W tym zestawie ACM jest kilka szczególnie godnych uwagi lub wyróżniających się punktów, które moim zdaniem są szczególnie warte uwagi.

Po pierwsze, podoba mi się sformułowanie z najwyższej półki, nieco odbiegające od normy.

Na przykład powołując się na legalność i kompetencje (pierwsza pozycja wypunktowana) przywołuje pozory znaczenia kompetencji zarówno projektanta, jak i zarządzania związanych z AI. Ponadto prawowitość hasło prowadzi nas do etyki sztucznej inteligencji i Kraina AI. Mówię to, ponieważ wiele zasad etyki sztucznej inteligencji koncentruje się prawie wyłącznie na implikacjach etycznych, ale wydaje się, że pomijają lub unikają również odnotowywania konsekwencji prawnych. W dziedzinie prawa względy etyczne są często reklamowane jako „miękkie prawo”, podczas gdy prawa w księgach są interpretowane jako „twarde prawa” (co oznacza, że ​​niosą ciężar sądów).

Jedno z moich ulubionych powiedzeń wszechczasów zostało wypowiedziane przez słynnego prawnika Earla Warrena: „W cywilizowanym życiu prawo unosi się w morzu etyki”.

Musimy upewnić się, że zasady etyki sztucznej inteligencji obejmują również i podkreślają surową stronę rzeczy, na przykład podczas opracowywania, uchwalania i egzekwowania przepisów dotyczących sztucznej inteligencji.

Po drugie, doceniam to, że lista zawiera kwestionowalność i audytowalność.

Wielokrotnie pisałem o wartości możliwości zakwestionowania lub podniesienia czerwonej flagi, gdy podlegasz systemowi sztucznej inteligencji, zobacz link tutaj. Co więcej, coraz częściej będziemy świadkami nowych przepisów zmuszających systemy sztucznej inteligencji do audytu, które obszernie omówiłem na temat prawa Nowego Jorku (NYC) dotyczącego audytu stronniczości systemów sztucznej inteligencji wykorzystywanych do zatrudniania i awansowania pracowników, zob. link tutaj. Niestety, i zgodnie z moją otwartą krytyką nowego prawa Nowego Jorku, jeśli te przepisy dotyczące kontroli są wadliwe, prawdopodobnie stworzą więcej problemów niż rozwiążą.

Po trzecie, następuje stopniowe przebudzenie, że sztuczna inteligencja może nasycić problemy związane ze zrównoważonym rozwojem i cieszę się, widząc, że środowiskowy temat został omówiony na najwyższym poziomie w tych zasadach etyki sztucznej inteligencji (patrz ostatni punkt listy).

Samo tworzenie systemu AI może pochłonąć wiele zasobów obliczeniowych. Te zasoby obliczeniowe mogą bezpośrednio lub pośrednio być uzurpatorami zrównoważonego rozwoju. Należy wziąć pod uwagę kompromis między korzyściami zapewnianymi przez sztuczną inteligencję w porównaniu z kosztami, które towarzyszą sztucznej inteligencji. Ostatni z wypunktowanych punktów ACM zwraca uwagę na kwestie związane ze zrównoważonym rozwojem i środowiskiem, które pojawiają się w przypadku sztucznej inteligencji. Aby zapoznać się z moimi relacjami z kwestiami śladu węglowego związanymi ze sztuczną inteligencją, zobacz link tutaj.

Teraz, gdy przyjrzeliśmy się dokładnie liście zasad etyki sztucznej inteligencji ACM, zanurzyliśmy się głębiej w wodę.

Oto oficjalne opisy każdego z zasad etyki AI wysokiego poziomu (cytowane z oficjalnego oświadczenia):

1. "Legalność i kompetencje: Projektanci systemów algorytmicznych powinni posiadać kompetencje zarządcze i wyraźne uprawnienia do budowy i wdrażania takich systemów. Muszą również posiadać wiedzę fachową w dziedzinie zastosowań, podstawy naukowe dla zamierzonego wykorzystania systemów i być powszechnie postrzegani jako społecznie uprawnieni przez interesariuszy, na których system ma wpływ. Należy przeprowadzić oceny prawne i etyczne, aby potwierdzić, że wszelkie zagrożenia wprowadzane przez systemy będą proporcjonalne do rozwiązywanych problemów oraz że wszelkie kompromisy między korzyściami a szkodami są zrozumiałe dla wszystkich odpowiednich interesariuszy”.

2. "Minimalizowanie szkód: Menedżerowie, projektanci, programiści, użytkownicy i inni interesariusze systemów algorytmicznych powinni być świadomi możliwych błędów i uprzedzeń związanych z ich projektowaniem, wdrażaniem i użytkowaniem oraz potencjalnych szkód, jakie system może wyrządzić jednostkom i społeczeństwu. Organizacje powinny rutynowo przeprowadzać oceny wpływu na stosowane przez siebie systemy, aby określić, czy system może powodować szkody, w szczególności szkody dyskryminacyjne, oraz zastosować odpowiednie środki zaradcze. Jeśli to możliwe, powinni uczyć się na podstawie miar rzeczywistych wyników, a nie tylko wzorców wcześniejszych decyzji, które same mogły być dyskryminujące”.

3. "Bezpieczeństwo i prywatność: Ryzyko ze strony złośliwych stron można ograniczyć, wprowadzając najlepsze praktyki w zakresie bezpieczeństwa i prywatności na każdym etapie cyklu życia systemów, w tym solidne kontrole w celu złagodzenia nowych luk, które pojawiają się w kontekście systemów algorytmicznych”.

4. "Przejrzystość: Twórców systemów zachęca się do jasnego dokumentowania sposobu, w jaki określone zestawy danych, zmienne i modele zostały wybrane do opracowywania, uczenia, walidacji i testowania, a także konkretnych środków, które zastosowano w celu zagwarantowania jakości danych i danych wyjściowych. Systemy powinny wskazywać swój poziom zaufania do każdego wyjścia, a ludzie powinni interweniować, gdy poziom zaufania jest niski. Deweloperzy powinni również udokumentować podejścia zastosowane do zbadania potencjalnych błędów. W przypadku systemów o krytycznym wpływie na życie i dobrostan powinny być wymagane niezależne procedury weryfikacji i walidacji. Publiczna kontrola danych i modeli zapewnia maksymalne możliwości korekty. Deweloperzy powinni zatem ułatwiać przeprowadzanie testów przez osoby trzecie w interesie publicznym”.

5. "Interpretowalność i wyjaśnialność: Menedżerów systemów algorytmicznych zachęca się do tworzenia informacji dotyczących zarówno procedur, którymi kierują się stosowane algorytmy (interpretowalność), jak i konkretnych decyzji, które podejmują (wyjaśnialność). Wyjaśnialność może być równie ważna jak dokładność, zwłaszcza w kontekstach polityki publicznej lub w każdym środowisku, w którym istnieją obawy, w jaki sposób algorytmy mogą zostać wypaczone, aby przynosić korzyści jednej grupie kosztem drugiej bez potwierdzenia. Ważne jest, aby odróżnić wyjaśnienia od racjonalizacji post-fact, które nie odzwierciedlają dowodów ani procesu decyzyjnego użytego do dojścia do wyjaśnianego wniosku”.

6. "Łatwość konserwacji: Dowody solidności wszystkich systemów algorytmicznych powinny być gromadzone przez cały cykl ich życia, w tym dokumentacja wymagań systemowych, projekt lub wdrażanie zmian, przypadki testowe i wyniki oraz dziennik wykrytych i naprawionych błędów. Właściwa konserwacja może wymagać przeszkolenia systemów przy użyciu nowych danych szkoleniowych i/lub wymiany zastosowanych modeli”.

7. "Kontestowalność i audytowalność: Organy regulacyjne powinny zachęcać do przyjmowania mechanizmów, które umożliwiają jednostkom i grupom kwestionowanie wyników i dochodzenie zadośćuczynienia za negatywne skutki wynikające z decyzji opartych na algorytmach. Menedżerowie powinni zapewnić rejestrację danych, modeli, algorytmów i decyzji, aby można je było poddać audytowi i powielić wyniki w przypadkach, gdy istnieje podejrzenie lub domniemanie szkody. Strategie audytu powinny być podawane do wiadomości publicznej, aby umożliwić osobom fizycznym, organizacjom interesu publicznego i naukowcom przeglądanie i rekomendowanie ulepszeń”.

8. "Odpowiedzialność i odpowiedzialność: Organy publiczne i prywatne powinny ponosić odpowiedzialność za decyzje podejmowane przez stosowane przez nie algorytmy, nawet jeśli nie jest możliwe szczegółowe wyjaśnienie, w jaki sposób te algorytmy dały wyniki. Takie organy powinny być odpowiedzialne za całe systemy wdrożone w ich konkretnych kontekstach, a nie tylko za poszczególne części, które składają się na dany system. W przypadku wykrycia problemów w zautomatyzowanych systemach organizacje odpowiedzialne za wdrażanie tych systemów powinny udokumentować konkretne działania, które podejmą w celu rozwiązania problemu oraz w jakich okolicznościach należy zawiesić lub zakończyć korzystanie z takich technologii”.

9. "Ograniczanie wpływu na środowisko: Systemy algorytmiczne powinny być zaprojektowane tak, aby raportować szacunkowe wpływy na środowisko, w tym emisje dwutlenku węgla, zarówno z obliczeń szkoleniowych, jak i operacyjnych. Systemy sztucznej inteligencji powinny być zaprojektowane w taki sposób, aby ich emisje dwutlenku węgla były rozsądne, biorąc pod uwagę stopień dokładności wymagany w kontekście, w którym są stosowane”.

Ufam, że uważnie przeczytasz każde z tych kluczowych zasad etyki sztucznej inteligencji. Proszę wziąć je sobie do serca.

Wnioski

Istnieje subtelna, ale równie istotna część oświadczenia ACM, którą, jak sądzę, wielu może nieumyślnie przeoczyć. Pozwól, że zwrócę ci na to uwagę.

Nawiązuję do części, która omawia bolesną zagadkę konieczności rozważenia kompromisów związanych z zasadami etyki sztucznej inteligencji. Widzisz, większość ludzi często bezmyślnie kiwa głową, czytając zasady etycznej sztucznej inteligencji i zakłada, że ​​wszystkie przykazania mają taką samą wagę, a wszystkie przykazania zawsze będą miały ten sam optymalny pozór szacunku i wartości.

Nie w realnym świecie.

Gdy guma styka się z drogą, każdy rodzaj sztucznej inteligencji, który ma choćby odrobinę złożoności, będzie nieprzyjemnie testować zasady etyki sztucznej inteligencji, aby niektóre elementy były wystarczająco osiągalne w stosunku do niektórych innych zasad. Zdaję sobie sprawę, że możesz głośno wykrzykiwać, że cała sztuczna inteligencja musi maksymalizować wszystkie zasady etyki sztucznej inteligencji, ale nie jest to szczególnie realistyczne. Jeśli takie stanowisko chcesz zająć, ośmielę się powiedzieć, że prawdopodobnie będziesz musiał powiedzieć większości lub prawie wszystkim twórcom i użytkownikom sztucznej inteligencji, aby zamknęli sklep i całkowicie odłożyli sztuczną inteligencję.

Aby wyrzucić sztuczną inteligencję za drzwi, trzeba iść na kompromisy. To powiedziawszy, nie opowiadam się za pójściem na łatwiznę, które narusza zasady etyki AI, ani nie sugeruję, że powinny one naruszać przepisy dotyczące sztucznej inteligencji. Należy spełnić określone minimum, powyżej którego celem jest dążenie do tego jeszcze bardziej. W końcu równowaga musi być dokładnie oceniona. To równoważenie musi być wykonane świadomie, otwarcie, zgodnie z prawem i z etyką AI jako w dobrej wierze i szczerze wyznawanym przekonaniem (możesz chcieć zobaczyć, jak firmy wykorzystują Rady Etyki AI, aby spróbować zdobyć to poważne podejście, zobacz link tutaj).

Oto kilka wypunktowanych punktów, o których mowa w deklaracji ACM na temat złożoności kompromisów (cytat z oficjalnego dokumentu):

  • „Rozwiązania powinny być proporcjonalne do rozwiązywanego problemu, nawet jeśli wpływa to na złożoność lub koszty (np. odrzucenie publicznego monitoringu wideo do prostego zadania przewidywania).”
  • „Należy wziąć pod uwagę wiele różnych wskaźników wydajności, które mogą być ważone w różny sposób w zależności od domeny aplikacji. Na przykład w niektórych zastosowaniach w opiece zdrowotnej skutki wyników fałszywie ujemnych mogą być znacznie gorsze niż wyników fałszywie dodatnich, podczas gdy w wymiarze sprawiedliwości w sprawach karnych konsekwencje wyników fałszywie dodatnich (np. uwięzienie niewinnej osoby) mogą być znacznie gorsze niż wyników fałszywie ujemnych. Najbardziej pożądana konfiguracja systemu operacyjnego rzadko kiedy zapewnia maksymalną dokładność”.
  • „Obawy dotyczące prywatności, ochrony tajemnic handlowych lub ujawnienia danych analitycznych, które mogą pozwolić złośliwym podmiotom na oszukiwanie systemu, mogą uzasadniać ograniczenie dostępu do wykwalifikowanych osób, ale nie powinny być wykorzystywane do uzasadniania ograniczania kontroli osób trzecich lub zwalniania programistów z obowiązku potwierdzać i naprawiać błędy”.
  • „Przejrzystość musi być połączona z procesami odpowiedzialności, które umożliwiają zainteresowanym stronom, na które ma wpływ system algorytmiczny, dochodzenie sensownego zadośćuczynienia za wyrządzone szkody. Przejrzystości nie należy wykorzystywać do legitymizacji systemu ani do przenoszenia odpowiedzialności na inne strony”.
  • „Kiedy wpływ systemu jest duży, preferowany może być system bardziej zrozumiały. W wielu przypadkach nie ma kompromisu między wyjaśnialnością a dokładnością. Jednak w niektórych kontekstach nieprawidłowe wyjaśnienia mogą być nawet gorsze niż ich brak (np. w systemach opieki zdrowotnej objaw może odpowiadać wielu możliwym chorobom, a nie tylko jednej)”.

Ci, którzy opracowują lub używają sztucznej inteligencji, mogą nie zdawać sobie sprawy z kompromisów, przed którymi stoją. Najwyżsi liderzy firmy mogą naiwnie zakładać, że sztuczna inteligencja spełnia maksymalne wymagania dotyczące wszystkich zasad etyki sztucznej inteligencji. Albo w to wierzą, ponieważ nie mają pojęcia o sztucznej inteligencji, albo chcą w to wierzyć i być może robią mrugnięcie okiem, aby łatwo zaadoptować sztuczną inteligencję.

Istnieje prawdopodobieństwo, że brak merytorycznej i otwartej konfrontacji z kompromisami zakończy się sztuczną inteligencją, która wyrządzi szkody. Te szkody z kolei prawdopodobnie otworzą firmę na potencjalne zobowiązania na dużą skalę. Co więcej, konwencjonalne prawa mogą dotyczyć ewentualnych przestępstw związanych z AI, wraz z nowszymi prawami skupionymi na sztucznej inteligencji, które również na to wpływają. Tona cegieł czeka nad głowami tych, którzy myślą, że poradzą sobie z kompromisami lub którzy są głęboko nieświadomi, że kompromisy istnieją (nieuchronnie spadnie na nich miażdżąca świadomość).

Na razie ostatnie słowo w tym temacie przekażę końcowemu aspektowi oświadczenia ACM, ponieważ uważam, że dobrze wyjaśnia on, co te zasady etycznej sztucznej inteligencji mają na celu makroskopowo ujawnić:

  • „Powyższe zalecenia koncentrują się na odpowiedzialnym projektowaniu, rozwijaniu i użytkowaniu systemów algorytmicznych; odpowiedzialność musi być określona przez prawo i porządek publiczny. Rosnąca moc systemów algorytmicznych i ich wykorzystanie w aplikacjach o krytycznym znaczeniu dla życia i konsekwencjach oznacza, że ​​należy z nich korzystać z dużą ostrożnością. Te dziewięć instrumentalnych zasad ma być inspirujące w inicjowaniu dyskusji, inicjowaniu badań i opracowywaniu metod zarządzania w celu przyniesienia korzyści szerokiemu gronu użytkowników, przy jednoczesnym promowaniu niezawodności, bezpieczeństwa i odpowiedzialności. W ostatecznym rozrachunku to specyficzny kontekst określa prawidłowe zaprojektowanie i wykorzystanie systemu algorytmicznego we współpracy z przedstawicielami wszystkich interesariuszy, których to dotyczy” (cytat z oficjalnego dokumentu).

Jak sprytnie mówią słowa mądrości, tysiącmilowa podróż zaczyna się od pierwszego kroku.

Błagam cię, abyś zapoznał się z etyką AI i prawem AI, podejmując pierwszy krok, który pozwoli ci zacząć, a następnie pomóż w kontynuowaniu tych ważnych przedsięwzięć. Piękno polega na tym, że wciąż jesteśmy w powijakach, aby dowiedzieć się, jak zarządzać sztuczną inteligencją i radzić sobie społecznie, dlatego wchodzisz na parter, a twoje wysiłki mogą ewidentnie kształtować twoją przyszłość i przyszłość nas wszystkich.

Podróż AI dopiero się rozpoczęła, a kluczowe pierwsze kroki wciąż trwają.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-valued-computing- stowarzyszenie-zawodowe-acm/