Etyka AI i zbliżająca się klęska, kiedy to nowojorskie prawo wymagające kontroli pod kątem uprzedzeń AI wkracza do akcji

Czasami najlepsze intencje są żałośnie niszczone przez poważny brak dbałości o szczegóły.

Godny zbadania jest doskonały przykład tej mądrej mądrości.

W szczególności przyjrzyjmy się nowemu prawu w Nowym Jorku dotyczącego sztucznej inteligencji (AI), które wejdzie w życie 1 stycznia 2023 r. Możesz łatwo wygrać spory zakład, że pojawią się wszelkiego rodzaju zamieszanie, konsternacja i kłopoty gdy prawo wejdzie w życie. Chociaż problemy nie są zgodne z projektem, niewątpliwie pojawią się w wyniku złego projektu lub przynajmniej niewystarczającego określenia niezbędnych szczegółów, które powinny i mogły być łatwo opracowane i wyraźnie określone.

Mam na myśli lokalne prawo uchwalone w zeszłym roku 11 grudnia 2021 roku w szanowanym Nowym Jorku, które ma wejść w życie na początku 2023 roku. Obecnie dzieli nas tylko kilka miesięcy od wielkiego przebudzenia, które to nowe prawo będzie się budzić. Chciałbym móc powiedzieć, że ambitna ustawa bezproblemowo zrobi to, co powinna, a mianowicie upora się z potencjalnymi uprzedzeniami AI w sferze podejmowania decyzji o zatrudnieniu. Niestety, chociaż intencja jest godna pochwały, przeprowadzę cię przez luki prawne, przeoczenia i brak konkretów, które podważą to prawo i doprowadzą pracodawców do szaleństwa, gdy starają się poradzić sobie z niezamierzonymi, ale dość niekorzystnymi skutkami tego prawa.

Można powiedzieć, że jest to klasyczny problem przepychania się z niedopracowanym planem. Czczona maksyma przypisywana Dwightowi Eisenhowerowi głosiła, że ​​plan jest niczym, podczas gdy planowanie jest wszystkim. Krótko mówiąc, ta konkretna ustawa będzie żywym przykładem tego, jak ustawodawcy mogą czasami chybiać się, jeśli nie przemyślą tego uprzednio niezbędne szczegóły, aby prawo spełniało swoje godne pochwały cele i mogło być przyjęte w sposób z pewnością rozsądny i rozważny.

Czeka nas porażka.

Wymówki już są przygotowywane.

Niektórzy eksperci twierdzą, że nigdy nie można w pełni określić prawa i trzeba zobaczyć je w działaniu, aby wiedzieć, jakie aspekty prawa należy poprawić (ogólny truizm, który w tym przypadku jest przekręcany nieproporcjonalnie). Co więcej, gorąco argumentują, że tak jest zwłaszcza w przypadku pojawiającej się nowości przepisów dotyczących sztucznej inteligencji. Heck, napominają, sztuczna inteligencja to zaawansowane technologicznie czary, o których jako prawodawcy niewiele wiemy, więc logika mówi, że umieszczenie czegoś na stronach prawnych jest lepsze niż nie posiadanie w ogóle niczego.

Na pierwszy rzut oka to z pewnością brzmi przekonująco. Kop głębiej, a zdasz sobie sprawę, że jest to potencjalnie cholerne, w tym, a zwłaszcza w przypadku tego konkretnego prawa. Prawo to można by z łatwością określić bardziej zręcznie i rozsądnie. Nie potrzebujemy magicznych mikstur. Nie musimy czekać, aż powstanie chaos. W czasie tworzenia prawa można było ustalić właściwe sformułowania i szczegóły.

Upewnijmy się również, że nieprzyzwoity, pływający pomysł, że aspektów adopcyjnych nie można z góry odgadnąć, jest boleśnie niedorzeczny. Jest to legalne machanie ręczną bzdurą najbardziej bezsensownego rodzaju. Istnieje wiele znanych już rozważań na temat radzenia sobie z uprzedzeniami AI i przeprowadzania audytów AI, które można łatwo wrobić w tę ustawę. To samo można powiedzieć o każdej innej jurysdykcji rozważającej ustanowienie takiego prawa. Nie daj się zwieść przekonaniu, że musimy jedynie ślepo rzucać legalną strzałką w dzikie wiatry i cierpieć. Odrobina legalnego myślenia w połączeniu z odpowiednim zrozumieniem AI jest już możliwa i nie ma potrzeby chwytania się wyłącznie słomek.

Mogę dodać, że jest jeszcze czas, aby to naprawić. Zegar wciąż tyka. Być może uda się obudzić, zanim zaczną dzwonić dzwonki alarmowe. Potrzebne rady mogą być uzyskane i podane do wiadomości. Czasu jest mało, więc należy temu nadać należny priorytet.

W każdym razie upewnij się, że kładziesz nacisk na to tutaj.

Pozwólcie, że żarliwie wyjaśnię, że takie prawo dotyczące stronniczości AI ma swoje zalety. Za chwilę wyjaśnię dlaczego. Opiszę również, jakie problemy wiążą się z tym nowym prawem, które zdaniem wielu jest pierwszym w historii, które zostanie wprowadzone do ksiąg prawnych (istnieją inne warianty, być może nie całkiem takie jak ta).

Rzeczywiście, można się spodziewać, że podobne przepisy będą stopniowo obowiązywać w całym kraju. Jedną z godnych uwagi obawy jest to, że jeśli ta próba pierwszego wprowadzenia w Nowym Jorku pójdzie źle, może spowodować, że reszta kraju będzie nieufna wobec uchwalenia takich przepisów. To nie jest właściwa lekcja. Prawidłowa lekcja jest taka, że ​​jeśli zamierzasz napisać takie prawo, rób to rozsądnie i z należytym rozwagą.

Prawa rzucane na książki bez odpowiedniej weryfikacji mogą być dość denerwujące i stwarzać wszelkiego rodzaju trudności. W tym sensie proszę nie wylewać dziecka z kąpielą (stare powiedzenie, prawdopodobnie powinno zostać wycofane). Istotą jest to, że takie prawa mogą być naprawdę produktywne i ochronne, jeśli są właściwie skomponowane.

Ten konkretny niestety nie zrobi tego za bramą.

Wszelkiego rodzaju paniczne wskazówki z pewnością będą pochodzić od wykonawców i egzekutorów prawa. Zaznacz w swoich kalendarzach koniec stycznia i luty 2023 r., aby obserwować, jak narasta zamieszanie. Wskazywanie palcami będzie niezwykle intensywne.

Nikt teraz specjalnie nie skrzeczy, bo prawo nie wylądowało jeszcze na głowach pracodawców, którzy zostaną przez nowe prawo zniweczeni. Wyobraź sobie, że jest to metaforycznie mówiące trzęsienie ziemi, które ma mieć miejsce w pierwszych tygodniach 2023 roku. Niewielu przygotowuje się na trzęsienie ziemi. Wielu nawet nie wie, że trzęsienie ziemi jest już wpisane do kalendarza. Biorąc to wszystko pod uwagę, gdy nastąpi trzęsienie ziemi, wiele bardzo zdumionych i wstrząśniętych firm będzie się zastanawiać, co się stało i dlaczego bałagan musiał się wydarzyć.

Wszystko to ma szczególnie istotne implikacje w zakresie etyki sztucznej inteligencji i oferuje przydatne wgląd w wyciągnięte wnioski (nawet zanim wszystkie lekcje się wydarzą), jeśli chodzi o próby uregulowania AI. Aby zapoznać się z moim stałym i obszernym omówieniem etyki sztucznej inteligencji, etyczną sztuczną inteligencją, wraz z ustawą o sztucznej inteligencji wśród prawnych aspektów zarządzania sztuczną inteligencją, można znaleźć na stronie link tutaj i link tutaj, żeby wymienić tylko kilka.

Ta prawna opowieść o nieszczęściu odnosi się do pojawiających się niegdyś obaw o dzisiejszą sztuczną inteligencję, a zwłaszcza wykorzystanie uczenia maszynowego (ML) i głębokiego uczenia (DL) jako formy technologii i sposobu jej wykorzystania. Widzisz, istnieją zastosowania ML/DL, które zwykle wiążą się z antropomorfizacją AI przez ogół społeczeństwa, wierząc lub decydując się na założenie, że ML/DL jest albo świadomą AI, albo bliską (nie jest). Ponadto ML/DL może zawierać aspekty dopasowywania wzorców obliczeniowych, które są niepożądane lub wręcz niewłaściwe lub nielegalne z punktu widzenia etyki lub prawa.

Przydatne może być najpierw wyjaśnienie, co mam na myśli, odnosząc się ogólnie do sztucznej inteligencji, a także krótkie omówienie uczenia maszynowego i uczenia głębokiego. Istnieje wiele niejasności co do tego, co kojarzy się ze sztuczną inteligencją. Chciałbym również przedstawić wam zasady etyki AI, które będą szczególnie integralną częścią pozostałej części tego dyskursu.

Ogłaszanie historii AI

Upewnijmy się, że jesteśmy po tej samej stronie, jeśli chodzi o naturę dzisiejszej sztucznej inteligencji.

Nie ma dziś żadnej sztucznej inteligencji, która byłaby świadoma.

Nie mamy tego.

Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy czująca sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej Osobliwością, zobacz moje sprawozdanie na link tutaj).

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. Najnowsza era sztucznej inteligencji szeroko wykorzystała uczenie maszynowe i głębokie uczenie, które wykorzystują dopasowanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia ludzkiego myślenia.

Częścią problemu jest nasza skłonność do antropomorfizacji komputerów, a zwłaszcza sztucznej inteligencji. Kiedy system komputerowy lub sztuczna inteligencja wydaje się działać w sposób, który kojarzymy z ludzkim zachowaniem, pojawia się niemal przytłaczająca potrzeba przypisania systemowi ludzkich cech. Jest to powszechna mentalna pułapka, która może złapać nawet najbardziej nieprzejednanego sceptyka, jeśli chodzi o szanse osiągnięcia świadomości.

Do pewnego stopnia właśnie dlatego etyka AI i etyczna sztuczna inteligencja są tak istotnym tematem.

Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Nastawienie na etykę sztucznej inteligencji i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. Ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne. Zobacz na przykład mój zasięg na link tutaj.

W poprzednich kolumnach omówiłem różne krajowe i międzynarodowe wysiłki mające na celu stworzenie i uchwalenie przepisów regulujących sztuczną inteligencję, patrz link tutaj, na przykład. Omówiłem również różne zasady i wytyczne dotyczące etyki sztucznej inteligencji, które różne narody zidentyfikowały i przyjęły, w tym na przykład działania ONZ, takie jak zbiór etyki sztucznej inteligencji UNESCO, który przyjęło prawie 200 krajów, zob. link tutaj.

Oto pomocna lista kluczowych kryteriów lub cech etycznej sztucznej inteligencji dotyczących systemów sztucznej inteligencji, które wcześniej dokładnie zbadałem:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Te zasady etyki AI mają być poważnie wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają wysiłkami na rzecz rozwoju sztucznej inteligencji, a nawet tymi, którzy ostatecznie realizują i wykonują konserwację systemów AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za spełniających obowiązujące normy etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają pojęciom AI Ethics. Jak podkreślono wcześniej, potrzeba wioski, aby opracować i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki AI.

Skupmy się na ziemi i skupmy się na dzisiejszej obliczeniowej, pozbawionej świadomości sztucznej inteligencji.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Uważam, że przygotowałem już scenę, aby wystarczająco omówić rolę sztucznej inteligencji w rubryce cichego odejścia.

Sztuczna inteligencja wykorzystywana w podejmowaniu decyzji o zatrudnieniu

Prawo nowojorskie koncentruje się na temacie podejmowania decyzji o zatrudnieniu.

Jeśli ostatnio próbowałeś ubiegać się o nowoczesną pracę niemal w dowolnym miejscu na świecie, prawdopodobnie spotkałeś się z elementem opartym na sztucznej inteligencji w procesie podejmowania decyzji o zatrudnieniu. Oczywiście możesz nie wiedzieć, że tam jest, ponieważ może być ukryty za kulisami i nie miałbyś gotowego sposobu na rozpoznanie, że system AI był zaangażowany.

Powszechnym hasłem używanym w odniesieniu do tych systemów SI jest to, że są one brane pod uwagę Zautomatyzowane narzędzia do podejmowania decyzji o zatrudnieniu, w skrócie AEDT.

Zobaczmy, jak prawo nowojorskie zdefiniowało te narzędzia lub aplikacje, które wiążą się z podejmowaniem decyzji o zatrudnieniu:

  • „Termin „zautomatyzowane narzędzie do podejmowania decyzji o zatrudnieniu” oznacza dowolny proces obliczeniowy, wywodzący się z uczenia maszynowego, modelowania statystycznego, analizy danych lub sztucznej inteligencji, który generuje uproszczone dane wyjściowe, w tym ocenę, klasyfikację lub rekomendację, które są wykorzystywane do znacznego wspomagania lub zastąpić uznaniowe podejmowanie decyzji przy podejmowaniu decyzji o zatrudnieniu, które mają wpływ na osoby fizyczne. Termin „zautomatyzowane narzędzie do podejmowania decyzji o zatrudnieniu” nie obejmuje narzędzia, które nie automatyzuje, nie wspiera, nie wspomaga ani nie zastępuje uznaniowych procesów decyzyjnych i które nie ma istotnego wpływu na osoby fizyczne, w tym między innymi filtru wiadomości-śmieci, zapora sieciowa, oprogramowanie antywirusowe, kalkulator, arkusz kalkulacyjny, baza danych, zbiór danych lub inna kompilacja danych” (NYC, Int 1894-2020, podrozdział 25, sekcja 20-870).

Pokrótce przeanalizuję to sformułowanie, ponieważ ma ono zasadnicze znaczenie dla całej natury i zakresu prawa.

Po pierwsze, jak wielokrotnie stwierdzałem w swoich pismach, jedną z najtrudniejszych przeszkód przy pisaniu praw dotyczących sztucznej inteligencji jest próba adekwatnego zdefiniowania, co oznacza sztuczna inteligencja. Nie ma jednego, wszechstronnie uzgodnionego prawnie kuloodpornego standardu, na którym wszyscy wylądowali. Istnieją wszelkiego rodzaju definicje. Niektóre są pomocne, inne nie. Zobacz moje analizy na link tutaj.

Możesz ulec pokusie, by pomyśleć, że nie ma większego znaczenia, jak możemy zdefiniować sztuczną inteligencję. Przepraszam, ale mylisz się co do tego.

Problem polega na tym, że jeśli definicja sztucznej inteligencji jest niejasno określona w danym prawie, pozwala ona tym, którzy rozwijają sztuczną inteligencję, próbować omijać prawo, pozornie twierdząc, że ich oprogramowanie lub system nie jest oparty na sztucznej inteligencji. Z wielką śmiałością argumentowaliby, że prawo nie dotyczy ich oprogramowania. Podobnie, ktoś korzystający z oprogramowania może również twierdzić, że prawo nie dotyczy go, ponieważ oprogramowanie lub system, z którego korzysta, nie mieści się w definicji sztucznej inteligencji określonej w prawie.

Ludzie są tak podstępni.

Jednym z najsprytniejszych sposobów na uniknięcie zniewolenia przez prawo, którego nie faworyzujesz, jest twierdzenie, że prawo cię nie dotyczy. W takim przypadku chciałbyś rozebrać na części definicję AEDT. Twoim celem, zakładając, że nie chcesz, aby prawo spoczywało na twoich plecach, byłoby prawnie argumentować, że definicja podana w prawie jest błędna w tym, czym jest lub robi twój system komputerowy związany z zatrudnieniem.

Takiemu prawu można zarówno pomóc, jak i czasami podważyć, celowo umieszczając w definicji klauzule wyłączające.

Przyjrzyj się ponownie definicji AEDT określonej w tej ustawie. Miejmy nadzieję, że zauważyłeś, że istnieje klauzula wyłączająca, która mówi: „…nie zawiera narzędzia, które nie automatyzuje, nie wspiera, w istotny sposób wspomaga lub nie zastępuje uznaniowych procesów decyzyjnych i które nie ma istotnego wpływu na osoby fizyczne…”.

Z jednej strony podstawa do uwzględnienia takiego wyłączenia jest zdecydowanie pomocna.

Wydaje się to sugerować (z punktu widzenia mojego laika), że AEDT musi mieć określony cel i być wykorzystany w sposób merytoryczny. Jeśli AEDT jest, powiedzmy, pobieżny lub peryferyjny, a jeśli decyzja o zatrudnieniu jest nadal raczej ludzka, być może używany system oprogramowania nie powinien być interpretowany jako AEDT. Ponadto, jeśli oprogramowanie lub system nie ma „materialnego” wpływu na osoby fizyczne (ludzi), nie wydaje się, aby warto było trzymać nogi przy ogniu.

Rozsądnie nie chcesz, aby prawo przesadziło z jego zakresem i pochłonęło wszystko, łącznie ze zlewem kuchennym. Takie postępowanie jest zasadniczo niesprawiedliwe i uciążliwe dla tych, których prawo nie miało obejmować. Mogą wpaść w bagno, które działa jak jedna z tych kabaretek. Przypuszczalnie nasze prawa powinny uważać, aby nie wciągać niewinnych w zakres prawa.

Wszystko jest dobrze i dobrze.

Doświadczony adwokat musi zdać sobie sprawę, że klauzula wyłączająca może być rodzajem legalnej karty wyjścia z więzienia (na marginesie, ta konkretna ustawa przewiduje sankcje cywilne, a nie karne, więc wyjść z więzienia uwaga jest tylko metaforyczna i dla aromatycznej ponczowości). Jeśli ktoś miałby twierdzić, że firma używa AEDT w przetwarzaniu zatrudnienia, jednym z pierwszych sposobów na pokonanie tego twierdzenia byłoby twierdzenie, że tak zwany AEDT faktycznie znajduje się w sferze wykluczenia. Możesz spróbować pokazać, że tak zwany AEDT nie zautomatyzować decyzja o zatrudnieniu, czy nie wsparcie decyzja o zatrudnieniu, czy nie znacznie pomóc or obsługi produkcji rolnej, która zastąpiła uznaniowe procesy decyzyjne.

Następnie możesz przejść krętą ścieżką identyfikowania, co w tym kontekście oznaczają słowa „zautomatyzować”, „wspierać”, „znacząco pomóc” lub „wymienić”. To całkiem poręczna, legalna królicza nora. Można argumentować, że oprogramowanie lub system rzekomo będący AEDT jest częścią wskazań wykluczających. Dlatego nie szkodzi, nie fauluje, jeśli chodzi o to konkretne prawo.

Oczywiście w takich sprawach należy konsultować się z licencjonowanymi prawnikami (nie ma tu wzmianki o poradach prawnych i jest to pogląd całkowicie laików).

Chodzi mi o to, że w tym nowym prawie będzie miejsce na ruchy. Pokój do poruszania się pozwoli niektórym pracodawcom, którzy rzeczywiście używają AEDT, być może znaleźć lukę, aby obejść użycie AEDT. Drugą stroną medalu jest to, że mogą istnieć firmy, które nie używają w rzeczywistości AEDT, które wpadną w sidła tego prawa. Można twierdzić, że wszystko, czego używali, było rzeczywiście AEDT, i będą musieli znaleźć sposób, aby wykazać, że ich oprogramowanie lub systemy nie zostały objęte AEDT i podlegają przepisowi wyłączającemu.

Możemy dokonać tej śmiałej prognozy:

  • Niewątpliwie będą pracodawcy, którzy świadomie korzystają z AEDT, co może potencjalnie próbować wyrwać się ze swoich obowiązków prawnych.
  • Nieuchronnie będą pracodawcy, którzy nie używają AEDT, ugrzęźli w twierdzeniach, że używają AEDT, zmuszając ich do „dodatkowego” wysiłku, aby pokazać, że nie używają AEDT.

Będę dalej wyjaśniał te liczne permutacje i kombinacje, gdy przejdziemy dalej w tej dyskusji. Mamy dużo więcej do pokonania.

Korzystanie z AEDT per se nie jest częścią tej kwestii, która budzi demonstracyjne obawy, to sposób, w jaki AEDT wykonuje swoje działania, wywołuje lawinę prawną. Sedno polega na tym, że jeśli AEDT może również wprowadzać uprzedzenia związane z podejmowaniem decyzji o zatrudnieniu, jesteś wtedy w potencjalnie gorącej wodzie (no cóż, w pewnym sensie).

Skąd mamy wiedzieć, czy AEDT rzeczywiście wprowadza obciążone sztuczną inteligencją uprzedzenia w podejmowaniu decyzji o zatrudnieniu?

Odpowiedź zgodnie z tym prawem jest taka, że ​​ma zostać przeprowadzony audyt AI.

Wcześniej i często omawiałem charakter audytów sztucznej inteligencji i to, czym one są, a także zwracałem uwagę na istniejące wady i źle zdefiniowane aspekty, takie jak link tutaj i link tutaj, wśród wielu innych podobnych wpisów. Mówiąc najprościej, chodzi o to, że tak jak można przeprowadzić audyt finansowy firmy lub audyt technologiczny związany z systemem komputerowym, tak samo można przeprowadzić audyt systemu AI. Korzystając ze specjalistycznych technik, narzędzi i metod audytu, badasz i oceniasz, z czego składa się system AI, w tym na przykład próbując ustalić, czy zawiera on takie czy inne uprzedzenia.

To rozwijający się obszar uwagi.

Możesz oczekiwać, że ta poddziedzina audytu, która jest poświęcona audytowi AI, będzie się nadal rozwijać. Nietrudno zauważyć, że w miarę jak będziemy mieć coraz więcej systemów AI wprowadzanych na rynek, a co za tym idzie, będzie coraz więcej domagać się audytów AI. Nowe przepisy pomogą w wywołaniu tego. Nawet bez tych przepisów będzie mnóstwo audytów sztucznej inteligencji, ponieważ ludzie i firmy twierdzą, że zostali skrzywdzeni przez sztuczną inteligencję i będą dążyć do dostarczenia namacalnego udokumentowanego wskazania, że ​​szkoda była obecna i powiązana z używaną sztuczną inteligencją.

Audytorzy AI będą gorący i poszukiwani.

To może być ekscytująca praca. Jednym, być może ekscytującym elementem, jest zanurzenie się w najnowszą i najlepszą sztuczną inteligencję. AI wciąż się rozwija. Gdy tak się stanie, wnikliwy audytor AI będzie musiał zachować czujność. Jeśli jesteś audytorem, który zmęczył się codziennymi, konwencjonalnymi audytami, otwierające oczy, zawsze nowe propozycje areny audytu AI obiecują (mówię to, aby częściowo podnieść rangę audytorów, ponieważ często są oni niezapowiedzianymi bohaterami pracującymi w okopach i bywają zaniedbywane z powodu ich wysiłków).

Nawiasem mówiąc, byłem certyfikowanym audytorem systemów komputerowych (jedno z takich oznaczeń to CISA) i wielokrotnie wykonywałem audyty IT (Information Technology) przez wiele lat, w tym audyty AI. Przez większość czasu nie zyskujesz uznania, na jakie zasługują takie wysiłki. Pewnie domyślasz się dlaczego. Ogólnie rzecz biorąc, audytorzy mają tendencję do znajdowania rzeczy, które są złe lub zepsute. W tym sensie są bardzo pomocni, choć niektórzy mogą to postrzegać jako złą wiadomość, a posłaniec złych wiadomości zwykle nie jest specjalnie umieszczany na piedestale.

Wracając do aktualnej sprawy.

Jeśli chodzi o prawo nowojorskie, oto, co mówi ono o audycie AI i dążeniu do wykrycia stronniczości AI:

  • „Termin „audyt stronniczości” oznacza bezstronną ocenę dokonaną przez niezależnego audytora. Taki audyt stronniczości powinien obejmować między innymi testowanie zautomatyzowanego narzędzia do podejmowania decyzji o zatrudnieniu w celu oceny zróżnicowanego wpływu narzędzia na osoby z dowolnej kategorii komponentu 1, które muszą być zgłaszane przez pracodawców zgodnie z podsekcją (c) sekcji 2000e-8 tytułu 42 kodeksu Stanów Zjednoczonych, jak określono w części 1602.7 tytułu 29 kodeksu przepisów federalnych” (NYC, Int 1894-2020, podrozdział 25, sekcja 20-870).

Podsumowując, oto, gdzie do tej pory rozpakowaliśmy to prawo:

  • Prawo obejmuje zautomatyzowane narzędzia decyzji o zatrudnieniu (AEDT)
  • Dołączono definicję rodzajów, aby określić, czym jest AEDT
  • Definicja AEDT wspomina również o przepisach wyłączających
  • Istotą jest to, że prawo chce ujawnić stronniczość AI w AEDT
  • Aby dowiedzieć się, czy występują uprzedzenia AI, należy przeprowadzić audyt AI
  • Audyt AI prawdopodobnie ujawni wszelkie uprzedzenia AI

Następnie możemy zagłębić się w prawo.

Oto, z czego składa się decyzja o zatrudnieniu:

  • „Termin „decyzja o zatrudnieniu” oznacza sprawdzanie kandydatów do zatrudnienia lub pracowników w celu awansu w mieście” (NYC, Int 1894-2020, podrozdział 25, sekcja 20-870).

Zwróć uwagę, że graniczny aspekt „miasta” sugeruje, że sprawa dotyczy tylko okoliczności związanych z zatrudnieniem w Nowym Jorku. Warto również zauważyć, że zdefiniowana decyzja o zatrudnieniu pociąga za sobą sprawdzenie kandydatów, co zwykle kojarzy nam się z decyzją o zatrudnieniu, a ponadto obejmuje również awanse.

Jest to podwójna wpadka w tym sensie, że firmy będą musiały zdać sobie sprawę, że muszą być na bieżąco z tym, w jaki sposób ich AEDT (jeśli z nich korzystają) jest wykorzystywany do początkowego zatrudnienia, a także podczas awansu w firmie. Prawdopodobnie można się domyślać lub założyć, że wiele firm nie będzie do końca świadomych, że element promocji również znajduje się w tej rubryce. Nieuchronnie przeoczą tę dodatkową konstrukcję na własne ryzyko.

Następnie przedstawię dodatkowy kluczowy fragment tego prawa, aby wyjaśnić istotę tego, co jest interpretowane jako niezgodne z prawem przez to prawo:

  • „Wymagania dotyczące zautomatyzowanych narzędzi do podejmowania decyzji o zatrudnieniu. a. W mieście niezgodne z prawem jest stosowanie przez pracodawcę lub agencję zatrudnienia automatycznego narzędzia do podejmowania decyzji o zatrudnieniu w celu sprawdzenia kandydata lub pracownika pod kątem decyzji o zatrudnieniu, chyba że: 1. Narzędzie takie było przedmiotem audytu stronniczości przeprowadzonego nie więcej niż rok przed użyciem takiego narzędzia; oraz 2. Podsumowanie wyników ostatniego audytu stronniczości takiego narzędzia, a także data dystrybucji narzędzia, którego dotyczy taki audyt, zostały udostępnione publicznie na stronie internetowej pracodawcy lub agencji zatrudnienia przed skorzystaniem z takie narzędzie…” (NYC, Int 1894-2020, podrozdział 25, sekcja 20-871). Istnieją dodatkowe podrozdziały, którym warto się przyjrzeć, jeśli interesuje Cię treść prawnicza.

Sceptycy i krytycy twierdzą, że wydaje się to nieco chłodne, jeśli chodzi o wywoływanie bezprawnej działalności.

Mówią, że prawo tylko wąsko i minimalnie skupia się na prowadzenia audyt AI i publikowanie wyniki, a nie to, czy audyt sztucznej inteligencji wykrył stronniczość sztucznej inteligencji i czy miało to jakiekolwiek konsekwencje w podejmowaniu decyzji o zatrudnieniu, które wchodzą w zakres tego prawa. Zasadniczo najwyraźniej niezgodne z prawem: nie zdecydować się na przeprowadzenie takiego audytu AI (w stosownych przypadkach, jak omówiono wcześniej), a ponadto jest to niezgodne z prawem w przypadku, gdy przeprowadzasz audyt AI, ale nie nie nagłośnić to.

Prawo wydaje się milczeć w kwestii tego, czy uprzedzenia AI zostały wykryte i obecne, czy nie. Podobnie milczenie na temat tego, czy uprzedzenia sztucznej inteligencji wpłynęły na kogokolwiek związanego z najistotniejszą czynnością związaną z podejmowaniem decyzji o zatrudnieniu. Kluczem do sukcesu jest pozornie „tylko” przeprowadzenie audytu AI i opowiedzenie o nim.

Czy to prawo nie idzie wystarczająco daleko?

Częścią kontrargumentu za twierdzeniem, że jest to pozornie zadowalające, jeśli chodzi o zakres lub zakres tego, co obejmuje ta ustawa, jest to, że jeśli audyt AI wykryje stronniczość AI i jeśli te uprzedzenia AI są powiązane z konkretnymi przypadkami podejmowania decyzji o zatrudnieniu, osoba lub osoby poszkodowane w ten sposób mogłyby ścigać pracodawcę na podstawie: inny prawa. Nie ma więc potrzeby włączania tego aspektu do tej konkretnej ustawy.

Podobno ustawa ta ma na celu wydobyć takie sprawy na światło dzienne.

Gdy światło dzienne rzuci się na te niefortunne praktyki, można zastosować wszelkie inne drogi prawne, jeśli uprzedzenia AI są obecne i mają wpływ na ludzi. Bez tego prawa argumentem jest, że ci, którzy używają AEDT, robiliby to, prawdopodobnie wpadając w amok i mają potencjalnie mnóstwo uprzedzeń AI, o których osoby poszukujące pracy lub poszukujące awansu nie wiedziałyby, że ma miejsce.

Wyprowadź je na powierzchnię. Niech mówią. Wejdź pod maskę. Zobacz, co jest w tym silniku. To jest mantra w tym przypadku. Z tego wynurzenia i mówienia można podjąć dodatkowe działania.

Oprócz poszukiwania kroków prawnych w wyniku wyjaśnienia, że ​​audyt sztucznej inteligencji prawdopodobnie wykazał istnienie stronniczości sztucznej inteligencji, istnieje również przekonanie, że opublikowanie tych wyników wywoła reperkusje dla reputacji. Pracodawcy, którzy są prezentowani jako stosujący AEDT, które mają uprzedzenia AI, prawdopodobnie ucierpią z gniewu społecznego, na przykład za pośrednictwem mediów społecznościowych i tym podobnych. Zostaną ujawnieni za swoje niegodziwe postępowanie i zawstydzeni, aby poprawić swoje zachowanie, a także mogą zostać pozbawieni ludzi próbujących tam pracować z powodu skrupułów, że uprzedzenia AI uniemożliwiają zatrudnianie lub uzurpowanie sobie awansów.

Opisane kary związane z bezprawnością są następujące:

  • „Kary. a. Każda osoba, która naruszy jakiekolwiek postanowienie niniejszego podrozdziału lub jakąkolwiek zasadę ogłoszoną zgodnie z niniejszym podrozdziałem, podlega karze cywilnej w wysokości nie wyższej niż 500 USD za pierwsze naruszenie i każde dodatkowe naruszenie mające miejsce w tym samym dniu, co pierwsze naruszenie, i nie mniej niż 500 USD ani więcej niż 1,500 USD za każde kolejne naruszenie” (NYC, Int 1894-2020, podrozdział 25, sekcja 20-872). Istnieją dodatkowe podrozdziały, którym warto się przyjrzeć, jeśli interesuje Cię treść prawnicza.

Sceptycy i krytycy twierdzą, że kary nie są wystarczająco surowe. Duża firma rzekomo szydziłaby lub śmiała się z niewielkich grzywien w dolarach. Inni wskazują, że grzywna może być większa niż na pierwszy rzut oka, tak że gdyby firma miała tysiące dolarów naruszeń każdego dnia (tylko jeden scenariusz, jest wiele innych scenariuszy), roczna wartość wynosiłaby około 365,000 XNUMX dolarów, zakładając, że firma po prostu ignorowała prawo przez cały rok i uszło mu to na sucho (wydaje się to trudne do wyobrażenia, ale może się zdarzyć, a nawet może nastąpić dłużej lub teoretycznie za wyższą kulminację dziennych grzywien).

Tymczasem niektórzy martwią się o mniejsze firmy i związane z nimi grzywny. Jeśli mała firma, która ledwo wiąże koniec z końcem, zostanie nałożona na grzywny, a podobno nie zrobiła tego celowo, aby ominąć prawo, grzywny mogą mieć istotny wpływ na ich chwiejną działalność.

Kluczowe problematyczne rozważania w tej sprawie

Mam do Ciebie proste i jasne pytanie.

W kontekście tej ustawy, czym dokładnie jest audyt AI?

Problematycznie nie ma definitywnego wskazania w narracji prawa. Wszystko, co wydaje się nam powiedziane, to to, że „audyt stronniczości” ma zostać przeprowadzony poprzez „bezstronną ocenę przez niezależnego audytora” (zgodnie z brzmieniem prawa).

Możesz przejechać ciężarówką Mac przez tę ziejącą dziurę.

Dlatego.

Rozważ ten dość niepokojący przykład. Oszust kontaktuje się z firmą w Nowym Jorku i wyjaśnia, że ​​świadczy ona taką usługę, że przeprowadzi tak zwany „audyt stronniczości” swojego AEDT. Zobowiązują się, że zrobią to „bezstronnie” (cokolwiek to oznacza). Zachowują się jako niezależny audytor i sami się na niego namaścili. Nie ma potrzeby żadnych szkoleń z zakresu rachunkowości lub audytu, stopni naukowych, certyfikatów ani niczego w tym rodzaju. Może zadają sobie trud wydrukowania wizytówek lub pospiesznie założą stronę internetową reklamującą ich pozycję niezależnego audytora.

Pobierają od firmy skromną opłatę, powiedzmy 100 dolarów. Ich usługa polega być może na zadaniu kilku pytań na temat AEDT, a następnie ogłoszeniu, że AEDT jest wolny od stronniczości. Następnie wysyła raport o wielkości jednej strony i deklaruje „wyniki” tzw. audytu. Firma sumiennie publikuje to na swojej stronie internetowej.

Czy firma przestrzegała tego prawa?

Ty mi powiedz.

Wygląda na to, że tak.

Możesz od razu być zaskoczony, że audyt został przeprowadzony w sposób pobieżny (jest to uprzejmość i hojność w tym konkretnym scenariuszu). Możesz być zaniepokojony, że wykrywanie stronniczości (lub jego brak) było być może zasadniczo z góry określone (voila, wydajesz się być wolny od stronniczości). Możesz być zdenerwowany, że opublikowane wyniki mogą sprawiać wrażenie, że przeszedł rygorystyczny audyt przez doświadczonego, wyszkolonego, doświadczonego i biegłego rewidenta działającego w dobrej wierze.

Tak, to ma znaczenie.

Pracodawca może poczuć ulgę, że spełnił ten „głupi” wymóg i cholernie szczęśliwy, że kosztowało go to tylko nędzne 100 dolarów. Pracodawca może wewnętrznie i po cichu zdać sobie sprawę, że niezależny audyt był farsą, ale to pozornie nie leży na jego barkach. Przedstawiono im rzekomego niezależnego audytora, audytor wykonał pracę, o której audytor powiedział, że jest zgodna, firma za to zapłaciła, otrzymali wyniki i opublikowali wyniki.

Niektórzy pracodawcy zrobią to i zdadzą sobie sprawę, że postępują zgodnie z prawem. Niemniej jednak uwierzą, że są w pełni posłuszni.

Inni pracodawcy mogą dać się oszukać. Jedyne, co wiedzą, to konieczność przestrzegania prawa. Na szczęście dla nich (a przynajmniej tak zakładają) kontaktuje się z nimi „niezależny audytor” i obiecuje, że audyt reklamacji i wynik można uzyskać za 100 USD. Aby uniknąć dziennego mandatu w wysokości 500 dolarów lub więcej, firma uważa, że ​​dostała prezent od niebios. Płacą 100 dolarów, przeprowadza się „audyt”, dostają darmowe świadectwo zdrowia dotyczące braku stronniczości AI, publikują wyniki i zapominają o tym do następnego razu, gdy muszą zrobić kolejny taki audyt .

W jaki sposób każda firma w Nowym Jorku, która podlega temu prawu, ma wiedzieć, co to jest przestrzeganie prawa w dobrej wierze?

Jeśli nie masz już trochę żołądka, możemy pogorszyć sytuację. Mam nadzieję, że nie jadłeś posiłku w ciągu ostatnich kilku godzin, ponieważ następny zwrot będzie trudny do utrzymania w nienaruszonym stanie.

Czy jesteś gotowy?

Ten fikcyjny dostawca usług okazuje się bardziej łobuzem, niż mogłoby się wydawać. Nakłaniają firmę do zapisania się na usługę o wartości 100 USD w celu przeprowadzenia bezstronnego audytu stronniczości jako niezależny audytor. I oto, robią „audyt” i odkrywają, że w każdym zakątku AEDT występują uprzedzenia.

Mają uprzedzenia AI, takie jak plaga karaluchów.

Ups, mówi firma, co możemy z tym zrobić?

Nie ma problemu, powiedziano im, że możemy naprawić te uprzedzenia AI. Będzie to kosztować tylko 50 USD za każde takie znalezione stronniczość. Dobra, firma mówi, proszę je naprawić, dzięki za to. Usługodawca trochę koduje i mówi firmie, że naprawił sto błędów sztucznej inteligencji, a zatem będzie pobierał od nich opłatę w wysokości 5,000 USD (to 50 USD na naprawienie błędu AI, pomnożone przez 100 znalezionych).

Och, firma czuje się uszczypnięta, ale nadal jest to lepsze niż stawienie czoła naruszeniom w wysokości 500 USD lub więcej dziennie, więc płacą „niezależnemu audytorowi”, a następnie otrzymują nowy raport pokazujący, że są teraz wolni od stronniczości. Publikują to z dumą na swojej stronie internetowej.

Nie wiedzą, że to było marnotrawstwo, oszustwo, przekręt.

Możesz nalegać, aby ten usługodawca został ukarany za swoje oszustwa. Złapanie i powstrzymanie tych oszustów będzie o wiele trudniejsze, niż możesz sobie wyobrazić. Podobnie jak ściganie książąt z zagranicy, którzy mają dla ciebie fortunę, prawdopodobnie znajdują się w jakiejś obcej krainie poza zasięgiem prawa Stanów Zjednoczonych, to samo może się zdarzyć w tym przypadku.

Spodziewaj się pojawienia się przemysłu chałupniczego z powodu tego nowego prawa.

Będą audytorzy działający w dobrej wierze, którzy będą starali się świadczyć te usługi. Dobrze dla nich. Po tej pracy będą pobieżni audytorzy. Będą fałszywie ogłoszeni audytorzy, którzy pójdą po tej pracy.

Wspomniałem, że scenariusz z usługodawcą polegał na poproszeniu o 100 dolarów na wykonanie tzw. audytu AI. To był tylko zmyślony symbol zastępczy. Może niektórzy będą pobierać 10 USD (wydaje się pobieżne). Może jakieś 50 dolarów (wciąż szkicowe). Itp.

Załóżmy, że usługodawca twierdzi, że wykonanie tej pracy będzie kosztować 10,000 XNUMX USD.

Lub 100,000 XNUMX dolarów, aby to zrobić.

Ewentualnie milion dolarów, aby to zrobić.

Niektórzy pracodawcy nie będą mieli pojęcia, ile to może lub powinno kosztować. Marketing tych usług będzie wolny dla wszystkich. Jest to prawo do zarabiania pieniędzy dla tych, którzy legalnie wykonują te usługi, a także do zarabiania pieniędzy dla tych, którzy są przy tym podstępni. Trudno będzie wiedzieć, który jest który.

Poproszę cię też o kontemplację kolejnej ziejącej dziury.

W kontekście tego prawa, co dokładnie stanowi stronniczość AI?

Poza wzmianką o amerykańskim kodeksie przepisów federalnych (nie jest to szczególnie odpowiedź na pytanie o stronniczość sztucznej inteligencji i nie służy ergo jako prowizorka ani rozwiązanie w tej sprawie), trudno byłoby twierdzić, że to nowe prawo dostarcza wszelkich istotnych wskazówek na temat tego, czym są uprzedzenia AI. Po raz kolejny będzie to całkowicie otwarte na szeroko rozbieżne interpretacje i nie będziesz szczególnie wiedział, czego szukano, co znaleziono i tak dalej. Ponadto praca wykonywana nawet przez audytorów AI w dobrej wierze będzie prawie prawdopodobnie nieporównywalna z innymi, tak że każdy z nich będzie miał tendencję do używania własnych definicji i podejść.

Krótko mówiąc, możemy z trwogą i niepokojem patrzeć na to, co spotkają pracodawcy w wyniku tego luźno sformułowanego, choć dobrze zaplanowanego prawa:

  • Niektórzy pracodawcy będą znali prawo i rzetelnie iw pełni stosują się do nich najlepiej, jak potrafią
  • Niektórzy pracodawcy wiedzą o prawie i marginalnie stosują się do najcieńszej, najtańszej i prawdopodobnie niesmacznej ścieżki, jaką mogą znaleźć lub która przychodzi do ich drzwi
  • Niektórzy pracodawcy wiedzą o prawie i uważają, że nie podlegają przepisom prawa, więc nic z tym nie zrobią (choć okazuje się, że mogą być w jego zakresie)
  • Niektórzy pracodawcy wiedzą o prawie i kategorycznie zdecydują się je zignorować, być może wierząc, że nikt tego nie zauważy lub że prawo nie będzie egzekwowane, lub że prawo zostanie uznane za niewykonalne itp.
  • Niektórzy pracodawcy nie wiedzą o prawie i zostaną przyłapani na płaskim stopie, starając się przestrzegać
  • Niektórzy pracodawcy nie będą wiedzieć o prawie i zostaną nędznie oskubani przez oszustów
  • Niektórzy pracodawcy nie wiedzą o prawie, nie są objęci zakresem, ale i tak są oszukiwani przez oszustów, którzy przekonują ich, że mieszczą się w zakresie
  • Niektórzy pracodawcy nie będą wiedzieć o prawie i nic z nim nie zrobią, a cudem nigdy nie zostaną złapani ani wciągnięci w ich przeoczenie
  • Inne

Jedną z kluczowych kwestii, o których należy pamiętać, jest wielkość lub skalowanie związane z tym nowym prawem.

Według różnych zgłoszonych statystyk dotyczących liczby firm w Nowym Jorku, liczba ta jest zwykle wskazywana jako około 200,000 XNUMX przedsiębiorstw (użyjmy tego jako rzędu wielkości). Zakładając, że jest to rozsądne przybliżenie, przypuszczalnie te przedsiębiorstwa jako pracodawcy podlegają temu nowemu prawu. Tak więc weźmy wyżej wymienione kilka sposobów, w jakie pracodawcy zareagują na to prawo i zastanówmy się, ile będzie ich w każdym z różnych wiader, o których właśnie wspomniałem.

Jest to dość oszałamiający problem ze skalowaniem.

Dodatkowo, według zgłoszonych statystyk, w Nowym Jorku jest prawdopodobnie 4 miliony miejsc pracy w sektorze prywatnym, plus szacunkowa liczba około 300,000 XNUMX pracowników rządowych zatrudnionych przez rząd Nowego Jorku (ponownie, użyj ich jako rzędów wielkości, a nie dokładnych obliczeń). Jeśli weźmiesz pod uwagę, że nowi pracownicy najwyraźniej wchodzą w zakres tego nowego prawa, wraz z awansami związanymi z wszystkimi obecnymi i przyszłymi pracownikami, liczba pracowników, których w ten czy inny sposób dotknie to prawo, jest szczerze zdumiewająca .

Wielkie Jabłko ma nowe prawo, które na pierwszy rzut oka wydaje się nieszkodliwe i pozornie nieistotne lub przyziemne, ale kiedy zdasz sobie sprawę z zaangażowanych czynników skalowania, cóż, może to przyprawić o zawrót głowy

Wnioski

Wspomniałem na początku tej dyskusji, że jest to nowe prawo w dobrej wierze.

Wszystko, co właśnie opisałem jako potencjalne luki, pominięcia, luki, problemy i tym podobne, można było łatwo przewidzieć. To nie jest nauka o rakietach. Mogę dodać, że jest jeszcze więcej nieodłącznych obaw i mylących aspektów tego prawa, których ze względu na ograniczenia przestrzenne tutaj nie wymieniłem.

Możesz je znaleźć tak łatwo, jak strzelasz do ryb w beczce.

Prawa tego rodzaju powinny być starannie opracowane, aby zapobiec tego rodzaju podstępnym najazdom. Zakładam, że gorliwi kompozytorzy starali się napisać prawo, które ich zdaniem było stosunkowo niepodważalne i być może, w najgorszym przypadku, miałyby tu czy tam jakieś maleńkie krople. Niestety jest to wąż z kroplówkami. Potrzebnych będzie dużo taśmy klejącej.

Czy prawo mogło zostać napisane w bardziej wyjaśniony sposób, aby zamknąć te dość oczywiste luki i związane z nimi kwestie?

Tak, w obfitości.

Teraz, skoro tak jest, możesz z oburzeniem napominać, że takie prawo bez wątpienia byłoby znacznie dłuższe. Zawsze istnieje kompromis polegający na tym, że prawo, które trwa i trwa, staje się nieporęczne, a jest zwięzłe i zwięzłe. Nie chcesz jednak zyskać zwięzłości, tracąc to, co byłoby merytoryczną i merytoryczną jasnością i szczegółowością. Krótkie prawo, które pozwala na wybryki, jest pełne kłopotów. Dłuższe prawo, nawet jeśli wydaje się bardziej złożone, zwykle byłoby godnym kompromisem, jeśli pozwala uniknąć, uniknąć lub przynajmniej zminimalizować problemy na etapie adopcji.

Słynny św. Augustyn powiedział: „Wydaje mi się, że niesprawiedliwe prawo w ogóle nie jest prawem”.

Moglibyśmy przedstawić wniosek, że sprawiedliwe prawo, które składa się z problematycznego języka, jest prawem proszącym o wywołanie ponurych problemów. W tym przypadku wydaje się, że pozostawiono nam mądre słowa wielkiego prawnika Olivera Wendella Holmesa Jr., a mianowicie, że karta historii jest warta funta logiki.

Patrzcie, jak wkrótce powstanie historia.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- uprzedzenia-audyty-kopnia-na-bieg/