Etyka AI wprawiana w zakłopotanie przez tych, którzy solą etyków AI, którzy „rozbudzają” etyczne praktyki AI

Solenie jest ostatnio dość popularne w wiadomościach.

Nie mam na myśli soli, którą dodajesz do swojego jedzenia. Zamiast tego poruszam kwestię „salania”, która kojarzy się z prowokacyjną i pozornie bardzo kontrowersyjną praktyką związaną ze wzajemnym oddziaływaniem pracy i biznesu.

Widzisz, ten rodzaj solenia pociąga za sobą sytuację, w której dana osoba próbuje zostać zatrudniona w firmie, aby rzekomo zainicjować lub, jak można by powiedzieć, wszcząć w niej związek zawodowy. Najnowsze doniesienia prasowe omawiające to zjawisko wskazują na takie firmy, jak Starbucks, Amazon i inne znane, a nawet mniej znane firmy.

Najpierw omówię podstawy solenia, a następnie przejdę do podobnego tematu, który może cię zaskoczyć, a mianowicie, że wydaje się, że w dziedzinie sztucznej inteligencji (AI) ma miejsce rodzaj solenia. Ma to kluczowe względy etyki AI. Aby zapoznać się z moim stałym i obszernym omówieniem etyki sztucznej inteligencji i etycznej sztucznej inteligencji, zobacz link tutaj i link tutaj, żeby wymienić tylko kilka.

Przejdźmy teraz do podstaw tego, jak zwykle działa solenie.

Załóżmy, że firma nie ma żadnych związków zawodowych w swojej sile roboczej. Jak związek zawodowy może w jakiś sposób zdobyć przyczółek w tej firmie? Jednym ze sposobów byłoby podjęcie działań poza firmą i próba zaapelowania do pracowników, aby wstąpili do związku. Może to obejmować wyświetlanie banerów w pobliżu siedziby firmy lub wysyłanie pracownikom ulotek lub korzystanie z mediów społecznościowych i tak dalej.

Jest to zdecydowanie podejście typu outside-in.

Inną drogą byłoby wystrzelenie iskry, która mogłaby wprawić piłkę w ruch. Gdyby przynajmniej jeden pracownik mógł zostać cheerleaderką za przyjęciem związku zawodowego w firmie, być może uruchomiłoby to ostateczną wewnętrzną kawalkadę poparcia dla uzwiązkowienia. Nawet jeśli taki pracownik nie służył jako gorliwy kibic, mógł po cichu zdobyć wewnętrzne poparcie wśród robotników i być względnie ukrytą siłą w organizacji w celu dążenia do uzwiązkowienia.

W tym toku myślenia związek zawodowy mógłby rozważać sposoby, w jakie taki pracownik może być tak aktywowany. Związek może wydać nieskończoną energię, aby znaleźć tę igłę w stogu siana. Wśród być może setek lub tysięcy pracowników firmy, próba odnalezienia tak zwanego wybranego, w szczególności, który będzie sprzyjał związkowi, może być trudna do wykonania.

Przydałoby się łatwiej „odkryć” tego wywołującego iskry pracownika (lub wymyślić go, że tak powiem).

To prowadzi nas do pomysłu voila, że ​​być może firma zatrudni taką osobę do codziennej pracy w firmie. Zasadniczo wszczep w firmie odpowiednią osobę, która pobudza do związków. Nie musisz próbować odwoływać się do tłumu pracowników, o których mówiono z zewnątrz, i zamiast tego wstawić jedną aktywującą osobę, aby mieć pewność, że twoja iskra jest tam zatrudniona.

Nowo zatrudniony pracownik stara się następnie zaszczepić w firmie interes związkowy, jednocześnie wykonując dowolną pracę, do której został zatrudniony (wyrażając to, co często określa się mianem „rzeczywistego zainteresowania” pracą). Należy pamiętać, że dana osoba jest aktywnie zatrudniona przez firmę i aktywnie wykonuje pracę wymaganą od niej jako pracownik. W zwyczajowej sferze solenia nie są oni wyłącznie pracownikiem związkowym, nie związanym z konkretnym zawodem, który może być osadzony w firmie.

Niektórzy głosili takie podejście.

Napominają, że pozwala to zaoszczędzić czas i zasoby, ponieważ związek stara się zainspirować pracowników firmy do rozważenia przystąpienia do związku. Inni pracownicy zazwyczaj chętniej słuchają i są aktywowani przez kolegę. Alternatywne podejście polegające na próbie uzyskania przyczepności z zewnątrz jest uważane za mniej pociągające, ponieważ kolega z pracy zapewnia silną motywację pracownikom w firmie w porównaniu z niektórymi „obcymi”, którzy są postrzegani jako niewiele więcej niż niezaangażowani i niedbali o realizację programu. osoby z zewnątrz.

Nie wszyscy są zadowoleni z podejścia do solenia.

Firmy często twierdzą, że jest to bardzo podstępna i nieuczciwa praktyka. Ogólna koncepcja tego podejścia polega na tym, że szpieg jest umieszczany w środku firmy. To nie jest to, do czego dana osoba została zatrudniona. Przypuszczalnie zostali wynajęci do wykonywania swojej określonej pracy, podczas gdy zamiast tego całe różne wybryki wyglądają jak diaboliczne wszczepienie prawdziwego konia trojańskiego.

Roszczenie wzajemne ze strony związków jest takie, że jeśli dana osoba wykonuje swoją określoną pracę, nie ma nic złego ani faul. Przypuszczalnie pracownik, a może powiemy każdy pracownik firmy, zazwyczaj może zdecydować się na uzwiązkowienie. Tak się składa, że ​​ten konkretny pracownik chce to zrobić. Fakt, że weszli do firmy z myślą o tym, jest jedynie czymś, co każdy nowo zatrudniony pracownik może również brać pod uwagę.

Poczekaj chwilę, firmy odpowiedzą, to jest ktoś, kto według projektu chciał przyjść do firmy w celu założenia przyczółka związkowego. To jest ich napędzane pragnienie. Nowo zatrudniony pracownik kpił z procesu zatrudniania i nadużywał swoich aspiracji związanych z poszukiwaniem pracy jako zamaskowanego udawania szczególnej korzyści związku.

Ten gorący dyskurs toczy się w kółko i w kółko.

Należy pamiętać, że w tych ustawieniach pojawia się mnóstwo kwestii prawnych. Wszelkiego rodzaju zasady i regulacje, które odnoszą się na przykład do Krajowej Ustawy o Stosunkach Pracy (NLRA) i Krajowej Rady ds. Stosunków Pracy (NRLB) są częścią tych gambitów. Nie chcę, abyście odnieśli wrażenie, że na tych frontach sprawy są proste. Mnożą się liczne komplikacje prawne.

Powinniśmy również zastanowić się nad różnorodnością odmian, które przychodzą do zabawy z soleniem.

Weź pod uwagę możliwość, że osoba, która chce zostać zatrudniona, jest otwarcie zwolennikiem związku w całym procesie poszukiwania pracy w firmie. Ta osoba może pojawić się na rozmowie kwalifikacyjnej w koszuli lub innym stroju, który jasno pokazuje, że jest za związkiem. Mogą podczas rozmów kwalifikacyjnych wyrażać nadzieję, że firma kiedyś przyjmie uzwiązkowienie. Itp.

W takim przypadku niektórzy twierdziliby, że firma wiedziała, w co się pakuje. Od samego początku firma miała wiele wskazówek na temat intencji danej osoby. Nie możesz potem jęczeć, jeśli po zatrudnieniu nowy pracownik zrobi wszystko, co w jego mocy, aby związek znalazł się w drzwiach. Firma niejako strzeliła sobie w stopę, a wszystko inne to tylko krokodyle łzy.

Taniec w tym przypadku jest jednak ponownie bardziej złożony, niż się wydaje. W przypadku problemów prawnych, które mogą się pojawić, osoba, która w inny sposób kwalifikuje się do zatrudnienia, może, jeśli zostanie odrzucona przez firmę zatrudniającą, argumentować, że została celowo przeoczona w wyniku antyzwiązkowej stronniczości firmy. Po raz kolejny NRLA i NRLB zostają wciągnięte w ten bałagan.

Szybko przeprowadzę cię przez wiele innych rozważań, które pojawiają się w królestwie solenia. Chciałbym również, abyście mieli świadomość, że solenie nie jest wyłącznie zjawiskiem występującym tylko w Stanach Zjednoczonych. Może wystąpić również w innych krajach. Oczywiście, prawa i praktyki w poszczególnych krajach różnią się diametralnie, a zatem solenie nie jest szczególnie przydatne, a może nawet całkowicie zakazane w niektórych lokalizacjach, podczas gdy charakter solenia może ulec znacznej zmianie w zależności od jego obyczajów prawnych i kulturowych i może w rzeczywistości wciąż mają moc.

Skonsultuj się ze swoim ukochanym prawnikiem zajmującym się prawem pracy w interesującej Cię jurysdykcji.

Niektóre dodatkowe czynniki dotyczące solenia obejmują:

  • Zarabianie. Czasami związek otrzymuje wynagrodzenie za wykonanie zadania zatrudnienia w firmie. Mogą wtedy być opłacani zarówno przez firmę, jak i związek w trakcie ich kadencji w firmie lub mogą nie otrzymywać już wynagrodzenia od związku po zatrudnieniu przez firmę.
  • Widoczność. Czasami osoba ta trzyma się na dole lub milczy podczas procesu rekrutacji na temat swoich zamiarów związkowych, podczas gdy w innych przypadkach osoba otwarcie mówi o tym, co zamierza zrobić. Pozornie połowiczne podejście polega na tym, że dana osoba powie, co zamierza zrobić, jeśli zostanie wyraźnie poproszona podczas wywiadu, a tym samym sugeruje, że to do firmy należy wykrycie takich intencji, co jest obciążeniem, które firmy argumentują podstępnie i podstępnie. obciąża granice prawne.
  • Wyczucie czasu. Osoba raz zatrudniona może zdecydować się na czekanie z podjęciem działań związkowych. Potencjalnie mogą czekać tygodnie, miesiące, a nawet lata na aktywację. Szanse są jednak bardziej prawdopodobne, że zaczną, gdy zaaklimatyzują się w firmie i zdobędą osobisty przyczółek jako pracownik firmy. Jeśli zaczną natychmiast, może to zniweczyć ich próbę bycia postrzeganym jako wtajemniczony i obrzucić ich jako intruza lub outsidera.
  • Podjęte kroki. Czasami dana osoba wyraźnie ogłosi w firmie, że teraz stara się przyjąć uzwiązkowienie, co może nastąpić wkrótce po zatrudnieniu lub nastąpić jakiś czas później (zgodnie z moimi powyższymi wskazówkami dotyczącymi czynnika czasu). Z drugiej strony, osoba ta może zdecydować się służyć w roli tajnej, przekazując informacje związkowi i nie zwracając na siebie uwagi. Czasami jest to krytykowane jako solenie kret, choć inni podkreślają, że w przeciwnym razie dana osoba może być narażona na wewnętrzne ryzyko, jeśli wypowiada się bezpośrednio.
  • Tenuta. Osoba podejmująca wysiłek solenia może w końcu uzyskać impuls do uzwiązkowienia (są „solarką”). Potencjalnie mogliby pozostać w firmie przez cały proces uzwiązkowienia. Biorąc to pod uwagę, czasami taka osoba decyduje się opuścić firmę, która została wywołana iskrą, i zdecydować się na przejście do innej firmy, aby rozpocząć od nowa działalność iskrzącą. Kłótnie na ten temat są intensywne. Jeden punkt widzenia jest taki, że to wyraźnie pokazuje, że dana osoba nie miała w sercu pracy w firmie. Kontrastujący punkt widzenia jest taki, że prawdopodobnie znajdą się na mętnych i prawdopodobnie nie do utrzymania na wodach, pozostając w firmie, gdy wysiłki na rzecz wspierania związku nabiorą rozpędu.
  • Wynik. Próba solenia nie gwarantuje określonego wyniku. Może być tak, że dana osoba podnosi świadomość na temat uzwiązkowienia i wysiłek się rozpoczyna, ergo miało miejsce „udane” solenie. Innym skutkiem jest to, że dana osoba nie jest w stanie uzyskać takiej trakcji. Następnie albo rezygnują z pościgu i pozostają w firmie, być może czekając na kolejną szansę w późniejszym czasie, albo opuszczają firmę i zazwyczaj starają się solenie w innej firmie.
  • Profesjonalny Salter. Niektórzy uważają się za silnych zwolenników solenia i są dumni z tego, że służą jako solenizujący. Wielokrotnie soliją, przechodząc od twardości do twardości. Inni zrobią to jednorazowo, być może ze względu na konkretną preferencję lub aby zobaczyć, jak to jest, a potem zdecydują się nie powtarzać w takiej roli. Z pewnością możesz sobie wyobrazić rodzaje osobistej presji i potencjalnego stresu, które mogą wystąpić, gdy jesteś w stanie solenia.

Te czynniki na razie wystarczą, aby podkreślić zakres i dynamikę solenia. Powrócę do tych czynników w kontekście rozważań dotyczących sztucznej inteligencji i etycznej sztucznej inteligencji.

Istotą jest to, że niektórzy ludzie starają się zostać zatrudnieni w firmie, aby zainicjować lub nakłonić do ustanowienia zasad etyki AI w firmie. To jest ich główna motywacja do pójścia do pracy w firmie.

W pewnym sensie soliją nie w celu uzwiązkowienia, ale zamiast tego „solą”, aby spróbować zakorzenić firmę w zasadach etycznej sztucznej inteligencji.

Dużo więcej na ten temat powiem za chwilę.

Zanim przejdziemy do większej ilości mięsa i ziemniaków na temat dzikich i wełnianych rozważań leżących u podstaw solenia w kontekście sztucznej inteligencji, przedstawmy kilka dodatkowych podstaw dotyczących niezwykle istotnych tematów. Musimy krótko zagłębić się w etykę sztucznej inteligencji, a zwłaszcza w nadejście uczenia maszynowego (ML) i uczenia głębokiego (DL).

Możesz być niejasno świadomy, że jeden z najgłośniejszych głosów w dzisiejszych czasach w dziedzinie sztucznej inteligencji, a nawet poza nią, polega na domaganiu się większego podobieństwa do etycznej sztucznej inteligencji. Przyjrzyjmy się, co to znaczy odnosić się do etyki AI i etycznej sztucznej inteligencji. Ponadto zbadamy, co mam na myśli, mówiąc o uczeniu maszynowym i uczeniu głębokim.

Jeden szczególny segment lub część etyki sztucznej inteligencji, która przyciąga wiele uwagi mediów, obejmuje sztuczną inteligencję, która wykazuje niepożądane uprzedzenia i nierówności. Być może zdajesz sobie sprawę, że kiedy rozpoczęła się najnowsza era sztucznej inteligencji, nastąpił ogromny wybuch entuzjazmu dla tego, co niektórzy nazywają AI na dobre. Niestety, w ślad za tym tryskającym podnieceniem zaczęliśmy być świadkami AI na złe. Na przykład, różne systemy rozpoznawania twarzy oparte na sztucznej inteligencji zostały ujawnione jako zawierające uprzedzenia rasowe i uprzedzenia dotyczące płci, które omówiłem na link tutaj.

Wysiłki, przeciwko którym należy walczyć AI na złe są aktywnie w toku. Poza krzykliwym prawny dążenia do powstrzymania złego postępowania, istnieje również zdecydowany nacisk na przyjęcie etyki AI w celu naprawienia podłości AI. Chodzi o to, że powinniśmy przyjąć i poprzeć kluczowe zasady etycznej sztucznej inteligencji dla rozwoju i wykorzystania sztucznej inteligencji, robiąc to, aby podciąć AI na złe jednocześnie głosząc i promując to, co najlepsze AI na dobre.

Jeśli chodzi o pokrewną koncepcję, jestem zwolennikiem prób użycia sztucznej inteligencji jako części rozwiązania nieszczęść AI, walki z ogniem ogniem w ten sposób myślenia. Możemy na przykład osadzić komponenty etycznej sztucznej inteligencji w systemie sztucznej inteligencji, który będzie monitorował, jak reszta sztucznej inteligencji robi różne rzeczy, a tym samym potencjalnie wyłapuje w czasie rzeczywistym wszelkie dyskryminacyjne wysiłki, zobacz moją dyskusję na link tutaj. Moglibyśmy również mieć osobny system AI, który działa jako rodzaj monitora etyki AI. System AI służy jako nadzorca do śledzenia i wykrywania, kiedy inna sztuczna inteligencja wchodzi w nieetyczną otchłań (zobacz moją analizę takich możliwości na link tutaj).

Za chwilę podzielę się z wami kilkoma nadrzędnymi zasadami leżącymi u podstaw etyki AI. Istnieje wiele tego rodzaju list, które krążą tu i tam. Można powiedzieć, że nie ma jeszcze pojedynczej listy uniwersalnej atrakcyjności i zbieżności. To niefortunne wieści. Dobrą wiadomością jest to, że przynajmniej istnieją łatwo dostępne listy etyczne AI i są one dość podobne. Podsumowując, sugeruje to, że poprzez pewną formę rozumnej konwergencji, odnajdujemy drogę w kierunku ogólnej wspólności tego, z czego składa się etyka AI.

Najpierw omówmy pokrótce niektóre z ogólnych zasad etycznej sztucznej inteligencji, aby zilustrować, co powinno być istotnym czynnikiem dla każdego, kto tworzy, uprawia lub używa sztucznej inteligencji.

Na przykład, jak stwierdził Watykan w Rzym wzywa do etyki AI i jak omówiłem dogłębnie na link tutaj, to są ich zidentyfikowane sześć podstawowych zasad etycznych AI:

  • Przejrzystość: Zasadniczo systemy SI muszą być możliwe do wyjaśnienia
  • Włączenie: Potrzeby wszystkich istot ludzkich muszą być brane pod uwagę, aby każdy mógł odnieść korzyści, a wszystkim można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju
  • Odpowiedzialność: Ci, którzy projektują i wdrażają sztuczną inteligencję, muszą postępować z odpowiedzialnością i przejrzystością
  • Bezstronność: Nie twórz ani nie działaj zgodnie z uprzedzeniami, chroniąc w ten sposób uczciwość i godność ludzką
  • Niezawodność: Systemy AI muszą działać niezawodnie
  • Bezpieczeństwo i prywatność: Systemy sztucznej inteligencji muszą działać bezpiecznie i szanować prywatność użytkowników.

Jak stwierdził Departament Obrony USA (DoD) w swoich Zasady etyczne korzystania ze sztucznej inteligencji i jak omówiłem dogłębnie na link tutaj, oto sześć podstawowych zasad etyki SI:

  • Odpowiedzialny: Personel Departamentu Obrony będzie wykazywał odpowiedni poziom osądu i dbałości, pozostając jednocześnie odpowiedzialnym za rozwój, wdrażanie i wykorzystanie możliwości sztucznej inteligencji.
  • Sprawiedliwy: Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach sztucznej inteligencji.
  • Identyfikowalne: Zdolności w zakresie sztucznej inteligencji Departamentu zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednią wiedzę na temat technologii, procesów rozwoju i metod operacyjnych mających zastosowanie do możliwości sztucznej inteligencji, w tym przejrzystych i podlegających kontroli metodologii, źródeł danych oraz procedury i dokumentacji projektowej.
  • Niezawodny: Zdolności sztucznej inteligencji Departamentu będą miały wyraźne, dobrze zdefiniowane zastosowania, a bezpieczeństwo, ochrona i skuteczność takich możliwości będą podlegać testom i zapewnieniom w ramach tych zdefiniowanych zastosowań w całym ich cyklu życia.
  • Uległy: Departament zaprojektuje i opracuje możliwości sztucznej inteligencji, aby spełniały zamierzone funkcje, posiadając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do odłączania lub dezaktywacji wdrożonych systemów, które wykazują niezamierzone zachowanie.

Omówiłem również różne zbiorowe analizy zasad etyki AI, w tym obejmując zestaw opracowany przez badaczy, którzy zbadali i skondensowali istotę wielu krajowych i międzynarodowych zasad etyki AI w artykule zatytułowanym „The Global Landscape Of AI Ethics Guidelines” (opublikowanym w Natura) i że mój zasięg eksploruje w link tutaj, co doprowadziło do tej listy kluczowej:

  • Przezroczystość
  • Sprawiedliwość i uczciwość
  • Nieszkodzenie
  • Odpowiedzialność
  • Prywatności
  • Dobroczynność
  • Wolność i autonomia
  • Zaufaj
  • Zrównoważony rozwój
  • Godność
  • Solidarność

Jak można się domyślić, próba sprecyzowania szczegółów leżących u podstaw tych zasad może być niezwykle trudna. Co więcej, wysiłek, aby przekształcić te ogólne zasady w coś całkowicie namacalnego i wystarczająco szczegółowego, aby można je było wykorzystać podczas tworzenia systemów AI, jest również trudnym orzechem do zgryzienia. Ogólnie rzecz biorąc, łatwo jest trochę machać ręką na temat tego, czym są zasady etyki AI i jak należy ich ogólnie przestrzegać, podczas gdy jest to znacznie bardziej skomplikowana sytuacja w kodowaniu AI, która musi być prawdziwą gumą, która spotyka drogę.

Zasady AI Ethics mają być wykorzystywane przez programistów AI, wraz z tymi, którzy zarządzają pracami nad rozwojem AI, a nawet tymi, którzy ostatecznie wdrażają i konserwują systemy AI. Wszyscy interesariusze w całym cyklu rozwoju i użytkowania sztucznej inteligencji są uważani za przestrzegających ustalonych norm etycznej sztucznej inteligencji. Jest to ważna informacja, ponieważ zwykle przyjmuje się, że „tylko koderzy” lub ci, którzy programują sztuczną inteligencję, podlegają zasadom AI Ethics. Jak wspomniano wcześniej, potrzeba wioski, aby wymyślić i wykorzystać sztuczną inteligencję, a cała wioska musi być zaznajomiona i przestrzegać zasad etyki sztucznej inteligencji.

Upewnijmy się również, że jesteśmy na tej samej stronie o naturze dzisiejszej sztucznej inteligencji.

Nie ma dzisiaj sztucznej inteligencji, która byłaby świadoma. Nie mamy tego. Nie wiemy, czy rozumna sztuczna inteligencja będzie możliwa. Nikt nie jest w stanie trafnie przewidzieć, czy osiągniemy czującą sztuczną inteligencję, ani czy świadoma sztuczna inteligencja w jakiś cudowny sposób spontanicznie pojawi się w formie obliczeniowej supernowej poznawczej (zwykle nazywanej osobliwością, zobacz moje sprawozdanie na link tutaj).

Rodzaj sztucznej inteligencji, na którym się skupiam, składa się z nieodczuwającej sztucznej inteligencji, którą mamy dzisiaj. Gdybyśmy chcieli szaleńczo spekulować na temat odczuwający AI, ta dyskusja mogłaby pójść w radykalnie innym kierunku. Czująca sztuczna inteligencja podobno miałaby ludzką jakość. Musisz wziąć pod uwagę, że czująca sztuczna inteligencja jest poznawczym odpowiednikiem człowieka. Co więcej, ponieważ niektórzy spekulują, że możemy mieć superinteligentną sztuczną inteligencję, można sobie wyobrazić, że taka sztuczna inteligencja może być mądrzejsza od ludzi (dla moich badań superinteligentnej sztucznej inteligencji jako możliwości, zobacz zasięg tutaj).

Skupmy się bardziej na ziemi i rozważmy dzisiejszą obliczeniową, nieczułą sztuczną inteligencję.

Uświadom sobie, że dzisiejsza sztuczna inteligencja nie jest w stanie „myśleć” w żaden sposób na równi z ludzkim myśleniem. Kiedy wchodzisz w interakcję z Alexą lub Siri, możliwości konwersacyjne mogą wydawać się zbliżone do ludzkich, ale w rzeczywistości są one obliczeniowe i brakuje im ludzkiego poznania. W najnowszej erze sztucznej inteligencji szeroko wykorzystano uczenie maszynowe (ML) i głębokie uczenie (DL), które wykorzystują dopasowywanie wzorców obliczeniowych. Doprowadziło to do systemów sztucznej inteligencji, które wyglądają na skłonności podobne do ludzkich. Tymczasem nie ma dziś sztucznej inteligencji, która miałaby pozory zdrowego rozsądku, ani żadnego poznawczego zdumienia, które wiąże się z solidnym ludzkim myśleniem.

ML/DL to forma dopasowywania wzorców obliczeniowych. Typowe podejście polega na gromadzeniu danych o zadaniu decyzyjnym. Wprowadzasz dane do modeli komputerowych ML/DL. Modele te dążą do znalezienia wzorców matematycznych. Po znalezieniu takich wzorców, jeśli takowe zostaną znalezione, system AI użyje tych wzorców podczas napotkania nowych danych. Po przedstawieniu nowych danych wzorce oparte na „starych” lub historycznych danych są stosowane do wydania aktualnej decyzji.

Myślę, że możesz odgadnąć, dokąd to zmierza. Jeśli ludzie, którzy podejmowali wzorcowe decyzje, wprowadzali niepożądane uprzedzenia, istnieje prawdopodobieństwo, że dane odzwierciedlają to w subtelny, ale znaczący sposób. Uczenie maszynowe lub głębokie dopasowywanie wzorców obliczeniowych będzie po prostu próbować odpowiednio naśladować dane matematycznie. Nie ma pozorów zdrowego rozsądku lub innych świadomych aspektów modelowania stworzonego przez sztuczną inteligencję per se.

Co więcej, twórcy sztucznej inteligencji również mogą nie zdawać sobie sprawy z tego, co się dzieje. Tajemna matematyka w ML/DL może utrudnić wykrycie ukrytych obecnie uprzedzeń. Można by mieć słuszną nadzieję i oczekiwać, że twórcy sztucznej inteligencji przetestują potencjalnie ukryte uprzedzenia, choć jest to trudniejsze, niż mogłoby się wydawać. Istnieje duża szansa, że ​​nawet przy stosunkowo obszernych testach, w modelach dopasowywania wzorców ML/DL nadal będą obecne błędy systematyczne.

Mógłbyś nieco użyć słynnego lub niesławnego powiedzenia „śmieci-w-śmieci-wyrzucić”. Chodzi o to, że jest to bardziej zbliżone do uprzedzeń, które podstępnie są wprowadzane jako uprzedzenia zanurzone w sztucznej inteligencji. Algorytm podejmowania decyzji (ADM) AI aksjomatycznie staje się obciążony nierównościami.

Niedobrze.

Wróćmy do naszego skupienia się na soleniu w kontekście AI.

Po pierwsze, usuwamy wszelkie pozory elementu uzwiązkowienia z terminologii solenia i zamiast tego używamy solenia jako uogólnionego paradygmatu lub podejścia jako szablonu. Tak więc, proszę odłożyć na bok aspekty związane ze związkami dla celów tej dyskusji dotyczącej solenia AI.

Po drugie, jak wspomniano wcześniej, solenie w kontekście AI oznacza, że ​​niektórzy ludzie mogą dążyć do zatrudnienia w firmie, aby zainicjować lub nakłonić do ustanowienia zasad etyki AI w firmie. To jest ich główna motywacja do pójścia do pracy w firmie.

Aby wyjaśnić, jest absolutnie wielu, którzy zostają zatrudnieni w firmie i mają już na uwadze, że etyka AI jest ważna. Nie jest to jednak najważniejsza podstawa przy próbie zatrudnienia przez konkretną interesującą firmę. Zasadniczo zostaną zatrudnieni do wykonania jakiejś pracy związanej z opracowywaniem lub wdrażaniem sztucznej inteligencji, i do czego z łatwością wnoszą w siebie silną wiarę w etyczną sztuczną inteligencję.

Następnie będą pracować najlepiej, jak potrafią, aby wpajać lub inspirować rozważania dotyczące etyki AI w firmie. Dobrze dla nich. Potrzebujemy więcej, które mają to szczere pragnienie.

Ale to nie jest solenie, o którym tutaj nawiązuję. Wyobraź sobie, że ktoś wybiera konkretną firmę, która wydaje się nie robić wiele, jeśli w ogóle coś związanego z przyjęciem etyki AI. Osoba decyduje, że zostanie zatrudniona przez tę firmę, jeśli może to zrobić w jakiejś codziennej pracy związanej z AI (a może nawet w roli innej niż AI), a następnie jej głównym celem będzie zainstalowanie lub wszczęcie zasad etyki AI w firma. To nie jest ich główny obowiązek, a nawet nie jest wymieniony w ich obowiązkach zawodowych (wspominam o tym, ponieważ oczywiście, jeśli ktoś jest zatrudniony, aby celowo wprowadzać etykę AI, nie „soli” w sposób konotacji i podobieństwa w niniejszym dokumencie).

Ta osoba nie dba o samą pracę jako taką. Jasne, zrobią wszystko, na czym polega praca, i prawdopodobnie mają do tego odpowiednie kwalifikacje. Tymczasem ich prawdziwym celem jest zachęcenie etycznej sztucznej inteligencji do stania się nieodłączną częścią firmy. To jest misja. To jest cel. Sama praca jest jedynie środkiem lub narzędziem, które pozwala im to robić od wewnątrz.

Można powiedzieć, że mogliby zrobić to samo spoza firmy. Mogliby spróbować lobbować zespoły AI w firmie, aby bardziej zaangażowały się w etykę AI. Mogą próbować zawstydzić firmę, aby to zrobiła, na przykład zamieszczając posty na blogach lub podejmując inne kroki. I tak dalej. Chodzi o to, że nadal byliby outsiderami, tak jak wskazano wcześniej przy omawianiu nadrzędnej przesłanki solenia.

Czy osoba solona AI jest podstępna?

Ponownie przypomina się nam to samo pytanie o kontekst związkowy solenia. Osoba może upierać się, że w ogóle nie ma oszustwa. Zostali zatrudnieni do pracy. Wykonują swoją pracę. Tak się składa, że ​​dodatkowo są wewnętrznym orędownikiem etyki AI i ciężko pracują, aby inni zrobili to samo. Bez szkody, bez faulu.

Prawdopodobnie zwróciliby również uwagę, że nie ma żadnych szczególnych wad w zachęcaniu firmy do etycznej sztucznej inteligencji. Ostatecznie pomoże to firmie potencjalnie uniknąć procesów sądowych, które w przeciwnym razie mogłyby powstać, gdyby sztuczna inteligencja była produkowana w sposób niezgodny z zasadami etyki AI. W ten sposób ratują firmę przed sobą. Chociaż osoba ta być może nie dba o to, aby wykonywać swoją pracę od ręki, wykonuje ją, a jednocześnie sprawia, że ​​firma jest mądrzejsza i bezpieczniejsza poprzez głośny nacisk na etyczną sztuczną inteligencję.

Poczekaj chwilę, jakaś riposta, ta osoba jest nieszczera. Wygląda na to, że wyskoczą ze statku, gdy nastąpi przyjęcie AI Ethics. Ich serce nie leży w firmie ani pracy. Wykorzystują firmę do realizacji własnego programu. Jasne, program wydaje się wystarczająco dobry, starając się postawić na uwadze etyczną sztuczną inteligencję, ale może to posunąć się za daleko.

Widzisz, argument dalej idzie, że dążenie do etyki AI może stać się zbyt gorliwe. Jeśli dana osoba przyjechała, aby zainicjować etyczną sztuczną inteligencję, może nie patrzeć na szerszy obraz tego, z czym firma ma do czynienia. Wykluczając wszystko inne, osoba ta może krótkowzrocznie rozpraszać firmę i nie chcieć pozwolić na przyjęcie AI Ethics na uzasadnionych podstawach i w ostrożnym tempie.

Mogą stać się destrukcyjnym malkontentem, który nieustannie sprzecza się o to, gdzie znajduje się firma, jeśli chodzi o zasady etycznej sztucznej inteligencji. Inni programiści AI mogą być rozpraszani przez paplaninę pojedynczej melodii. Włączenie etyki AI do mieszanki jest z pewnością rozsądne, chociaż teatralność i inne potencjalne zakłócenia w firmie mogą raczej zahamować postęp w zakresie etycznej sztucznej inteligencji, niż mu pomóc.

Idziemy w kółko.

Możemy teraz powrócić do tych dodatkowych czynników dotyczących solenia, które wcześniej zaproponowałem:

  • Zarabianie. Można sobie wyobrazić, że dana osoba może być początkowo opłacana przez jakiś podmiot, który chce nakłonić firmę do przyjęcia etyki AI, być może dążąc do tego nieszkodliwie lub może sprzedać firmie określony zestaw narzędzi lub praktyk etyki AI. Ogólnie mało prawdopodobne, ale warto wspomnieć.
  • Widoczność. Osoba ta może nie poruszyć szczególnie swojej misji oddania AI Ethics podczas procesu rekrutacji. W innych przypadkach mogą upewnić się, że jest na pierwszym miejscu i w centrum, tak aby firma zatrudniająca zrozumiała bez żadnych niejasności dotyczących ich pobożnego skupienia. Jest to jednak bardziej prawdopodobne, że etyka AI jest sprawą drugorzędną, a praca jest ich głównym problemem, a nie na odwrót.
  • Wyczucie czasu. Zatrudniona osoba może zdecydować się poczekać z podjęciem działań w zakresie etyki SI. Potencjalnie mogą czekać tygodnie, miesiące, a nawet lata na aktywację. Szanse są jednak bardziej prawdopodobne, że zaczną, gdy zaaklimatyzują się w firmie i zdobędą osobisty przyczółek jako pracownik firmy. Jeśli zaczną natychmiast, może to zniweczyć ich próbę bycia postrzeganym jako wtajemniczony i rzucić ich jako intruza lub outsidera.
  • Podjęte kroki. Czasami dana osoba wyraźnie ogłosi w firmie, że teraz stara się zwrócić uwagę na etykę AI, co może się zdarzyć wkrótce po zatrudnieniu lub wystąpić jakiś czas później (zgodnie z powyższymi wskazówkami dotyczącymi czynnika czasu). Z drugiej strony osoba ta może wybrać tajną rolę, pracując cicho w firmie i nie zwracając na siebie szczególnej uwagi. Mogą również przekazywać prasie i innym osobom z zewnątrz informacje o pominięciach lub niedociągnięciach AI Ethics w firmie.
  • Tenuta. Osoba podejmująca wysiłek solenia może w końcu uzyskać impuls do etyki AI. Potencjalnie mogą pozostać w firmie przez cały proces wdrażania etycznej sztucznej inteligencji. Biorąc to pod uwagę, czasami taka osoba decyduje się opuścić firmę, która została wywołana iskrą, i zdecydować się na przejście do innej firmy, aby rozpocząć od nowa działalność iskrzącą. Kłótnie na ten temat są intensywne. Jeden punkt widzenia jest taki, że to wyraźnie pokazuje, że dana osoba nie miała w sercu pracy w firmie. Kontrastujący punkt widzenia jest taki, że prawdopodobnie znajdą się w mętnych i prawdopodobnie nie do utrzymania na wodach, pozostając w firmie, jeśli są teraz określani jako głośne głosy lub wichrzyciele.
  • Wynik. Próba solenia nie gwarantuje określonego wyniku. Możliwe, że dana osoba podnosi świadomość na temat etycznej sztucznej inteligencji i wysiłek się rozpoczyna, ergo miało miejsce „udane” solenie. Innym skutkiem jest to, że dana osoba nie jest w stanie uzyskać takiej trakcji. Następnie albo rezygnują z pościgu i pozostają w firmie, być może czekając na kolejną szansę w późniejszym czasie, albo opuszczają firmę i zazwyczaj starają się solenie w innej firmie.
  • Profesjonalny Salter. Niektórzy ludzie mogą uważać się za silnych zwolenników solenia AI Ethics i są dumni z tego, że służą jako solenizujący. Wielokrotnie soliją, przechodząc od twardości do twardości. Inni mogą to zrobić jednorazowo, być może ze względu na konkretne preferencje lub aby zobaczyć, jak to jest, a następnie zdecydować się nie powtarzać w takiej roli. Z pewnością możesz sobie wyobrazić rodzaje osobistej presji i potencjalnego stresu, które mogą wystąpić, gdy jesteś w stanie solenia.

Czy ten rodzaj solenia zorientowanego na etykę AI się przyjmie, okaże się. Jeśli firmy powoli wspierają etyczną sztuczną inteligencję, może to spowodować, że zagorzali etycy AI podejmą się zaspokojenia wysiłków. Mogą nie do końca zdawać sobie sprawę z tego, że robią solenie. Innymi słowy, ktoś udaje się do firmy X i próbuje zdobyć informacje na temat etyki AI, być może to robi i zdaje sobie sprawę, że powinien zrobić to samo gdzie indziej. Następnie przechodzą do firmy Y. Płukać i powtarzać.

Ponownie nacisk kładziony jest jednak na to, że przyjęcie AI Ethics jest ich najwyższym priorytetem. Zdobycie pracy jest drugorzędne lub nawet nie jest szczególnie ważne, poza możliwością wejścia do środka i wykonania wewnętrznych wysiłków związanych z etycznym AI.

Dodam też, że ci, którzy badają i analizują aspekty etyki sztucznej inteligencji, mają teraz nieco nowy dodatek do tematów badań nad etyczną sztuczną inteligencją:

  • Czy te wysiłki związane ze sztuczną inteligencją w zakresie etyki powinny być ogólnie tolerowane, czy odrzucane?
  • Co kieruje tymi, którzy chcieliby wykonać solenie w tym kontekście AI?
  • Jak firmy powinny reagować na postrzegany akt solenia kontekstu AI?
  • Czy zostaną opracowane metodologie zachęcające do solenia związanego ze sztuczną inteligencją?
  • Itd.

Do pewnego stopnia właśnie dlatego etyka AI i etyczna sztuczna inteligencja są tak istotnym tematem. Zasady etyki AI zmuszają nas do zachowania czujności. Technolodzy sztucznej inteligencji mogą czasami zajmować się technologią, zwłaszcza optymalizacją zaawansowanych technologii. Niekoniecznie biorą pod uwagę większe konsekwencje społeczne. Posiadanie nastawienia na etykę AI i robienie tego integralnie z rozwojem i wdrażaniem sztucznej inteligencji ma kluczowe znaczenie dla tworzenia odpowiedniej sztucznej inteligencji, w tym (być może zaskakująco lub jak na ironię) oceny, w jaki sposób etyka AI jest przyjmowana przez firmy.

Oprócz ogólnego stosowania zasad etyki AI, istnieje odpowiednie pytanie, czy powinniśmy mieć prawa regulujące różne zastosowania AI. Na szczeblu federalnym, stanowym i lokalnym ogłaszane są nowe przepisy, które dotyczą zakresu i charakteru tego, jak należy opracowywać sztuczną inteligencję. Wysiłki zmierzające do opracowania i uchwalenia takich ustaw są stopniowe. Etyka AI służy przynajmniej jako przemyślana prowizorka i prawie na pewno do pewnego stopnia zostanie bezpośrednio włączona do tych nowych przepisów.

Należy pamiętać, że niektórzy stanowczo twierdzą, że nie potrzebujemy nowych przepisów obejmujących sztuczną inteligencję i że nasze istniejące przepisy są wystarczające. W rzeczywistości ostrzegają, że jeśli wprowadzimy w życie niektóre z tych praw dotyczących sztucznej inteligencji, zabijemy złotą gęś, ograniczając postępy w sztucznej inteligencji, które oferują ogromne korzyści społeczne.

W tym momencie tej ważkiej dyskusji założę się, że pragniesz kilku ilustracyjnych przykładów, które mogłyby pokazać ten temat. Jest specjalny i z pewnością popularny zestaw przykładów, które są bliskie mojemu sercu. Widzisz, jako ekspert w dziedzinie sztucznej inteligencji, w tym jej konsekwencji etycznych i prawnych, często jestem proszony o wskazanie realistycznych przykładów ukazujących dylematy etyki sztucznej inteligencji, aby łatwiej było uchwycić nieco teoretyczny charakter tematu. Jednym z najbardziej sugestywnych obszarów, który żywo przedstawia ten dylemat etycznej sztucznej inteligencji, jest pojawienie się opartych na sztucznej inteligencji prawdziwych, autonomicznych samochodów. Będzie to przydatny przypadek użycia lub przykład do obszernej dyskusji na dany temat.

Oto godne uwagi pytanie, które warto rozważyć: Czy pojawienie się prawdziwych autonomicznych samochodów opartych na sztucznej inteligencji rzuca światło na temat solenia związanego ze sztuczną inteligencją, a jeśli tak, to co to pokazuje?

Daj mi chwilę na rozpakowanie pytania.

Po pierwsze, zauważ, że w prawdziwym samojezdnym samochodzie nie ma ludzkiego kierowcy. Pamiętaj, że prawdziwe, autonomiczne samochody są napędzane przez system jazdy AI. Nie ma potrzeby, aby za kierownicą kierował człowiek, ani nie ma możliwości prowadzenia pojazdu przez człowieka. Aby zapoznać się z moim obszernym i bieżącym omówieniem pojazdów autonomicznych (AV), a zwłaszcza samochodów autonomicznych, zobacz link tutaj.

Chciałbym dokładniej wyjaśnić, co mam na myśli, gdy mówię o prawdziwych samojezdnych samochodach.

Zrozumienie poziomów samochodów autonomicznych

Dla wyjaśnienia, prawdziwie autonomiczne samochody to takie, w których sztuczna inteligencja prowadzi samochód całkowicie samodzielnie i nie ma żadnej pomocy człowieka podczas zadania prowadzenia.

Te pojazdy bez kierowcy są uważane za Poziom 4 i Poziom 5 (zobacz moje wyjaśnienie na Ten link tutaj), podczas gdy samochód, który wymaga współdzielenia wysiłku przez kierowcę, jest zwykle rozpatrywany na poziomie 2 lub 3. Samochody, które współdzielą zadanie prowadzenia, są opisywane jako półautonomiczne i zazwyczaj zawierają automatyczne dodatki zwane ADAS (Advanced Driver-Assistance Systems).

Nie ma jeszcze prawdziwego samoprowadzącego się samochodu na poziomie 5 i nie wiemy jeszcze, czy będzie to możliwe do osiągnięcia ani ile czasu zajmie dotarcie tam.

W międzyczasie wysiłki na poziomie 4 stopniowo próbują uzyskać jakąś przyczepność, przechodząc bardzo wąskie i selektywne testy na drogach publicznych, chociaż istnieją kontrowersje co do tego, czy takie testy powinny być dozwolone jako takie (wszyscy jesteśmy świnkami morskimi życia lub śmierci w eksperymencie odbywają się na naszych autostradach i drogach, niektórzy twierdzą, zobacz moje relacje na Ten link tutaj).

Ponieważ samochody półautonomiczne wymagają kierowcę, adopcja tego typu samochodów nie będzie się znacząco różnić od prowadzenia pojazdów konwencjonalnych, więc nie ma zbyt wiele nowych do omówienia na ten temat w tym temacie (jak jednak zobaczycie za chwilę, następne punkty mają ogólne zastosowanie).

W przypadku samochodów półautonomicznych ważne jest, aby społeczeństwo zostało ostrzeżone o niepokojącym aspekcie, który pojawia się ostatnio, a mianowicie, że pomimo tych ludzkich kierowców, którzy zamieszczają filmy o swoich snach za kierownicą samochodu na poziomie 2 lub 3 wszyscy musimy unikać wprowadzania w błąd w przekonaniu, że kierowca może odwrócić uwagę od zadania prowadzenia pojazdu podczas prowadzenia samochodu półautonomicznego.

Jesteś odpowiedzialny za kierowanie pojazdem, niezależnie od tego, ile automatyzacji można wrzucić na Poziom 2 lub Poziom 3.

Samojezdne samochody i solenie etyki AI

W prawdziwych pojazdach samobieżnych na poziomie 4 i 5 nie będzie kierowcy ludzkiego zaangażowanego w prowadzenie pojazdu.

Wszyscy pasażerowie będą pasażerami.

AI prowadzi samochód.

Jeden aspekt, który należy natychmiast omówić, wiąże się z faktem, że sztuczna inteligencja zaangażowana w dzisiejsze systemy sterujące sztuczną inteligencją nie jest świadoma. Innymi słowy, sztuczna inteligencja jest zbiorem programów komputerowych i algorytmów iz całą pewnością nie jest w stanie rozumować w taki sam sposób, jak ludzie.

Dlaczego ten dodatkowy nacisk kładzie się na to, że sztuczna inteligencja nie jest świadoma?

Ponieważ chcę podkreślić, że omawiając rolę systemu napędowego AI, nie przypisuję AI cech ludzkich. Należy pamiętać, że w dzisiejszych czasach istnieje trwająca i niebezpieczna tendencja do antropomorfizacji sztucznej inteligencji. W istocie ludzie przypisują dzisiejszej sztucznej inteligencji ludzką wrażliwość, pomimo niezaprzeczalnego i niepodważalnego faktu, że taka sztuczna inteligencja jeszcze nie istnieje.

Dzięki temu wyjaśnieniu możesz sobie wyobrazić, że system jazdy AI nie będzie w jakiś sposób „wiedzieć” o aspektach jazdy. Prowadzenie i wszystko, co się z tym wiąże, będzie musiało zostać zaprogramowane jako część sprzętu i oprogramowania samochodu autonomicznego.

Zanurzmy się w niezliczonych aspektach, które pojawiają się w tym temacie.

Po pierwsze, ważne jest, aby zdać sobie sprawę, że nie wszystkie autonomiczne samochody AI są takie same. Każdy producent samochodów i firma technologiczna do samodzielnego prowadzenia mają swoje podejście do opracowywania autonomicznych samochodów. W związku z tym trudno jest wypowiadać ogólne stwierdzenia na temat tego, co zrobią, a czego nie zrobią systemy jazdy AI.

Co więcej, za każdym razem, gdy stwierdzają, że system sterowania AI nie robi jakiejś konkretnej rzeczy, może to później zostać wyprzedzone przez programistów, którzy w rzeczywistości programują komputer, aby robił to samo. Krok po kroku systemy jazdy AI są stopniowo ulepszane i rozszerzane. Obecne ograniczenie może już nie istnieć w przyszłej iteracji lub wersji systemu.

Mam nadzieję, że dostarczy to wystarczającej litanii zastrzeżeń, aby uzasadnić to, co zamierzam opowiedzieć.

Naszkicujmy scenariusz, który przedstawia sytuację solenia związaną ze sztuczną inteligencją.

Producent samochodów, który dąży do rozwoju w pełni autonomicznych, autonomicznych samochodów, przeprowadza testy na drogach publicznych. Firma jest pod dużą presją, aby to zrobić. Są obserwowani przez rynek i jeśli nie wydają się być w czołówce rozwoju autonomicznych samochodów, ich cena akcji odpowiednio spada. Ponadto zainwestowali już miliardy dolarów, a inwestorzy niecierpliwią się na dzień, w którym firma będzie mogła ogłosić, że ich autonomiczne samochody są gotowe do codziennego użytku komercyjnego.

Twórca sztucznej inteligencji z daleka obserwuje wysiłki producenta. Zgłaszane przypadki pomylenia systemu jazdy AI lub popełniania błędów są coraz częściej widoczne w wiadomościach. Różne przypadki obejmują kolizje z innymi samochodami, kolizje z rowerzystami i inne poważne incydenty.

Firma na ogół stara się zachować tę ciszę. Deweloper AI prywatnie rozmawiał z niektórymi inżynierami w firmie i dowiedział się, że zasady AI Ethics są w najlepszym razie podawane tylko gołosłownie. Aby zapoznać się z moimi informacjami na temat obchodzenia się przez firmy z etyczną sztuczną inteligencją, zobacz link tutaj.

Co zamierza zrobić ten programista AI?

Czują się zmuszeni do czegoś.

Zróbmy trochę rozwidlenia i rozważmy dwie ścieżki, które każdy może podjąć ten programista AI.

Jedną ze ścieżek jest to, że twórca sztucznej inteligencji kieruje się do mediów, aby spróbować ujawnić pozorny brak odpowiedniej uwagi producenta samochodów w zakresie etyki sztucznej inteligencji. Może ten zaniepokojony specjalista AI zdecyduje się pisać blogi lub tworzyć vlogi, aby podkreślić te obawy. Inną możliwością jest to, że istniejący członek zespołu AI zostanie kimś w rodzaju informatora, na temat, który omówiłem link tutaj.

Jest to zdecydowanie uważane za outsider podejście tego programisty AI.

Inną ścieżką jest to, że programista AI wierzy w swoje przeczucie, że może być w stanie zrobić więcej z wewnątrz firmy. Zestaw umiejętności programisty AI jest dobrze dostrojony do aspektów AI obejmujących samochody samojezdne i mogą z łatwością ubiegać się o opublikowane oferty pracy dla inżynierów AI w firmie. Deweloper AI postanawia to zrobić. Co więcej, bodziec koncentruje się wyłącznie na sprawieniu, aby producent samochodów poważniej podchodził do etycznej sztucznej inteligencji. Sama praca nie ma szczególnego znaczenia dla tego programisty AI, poza tym, że teraz będą mogli pracować przekonująco od wewnątrz.

Możliwe, że twórca sztucznej inteligencji dostanie tę pracę, ale potem odkryje, że istnieje ogromny wewnętrzny opór, a cel dążenia do etycznej sztucznej inteligencji jest bezcelowy. Osoba opuszcza firmę i postanawia wycelować w innego producenta samochodów, który może być bardziej skłonny zrozumieć, co chce osiągnąć twórca sztucznej inteligencji. Po raz kolejny robią to, aby wyraźnie osiągnąć rozważania dotyczące etyki AI, a nie dla ostoi tego, na czym polega praca AI.

Wnioski

Pojęcie odnoszenia się do tych wysiłków związanych ze sztuczną inteligencją jako formy solenia z pewnością spowoduje, że niektórzy będą mieli zgagę z powodu nadużywania już ustalonej terminologii lub słownictwa. Solenie jest mocno zakorzenione w działalności związkowej związanej z pracą i biznesem. Próby przeładowania słowa innymi rodzajami pozornie pokrewnych działań, chociaż o charakterze całkowicie niezwiązanym ze związkiem, są potencjalnie mylące i mylące.

Załóżmy, że wymyślimy inną frazeologię.

Pieprzony?

Cóż, to nie wydaje się wywoływać tego samego uczucia co solenie. To byłaby ciężka walka, aby spróbować wprowadzić to postanowione i włączone do naszego codziennego leksykonu języka.

Cokolwiek wymyślimy i jakie nazewnictwo lub hasło wydaje się odpowiednie, jedno wiemy na pewno. Próba nakłonienia firm do przyjęcia etyki AI to wciąż ciężka walka. Musimy spróbować. Próby należy wykonać we właściwy sposób.

Wygląda na to, że bez względu na to, po której stronie płotu padniesz, musimy przyjąć to napomnienie z odpowiednim ziarnem soli.

Źródło: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/