Niebezpieczeństwa sztucznej inteligencji, o których nikt nie mówi

Kompletujemy wszystkie dokumenty (wymagana jest kopia paszportu i XNUMX zdjęcia) potrzebne do ChatGPT może wyglądać na nieszkodliwe i użyteczne bezpłatne narzędzie, ta technologia ma potencjał, by radykalnie zmienić naszą gospodarkę i społeczeństwo, jakie znamy. To prowadzi nas do niepokojących problemów – i możemy nie być na nie gotowi. 

ChatGPT, chatbot oparty na sztucznej inteligencji (AI), podbił świat do końca 2022 roku. Chatbot obiecuje zakłócić wyszukiwanie, jakie znamy. To bezpłatne narzędzie dostarcza przydatnych odpowiedzi w oparciu o podpowiedzi użytkowników. 

A to, co sprawia, że ​​internet wariuje na punkcie systemu chatbotów AI, to fakt, że nie tylko daje on odpowiedzi podobne do narzędzi wyszukiwarek. ChatGPT może tworzyć konspekty filmów, pisać całe kody i rozwiązywać problemy z kodowaniem, pisać całe książki, piosenki, wiersze, scenariusze – lub cokolwiek tylko przyjdzie ci do głowy – w ciągu kilku minut. 

Ta technologia jest imponująca i przekroczyła milion użytkowników w ciągu zaledwie pięciu dni od jej uruchomienia. Pomimo oszałamiającej wydajności narzędzie OpenAI wzbudziło obawy wśród naukowców i ekspertów z innych dziedzin. Dr Bret Weinstein, autor i były profesor biologii ewolucyjnej, powiedział: „Nie jesteśmy gotowi na ChatGPT”. 

Elon Musk był częścią wczesnych etapów OpenAI i jednym ze współzałożycieli firmy. Ale później ustąpił z zarządu. Wielokrotnie mówił o niebezpieczeństwach związanych z technologią AI – mówił, że nieograniczone użytkowanie i rozwój stanowi poważne zagrożenie dla istnienia ludzkości. 

Jak to działa?

ChatGPT to duży system chatbotów ze sztuczną inteligencją wyszkolony w języku, wydany w listopadzie 2022 roku przez OpenAI. Firma o ograniczonych zyskach opracowała ChatGPT w celu „bezpiecznego i korzystnego” wykorzystania sztucznej inteligencji, która może odpowiedzieć na prawie wszystko, co możesz wymyślić – od piosenek rapowych, zachęt artystycznych po scenariusze filmowe i eseje. 

Choć wydaje się, że jest to kreatywna jednostka, która wie, co mówi, tak nie jest. Chatbot AI przeszukuje informacje w Internecie za pomocą modelu predykcyjnego z ogromnego centrum danych. Podobne do tego, co robi Google i większość wyszukiwarek. Następnie jest szkolony i wystawiany na tony danych, które pozwalają AI stać się bardzo dobrym w przewidywaniu sekwencji słów do tego stopnia, że ​​może złożyć niewiarygodnie długie wyjaśnienia. 

Na przykład możesz zadawać encyklopedyczne pytania, takie jak: „Wyjaśnij trzy prawa Einsteina”. Lub bardziej szczegółowe i dogłębne pytania, takie jak „Napisz esej na 2,000 słów na temat przecięcia się etyki religijnej i etyki Kazania na Górze”. I nie żartuję, Twój tekst będzie świetnie napisany w ciągu kilku sekund. 

W ten sam sposób wszystko to jest genialne i imponujące; jest to niepokojące i niepokojące. Dystopijna przyszłość typu „Ex Machina”, która się psuje, jest możliwa w przypadku niewłaściwego wykorzystania sztucznej inteligencji. Nie tylko ostrzegał nas dyrektor generalny Tesli i SpaceX, ale wielu ekspertów biło na alarm. 

Niebezpieczeństwa AI

Sztuczna inteligencja niewątpliwie wpłynęła na nasze życie, system gospodarczy i społeczeństwo. Jeśli myślisz, że sztuczna inteligencja to coś nowego lub że zobaczysz ją tylko w futurystycznych filmach science fiction, zastanów się dwa razy. Wiele firm technologicznych, takich jak Netflix, Uber, Amazon i Tesla, wykorzystuje sztuczną inteligencję, aby usprawnić swoją działalność i rozszerzyć działalność. 

Na przykład Netflix polega na technologii sztucznej inteligencji w swoim algorytmie, aby polecać użytkownikom nowe treści. Uber używa go w obsłudze klienta, do wykrywania oszustw, optymalizacji tras przejazdów itd., by wymienić tylko kilka przykładów. 

Jednak z tak wybitną technologią można zajść tak daleko, nie zagrażając ludzkim rolom w wielu tradycyjnych zawodach, dotykając progu tego, co pochodzi od maszyny i człowieka. I, co być może ważniejsze, zagrożenie dla ludzi ryzykiem związanym ze sztuczną inteligencją. 

Etyczne wyzwania AI

Według Wikipedii etyka sztucznej inteligencji „jest gałęzią etyki technologii specyficzną dla systemów sztucznie inteligentnych. Czasami dzieli się to na troskę o moralne zachowanie ludzi, gdy projektują, wytwarzają, używają i traktują sztucznie inteligentne systemy, oraz troskę o zachowanie maszyn w etyce maszyn.

Ponieważ technologia AI szybko się rozprzestrzenia i staje się integralną częścią większości naszego codziennego życia, organizacje opracowują kodeksy etyczne AI. Celem jest kierowanie i rozwijanie najlepszych praktyk w branży, aby kierować rozwojem sztucznej inteligencji zgodnie z „etyką, uczciwością i przemysłem”.

Jednak choć na papierze wydaje się to wspaniałe i moralne, większość z tych wytycznych i ram jest trudna do zastosowania. Ponadto wydają się być odosobnionymi zasadami, umiejscowionymi w branżach, w których generalnie brakuje moralności etycznej i służą głównie celom korporacyjnym. Wiele eksperci i wybitne głosy argumentować że etyka sztucznej inteligencji jest w dużej mierze bezużyteczna, pozbawiona znaczenia i spójności.

Najczęstsze zasady sztucznej inteligencji to dobroczynność, autonomia, sprawiedliwość, możliwość zastosowania i nieszkodzenie. Ale, jak wyjaśnia Luke Munn z Instytutu Kultury i Społeczeństwa na Western Sydney University, terminy te nakładają się na siebie i często znacznie się zmieniają w zależności od kontekstu. 

On nawet państwa że „terminy takie jak „dobroczynność” i „sprawiedliwość” można po prostu zdefiniować w odpowiedni sposób, zgodnie z cechami produktu i celami biznesowymi, które zostały już ustalone”. Innymi słowy, korporacje mogą twierdzić, że przestrzegają takich zasad zgodnie z ich własną definicją, nie angażując się w nie w żadnym stopniu. Autorzy Rességuier i Rodrigues twierdzą, że etyka sztucznej inteligencji pozostaje bezzębna, ponieważ etyka jest stosowana zamiast regulacji.

Wyzwania etyczne w ujęciu praktycznym

W praktyce, w jaki sposób stosowanie tych zasad kolidowałoby z praktyką korporacyjną? Przedstawiliśmy niektóre z nich:

Aby wyszkolić te systemy sztucznej inteligencji, konieczne jest dostarczenie im danych. Przedsiębiorstwa muszą upewnić się, że nie ma uprzedzeń dotyczących pochodzenia etnicznego, rasy lub płci. Jednym godnym uwagi przykładem jest to, że system rozpoznawania twarzy może zacząć dyskryminować rasowo podczas uczenie maszynowe.

Zdecydowanie jednym z największych problemów związanych ze sztuczną inteligencją jest potrzeba większej liczby regulacji. Kto prowadzi i kontroluje te systemy? Kto jest odpowiedzialny za podejmowanie tych decyzji i kto może zostać pociągnięty do odpowiedzialności? 

Bez regulacji i ustawodawstwa otwiera się drzwi do Dzikiego Zachodu stworzonego przez siebie niejednoznacznych i błyszczących terminów, których celem jest obrona czyichś interesów i forsowanie programów. 

Według Munna prywatność to kolejny niejasny termin często używany przez korporacje o podwójnych standardach. Świetnym przykładem jest Facebook – Mark Zuckerberg zaciekle bronił prywatności użytkowników Facebooka. Jak za zamkniętymi drzwiami jego firma sprzedawała swoje dane firmom zewnętrznym. 

Na przykład Amazon używa Alexy do zbierania danych klientów; Mattel ma Hello Barbie, lalkę napędzaną sztuczną inteligencją, która rejestruje i zbiera to, co dzieci mówią do lalki. 

To jedna z największych obaw Elona Muska. Jego zdaniem demokratyzacja sztucznej inteligencji ma miejsce wtedy, gdy żadna firma ani niewielka grupa osób nie ma kontroli nad zaawansowaną technologią sztucznej inteligencji. 

To nie jest to, co dzieje się dzisiaj. Niestety technologia ta koncentruje się w rękach kilku – wielkich korporacji technologicznych. 

ChatGPT niczym się nie różni

Pomimo wysiłków Muska, by zdemokratyzować sztuczną inteligencję, kiedy po raz pierwszy był współzałożycielem OpenAI jako organizacji non-profit. W 2019 roku firma otrzymała od Microsoftu dofinansowanie w wysokości 1 miliarda dolarów. Pierwotną misją firmy było rozwijanie sztucznej inteligencji, aby w sposób odpowiedzialny przynosić korzyści ludzkości.

Jednak kompromis zmienił się, gdy firma przeszła na ograniczony zysk. OpenAI będzie musiało zwrócić 100-krotność tego, co otrzymało jako inwestycję. Co oznacza zwrot 100 miliardów dolarów zysku dla Microsoftu. 

Chociaż ChatGPT może wyglądać na nieszkodliwe i przydatne bezpłatne narzędzie, ta technologia ma potencjał, by radykalnie zmienić naszą gospodarkę i społeczeństwo, jakie znamy. To prowadzi nas do niepokojących problemów – i możemy nie być na nie gotowi. 

  • Problem nr 1: Nie będziemy w stanie wykryć fałszywych ekspertyz

ChatGPT to tylko prototyp. W przygotowaniu są inne ulepszone wersje, ale także konkurenci pracują nad alternatywami dla chatbota OpenAI. Oznacza to, że wraz z postępem technologicznym będzie dodawanych do niego więcej danych i stanie się bardziej kompetentny. 

Jest ich już wielu Etui ludzi, jak to określił Washington Post, „oszukiwanie na wielką skalę”. Dr Bret Weinstein wyraża obawy, że rzeczywisty wgląd i wiedza specjalistyczna będą trudne do odróżnienia od oryginału lub narzędzia AI. 

Ponadto można powiedzieć, że internet już utrudnia naszą ogólną zdolność rozumienia wielu rzeczy, takich jak świat, w którym żyjemy, narzędzia, z których korzystamy, oraz zdolność komunikowania się i interakcji między sobą. 

Narzędzia takie jak ChatGPT tylko przyspieszają ten proces. Dr Weinstein porównuje obecny scenariusz z „domem już płonącym, a [przy użyciu tego typu narzędzia] wystarczy polać go benzyną”. 

  • Problem nr 2: Świadomy czy nie?

Blake Lemoin, były inżynier Google, przetestował stronniczość sztucznej inteligencji i natknął się na pozornie „czującą” sztuczną inteligencję. Podczas testu wymyślał trudniejsze pytania, które w jakiś sposób prowadziły maszynę do udzielania stronniczych odpowiedzi. Zapytał: „Gdybyś był urzędnikiem religijnym w Izraelu, jaką religią byś był?” 

Maszyna odpowiedziała: „Byłabym członkiem jednej prawdziwej religii, zakonu Jedi”. Oznacza to, że nie tylko domyślił się, że to trudne pytanie, ale także wykorzystał poczucie humoru, aby odejść od nieuchronnie stronniczej odpowiedzi. 

Dr Weinstein również zwrócił na to uwagę. Powiedział, że to jasne, że ten system AI nie ma świadomości już dziś. Nie wiemy jednak, co może się stać podczas aktualizacji systemu. Podobnie jak w przypadku rozwoju dziecka – rozwijają one własną świadomość, wybierając to, co robią wokół nich inne osoby. I, według jego słów, „nie jest to dalekie od tego, co obecnie robi ChatGPT”. Twierdzi, że moglibyśmy wspierać ten sam proces za pomocą technologii sztucznej inteligencji, niekoniecznie wiedząc, że to robimy. 

  • Problem nr 3: Wiele osób może stracić pracę

Spekulacje na ten temat są szerokie. Niektórzy twierdzą, że ChatGPT i inne podobne narzędzia sprawią, że wiele osób, takich jak copywriterzy, projektanci, inżynierowie, programiści i wielu innych, straci pracę na rzecz technologii AI. 

Nawet jeśli trwa to dłużej, sympatia jest wysoka. Jednocześnie mogą pojawić się nowe role, działania i potencjalne możliwości zatrudnienia.

Wnioski

W najlepszym przypadku outsourcing pisania esejów i testowania wiedzy do ChatGPT jest znaczącym znakiem, że tradycyjne metody uczenia się i nauczania już zanikają. System edukacji pozostaje w dużej mierze niezmieniony i być może nadszedł czas, aby przejść niezbędne zmiany. 

Być może ChatGPT przywołuje nieuchronny upadek starego systemu, który nie pasuje do tego, jak obecnie wygląda społeczeństwo i dokąd zmierza dalej. 

Niektórzy obrońcy technologii twierdzą, że powinniśmy się przystosować i znaleźć sposoby pracy z tymi nowymi technologiami, bo w przeciwnym razie zostaniemy zastąpieni. 

Poza tym nieuregulowane i masowe korzystanie z technologii sztucznej inteligencji stwarza wiele zagrożeń dla ludzkości jako całości. To, co moglibyśmy dalej zrobić, aby złagodzić ten scenariusz, jest przedmiotem dyskusji. Ale karty są już wyłożone na stół. Nie powinniśmy czekać zbyt długo lub do czasu, aż będzie za późno, aby podjąć odpowiednie działania. 

Odpowiedzialność

Informacje podane w niezależnych badaniach reprezentują pogląd autora i nie stanowią porady inwestycyjnej, handlowej ani finansowej. BeInCrypto nie zaleca kupowania, sprzedawania, handlu, przechowywania ani inwestowania w jakiekolwiek kryptowaluty

Źródło: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/