Rząd Australii rozpoczyna konsultacje w celu oceny zakazu sztucznej inteligencji „wysokiego ryzyka” – Cryptopolitan

Rząd Australii rozpoczął nieoczekiwany ośmiotygodniowy okres konsultacji, którego celem jest ustalenie, czy niektóre narzędzia sztucznej inteligencji (AI) „wysokiego ryzyka” powinny zostać zakazane. To posunięcie jest następstwem podobnych środków podjętych przez inne regiony, w tym Stany Zjednoczone, Unię Europejską i Chiny, w celu przeciwdziałania zagrożeniom związanym z szybkim rozwojem sztucznej inteligencji.

1 czerwca minister przemysłu i nauki Ed Husic przedstawił dwa dokumenty do publicznego wglądu: jeden na temat „Bezpiecznej i odpowiedzialnej sztucznej inteligencji w Australii” oraz drugi na temat generatywnej sztucznej inteligencji z National Science and Technology Council. Dokumenty te zostały opublikowane wraz z okresem konsultacji, który pozostanie otwarty do 26 lipca.

Rząd Australii poszukuje informacji zwrotnych na temat strategii promujących „bezpieczne i odpowiedzialne korzystanie ze sztucznej inteligencji”, badając opcje, takie jak dobrowolne ramy etyczne, szczegółowe przepisy lub połączenie obu podejść. W szczególności w ramach konsultacji bezpośrednio zadano pytanie, czy niektóre aplikacje lub technologie AI wysokiego ryzyka powinny zostać całkowicie zakazane, oraz zwrócono się o informacje na temat kryteriów identyfikacji takich narzędzi.

Obszerny dokument do dyskusji zawiera projekt macierzy ryzyka dla modeli AI, kategoryzując samojezdne samochody jako „wysokiego ryzyka” oraz generatywne narzędzia AI do tworzenia dokumentacji medycznej pacjentów jako „średniego ryzyka”. Dokument podkreśla zarówno pozytywne zastosowania sztucznej inteligencji w sektorach takich jak medycyna, inżynieria i prawo, jak również potencjalne szkody związane z narzędziami deepfake, generowaniem fałszywych wiadomości oraz przypadkami, w których boty AI zachęcały do ​​samookaleczania.

Rząd Australii kontra AI

Obawy dotyczące stronniczości w modelach sztucznej inteligencji, a także generowania bezsensownych lub fałszywych informacji zwanych „halucynacjami” przez systemy sztucznej inteligencji, zostały również poruszone w dokumencie do dyskusji. Przyznaje, że przyjęcie sztucznej inteligencji w Australii jest obecnie ograniczone ze względu na niski poziom zaufania publicznego. Artykuł odwołuje się do przepisów AI wdrożonych w innych jurysdykcjach oraz tymczasowego zakazu ChatGPT we Włoszech jako przykładów.

Ponadto raport National Science and Technology Council podkreśla korzystne możliwości Australii w zakresie robotyki i wizji komputerowej, ale zwraca uwagę na względne słabości w podstawowych obszarach, takich jak duże modele językowe. Rodzi to obawy związane z koncentracją generatywnych zasobów sztucznej inteligencji w niewielkiej liczbie głównie amerykańskich firm technologicznych, co stwarza potencjalne ryzyko dla Australii.

Raport dalej bada globalne regulacje dotyczące sztucznej inteligencji, podaje przykłady generatywnych modeli sztucznej inteligencji i sugeruje, że takie modele prawdopodobnie będą miały daleko idący wpływ na sektory, od bankowości i finansów po usługi publiczne, edukację i branże kreatywne.

Zrzeczenie się. Podane informacje nie są poradami handlowymi. Cryptopolitan.com nie ponosi odpowiedzialności za jakiekolwiek inwestycje dokonane na podstawie informacji podanych na tej stronie. Zdecydowanie zalecamy niezależne badania i/lub konsultacje z wykwalifikowanym specjalistą przed podjęciem jakichkolwiek decyzji inwestycyjnych.

Źródło: https://www.cryptopolitan.com/australian-government-on-ai-consultation/