Rewolucja AI w zarządzaniu korporacyjnym – propozycja sztucznych powierników

Wyobraź sobie salę posiedzeń, w której sztuczna inteligencja (AI) zasiada jako członek z prawem głosu i ma obowiązki powiernicze, a nie jako widz. Pomysł ten niesie ze sobą ważne konsekwencje dla przyszłości ładu korporacyjnego. Taka jest przyszłość opisana w przełomowym dziele „Sztuczne powierniki”. Aby zaradzić tym niedociągnięciom, w badaniu zaproponowano nowatorskie podejście: podmioty sztucznej inteligencji (AI), które mają ten sam poziom obowiązków i opieki co dyrektorzy-ludzie, gdy pełnią rolę powierników.

Pojęcie sztucznych powierników

W obszarze ładu korporacyjnego poszukiwanie w pełni niezależnych dyrektorów od dawna stanowiło trudność. Limity kadencji i audyty zewnętrzne to dwa przykłady istniejących reform, które nie osiągnęły jeszcze całkowitego obiektywizmu. Według artykułu sztuczna inteligencja zapewnia specjalne lekarstwo w postaci „sztucznych powierników”. Podejście to rozszerza i udoskonala koncepcję wykorzystania dostawców usług zarządu (BSP) do obsługi funkcji zarządu. Powiernicy AI są w stanie zapewnić prawdziwą niezależność i usprawnić procesy decyzyjne, w przeciwieństwie do BSP, które są ograniczone ludzkimi uprzedzeniami i ograniczeniami technologicznymi.

Sztuczni powiernicy mogliby działać jako bezstronni mediatorzy, zachęcając do otwartości i być może demokratyzując zarządzanie spółkami na arenie międzynarodowej. Należy jednak odpowiedzieć na istotne pytanie: czy sztuczna inteligencja naprawdę jest w stanie sprostać rygorystycznym obowiązkom powiernika? Naukowcy zajmujący się prawem, tacy jak Eugene Volokh, wyrazili obawy, że osąd oparty na współczuciu może odegrać kluczową rolę w tym stanowisku, co potwierdza badanie. Twierdzi jednak, że zamiast precyzyjnie odtwarzać ludzkie zdolności, należy zadać pytanie, czy sztuczna inteligencja może osiągnąć cele odpowiedzialności powierniczej.

Kształtowanie przyszłości ładu korporacyjnego

Według badania sztuczni powiernicy mogliby pełnić rolę obiektywnych dyrektorów zewnętrznych, wypełniając jednocześnie swoje obowiązki powiernicze wobec spółki i jej inwestorów. Oczekuje się, że praca w tandemie z ludźmi przyniesie lepsze rezultaty; niemniej jednak, ponieważ powiernicy AI mają z natury algorytmiczny charakter, ich szczegółowe obowiązki mogą się różnić. W eseju podkreślono konieczność elastyczności przy jednoczesnym zachowaniu wysokich standardów zachowania i opisano, w jaki sposób obowiązki staranności i lojalności można rozszerzyć na sztucznych powierników.

Opracowanie nie unika jednak omówienia ewentualnych niedociągnięć. Dokładnej analizie poddawane są takie kwestie, jak stronniczość, brak przejrzystości („problem czarnej skrzynki”), zagrożenia bezpieczeństwa oraz potencjał kontrolowania rozmów przez niezwykle inteligentnych dyrektorów. Aby zmniejszyć te zagrożenia, w raporcie zaproponowano ramy etyczne, zasady przejrzystości i precyzyjne standardy procedur podejmowania decyzji przez sztuczną inteligencję. Ta rozmowa wnosi wiele do bieżących dyskusji na temat uczciwości algorytmicznej w rozwoju sztucznej inteligencji.

W eseju znajduje się także ostrzeżenie przed postrzeganiem sztucznej inteligencji jedynie jako narzędzia. Pomysł jest taki, że sztuczni powiernicy powinni być w stanie samodzielnie dokonywać osądów, wolni od ograniczeń z góry zaprogramowanego systemu. Aby rozwiązać ograniczenia kapitału społecznego i złożone problemy etyczne, badanie oferuje paradygmat współpracy, w którym ludzcy i sztuczni powiernicy współpracują, wykorzystując jednocześnie swoje mocne strony. W tej współpracy wymagany jest monitoring ludzki, aby zapewnić wdrożenie najlepszych rekomendacji, a podejmowanie decyzji przez sztuczną inteligencję podlega rygorystycznym normom etycznym.

Wpływ na ład korporacyjny w przyszłości

W ostatniej części artykułu rozważono, jak zmieni się ład korporacyjny w miarę zwiększania się integracji sztucznej inteligencji. Zaleca wprowadzenie ram legislacyjnych w celu ograniczenia pojawiania się sztucznych powierników. To badanie nie tylko stymuluje dyskusję naukową, ale także stanowi wezwanie dla ustawodawców do działania w celu modyfikacji obecnych przepisów i otwarcia drzwi dla etycznego zastosowania sztucznej inteligencji w salach konferencyjnych. Pytanie wciąż pozostaje otwarte: czy jesteśmy gotowi zaakceptować sztuczną inteligencję jako wiarygodnego partnera w zakresie ładu korporacyjnego?

Źródło: https://www.cryptopolitan.com/ai-corporate-governance-ai-fiduciaries/