3 powody, dla których Twoja organizacja będzie potrzebować zewnętrznych ekspertów do oceny algorytmów

Satta Sarmah-Hightower

Liderzy biznesu wyciskają ze sztucznej inteligencji (AI) całą wartość, jaką mogą. Wyniki badania KPMG z 2021 r. większość liderów biznesu rządowego, przemysłowego, usług finansowych, handlu detalicznego, nauk przyrodniczych i opieki zdrowotnej twierdzi, że sztuczna inteligencja jest przynajmniej umiarkowanie funkcjonalna w ich organizacjach. Badanie wykazało również, że połowa respondentów twierdzi, że ich organizacja przyspieszyła przyjęcie sztucznej inteligencji w odpowiedzi na pandemię Covid-19. W organizacjach, w których wdrożono sztuczną inteligencję, co najmniej połowa twierdzi, że technologia przekroczyła oczekiwania.

Algorytmy AI są w coraz większym stopniu odpowiedzialne za różnorodne dzisiejsze interakcje i innowacje — od spersonalizowanych rekomendacje produktów i obsługa klienta doświadczenia dla banków decyzje kredytowe i nawet reakcja policji.

Jednak pomimo wszystkich korzyści, jakie oferują, algorytmy sztucznej inteligencji niosą ze sobą duże ryzyko, jeśli nie są skutecznie monitorowane i oceniane pod kątem odporności, uczciwości, wyjaśnialności i integralności. Aby pomóc liderom biznesowym w monitorowaniu i ocenie sztucznej inteligencji, wspomniane powyżej badanie pokazuje, że: rosnąca liczba liderów biznesu chce, aby rząd uregulował sztuczną inteligencję, aby umożliwić organizacjom inwestowanie w odpowiednią technologię i procesy biznesowe. W celu uzyskania niezbędnego wsparcia i nadzoru warto rozważyć zewnętrzne oceny oferowane przez usługodawcę z doświadczeniem w świadczeniu takich usług. Oto trzy powody.

1. Algorytmy to „czarne skrzynki”

Algorytmy sztucznej inteligencji — które uczą się na podstawie danych, aby rozwiązywać problemy i optymalizować zadania — czynią systemy inteligentniejszymi, umożliwiając im gromadzenie i generowanie spostrzeżeń znacznie szybciej niż ludzie.

Jednak niektórzy interesariusze uważają te algorytmy za „czarne skrzynki” – wyjaśnia Drew Rosen, dyrektor zarządzający audytu w KPMG, wiodącej firmie świadczącej profesjonalne usługi. W szczególności niektórzy interesariusze mogą nie rozumieć, w jaki sposób algorytm doszedł do określonej decyzji, a zatem mogą nie być pewni słuszności lub dokładności tej decyzji.

„Wyniki uzyskane z algorytmu mogą być podatne na stronniczość i błędną interpretację wyników” – mówi Rosen. „Może to również prowadzić do pewnego ryzyka dla jednostki, ponieważ wykorzystuje ona te wyniki i dzieli się nimi z opinią publiczną i interesariuszami”.

Na przykład algorytm, który wykorzystuje błędne dane, jest w najlepszym razie nieskuteczny, aw najgorszym szkodliwy. Jak to może wyglądać w praktyce? Rozważ chatbota opartego na sztucznej inteligencji, który podaje użytkownikom nieprawidłowe informacje o koncie, lub automatyczne narzędzie do tłumaczenia języka, które niedokładnie tłumaczy tekst. Obydwa przypadki mogą skutkować poważnymi błędami lub błędnymi interpretacjami dla jednostek rządowych lub firm, a także dla wyborców i klientów, którzy opierają się na decyzjach podejmowanych przez te algorytmy.

Innym czynnikiem przyczyniającym się do problemu z czarną skrzynką jest to, że nieodłączne nastawienie przenika do rozwoju modeli sztucznej inteligencji, potencjalnie powodując stronnicze podejmowanie decyzji. Na przykład kredytodawcy coraz częściej wykorzystują sztuczną inteligencję do przewidywania zdolności kredytowej potencjalnych kredytobiorców w celu podejmowania decyzji kredytowych. Ryzyko może jednak powstać, gdy kluczowe dane wejściowe do sztucznej inteligencji, takie jak ocena kredytowa potencjalnego kredytobiorcy, ma istotny błąd, co prowadzi do odmowy udzielenia pożyczek tym osobom.

Podkreśla to potrzebę zewnętrznego oceniającego, który mógłby służyć jako bezstronny oceniający i zapewnić ukierunkowaną ocenę, opartą na przyjętych kryteriach, istotności i wiarygodności danych historycznych i założeń, które stanowią podstawę algorytmu.

2. Interesariusze i organy regulacyjne domagają się przejrzystości

W 2022 r. nie było aktualnych wymogów sprawozdawczych dla odpowiedzialnej sztucznej inteligencji. Jednak Rosen mówi: „podobnie jak organy zarządzające wprowadziły regulacje ESG [środowiskowe, społeczne i rządowe] do raport na temat niektórych wskaźników ESG, to tylko kwestia czasu, kiedy zobaczymy dodatkowe wymogi dotyczące raportowania przepisów dla odpowiedzialnej sztucznej inteligencji”.

W rzeczywistości, od 1 stycznia 2023 r. w Nowym Jorku Prawo lokalne 144 wymaga przeprowadzenia audytu stronniczości w zautomatyzowanym narzędziu do podejmowania decyzji o zatrudnieniu przed jego użyciem.

A na poziomie federalnym Ustawa o Krajowej Inicjatywie Sztucznej Inteligencji z 2020 r.— który opiera się na rozporządzenie wykonawcze 2019—koncentruje się na technicznych standardach i wytycznych dotyczących sztucznej inteligencji. Dodatkowo Ustawa o algorytmicznej odpowiedzialności może wymagać oceny wpływu zautomatyzowanych systemów decyzyjnych i rozszerzonych krytycznych procesów decyzyjnych. A za granicą Ustawa o sztucznej inteligencji zaproponowano, oferując kompleksowe ramy regulacyjne z określonymi celami w zakresie bezpieczeństwa SI, zgodności, zarządzania i wiarygodności.

Dzięki tym zmianom organizacje znajdują się pod mikroskopem zarządzania. Oceniający algorytm może dostarczać takie raporty, które odnoszą się do wymogów regulacyjnych i zwiększają przejrzystość interesariuszy, jednocześnie unikając ryzyka, że ​​interesariusze błędnie zinterpretują lub są zwieść wynikami oceny.

3. Firmy czerpią korzyści z długoterminowego zarządzania ryzykiem

Steve Camara, partner w praktyce zapewniania jakości w firmie KPMG, przewiduje, że inwestycje w sztuczną inteligencję będą nadal rosły, ponieważ jednostki będą kontynuować automatyzację procesów, opracowywanie innowacji, które poprawiają jakość obsługi klienta i dystrybucję rozwoju sztucznej inteligencji w różnych funkcjach biznesowych. Aby zachować konkurencyjność i rentowność, organizacje będą potrzebować skutecznych mechanizmów kontrolnych, które nie tylko rozwiążą bezpośrednie niedociągnięcia sztucznej inteligencji, ale także ograniczą wszelkie długoterminowe zagrożenia związane z operacjami biznesowymi opartymi na sztucznej inteligencji.

W tym miejscu zewnętrzni asesorzy wkraczają jako zaufany, doświadczony zasób. Ponieważ organizacje coraz częściej przyjmują integralność sztucznej inteligencji jako czynnik umożliwiający prowadzenie działalności, partnerstwo może stać się mniej usługą doraźną, a bardziej spójną współpracą, wyjaśnia Camara.

„Widzimy drogę naprzód, w której konieczne będą ciągłe relacje między organizacjami, które na bieżąco rozwijają i operują sztuczną inteligencją, a obiektywnym zewnętrznym oceniającym” – mówi.

Spojrzenie na to, co będzie dalej

W przyszłości organizacje mogą wykorzystywać oceny zewnętrzne w sposób bardziej cykliczny, na przykład podczas opracowywania nowych modeli, pozyskiwania nowych źródeł danych, integrowania rozwiązań dostawców zewnętrznych lub poruszania się po nowych wymaganiach dotyczących zgodności.

Gdy wymagane są dodatkowe wymogi regulacyjne i dotyczące zgodności, zewnętrzni oceniający mogą być w stanie świadczyć usługi w celu bezpośredniej oceny, jak dobrze organizacja wdrożyła lub wykorzystała sztuczną inteligencję w odniesieniu do tych wymogów. Ci oceniający byliby wówczas najlepiej przygotowani do dzielenia się wynikami oceny w jasny i spójny sposób.

Aby wykorzystać technologię, a jednocześnie zabezpieczyć się przed jej ograniczeniami, organizacja musi poszukać zewnętrznych oceniających, którzy przedstawią raporty, na których może następnie polegać, aby wykazać większą przejrzystość podczas wdrażania algorytmów. Dzięki temu zarówno organizacja, jak i interesariusze mogą lepiej zrozumieć moc sztucznej inteligencji — i jej ograniczenia.

Źródło: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/