Eksperci twierdzą, że narzędzia do rekrutacji oparte na sztucznej inteligencji mogą nie zwiększać różnorodności zatrudnienia

Topline

Narzędzia rekrutacyjne, które twierdzą, że wykorzystują sztuczną inteligencję do unikania uprzedzeń związanych z płcią i rasą, mogą nie poprawić różnorodności w zatrudnianiu, a mogą w rzeczywistości utrwalać te uprzedzenia, przekonywali w niedzielę naukowcy z University of Cambridge, rzucając programy – które w przeszłości spotkały się z krytyką – jako sposób na wykorzystanie technologii w celu szybkiego rozwiązania głębszego problemu.

Kluczowe fakty

W artykule opublikowanym przez Filozofia i technologiabadacze przyjrzeli się twierdzeniom kilku firm oferujących narzędzia rekrutacyjne oparte na sztucznej inteligencji, z których wiele twierdzi, że eliminują uprzedzenia i promują różnorodność poprzez ukrywanie nazwisk, płci i innych identyfikatorów kandydatów, a niektóre z nich rankingu kandydatów na podstawie skanów życiorysów, ocen online i analizy mowy i mimiki kandydatów.

Naukowcy – dwóch profesorów z Centrum Badań nad Genderem na Uniwersytecie w Cambridge – argumentowali, że narzędzia te mogą w rzeczywistości promować jednolitość w zatrudnianiu, ponieważ odtwarzają uprzedzenia kulturowe „idealnego kandydata”, którym historycznie byli biali lub europejscy mężczyźni.

Narzędzia mogą również nie poprawić różnorodności, ponieważ opierają się na danych z przeszłości firmy, a tym samym mogą promować kandydatów najbardziej podobnych do obecnych pracowników.

Eleanor Drage, współautorka badania i badaczka z University of Cambridge Center for Gender Studies, powiedziała w oświadczeniu, dodając, że technologia może służyć jako „niebezpieczna” źródło „dezinformacji o tym, w jaki sposób rekrutacja może być „niestronnicza” i sprawiedliwsza”.

Kluczowy cytat

„Twierdząc, że rasizm, seksizm i inne formy dyskryminacji można wyeliminować z procesu zatrudniania za pomocą sztucznej inteligencji, firmy te redukują rasę i płeć do nieistotnych punktów danych, a nie systemy władzy, które kształtują sposób, w jaki poruszamy się po świecie. - powiedział Drage w oświadczeniu.

Styczna

Amazon ogłosił w 2018 roku, że będzie Zatrzymaj się wykorzystanie narzędzia do rekrutacji sztucznej inteligencji do przeglądania życiorysów kandydatów do pracy po tym, jak okazało się, że system silnie dyskryminuje kobiety. Wynika to z faktu, że modele komputerowe, na których się opierał, zostały opracowane na podstawie życiorysów przesłanych do firmy w ciągu ostatnich 10 lat, które w większości pochodziły od kandydatów płci męskiej.

Kluczowe tło

Organizacje coraz częściej sięgają po sztuczną inteligencję, aby pomóc w zarządzaniu procesami rekrutacji do pracy. W jednym Ankieta 2020 spośród ponad 300 liderów zasobów ludzkich cytowanych przez autorów niedzielnego artykułu, firma konsultingowa Gartner stwierdziła, że ​​86% pracodawców korzysta z technologii wirtualnej w swoich praktykach rekrutacyjnych, co przyspieszyło od czasu pandemii Covid-19, która zmusiła wielu do zmiany pracy online. Podczas gdy niektóre firmy argumentowały, że sztuczna inteligencja może zaoferować bardziej opłacalny i czasochłonny proces zatrudniania, niektóre eksperci mieć znaleziono systemy mają tendencję do promowania – zamiast eliminowania – zatrudniania stronniczego ze względu na rasę i płeć poprzez powielanie istniejących uprzedzeń z rzeczywistego świata. Kilku amerykańskich prawodawców ma wymierzony zwalczać uprzedzenia w systemach sztucznej inteligencji, ponieważ technologia nadal szybko ewoluuje i istnieje niewiele przepisów, które ją regulują. Biały Dom wydany w tym tygodniu „Plan karty praw sztucznej inteligencji”, który argumentuje, że algorytmy stosowane w zatrudnianiu „odzwierciedlają i odtwarzają istniejące niechciane nierówności” lub zawierają nowe „uprzedzenia i dyskryminację”. Plan — który nie jest prawnie wiążący ani nie jest oficjalną polityką rządu — wzywa firmy do zapewnienia, że ​​sztuczna inteligencja nie dyskryminuje ani nie narusza prywatności danych, a także do uświadamiania użytkownikom, kiedy technologia jest używana.

Na co uważać

W liście rekomendacji autorzy Sunday's Filozofia i technologia W artykule zasugerowano, że firmy rozwijające technologie AI skupiają się na szerszych, systematycznych nierównościach zamiast na „zindywidualizowanych przypadkach uprzedzeń”. Sugerują na przykład, że twórcy oprogramowania przeanalizują kategorie używane do sortowania, przetwarzania i kategoryzowania kandydatów oraz w jaki sposób te kategorie mogą promować dyskryminację, opierając się na pewnych założeniach dotyczących płci i rasy. Naukowcy twierdzą również, że specjaliści HR powinni spróbować zrozumieć, jak działają narzędzia rekrutacyjne AI i jakie są ich potencjalne ograniczenia.

Zaskakujący fakt

Unia Europejska sklasyfikowała w swoim nowym oprogramowaniu oparte na sztucznej inteligencji oprogramowanie do zatrudniania i narzędzia do oceny wydajności jako „wysokie ryzyko” projekt ram prawnych dotyczących sztucznej inteligencji, co oznacza, że ​​narzędzia będą podlegać większej kontroli i będą musiały spełniać określone wymogi dotyczące zgodności.

Inne dokumenty

DC chce prowadzić walkę z uprzedzeniami AI (Axios)

Źródło: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/