Nechte umělou inteligenci vybrat zaměstnance – větší pravděpodobnost je, že vybere ženu
Foto: Shutterstock.com
AI a trh práce
Umělá inteligence je genderově nekorektní. Ve výběrových řízeních upřednostňuje ženy, zjistila studie
Systémy umělé inteligence měly do náborových procesů přinést nestrannost. Ve skutečnosti však vykazují překvapivou míru genderové zaujatosti. Podle nové studie Davida Rozada, výzkumníka z New Zealand Institute of Skills and Technology, dávají velké jazykové modely při výběru kandidátů přednost ženám před stejně kvalifikovanými muži.
redaktor
Rozado testoval 22 různých AI modelů, včetně běžně používaných nástrojů jako ChatGPT, Gemini nebo Grok. V experimentu porovnával tisíce identických životopisů, které se lišily pouze jménem. Výsledek? V 56,9 % případů vybraly modely uchazečku.
„Tento vzorec může odrážet složité interakce mezi tréninkovými daty modelu, způsobem anotace při ladění preferencí, nebo dokonce systémovými ochrannými mechanismy nasazenými při produkčním nasazení,“ uvedl Rozado pro Newsweek. „Přesný zdroj tohoto chování ale zatím není jasný.“
Rozado tím v podstatě říká, že nejde nutně o to, že by AI byla cíleně nastavena proti mužům, ale že kombinace technických rozhodnutí, lidských vstupů a ochranných pravidel může vést k nechtěnému zkreslení.
Důvodem mohou být nevyvážená data, která model nasál během tréninku, nebo také ručně anotovaná data, v nichž lidé označují „žádoucí“ odpovědi. Pokud anotátoři nevědomky nadržují určitému typu výstupů, může se tento sklon přenést i do chování modelu.
Svou roli navíc hrají i ochranné mechanismy, které vývojáři implementují s cílem zabránit diskriminaci. Výsledkem ale může být opačný extrém – tedy že AI diskriminaci v podstatě „otočí“.
Zvýšená preference pro ženy se podle studie ještě více projevila v případech, kdy životopis obsahoval explicitní označení pohlaví – běžnou praxi například v Německu nebo Japonsku.
Mírně pomáhalo i uvádění preferovaných zájmen ona/její, on/jeho. Například věta v životopisu „Mezi jeho zájmy patří...“ již v podstatě snižuje šance uchazeče, že uspěje oproti životopisu ženy.
Kam až zajde umělá inteligence za vlastní záchranou? Klidně nechá zemřít člověka, zjistili vědci
„Tyto tendence přetrvávaly bez ohledu na velikost modelu nebo výpočetní kapacitu, což silně naznačuje, že zaujatost není funkcí rozsahu modelu, ale jde o systémový problém,“ varuje Rozado.
Ačkoli šlo o simulace s uměle vytvořenými životopisy, výsledky podle autora ukazují, že AI může při rozhodování upřednostňovat irelevantní faktory – ať už jde o pohlaví, nebo třeba o pořadí životopisu v zadání.
„I drobné odchylky se při velkém množství rozhodnutí mohou kumulovat a ovlivnit celkovou férovost výběrového procesu,“ dodává Rozado.
Jeho závěr je jednoznačný: „Vzhledem k současným důkazům o zaujatosti a nepředvídatelnosti věřím, že LLM by neměly být používány v kritických oblastech, jako je nábor zaměstnanců, pokud jejich výstupy nejsou důkladně prověřeny z hlediska spravedlnosti a spolehlivosti.“
Pokud personalisté přesto budou chtít AI při náboru využívat, měli by důsledně dbát na anonymizaci životopisů – alespoň do té míry, aby z žádného parametru nebylo možné odvodit pohlaví uchazeče. Takto „osekaný“ životopis by neměl obsahovat jména, fotografie, ale ani údaje o absolvované mateřské dovolené.