Tichá zaujatost algoritmů: když náborové AI technologie nerozumí lidem s autismem či ADHD
Hrot24, vygenerováno v Midjourney
Hrotagon
Tichá zaujatost algoritmů: když náborové AI technologie nerozumí lidem s autismem či ADHD
AI technologie mění způsob, jakým firmy hledají nové zaměstnance. Ačkoliv mají potenciál přinést větší objektivitu a efektivitu, mohou zároveň nechtěně vytvářet nové formy diskriminace, zejména vůči neurodivergentním lidem, jako jsou osoby s autismem, ADHD nebo dyslexií. Důvodem není zlý úmysl, ale způsob, jakým jsou algoritmy trénovány a používány.
Lukáš Sedláček
AI nástroje, které se dnes v HR běžně používají, často vyhodnocují uchazeče na základě jazykových vzorců, mimiky, hlasového projevu nebo struktury odpovědí. Problém spočívá v tom, že tato kritéria bývají nastavena podle dat od typických kandidátů. Jakmile se od těchto vzorců někdo odchyluje – například udržuje menší oční kontakt, má monotónní hlas nebo používá méně konvenční jazykové obraty – může být algoritmem hodnocen jako nevhodný. Přitom tyto znaky často vůbec nesouvisí s kvalifikací nebo pracovními dovednostmi.
Některé AI nástroje také klasifikují odpovědi, které se jim zdají nekonzistentní nebo nepřirozené, a to i v případech, kdy se jedná pouze o jiný způsob zpracování informací, což je pro neurodivergentní osoby zcela běžné. Tím vzniká riziko, že budou systematicky znevýhodňováni, aniž by se o tom personalista nebo samotný kandidát dozvěděl.
Audity férovosti jako naděje
Na tuto problematiku však existují odpovědi. Firmy jako IBM, Microsoft nebo Google vyvinuly tzv. audity férovosti, tedy nástroje, které umožňují testovat, zda algoritmus funguje spravedlivě napříč různými skupinami, včetně lidí různého věku, pohlaví nebo zdravotního postavení. Například nástroj Pymetrics Audit AI dokáže měřit a zmírnit dopady diskriminačních vzorců v trénovacích datech a předpovědích modelů. Vývojářům jsou také k dispozici open-source nástroje jako AIF360 od IBM nebo Fairlearn od Microsoftu, které pomáhají detekovat a omezovat zkreslení v modelech strojového učení.
Jedním z klíčových problémů ale zůstává, že neurodivergence často není v trénovacích ani testovacích datech zaznamenána. To znamená, že znevýhodnění těchto skupin se může dít tiše a bez povšimnutí. Právě proto je důležité přistupovat k nasazení AI v náboru obezřetně, a nejen technicky, ale i eticky.
Z technického pohledu je zásadní, aby vývojáři trénovali AI systémy na rozmanitých datech, která reflektují širší spektrum kandidátů, včetně těch neurodivergentních. Algoritmy by měly být auditovatelné a jejich rozhodnutí vysvětlitelná. Personalisté by měli mít možnost do celého procesu zasáhnout a výstupy systému kontrolovat. Rizikové jsou nástroje, které se silně opírají o neverbální chování, jako jsou mimika, tón hlasu nebo způsob mluvy – to vše je u různých lidí odlišné a samo o sobě nic nevypovídá o schopnostech.
Etika, lidský faktor a transparentnost v náboru
Etická stránka je neméně důležitá. Rozhodnutí o přijetí by neměla být nikdy plně automatizovaná. Poslední slovo by měl mít vždy člověk. Kandidáti musí být informováni, že jejich výstupy hodnotí AI, a měli by mít možnost výběru, zda s tím souhlasí. Firmy by rovněž měly přijmout etické zásady pro vývoj a používání AI v HR a transparentně komunikovat, jak technologie ovlivňuje náborový proces.
Součástí férového přístupu by měla být i možnost zpětné vazby: pokud byla rozhodnutí ovlivněna AI, měl by mít kandidát možnost pochopit, proč k tomu došlo. To je nejen otázkou důvěry, ale i krokem k budování inkluzivního pracovního prostředí, které opravdu uvítá různorodost.
Autor je historik, publicista a zakladatel Týdne inovací, autor připravované knihy Nazí v AI době
Máte co říci? Pošlete nám svůj komentář na komentare@hrotmedia.cz