Článok sa venuje dvom najcitlivejším oblastiam používania AI v personalistike. Prvou je algoritmický bias, teda riziko, že AI bude ticho reprodukovať a zosilňovať diskrimináciu. Druhou je monitoring zamestnancov, teda otázka, kde je hranica medzi oprávneným záujmom zamestnávateľa a neprimeraným zásahom do súkromia.
AI môže byť rýchla a efektívna, ale nie automaticky spravodlivá
Umelá inteligencia dokáže spracovať tisíce životopisov za minúty, vyhodnotiť výkonnosť zamestnancov na základe desiatok ukazovateľov a sledovať aktivitu na pracovných zariadeniach v reálnom čase. To všetko znie ako pokrok. Problém nastáva vtedy, keď sa za zdanlivou objektivitou skrýva niečo, čo nie je na prvý pohľad viditeľné: staré predsudky zakódované v dátach, na ktorých sa AI naučila rozhodovať, alebo neprimeraný zásah do súkromia, ktorý by si žiadny rozumný zamestnávateľ nedovolil, keby ho robil manuálne.
Ako algoritmický bias vzniká
AI sa učí z dát. Ak sú historické dáta poznačené nerovnomerným prístupom, predsudkami alebo zaužívanými vzorcami správania, systém sa tieto vzorce môže naučiť a ďalej ich posilňovať. Nemusí pritom priamo pracovať s údajom o pohlaví, veku alebo národnosti. Niekedy stačí, že používa iné ukazovatele, ktoré s nimi nepriamo súvisia. Napríklad názov školy, dĺžku kariérnej prestávky, jazykový štýl životopisu alebo dokonca PSČ bydliska. Výsledkom môže byť rozhodovanie, ktoré navonok vyzerá objektívne, ale v skutočnosti znevýhodňuje určitú skupinu osôb. Tomuto javu sa hovorí nepriama diskriminácia alebo odborne proxy diskriminácia, a v kontexte AI je obzvlášť zákerná, pretože ju často nie je možné odhaliť bez cieleného testovania.
Jedným z najznámejších prípadov algoritmického biasu v nábore je prípad spoločnosti Amazon z roku 2018. Spoločnosť vyvinula interný AI nástroj na screening životopisov, ktorý bol trénovaný na historických dátach o úspešných kandidátoch za predchádzajúcich desať rokov. Keďže v technologickom sektore historicky dominovali muži, systém sa naučil penalizovať životopisy obsahujúce výrazy spojené so ženami a uprednostňovať jazykové vzorce typické pre mužských kandidátov. Amazon nástroj po odhalení tohto problému interne zrušil. Prípad zverejnil Reuters v októbri 2018 a dodnes slúži ako referenčný príklad toho, ako sa zdanlivo neutrálny algoritmus môže naučiť diskriminovať (Dastin, J.: „Amazon scraps secret AI recruiting tool that showed bias against women", Reuters, 10. október 2018).
Zodpovednosť je vždy na zamestnávateľovi
Pre zamestnávateľa je podstatné pochopiť jednu vec. Zodpovednosť za diskrimináciu nezmizne len preto, že rozhodnutie vytvoril algoritmus. V slovenskom právnom rámci je diskriminácia v pracovnoprávnych vzťahoch zakázaná podľa § 13 zákona č. 311/2001 Z. z. Zákonník práce v znení neskorších predpisov (ďalej len „Zákonník práce“), ktorý zakotvuje zásadu rovnakého zaobchádzania, a podľa zákona č. 365/2004 Z. z. o rovnakom zaobchádzaní v niektorých oblastiach a o ochrane pred diskrimináciou a o zmene a doplnení niektorých zákonov (antidiskriminačný zákon) v znení neskorších predpisov, ktorý zakazuje priamu aj nepriamu diskrimináciu na základe pohlavia, veku, rasy, etnického pôvodu, zdravotného postihnutia a ďalších chránených dôvodov.
Ak AI systém vedie k diskriminačným výsledkom, právne následky znáša organizácia, ktorá ho používa. Zamestnávateľ sa nemôže účinne brániť tým, že systém dodal externý dodávateľ alebo že chyba vznikla v modeli. Zodpovedný je ten, kto systém nasadil a používa ho na rozhodovanie o ľuďoch. Tento princíp potvrdila aj judikatúra.
V prípade Mobley v. Workday, Inc., ktorý prebieha pred federálnym súdom v Kalifornii (N.D. Cal., Case No. 23-cv-00770-RFL), žalobca Derek Mobley tvrdí, že AI nástroje spoločnosti Workday, používané tisíckami zamestnávateľov na screening uchádzačov, ho systematicky diskriminovali na základe veku, rasy a zdravotného postihnutia. Mobley uvádza, že bol odmietnutý z viac ako 100 pracovných pozícií, pričom odmietnutia prichádzali automaticky, niekedy o 1:50 v noci, necelú hodinu po podaní prihlášky. V máji 2025 súd certifikoval žalobu ako kolektívnu akciu podľa zákona o vekovej diskriminácii v zamestnaní (ADEA) a umožnil potenciálne miliónom uchádzačov nad 40 rokov pripojiť sa k žalobe. Sudkyňa Rita Lin vo svojom rozhodnutí konštatovala, že rozlišovanie medzi softvérovým a ľudským rozhodovateľom by mohlo podkopať antidiskriminačné zákony v modernej dobe. Prípad bol aktuálny ešte v marci 2026, kedy žalobcovia podali doplnenú žalobu.
Pre európskych zamestnávateľov je tento prípad dôležitým signálom. Hoci ide o americkú judikatúru, princíp je rovnaký: ak algoritmus diskriminuje, zodpovednosť nenesie softvér, ale ten, kto ho používa.
Čo vyžaduje nariadenie o umelej inteligencii v oblasti kvality dát
Nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 (nariadenie o umelej inteligencii) priamo rieši problém kvality dát, na ktorých sú AI systémy trénované. Článok 10 nariadenia stanovuje požiadavky na dáta používané na trénovanie vysokorizikových AI systémov. Podľa tohto ustanovenia musia byť tréningové dáta relevantné, reprezentatívne, bezchybné a úplné s ohľadom na určený účel systému.
Osobitne dôležité je ustanovenie čl. 10 ods. 2 písm. f), ktoré výslovne vyžaduje preverenie možných predsudkov (biases), ktoré môžu ovplyvniť zdravie, bezpečnosť a základné práva osôb. Pre dodávateľov AI nástrojov to znamená povinnosť. Pre zamestnávateľov to znamená dôvod pýtať sa dodávateľa konkrétne otázky o tom, na akých dátach bol systém trénovaný, či boli tieto dáta testované na predsudky, a aké opatrenia boli prijaté na ich minimalizáciu.
Ak dodávateľ tieto informácie nedokáže poskytnúť, je to varovný signál. Organizácia, ktorá nasadí AI nástroj bez toho, aby sa zaujímala o kvalitu jeho tréningových dát, preberá riziko, že systém bude produkovať diskriminačné výstupy.
Ako predchádzať biasu v praxi
Predchádzanie algoritmickému biasu nie je jednorazová úloha. Je to priebežný proces, ktorý si vyžaduje kombináciu opatrení.
Prvým krokom je vyžiadať si od dodávateľa informácie o metrikách spravodlivosti (fairness metrics), ktoré systém používa. Tieto metriky by mali ukazovať, ako systém funguje naprieč rôznymi skupinami uchádzačov alebo zamestnancov. Dodávateľ by mal byť schopný vysvetliť, ako zabezpečuje, že žiadna skupina nie je systematicky znevýhodňovaná.
Druhým krokom je pravidelné testovanie výstupov. Porovnávajte mieru úspešnosti uchádzačov alebo zamestnancov naprieč chránenými skupinami, teda podľa pohlavia, veku, národnosti, zdravotného znevýhodnenia. Ak jedna skupina systematicky dosahuje výrazne nižšiu mieru úspešnosti, je to signál, že niečo nie je v poriadku a treba to preskúmať.
Tretím krokom je zabezpečenie reprezentatívnosti dát. Ak máte vplyv na tréningové dáta (napríklad pri interných AI riešeniach), overte, že neobsahujú historické predpojatosti. Pri kúpených riešeniach vyžiadajte od dodávateľa potvrdenie, že testovanie biasu bolo vykonané.
Štvrtým krokom je vytvorenie opravného mechanizmu. Uchádzač alebo zamestnanec musí mať reálnu možnosť namietať voči rozhodnutiu AI. Táto možnosť nesmie byť len formálna. Musí viesť k skutočnému preskúmaniu rozhodnutia človekom, ktorý má právomoc ho zmeniť.
Monitoring zamestnancov: Tri vrstvy právnej ochrany
Monitoring zamestnancov patrí medzi najcitlivejšie oblasti použitia AI v HR. Tu už nejde len o efektivitu procesov. Ide priamo o súkromie, dôstojnosť a pracovné prostredie človeka. V praxi sa môžeme stretnúť so sledovaním produktivity, vyhodnocovaním aktivity na zariadeniach, analýzou pracovnej komunikácie, biometrickými prvkami v dochádzkových systémoch alebo s nástrojmi, ktoré automaticky vyhodnocujú správanie pracovníkov.
Monitoring zamestnancov naráža na viacero právnych hraníc, ktoré sa vzájomne prekrývajú a zosilňujú.
Prvou vrstvou ochrany je zákon č. 311/2001 Z. z. Zákonník práce v znení neskorších predpisov (ďalej len "Zákonník práce"). Ustanovenie § 13 ods. 4 Zákonníka práce zakazuje zamestnávateľovi narušovať súkromie zamestnanca na pracovisku bez vážnych dôvodov. Monitoring musí byť primeraný, zamestnávateľ je povinný o ňom zamestnanca vopred informovať a v prípade kontrolného mechanizmu musí prerokovať jeho zavedenie so zástupcami zamestnancov. Podľa § 13 ods. 7 Zákonníka práce zamestnanec nesmie bez závažných dôvodov na strane zamestnávateľa byť sledovaný na pracovisku a v spoločných priestoroch.
Druhou vrstvou ochrany je Európsky dohovor o ľudských právach. Článok 8 Dohovoru garantuje právo na rešpektovanie súkromného a rodinného života. Judikatúra Európskeho súdu pre ľudské práva (ESĽP), najmä rozhodnutie Veľkej komory vo veci Bărbulescu v. Rumunsko z 5. septembra 2017 (sťažnosť č. 61496/08), potvrdila, že aj na pracovisku existuje oprávnené očakávanie súkromia. V tomto prípade zamestnávateľ monitoroval obsah súkromnej komunikácie zamestnanca na firemnom počítači bez toho, aby ho vopred dostatočne informoval o rozsahu a povahe monitoringu. ESĽP konštatoval porušenie čl. 8 Dohovoru a stanovil, že zamestnávateľ musí zamestnanca vopred informovať o rozsahu a povahe monitoringu a že monitoring musí byť primeraný sledovanému cieľu. Toto rozhodnutie je záväzné aj pre Slovenskú republiku ako členský štát Rady Európy.
Treťou vrstvou ochrany je nariadenie o umelej inteligencii. AI systémy na monitorovanie a hodnotenie výkonnosti osôb v pracovnoprávnych vzťahoch sú podľa prílohy III bodu 4 písm. d) nariadenia klasifikované ako potenciálne vysokorizikové. Pre zamestnávateľa to znamená, že ak na monitoring výkonnosti používa AI nástroj, musí počítať s plným rozsahom povinností pre vysokorizikové systémy. Navyše, čl. 5 ods. 1 písm. f) nariadenia priamo zakazuje AI systémy na rozpoznávanie emócií na pracovisku a vo vzdelávacích inštitúciách, s výnimkou lekárskych alebo bezpečnostných účelov. Tento zákaz platí od 2. februára 2025.
Proporcionalita: Základné pravidlo každého monitoringu
Základným pravidlom pri každom monitoringu je proporcionalita. Zamestnávateľ nemôže monitorovať všetko len preto, že to technológia umožňuje. Musí vedieť preukázať tri veci: že existuje vážny dôvod na monitoring, že zvolené riešenie je primerané sledovanému cieľu a že sledovaný cieľ nemožno dosiahnuť menej invazívnym spôsobom.
Ak sa na monitoring používa AI, riziko sa ešte zvyšuje. Nejde už len o zaznamenávanie údajov, ale aj o ich automatizované vyhodnocovanie. To môže mať priamy vplyv na hodnotenie výkonu, dôveru zamestnávateľa voči zamestnancovi, pracovné podmienky alebo ďalšie rozhodnutia v pracovnom vzťahu.
Pred nasadením akéhokoľvek monitorovacieho AI nástroja si položte tri otázky. Existuje menej invazívny spôsob, ako dosiahnuť rovnaký cieľ? Je rozsah monitoringu primeraný sledovanému účelu? Sú zamestnanci vopred, konkrétne a zrozumiteľne informovaní o tom, čo sa monitoruje, prečo a ako dlho sa údaje uchovávajú? Ak na ktorúkoľvek z týchto otázok nedokážete odpovedať kladne, monitoring nespĺňa podmienky proporcionality.
Jednou vecou si buďte istí: obsah súkromnej komunikácie zamestnancov nikdy nemonitorujte. Toto je oblasť, kde právne aj reputačné riziko výrazne prevyšuje akýkoľvek potenciálny prínos pre organizáciu.
Stupne invazívnosti: Nie každý monitoring je rovnaký
Z praktického hľadiska je dôležité rozlišovať medzi rôznymi stupňami invazívnosti monitorovania. Iný právny režim sa vzťahuje na bežnú dochádzkovú evidenciu a iný na nástroj, ktorý priebežne analyzuje stlačené klávesy alebo obsah e-mailovej komunikácie.
Za nižšiu invazívnosť sa považuje bežná dochádzková evidencia, prístupové karty alebo agregovaná štatistika využitia systémov. Tieto opatrenia väčšinou nevyvolávajú zásadné právne problémy, ak sú zamestnanci informovaní.
Za strednú invazívnosť sa považuje napríklad GPS sledovanie služobných vozidiel, monitorovanie používania internetu alebo AI analytika výkonnostných metrík. Tu už je potrebné podrobnejšie zdôvodnenie a transparentnosť.
Za vysokú invazívnosť sa považuje zaznamenávanie stlačených kláves (keystroke logging), analýza obsahu e-mailov, pravidelné snímkovanie obrazovky (screenshot monitoring) alebo biometrická identifikácia. Tu organizácia vstupuje na územie, kde právne a reputačné riziko rastie veľmi rýchlo.
Osobitne citlivé sú nástroje sledujúce obsah komunikácie, priebežnú aktivitu na zariadení alebo biometrické prvky. Pri monitoringu zamestnancov neplatí, že viac dát automaticky znamená lepšie riadenie. Často platí presný opak. Čím agresívnejší monitoring, tým väčšie napätie na pracovisku, nižšia dôvera a vyššie reputačné riziko.
Záver
Algoritmický bias a neprimeraný monitoring sú dve najväčšie riziká AI v personalistike. Obe majú spoločnú príčinu: predpoklad, že ak niečo robí technológia, je to automaticky objektívne, spravodlivé alebo oprávnené.
V skutočnosti platí opak. Čím viac AI ovplyvňuje rozhodovanie o ľuďoch, tým menej stačí technická dôvera, a tým viac je potrebná právna a etická kontrola. AI môže HR pomôcť, ale nesmie sa stať tichým zosilovačom starých predsudkov ani nástrojom na všadeprítomné sledovanie.
Dobré HR nemá ambíciu vidieť všetko. Má ambíciu nastaviť pravidlá tak, aby boli primerané, obhájiteľné a dôveryhodné. A práve to je rozdiel medzi organizáciou, ktorá AI používa zodpovedne, a organizáciou, ktorá iba dúfa, že sa nič nestane.
Použitá literatúra a zdroje:
[1] Zákon č. 311/2001 Z. z. Zákonník práce v znení neskorších predpisov, najmä § 13 ods. 4 (zákaz narušovania súkromia na pracovisku) a § 13 ods. 7 (zákaz sledovania zamestnanca bez závažných dôvodov).
[2] Zákon č. 365/2004 Z. z. o rovnakom zaobchádzaní v niektorých oblastiach a o ochrane pred diskrimináciou (antidiskriminačný zákon) v znení neskorších predpisov.
[3] Nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 z 13. júna 2024, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie (akt o umelej inteligencii). Najmä čl. 5 ods. 1 písm. f) (zákaz rozpoznávania emócií na pracovisku), čl. 10 ods. 2 (požiadavky na tréningové dáta vrátane preverovania predsudkov), príloha III bod 4 písm. d) (monitoring a hodnotenie výkonnosti ako potenciálne vysokorizikový systém).
[4] Dohovor o ochrane ľudských práv a základných slobôd (Európsky dohovor o ľudských právach), čl. 8 (právo na rešpektovanie súkromného a rodinného života).
[5] ESľP: Bărbulescu v. Rumunsko, Veľká komora, rozsudok z 5. septembra 2017, sťažnosť č. 61496/08. Porušenie čl. 8 Dohovoru v prípade monitorovania súkromnej komunikácie zamestnanca na pracovisku bez primeraného predchádzajúceho informovania.
[6] Mobley v. Workday, Inc., N.D. Cal., Case No. 23-cv-00770-RFL (2023 a nasl.). Hromadná žaloba za algoritmickú diskrimináciu v AI náborovom systéme (vek, rasa, zdravotné postihnutie). Súd v máji 2025 certifikoval kolektívnu žalobu podľa ADEA. Prípad prebieha.
[7] DASTIN, J. 2018. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10. október 2018. Referenčný prípad algoritmického biasu v nábore.