• +48 533 367 799

AI Act zmieni zasady korzystania ze sztucznej inteligencji w HR

29% przedstawicieli branży HR uważa błędy algorytmiczne i stronniczość systemów AI za największe wyzwanie związane z wdrażaniem technologii HR Tech.

AI Act zmieni zasady korzystania ze sztucznej inteligencji w HR

Unijne rozporządzenie dotyczące sztucznej inteligencji, znane jako AI Act, wprowadzi zmiany w sposobie wykorzystywania technologii AI w obszarze zarządzania zasobami ludzkimi. Zgodnie z nowymi regulacjami narzędzia stosowane w procesach rekrutacyjnych, selekcji kandydatów czy oceny pracowników zostały zakwalifikowane do kategorii systemów wysokiego ryzyka. Wymusi to m.in. konieczność zapewnienia nadzoru człowieka nad działaniem systemów oraz odpowiednie przygotowania pracowników działów HR do korzystania z algorytmów w sposób odpowiedzialny i zgodny z prawem.

Z danych serwisu eRecruiter wynika, że zainteresowanie sztuczną inteligencją w procesach rekrutacyjnych rośnie bardzo szybko. W 2024 r. już jedna czwarta z blisko 500 badanych firm korzystała z rozwiązań opartych na AI, co oznacza czterokrotny wzrost w porównaniu z 2023 r. Jednocześnie jedynie 15% przedsiębiorstw deklarowało posiadanie wewnętrznych wytycznych dotyczących etycznego stosowania tej technologii w rekrutacji. Z kolei 62% organizacji nie wprowadziło jeszcze systemowych działań regulujących korzystanie z narzędzi sztucznej inteligencji.

Badanie „HR Tech Changer 2025” przygotowane przez Polskie Forum HR pokazuje, że technologie cyfrowe i rozwiązania oparte na AI są najczęściej stosowane do selekcji kandydatów, prowadzenia procesów rekrutacyjnych, oceny kompetencji oraz zarządzania bazami aplikujących. Jak wskazuje ekspertka ds. zatrudnienia w Konfederacji Lewiatan Nadia Winiarska, sztuczna inteligencja coraz częściej wspiera nie tylko wstępny etap selekcji kandydatów, ale także kolejne fazy rekrutacji. – Systemy są coraz częściej automatyzowane, niektóre zadania są powierzane technologiom, co usprawnia pracę działów HR i cały proces rekrutacji. W takich branżach jak chociażby przemysł, gospodarka magazynowa, gdzie na bieżąco trzeba uzupełniać potrzeby kadrowe, trudno sobie wyobrazić zarządzanie zasobami ludzkimi i procesem rekrutacji bez wykorzystania sztucznej inteligencji. Z perspektywy rynku pracy AI Act ma duże znaczenie, ponieważ wykorzystanie sztucznej inteligencji w systemach zarządzania zasobami ludzkimi, czyli systemach HR-owych, zostało uznane za systemy wysokiego ryzyka, co wymaga dodatkowych działań – wskazuje ekspertka.

Regulacje AI Act są wprowadzane stopniowo. Choć rozporządzenie formalnie zaczęło obowiązywać 1 sierpnia 2024 r., kolejne przepisy wchodzą w życie etapami. Luty 2025 r. przyniósł m.in. zakazy wybranych praktyk i ogólne zasady dotyczące kompetencji w zakresie sztucznej inteligencji. Następne elementy regulacji, obejmujące m.in. modele AI ogólnego przeznaczenia i ramy nadzoru, są stosowane od sierpnia 2025 r. Najważniejsze obowiązki dotyczące systemów wysokiego ryzyka, w tym tych wykorzystywanych w obszarze HR, będą obowiązywać od 2 sierpnia 2026 r., a pełne wdrożenie harmonogramu przewidziano na rok później.

W załączniku III rozporządzenia wskazano, że do systemów wysokiego ryzyka należą m.in. narzędzia wykorzystywane do tworzenia ogłoszeń rekrutacyjnych, analizowania i filtrowania aplikacji czy oceny kandydatów. W praktyce oznacza to konieczność dokładnego monitorowania sposobu wdrażania i wykorzystywania takich systemów. Pracodawcy będą musieli zarządzać ich funkcjonowaniem, kontrolować ich działanie oraz jasno informować o wykorzystaniu AI w procesie rekrutacji. Obowiązek informacyjny będzie dotyczył zwłaszcza sytuacji, w których system wspiera selekcję kandydatów – osoby ubiegające się o pracę powinny zostać o tym poinformowane jeszcze przed użyciem narzędzia.

Nowe przepisy zwracają również uwagę na jakość danych wykorzystywanych do trenowania systemów sztucznej inteligencji i na konieczność ograniczania uprzedzeń algorytmicznych. W przypadku systemów wysokiego ryzyka wymagane będzie stosowanie odpowiednich praktyk zarządzania danymi, w tym zapewnienie reprezentatywności zbiorów danych oraz identyfikowanie i ograniczanie ryzyka stronniczości algorytmów. Ma to duże znaczenie zwłaszcza w procesach rekrutacyjnych, gdzie istnieje ryzyko nieświadomej dyskryminacji. Algorytmy uczą się bowiem na podstawie danych historycznych, które mogą odzwierciedlać wcześniejsze schematy zatrudnienia. Przykładowo – jeśli w przeszłości na danym stanowisku zatrudniano głównie mężczyzn, system może nieświadomie preferować kandydatów o podobnym profilu.

– Sztuczna inteligencja w rekrutacji jest narzędziem wspierającym, natomiast jednocześnie warto pamiętać o tym, aby te nowe narzędzia wykorzystywać odpowiedzialnie, żeby AI nie powodowała zachowań niepożądanych, czyli np. dyskryminacji. Znane są przypadki, kiedy błędne algorytmy w procesie rekrutacji prowadziły właśnie do dyskryminacji, faworyzowania niektórych kandydatów lub kandydatek, których CV miały jakieś wspólne cechy – podsumowuje Nadia Winiarska.

Z badań Polskiego Forum HR wynika, że 29% przedstawicieli branży HR uważa błędy algorytmiczne i stronniczość systemów AI za największe wyzwanie związane z wdrażaniem technologii HR Tech. Dodatkowo 19% respondentów wskazuje na ryzyko tzw. halucynacji sztucznej inteligencji, czyli generowania przez systemy informacji, które mogą być nieprawdziwe lub wprowadzające w błąd.

fot. freepik.com
oprac. /kp/

Podobne artykuły

Wyszukiwarka