.
Wprowadzenie systemów sztucznej inteligencji do środowiska pracy to już nie kwestia przyszłości, lecz teraźniejszości, która wymaga przemyślanej organizacji i pragmatyzmu. AI Act (rozporządzenie 2024/1689), które weszło w życie 2 sierpnia 2024 r., nakłada nowe obowiązki na firmy, jednak kluczowe wyzwania leżą w codziennej praktyce. Prawo pracy nie reguluje wprost użycia narzędzi AI, lecz zasady ogólne nakładają na pracodawcę obowiązek zachowania należytej staranności (art. 94 kodeksu pracy) oraz zapewnienia bezpiecznych warunków pracy. W dobie cyfryzacji oznacza to również konieczność zarządzania ryzykiem technologicznym.
AI Shadow
Problem, z którym mierzy się wiele organizacji, to zjawisko „AI Shadow” (cienia AI) – pracownicy, chcąc przyspieszyć swoją pracę, korzystają z prywatnych, darmowych narzędzi AI bez wiedzy przełożonych i bez weryfikacji bezpieczeństwa danych. Dlatego kluczowym celem regulacji wewnętrznych nie powinno być „blokowanie innowacji”, lecz wyprowadzenie AI z cienia i nadanie jej bezpiecznych ram.
Choć AI Act będzie stosowany stopniowo, jego skutki są już odczuwalne. Dla systemów AI wysokiego ryzyka (np. stosowanych w rekrutacji czy ocenie wyników) pracodawca jako podmiot stosujący (zgodnie z art. 26 AI Act) musi zapewnić monitorowanie ich działania i nadzór człowieka (human oversight). Jednak nawet w przypadku prostszych narzędzi pracodawca musi wykazać się aktywnością. Brak kontroli nad tym, jak dział marketingu generuje treści, a księgowość analizuje faktury, może prowadzić do ujawnienia danych klientów lub błędów finansowych, za które odpowiedzialność spadnie na firmę.
Zamiast tworzyć jeden opasły dokument dla całej firmy, rekomenduje się podejście oparte na prostocie i specyfice działowej. Inne ryzyka generuje programista używający asystenta kodu (ryzyko wklejenia kodu źródłowego firmy), a inne pracownik HR (ryzyko wklejenia danych osobowych kandydata). „Prompt-policies” powinny być zwięzłe i zrozumiałe. Muszą precyzować: