Sztuczna inteligencja (AI) otacza nas praktycznie z każdej strony. Można powiedzieć, że znajdujemy się dopiero na początku technologicznej ery. Ale czy jesteśmy gotowi na konsekwencje decyzji podejmowanych przez algorytm? Jak świat technologii i decyzje podejmowane przez sztuczną inteligencję wpływają na odpowiedzialność pracodawców? Czy era technologiczna zmieniła zasady gry dla liderów biznesu?

W miarę postępu technologicznego sztuczna inteligencja zyskuje zdolność do podejmowania coraz bardziej złożonych decyzji w miejscu pracy. Staje się nieodłącznym partnerem w procesie decyzyjnym od automatyzacji rutynowych zadań po zaawansowane analizy danych.

W kontekście zatrudnienia AI może mieć istotny wpływ na różne obszary, takie jak rekrutacja, ocena pracowników, zarządzanie talentami i planowanie zasobów ludzkich. Poruszyliśmy już kwestie potencjalnych zagrożeń i korzyści płynących z wykorzystania AI w procesie rekrutacji, a także konieczność dostosowania przepisów prawa pracy do dynamicznie rozwijającego się Przemysłu 4.0. W tym, trzecim artykule z cyklu Cyfrowy Świat Zatrudnienia skupimy się na tym, jakie technologiczna rewolucja niesie ze sobą wyzwania dla pracodawców i przedsiębiorców, gdy sztuczna inteligencja staje się równorzędnym partnerem w procesie podejmowania decyzji.

Wyręczka w miejscu pracy

Jak wspomnieliśmy w poprzednich artykułach, w rekrutacji algorytmy oparte na sztucznej inteligencji mogą skutecznie analizować ogromne ilości danych z życiorysów, rozmów kwalifikacyjnych i działań online kandydatów. Są w stanie identyfikować wzorce, które pomagają w dokładniejszym dopasowywaniu kandydatów do wymagań stanowiska, co skraca czas procesu rekrutacyjnego i podnosi efektywność.

W zakresie oceny pracowników systemy oparte na AI mogą monitorować i analizować wydajność pracowników w czasie rzeczywistym. Wykorzystując dane dotyczące produktywności, jakości pracy czy zaangażowania, sztuczna inteligencja wspomaga podejmowanie obiektywnych ocen, co może być kluczowe dla rozwoju kariery zawodowej.

Także w planowaniu zasobów ludzkich AI może dostarczać cennych danych pozwalających na prognozowanie potrzeb kadrowych, identyfikowanie obszarów wymagających rozwoju i optymalizację struktury zespołów.

Proces rekrutacji

Rola sztucznej inteligencji w procesach rekrutacyjnych stanowi istotną rewolucję, zmieniając sposób, w jaki organizacje identyfikują, przyciągają i selekcjonują kandydatów. Jednym z kluczowych aspektów jest automatyzacja analizy CV i listów motywacyjnych. Algorytmy oparte na sztucznej inteligencji mogą błyskawicznie przeszukać ogromne ilości danych rekrutacyjnych, identyfikując kluczowe umiejętności i doświadczenia, co skraca czas procesu rekrutacyjnego i eliminuje często czasochłonne zadania. Dodatkowo AI w procesie rekrutacyjnym potrafi wykorzystać analizę danych behawioralnych kandydatów. Śledzenie aktywności online, udziału w projektach czy interakcji na platformach zawodowych dostarcza AI dodatkowych informacji na temat potencjalnych pracowników. To umożliwia bardziej holistyczne podejście do oceny kandydatów, co może prowadzić do bardziej trafnych decyzji dotyczących zatrudnienia.

Choć sztuczna inteligencja w rekrutacji niesie za sobą liczne korzyści, niezbędne jest równoczesne uwzględnienie kwestii etycznych i związanych z przejrzystością. Odpowiedzialne stosowanie AI w procesach rekrutacyjnych wymaga nadzoru człowieka, aby uniknąć uprzedzeń, utrzymać uczciwość i równość szans. Analiza wpływu sztucznej inteligencji na rekrutację staje się zatem nie tylko badaniem nowych możliwości, ale również refleksją nad odpowiedzialnym wykorzystaniem technologii w kształtowaniu przyszłości zatrudnienia.

Odpowiedzialność prawna

Decyzje podejmowane przez systemy sztucznej inteligencji w miejscu pracy stawiają przed pracodawcami nowe wyzwania z zakresu odpowiedzialności prawnej. W miarę wzrostu roli AI w podejmowaniu decyzji dotyczących zatrudnienia konieczne staje się zdefiniowanie ram prawnych dotyczących odpowiedzialności pracodawców za te decyzje. Istotne pytania dotyczą tego:

- kto ponosi konsekwencje ewentualnych błędów,

- jakie normy etyczne powinny kierować algorytmami AI,

- jakie mechanizmy powinny być wdrożone w przypadku sporów czy skarg związanych z decyzjami podejmowanymi przez sztuczną inteligencję.

Pracodawcy zaczynają zdawać sobie sprawę z potrzeby klarownego zdefiniowania zakresu odpowiedzialności prawnej w kontekście decyzji AI. W przypadku błędów czy uprzedzeń, które mogą pojawić się w algorytmach, pracodawcy są zobowiązani do zidentyfikowania, monitorowania i korygowania ewentualnych nieprawidłowości.

Jednak aby pełniej zrozumieć i ustalić odpowiedzialność prawną za decyzje podejmowane przez sztuczną inteligencję, konieczne jest dostosowanie istniejących ram prawnych do dynamicznego środowiska, w którym algorytmy AI operują. W miarę jak technologia ewoluuje, legislatorzy i eksperci prawa muszą wspólnie pracować nad opracowaniem ram prawnych, które będą zarówno chronić prawa pracowników, jak i umożliwiać rozwój innowacyjnych rozwiązań opartych na sztucznej inteligencji w miejscu pracy.

Jednym z kluczowych wyzwań jest określenie, kto ponosi ostateczną odpowiedzialność za ewentualne błędy czy nieprawidłowości w działaniu algorytmów AI. Choć systemy te są zwykle projektowane i wdrażane przez specjalistów IT, to jednak pracodawcy, będąc zarazem beneficjentami i użytkownikami tych technologii, są często postrzegani jako odpowiedzialni za ich konsekwencje.

Kierunek regulacji

Pomimo braku powszechnie obowiązujących regulacji stricte określających ramy prawne dla korzystania z AI, jesteśmy w stanie umiejscowić korzystanie ze sztucznej inteligencji w istniejącym systemie prawa. Na ten moment możemy uznać, że AI nie stanowi osobnego podmiotu praw i obowiązków, a może być używane jak program komputerowy – czyli należy je traktować jako narzędzie pracy. AI może używać każdy przedsiębiorca, pracodawca, jak również pracownicy – przy tym warto pamiętać, że zawsze odpowiedzialność za wyniki pracy sztucznej inteligencji ponosić będzie człowiek (przynajmniej w  obecnym stanie prawnym). Na temat odpowiedzialności za twory AI można by napisać kilka prac naukowych, dlatego też na potrzeby niniejszego artykułu skupimy się na potencjalnej odpowiedzialności za implementację i korzystanie ze sztucznej inteligencji.

W 2022 r. Komisja Europejska zatwierdziła wniosek, w którym proponuje wprowadzenie nowej dyrektywy poświęconej regulacjom dotyczącym odpowiedzialności poza kontraktowej za sztuczną inteligencję (IMMC.COM%282022%29496%20final.POL.xhtml.1_PL_ACT_part1_v2.docx ; europa.eu). Dyrektywa AILD nie weszła jeszcze w życie, ale może dawać obraz krajobrazu regulacyjnego, w jakim będziemy funkcjonować. W świetle projektu dyrektywy, większość odpowiedzialności miałaby spoczywać na dostawcy. W rozumieniu AI Act jest to: osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot, który opracowuje system sztucznej inteligencji lub zleca jego opracowanie w celu wprowadzenia go do obrotu lub oddania go do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie.

Innymi słowy, jeżeli przedsiębiorca wprowadza w swoim przedsiębiorstwie AI po lekkich modyfikacjach albo tylko używając własnej nazwy handlowej, to będzie ponosił odpowiedzialność cywilną za wyniki pracy tego AI. Trzeba podkreślić, że ani dyrektywa AILD, ani AI Act nie weszły jeszcze w życie i nie znamy ich ostatecznej formy. Niemniej kierunek, w jakim zmierzają te regulacje, daje ogląd na to, w jakim kierunku prawo będzie się rozwijać.

Obowiązujące prawo

Do czasu uchwalenia jakichkolwiek przepisów w tym zakresie, podstaw do ustalenia odpowiedzialności należy szukać w istniejących regulacjach – na przykład w kodeksie cywilnym.

Próbując umiejscowić AI w istniejącym systemie prawnym, wchodzimy na terra incognita. Warto zastanowić się w pierwszej kolejności, kim mogą być osoby, którym można by przypisać odpowiedzialność za szkody wyrządzone przez sztuczną inteligencję. Ta lista jest obszerna, poczynając od twórców systemu sztucznej inteligencji (programistów i  producentów oprogramowania), przez osoby wprowadzające oprogramowanie do obrotu w celach jego instalacji w konkretnych urządzeniach, producentów urządzeń wyposażonych w system sztucznej inteligencji, właścicieli konkretnych urządzeń wykorzystujących sztuczną inteligencję, podmioty posługujące się systemem sztucznej inteligencji w ramach swojej działalności gospodarczej, a kończąc na użytkownikach i konsumentach, którzy korzystają ze sztucznej inteligencji w celach prywatnych. My skupimy się na tych sytuacjach, kiedy to przedsiębiorca (lub osoby, które zatrudnia) ponosi odpowiedzialność i postaramy się odpowiedzieć na kilka najistotniejszych praktycznych pytań.

Pomijając rzadkie przypadki, kiedy to firmy programistyczne tworzą od zera cały system sztucznej inteligencji lub wprowadzają go do obrotu, najbardziej narażonymi na ryzyko są:

- przedsiębiorcy posługujący się systemem sztucznej inteligencji w ramach swojej działalności gospodarczej, a także

- ich pracownicy jako użytkownicy takich technologii.

Przed przejściem do szczególnych rozważań na temat odpowiedzialności należy odpowiedzieć sobie na parę prostych pytań dotyczących odpowiedzialności cywilnej.

1. Na jakiej zasadzie można ponosić odpowiedzialność?

Za wyniki pracy AI można ponosić odpowiedzialność cywilną na zasadzie odpowiedzialności kontraktowej lub deliktowej. W przypadku odpowiedzialności deliktowej za wyniki pracy AI mamy do czynienia z odpowiedzialnością na zasadzie winy lub na zasadzie ryzyka.

2. Kiedy będziemy ponosić odpowiedzialność?

Odpowiedzialność na zasadzie kontraktowej będziemy ponosić w przypadku naruszenia postanowień umowy lub jej nienależytego wykonania.

W przypadku odpowiedzialności deliktowej muszą zostać spełnione łącznie następujące przesłanki:

- szkoda ma charakter materialny, czyli np. wynika z naruszenia praw własności intelektualnej,

- szkoda musi być wynikiem czynu niedozwolonego, czyli działania wyrządzającego szkodę drugiej osobie oraz

- musi wystąpić związek przyczynowo-skutkowy między zdarzeniem a szkodą.

3. Kiedy możemy być zwolnieni z odpowiedzialności?

Zwolnienie z odpowiedzialności następuje, gdy:

- wina leży całkowicie po stronie osoby poszkodowanej lub osoby trzeciej, lub

- szkoda nastąpiła na skutek siły wyższej.

Skutki odpowiedzialności cywilnej

Ze względu na swoje działanie (lub zaniechanie) sprawca może być zobowiązany do naprawienia uszkodzonej rzeczy lub wypłacenia równowartości wyrządzonej szkody.

Żeby lepiej zrozumieć istotę odpowiedzialności za korzystanie ze sztucznej inteligencji, można posłużyć się poniższym przykładem.

Przykład

Firma marketingowa w ramach swoich usług oferuje „Marketing AI” w dwóch wariantach:

- marketing AI prowadzony przez pracownika firmy marketingowej,

- marketing AI zautomatyzowany – klient w ramach umowy otrzymuje narzędzie, które tworzy automatyczne treści marketingowe w ramach branży klienta korzystając z danych podanych przez klienta.

W obu wariantach firma korzysta z narzędzia, które jest jej autorskim opracowaniem istniejących na rynku generatorów obrazów i tekstów. W ramach bazy danych korzysta przede wszystkim z generycznych treści stworzonych przez firmę marketingową oraz pierwotnego zbioru treści, które nie zostały w pełni zweryfikowane. Okazało się, że treści stworzone w ramach wykonywania umowy naruszają prawa autorskie innego podmiotu – są po prostu plagiatem. Ze względu na brak prawnej definicji AI, kluczowe jest skorzystanie z istniejących przepisów i próba przełożenia ich na zaistniałą sytuację. Biorąc pod uwagę istniejące regulacje, każdorazowo odpowiedzialność za takie działanie powinna ponosić osoba generująca treści marketingowe – czyli pracownik lub klient korzystający z oprogramowania. Jak pisaliśmy we wcześniejszych artykułach, AI jest tylko (i aż) narzędziem, dlatego odpowiedzialność za to, co zrobi młotek, spoczywa na tym, kto tym młotkiem włada. Choć w przypadku AI znajdą się wyjątki – gdyby to firma marketingowa udostępniła klientowi oprogramowanie, które dopuszcza się plagiatu, to ona ponosiłaby odpowiedzialność.

Aby uniknąć takiej sytuacji, należy przede wszystkim zadbać o to, jakie treści znajdują się w narzędziu, z którego korzystamy. Ponadto należy weryfikować wszystko, co przygotuje algorytm, sprawdzać treść przy użyciu narzędzi anty-plagiatowych i nie używać jej, jeśli nie mamy pewności co do jej legalności.

Ponadto, aby ustrzec się przed odpowiedzialnością w  przypadku stosowania plagiatów przez klientów, należy wprowadzić w umowach klauzule wyłączające odpowiedzialność w razie, gdyby klient nie dokonał samodzielnej weryfikacji wygenerowanych treści.

Odpowiedzialność karno-administracyjna

Warto również wspomnieć pokrótce o odpowiedzialności karno-administracyjnej pracodawców za naruszenia prawa pracy. Przykładem może być użycie przez pracodawcę powszechnie dostępnych na rynku AI w celu uzyskania odpowiedzi na pytania, czy i jakie kary pracownicze może nakładać na pracowników. AI może wprowadzić pracodawcę w błąd, a on, nie weryfikując wyników pracy AI, nie dochowuje należytej staranności. Jeśli pracodawca pozwoli AI samodzielnie podejmować decyzje albo implementuje wyniki pracy AI bez dokładnej weryfikacji, naraża się na odpowiedzialność karno-administracyjną, tj. grzywnę w wysokości od 1000 zł do 45 000 zł (zgodnie z art. 281 § 1 pkt 4 oraz § 2 kodeksu pracy).

Przede wszystkim pamiętajmy, że AI jest materią nieuregulowaną i w razie sporu sądowego co do treści tworzonych przez AI sądy starałyby się uprościć rozstrzygnięcie, korzystając z istniejących mechanizmów prawnych.

AI bias czy nie bias

Problem uprzedzeń, znany również jako „AI bias” lub „algorytmiczne uprzedzenie”, staje się kluczowym wyzwaniem w kontekście algorytmów AI wykorzystywanych w procesach zatrudnienia. Uprzedzenia te mogą wynikać z wielu czynników, takich jak dane treningowe używane do nauczania algorytmów, które mogą zawierać istniejące nierówności społeczne, jak również odzwierciedlać subiektywne wartości twórców algorytmów. W rezultacie systemy te mogą faworyzować określone grupy społeczne, a inne dyskryminować, co prowadzi do niesprawiedliwych i nieobiektywnych decyzji związanych z zatrudnieniem.

W kontekście rekrutacji algorytmy oparte na danych treningowych mogą nieświadomie reprodukować istniejące uprzedzenia, np. dotyczące płci, etniczności czy wieku. To z kolei może wpływać na ocenę kandydatów, tworząc nierówności w procesie selekcji. Przykładowo, jeśli algorytm bazuje na danych historycznych, w których były obecne uprzedzenia, może to skutkować faworyzowaniem pewnych grup i dyskryminacją innych.

Rozwiązaniem tego problemu jest dążenie do transparentności i uczciwości w projektowaniu i stosowaniu algorytmów AI, a co za tym idzie – regularne audyty i analizy, aby identyfikować potencjalne uprzedzenia i dostosowywać algorytmy w celu minimalizacji nierówności. Wprowadzenie odpowiednich standardów etycznych oraz zaangażowanie różnorodnych grup w procesy tworzenia i testowania algorytmów mogą także przyczynić się do eliminacji uprzedzeń w systemach sztucznej inteligencji, umożliwiając bardziej sprawiedliwe i równościowe podejście do decyzji związanych z zatrudnieniem. Jednak tematyka AI bias to obszar wciąż rozwijający się, wymagający stałej uwagi i działań, aby zminimalizować negatywne skutki uprzedzeń w zastosowaniach sztucznej inteligencji.

Oprócz wspominanego AI bias, programy AI mogą również opierać się na fundamentalnie błędnych przesłankach, co jest kwestią odrębną od uprzedzonych danych źródłowych. Wątpliwy jest np. pomysł, że mimika twarzy danej osoby jest wiarygodnym wskaźnikiem jej umiejętności lub prawdopodobieństwa odniesienia sukcesu w danej roli. Ekspresja i ton głosu są elementami kultury, zdrowia i kontekstu. Narzędzia analizujące te cechy tak naprawdę mierzą, jak „kulturowo normalna” jest dana osoba, a niekoniecznie jak odpowiednia może być na dane stanowisko – co prowadzi do dyskryminacji kandydatów, którzy mogą odbiegać od „typowego” kandydata.

Brak zrozumienia i przejrzystości może wynikać z wykorzystania AI. Jeśli rekruter nie wyjaśni odpowiednio kandydatom, w jaki sposób została podjęta decyzja, odrzuceni kandydaci mogą nie rozumieć jej podstaw. Kandydaci mogą np. uważać, że przysługujące im prawa człowieka zostały naruszone.

Istnieje również ogólna niechęć do sztucznej inteligencji ze  względu na pytania dotyczące sposobu gromadzenia, przetwarzania i dystrybucji danych osobowych. Poziom ryzyka lub narażenia na odpowiedzialność będzie zależeć od tego, w jaki sposób i gdzie sztuczna inteligencja jest wykorzystywana. Pracodawcy muszą zatem pamiętać o przepisach dotyczących prywatności w swojej jurysdykcji i wszędzie tam, gdzie sztuczna inteligencja może działać (tj. gdyby była używana w przypadku potencjalnego kandydata w innym kraju lub gdyby określone narzędzie przechowywało dane osobowe za granicą).

Przyszłość regulacji w firmach

Jak już wykazaliśmy wyżej, jeśli chcemy korzystać z dobrodziejstw AI, konieczne jest wprowadzenie odpowiednich regulacji wewnętrznych – przede wszystkim w celu zabezpieczenia własnych interesów i uwzględnienia szybkiego rozwoju technologii. Kreatywność ludzka nie zna granic, a to właśnie nią są ograniczone możliwości sztucznej inteligencji, która kompiluje dane stworzone przez człowieka i reaguje na wprowadzane przez niego zapytania. Jeśli chcemy wprowadzić chat-bota (np. na bazie Chat GPT), który rozmawiałby z klientami, musimy mieć na uwadze wiele kwestii, ale dwie z nich są niezwykle istotne. Pierwsza to techniczne zaprogramowanie chat-bota w taki sposób, żeby ograniczyć jego możliwości konwersacyjne do tematów zawodowych – nie chcemy w końcu, żeby firmowe narzędzie, opatrzone w logo firmy, a być może nawet nazwę powiązaną z naszą firmą, rozmawiało na kontrowersyjne tematy. Ponadto trzeba uważać, żeby Chat-bot nie miał luki w oprogramowaniu, która umożliwiałaby wyciągnięcie od niego danych treningowych w rozmowie. Generowałoby to bowiem ryzyko naruszenia danych osobowych i wysokich kar pieniężnych.

Negatywnym przykładem może być Chat-GPT, który operuje na olbrzymiej ilości danych pozyskanych ze wszystkich dostępnych źródeł bez zgody twórców – w tym na wewnętrznych korporacyjnych informacjach, danych osobowych takich jak maile, numery telefonów, imiona i nazwiska. A żeby te dane wyciągnąć, wystarczyło poprosić Chat-GPT o powtarzanie tego samego słowa w kółko. Po pewnym czasie powodowało to podawanie przez Chat-GPT wszystkich danych treningowych, w tym danych osobowych pozyskanych nie do końca legalnie (https://www.pcmag.com/news/asking-chatgpt-to-repeat-words-forever-may-violate-openais-terms#:~:text=Last%20week%20a%20team%20of%20researchers%20revealed%20that,the%20command%20may%20violate%20its%20terms%20of%20service). Ostatecznie rozwiązaniem było zablokowanie funkcji powtarzania tego samego słowa przez OpenAI (twórców Chat-GPT) i wprowadzenie zakazu takiego działania w regulaminie usługi.

Kluczowe jest też zebranie legalnych danych szkoleniowych dla chat-bota. Nie tylko ograniczy to ryzyko związane z danymi osobowymi, ale również ryzyko pozwów – tak jak to miało miejsce w niedawnej sytuacji zza oceanu, gdzie New York Times pozwał OpenAI oraz Microsoft za udostępnianie (za pośrednictwem ChatGPT oraz Bing AI) artykułów, które dostępne były tylko i wyłącznie odpłatnie („NYT” pozwał OpenAI i Microsoft za używanie artykułów do trenowania sztucznej inteligencji; msn.com).

Druga kwestia to przygotowanie regulacji, które uwzględnią zakres odpowiedzialności, wskażą, po czyjej stronie ona spoczywa oraz wyznaczą ramy korzystania z chat-bota. W tym celu najlepiej stworzyć dwa regulaminy – jeden dla pracowników tworzących i rozwijających chat-bota, a drugi dla użytkowników, który powinien zawierać również warunki korzystania z usługi konieczne do zaakceptowania przed rozpoczęciem użytkowania.

Zabezpieczanie przed błędami

Pracodawcy powinni podjąć starania, żeby zabezpieczyć pracowników, swoje interesy i samych siebie przed błędami popełnianymi przez AI. Powinniśmy zawsze zacząć od dokładnego zrozumienia działania AI: jakie są jego założenia, zasady działania, bias i ograniczenia. Poza tym należy rozważnie dobierać dane, na których będzie operować sztuczna inteligencja – pamiętajmy, że jest to narzędzie, dla którego dane są częściami składowymi. To, jakie dane podamy AI, będzie bezpośrednio wpływać na wyniki pracy.

Nie sposób wystarczająco podkreślić, jak istotna jest transparentność i interpretowalność systemu sztucznej inteligencji. Wyniki pracy AI, a także podstawy działania, powinny być dostępne dla zainteresowanych, a decyzje zrozumiałe. Przed wdrożeniem sztucznej inteligencji warto przetestować ją na różnorodnych przypadkach, aby uniknąć wpadki jak ta z ChatGPT.

Pamiętajmy, że jest to nowa, skomplikowana i dopiero rozwijająca się przestrzeń. Warto więc skorzystać ze wsparcia ekspertów i działać odpowiedzialnie. Bo jak to zostało pokazane, to użytkownicy ponoszą odpowiedzialność za twory AI, a nie sztuczna inteligencja.

Kryteria sprawiedliwości

W celu zapewnienia sprawiedliwości w decyzjach podejmowanych przez sztuczną inteligencję w zatrudnieniu, istnieje potrzeba stworzenia jasnych kryteriów etycznych i równościowych. Początkowym krokiem jest eliminacja potencjalnych uprzedzeń w danych treningowych, na których bazują algorytmy. Dlatego ważna jest dbałość o różnorodność i reprezentatywność danych, aby uniknąć wprowadzania nierówności do procesu decyzyjnego. Opracowanie kryteriów sprawiedliwych decyzji AI obejmuje także transparentność w projektowaniu i działaniu algorytmów, co pozwala pracownikom i zainteresowanym stronom zrozumieć, jak te systemy funkcjonują i jakie czynniki wpływają na podejmowane decyzje.

Dodatkowo konieczne jest wprowadzenie mechanizmów umożliwiających ocenę skuteczności i równości decyzji AI w zatrudnieniu. Regularne audyty i badania nad wpływem tych systemów na różne grupy pracowników są kluczowe dla monitorowania i korygowania ewentualnych nierówności. Wprowadzenie wskaźników efektywności i równości, takich jak różnicowanie wyników w zależności od cech demograficznych, czy monitorowanie skutków decyzji w dłuższej perspektywie czasowej, może dostarczyć istotnych danych do analizy i doskonalenia algorytmów.

Zdaniem autorów

Julia Stroińska, Junior Associate, B2RLaw

Eryk Czajkowski , Junior Associate, B2RLaw

W kontekście zatrudnienia badania nad wpływem decyzji AI są niezbędne dla zrozumienia, czy i w jaki sposób te systemy wpływają na skuteczność rekrutacji, ocenę wydajności, awanse zawodowe i równość szans. Aby kompleksowo ocenić skutki wprowadzenia sztucznej inteligencji do procesów zatrudnienia, potrzeba interdyscyplinarnych badań obejmujących obszary psychologii organizacyjnej, etyki, prawa pracy i informatyki. Takie badania mogą również pomóc w identyfikacji ewentualnych problemów etycznych oraz w formułowaniu wytycznych i norm regulacyjnych, które wspierają sprawiedliwość i równość w miejscu pracy. Era New Tech dopiero zaczyna się rozwijać i w niedalekim czasie, jak nie już teraz, pracodawcy powinni zacząć myśleć na temat wewnętrznych regulacji dotyczących używania AI przez nich samych, a także ich pracowników.