AI Act będzie w tej materii oddziaływać nie tylko za sprawą restrykcyjnych wymogów w odniesieniu do tzw. systemów wysokiego ryzyka, ale także zakazów, które ustanawia w art. 5. Zakazy te będą obowiązywały względem systemów AI już od 2 lutego 2025 r., co będzie implikować konieczność albo usunięcia ich z obrotu lub użytkowania, albo ich modyfikacji w taki sposób, aby nie wypełniały one przesłanki praktyki zakazanej. Naruszenie tego zakazu będzie wiązało się z możliwością nałożenia przez właściwy organ kary administracyjnej w wysokości 30 mln euro lub 6 proc. globalnego obrotu, co dla wielu podmiotów będzie stanowiło niewątpliwie „straszak”. Oczywiście lepiej byłoby, aby decyzja o wycofaniu się ze stosowania takich systemów była wynikiem oceny moralnej, ale nie oszukujmy się – w wielu przypadkach groźba kary stanowi większy „motywator”.
Praktyki zakazane przez AI Act
O trzech praktykach zakazanych (manipulacja, wykorzystywanie słabości, rozpoznawanie emocji w miejscu pracy) pisałem już wcześniej, choć do tematu jeszcze będziemy z pewnością wracać. Dzisiaj zajmiemy się praktyką dość nieoczywistą, bo na pierwszy rzut oka skierowaną do podmiotów publicznych, a w rzeczywistości obejmującą także podmioty prywatne. Chodzi mianowicie o scoring społeczny, który w pewnym zakresie ma zostać zakazany, jeśli jest wykorzystywany na podstawie systemów sztucznej inteligencji.
Czytaj więcej:
Pamiętajmy! AI Act w kontekście praktyk zakazanych odnosi się do tych sytuacji, w których dana praktyka bazuje na systemie AI, który został zdefiniowany w samym rozporządzeniu, a więc nie wpływa na praktyki, które działają na podstawie innych rozwiązań.
Treść zakazu dotyczącego scoringu społecznego
Na początek należy przytoczyć samą treść zakazu. Zakazuje się: wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy taki scoring społeczny prowadzi do jednego lub obu z następujących skutków:
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.
Przepis ten jest rozpisany bardzo szeroko, a prawodawca unijny nie pokusił się o wyjaśnienie niektórych pojęć, które mają znaczenie dla naszej oceny. Z tego względu należy taką ocenę opierać nie tylko na wykładni literalnej (brzmienie przepisu), ale także m.in. wykładni celowościowej (po co wprowadzamy dany przepis), w szczególności zderzając to z celem całej regulacji. Niestety, to często zadanie dla prawników. I to zadanie niełatwe.
Tak czy inaczej, spróbujemy wyciągnąć esencję z przepisu, a następnie sięgniemy do motywu (punktu) preambuły, który ma wyjaśnić, „o co chodziło prawodawcy”.
Ocena i klasyfikacja osób lub ich grup przez AI
Pierwszym elementem jest wykorzystywanie systemu AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup takich osób. Istotą jest więc tutaj np. kategoryzowanie osób lub dokonywanie ich oceny (np. punktowej) przez dany system. Kolejnym elementem jest to, że taka ocena lub klasyfikacja musi mieć miejsce przez określony czas, a więc – jak się wydaje – nie chodzi o sytuację jednorazowej oceny na bazie określonych cech (oczywiście pod warunkiem, że nie wpadamy w inną praktykę zakazaną). Takie podejście zdaje się potwierdzać stwierdzenie z preambuły AI Act, które sprowadza się do tego, że ocena odbywa się „w określonych przedziałach czasowych”.
Idźmy dalej. Taka ocena lub klasyfikacja musi odbywać się na podstawie zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości. Tu zaczyna się problem, bo katalog jest niezwykle szeroki. Niestety, AI Act nie daje nam odpowiedzi, czym jest zachowanie społeczne, więc musimy poszukać definicji gdzie indziej.
Czym jest zachowanie społeczne
Można pójść po linii najmniejszego oporu, korzystając z tego, co daje nam Wikipedia, ale pamiętajmy, że nie jest to najlepsze źródło argumentacji (w szczególności prawnej). Ta określa „zachowanie społeczne” jako „(…) takie działanie, którego znaczenie odnosi się do zachowań innych ludzi i jest na nie nakierowane. Nie są działaniami społecznymi jednoczesne działania wielu osób (…) czy też takie działania, na które jedynie wpływa zachowanie innych ludzi. Działanie społeczne jest podstawowym elementem, z którego zbudowane są wszelkie struktury i instytucje społeczne, na przykład grupy czy organizacje”. Ta definicja daje nam jednak pewien ogląd na to, jak należy takie zachowania interpretować. Są to de facto działania względem innych ludzi w społeczeństwie.
Pytanie jest jednak o to, gdzie są granice tych działań i czy np. agresywne, ale pozostające w granicach prawa zachowania mogą być traktowane jako zachowania społeczne, czy raczej mówimy tutaj rzeczywiście o kwestiach ocenianych z perspektywy przepisów prawa? Dzisiaj trudno jeszcze odpowiedzieć na to pytanie. Dane dotyczące tych zachowań mogą pochodzić z wielu punktów i mieć miejsce w różnych kontekstach (także ekonomicznych).
Zakazana ocena lub klasyfikacja osób fizycznych
Zakazana ocena lub klasyfikacja osób fizycznych, lub grup osób może odbywać się jednak nie tylko na podstawie ich zachowania społecznego, ale także na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości. Nie ma w tym przypadku znaczenia, jakie jest źródło pochodzenia tych ocen czy klasyfikacji (i samych danych, które stanowiły ich podstawę), więc jeżeli tylko system AI ma do nich dostęp i na tej podstawie generuje określony scoring społeczny, to wydaje się, że ta przesłanka jest spełniona. Cechami osobistymi może być np. inteligencja, ale także status ekonomiczny czy ugodowość lub ekstrawertyczne podejście.
Tutaj uwaga – wejście w życie AI Act to jest ten moment, kiedy podmioty działające komercyjnie i oceniające swoich obecnych i potencjalnych klientów powinny zacząć się zastanawiać, czy przypadkiem ich rozwiązania w jakiś sposób nie wpadają pod tę kategorię.
Przykład
Załóżmy, że oceniamy człowieka przez pryzmat tego, jak korzysta ze swoje smartfona, i tego ,z jaką dynamiką coś wpisuje lub jak porusza się po ekranie. Czy to jest coś co może podpadać pod naszą praktykę? Niewykluczone.
Krzywdzące traktowanie jako zakazana praktyka
Przypomnijmy, że jeżeli nie wystąpi którakolwiek z poniższych sytuacji, to o praktyce zakazanej nie będzie mowy. Scoring społeczny będzie bowiem zakazany, jeżeli doprowadzi do jednego lub obu skutków w postaci:
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.
To nie jest łatwa przesłanka, bo mamy tutaj worek „z możliwościami”. Jak bowiem określić, czym jest niekorzystne lub krzywdzące traktowanie (dyskryminacja jest tutaj oczywistym przykładem) i kiedy mamy rzeczywiście do czynienia z kontekstem społecznym? Co jednak istotne, ten kontekst (wynik działania systemu) musi być inny niż ten, którym pierwotnie wygenerowano lub zebrano dane.
Przykład
Jeżeli zbieraliśmy dane w konkretnym kontekście (np. bazując na prawie krajowym czy unijnym) i wykorzystujemy te dane w tym kontekście, to zdaje się, że będzie to dopuszczalne.
Drugim przypadkiem będzie krzywdzące lub niekorzystne traktowanie, jeżeli jest ono nieuzasadnione lub nieproporcjonalne do zachowania społecznego lub wagi tego zachowania.
Przykład
Zebraliśmy dane dotyczące „niewłaściwego” zachowania społecznego (np. obraźliwe hasła wobec jakiejś grupy na wiecu) i na tej podstawie odmawiamy realizacji jakiejś usługi lub przyznania benefitu. Można to ocenić zarówno jako traktowanie nieuzasadnione (brak związku ze świadczoną usługą a zachowaniem), jak i nieproporcjonalne („każdemu może się zdarzyć” – choć to oczywiście w dalszym ciągu naganne).
* * *
Ponieważ trzeba już zmierzać do brzegu, to tutaj utniemy dalszą analizę, bo i w zasadzie nie ma na razie nic więcej do analizowania. Nie jest do końca jasne, jak organy będą podchodziły do tej praktyki zakazanej, i z niecierpliwością czekamy na projekt ustawy, która ma się do tego odnieść (według zapowiedzi Ministerstwa Cyfryzacji). Przydałby się katalog przykładowych sytuacji, bo dzisiaj poruszamy się w sferze dywagacji.
Michał Nowakowski jest partnerem odpowiedzialnym za AI & CyberSec w ZP Zackiewicz & Partners, CEO w GovernedAI
Martyna Rzeczkowska jest Head AI & CyberSec w ZP Zackiewicz & Partners