AI Act zbliża się wielkimi krokami, a z uwagi na jego przyjęcie przez Radę UE 21 maja br. w najbliższych dniach możemy się spodziewać oficjalnej publikacji. W zaawansowanych technologiczne firmach przygotowania trwają już więc od jakiegoś czasu. Wiele z nich upubliczniło już część procedur i dokumentacji z obszaru tzw. odpowiedzialnego AI. Istotne jest jednak to, że nowe obowiązki nie dotkną wyłącznie Big Techów czy twórców systemów opartych na AI.
Choć największy ciężar spoczywać będzie na dostawcach AI, to najszerszy zakres oddziaływania AI Act obejmie tak naprawdę podmioty korzystające z zewnętrznych narzędzi opartych na sztucznej inteligencji, a jeszcze częściej korzystające z usług dostawców wspieranych narzędziami AI. Rozporządzenie mówi bowiem wprost, że skoro ryzyko związane z AI może wynikać ze sposobu, w jaki takie systemy są projektowane, to może również łączyć się z tym, jak są wykorzystywane. Zatem to podmioty wdrażające systemy AI wysokiego ryzyka, czyli de facto ich użytkownicy, odegrają kluczową rolę w zapewnieniu ochrony praw podstawowych, uzupełniając obowiązki dostawców.
Czytaj więcej:
Znaczenie tego podejścia jest prawdziwym game changerem. Oznacza, że intensywne przygotowania do nowych regulacji powinny rozpocząć wszystkie firmy, które chcą optymalizować swoje procesy, korzystając z narzędzi i dostawców bazujących na sztucznej inteligencji.
Jak to zrobić? Jakie wyzwania czekają nas po drodze? I najważniejsze, w jaki sposób zabezpieczyć się na linii współpracy z dostawcami zewnętrznymi? Sprawdzamy.
Procedury, procedury, procedury
Nowe przepisy bez wątpienia spowodują, że każda świadoma, nastawiona na rozwój i transparentność spółka będzie chciała uregulować swoje procedury związane ze stosowaniem AI, szczególnie w sytuacji, gdy już dziś korzysta z dostawców narzędzi opartych na sztucznej inteligencji.
Takie, rozumiane szeroko, aktywności (czyli np. zlecanie działań marketingowych agencji korzystającej z narzędzi AI, optymalizacja współczynnika konwersji czy SEO) będą jednak wymagały wdrożenia szeregu wewnętrznych procedur i polityk, a także aktualizacji istniejących już dokumentów (zwłaszcza RODO).
Przykładowy zestaw towarzyszący wdrożeniu AI Governance w spółce może obejmować m.in.: ogólną politykę AI, zasady (działania) AI, wytyczne z obszaru etycznego AI, politykę zarządzania incydentami AI, politykę szkoleń z zakresu AI, standardowe procedury oceny (ang. SOP), kwestionariusze oceny wpływu (w tym m.in. AI self-assessment, initial AI assessment, AI vendor assessment, (D)PIA), kodeks postępowania etc.
Przygotowaniu dokumentów powinny jednak towarzyszyć pewne ogólne założenia:
- przekonanie, że opracowanie polityki tzw. odpowiedzialnej sztucznej inteligencji pomoże w zarządzaniu opartymi na niej rozwiązaniami, tj. podejmowaniu decyzji, kiedy, gdzie i w jaki sposób je wykorzystywać, oraz ustanawianiu polityk opartych na wartościach organizacji, ogólnych zasadach etycznych i przepisach;
- egzekwowalność wdrożonych założeń, przede wszystkim w zakresie technicznych rozwiązań, ale także mechanizmów umownych oraz relacji z pracownikami;
- uwzględnienie potencjalnego wpływu sztucznej inteligencji na pracowników i klientów oraz wdrożenie środków zapobiegających wszelkim negatywnym skutkom lub łagodzących związane z nimi ryzyka;
- stosowanie podejścia opartego na ryzyku, w tym zgodnie z metodologią zaproponowaną w AI Act;
- przygotowanie szczegółowego opisu procedury klasyfikacji i szacowania zagrożeń związanych z wykorzystaniem sztucznej inteligencji, ich bieżącego monitorowania, a także struktury systemu zarządzania ryzykiem; procedury obejmującej takie aspekty, jak rozliczalność, transparentność, integralność, bezpieczeństwo czy prywatność – oraz dostosowanej do konkretnej organizacji
Obowiązki użytkowników AI Act obejmuje zarówno dostawców systemów, jak i ich użytkowników. Zatem nawet korzystając z całkowicie zewnętrznego, skomercjalizowanego narzędzia, np. wspierającego rekrutację, spółka – pracodawca występować w roli podmiotu wdrażającego, czyli użytkownika (z ang. deployer) systemu sztucznej inteligencji. Tym samym będzie zobowiązana m.in. do:
- podjęcia odpowiednich środków (technicznych i organizacyjnych) do zagwarantowania, że korzysta z systemów zgodnie z instrukcjami użytkowania oraz realizuje inne obowiązki w odniesieniu do monitorowania ich funkcjonowania i rejestrowania zdarzeń;
- zapewnienia, aby osoby wyznaczone do wdrażania instrukcji użytkowania i nadzoru ludzkiego posiadały niezbędne kompetencje, w szczególności odpowiedni poziom znajomości AI, przeszkolenie i uprawnienia do właściwego wykonywania swoich zadań; a także zapewnione wsparcie;
- informowania ludzi o tym, że podlegają działaniu sztucznej inteligencji wysokiego ryzyka (ze wskazaniem na zamierzony cel i rodzaj podejmowanych decyzji);
- monitorowania i w stosownych przypadkach odpowiedniego reagowania (np. informowania dostawców, zgłaszania organowi nadzoru incydentów, zawieszania systemu etc.);
- zapewnienia, by dane wejściowe (tj. dane wprowadzane do systemu, ang. input data) były odpowiednio i wystarczająco reprezentatywne z punktu widzenia zamierzonego celu. AI Act kładzie na to duży nacisk, podkreślając, że to właśnie użytkownicy najlepiej rozumieją, w jaki sposób system sztucznej inteligencji wysokiego ryzyka będzie wykorzystywany w pojedynczym, konkretnym przypadku. Dzięki dokładniejszej wiedzy na temat kontekstu użycia, a także osób lub grup, których dotyczy dana kwestia, mogą identyfikować potencjalne istotne zagrożenia, jakich nie przewidziano w fazie projektowania.
Na spółce korzystającej z rozwiązań podmiotów trzecich będą więc spoczywać liczne obowiązki. Istotną kwestią będzie zatem wybór odpowiedniego dostawcy i jego właściwa weryfikacja.
AI oraz AI Vendor assessment
ie został w AI Act uregulowany wprost, to za wskazówkę w tym zakresie posłużyć mogą zaproponowane w rozporządzeniu metody szacowania ryzyka własnego (ang. impact assessment) czy też przywołane rozwiązania znane już dobrze na gruncie przepisów RODO, takie jak Privacy Impact Assessment (PIA) lub Data Protection Impact Assessment (DPIA).
Przed wdrożeniem czy decyzją o skorzystaniu z rozwiązań opartych na AI niezbędne jest więc oszacowanie poziomu zagrożeń związanych z danym systemem. W zależności od tego, jak wypadnie takie badanie – czy poziom ryzyka będzie akceptowany, wymagający uprzedniej mitygacji, nieakceptowalny, czy też niemitygowalny lub też, gdy prawdopodobieństwo wystąpienia (w zależności od przyjętej metodologii) okaże się bardzo wysokie – firma podejmie decyzję o wdrożeniu rozwiązania bądź o rezygnacji z niego.
Podobny proces musi także towarzyszyć wyborowi zewnętrznego dostawcy, jeśli przy świadczeniu usług ma on zamiar korzystać z własnych tudzież komercyjnych rozwiązań opartych na AI. Ocena dostawcy to zatem proces, w którym organizacja weryfikuje, czy dany dostawca spełnia jej wymagania w zakresie jakości usług, kompetencji technicznych, zgodności z regulacjami, a także kosztów. Metodologia dokonywania tzw. AI vendor assessment może być bardzo różna. Niektóre firmy włączają pytania z obszaru AI do ogólnego kwestionariusza oceny stosowanego dotychczas np. w stosunku do dostawców technologicznych czy dostawców rozwiązań IT.
Często tworzy się odrębne matryce odnoszące się wyłącznie do kwestii związanych z AI. Celem tych działań jest zawsze zidentyfikowanie potencjalnych ryzyk, oszacowanie ich poziomu, możliwości mitygacji i podjęcie finalnej decyzji. Zazwyczaj kwestionariusz analizuje najważniejsze kluczowe obszary, proaktywnie adresując i ukierunkowując pytania dotyczące oferowanych produktów i usług, takie jak:
1) Zakres zastosowania i funkcjonalności systemów AI (w tym w kontekście weryfikacji potencjalnych zastosowań w świetle poziomów ryzyk z AI Act).
2) Dojrzałość podejścia dostawcy do AI (m.in. w zakresie procedur, przeszkolenia pracowników etc.).
3) Kompetencje techniczne dostawcy.
4) Postępowanie z danymi wprowadzanymi do systemu (ang. input data), tj. m.in. weryfikacja danych wejściowych w kontekście podstaw prawnych, praw autorskich, a także jakości, kompletności i rzetelności.
5) Postępowanie z danymi wyjściowymi (ang. output data).
6) Stosowane mechanizmy zarządzania ryzykiem, w tym w kontekście podwykonawców.
7) Przestrzeganie przepisów i innych regulacji.
8) Uwarunkowania etyczne i społeczne.
9) Zgodność w zakresie ochrony danych osobowych.
10) Aspekty dotyczące cyberbezpieczeństwa.
Ten przykładowy zakres pytań wskazuje, że analiza ryzyka nie będzie możliwa bez uprzedniej świadomości tego, jaka jest skala obowiązków dostawcy wynikających z AI Act, tak aby zarządzać zakresem zgodności i tym samym ograniczyć ryzyko odpowiedzialności użytkownika. Sytuacja będzie tym bardziej zawiła, jeśli także dostawca usług będzie de facto użytkownikiem lub podmiotem wdrażającym system. Konieczne jest zatem zrozumienie podziału ról i odpowiadających im obowiązków w łańcuchu dostaw AI.
Co więcej, analiza ryzyka dostawcy zewnętrznego to ciągły proces. Zalecane jest zatem monitorowanie działalności dostawców i regularne aktualizowanie danych, uwzględniające wszelkie zmiany w ich działalności lub regulacjach prawnych. Warto też pamiętać o regulacjach umownych. Weryfikacja czy też odpowiednie skonstruowanie umowy z dostawcą, z uwzględnieniem aspektów, takich jak klauzule dotyczące odpowiedzialności, audytu, reakcji na incydenty, zabezpieczeń czy ochrony danych, to kolejny istotny element odpowiedzialnego podejścia do AI.
Monika Maćkowska-Morytz jest adwokatem, partnerem w praktyce ochrony danych osobowych kancelarii Kochański & Partners
Komentarz
Natalia Kotłowska-Wochna radca prawny, partner w praktyce New Tech M&A kancelarii Kochański & Partners
Stosowanie sztucznej inteligencji niesie za sobą wiele korzyści, ale musi mu towarzyszyć świadomość, przeszkolenie pracowników, przygotowanie na każdym poziomie organizacji, a także każdorazowa ocena ryzyka wdrażanego rozwiązania.
Potencjalna lista procedur i dokumentów, które należy czy też można wdrożyć, wydłuża się w zależności od zastosowanego podejścia i poziomu szczegółowości.
Wśród tych procedur, których z pewnością nie należy pomijać, trzeba wymienić ocenę ryzyka dostawców systemów AI czy też dostawców usług, którzy swoje prace opierać będą na własnych lub komercyjnych narzędziach AI. Najlepszym rozwiązaniem jest ocena ryzyka wykonana na podstawie kompleksowej matrycy kwestionariusza dostawcy (AI vendor risk assessment), która pozwoli zidentyfikować potencjalne ryzyka i podjąć świadomą, odpowiedzialną decyzję.
Metodologia podejścia do szacowania zagrożeń może być różna, podobnie jak poziom zautomatyzowania dokonywanej oceny czy też jej warstwowa struktura (np. ocena wstępna oraz następcza pogłębiona analiza). Niezależnie jednak od przyjętego podejścia ocena dostawcy jest niezbędna do minimalizacji ryzyk towarzyszących wdrożeniom AI.
Pominięcie tego kroku może prowadzić do poważnych konsekwencji, takich jak naruszenie prywatności, utrata danych, ataki cybernetyczne czy ryzyko przerwania ciągłości działalności.