Jak pisaliśmy na łamach „Rz” po pojawieniu się pierwszego projektu ustawy o systemach sztucznej inteligencji, brakowało w nim przede wszystkim przepisów dotyczących tzw. piaskownic regulacyjnych. Dodano je w najnowszej wersji projektu, co budzi zrozumiały entuzjazm biznesu.

– Umożliwi to polskim firmom, szczególnie średnim i małym, rozwój technologii opartych na AI bez ryzyka prawnego wynikającego z rozporządzenia o sztucznej inteligencji. Dzięki temu nie będą musiały się zastanawiać, czy w ogóle angażować się w takie przedsięwzięcia – mówi Michał Kanownik, prezes Związku Cyfrowa Polska. Wskazuje przy tym, że zmiany wprowadzone w najnowszej wersji projektu ocenia jako dobre, choć nie idealne.

– Dobrze, że w regulacji procedur kontroli zlikwidowano możliwość zablokowania serwerów i innych zasobów kontrolowanej spółki na czas kontroli – wskazuje ekspert.

Dodajmy, że w poprzedniej wersji projektu kontrola taka mogła trwać aż dwanaście miesięcy, teraz – jedynie sześć. Michał Kanownik wskazuje również, że niewielką, ale ważną zmianą jest też odejście od interpretacji indywidualnych i generalnych. W nowej wersji zastąpiono je wyjaśnieniami, co jest bardziej spójne z uregulowaniami europejskimi (na potrzebę tej zmiany zwracało zresztą uwagę także Ministerstwo ds. Europejskich).

Czytaj więcej

Nowe technologie w ryzach prawnych. Czy w 2025 r. zmierzymy się z przepisami na miarę RODO?

Zmiany w składzie komisji ds. sztucznej inteligencji. Większa niezależność i ekspercka wiedza

Pozytywnie oceniane są też zmiany w projektowanym składzie komisji ds. sztucznej inteligencji. Choć ministerstwo cyfryzacji akcentuje głównie poszerzenie go o prezesa Urzędu Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych (a także o Państwową Inspekcję Pracy), to w rzeczywistości jej skład został zmniejszony – z dziewięciu do siedmiu członków (plus przewodniczący i dwóch jego zastępców). „Wypadli” z niego nie tylko przedstawiciele ministra-koordynatora służb specjalnych (co wiąże się też z szerszym niż wcześniej wyłączeniem stosowania ustawy w odniesieniu do tych służb) oraz ministra cyfryzacji, ale także rzecznika praw obywatelskich i prezesa UODO. W zamian za to, obu tym organom komisja będzie musiała składać coroczne sprawozdanie.

– Rozumiem, że to kwestia rozdzielenia kompetencji, ale w samym AI akcie ochrona danych jest traktowana priorytetowo i znajduje się w nim wiele odwołań do RODO. Podobnie sytuacja wygląda z RPO, choć tu on sam wskazał, że nie chce brać udziału w pracach komisji. Oczywiście eksperci z innych instytucji mogą być wdrażani do takich prac, ale bez prawa głosu. Samo zmniejszenie składu komisji należy jednak ocenić pozytywnie, bo mniejsze organy zwykle lepiej działają - mówi Ewa Kurowska-Tober, partner w DLA Piper.

Z kolei Michał Kanownik wskazuje, że ograniczenie liczby przedstawicieli ministerstw w komisji zwiększa jej niezależność, a wybór jej przewodniczącego przez Sejm za zgodą Senatu (a nie premiera) znacznie wzmacnia jego pozycję.

Od komisji ds. AI lepszy byłyby organ nadzoru. „Tak zrobiły inne państwa”

Radczyni prawna dr Maria Dymitruk z kancelarii Olesiński i Wspólnicy jest jednak sceptyczna co do samej konstrukcji komisji.

– Bardziej przekonują mnie rozwiązania z krajów, które wprowadziły jeden organ nadzoru do wielu aktów prawnych dotyczących sfery cyfrowej. Byłby to oczywiście dużo większy organ, bowiem nadzorowałby także inne obszary regulacyjne, jak choćby akt o usługach cyfrowych. Duże wyzwania wywołują bowiem właśnie sytuacje „nakładania się” na siebie różnych regulacji i konieczne jest ustalenie wzajemnej ich relacji. Konsolidacja uprawnień nadzorczych w jednym organie mogłaby ułatwić rozwiązywanie takich sytuacji – tłumaczy ekspertka. 

Czytaj więcej

Gdy AI "wskrzesza" Szymborską. Prawne i etyczne wątpliwości wokół sztucznej inteligencji

Zastrzega też, że polski pomysł powołania komisji nie jest całkowicie zły.

– Samo pomniejszenie składu też należy oceniać pozytywnie – wskazuje Maria Dymitruk. – Trzeba pamiętać, że sprawność funkcjonowania ciał kolegialnych często zależy bardziej od organizacji pracy i osobowości piastunów organu, niż od samych uregulowań prawnych.

Wdrażanie AI akt. Procedura łagodzenia kar, terminy zażaleń i ograniczenie obowiązkowego wszczynania postępowania

Pochwały komentatorów wywołuje też tzw. procedura układowa. Pozwala ona na zawarcie porozumienia między komisją a podmiotem naruszającym przepisy AI aktu, który w zamian za współpracę z organem może liczyć na złagodzenie kary.

– Procedura układowa ma podobny schemat jak łagodzenie kar w prawie konkurencji. Głównym celem jest zapewnienie, że sztuczna inteligencja w Polsce jest rozwijana i stosowana zgodnie z regułami określonymi w AI akcie. To nowa i bardzo trudna materia. Adresaci tych norm będą mieli wątpliwości, jak je stosować, dlatego pomysł układu z przedsiębiorcą wydaje się rozsądny. Koniec końców nie chodzi przecież tylko o to, żeby nałożyć karę – ona ma być tylko środkiem do zapewnienia zgodności z AI aktem – tłumaczy Maria Dymitruk.

– Dobrym rozwiązaniem jest też zmniejszenie kary, jeśli przedsiębiorca przywróci zgodność z prawem w ciągu trzech miesięcy. Ma to zachęcać firmy do szybkiego dostosowywania się do decyzji organu – zauważa z kolei Ewa Kurowska-Tober.

Ekspertka wskazuje jednak, że skrócony – w nowej wersji – termin za złożenie zastrzeżeń do projektu protokołu kontroli (7 dni zamiast 14) to zdecydowanie zbyt krótki czas. Sztuczna inteligencja to bardzo skomplikowana dziedzina więc potrzeba czasu, na przygotowanie odpowiedniej argumentacji. Z drugiej strony termin na wykonanie zaleceń zawartych w ostrzeżeniu wydanym przez przewodniczącego komisji w toku postępowania, wydłużono z 7 do 14 dni.

Czytaj więcej

AI: Europa chce wejść do gry

Wdrażanie przepisów o AI. Co ze zgłaszaniem naruszeń stwierdzonych przy kontroli?

Zastanawiająca pozostaje natomiast zmiana art. 48 projektu ustawy. W pierwotnej wersji zobowiązywał on komisję do wszczęcia postępowania w każdym przypadku stwierdzenia w toku kontroli, że mogło dojść do naruszenia AI aktu lub ustawy.

– Obecne brzmienie projektowanego art. 48 ogranicza ten obowiązek tylko do przypadków dotyczących zakazanych praktyk AI i systemów wysokiego ryzyka. W pozostałych przypadkach (przede wszystkim w zakresie systemów objętych wymogiem transparentności) obowiązek organu stał się niestety tylko fakultatywną możliwością. Oznacza to obniżenie standardu względem jednej kategorii systemów AI regulowanych AI aktem – konkluduje Maria Dymitruk.