Nowe technologie, a w szczególności sztuczna inteligencja, rozwijają się w zawrotnym tempie. Dają one firmom ogromne możliwości: od automatyzacji powtarzalnych procesów, przez analizę danych, aż po tworzenie zupełnie nowych produktów i usług. Jednak wraz z tymi szansami pojawiają się też istotne pytania m.in. o zagrożenie naruszeń dóbr osobistych, zarówno osób fizycznych, jak i prawnych.

Czy AI może być odpowiedzialna za wyrządzone szkody? Kto ponosi odpowiedzialność, jeśli system podejmie błędną decyzję? Czy sztuczna inteligencja powinna zostać uznana za samodzielny podmiot prawa?

W odpowiedzi na te dylematy Unia Europejska zaczęła tworzyć prawo, które ma uregulować ten dynamicznie rozwijający się obszar. Kluczowym dokumentem jest tu AI Act, czyli rozporządzenie w sprawie sztucznej inteligencji, przyjęte przez Parlament Europejski 13 marca 2024 roku. Skupia się ono na podejściu opartym na ryzyku i na ograniczaniu potencjalnych negatywnych skutków działania AI.

Nie tylko osób fizycznych

W przypadku naruszeń wywoływanych przez sztuczną inteligencję najczęściej występują te związane z dobrami osobistymi oraz prawami autorskimi. Dobra osobiste kojarzone są powszechnie z prawami zagwarantowanymi osobie fizycznej, chociażby takimi jak godność człowieka, ochrona prawa do wizerunku. Kodeks cywilny proponuje katalog otwarty dóbr osobistych, jednak nie wskazuje na definicję legalną tego zagadnienia.

Wizerunek, dobre imię, tajemnice

Chociaż dobra osobiste najczęściej kojarzymy z osobami fizycznymi, bo mają charakter indywidualny i „osobisty” – to nie oznacza, że nie mogą dotyczyć również osób prawnych, takich jak przedsiębiorstwo. Przykładem jest wizerunek firmy, który rozumiany jest jako zbiór cech, z którymi podmiot kojarzony jest w odbiorze publicznym, i które wpływają na jego opinię oraz renomę na rynku. W orzecznictwie przyjmuje się, że do dóbr osobistych osób prawnych mogą należeć także m.in. nazwa (firma), dobre imię, oznaczenia indywidualizujące czy tajemnica korespondencji.

Naruszenie dóbr osobistych przedsiębiorstwa może pociągać za sobą poważne konsekwencje prawne, finansowe i wpływać na reputację budowaną przez lata. Rozpowszechnianie nieprawdziwych informacji, naruszenie dobrego imienia, bezpodstawne porównanie z konkurencją czy podszywanie się pod przedsiębiorstwo mogą mieć realne skutki dla danego podmiotu. Spadek zaufania klientów i kontrahentów, zerwanie lub zawieszenie współpracy z partnerami biznesowymi, problem w pozyskiwaniu finansowania czy potencjalne pogorszenie pozycji konkurencyjnej na rynku to tylko wybrane konsekwencje wizerunkowe i handlowe, jakie może ponieść przedsiębiorstwo w przypadku naruszenia dóbr osobistych.

Pojęcie dóbr osobistych zarówno przynależnych osobie fizycznej, jak i prawnej obecnie rozrasta się wraz z rozwojem sztucznej inteligencji. Systemy AI, aby mogły generować treści odpowiadające promptom generowanym przez użytkowników, muszą zostać „nakarmione” jak największą ilością danych. Materiały te często zawierają utwory chronione prawami autorskimi, jak również mogące naruszać dobra osobiste danych podmiotów. Może się więc zdarzyć, że model sztucznej inteligencji wygeneruje treść przedstawiającą wizerunek przedsiębiorstwa w negatywnym świetle lub wykorzystującą korespondencję, która wyciekła poprzez nieodpowiednie użycie narzędzi elektronicznych. Samo wykorzystanie „wizerunku” firmy nie jest zabronione z uwagi na jego obecność w domenie publicznej, analogicznie do wizerunku osoby powszechnie znanej zgodnie z ustawą o prawie autorskim i prawach pokrewnych. Natomiast przedstawienie przedsiębiorstwa w złym świetle może stanowić naruszenie dóbr osobistych, zwłaszcza że chatbotom sztucznej inteligencji zdarza się „halucynować”. Dodatkowo, potęguje to ryzyko przedstawiania nieprawdziwych informacji i wprowadzenia w błąd co do działalności lub osób powiązanych z danym przedsiębiorstwem.

Kto ponosi winę?

W tym miejscu pojawia się pytanie, kto ponosi odpowiedzialność z tytułu takiego naruszenia. Dotychczas powództwa były wytaczane – w zależności od przepisów szczególnych – osobie fizycznej, prawnej lub jednostkom organizacyjnym niebędącym osobami prawnymi. Czy w przypadku naruszającej cudze prawa treści wygenerowanej przez sztuczną inteligencję można nadać AI osobowość prawną i przypisać odpowiedzialność cywilną za czyny niedozwolone? Opinii jest wiele, jednak na tym etapie ustawodawstwo Unii Europejskiej próbuje nie dopuścić do zrównania sztucznej inteligencji z człowiekiem w kontekście prawnym. Z założenia AI ma na celu dopełniać pracę i działania człowieka, a nie stanowić dla niego swego rodzaju substytut będący zagrożeniem, a nie pomocą.

AI jako (nie)twórca – wyzwania dla prawa autorskiego

Podobnie w kontekście prawa autorskiego. Orzecznictwo w różnych krajach z tym zakresie ewoluuje. Przeważa jednak stanowisko, że sztuczna inteligencja nie może być twórcą, gdyż utwór powinien odzwierciedlać osobowość autora i jego twórcze wybory. Pomimo że AI generuje treści na podstawie tego, co „zobaczyła”, dokonuje pewnych wyborów, tworząc nowy wytwór. Wybory te podyktowane są algorytmami i mechanicznym doborem najlepszych elementów. Trwają jednak prace nad stworzeniem maszyn dysponujących zdolnościami poznawczymi, które umożliwią im wykonywanie czynności, których nigdy wcześniej się nie uczyły. Pojawiają się daleko posunięte tezy, czy w takim przypadku odpowiedzialność nie powinna spoczywać na mechanizmie AI, który podobnie jak człowiek dokonywałby wyborów przy tworzeniu wytworu z wykorzystaniem informacji własnego „intelektu”.

Odpowiedzialność cywilna a brak osobowości prawnej AI

Obecnie za naruszyciela nie można uznać sztucznej inteligencji z uwagi na brak osobowości prawnej. Na gruncie prawa polskiego, chcąc przypisać odpowiedzialność cywilną za czyn niedozwolony, należy wykorzystać przepisy Kodeksu cywilnego, co w przypadku sztucznej inteligencji nie jest wystarczające, gdyż żadne uregulowanie tam zawarte nie odnosi się w sposób bezpośredni do AI i stanowi jedynie pole interpretacyjne w zakresie zastosowania danego przepisu.

Rozważania w tym zakresie krążą wokół porównania odpowiedzialności za AI w kontekście „winy za zwierzę domowe”, uznania jej za produkt niebezpieczny, gdzie odpowiedzialność w pierwszej kolejności ponosi producent, czy uznania oprogramowania AI za „siłę przyrody”. Wszystkie powyższe teorie są niedoskonałe i wymagają uaktualnienia pod kątem realiów korzystania ze sztucznej inteligencji. Rozważając kwestię odpowiedzialności za naruszenia wywołane za pomocą sztucznej inteligencji, nasuwa się spostrzeżenie per analogiam do prawa rzymskiego przewidującego odpowiedzialność za wyrządzenie szkody popełnionej przez niewolnika. AI mogłaby być potencjalnie traktowana jako „narzędzie” właściciela lub użytkownika, a więc szkoda wyrządzona przez sztuczną inteligencję mogłaby obciążać tego, kto nią się posługuje lub za nią odpowiada.

Tutaj też jednak pojawia się wątpliwość. Czy odpowiedzialny powinien być twórca lub dostawca AI, który „nauczył” model AI danymi podlegającymi ochronie bez uprzedniej weryfikacji, czy użytkownik, który komercjalizuje wytwór wygenerowany przez AI.

Jak się zabezpieczać?

Do czasu wypracowania mechanizmów prawnych warto zabezpieczać się przed ewentualnymi naruszeniami poprzez wprowadzanie wewnętrznej polityki stosowania narzędzi AI w przedsiębiorstwie, regulaminu korzystania z tych narzędzi, a także audyt systemów, szkolenia i zawieranie odpowiednich umów określających podział odpowiedzialności za skutki działania i efekt uczenia się systemu AI. Na gruncie prawa polskiego możliwość dokonania przez uprawnionego zastrzeżenia, wyłączającego dany utwór z TDM , jak również brak możliwości przechowywania utworów po zakończeniu takich działań, tj. po osiągnięciu ich celu, daje nowelizacja ustawy o prawie autorskim i prawach pokrewnych z września 2024 r. Chociaż nie jest jasne, jak w praktyce zastrzeżenie to powinno wyglądać, aby było skuteczne.

Kwestie prawne dotyczące sztucznej inteligencji związane m.in. z naruszeniami, zwłaszcza w kontekście dóbr osobistych i prawa autorskiego, odgrywają coraz większą rolę w obrocie gospodarczym. Skoro aktualne normy prawne nie są wystarczające w obliczu rozwoju technologii, przedsiębiorcy samodzielnie muszą podejmować kroki w celu najskuteczniejszego wyeliminowania ryzyka prawnego.

Aleksandra Tabaka

aplikant rzecznikowski, JWP Rzecznicy Patentowi

Tekst powstał we współpracy z siecią Kancelarie RP