Sztuczna inteligencja (AI) może wykorzystywać twarz i głos do tworzenia tzw. deepfake'ów, np. fałszywych nagrań, w których osoba mówi coś, czego nigdy nie powiedziała. Jeśli w ten sposób dochodzi do oszustw lub wyłudzeń albo zniesławienia osoby, której głos został wykorzystany, grozi za to odpowiedzialność karna.
Nie zawsze jednak do wykorzystania głosu czy wizerunku dochodzi w drodze przestępstwa. Zdarza się, że np. wykonawca, aktor zgadza się na wykorzystanie swojego głosu lub twarzy do kreowania nowych treści przez AI albo do zmian na potrzeby konkretnej produkcji. Jednak finalny efekt takich przeróbek nie zawsze może być akceptowany przez wykonawcę. Żeby nie doszło na tym tle do nieporozumień, zgoda na wykorzystanie wizerunku czy głosu powinna więc zostać wyrażona w umowie i mieć odpowiednie zabezpieczenia. Jednym z nich powinna być klauzula chroniąca przed zmianami, które naruszałyby dobra osobiste osoby przedstawionej, ośmieszałyby ją lub stawiały w niekorzystnym świetle.
Jakie jeszcze postanowienia należy zawrzeć w umowie, by skutecznie chronić wizerunek? O tym piszemy w „Tygodniku Przedsiębiorców”. Zapraszam do lektury.
Czytaj więcej:
Upowszechnienie sztucznej inteligencji zwiększa ryzyko naruszeń praw autorskich oraz osłabia pewność prawną nabywców i użytkowników utworów.
Pro
Te przepisy ujęto w AI Act dopiero po publicznym udostępnieniu pierwszych narzędzi generatywnej sztucznej inteligencji, takich jak ChatGPT. 2 sierp...
Pro
Czytaj więcej
Jeśli korzystamy z dzieł wygenerowanych przy pomocy narzędzi AI, to kluczowe jest wskazanie, na przykład poprzez dodanie adnotacji, że użyto sztucz...