Rafał Rozwadowski, Przemysław Sotowski: Deepfake, matka wszystkich broni nuklearnych

Prawodawcy na całym świecie zwracają uwagę na problem tworzenia i przestępczego wykorzystywania treści o charakterze deepfake.

Publikacja: 06.11.2024 05:30

Rafał Rozwadowski, Przemysław Sotowski: Deepfake, matka wszystkich broni nuklearnych

Foto: Adobe Stock

Deepfake, przedstawiając realistycznie osoby, przedmioty i miejsca, zaciera granice między rzeczywistością a fikcją. Potęguje obawy o ochronę prywatności, wizerunku i bezpieczeństwo. Każe stawiać pytania o konsekwencje etyczne i polityczne, a także o zaufanie do mediów, autorytetów i rządów.

Każdego dnia pojawiają się przykłady wykorzystywania tej technologii w niegodziwych celach. 10 września 2024 r., tuż po debacie Harris–Trump, w sieci pojawiło się nagranie niezwykle popularnej piosenkarki, w którym popiera Kamalę Harris. Nie byłoby w tym nic niezwykłego, gdyby nie powód tak szybkiej reakcji. Taylor Swift chciała w ten sposób przeciwdziałać rozprzestrzenianiu się deepfake'a, w którym rzekomo popiera Trumpa, a który stał się wiralem w sieciach społecznościowych.

Czytaj więcej

Rafał Rozwadowski, Przemysław Sotowski: Czy prawo radzi sobie z deepfake’ami?

Nielegalny deepfake może jednak dotknąć nie tylko celebrytów czy polityków. Może dotknąć każdego – także dzieci.

Jak podaje lokalna bydgoska prasa, dwóch uczniów stanie przed sądem za wirtualne rozebranie koleżanki. Nastolatkowie przetworzyli i zmanipulowali jej zdjęcie. Dodali jej twarz do zdjęcia innej dziewczyny, uprawiającej seks. Wykorzystali do tego dostępne powszechnie narzędzia generatywnej sztucznej inteligencji.

Portal MIT Technology Review cytuje zaś profesora Uniwersytetu Kalifornijskiego w Berkeley Hany’ego Forda: „Właśnie daliśmy licealistom matkę wszystkich broni nuklearnych, czyli możliwość tworzenia porno z [pojedynczym obrazem] kogokolwiek chcą. I oczywiście robią to”.

Dzięki łatwemu dostępowi do odpowiedniej technologii i prostemu gromadzeniu danych, które sami publikujemy w sieci (obrazy, wideo, dźwięk), każdy może stać się ofiarą deepfake’a.

Przyjrzyjmy się bliżej, jak polskie prawo podchodzi do tworzenia i wykorzystywania deepfake’a. Czy to zjawisko jest już legalnie zdefiniowane jako działanie, które może być sprawnie zidentyfikowane i ocenione z perspektywy wpływu na prawa innych osób?

Nie tylko AI Act

Pytanie jest o tyle ciekawe, że „oliwy do ognia” dodał AI Act, który jako pierwszy definiuje w naszym prawie, co należy rozumieć pod pojęciem „deepfake”.

Zgodnie z AI Act, deepfake oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.

Umiejscowienie deepfake' a w AI Act nie wyjaśnia jeszcze samego zjawiska, które jest szersze niż jego unijna definicja. Trzeba pamiętać, że AI Act odnosi się do systemów sztucznej inteligencji. To w zakresie ich wykorzystywania porusza kwestie związane z tworzeniem treści, które mogą kreować intensywnie mylące przekonanie o rzeczywistości u odbiorców działania tych systemów. Co w sytuacji, kiedy takie treści tworzone są przy pomocy narzędzi, które nie spełniają kryteriów uznania ich za systemy sztucznej inteligencji? AI Act nie reguluje tej materii. Podobnie regulacja deepfake' a w AI Act jest ograniczona do bardzo wąskich obszarów. W rezultacie AI Act wskazuje jedynie, że treści deepfake powinny być odpowiednio oznaczane, aby ich odbiorca miał świadomość, że styka się z wytworem wygenerowanym lub zmanipulowanym przez systemy AI.

Tak wąska regulacja deepfake w AI Act jest związana z celami unijnego rozporządzenia, które – co całkowicie uzasadnione – nie aspiruje do ustanawiania zasad odpowiedzialności karnej lub cywilnej za wykorzystywanie systemów AI, w tym za generowane lub manipulowane za pomocą tych systemów treści deepfake. Nakłada kary za brak zgodności z wprowadzonymi przepisami, ale w zakresie deepfake wiąże się to jedynie z potencjalnym brakiem prawidłowego oznaczania takich treści jako powstałych przy udziale systemów AI.

Prawodawca dostrzega potrzebę zdefiniowania i uregulowania tworzenia oraz wykorzystywania treści generowanych przez AI, co pokazuje wagę tego zjawiska. Trzeba jednak podkreślić, że AI Act nie chroni holistycznie przed nielegalnym deepfakiem.

Jakie zagrożenie niesie z sobą deepfake

Czy możemy zatem skutecznie, w rozumieniu prawa, chronić się przed nielegalnym deepfakiem?

Aby odpowiedzieć na to pytanie, należy najpierw określić zbiór praw, które może naruszać nielegalny deepfake.

Nielegalny deepfake może m. in.:

1. Naruszać nasze dobra osobiste, np. gdy rozpowszechnia się zmodyfikowane przez AI treści wideo z naszym wizerunkiem.

2. „Ukraść” naszą tożsamość, np. wykorzystując zmanipulowane przez AI treści, podszywając się pod nas.

3. Oszukać nas i doprowadzić do niekorzystnego rozporządzenia mieniem, prezentując nam fałszywe treści.

Deepfake, czyli zmanipulowane treści wideo, audio czy obraz, to obecnie jedna z form komunikacji, stąd samo zastosowanie nielegalnego deepfake'a rodzi odpowiedzialność prawną w każdej ze sfer interakcji, z uwzględnieniem jej technologicznego charakteru.

Kolejnym pytaniem jest, czy obecne przepisy karne zapewniają szczelną ochronę przed treściami deepfake, a jeśli tak, to czy surowość zaproponowanych kar jest adekwatna do intensywności naruszenia.

Nie ulega dziś wątpliwości, że stosowanie treści deepfake w celu poniżenia danej osoby może stanowić przestępstwo zniesławienia z art. 212 kodeksu karnego. Podobnie wykorzystywanie treści deepfake do podszywania się pod inną osobę może stanowić przestępstwo kradzieży tożsamości z art. 190a § 2 k.k., a wprowadzenie kogoś w błąd za pomocą treści deepfake i doprowadzenie do niekorzystnego rozporządzenia mieniem może stanowić przestępstwo oszustwa z art. 286 k.k.

Niemniej, wykorzystywanie treści deepfake w pornografii, np. przy rozpowszechnianiu wizerunku danej osoby w trakcie czynności seksualnej budzi już wątpliwości, czy można zastosować art. 191a k.k. Nie wchodząc w szczegóły, problemem pozostaje przyjęcie znaku równości pomiędzy definiowanym pojęciem wizerunku danej osoby w rozumieniu tego przepisu a odwzorowaniem takiego wizerunku za pomocą technologicznych ingerencji.

Warto wspomnieć, że problem ten w zakresie szeroko rozumianych działań przestępczych związanych z pornografią z udziałem małoletnich reguluje art. 202 k.k. Przepis ten posługuje się również pojęciem wytworzonego lub przetworzonego wizerunku, co obejmuje również treści mające charakter deepfake. Zmiana art. 202 k.k. była wynikiem implementacji dyrektywy Parlamentu Europejskiego i Rady 2011/93/UE z 13 grudnia 2011 r. w sprawie zwalczania niegodziwego traktowania w celach seksualnych i wykorzystywania seksualnego dzieci oraz pornografii dziecięcej, zastępującej decyzję ramową Rady 2004/68/WSiSW. Ciekawostką pozostaje natomiast, że implementacja tej dyrektywy niejako antycypuje planowaną zmianę tej dyrektywy z wniosku Komisji Europejskiej (obecnie procedowanego), która dopiero wprowadza do niej pojęcie wytworzonych lub przetworzonych obrazów dziecka.

Czy deepfake uzasadnia zmiany w naszym porządku prawnym

Przy rozważaniach o ewentualnych zmianach w kodeksie karnym w związku z rosnącym zagrożeniem treściami deepfake należy skupiać się na:

1. dyrektywach wymiaru kary z art. 53 k.k., odpowiadając sobie jednocześnie na pytanie, czy wykorzystanie deepfake w generalnie stypizowanych już działaniach przestępczych nie uzasadnia przyjęcia kwalifikowanego charakteru takich przestępstw,

2. ocenie, czy wykorzystanie treści deepfake stanowi perspektywę do uznania, że mamy do czynienia z obszarem, który nie doczekał się w ogóle regulacji, lub kontekst terminologiczny budzi wątpliwości w obszarze przypisania funkcjonującym już w systemie prawa karnego definicjom specyficznych właściwości treści deepfake.

Powyższe powinno być poprzedzone dyskusją o stworzeniu prawnokarnej definicji deepfake. Definicja deepfake z AI Act to autonomiczna definicja stworzona dla tego konkretnego elementu prawodawstwa europejskiego i nie jest wiążąca dla państw członkowskich przy definiowaniu pojęć, które mogą dotyczyć tworzenia intensywnie mylnego przeświadczenia u odbiorców o rzeczywistości, będącego poza zakresem regulacji AI Act.

Jaki jest problem nielegalnego deepfake w innych państwach?

Warto również przyjrzeć się, jak inne państwa podchodzą do regulacji deepfake.

W Wielkiej Brytanii zwracają uwagę prace nad regulacjami mającymi penalizować produkcję i rozpowszechnienie treści deepfake o charakterze „intymnym”. W 2023 i 2024 r. Wielka Brytania podjęła prace nad uregulowaniem odpowiedzialności karnej związanej z produkcją i rozpowszechnianiem takich treści, której celem jest stworzenie przepisów penalizujących tworzenie i rozpowszechnienie obrazów osób przy użyciu grafiki komputerowej lub wszelkiej innej technologii cyfrowej.

Zwracają również uwagę prace nad ochroną praw osób, które mogą być pokrzywdzone produkcją i wykorzystaniem treści o charakterze deepfake w USA. Warto w tym miejscu wskazać m. in. na prace nad tzw. NO Fakes ACT.

Także Francja w maju tego roku przyjęła prawo, tzw. SREC Law, regulujące sferę cyfrową. W kontekście prawnokarnym, wprowadzono do Code pénal przepisy wprost zakazujące deepfake’ów bez wyraźnej zgody (z pewnymi wyjątkami). Osobno uregulowano także deepfake w kontekście pornografii.

Dodany do kodeksu karnego artykuł zabrania udostępniania treści wizualnych lub dźwiękowych o charakterze seksualnym generowanych przez przetwarzanie algorytmiczne i przedstawiających wizerunek lub mowę osoby, bez jej zgody, nawet jeśli jest oczywiste lub wyraźnie ujawnione, że jest to deepfake. Zabrania również udostępniania montażu o charakterze seksualnym wykonanego z wykorzystaniem wizerunku lub wypowiedzi osoby bez jej zgody.

Powyższe przestępstwo jest zagrożone karą do dwóch lat pozbawienia wolności i/lub grzywną w wysokości do 60 tys. euro. Jeśli przestępstwo zostało popełnione za pośrednictwem publicznej usługi komunikacji online, podlega karze do trzech lat pozbawienia wolności i/lub grzywnie w wysokości do 75 tys. euro.

Kierunki i tendencje zmian

Nie sposób ukryć, że prawodawcy na całym świecie zwracają uwagę na problem tworzenia i przestępczego wykorzystywania treści o charakterze deepfake. Prace nad zmianami prawodawstwa trwają, rozpoczynając się od obszarów szczególnie wrażliwych, jakimi są obszary pornografii dziecięcej i przestępstw seksualnych.

Należy się spodziewać, że pojęcia wytworzonego lub przetworzonego obrazu (wizerunku) będą coraz częściej konfrontowane zarówno na szczeblu europejskim, jak i krajowym z obowiązującymi regulacjami celem zapewnienia jak najszczelniejszej ochrony przed treściami mającymi charakter deepfake.

Zwraca również uwagę dalekowzroczność w podejściu do tych prac, którą obrazuje neutralność technologiczna. Istotą tego podejścia jest uznanie, że ustanawianie sztywnych definicji rodzi ryzyko rychłej niespójności takich przepisów z dynamicznie rozwijającą się technologią, w tym technologią AI.

Adekwatnym przykładem takiego podejścia jest uzasadnienie Komisji Europejskiej do wprowadzenia do prawodawstwa unijnego chroniącego przed seksualnym wykorzystywaniem dzieci pojęcia wytworzonych lub przetworzonych obrazów.

Komisja europejska stwierdziła, że zmiany te mają zapewnić, aby definicja materiału przedstawiającego niegodziwe traktowanie dzieci w celach seksualnych obejmowała takie zmiany technologiczne w sposób wystarczająco neutralny technologicznie i przez to była dostosowana do przyszłych wyzwań.

Rafał Rozwadowski jest adwokatem

Przemysław Sotowski jest radcą prawnym

Deepfake, przedstawiając realistycznie osoby, przedmioty i miejsca, zaciera granice między rzeczywistością a fikcją. Potęguje obawy o ochronę prywatności, wizerunku i bezpieczeństwo. Każe stawiać pytania o konsekwencje etyczne i polityczne, a także o zaufanie do mediów, autorytetów i rządów.

Każdego dnia pojawiają się przykłady wykorzystywania tej technologii w niegodziwych celach. 10 września 2024 r., tuż po debacie Harris–Trump, w sieci pojawiło się nagranie niezwykle popularnej piosenkarki, w którym popiera Kamalę Harris. Nie byłoby w tym nic niezwykłego, gdyby nie powód tak szybkiej reakcji. Taylor Swift chciała w ten sposób przeciwdziałać rozprzestrzenianiu się deepfake'a, w którym rzekomo popiera Trumpa, a który stał się wiralem w sieciach społecznościowych.

Pozostało 93% artykułu
Rzecz o prawie
Ewa Szadkowska: Ta okropna radcowska cisza
Rzecz o prawie
Maciej Gutowski, Piotr Kardas: Neosędziowski węzeł gordyjski
Rzecz o prawie
Jacek Dubois: Wstyd mi
Rzecz o prawie
Robert Damski: Komorniku, radź sobie sam
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Rzecz o prawie
Mikołaj Małecki: Zabójstwo drogowe gorsze od ludobójstwa?