Tarabasz, Czyżewski: O wyzwaniach prawnych. Czy dalej możemy wierzyć własnym oczom

W Unii Europejskiej trwają prace nad przyjęciem kompleksowej regulacji dotyczącej sztucznej inteligencji. Technologia ma być skategoryzowana, ale z uwzględnieniem analizy ryzyka.

Publikacja: 14.06.2022 11:27

Tarabasz, Czyżewski: O wyzwaniach prawnych. Czy dalej możemy wierzyć własnym oczom

Foto: Adobe Stock

Na początku marca wiele osób musiało przecierać oczy ze zdumienia, widząc nagranie, na którym ukraiński prezydent Wołodymyr Zełenski wzywa swoich żołnierzy do złożenia broni. Słowa wypowiadane na nagraniu stały w tak dużej sprzeczności z tym, co dotychczas prezentował przywódca Ukrainy, że od razu wydało się to podejrzane. Po pierwszym szoku można było zauważyć niedoróbki świadczące o tym, że nagranie jest zmanipulowane.

Prowokacja nie odniosła skutku, była mało wiarygodna i niedoskonała. Jest to jednak zwiastun tego, co czeka nas w niedalekiej przyszłości – kiedy to, co widzimy, wcale nie będzie musiało być tym, czym się wydaje. Sztuczna inteligencja pozwalająca tworzyć deepfaki (czyli głębokie fałszerstwo) otwiera nowe możliwości w wojnie informacyjnej i jest wyzwaniem dla naszego systemu prawnego.

Czytaj więcej

Christina Blacklaws: Algorytmy sądowe potrafią być bystre

Nowy rodzaj broni

W czasie wojny odpowiednie słowa stają się bronią. Mogą zagrzewać do walki własnych żołnierzy lub skutecznie osłabić morale przeciwnika. Nie jest jednak obojętne z czyich ust padają. Jedno słowo charyzmatycznego politycznego przywódcy może wojnę wywołać albo ją zakończyć. Nowa technologia sprawia jednak, że nie możemy już być pewni, do kogo w rzeczywistości wypowiadane słowa należą i to nawet wtedy, kiedy widzimy i słyszymy osobę, która je wypowiada.

Z technicznego punktu widzenia stworzenie wiarygodnego deepfake’a to rozwiązanie dwóch problemów. Pierwszym, jest odpowiednie wygenerowanie dźwięku, odzwierciedlającego barwę, tempo i wysokość głosu. Innymi słowy wszystkie charakterystyczne cechy wyróżniające głos i sposób mówienia „dawcy”. Drugim wyzwaniem jest stworzenie obrazu, który z tym dźwiękiem współgra. W obu tych przypadkach doskonale sprawdzają się rozwiązania oparte na głębokich sieciach neuronowych. Obecnie istnieją algorytmy na tyle efektywne, by w czasie rzeczywistym przetwarzać głos przesyłany w rozmowie telefonicznej.

Na marginesie należy wspomnieć, że rozwój tego typu rozwiązań służy również moralnie nienagannym celom. Takim jak, narzędzia wyciszające szumy w trakcie naszych rozmów w hałaśliwym otoczeniu. Na polu generowania zupełnie nowego lub zmodyfikowania istniejącego już obrazu przełomowe okazały się algorytmy określne mianem GAN – Generative Adversarial Networks. Ich celem jest stworzenie generatora obrazu. W procesie jego „trenowania” bierze udział jeszcze jeden algorytm. Dyskryminator – to on odpowiada na pytanie, czy obraz został wygenerowany, czy jest prawdziwym nagraniem. Pętla uczenia obu algorytmów przypomina walkę turową, w której algorytmy doskonalą się poprzez „karmienie się” swoimi odpowiedziami. Rozwój tego typu rozwiązań miał w największym stopniu wpłynąć na przemysł gier komputerowych, które zyskałyby nową jakość, prezentując właściwie nieograniczone możliwości personalizacji rozgrywki dla każdego gracza.

Manipulacja

W Unii Europejskiej trwają prace nad przyjęciem kompleksowej regulacji dotyczącej sztucznej inteligencji. Założeniem regulacji jest skategoryzowanie tej technologii przy uwzględnieniu analizy ryzyka. Obowiązywać ma tutaj zasada znana z rynku np. wyrobów medycznych, gdzie w zależności od stopnia ryzyka różna jest procedura oceny zgodności. Tam, gdzie ryzyko jest wysokie, ocena zgodności musi być przeprowadzona przy udziale jednostki notyfikowanej, czyli podmiotu posiadającego specjalną akredytację.

Co do zasady projekt dopuszcza stosowanie deepfake’ów, ale wprowadza też pewne ograniczenia i minimalne wymagania, w szczególności dotyczące obowiązku przejrzystości. Twórcy deepfake’ów zobowiązani są do oznaczania swoich treści w taki sposób, aby dla każdego było jasne, że mają do czynienia ze zmanipulowanym materiałem filmowym . Artykuł 52 ust 3 stanowi, że „Użytkownicy systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe („deepfake”), ujawniają, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji”. Projekt przewiduje jednak pewien wyjątek od zasady oznaczania tego typu materiałów. Obowiązek ten nie będzie miał zastosowania, jeżeli wykorzystanie deepfake’ów jest dozwolone przez ustawę w celu wykrywania, zapobiegania, ścigania przestępstw lub jest ono niezbędne do korzystania z prawa do wolności słowa oraz prawa do wolności sztuki i nauki.

Ogień z wodą

Wątpliwości może budzić to, czy aby na pewno wyjątek został dostatecznie doprecyzowany i czy w praktyce nie będzie nadużywany. Co więcej, na gruncie tak skonstruowanego przepisu obowiązek oznaczania manipulacji dotyczy deepfake’ów przedstawiających istniejące osoby. Ściśle rozumiejąc przepis i wnioskując a contrario, nie trzeba będzie oznaczać tych materiałów, które przedstawiają osoby nieistniejące. Biorąc pod uwagę możliwości technologii, stworzenie fikcyjnego wizerunku nie będzie trudne. Właściwie już nie jest. Widać to w możliwościach algorytmu, który za każdym razem, gdy odwiedzimy stronę internetową thispersondoesnotexist.com, prezentuje nam realistyczny obraz osoby, która nigdy nie istniała. Pozwala to tworzyć tysiące fikcyjnych kont na portalach społecznościowych, dając ogromne możliwości wpływu na opinię publiczną. Co więcej, niepokojący jest brak skutecznych sankcji za nieprzestrzeganie obowiązku właściwego oznaczania materiałów typu deepfake.

Do projektu można mieć zastrzeżenia i nie jest on idealny. Trzeba jednak pamiętać, że i tak jest to pewien krok w dobrą stronę, a jego twórcy stanęli przed problemem, jak połączyć ogień z wodą. Z jednej strony całkowity zakaz tworzenia deepfake’ów spowodowałby zastój technologiczny w tym zakresie i w efekcie z biegiem czasu Unia Europejska przegrałaby wyścig z krajami (często autorytarnymi), które rozwijałyby tę technologię. Z drugiej strony kwestia wykorzystania deepfake’ów może mieć tak duży wpływ na nasze życie (o czym szerzej w kolejnej części), że musi w jakiś sposób podlegać kontroli.

Autorzy są adwokatami z Czyżewscy kancelaria adwokacka

Na początku marca wiele osób musiało przecierać oczy ze zdumienia, widząc nagranie, na którym ukraiński prezydent Wołodymyr Zełenski wzywa swoich żołnierzy do złożenia broni. Słowa wypowiadane na nagraniu stały w tak dużej sprzeczności z tym, co dotychczas prezentował przywódca Ukrainy, że od razu wydało się to podejrzane. Po pierwszym szoku można było zauważyć niedoróbki świadczące o tym, że nagranie jest zmanipulowane.

Pozostało 92% artykułu
Rzecz o prawie
Ewa Szadkowska: Ta okropna radcowska cisza
Rzecz o prawie
Maciej Gutowski, Piotr Kardas: Neosędziowski węzeł gordyjski
Rzecz o prawie
Jacek Dubois: Wstyd mi
Rzecz o prawie
Robert Damski: Komorniku, radź sobie sam
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Rzecz o prawie
Mikołaj Małecki: Zabójstwo drogowe gorsze od ludobójstwa?