Prokuratura Krajowa nie prowadzi statystyk spraw, w których wykorzystano AI lub ML (czyli uczenie maszynowe), jednak analiza przypadków związanych z cyberprzestępczością pokazuje, że sprawcy coraz chętniej sięgają po jej narzędzia. PK przewiduje, że będą robić to nadal, m.in. podszywając się pod firmy kurierskie czy urzędy administracji publicznej po to, by wyłudzić dane do logowania do kont bankowych, kont w mediach społecznościowych czy systemów biznesowych. A także do stalkowania swoich ofiar, czy kreowania nieprawdziwych, ale już bezbłędnie napisanych maili i SMS-ów w obcych językach.
Prokuratura: wysyp reklam fałszywych platform inwestycyjnych
Problemem jest też zjawisko deepfaków generujących fałszywe obrazy i filmy. - W ostatnich miesiącach aktywne były ataki, w których generowano reklamy fałszywych platform inwestycyjnych – podszywających się np. pod Baltic Pipe – i wykorzystujące wizerunek znanych osób, w tym polityków – przypomina rzecznik PK Przemysław Nowak. Jak dodaje, w tym zakresie prowadzone są postępowania przygotowawcze. Zapewnia, że wszelkie działania analizowane są przez specjalistów z prokuratury.
Adw. Judyta Kasperkiewicz z EPOQUE Kancelaria Adwokacka ocenia, że prawo po prostu nie nadąża za rozwojem nowych technologii. Jej zdaniem nadziei na odwrócenie tego trendu można upatrywać w unijnym akcie o sztucznej inteligencji, jednak jego wdrożenie to perspektywa dwóch lat. - W tym czasie technologia będzie się rozwijać. Poza tym zapisy aktu mają co prawda odnosić się do działalności zarówno podmiotów publicznych, jak i podmiotów prywatnych, ale nie będzie tam rozwiązań dopuszczających ich karanie – komentuje specjalistka od cyberprzestępczości
Uczniowie wykorzystali AI i zdjęcia nauczycielki, by „nagrać” film dla dorosłych
Tymczasem przykłady z życia codziennego pokazują, jak – w ocenie adwokatki - poważny jest ten problem. - Ostatnio zetknęłam się z sytuacją, w której uczniowie stworzyli film pornograficzny wykorzystując z nim wizerunek jednej ze swojej nauczycielek – relacjonuje. Jak precyzuje, w takim przypadku osoba pokrzywdzona mogłaby próbować pociągnąć do odpowiedzialności pełnoletnich sprawców, ale nie w każdej sytuacji kwestia ta jest aż tak oczywista. A ustalenie, kto powinien odpowiedzieć np. za kradzież danych pacjenta z nieszczelnego systemu, wykorzystującego w procesie leczenia AI, mogłoby okazać się znacznie bardziej skomplikowane. - Teoretycznie to osoba zarządzająca podmiotem leczniczym mogłaby usłyszeć zarzut narażenia pacjenta na niebezpieczeństwo – analizuje mec. Kasperkiewicz. Sama, wnioskując do różnych organów o udostępnienie informacji publicznej, wielokrotnie otrzymywała odpowiedź, że dane dotyczące algorytmu ma podmiot dostarczający konkretne rozwiązanie technologiczne - i tutaj pojawia się problem ochrony tajemnicy przedsiębiorstwa lub ochrony patentowej. Z kolei w ewentualnym postępowaniu karnym mogłoby nim być znalezienie biegłych, którzy oceniliby nieprawidłowości w działaniu takiego algorytmu.