AI Act wchodzi w życie, ale nie cały od razu

Choć akt o sztucznej inteligencji oficjalnie obowiązuje, rozpoczęcie stosowania poszczególnych przepisów będzie odroczone. Kto i na co musi się przygotować?

Publikacja: 31.07.2024 04:30

AI Act wchodzi w życie, ale nie cały od razu

Foto: Adobe Stock

Rozporządzenie w sprawie sztucznej inteligencji (AI Act) wchodzi w życie 1 sierpnia 2024 r. Ale podobnie jak było np. z RODO, moment rozpoczęcia stosowania tych przepisów został przesunięty w czasie. Ogólną zasadą jest, że regulacje będą stosowane od 2 sierpnia 2026 r., a zatem po dwóch latach. Tak będzie np. z wymogiem transparentności, tj. obowiązkiem informowania użytkownika, że wchodzi w interakcję z modelem sztucznej inteligencji.

Obowiązek ten związany jest głównie z tzw. generatywną AI i powoduje konieczność oznaczenia, że tekst, obraz czy film został stworzony przez sztuczną inteligencję. Ale ma też zastosowanie np. do chatbotów.

Zakazy i kary

AI Act przewiduje jednak liczne wyjątki od dwuletniego terminu. Przede wszystkim, już po sześciu miesiącach (a zatem od 2 lutego 2025 r.) stosowane będą przepisy dotyczące tzw. praktyk zakazanych.

Chodzi więc o takie zastosowania sztucznej inteligencji, które unijny ustawodawca uznał za niedopuszczalne. To np. techniki podprogowe wpływające na decyzję odbiorcy poza jego świadomością, wykorzystujące słabość danej grupy odbiorców. A także klasyfikowanie z wykorzystaniem AI osób na potrzeby tzw. scoringu społecznego, nieukierunkowane pozyskiwanie baz twarzy z internetu czy kamer przemysłowych, analiza emocji w miejscu pracy czy edukacji oraz identyfikacja twarzy w czasie rzeczywistym na potrzeby ścigania przestępstw (choć wyjątkowo będzie to dozwolone).

– W przypadku zakazanych praktyk AI sytuacja jest dość prosta. Z dniem 2 lutego 2025 r. staną się one nielegalne i nie będzie tu żadnych wyjątków – mówi dr Maria Dymitruk, radca prawny z kancelarii Olesiński i Wspólnicy.

– Ten stosunkowo krótki termin uzasadniony jest doniosłością tych przepisów. Można jednak mieć nadzieję, że przypadki niedopuszczalnego wykorzystania AI są w Unii Europejskiej rzadkie – dodaje.

Po 12 miesiącach zaczną zaś być stosowane przepisy o organach nadzorujących przestrzeganie AI Actu, zarówno na poziomie unijnym, jak i krajowym. A także o karach za łamanie tych przepisów.

W przypadku praktyk zakazanych wyniosą one do 35 mln euro, lub w przypadku przedsiębiorstw – do 7 proc. rocznego światowego obrotu, za naruszenie pozostałych przepisów – „tylko” do 15 mln euro lub 3 proc. obrotu.

– Państwa członkowskie muszą mieć czas, by przyjąć przepisy implementujące, zorganizować instytucjonalnie te organy. Akt o sztucznej inteligencji zostawia też pole do tego, by oprócz sankcji finansowych, na poziomie krajowym wprowadzić inne kary za nieprzestrzeganie jego wymogów – wskazuje dr Maria Dymitruk.

Czytaj więcej

Lewandowski mówi po rosyjsku, a Świątek zachęca do inwestycji? Uważaj, to deepfake

Nie dotyczy to jednak kar dla dostawców modeli AI tzw. ogólnego przeznaczenia, za ich nakładanie bowiem odpowiedzialna będzie Komisja Europejska. Chodzi tu o modele mające szeroki zakres zastosowania, które mogą być wykorzystane przez różnego rodzaju systemy i aplikacje.

Najbardziej znanym przykładem są tu modele, na których opiera się ChatGPT. AI Act nakłada na dostawców taki modeli nowe obowiązki i przepisy te wejdą w życie 2 sierpnia 2025 r. Chodzi głównie o wymogi związane z prowadzeniem dokumentacji odnośnie do trenowania i testowania tych modeli, które muszą być przekazane organom unijnym i krajowym. A także dokumentacji pozwalającej podmiotom chcącym zintegrować swoje systemy z takim modelem na zrozumienie jego możliwości i ograniczeń.

Jednocześnie dla już istniejących modeli przewiduje się kolejne dwa lata na dostosowanie się do wymogów rozporządzenia (czyli do 2 sierpnia 2027 r.).

Wysokie ryzyko

Jeszcze inaczej ma się sprawa z systemami wysokiego ryzyka. Chodzi tu o takie zastosowania AI, które nie zostały zakazane, ale dotyczą sfer objętych unijną harmonizacją przepisów lub np. służą do procesów rekrutacyjnych, określania, czy ktoś spełnia wymogi do świadczeń państwowych albo uzyskania kredytu czy zarządzania infrastrukturą krytyczną. Obowiązki związane z tymi systemami, np. gwarantowanie nadzoru człowieka czy zapewnianie dokładności i cyberbezpieczeństwa AI, zaczną być stosowane w pełni dopiero za trzy lata.

Co więcej, wymogi te nie znajdą zastosowania do systemów wysokiego ryzyka wprowadzonych przed 2 sierpnia 2026 r. Chyba że po tej dacie wprowadzone w nich będą „istotne zmiany”. Jednak jeśli mają one być stosowane przez podmioty publiczne, zgodność z rozporządzeniem nie zależy od daty wprowadzenia na rynek lub oddania do użytku i należy ją zapewnić w stosunku do wszystkich systemów AI do 2 sierpnia 2030 r.

– Możliwe jest więc, że pojawi się trend, by przed tą datą wprowadzić jak najwięcej systemów potencjalnie tworzących wysokie ryzyko dla praw obywateli – wskazuje dr Maria Dymitruk. – Liczę jednak na odpowiedzialne podejście biznesu i nieopóźnianie procesów zapewniania zgodności z nowym rozporządzeniem.

Opinia dla „Rzeczpospolitej”
dr Michał Nowakowski, partner AI & CyberSec w ZP Zackiewicz & Partners

Skoro przepisy o praktykach zakazanych stosuje się od lutego 2025, a przepisy o karach i organach dopiero od sierpnia 2025 r., to będziemy mieć półroczny okres, gdy praktyki będą zakazane, ale bez żadnej sankcji. Nie oznacza to jednak braku realnych konsekwencji, np. w kontekście odpowiedzialności względem klientów czy ryzyka utraty reputacji. Potencjalnie problematyczne z perspektywy ochrony, ale i biznesowej, może być też to, że systemy wysokiego ryzyka, które zostaną wprowadzone przez najbliższe dwa lata, wejdą w reżim AI Aktu, tylko jeśli później zostaną w nich wprowadzone „istotne zmiany”. To pewna furtka, ale myśląc przyszłościowo, nie należy zwlekać z dostosowaniem się do wymogów z rozporządzenia, bo to nie tylko kwestia potencjalnej odpowiedzialności administracyjnej, ale i odpowiedzialności względem człowieka.

Rozporządzenie w sprawie sztucznej inteligencji (AI Act) wchodzi w życie 1 sierpnia 2024 r. Ale podobnie jak było np. z RODO, moment rozpoczęcia stosowania tych przepisów został przesunięty w czasie. Ogólną zasadą jest, że regulacje będą stosowane od 2 sierpnia 2026 r., a zatem po dwóch latach. Tak będzie np. z wymogiem transparentności, tj. obowiązkiem informowania użytkownika, że wchodzi w interakcję z modelem sztucznej inteligencji.

Obowiązek ten związany jest głównie z tzw. generatywną AI i powoduje konieczność oznaczenia, że tekst, obraz czy film został stworzony przez sztuczną inteligencję. Ale ma też zastosowanie np. do chatbotów.

Pozostało 90% artykułu
Podatki
Skarbówka zażądała 240 tys. zł podatku od odwołanej darowizny. Jest wyrok NSA
Prawo w Polsce
Jest apel do premiera Tuska o usunięcie "pomnika rządów populistycznej władzy"
Edukacja i wychowanie
Ferie zimowe 2025 później niż zazwyczaj. Oto terminy dla wszystkich województw
Praca, Emerytury i renty
Ile trzeba zarabiać, żeby na konto trafiło 5000 zł
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Prawo karne
Rząd zmniejsza liczbę więźniów. Będzie 20 tys. wakatów w celach