Eurodeputowani przyjęli nowe prawo stosunkiem głosów 499 do 28, przy 93 wstrzymujących się. Odrzucone zostały poprawki centroprawicowej Europejskiej Partii Ludowej, dzięki czemu wprowadzono całkowity zakaz identyfikacji biometrycznej w czasie rzeczywistym. EPL chciał wyjątków dla chętnych państw członkowskich, które chciałyby wykorzystywać nowy system do skanowania twarzy w miejscach publicznych w celu poszukiwania zaginionych dzieci, przestępców i terrorystów. Jenak obrońcy praw człowieka i znaczna część eurodeputowanych ostrzegali, że to furtka do masowej inwigilacji. I jest całkowity zakaz. Nowe prawo wymaga jednak zgody dwóch instytucji — Parlamentu Europejskiej i Rady, czyli rządów państw UE. Negocjacje między nimi rozpoczynają się już w środę wieczorem. Rada chce możliwości wykorzystywana identyfikacji biometrycznej w miejscach publicznych.

Nowe przepisy opierają się na podejściu opartym na ryzyku i do niego są dostosowane obowiązki dostawców systemów sztucznej inteligencji. Zakazane byłyby systemy, które stwarzają niedopuszczalny poziom ryzyka dla bezpieczeństwa ludzi, np. wykorzystywane do punktacji społecznej (klasyfikacja ludzi na podstawie ich zachowań społecznych lub cech osobistych). Posłowie rozszerzyli listę o zakazy natrętnego i dyskryminującego wykorzystania sztucznej inteligencji, takie jak wspomniane już systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” i „post” w miejscach publicznie dostępnych; systemy kategoryzacji biometrycznej z wykorzystaniem wrażliwych cech (np. płeć, rasa, pochodzenie etniczne, obywatelstwo, religia, orientacja polityczna); predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych); systemy rozpoznawania emocji do zastosowania przez organach ścigania, w zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych. A także nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy.

Czytaj więcej

Mher Hakobyan: Zakazać masowej inwigilacji

Druga kategoria to systemy wysokiego ryzyka, które poważnie szkodzą zdrowiu, bezpieczeństwu, prawom podstawowym lub środowisku. Chodzi np. o systemy wykorzystywane do wpływania na wyborców i wyniki wyborów oraz w systemach rekomendacyjnych wykorzystywanych przez platformy mediów społecznościowych. ich dostawcy bedą musieli spełniać surowsze wymogi niż dostawcy systemów zakwalifikowanych do niższej kategorii ryzyka.

Nowe prawo zajęło się też generatywnymi systemami sztucznej inteligencji, jak ChatGPT. Będą one musiały spełniać wymogi dotyczące przejrzystości. Obowiązkowe stanie się oznaczanie treści wygenerowanych przez sztuczną inteligencję oraz instrumenty pozwalające na odróżnienie obrazów rzeczywistych od tzw. deep fake. Ponadto będą musiały ujawniać streszczenia treści objętych prawami autorskimi, które zostały wykorzystane do trenowania sztucznej inteligencji.