Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?
Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.
Czytaj więcej
Prokuratura przyznaje, że przestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji, a liczba podobnych przypadków będzie wzrastać. Eksperci alarmują, że prawo już teraz nie nadąża za cyfrową rzeczywistością. Czy unijny AI Act wystarczy?
Kolejne zakazane systemy służą rozpoznawaniu emocji w miejscu pracy lub placówkach edukacyjnych oraz zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli związanej np. z cechami wyglądu fizycznego; używanie tych drugich będzie dozwolone jedynie w wyjątkowych sytuacjach, w tym w przypadku – ścigania niektórych przestępstw. Kolejne niedozwolone praktyki to te pozwalające na ustalanie danych biometrycznych, na podstawie których możliwe będzie zidentyfikowanie orientacji seksualnej, wyznania czy światopoglądu konkretnych obywateli. W rzeczywistości przykładów tych systemów jest więcej, a można określić je mianem najbardziej ryzykownych i szkodliwych dla człowieka oraz społeczeństwa.
To na dostawcach systemów AI spocznie ciężar udowodnienia, że działają zgodnie z przepisami?