Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

Ustawa o sztucznej inteligencji pozwoli karać tych, którzy wykorzystują systemy zakazane: wykorzystujące ludzkie słabości czy identyfikujące orientację seksualną – mówi dr Michał Nowakowski z Polskiego Towarzystwa Informatycznego, partner odpowiedzialny za AI & CyberSeC w ZP Zackiewicz & Partners.

Publikacja: 13.09.2024 07:18

Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

Foto: Adobe Stock

Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?

Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.

Czytaj więcej

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Kolejne zakazane systemy służą rozpoznawaniu emocji w miejscu pracy lub placówkach edukacyjnych oraz zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli związanej np. z cechami wyglądu fizycznego; używanie tych drugich będzie dozwolone jedynie w wyjątkowych sytuacjach, w tym w przypadku – ścigania niektórych przestępstw. Kolejne niedozwolone praktyki to te pozwalające na ustalanie danych biometrycznych, na podstawie których możliwe będzie zidentyfikowanie orientacji seksualnej, wyznania czy światopoglądu konkretnych obywateli. W rzeczywistości przykładów tych systemów jest więcej, a można określić je mianem najbardziej ryzykownych i szkodliwych dla człowieka oraz społeczeństwa.  

To na dostawcach systemów AI spocznie ciężar udowodnienia, że działają zgodnie z przepisami?

Tak, szczególnie jeżeli będą chcieli stosować systemy wysokiego ryzyka. W niektórych przypadkach wystarczy przeprowadzona przez nich kontrola wewnętrzna, w innych konieczne będzie zaangażowanie odpowiedniej jednostki oceniającej, a w jeszcze innych – skorzystanie ze specjalnej procedury w zakresie oceny systemu zarządzania jakością. W praktyce aspekty związane z procedurą oceny zgodności są bardziej skomplikowane i wielowątkowe, z pewnością zrozumienie ich będzie wyzwaniem dla przedsiębiorców. W ustawie planuje się powołanie organu notyfikującego i jednostki akredytującej, która będzie miała konkretne obowiązki w zakresie nadawania uprawnień do dokonywania takiej oceny. Ważne, żeby ustawa w tym zakresie była klarowna i zrozumiała dla odbiorców.

Czytaj więcej

Niepewność prawa i obawa o dane, to główne bariery dla rozwoju AI w Polsce

Wstępne ramy ustawy są pana zdaniem zgodne z fundamentalnymi założeniami AI Actu?

Tak, zdecydowanie widać, że mechanizmy ochrony będą skupione na człowieku. Świadczy o tym choćby fakt, że od nałożonej przez komisję kary – w formie decyzji – będzie można odwołać się do Sądu Ochrony Konkurencji i Konsumentów. A odbiorcy systemów – rozumiani jako osoby poddane działaniu – będą mieli zapewnioną odpowiednią ochronę. Przepisy ustalą też zasady współpracy komisji m.in. z prezesem Urzędu Danych Osobowych i innymi organami o kompetencjach technologicznych. Zarówno ona, jak i powołane przy niej biuro odpowiedzialne będą też za działania edukacyjne i informowanie obywateli o przysługujących im prawach. Jeśli w zetknięciu z systemem AI odczują oni, że ten wpływa na ich sytuację ekonomiczną, prawną lub faktyczną, będą mogli domagać się informacji o jego funkcjonowaniu od dostawcy.

Założenia ustawy o systemach sztucznej inteligencji, opublikowane w poniedziałek w wykazie prac rządu, przewidują powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. W jakich sytuacjach będzie ona mogła nakładać sankcje za naruszenie przepisów AI Actu?

Komisję wesprze biuro – zaplecze merytoryczne i operacyjne – a jego zasoby będą decydowały de facto o efektywności systemu nadzoru nad stosowaniem AI Act. Sama komisja będzie zaś mogła nakładać kary między innymi wtedy, kiedy wykorzystywane przez dostawców systemy okażą się systemami zakazanymi, np. manipulującymi człowiekiem, wykorzystującymi jego słabości spowodowane wiekiem, sytuacją ekonomiczną czy niepełnosprawnością, a jednocześnie wpływającymi na podejmowane przez niego decyzje, przynoszące mu poważną szkodę.

Pozostało 80% artykułu
Nieruchomości
Posiadaczy starych kominków czeka kara lub wymiana. Terminy zależą od województwa
W sądzie i w urzędzie
Prawo jazdy nie do uratowania, choć kursanci zdali egzamin
Prawo karne
Jest śledztwo w sprawie przerwania wałów w Jeleniej Górze Cieplicach
Prawo dla Ciebie
Pracodawcy wypłacą pracownikom wynagrodzenie za 10 dni nieobecności
Materiał Promocyjny
Zarządzenie flotą może być przyjemnością
Prawo karne
Powódź 2024. Szaber to kradzież zasługująca na szczególne potępienie