Adam Sanocki: Rozwój sztucznej inteligencji to wyzwania etyczne i prawne

To, co do tej pory oglądaliśmy w filmach science fiction, staje się rzeczywistością. Sztuczna inteligencja zastępuje nas nie tylko w czynnościach powtarzalnych, ale i wymagających kreatywności.

Publikacja: 31.01.2024 02:00

Adam Sanocki: Rozwój sztucznej inteligencji to wyzwania etyczne i prawne

Foto: Adobe Stock

Szybkość, wydajność, brak zmęczenia – to zalety, które cechują sztuczną inteligencję (SI). Rosnąca popularność rozwiązań opartych na SI powoduje, że cech, których często wymagamy od siebie i naszych pracowników, przybywa w coraz bardziej zaawansowanej sztucznej inteligencji. Wykonuje skompilowane czynności, jak planowanie, czy skomplikowane analizy. Już dziś ma zastosowanie w bardzo wielu dziedzinach naszego życia – od automatyzacji produkcji przez monitorowanie różnych procesów po analizy danych o konsumentach i ich zachowaniach.

Boi się już nawet Hollywood

Jeszcze nie tak dawno mówiło się, że sztuczna inteligencja zastąpi ludzi w prostych, powtarzalnych czynnościach. Dziś widzimy już, że np. coraz bardziej zaawansowane i zyskujące na popularności chat boty doradzają i starają się rozwiązywać ludzkie problemy. Dlatego rosną obawy, kiedy i kogo wkrótce zastąpi SI. A lista ta szybko się wydłuża.

Czytaj więcej

Krzysztof Gawkowski: Nasz priorytet to nadrobić czas stracony w ostatnich latach

Głośne stały się protesty branży filmowej w Hollywood, której pracownicy zaczęli się obawiać sztucznej inteligencji. Może bowiem zastąpić nie tylko scenarzystów, ale i aktorów, ich wizerunki czy głosy. Nie wspominając o marketingu promocji.

Pojawił się już pierwszy humanoidalny robot ze sztuczną inteligencją, który zarządza firmą. Jego twórcy wśród zalet robota-prezesa wymieniają obiektywne traktowanie pracowników, gdyż kieruje się on danymi, a nie emocjami, czy pracę przez siedem dni w tygodniu całą dobę, nie biorąc za to żadnego wynagrodzenia.

Coraz więcej firm już stosuje takie rozwiązania, a inni deklarują, że wkrótce je wdrożą. Bez tego rodzaju planów chyba nie można już myśleć o konkurencyjności na rynku.

Według KPMG z technologii SI korzysta 15 proc. organizacji w Polsce, a 13 proc. planuje je wdrożyć do końca 2023 r. Na świecie te dane są wyższe. Około 35 proc. organizacji już inwestuje w rozwiązania korzystające ze sztucznej inteligencji.

Bez danych nie ma SI

Rozwój i funkcjonowanie sztucznej inteligencji nie byłby możliwy bez ogromnej ilości danych, które są przetwarzane przez takie rozwiązania w rozmaity sposób. Dane służą też do tzw. trenowania sztucznej inteligencji, a więc uczenia jej. Dlatego Urząd Ochrony Danych Osobowych od dawna z dużym zainteresowaniem przygląda się tej technologii i jej rozwojowi. Tym bardziej że istnieją obawy co do legalności przetwarzania danych, jakimi zasilana jest sztuczna inteligencja. Ponadto dane te mogą posłużyć nie tylko we właściwych celach, ale do wykorzystania ich przeciwko ludziom – np. do dyskryminacji czy pewnego rodzaju stygmatyzacji.

Skutki rozwoju tej technologii mają więc wymiar prawny, społeczny i etyczny. Wymaga to od nas dogłębnego przyjrzenia się wielu obszarom, które mogą wydawać się nam niezwiązane z techniczną czy informatyczną stroną zagadnienia. Konieczne jest więc stworzenie także odpowiednich ram prawnych, które z jednej strony pomogą rozwijać mechanizmy sztucznej inteligencji, by służyła ludziom, a z drugiej strony pozwolą zachować prywatność osób, godność ludzi.

To jest niezwykle ważne, gdyż SI rozwija się w bardzo szybkim tempie, a już dziś są zastrzeżenia do jej funkcjonowania w zgodzie z ogólnym rozporządzeniem o ochronie danych, czyli RODO. Przykładem tego jest skarga na Open AI – firmę, która stworzyła ChatGPT – jaka zainicjowała postępowanie administracyjne przed prezesem UODO.

Okazuje się, że skarżący zarzuca Open AI, że spółka ta nie przestrzega praw, jakie przysługują mu na gruncie RODO. ChatGPT w odpowiedzi na zapytanie skarżącego wygenerował nieprawdziwe informacje o tej osobie, a prośba do Open AI o ich sprostowanie nie została zaś sapełniona, mimo że każdy administrator ma obowiązek przetwarzać prawidłowe dane. Skarżący ma też pretensje, że nie uzyskał od firmy informacji, jakie dane na jego temat przetwarza CharGPT. W skardze wytyka też brak przejrzystości w zasadach przetwarzania danych przez spółkę oraz niespełnienie obowiązku informacyjnego, czego wymaga RODO.

To tylko niektóre zarzuty, które teraz weryfikuje UODO. Prezes UODO w piśmie do OpenAI zwrócił się wiec o szczegółowe wyjaśnienie, w jaki sposób realizowany jest przez spółkę obowiązek informacyjny, zarówno wobec użytkowników usługi ChatGPT, jak i innych osób, które nie korzystają z tej usługi, ale w jej ramach są przetwarzane ich dane osobowe.

Polski organ nadzorczy domaga się także szczegółowych informacji od OpenAI, dotyczących realizacji żądań skarżącego, a więc m.in. wskazania odbiorców danych, źródła danych skarżącego czy sprostowania jego danych. UODO zapytał również, czy doszło do zautomatyzowanego indywidualnego podejmowania decyzji, w tym profilowania.

Prezes UODO chce się dokładnie przyjrzeć, jak ChatGPT przetwarza dane. Dlatego wśród pytań pojawiły się takie o wskazanie, kiedy i z jakiego źródła pozyskała dane skarżącego czy na jakiej podstawie je przetwarza. Jednak pytania sięgają nieco głębiej. Organ nadzorczy chce też dowiedzieć się, jak funkcjonuje ChatGPT, i zwrócił się do spółki, by powiedziała też, jakie kategorie danych osobowych, nie tylko skarżącego, przetwarza.

Zasady gry

O problematyce ingerencji sztucznej inteligencji w naszą prywatność dyskutowali eksperci podczas Forum Nowych Technologii, które w dniach 20–21 września 2023 r. zorganizował UODO. Podkreślili oni, że za każdą sztuczną inteligencją stoi człowiek, który ją tworzy. Dlatego twórcy takich rozwiązań powinni już na etapie ich projektowania pamiętać o RODO.

Zdaniem ekspertów konieczne jest także pilne uregulowanie kwestii prawnych związanych z powstawaniem i wdrażaniem technologii SI, a także stały monitoring wszelkich zmian wprowadzonych do tego prawa. Zadanie to powinno być wykonywane w porozumieniu zarówno z twórcami systemu sztucznej inteligencji, podmiotami wykorzystującymi tę technologię, jak i z organizacjami społecznymi i środowiskiem naukowym. Chodzi o to, by SI nie posłużyła do niesprawiedliwego traktowania ludzi, ich wykluczenia w społeczeństwie z powodu stanu zdrowia, koloru skóry czy poglądów albo wykorzystywania wiedzy o nich do tworzenia bez ich wiedzy i zgody profilów konsumenckich. Ponadto rozwiązania prawne powinny eliminować ryzyko wykorzystania SI do tego, by duże organizacje lub państwa naruszały prawa i wolności obywatelskie.

Dane osobowe, z których korzystają nowe technologie, w tym SI, i ryzyka związane z niewłaściwych ich przetwarzaniem są na tyle poważne, że już teraz w Polsce i Unii Europejskiej trwają prace nad wieloma aktami prawnymi, zaliczanymi do źródeł prawa nowych technologii. Dotyczą one m.in. e-handlu, prywatności, telekomunikacji, cyberbezpieczeństwa czy sztucznej inteligencji.

Sztuczną inteligencję ma regulować rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji, tzw. Akt w sprawie sztucznej inteligencji. Ma on obejmować działalność podmiotów wprowadzających do użycia rozwiązania sztucznej inteligencji oraz ich użytkowników, a więc tych, którzy będą wykorzystywać systemy SI w swojej działalności.

Akt ten ma ograniczyć ryzyka związane ze stosowaniem systemów sztucznej inteligencji. Dlatego te systemy, które będą tworzyły wyższy poziom ryzyka, mają podlegać szerszym i bardziej restrykcyjnym wymogom niż systemy, których wykorzystywanie wiąże się jedynie z ograniczonym lub niskim ryzykiem. Ponadto zasady funkcjonowania rozwiązań SI mają być bardziej przejrzyste. Ma też pojawić się lista niedozwolonych praktyk związanych ze sztuczną inteligencją. A motywacją do przestrzegania tych zasad mają być kary za ich łamanie – do 500 tys. euro.

Stworzenie takich ram prawnych jest konieczne, aby zniwelować wszystkie ryzyka oraz byśmy nie bali się korzystać z technologii. Równie ważne będzie przestrzeganie i egzekwowanie tych zasad. Bez tego SI może obrócić się przeciwko nam i spełnią się wówczas obawy sceptyków tych rozwiązań, że zamiast do poprawy jakości naszego życia, technologia ta posłuży do jego pełnej kontroli przez korporacje czy rządy.

Autor jest dyrektorem Departamentu Komunikacji Społecznej, rzecznikiem prasowym UODO

Szybkość, wydajność, brak zmęczenia – to zalety, które cechują sztuczną inteligencję (SI). Rosnąca popularność rozwiązań opartych na SI powoduje, że cech, których często wymagamy od siebie i naszych pracowników, przybywa w coraz bardziej zaawansowanej sztucznej inteligencji. Wykonuje skompilowane czynności, jak planowanie, czy skomplikowane analizy. Już dziś ma zastosowanie w bardzo wielu dziedzinach naszego życia – od automatyzacji produkcji przez monitorowanie różnych procesów po analizy danych o konsumentach i ich zachowaniach.

Pozostało 94% artykułu
Rzecz o prawie
Małecki: Czy Łukasz Ż. może odpowiadać za usiłowanie zabójstwa?
Rzecz o prawie
Łukasz Guza: Szef stajni Augiasza
Rzecz o prawie
Jacek Dubois: Premier, komuna, prezes Manowska i elegancja słów
Rzecz o prawie
Mikołaj Małecki: Konstytucyjne credo zamiast czynnego żalu
Materiał Promocyjny
Zarządzenie samochodami w firmie to złożony proces
Rzecz o prawie
Witold Daniłowicz: Myśliwi nie grasują. Wykonują zlecenia państwa