Łukasz Święcicki: Prawo międzynarodowe powinno regulować rozwój sztucznej inteligencji

Ludziom się wydaje, że przyszłość to będzie mniej więcej to, z czym mamy do czynienia teraz. A może będzie pod wieloma względami lepiej. Tak nie musi wcale być. Postęp nie jest pewny, a nowe odkrycia nie muszą przynieść ludziom ulgi, wręcz mogą sprawić im cierpienie - mówi Łukasz Święcicki, politolog.

Publikacja: 30.06.2023 10:00

Łukasz Święcicki: Prawo międzynarodowe powinno regulować rozwój sztucznej inteligencji

Foto: materiały prasowe

Plus Minus: Jesteśmy świadkami bezprecedensowego rozwoju technologii AI. Dla jednych takie zaawansowane algorytmy to niespotykana dotąd szansa cywilizacyjnego rozwoju, dla innych śmiertelne zagrożenie. Czy porównywanie generatywnej sztucznej inteligencji do bomby atomowej nie jest przesadne?

Wiem, do czego odnosi się to pytanie – do listu otwartego Center for AI Safety, który sygnowałem. Ale w nim zawarte jest porównanie AI do wojny atomowej, a nie bomby. Autorom listu chodziło w tym odniesieniu o oczywiste ryzyko wyginięcia ludzkości spowodowane wybuchem wojny atomowej. Zaryzykuję jednak stwierdzenie, że porównanie AI do broni jądrowej nie jest przesadzone, jak twierdzą niektórzy, choć nie oddaje prawdziwej istoty zagrożenia. Broń jądrowa niesie z sobą ogromne ryzyko, ale z racji tego, że posiada ją ograniczona, w sumie niewielka liczba państw, jest ono mniejsze, niż gdyby każde państwo miało do niej dostęp. Ryzyko więc jest duże, ale w jakiś sposób jednak kontrolowane, nie tylko przez reżimy nieproliferacji, ale też psychologiczne uwarunkowania decyzji politycznych. Wydaje się, że dzisiaj bardziej się boimy wydostania się broni jądrowej spod kontroli państw i wpadnięcia jej w ręce terrorystów niż jej użycia przez któreś z mocarstw dysponujących takim arsenałem.

W przypadku AI chodzi po prostu o poddanie jej kontroli tak, by można było ryzykiem związanym z jej rozwojem w podobny sposób zarządzać.

Czytaj więcej

Serbia, Bośnia, Czarnogóra… Czy Unia Europejska wyrwie je Rosji i Turcji

Pod sygnowanym przez pana oświadczeniem podpisało się kilkudziesięciu najbardziej znanych w branży naukowców, menedżerów firm technologicznych i filozofów, ostrzegając, że sztuczna inteligencja to „ryzyko egzystencjalne” i porównując ją m.in. do pandemii. Podziela pan te obawy?

Trzymając się wspomnianego porównania, uważam, że mamy jako ludzkość pewne wyobrażenie, jakie zniszczenie może przynieść użycie broni jądrowej. Natomiast w przypadku sztucznej inteligencji nie do końca zdajemy sobie sprawę z tego, co może nastąpić. Ludziom się wydaje, że przyszłość to będzie mniej więcej to, co z czym mamy do czynienia teraz. A może będzie pod wieloma względami lepiej. Tak nie musi wcale być. Postęp nie jest pewny, a nowe odkrycia nie muszą przynieść ulgi ludziom, wręcz mogą sprawić im cierpienie. Kiedy mówimy o zagrożeniu ze strony sztucznej inteligencji, to nie chodzi o tę „udomowioną”, z której już korzystamy, ale o coraz bardziej zaawansowane jej wersje, zbliżające się do tego, co nazywamy silną sztuczną inteligencją. Nikt więc nie apeluje o odrzucenie technologii i zatrzymanie rozwoju technicznego. Wskazuje się tylko na możliwe zagrożenia. To, że posiadamy jakieś wyobrażenie zagrożenia nuklearnego, a nie mamy takiego wyobrażenia w odniesieniu do sztucznej inteligencji, oznacza, że opinia publiczna bez apeli ekspertów, takich jak ten list otwarty, najpewniej lekceważyć będzie zagrożenie, aż w końcu może się okazać, że już nie da się nic zrobić.

Nie chodzi tylko o wskazywanie zagrożeń. Drugi z listów, który pan sygnował, opublikowany w marcu przez Future of Life Institute, nawołuje do zahamowania prac nad AI.

Ostatecznie przekonał mnie nieco emocjonalny argument Maxa Tegmarka, wybitnego amerykańskiego fizyka, który stwierdził m.in., że ludzkość ma tylko sześć miesięcy na to, by uchronić się przed nieodwracalnymi skutkami rozwoju AI. Jeśli tego nie uczyni, może nas czekać los podobny do losu neandertalczyków, których zastąpili homo sapiens. Myślę, że kiedy uświadomimy sobie, co może wywołać niekontrolowany rozwój sztucznej inteligencji, to sens tego porównania zaczyna wtedy do nas docierać. Oby faktycznie nie było za późno.

Broń jądrowa znajduje się w wyłącznej dyspozycji państw, a kwestia jej posiadania, stosowania i rozprzestrzeniania regulowana jest prawem międzynarodowym. Podobne zasady powinny dotyczyć technologii AI?

Zdecydowanie. To samo należy uczynić z rozwojem sztucznej inteligencji.

Część znanych na świecie naukowców jest przeciwna takim alarmistycznym głosom. Andrew Ng, były szef Google Brain i założyciel DeepLearning.AI, napisał niedawno na Twitterze wprost: „Przestańcie straszyć”. Jego zdaniem sztuczna inteligencja nie jest sprawcą kolejnych kataklizmów dla ludzkości, ale właśnie nadzieją na ratunek naszej cywilizacji przed zagrożeniami ze strony zmian klimatycznych czy wirusów. Czy nie jest więc tak, że systemy AI mogą stać się lekarstwem na wszystkie potencjalne kryzysy grożące ludzkości?

Oczywiście, sztuczna inteligencja przynosi już dziś wiele korzyści, a kolejne mogą okazać się wręcz zbawienne dla zdrowia i życia ludzi. Niemniej jest wiele zagrożeń, które mogą przeważyć w ostatecznym rachunku korzyści i strat. Center for AI Safety wskazuje na kilka takich egzystencjalnych zagrożeń, które mogą być związane z niekontrolowanym rozwojem zaawansowanej sztucznej inteligencji. Zalicza do nich m.in. uzbrojenie technologii przeznaczonej do celów pokojowych i wykorzystanie jej w walce zbrojnej. Przeczyłoby to w oczywisty sposób optymistycznej wizji zastosowań AI. Sztuczna inteligencja może ponadto zostać wykorzystana do udoskonalenia narzędzi dezinformacji. Już dzisiaj fake newsy sprawiają wiele kłopotów mediom i instytucjom publicznym. Center for AI Safety zauważa także, że wykorzystywana w systemach rekomendacyjnych sztuczna inteligencja może być zaprogramowana tak, by manipulować zachowaniem ludzi, sprzyjać radykalizacji poglądów czy zwyczajnie uzależniać ludzi od korzystania z określonych aplikacji. Poważnym zagrożeniem jest również utrata przez ludzi zdolności do samostanowienia i uzależnienie się od maszyn. Przekazanie komputerom części lub całości zadań wykonywanych przez ludzi doprowadzi do utraty przez nich pracy. Sztuczna inteligencja może być też użyta do ograniczenia wolności i praw obywatelskich, zwłaszcza w reżimach autorytarnych i demokracjach deficytowych. Niewykluczone, że również w państwach demokratycznych pojawi się ryzyko skupienia władzy w rękach tych, którzy będą posiadali potężne narzędzia wpływu i kontroli przy pomocy sztucznej inteligencji. Rozwój modeli AI postępuje w tak ogromnym tempie, że rośnie ryzyko utraty kontroli nad zaawansowanymi systemami – istnieje zagrożenie, że system sztucznej inteligencji zacznie sam się modyfikować, a jego powstanie przypominać będzie uwolnienie dżina z butelki. Nie jest wykluczone, że sztuczna inteligencja – niczym HAL 9000 z „2001: Odysei kosmicznej” – będzie na tyle przewyższać człowieka, swego twórcę, że zacznie wprowadzać go celowo w błąd.

Nie czuje się pan neoluddystą?

Nie, jestem wręcz entuzjastą nowych technologii. Chętnie z nich korzystam, nie wyobrażam sobie dziś swojego życia bez nich, również tych opartych na sztucznej inteligencji. Bycie luddystą czy neoluddystą nie wydaje mi się dziś praktyczną strategią. Trzeba byłoby być konsekwentnym i zrezygnować z używania technologii. Ja sobie tego nie wyobrażam. Poza garstką idealistów i marzycieli nikt by nie chciał żyć bez technicznych dobrodziejstw cywilizacji. Co innego wyjechać na weekend czy dłużej – bez smartfonu i internetu, kart płatniczych. Ale żyć tak cały czas?

Czytaj więcej

„Polska wieś 2044”: Statystyczna polska wieś

Dobrze, że pan pyta o neoluddyzm, bo jako politolog naturalnie spodziewałbym się, że wraz z postępem technicznym będzie rósł opór wobec niego. Ciekawe jest to, że niczego takiego jednak w masowej skali nie widać. Proszę zauważyć, że w popularnych sieciach sklepów spożywczych mamy coraz więcej kas samoobsługowych. Pracownicy tych sklepów wręcz zachęcają do korzystania z nich. Mam wrażenie, że nie do końca zdają sobie sprawę z tego, co może ich czekać. Już teraz mamy w pełni samoobsługowe małe sklepy. Czy długo przyjdzie nam czekać na to, że również duże sieci handlowe zrobią coś podobnego w większej skali? Tego typu zagrożenie dotyczy wielu zawodów, w pierwszej kolejności tzw. pracowników umysłowych np. wykonujących proste prace administracyjne w urzędach, na uczelniach czy w przedsiębiorstwach. Pracę mogą stracić również sprzedawcy, ochroniarze, kelnerzy, sędziowie sportowi, kierowcy autobusów, a nawet analitycy finansowi, programiści czy graficy komputerowi. Lista zagrożonych zawodów jest znacznie dłuższa.

Parlament Europejski przegłosował AI Act. Czy przyjęte regulacje (choć będą jeszcze ostatecznie zapewne szlifowane w tzw. trilogu między PE, Radą i Komisją Europejską) to słuszny krok Brukseli, czy też ryzyko, że zahamujemy rozwój sztucznej inteligencji w UE, a świat nam ucieknie w tej technologicznej rewolucji?

Kiedy mówimy o ogólnym rozwoju technologii, o rewolucji technologicznej, o postępie, to rzeczywiście próby zahamowania zmian kojarzą się negatywnie. Diabeł tkwi jednak w szczegółach.

Moim zdaniem szereg ograniczeń, które wprowadza AI Act, to krok w dobrą stronę. Najgorszym rozwiązaniem byłoby puścić to wszystko samopas i czekać, jak zmienia się świat. AI Act zakazuje np. stosowania technologii opartych na sztucznej inteligencji do przewidywania przestępstw. Oznacza to, że wizja z filmu „Raport mniejszości” jest już w jakimś stopniu realna, ale na szczęście została oddalona. Oczywisty chyba dla każdego, kto obserwuje to, co dzieje się wokół AI Act, jest „antychiński” wymiar tej legislacji. Europa daje sygnał światu, że nasz system wartości jest inny niż chiński i na tym kontynencie nie będzie zgody na rozwój technologii, które uderzają w prywatność i wszelkie prawa oraz wolności człowieka.

Wspomniał pan o zagrożonych zawodach, ale czy w świecie z dominującą rolą sztucznej inteligencji ludzie będą jeszcze w ogóle potrzebni?

To jest pytanie, na które nie znam odpowiedzi i trudno jest sformułować jakąś wiarygodną prognozę. Wydaje się, że część ludzi może być zwyczajnie zbędna w sensie zawodowym. Po prostu niektóre zawody mogą stracić rację bytu. Niewykluczone jednak, że pojawią się jakieś nowe. Tak naprawdę wszystko zależy od tempa rozwoju sztucznej inteligencji. Zgadzam się z Yuvalem Noahem Hararim, że zbyt szybki jej rozwój, niepoddany żadnej kontroli, doprowadzić może do pojawienia się klasy „ludzi zbędnych”. Z uwagi na fundamentalne ludzkie wartości należy tego uniknąć. Pytanie, czy jesteśmy w stanie to uczynić, jeśli nie zrobimy tego odpowiednio szybko. Wśród wielu scenariuszy rozwoju silnej sztucznej inteligencji Nick Bostrom wskazuje taki, w którym możemy nawet nie dowiedzieć się o jej istnieniu. Superinteligencja mogłaby sprawować władzę niepostrzeżenie, rozgrywając nasze zachowania i utrzymując jednocześnie nas w nieświadomości. Mówiąc językiem ekonomii behawioralnej, silna sztuczna inteligencja kształtowałaby w tym scenariuszu „architekturę wyboru”. Naprowadzałaby nas w odpowiedni sposób na wybory, które byłyby przez nią oczekiwane.

Skąd zainteresowanie Instytutu Nauk o Polityce i Administracji oraz pańskie tematyką AI?

Sztuczna inteligencja to nie jest podstawowy problem nauk społecznych, ale już skutki jej rozwoju i zagrożenia, które niesie z sobą, jak najbardziej powinny zajmować politologów, ekonomistów, specjalistów od bezpieczeństwa. W ramach uniwersyteckiego oddziału Polskiego Towarzystwa Filozoficznego zorganizowaliśmy debatę na ten temat, która spotkała się z zainteresowaniem nie tylko wykładowców, studentów, ale też ludzi spoza uczelni. Istnieje wyraźna potrzeba, by na temat sztucznej inteligencji dyskutować w przestrzeni publicznej. Przedstawiciele nauki, również z nauk społecznych, powinni w tej dyskusji uczestniczyć.

Jednym z pierwszych tematów badawczych, który mnie zajmował w mojej naukowej karierze, była konserwatywna krytyka postępu technologicznego w niemieckiej myśli politycznej. Obecnie prowadzę wstępne badania nad zarówno filozoficzno-politycznym, jak też politycznym znaczeniem rozwoju sztucznej inteligencji. Interesują mnie naukowo również wizje przyszłości obecne we współczesnych filmach i serialach.

Dr Łukasz Święcicki jest politologiem, filozofem polityki, popularyzatorem nauki oraz doktorem nauk społecznych w zakresie nauk o polityce. Jest adiunktem na Wydziale Nauk Społecznych Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach.

Plus Minus: Jesteśmy świadkami bezprecedensowego rozwoju technologii AI. Dla jednych takie zaawansowane algorytmy to niespotykana dotąd szansa cywilizacyjnego rozwoju, dla innych śmiertelne zagrożenie. Czy porównywanie generatywnej sztucznej inteligencji do bomby atomowej nie jest przesadne?

Wiem, do czego odnosi się to pytanie – do listu otwartego Center for AI Safety, który sygnowałem. Ale w nim zawarte jest porównanie AI do wojny atomowej, a nie bomby. Autorom listu chodziło w tym odniesieniu o oczywiste ryzyko wyginięcia ludzkości spowodowane wybuchem wojny atomowej. Zaryzykuję jednak stwierdzenie, że porównanie AI do broni jądrowej nie jest przesadzone, jak twierdzą niektórzy, choć nie oddaje prawdziwej istoty zagrożenia. Broń jądrowa niesie z sobą ogromne ryzyko, ale z racji tego, że posiada ją ograniczona, w sumie niewielka liczba państw, jest ono mniejsze, niż gdyby każde państwo miało do niej dostęp. Ryzyko więc jest duże, ale w jakiś sposób jednak kontrolowane, nie tylko przez reżimy nieproliferacji, ale też psychologiczne uwarunkowania decyzji politycznych. Wydaje się, że dzisiaj bardziej się boimy wydostania się broni jądrowej spod kontroli państw i wpadnięcia jej w ręce terrorystów niż jej użycia przez któreś z mocarstw dysponujących takim arsenałem.

Pozostało 90% artykułu
Plus Minus
Bogusław Chrabota: Dlaczego broń jądrowa nie zostanie użyta
Plus Minus
„Empire of the Ants”: 103 683 zwiedza okolicę
Plus Minus
„Chłopi”: Chłopki według Reymonta
Plus Minus
„Największe idee we Wszechświecie”: Ruch jest wszystkim!
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Plus Minus
„Nieumarli”: Noc żywych bliskich