Sztuczna inteligencja zmienia oblicze wojny

Najwyższy czas wprowadzić ograniczenia w zakresie użycia broni autonomicznych. Nikomu jednak na tym nie zależy.

Publikacja: 20.10.2023 17:00

Broń taka jak izraelski IAI Harpy, system amunicji krążącej, jest w stanie wybierać i atakować cele

Broń taka jak izraelski IAI Harpy, system amunicji krążącej, jest w stanie wybierać i atakować cele samodzielnie, bez ludzkiej interwencji

Foto: IAI

Kwiecień 2020 r., druga wojna domowa w Libii, w podzielonym kraju różne stronnictwa walczą o schedę po obaleniu dyktatora Muammara Kadafiego. Najprawdopodobniej to właśnie wtedy, gdzieś w okolicach Trypolisu, po raz pierwszy w historii autonomiczna broń zabiła człowieka.

Mowa o STM Kargu-2, czyli tureckim systemie amunicji krążącej, który jest rodzajem bezzałogowego statku powietrznego. Może on działać zarówno w trybie autonomicznym, jak i w pełni kontrolowanym przez człowieka. Producent Kargu-2, firma STM, chwali się, że system został zaprojektowany w celu wykorzystania „możliwości przetwarzania obrazu w czasie rzeczywistym i algorytmów uczenia maszynowego”.

Kargu-2 w niczym nie przypomina wykorzystywanych w armii konwencjonalnych dronów, takich jak RQ-4 Force Global Hawk będącego na wyposażeniu amerykańskich sił powietrznych, który jest warty ponad 200 tys. dol. i waży prawie 4 t. Kargu-2 kosztuje 2 tys. dol. i waży tylko 7 kg.

Czytaj więcej

„Mortal Kombat 1”: Kręgosłupy łam z humorem

Celem nie tylko radary

To jeden z kilku rodzajów broni autonomicznej, które powstały w ostatnich latach. Najsłynniejszy jest izraelski IAI Harpy, system amunicji krążącej, który znajduje się w arsenale m.in. Indii, Korei Południowej oraz Chile. Chińczycy stworzyli własny wariant tego systemu, kopiując izraelską technologię.

Broń autonomiczna, taka jak Kargu-2 czy Harpy, różni się od innych rodzajów broni tym, że jest w stanie wybierać i atakować cele samodzielnie, bez ludzkiej interwencji, wykorzystując do zbierania i przetwarzania informacji sensory i oprogramowanie oparte przede wszystkim na algorytmach uczenia maszynowego. Należy ją odróżnić od konwencjonalnych dronów, w których decyzje podejmowane są przez ludzi (operatorów).

Systemy, takie jak Kargu-2 czy Harpy, otrzymują od operatorów ogólne parametry celów w określonym czasie i przestrzeni, ale same wybierają konkretny obiekt, który zniszczą. Taki statek powietrzny może krążyć nawet przez 2,5 godziny nad określonym terenem oddalonym od operatora do 500 kilometrów. Pierwsze autonomiczne amunicje krążące były pomyślane przede wszystkim jako systemy niszczące wrogie instalacje i radary, jednak systemy takie jak Kargu-2 to już broń przeciwpiechotna, zdolna do wybierania i atakowania ludzkich celów.

W niedawno uchwalonym przez Parlament Europejski akcie o sztucznej inteligencji, który po 2025 r. będzie obowiązywał również w Polsce, wyłączono z zakresu regulacji systemy sztucznej inteligencji wykorzystywane wyłącznie do celów wojskowych. Unijni legislatorzy zadowolili się deklaracją, że tego typu systemy są regulowane przez prawo międzynarodowe.

Ożywiona dyskusja na ten temat trwa od 2014 r. Miałem okazję brać udział w spotkaniach grupy rządowych ekspertów ds. regulacji broni autonomicznych pod egidą Organizacji Narodów Zjednoczonych. Grupę powołano w celu opracowania pierwszego traktatu międzynarodowego regulującego użycie tego rodzaju broni. Niestety, od początku dyskusji najważniejsze potęgi militarne nie znalazły wspólnego języka. Mimo apelu wielu krajów oraz organizacji międzynarodowych, by zakazać użycia broni autonomicznych, wszystko wskazuje na to, że w najbliższym okresie nie powstanie żadna wiążąca regulacja w tej dziedzinie.

Ryzyko i szkody

Na razie tylko jeden kraj opublikował zbiór reguł dotyczący rozwoju i użycia broni autonomicznych. W 2012 r. Departament Obrony USA wprowadził dyrektywę 3000.09. Zezwala ona – wbrew często fałszywym deklaracjom – na użycie broni autonomicznych przeciwko celom ludzkim, jeżeli system otrzyma specjalną zgodę od urzędników wysokiej rangi.

Amerykanie przez długi czas oddzielali regulacje dotyczące sztucznej inteligencji, w szczególności uczenia maszynowego w systemach wojskowych, od broni autonomicznych. Twierdzili, że autonomia nie musi być powiązana ze sztuczną inteligencją, lecz z niezależnością systemu od operatora ludzkiego. Zgodnie z tym podejściem nawet proste systemy, jak miny przeciwpiechotne, mogłyby być zakwalifikowane jako przykłady broni autonomicznych. Zmiany nastąpiły w styczniu 2023 r. Departament Obrony dokonał rewizji dyrektywy i uwzględnił rolę sztucznej inteligencji w ocenie działania broni autonomicznych. Od tego roku każdy nowy system autonomiczny powinien być zgodny z zasadami etycznymi oraz technicznymi standardami w zakresie wdrażania modeli sztucznej inteligencji. Nie sposób tutaj opisać szczegółowo wszystkich wymogów, ale kluczowy jest sposób myślenia, który wyznaczył Pentagon – chodzi o ścisłe powiązanie ogólnych zasad etycznych z możliwością ich zastosowania poprzez spełnienie szczegółowych standardów technicznych.

Często różne instytucje publiczne zatrzymują się w regulacji AI na ogólnym zdefiniowaniu kilku zasad bez pogłębionej refleksji, czy są one możliwe do zrealizowania, a jeśli tak, to w jaki sposób. I tak mówi się na przykład, że algorytmy sztucznej inteligencji powinny być wyjaśnialne (explainable), to znaczy, że ludzie powinni mieć informację dotyczącą sposobu podejmowania decyzji przez AI. W ostatnim czasie pojawiło się sporo prac badawczych wskazujących, że nie zawsze jesteśmy w stanie określić, w jaki sposób sztuczna inteligencja doprowadziła do określonych wyników. Co więcej, wiele badań wskazuje na to, że istnieje nieodłączne napięcie między wydajnością uczenia maszynowego (np. dokładnością predykcyjną) a wyjaśnialnością.

Czy w takim razie powinniśmy zawsze sztywno trzymać się zasady, że działanie sztucznej inteligencji powinno być wyjaśnialne? Można sobie wyobrazić bowiem wiele przykładów z życia, w których zadowalamy się rezultatami wygenerowanymi przez AI (np. rekomendacją różnych dóbr konsumenckich), nie zważając na sposób podejmowania decyzji przez algorytmy.

Zgodnie z etycznymi zasadami Departamentu Obrony USA sztuczna inteligencja powinna być wdrażana w sposób odpowiedzialny, sprawiedliwy, niezawodny, możliwy do zarządzenia i zidentyfikowania. Oparte na niej systemy broni autonomicznej powinny być w stanie przeprowadzić modelowanie szkód (harms modeling), by ocenić ich prawdopodobieństwo i rozmiar w wyniku decyzji podjętych przez sztuczną inteligencję. Dostawcy technologii dla Departamentu Obrony mają też określić listę potencjalnych szkód związanych z użyciem danego rozwiązania oraz oszacować ich skalę, prawdopodobieństwo i częstotliwość. Są też zobowiązani do przewidzenia czarnego scenariusza i sposobu, w jaki można się przed nim ustrzec.

Czytaj więcej

Jedyny taki przestępca i król Krymu

Niezauważona rewolucja

USA są najbardziej zaawansowanym państwem w zakresie regulacji broni autonomicznej na podstawie sztucznej inteligencji, ale nawet ich podejście jest kontrowersyjne. Głównym problemem jest brak wystarczających ograniczeń. Wspomniana dyrektywa 3000.09 zezwala bowiem na wykorzystanie broni autonomicznych do zabijania ludzi. Pentagon kilka lat temu usunął ze swoich dokumentów wymóg tzw. bezpośredniej kontroli człowieka nad użyciem broni. Jest to rewolucja w branży wojskowej, która przeszła prawie niezauważona.

Od zarania dziejów bowiem broń traktowano jako przedłużenie woli człowieka. Seneka wyraził to dobitnie, mówiąc: „miecz nigdy nikogo nie zabija; to narzędzie w rękach mordercy”. Od 2012 r. Departament Obrony zmienił wymóg bezpośredniej kontroli człowieka nad bronią autonomiczną (human control), zastępując go wymogiem dokonywania osądu ludzkiego w zakresie użycia tej broni (human judgment). I choć sformułowania „human control” oraz „human judgment” brzmią podobnie, to Pentagon rozumie je zupełnie inaczej.

Wymóg dokonywania osądu ludzkiego można spełnić wyłącznie na poziomie projektowania broni w taki sposób, że operatorzy będą świadomi, jakiego rodzaju ograniczenia ma dany system, ale nie wymaga się bezpośredniego sterowania nim czy nawet podejmowania decyzji o ataku na określone cele. Zgodnie z zasadą „human control” to człowiek steruje danym systemem (np. dronem) i wybiera określone cele ataku (lub ewentualnie wskazuje, których celów nie należy atakować). W przypadku zasady „human judgment” nie są wykluczone sytuacje, w których to maszyna może sama decydować, które cele należy zlikwidować, a wymóg osądu ludzkiego wypełnia operator, jeśli na przykład wie, że system po pewnym czasie sam się wyłączy.

Podejście amerykańskie jest niebezpieczne i wymaga zmian. Użycie broni autonomicznej opartej na zaawansowanej sztucznej inteligencji jest zawsze do pewnego stopnia obarczone nieprzewidywalnością. Wynika to z istoty uczenia maszynowego. Wyniki systemów opartych na uczeniu maszynowym są probabilistyczne, a nie deterministyczne. Systemy mogą więc generować niepewne wyniki, zamiast konsekwentnie dostarczać tych spodziewanych. Wiele zależy zatem od danych szkoleniowych, które powinny możliwie dokładnie odzwierciedlać środowisko operacyjne, w którym dany system będzie wykorzystany. Bardzo ciężko jednak odtworzyć w warunkach szkoleniowych rzeczywiste działania wojenne, które zwykle cechują się dużym poziomem zmienności i niejasności, tzw. mgłą wojny, jak mawiał Carl von Clausewitz, słynny pruski teoretyk wojskowości.

Sposób działania systemów autonomicznych jest też uzależniony od komunikacji z operatorem. Owszem, broń autonomiczna jest w stanie sama atakować określone cele, ale po spełnieniu misji może zostać przekierowana przez operatora do innych zadań. Nie zawsze jednak taka komunikacja jest możliwa. Kraje takie jak Chiny czy Rosja od lat pracują nad technologiami radioelektronicznymi zakłócania sygnału lub podszywania się pod system nawigacji satelitarnej. W takich przypadkach istnieje ryzyko, że broń autonomiczna sama zacznie podejmować decyzje, które nie były wcześniej ustalone przez operatora, co grozi nieprzewidywalnymi konsekwencjami.

Kto ma pociągać za spust?

Czy to oznacza, że broń autonomiczna nie powinna być stosowana? Przeciwnie – jest wiele sytuacji, w których może mieć dobre zastosowanie, zwłaszcza gdy walka toczy się w dobrze zdefiniowanym obszarze operacyjnym, np. w teatrze działań wojennych, w którym nie znajdują się cywile, a komunikacja jest dobrze zabezpieczona.

Warto jednak zastanowić się, czy zasada bezpośredniej kontroli człowieka powinna zostać usunięta przy potencjalnym użyciu broni autonomicznej do ataków na cele ludzkie. Podobnie jak warto rozważyć ograniczenie wykorzystania autonomii opartej na zaawansowanej sztucznej inteligencji w określonych systemach uzbrojenia, jak np. międzykontynentalne rakietowe pociski balistyczne. Czy naprawdę chcemy, aby sztuczna inteligencja decydowała o użyciu broni, która cechuje się ograniczoną precyzją, nie mówiąc już o broni nuklearnej?

Czytaj więcej

Tomasz Terlikowski: Zamiast koncentrować się na polityce warto sięgnąć po głębsze teksty

Tych ograniczeń nie ma w dyrektywie 3000.09. „Ameryka nie może sobie pozwolić na żadne ograniczenia w użyciu autonomicznej broni, bo inaczej sytuacja zostanie wykorzystana przez adwersarzy” – usłyszałem niedawno od osoby odpowiedzialnej za tegoroczne zmiany regulacyjne.

Gdy ostatnio sprawdzałem, światowy zegar zagłady – symboliczny zegar, który pokazuje czas do północy, gdzie „północ” oznacza zagładę ludzkości – wskazywał 23:58:30. Mamy więc ostatnią chwilę, aby coś zmienić.

Dr Mikołaj Firlej

Wykładowca w AI Institute na Uniwersytecie Surrey, research fellow na Uniwersytecie Oksfordzkim, członek grupy rządowych ekspertów ONZ ds. regulacji broni autonomicznych. Doktorat w Szkole Prawa na Oksfordzie obronił z pracy na temat regulacji broni autonomicznych i sztucznej inteligencji w Departamencie Obrony Stanów Zjednoczonych.

Kwiecień 2020 r., druga wojna domowa w Libii, w podzielonym kraju różne stronnictwa walczą o schedę po obaleniu dyktatora Muammara Kadafiego. Najprawdopodobniej to właśnie wtedy, gdzieś w okolicach Trypolisu, po raz pierwszy w historii autonomiczna broń zabiła człowieka.

Mowa o STM Kargu-2, czyli tureckim systemie amunicji krążącej, który jest rodzajem bezzałogowego statku powietrznego. Może on działać zarówno w trybie autonomicznym, jak i w pełni kontrolowanym przez człowieka. Producent Kargu-2, firma STM, chwali się, że system został zaprojektowany w celu wykorzystania „możliwości przetwarzania obrazu w czasie rzeczywistym i algorytmów uczenia maszynowego”.

Pozostało 94% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi