Broń autonomiczna, taka jak Kargu-2 czy Harpy, różni się od innych rodzajów broni tym, że jest w stanie wybierać i atakować cele samodzielnie, bez ludzkiej interwencji, wykorzystując do zbierania i przetwarzania informacji sensory i oprogramowanie oparte przede wszystkim na algorytmach uczenia maszynowego. Należy ją odróżnić od konwencjonalnych dronów, w których decyzje podejmowane są przez ludzi (operatorów).
Systemy, takie jak Kargu-2 czy Harpy, otrzymują od operatorów ogólne parametry celów w określonym czasie i przestrzeni, ale same wybierają konkretny obiekt, który zniszczą. Taki statek powietrzny może krążyć nawet przez 2,5 godziny nad określonym terenem oddalonym od operatora do 500 kilometrów. Pierwsze autonomiczne amunicje krążące były pomyślane przede wszystkim jako systemy niszczące wrogie instalacje i radary, jednak systemy takie jak Kargu-2 to już broń przeciwpiechotna, zdolna do wybierania i atakowania ludzkich celów.
W niedawno uchwalonym przez Parlament Europejski akcie o sztucznej inteligencji, który po 2025 r. będzie obowiązywał również w Polsce, wyłączono z zakresu regulacji systemy sztucznej inteligencji wykorzystywane wyłącznie do celów wojskowych. Unijni legislatorzy zadowolili się deklaracją, że tego typu systemy są regulowane przez prawo międzynarodowe.
Ożywiona dyskusja na ten temat trwa od 2014 r. Miałem okazję brać udział w spotkaniach grupy rządowych ekspertów ds. regulacji broni autonomicznych pod egidą Organizacji Narodów Zjednoczonych. Grupę powołano w celu opracowania pierwszego traktatu międzynarodowego regulującego użycie tego rodzaju broni. Niestety, od początku dyskusji najważniejsze potęgi militarne nie znalazły wspólnego języka. Mimo apelu wielu krajów oraz organizacji międzynarodowych, by zakazać użycia broni autonomicznych, wszystko wskazuje na to, że w najbliższym okresie nie powstanie żadna wiążąca regulacja w tej dziedzinie.
Ryzyko i szkody
Na razie tylko jeden kraj opublikował zbiór reguł dotyczący rozwoju i użycia broni autonomicznych. W 2012 r. Departament Obrony USA wprowadził dyrektywę 3000.09. Zezwala ona – wbrew często fałszywym deklaracjom – na użycie broni autonomicznych przeciwko celom ludzkim, jeżeli system otrzyma specjalną zgodę od urzędników wysokiej rangi.
Amerykanie przez długi czas oddzielali regulacje dotyczące sztucznej inteligencji, w szczególności uczenia maszynowego w systemach wojskowych, od broni autonomicznych. Twierdzili, że autonomia nie musi być powiązana ze sztuczną inteligencją, lecz z niezależnością systemu od operatora ludzkiego. Zgodnie z tym podejściem nawet proste systemy, jak miny przeciwpiechotne, mogłyby być zakwalifikowane jako przykłady broni autonomicznych. Zmiany nastąpiły w styczniu 2023 r. Departament Obrony dokonał rewizji dyrektywy i uwzględnił rolę sztucznej inteligencji w ocenie działania broni autonomicznych. Od tego roku każdy nowy system autonomiczny powinien być zgodny z zasadami etycznymi oraz technicznymi standardami w zakresie wdrażania modeli sztucznej inteligencji. Nie sposób tutaj opisać szczegółowo wszystkich wymogów, ale kluczowy jest sposób myślenia, który wyznaczył Pentagon – chodzi o ścisłe powiązanie ogólnych zasad etycznych z możliwością ich zastosowania poprzez spełnienie szczegółowych standardów technicznych.