Christina Blacklaws: Algorytmy sądowe potrafią być bystre

Choć sztuczna inteligencja jest już w użyciu w brytyjskim wymiarze sprawiedliwości, jesteśmy daleko od przyzwolenia na jej używanie w skomplikowanych sprawach karnych czy rodzinnych – mówi Christina Blacklaws, brytyjska adwokatka, mediatorka i konsultantka biznesowa w rozmowie z Pawłem Rochowiczem.

Publikacja: 22.02.2022 13:52

Christina Blacklaws: Algorytmy sądowe potrafią być bystre

Foto: Adobe Stock

Jeśli rozważamy użycie sztucznej inteligencji (AI) w wymiarze sprawiedliwości, to chyba trzeba przyznać, że była dotychczas niedoskonała. W Wielkiej Brytanii jest stosowana do wydawania wyroków w prostych sprawach. Statystyki – też brytyjskie – wskazują, że system rozpoznawania twarzy w monitoringu ulicznym zawiódł siedem na osiem razy wśród 13 tysięcy przypadków użycia. Czy zatem sztuczna inteligencja może być wiarygodnym narzędziem w procedurach karnych?

Rzeczywiście można mieć obawy o tę wiarygodność, ale ta technologia rozpoznawania twarzy wciąż jest u nas w użyciu. Jeśli tylko pomaga policji w łapaniu przestępców albo terrorystów i wspomaga publiczne bezpieczeństwo – to są argumenty za jej używaniem. Oczywiście można przy tym ważyć prawo obywateli do prywatności i prawo państwa do ochrony swoich obywateli. Ale dla mnie nie ma tu sprzeczności, bo tak naprawdę to nie technologia sprawuje tę ochronę. To władze publiczne powinny ją rozsądnie stosować w systemie wymiaru sprawiedliwości. Jeśli jest niewłaściwie używana, przyniesie szkodę obywatelom.

Z drugiej strony, sztuczna inteligencja już pomogła brytyjskiemu systemowi sądownictwa w takich sprawach jak kary dla kierowców za przekraczanie prędkości albo za parkowanie w niedozwolonych miejscach.

Oczywiście sztuczna inteligencja może być używana na różne sposoby, by wymiar sprawiedliwości działał sprawniej. Dobre jest wszystko, co pomaga policjantowi spędzać czas bardziej na łapaniu przestępców, niż wypełnianiu formularzy.

Użycie takiej technologii wspomagającej procesy biurowe to jedno, ale jest jeszcze jeden aspekt, nawet ciekawszy. Czy wie pan, że platforma sprzedażowa E-Bay rozwiązała około 80 milionów sporów z konsumentami poprzez użycie algorytmów AI? Użyto ich, ponieważ te sprawy były bardzo podobne do siebie. Dzięki algorytmom spory z konsumentami zostały rozwiązane szybko. A ponieważ społeczeństwo stopniowo oswaja się z użyciem AI, jest w stanie zaakceptować jej użycie w wymiarze sprawiedliwości. Być może 10 lat temu ludzie domagaliby się, by to sędzia-człowiek wydawał wyroki w sprawach o przekroczenie prędkości, złe parkowanie czy nielegalny połów ryb. Dziś większość jest zadowolona, że szybko i sprawnie robi to komputer. Niemniej jednak, gdy przychodzi wyrokować w sprawach dotyczących tego, czy rodzic zobaczy swoje dziecko albo czy ktoś ma być oskarżony i aresztowany – jako społeczeństwo jesteśmy dalecy od tego, by pozwolić na wyrokowanie w inny sposób, niż tradycyjny. Myślę jednak, że z biegiem czasu staniemy się bardziej tolerancyjni. Ten proces przypomina nasze podejście do bankowości elektronicznej. Przecież niemal zupełnie odeszliśmy od wizyt w banku, dziś zarządzamy naszymi pieniędzmi przez systemy internetowe. Niemniej jednak, niezależnie do jakiego stopnia powierzymy sztucznej inteligencji wyrokowanie, zawsze powinna zostać utrzymana opcja zaskarżenia takiego wyroku do sądu z żywymi sędziami w składzie.

Czytaj więcej

Sztuczna inteligencja może pomóc polskim sądom w zaległościach

Czy można zatem powiedzieć, że AI jest potencjalnym zagrożeniem praworządności?

Potencjalne zagrożenie dla praworządności odnosiłoby się do zagrożenia sądownictwa. Gdyby szersze zastosowanie AI w procesie wyrokowania miało szkodliwy wpływ na zaufanie obywateli do praworządności – nie byłoby to dobre. Choć z drugiej strony obserwuję, że ludzie nie są skłonni kwestionować wyroki już wydane z pomocą algorytmów.

Dlaczego?

Może z lenistwa? Gdy przyzwyczaimy się do korzystania z sugestii komputerów, np. nawigacji samochodowej, zaczynamy coraz bardziej im ufać. Ale są liczne przypadki, w których ta nawigacja wyprowadza nas na manowce.

AI używana w sądownictwie też nie jest nieomylna. Z kolei liczni policjanci czy urzędnicy w różnych instytucjach nie są skłonni zmieniać decyzji wydanych przez komputer. Bo to wymaga czasu i więcej papierkowej roboty.

Jest pani członkiem specjalnej komisji prawa i technologii przy Towarzystwie Prawniczym Anglii i Walii. Jakie sugestie dla brytyjskiego rządu sformułowała wasza komisja co do użycia AI?

Prawo powinno określać przejrzyste, zrozumiałe i uczciwe standardy używania algorytmów. Te standardy powinny odnosić się już do etapu tworzenia tych algorytmów. To ostatnie zagadnienie jest szczególnie ważne, bo większość oprogramowania stosującego algorytmy i używanego przez brytyjską policję została po prostu kupiona od firm amerykańskich. Policja nie wiedziała, jak te algorytmy zostały stworzone. Zwracała tylko uwagę na ostateczny efekt: oszczędność czasu i pieniędzy. Nikt tu nie miał złych zamiarów, ale ocena skutków działania tych narzędzi powinna była się zacząć na wcześniejszym etapie.

Jedna z naszych sugestii to stworzenie publicznego rejestru, w którym umieszczano by wszystkie przypadki użycia sztucznej inteligencji. Powinien on być dostępny dla wszystkich, by społeczeństwo mogło kontrolować gdzie i jak AI jest używana.

Mogę sobie wyobrazić, że prawo określi obszary, w których AI może być stosowana. Mogę też wyobrazić sobie, że policja użyje AI do śledzenia czyjejś aktywności w mediach społecznościowych, by zapobiec terroryzmowi i innym przestępstwom. Ale gdzie tu wytyczyć linie ochrony prywatności?

Oczywiście prywatność musi być chroniona. Dziesięć lat temu ludzie nie postrzegali prywatności w internecie w kontekście praw człowieka. Teraz ta prywatność się staje jednym z podstawowych praw. Przecież dziś nasze życie płynie nie tylko w realnym, ale i w wirtualnym świecie. To, co uważamy za nasze prywatne wpisy w mediach społecznościowych może być odczytane przez inteligentne algorytmy jako coś ważnego dla interesu publicznego.

O ile one są rzeczywiście inteligentne. Jeśli umieszczę na Facebooku zdjęcie mojego owczarka niemieckiego, spokojnego i posłusznego psa, to „bystry” algorytm policyjny może go rozpoznać jako wilka. Następnego dnia policja może zarzucić hodowanie w domu dzikiego zwierzęcia zagrażającego życiu moich sąsiadów…

Racja, zdarzyły się podobne przypadki, w których okazało się, że AI „myśli” inaczej, niż ludzie. Sztuczna inteligencja tylko analizuje piksele na obrazkach. To może być bardzo przydatne np. w analizie wyglądu ludzkiej skóry, by wykryć jej raka. AI robi to znacznie lepiej, niż lekarze. Ale gdybyśmy używali tej analizy pikseli do celów sądowych, mogłoby to być naprawdę niebezpieczne. Dam inny przykład. Brytyjska policja używa analizy predykcyjnej do identyfikowania tych rejonów różnych miast, w których jest większe prawdopodobieństwo przestępstw. Jednak jeśli w te rejony wyślemy więcej patroli policyjnych, tym bardziej wydają się one niebezpieczne dla ludzi tam mieszkających. A przecież przestępstwa mogą się zdarzyć tam, gdzie rozmieszczono mniej patroli. To jeszcze jeden argument za tym, by używać ludzkiej mądrości przy używaniu technologii.

Czy zatem nie powinno się zakazać używania AI do skomplikowanych spraw karnych albo innych wrażliwych?

Myślę, że jesteśmy jeszcze daleko od przyzwolenia na szerokie użycie AI do spraw, w których najważniejsze jest ludzkie doświadczenie i ludzkie poczucie sprawiedliwości.

Chcę jednak wspomnieć o innej ważnej sprawie. Zgodnie z badaniami OECD, tylko 46 proc. ludności świata żyje w praworządnych krajach. To tam wielu ludzi nie ma dostępu do wymiaru sprawiedliwości. Jeśli AI pomoże ludziom w tych krajach osiągnąć sprawiedliwość, to może być sukces.

Christina Blacklaws studiowała prawo na uniwersytecie w Oksfordzie i została adwokatem w 1991 roku. Była prezesem Towarzystwa Prawnego Anglii i Walii do lipca 2019 r. Była gościem II Międzynarodowego Forum Kancelarii Prawnych zorganizowanego w grudniu ub.r. we Wrocławiu przez samorząd radców prawnych

Jeśli rozważamy użycie sztucznej inteligencji (AI) w wymiarze sprawiedliwości, to chyba trzeba przyznać, że była dotychczas niedoskonała. W Wielkiej Brytanii jest stosowana do wydawania wyroków w prostych sprawach. Statystyki – też brytyjskie – wskazują, że system rozpoznawania twarzy w monitoringu ulicznym zawiódł siedem na osiem razy wśród 13 tysięcy przypadków użycia. Czy zatem sztuczna inteligencja może być wiarygodnym narzędziem w procedurach karnych?

Rzeczywiście można mieć obawy o tę wiarygodność, ale ta technologia rozpoznawania twarzy wciąż jest u nas w użyciu. Jeśli tylko pomaga policji w łapaniu przestępców albo terrorystów i wspomaga publiczne bezpieczeństwo – to są argumenty za jej używaniem. Oczywiście można przy tym ważyć prawo obywateli do prywatności i prawo państwa do ochrony swoich obywateli. Ale dla mnie nie ma tu sprzeczności, bo tak naprawdę to nie technologia sprawuje tę ochronę. To władze publiczne powinny ją rozsądnie stosować w systemie wymiaru sprawiedliwości. Jeśli jest niewłaściwie używana, przyniesie szkodę obywatelom.

Pozostało 86% artykułu
Rzecz o prawie
Ewa Szadkowska: Ta okropna radcowska cisza
Rzecz o prawie
Maciej Gutowski, Piotr Kardas: Neosędziowski węzeł gordyjski
Rzecz o prawie
Jacek Dubois: Wstyd mi
Rzecz o prawie
Robert Damski: Komorniku, radź sobie sam
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Rzecz o prawie
Mikołaj Małecki: Zabójstwo drogowe gorsze od ludobójstwa?