Czy sztuczna inteligencja może być sprawiedliwa?

Nigdy nie powinniśmy z góry zakładać, że sztuczna inteligencja będzie trafniej oceniała ryzyko niż ludzie.

Publikacja: 13.09.2024 17:00

Czy sztuczna inteligencja może być sprawiedliwa?

Foto: mat.pras.

Brytyjscy uczniowie wybierający się na studia muszą zdawać egzaminy końcowe szkoły średniej na poziomie zaawansowanym i ich wynik w dużym stopniu decyduje o tym, na jakie uczelnie się dostaną. W 2020 roku na skutek restrykcji wprowadzonych podczas pandemii Covid-19 wielu uczniów nie mogło przystąpić do egzaminu osobiście, w związku z czym rząd brytyjski podjął decyzję, by zamiast tradycyjnych wyników egzaminu wykorzystać tym razem algorytm, który wyznaczy końcowe oceny uczniów. Przygotowany system komputerowy brał pod uwagę opinie nauczycieli, oceny osiągnięte na egzaminach próbnych i – co jest najistotniejsze z naszego punktu widzenia – wyniki egzaminów przeprowadzonych w danej szkole w poprzednich latach. Ten ostatni czynnik miał korygować zawyżanie ocen i pozwolić na standaryzację wyników w całym kraju. Jak się to skończyło? Ponad 40 procent uczniów otrzymało z egzaminu oceny niższe, niż spodziewali się ich nauczyciele, co wywołało powszechne oburzenie. Co gorsza, obniżenie ocen w większym stopniu dotknęło uczniów z mniej zamożnych okolic z uwagi na średnią ocen w ich szkole w minionych latach. Wielu uczniów nie dostało się na wymarzone uniwersytety, ponieważ ich oceny z egzaminu były niższe, niż się spodziewano. Według jednego z artykułów „zdolni uczniowie ze szkół, które w przeszłości osiągały słabe wyniki, spadali w rankingach czasami gwałtownie, ponieważ ich oceny zostały obniżone o dwa, trzy punkty z powodu wyników egzaminów przeprowadzonych w ich szkole w poprzednich latach, które nie miały z nimi nic wspólnego”.

Czytaj więcej

„Rodzaje życzliwości”, czyli filmy mogą jeszcze być po prostu dobrą zabawą

Stronnicza AI

W świecie sztucznej inteligencji takie sytuacje wcale nie należą do wyjątków. Nagłówki artykułów prasowych często sugerują, że AI jest niesprawiedliwa w odniesieniu do grup znajdujących się w niekorzystnej sytuacji. Z jej sugestii często korzysta się podczas zatrudniania pracowników, zwalniania, przyznawania podwyżek, udzielania kredytu hipotecznego czy pożyczki na prowadzenie działalności biznesowej i w wielu przypadkach dochodzi wówczas do gorszego traktowania między innymi osób o ciemnym kolorze skóry, kobiet, imigrantów, ludzi biednych, inwalidów czy osób niemieszczących się w typowym zakresie spektrum neuroróżnorodności. Systemy AI służące do wykrywania raka skóry działają gorzej w przypadku pacjentów o ciemnej karnacji, więc lekarze kierujący się ich wskazaniami rzadziej będą leczyć takie osoby. Jak się przekonamy, sztuczna inteligencja wykorzystywana do zapobiegania przestępczości częściej rekomenduje zatrzymanie oskarżonego w areszcie przed rozprawą i sugeruje odmowę zwolnienia za kaucją w przypadku przedstawicieli grup znajdujących się w gorszej sytuacji społecznej. Wszystkie tego typu działania są stronnicze w tym sensie, że liczby korzystnych i niepomyślnych decyzji są nieproporcjonalne zazwyczaj w taki sposób, że grupy w gorszej sytuacji są jeszcze bardziej pokrzywdzone, a uprzywilejowane odnoszą jeszcze większe korzyści. Gdy tego rodzaju uprzedzenia są nieuzasadnione – a tak jest niemal zawsze – to uważa się je za nieuczciwe lub niesprawiedliwe (obu tych określeń będziemy tu używali zamiennie).

Jeżeli jednak sztuczna inteligencja jest tak „inteligentna”, jak się uważa, to czy nie powinna wiedzieć, co zrobić, żeby uniknąć stronniczości? Choć systemy AI rozwijają się w zdumiewająco szybko, w tym jednym obszarze nie potrafią poczynić postępów. Jednym z podstawowych powodów, dla których – szczególnie systemy wykorzystujące uczenie maszynowe – bywają stronnicze, jest to, że bardzo trudno jest zebrać dane reprezentujące w adekwatny sposób wszystkie grupy społeczne i etniczne. W wielu przypadkach znalezienie ich jest po prostu zbyt kosztowne. W efekcie modele wyuczone na takich bazach zazwyczaj wysuwają trafniejsze rekomendacje w przypadku osób należących do grup, które są w nich lepiej reprezentowane. Właśnie dlatego mamy do czynienia ze zjawiskami takimi jak gorsze działanie systemów do rozpoznawania twarzy w przypadku osób ciemnoskórych – wynika to stąd, że zbiory danych używane do uczenia tego typu systemów zawierają w większości fotografie osób o jasnej karnacji.

Natura niesprawiedliwości

Ogólną przyczyną, dla której systemy sztucznej inteligencji są stronnicze, jest to, że to poszczególni ludzie i struktury społeczne bywają często stronniczy, a nasze uprzedzenia łatwo się przenoszą na tworzone modele AI. Za każdym razem, gdy ktoś decyduje o tym, jakie dane należy zgromadzić, opisuje zebrane informacje, wybiera te do wprowadzenia do algorytmu AI, określa cel dla powstającego systemu, wyznacza kryteria oceny jego działania lub ustala, jak należy reagować na jego rekomendacje, pojawia się ryzyko przekazania tworzonej właśnie sztucznej inteligencji naszych ludzkich uprzedzeń. Pod wieloma względami AI jest odzwierciedleniem jej twórców i środowiska, w jakim żyją. Jak mówią niektórzy, „uprzedzenia na wejściu, uprzedzenia na wyjściu”.

Te dwie ogólne przyczyny stronniczości sztucznej inteligencji są tak powszechne i trudne do usunięcia, że większość ekspertów – bez względu na to, czy patrzy na rozwój tej dziedziny z większym, czy mniejszym optymizmem – zgadza się co do tego, że systemy AI (podobnie jak ludzie) niemal nigdy nie są całkowicie sprawiedliwe i uczciwe. W związku z tym rodzą się ważne pytania: czy powinniśmy korzystać ze sztucznej inteligencji, skoro wiemy, że może się ona przyczyniać do wzrostu niesprawiedliwości? Czy istnieje jakakolwiek nadzieja na zaprojektowanie systemu, który faktycznie zmniejszy niesprawiedliwości – może w obszarze, w którym sztuczna inteligencja nie odgrywa obecnie istotnej roli? […]

Sędziowie sami przyznają, że czasami się mylą, gdy starają się przewidzieć możliwość popełnienia przestępstwa przez oskarżonego. Amerykański Instytut Prawa (ALI, ang. American Law Institute), do którego należą uznani sędziowie, prawnicy i profesorowie prawa wybierani przez swoich kolegów, wyraził taką opinię o wydawaniu wyroków:

Odpowiedzialni uczestnicy każdego procesu sądowego – od oskarżycieli przez sędziów po kuratorów sądowych – każdego dnia oceniają (…) ryzyko ponownego popełnienia przestępstwa przez zatrzymanego. Te oceny, dokonywane tak często, są z reguły niedoskonałe. Najczęściej opierają się na intuicji lub zdolnościach konkretnych osób podejmujących decyzje, które zazwyczaj nie przeszły właściwego szkolenia z obszaru nauk związanych z ludzkim zachowaniem. (…) Ustalono, że aktuarialna – czyli statystyczna – ocena ryzyka, opierająca się na obiektywnych kryteriach, jest lepsza od analitycznych przewidywań bazujących na wykształceniu zawodowym, doświadczeniu i opinii osób przeprowadzających ocenę.

Wybitni eksperci prawni uważają zatem, że statystyka jest lepsza od opinii sędziów, gdy należy ocenić ryzyko popełnienia przestępstwa, bo przewidywania sztucznej inteligencji opierają się przecież na statystyce. Zauważmy jednak, że cytowana uwaga odnosi się do wydawania wyroku, a nie podejmowania decyzji o zwolnieniu za kaucją. Czy zatem zachowuje ważność również w tym kontekście?

Jeśli chcemy się przekonać, czy sztuczna inteligencja jest lepsza od ludzi w ocenie ryzyka złamania warunków zwolnienia, musimy znaleźć jakiś sposób, by ustalić, kiedy przewidywania są poprawne. Nie jest to proste, ponieważ nigdy się nie dowiemy, czy oskarżony pozostający w areszcie aż do czasu rozprawy uciekłby lub popełnił jakieś przestępstwo, gdyby zwolniono go za kaucją. Możemy jednak wyrobić sobie pewną opinię na temat trafności przewidywań sędziów. W tym celu powinniśmy przejrzeć archiwa i ustalić, którzy oskarżeni zwolnieni za kaucją nie stawili się na rozprawie lub popełnili przestępstwo podczas zwolnienia, a następnie sprawdzić, jak w tych przypadkach ocenia ryzyko sztuczna inteligencja. […]

Czytaj więcej

Dzieci Samuela Becketta

Kto trafniej decyduje?

Z ustaleń nauk społecznych wynika, że osoby podejmujące decyzje, nawet jeśli mają najlepsze intencje i właściwe przygotowanie, działają często pod wpływem niewłaściwej informacji, którą błędnie uznają za ważną. Zatem nawet jeśli sędziowie trafniej od innych przewidują, kiedy może dojść do złamania warunków zwolnienia, nie powinno nas dziwić, że i oni często popełniali błędy.

Pytanie brzmi: czy sztuczna inteligencja może podejmować lepsze decyzje niż ludzie dzięki temu, że bierze pod uwagę o wiele więcej danych i robi to szybciej?

Wydaje się, że przynajmniej do pewnego stopnia odpowiedź na to pytanie brzmi: tak. Przedstawione wcześniej wyniki dotyczyły decyzji o zwolnieniu za kaucją podejmowanych tylko w Nowym Jorku, ale podobne prawidłowości wykryto po przeanalizowaniu postanowień przechowywanych w ogólnokrajowym zbiorze danych, które dotyczą 151 461 oskarżonych, aresztowanych w latach 1990–2009 w czterdziestu dużych miejskich okręgach administracyjnych na terenie całych Stanów Zjednoczonych. Z danych tych wynika, że gdyby decyzje o zwolnieniu za kaucją opierały się na rekomendacji sztucznej inteligencji, to można by zmniejszyć wskaźnik przestępczości o 19 procent (przy utrzymaniu wskaźnika zwolnień na stałym poziomie) lub zmniejszyć liczbę uwięzionych o 24 procent (nie zmniejszając wskaźnika przestępczości). Inne badania pokazały, że algorytmy oceniające ryzyko ponownego popełnienia przestępstwa po wyjściu z więzienia działają z równie dużą skutecznością. Wydaje się, że jest to dobra wiadomość.

Pamiętajmy jednak, że nigdy nie powinniśmy z góry zakładać, że sztuczna inteligencja będzie trafniej oceniała ryzyko niż ludzie, ponieważ nawet jeśli osiąga lepsze wyniki w jakimś kontekście, to wcale nie musi być prawdą, że będzie wydawała trafniejsze osądy w innych sytuacjach lub przy innej okazji, gdy znaczenia nabiorą jakieś nowe czynniki. Spore problemy mogą się też pojawić, jeśli ludzie zaczną ufać sztucznej inteligencji w większym stopniu, niż sugerują to osiągane przez nią wyniki. Mimo wszystko, gdyby się okazało, że efekty analiz innych zbiorów danych dotyczących okręgów administracyjnych o różnym charakterze są podobne do rezultatów omówionych tu badań, można by uznać, że sztuczna inteligencja jest w niektórych przypadkach użytecznym narzędziem, pozwalającym na trafniejsze decyzje o zwolnieniu za kaucją.

Fragment książki Jany Schaich Borg, Waltera Sinnotta-Armstronga i Vincenta Conitzera „Moralna AI. Czy bać się sztucznej inteligencji” w przekładzie Bogumiła Bienioka i Ewy L. Łokas, która ukazała się nakładem wydawnictwa Prószyński i S-ka

Śródtytuły pochodzą od redakcji

Brytyjscy uczniowie wybierający się na studia muszą zdawać egzaminy końcowe szkoły średniej na poziomie zaawansowanym i ich wynik w dużym stopniu decyduje o tym, na jakie uczelnie się dostaną. W 2020 roku na skutek restrykcji wprowadzonych podczas pandemii Covid-19 wielu uczniów nie mogło przystąpić do egzaminu osobiście, w związku z czym rząd brytyjski podjął decyzję, by zamiast tradycyjnych wyników egzaminu wykorzystać tym razem algorytm, który wyznaczy końcowe oceny uczniów. Przygotowany system komputerowy brał pod uwagę opinie nauczycieli, oceny osiągnięte na egzaminach próbnych i – co jest najistotniejsze z naszego punktu widzenia – wyniki egzaminów przeprowadzonych w danej szkole w poprzednich latach. Ten ostatni czynnik miał korygować zawyżanie ocen i pozwolić na standaryzację wyników w całym kraju. Jak się to skończyło? Ponad 40 procent uczniów otrzymało z egzaminu oceny niższe, niż spodziewali się ich nauczyciele, co wywołało powszechne oburzenie. Co gorsza, obniżenie ocen w większym stopniu dotknęło uczniów z mniej zamożnych okolic z uwagi na średnią ocen w ich szkole w minionych latach. Wielu uczniów nie dostało się na wymarzone uniwersytety, ponieważ ich oceny z egzaminu były niższe, niż się spodziewano. Według jednego z artykułów „zdolni uczniowie ze szkół, które w przeszłości osiągały słabe wyniki, spadali w rankingach czasami gwałtownie, ponieważ ich oceny zostały obniżone o dwa, trzy punkty z powodu wyników egzaminów przeprowadzonych w ich szkole w poprzednich latach, które nie miały z nimi nic wspólnego”.

Pozostało 85% artykułu
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi
Materiał Promocyjny
Zarządzenie flotą może być przyjemnością
Plus Minus
Przydałaby się czystka