AI musi być sprawiedliwa

Sztuczna inteligencja, algorytmy matematyczne, nie mogą dyskryminować nikogo. Ze względu na płeć, pochodzenie czy nawet adres zamieszkania. To wbrew pozorom wymaga dużo pracy, badamy to na naszej uczelni – mówi Daniel Kaszyński, AI Lab SGH.

Publikacja: 21.05.2024 12:00

Materiał powstał we współpracy ze Szkołą Główną Handlową

Zajmuje się pan sztuczną inteligencją w kontekście sprawiedliwości. Co to znaczy?

Ostatnio mamy wysyp regulacji w zakresie sztucznej inteligencji. Chcemy ją regulować, chcemy dojść do tego, żeby w jakiś sposób ją poskromić. Tutaj bardzo częstym motywem jest właśnie niedyskryminacja przez model analityczny, czyli AI.

Co to znaczy niedyskryminacja?

Może warto wskazać, że kiedyś proces odbywał się na poziomie człowieka. Człowiek podejmował decyzje - na przykład komu oferować dany produkt, czy dać danemu klientowi kredyt. Natomiast od dobrych 20-30 lat przesunęliśmy środek ciężkości na algorytmy. To one podejmują decyzje, czy wspierają nas w podejmowaniu decyzji często bazując na danych historycznych. Jeżeli w tych danych występują preferencje, niezrównoważenia, niezbilansowania, to model będzie to replikował. Jeżeli w tych funkcjach nie uwzględnimy aspektu społecznego, równościowego, etycznego np. zakazu dyskryminacji, to taki model po prostu będzie odzwierciedlał historyczne nawyki.

A jakiego typu to może być dyskryminacja?

Krótki przykład. Mamy bank, który udziela kredytów. Po pewnym czasie możemy zmierzyć, ilu kredytów bank udzielił mężczyznom i ilu - kobietom. Jeżeli tutaj wyjdzie dysproporcja, to już jest jeden z aspektów dyskryminacji. Powiedzielibyśmy, że to dyskryminacja pośrednia. Dlatego, że nawet jeżeli sama procedura była identyczna dla mężczyzn i dla kobiet, to model jednak miał swoje preferencje. Z kolei o dyskryminacji bezpośredniej mówimy wtedy gdy model nawet równo rozdziela kredyty, ale prawidłowo działa tylko w stosunku do mężczyzn, natomiast kobiety dobiera bardziej losowo, żeby mniej więcej zgadzał się bilans płci.

Tych cech, tak zwanych cech prawnie chronionych, sensytywnych, jest wiele.

Ale jak zidentyfikować działanie dyskryminujące? Przecież dane banków i innych firm są tajne.

Akurat sektor bankowy jest chyba jednym z najbardziej nadzorowanych sektorów, jeżeli chodzi o gospodarkę. Ale zgadzam się, że uzyskanie danych z innych sektorów może być trudne. Co więcej, gdy w modelach chcemy uwzględniać respekty społeczne to takie modele na pewno nie będą lepsze niż te pozbawione oddziaływania. Model nieograniczony będzie modelem lepszym, jeżeli chodzi o jakość.

W sytuacji bankowej jest to rzecz, która przekłada się na zysk. Musimy poświęcić pewną część zysku. W dodatku istnieją obszary w naszym życiu społecznym, w których tej jakości modeli nie można obniżać. To na przykład medycyna.

A co się dzieje w sytuacji gdy jednak zostały zidentyfikowane te niepożądane elementy dotyczące dyskryminacji? Co dalej?

Odpowiedź na to pytanie ma dwie warstwy. Pierwsza – formalna. Trzeba dyskryminację wykazać. To, że coś zidentyfikujemy nie oznacza jeszcze, że dana instytucja zrobiła to świadomie.

Natomiast druga warstwa jest warstwą operacyjną. Tutaj mamy wiele sposobów oddziaływania. Można wymienić przynajmniej trzy kategorie podejść do redukcji problemu stronniczości algorytmicznej, bo tak naprawdę nazywa się problem, o którym mówimy.

Można po pierwsze oddziaływać wyłącznie na dane, na których jest uczony model. Czyli można w odpowiedni sposób stroić te dane przed procesem uczenia takiego modelu. Drugi sposób to kwestia oddziaływania na sposób trenowania takiego modelu pod kątem redukcji stronniczości algorytmicznej do potencjalnie najmniejszej możliwej. A w trzecim kroku, jeżeli nie chcemy oddziaływać na dane i nie chcemy zmieniać sposobu uczenia tego modelu, możemy zawsze oddziaływać na tak zwane prognozy z modelu. Wyniki pracy modelu przechodzą przez sito odpowiednich decyzji ludzkich i w tym miejscu można również jeszcze dokonywać pewnych zmian.

Jak rozumiem państwa zainteresowania naukowe będą się rozwijać w tym kierunku?

Chcemy zrozumieć, w jaki sposób występowanie problemu stronniczości algorytmicznej oraz w jaki sposób redukcja tego problemu w kontekście biznesowym wpływa na przykład na jakość modeli. Oraz ile to będzie kosztowało na przykład banki albo inne instytucje.

Materiał powstał we współpracy ze Szkołą Główną Handlową

Materiał powstał we współpracy ze Szkołą Główną Handlową

Zajmuje się pan sztuczną inteligencją w kontekście sprawiedliwości. Co to znaczy?

Pozostało 97% artykułu
Materiał partnera
Władzę nad światem ma pokolenie Z
Materiał partnera
Chcemy, by nasze produkty były szeroko dostępne
Impact
W sprawach klimatu potrzebne polityczne przywództwo
Impact
Technologiczne wyzwania dla biznesu
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Materiał partnera
Czekamy na nowe inwestycje produkcyjne