Materiał powstał we współpracy ze Szkołą Główną Handlową
Zajmuje się pan sztuczną inteligencją w kontekście sprawiedliwości. Co to znaczy?
Ostatnio mamy wysyp regulacji w zakresie sztucznej inteligencji. Chcemy ją regulować, chcemy dojść do tego, żeby w jakiś sposób ją poskromić. Tutaj bardzo częstym motywem jest właśnie niedyskryminacja przez model analityczny, czyli AI.
Co to znaczy niedyskryminacja?
Może warto wskazać, że kiedyś proces odbywał się na poziomie człowieka. Człowiek podejmował decyzje - na przykład komu oferować dany produkt, czy dać danemu klientowi kredyt. Natomiast od dobrych 20-30 lat przesunęliśmy środek ciężkości na algorytmy. To one podejmują decyzje, czy wspierają nas w podejmowaniu decyzji często bazując na danych historycznych. Jeżeli w tych danych występują preferencje, niezrównoważenia, niezbilansowania, to model będzie to replikował. Jeżeli w tych funkcjach nie uwzględnimy aspektu społecznego, równościowego, etycznego np. zakazu dyskryminacji, to taki model po prostu będzie odzwierciedlał historyczne nawyki.