„Jestem tym, co jem” – brzmi popularne powiedzenie. Dokładnie tak jest ze sztuczną inteligencją. Jakie są algorytmy, zależy od tego, czym je nakarmiono. Na tym polegają „treningi” sztucznej inteligencji. Otrzymuje skomasowaną wiedzę w różnych dziedzinach, tworzoną przez dziesiątki lat przez ludzi o określonych poglądach. I uczy się nią posługiwać. Dlatego jest tylko odbiciem poglądów większości społeczeństwa.
AI karmią specjaliści IT, głównie mężczyźni, i to pokarmem w postaci wiedzy ogólnej od wieków zdominowanej przez mężczyzn i różne stereotypy. Na temat kobiet, osób czarnoskórych czy mniejszości seksualnych.
Uprzedzenia AI wobec kobiet
Potwierdza to opisane w poniedziałek w „Rzeczpospolitej” badanie Akademii Leona Koźmińskiego, która wzięła pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdziła, w jaki sposób przedstawiają one wizerunki osób w najbardziej prestiżowych zawodach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Powoduje to, że AI może utrwalać nierówności i segregację płciową w edukacji czy na ścieżce kariery zawodowej.
Czytaj więcej
Popularne generatory obrazów powielają i utrwalają szkodliwe stereotypy – alarmują naukowcy. To może prowadzić do nierówności i segregacji płciowej w edukacji oraz na ścieżce kariery zawodowej.
Kobiety to wierzchołek góry lodowej. Sztuczna inteligencja dyskryminuje osoby czarnoskóre, Latynosów czy mniejszości seksualne. Powiela stereotypy na ich temat. „Washington Post” zauważył w ubiegłym roku, że boty proszone o przedstawienie „osoby produktywnej” wyświetlają na ogół zdjęcia białych mężczyzn, gdy zaś mają wygenerować „osoby objęte opieką społeczną” – generują postaci o innych kolorach skóry.