Kto właściwie powinien odpowiadać za monitorowanie wskaźników wykonalności (KPI) dla odpowiedzialnej (responsible) i godnej zaufania (trustworthy) sztucznej inteligencji? Sama odpowiedzialność za postępowanie organizacji (czy raczej jej pracowników) spoczywa na zarządzie, ale przecież operacyjnie ktoś musi zapewnić monitoring (także w zakresie jakości) i podejmować działania (corrective actions), które przywrócą stan pożądany. O tym „porozmawiamy” innym razem, dzisiaj natomiast zostanie poruszona tematyka wskaźników (KPI) „wykonalności” dla ResponsibleAI – koncepcji tzw. odpowiedzialnej sztucznej inteligencji.
Czy da się mierzyć poprawę dobrostanu
Znaczenie wskaźników etycznej AI jest ogromne, nawet jeżeli dzisiaj nie zdajemy sobie jeszcze z tego sprawy. Wyzwanie, przed którym stoimy w tym zakresie, to przełożenie, na pierwszy rzut oka, bardzo abstrakcyjnych oczekiwań na konkretne wymagania o charakterze organizacyjnym i technicznym.
Czytaj więcej
Do tworzenia i rozwijania systemów AI należy podejść odpowiedzialnie. Warto uwzględnić perspektywę ISO 42001:2023 i dobre praktyki.
Zapytajcie inżyniera oprogramowania czy specjalistę od danych, jak mierzy zasadę „przyczyniania się do poprawy dobrostanu społecznego i środowiskowego” albo odpowiedzialności i rozliczalności czy nawet przejrzystości. Pewnie jest jakieś prawdopodobieństwo, że pokaże, jak podchodzi do kwestii uczciwości (fairness) czy wskaźników wyjaśnialności, ale raczej będzie to coś, co wykorzystuje na własne potrzeby, a nie ze względu na politykę organizacji.
Przeszkoda czy budowanie zaufania
Często wskaźniki w zakresie #responsibleai, o ile w ogóle są ustanowione na poziomie organizacji, to traktowane są raczej jako przeszkoda dla rozwijania rozwiązań i bloker biznesu niż coś, co realnie zwiększa wartość poprzez budowanie zaufania użytkowników (klientów) do nas samych. Tymczasem w kontekście sztucznej inteligencji stworzenie „ekosystemu” pod tym kątem może się w dłuższej perspektywie przyczynić do „odróżnienia” się organizacji od konkurencji oraz do rozwoju modeli biznesowych. Pamiętajmy przy tym, że etyka #ai, choć w wielu miejscach przenikająca się, nie jest tym samym co zapewnienie zgodności z przepisami, bo w końcu to, że przepisy pozwalają, nie oznacza, że trzeba (i warto).