Podobnie w rekrutacji. Czy algorytm może być seksistą, homofobem czy rasistą?
Mam taki cytat, którego ostatnio nadużywam: „technologia nie jest ani pozytywna, ani negatywna, a już na pewno nie jest neutralna". Pewne rozwiązania mogą odegrać fantastyczną rolę, ale wszystko zależy od tego, kto i w jakim celu z nich skorzysta. Można stworzyć algorytm sztucznej inteligencji, w którym będą zakodowane pewne wartości i przekonania osób, które go napisały.
Jakby chcieć w uproszczony sposób wytłumaczyć sztuczną inteligencję, to można stwierdzić, że jest ona średnią inteligencji wszystkich ludzi. Ona się uczy w oparciu o historyczne decyzje ludzi i wyciąga z nich uśrednione wnioski.
Wracając do cyfrowego wyłączenia. Jeśli mamy mieć do niego prawo, to musimy wyłączyć np. cyfrową identyfikację w metrze, która pozwala nas chronić na przykład przed zamachami terrorystycznymi. I tu już mamy klasyczny konflikt między prawem do prywatności a bezpieczeństwem.
Mam szereg dylematów, które za każdym razem są trudne do rozwiązania. Społeczny interes też potrafi być w pewnych elementach sprzeczny. Zanim jednak będziemy mogli podjąć decyzję o tym, czy dajemy policji prawo do rozpoznawania naszych twarzy, to chcielibyśmy przynajmniej wiedzieć, jakie dane są zbierane i jak działa dane rozwiązanie. Dobrze byłoby, gdyby naukowcy mogli zweryfikować, czy ten system naprawdę dobrze działa. Pułapką w długim okresie może być zbyt duże zaufanie do algorytmów, niepoparte niezależną weryfikacją. I przekonanie, że są one całkowicie obiektywne.
A potem okazuje się, że spada boeing 737 MAX, bo w oprogramowaniu były błędy.
Dodajmy do tego przykładu wypadek autonomicznego samochodu, czy krytykę Facebooka z ostatnich miesięcy i zaczynamy tracić zaufanie do technologii.?A utrata zaufania byłaby bardzo zła. Kiedyś może pojawić się ruch, który będzie chciał całkowicie skasować technologię z naszego życia.
Pytanie, czy ten ruch nie będzie potrzebował jakiejś technologii, by zaistnieć w debacie.
Są osoby, które twierdzą, że trzeba rozwiązać Unię Europejską, a chętnie korzystają z diet europarlamentu. Wszystko możemy sobie więc wyobrazić i wszystko może być wytłumaczalne. Kluczowe w tej układance jest zaufanie społeczne. Bez niego nie możemy rozwijać nowych technologii. To ono zdefiniuje, czy stworzymy w Polsce popyt na nowe rozwiązania. Siłą ich nie narzucimy. Zaufanie jest najważniejsze.
Tylko zaufanie do czego? Bo ja mogę zaufać państwu, a w tym samym czasie, za pomocą tych samych narzędzi, mogę być wykorzystany przez wielkie korporacje.
Zupełnie inaczej jest, gdy ufasz jakiemuś systemowi, bo został on zweryfikowany albo jakieś organizacje, naukowcy mieli dostęp do tego, jak on działa. Najlepiej, jak masz też zaufanie, jeśli masz możliwość odwołania się od pewnej decyzji i poproszenia o wytłumaczenie jej. Zaufanie potrzebuje transparentności. Problem polega na tym, że wiele osób korzysta dziś ze zautomatyzowanych systemów podejmowania decyzji, a nawet o tym nie wiedzą. Trudno, by ktoś w takiej sytuacji zastanawiał się nad zagrożeniami.
Mamy przykład żłobka z Wrocławia.
Prosty system wspierania decyzji o przydzielaniu miejsc w żłobku miał błąd. Urzędnicy nie potrafili wytłumaczyć rodzicom, dlaczego podjęto taką decyzję, a nie inną, bo algorytm należał do zewnętrznej firmy, która nie chciała ujawnić swoich narzędzi.
I to już jest świat z „Procesu" Kafki. Algorytm podejmuje decyzję, której nie rozumiesz i nie możesz się od niej odwołać.
Nadal nie wiemy, dlaczego pokazuje się nam coś na Facebooku. Mamy znajomych, których treści nie będą się nam pokazywać, bo algorytm uznał, że nie jest to dla nas ważne czy ciekawe. Oczywiście jest to tylko prywatna usługa, ale w dużym stopniu definiuje, jakie informacje do nas dotrą. Mamy instytucje prasowego sprostowania. Kiedyś, jak ktoś kupował regularnie jakąś gazetę, to była szansa, że to sprostowanie do niego dotrze. Dziś możemy umieścić je na stronie, ale nie ma pewności, że ktoś je zobaczy, np. w mediach społecznościowych.
W zasadzie to sprostowanie powinno pojawiać się tam, gdzie ten artykuł, co jest oczywiście bardzo mało prawdopodobne.
Technicznie jest to możliwe. Wszystko jest kwestią nacisku społecznego, tego, czy będziemy się tym zajmować. Pytanie, jak się tym zajmiemy, bo to nie jest dochodowe. Mamy szczęście, że żyjemy w Unii Europejskiej, która mocno się wzięła za te sprawy.
Jako kraj jesteśmy strasznie wobec takich zjawisk bezbronni. To w ogóle dziś mocny argument za Unią.
Szalenie ważny argument. Mamy szczęście, bo Unia stwierdziła, że żyjemy w świecie etycznej sztucznej inteligencji; etyka to jest to, co ją interesuje.
Stwierdziła i kombinuje, co nie zmienia sytuacji, że nie jest to wcale takie proste. Rząd USA pytał Facebooka o to, jak ma sobie poradzić z nim samym.
Obudziliśmy się z długiego snu. Jest taki suchar programistów, którzy zajmują się sztuczną inteligencją – większość prezentacji rewolucyjnych startupów polega na tym, że na pierwszym slajdzie jest hasło „problem", na drugim „sztuczna inteligencja", a na trzecim „brak problemu". Takie dość powszechne przekonanie, że sztuczna inteligencja rozwiąże każdy problem, a ona sama też je generuje.
Pytania senatorów (do Marka Zuckerberga – red.) to był apel rozpaczy. Zawołanie: niech Facebook przygotuje rozwiązania, które będą jego dotyczyć. Przyznanie się do tego, że nie bardzo wiemy, co tu się właściwie dzieje. Te zagrożenia nigdy nie były tajemnicą dla tych, którzy interesują się tematem, ale nikt nie chciał słuchać. Dziś mamy za mało prawników i w ogóle ludzi, którzy się tym zajmują.
A jak miałoby ich pozyskać państwo, skoro sektor prywatny zawsze zaproponuje im więcej?
Pamiętajmy, że to nie są ludzie, którzy przyszli do firmy, która robi nieetyczne rzeczy. Im również zależy, by robić coś użytecznego, żeby ich praca miała sens. Wśród pracowników Facebooka jest bardzo duża dyskusja, czy to, co robią, jest etyczne i po prostu dobre. Wiemy już, że pracownicy Google'a odchodzą, by zaprotestować przeciw współpracy z chińskim rządem. Część tych osób nie zdawała sobie sprawy z konsekwencji tego, co robią, ale nic dziwnego – wszyscy to przecież dopiero zaczynamy odkrywać.
A potem Chiny nas wyprzedzają w tym wyścigu.
Inwestycje w sztuczną inteligencję w 2018 r. nieoczekiwanie spadły w Chinach o 30 proc. To był rok RODO. Przyczyn jest pewnie wiele – ale jedną z nich jest kwestia prywatności. Tamtejsze rozwiązania działają w prostym modelu biznesowym, ale przy nieograniczonym dostępie do danych, trudno więc je sprzedać za granicę. Nie tylko Unia, ale też Stany coraz mocniej chronią dane osobowe. Niektóre tamtejsze miasta przecież zakazały rozpoznawania twarzy z kamer przemysłowych.
Ale Chińczycy muszą je sprzedawać za granicę, by wygrywać finansowo. Przy takim dostępie do danych maleją choćby koszty bezpieczeństwa wewnętrznego.
Harari pisał, że kluczowym aspektem w konflikcie między Wschodem a Zachodem w czasie zimnej wojny była efektywność przetwarzania informacji. Komunizm upadł, bo między innymi kontrola społeczeństwa była za droga.
A co wynika z raportu „AlgoPolska", który napisaliście w Klubie Jagiellońskim we współpracy z Centrum Cyfrowym?
Postulujemy między innymi tworzenie rejestrów takich systemów zautomatyzowanego podejmowania decyzji, które mają wpływ na nasze życie. Urzędnik czy pracownik firmy musi rozpatrywać argumenty za i przeciw, pokazać, w jakim celu ten system działa i co bierze pod uwagę. Nie chodzi bynajmniej o to, by potem ścigać tego urzędnika za wprowadzenie danego algorytmu, tylko żeby ktoś się zastanowił, na co stawia. Jak się potem wydarzy błąd, to wiemy, czy ktoś starał się zadbać o nasz interes. Sędziowie muszą tłumaczyć swoje wyroki i tak samo powinno być z algorytmami. Obecnie jesteśmy uzależnieni od nastrojów urzędników, a dzięki technologii mamy szansę, że otrzymamy naprawdę szczere wytłumaczenie. To wszystko można przenieść do strefy, która będzie wytłumaczalna.
Teraz możemy się przynajmniej z nimi pokłócić, jak nam podpadną. Z algorytmem trochę trudniej.
Niestety człowiek ma taką naturę, że jak podejmie jakąś decyzję, to potem znajduje sobie argumenty na rzecz tej decyzji. Wiadomo jednak, że jesteśmy ułomni. Słynne są badanie na ławnikach, którzy wydają łagodniejsze wyroki po lunchu, bo są najedzeni.
Algorytm przynajmniej nie bywa głodny. Nie ma też poglądów politycznych. Sporo mitów wokół tego narosło. Największy to zwycięstwo Trumpa. Hillary Clinton wydała – według Michała Kosińskiego – na tzw. mikrotargetowanie w internecie trzy razy więcej niż obecny prezydent USA.
A tak zwane ruskie trolle miały przekaz zarówno do zwolenników Clinton, jak i Trumpa, tylko ci drudzy chętniej wchodzili z nimi w interakcję.
Rosjanie kierowali przekaz do obydwu stron sporu, chcąc je wyprowadzić na ulice i doprowadzić do zamieszek. Ostatecznie atmosfera zagrożenia działała na korzyść Trumpa. Patrząc jednak, gdzie byliśmy w tej debacie o algorytmach trzy lata temu, a gdzie jesteśmy dziś, to mamy znaczący postęp.
Społeczna odpowiedzialność technologii i osób ich używających jest fundamentalną sprawą, która zdecyduje o tym, czy zasady, którymi kierują się nasze algorytmy, będą zasadami naszego społeczeństwa, czy też po prostu chińskiego czy amerykańskiego rządu, a my nie będziemy o tym wiedzieć.
Czy ocalimy republikę? Nawiązując do tytułu jednego z twoich tekstów.
Ocalimy. Jeśli zrozumiemy, że to się nie wydarzy samo z siebie. Nie możemy czekać, aż technologia to za nas załatwi. Jeśli nie będziemy mogli – my, obywatele – zajrzeć do środka i zapytać, czemu coś działa, to wpadniemy w spiralę błędów, które nas pogrążą.
—rozmawiał Piotr Witwicki, dziennikarz Polsatnews.pl
Bartosz Paszcza jest członkiem zarządu Klubu Jagiellońskiego, gdzie zajmuje się nowymi technologiami. Ukończył studia nad internetem na Uniwersytecie w Southampton. Współzałożyciel Fundacji Polonium, organizacji łączącej polskich naukowców za granicą