Bartosz Paszcza: Rosjanie chcieli doprowadzić do zamieszek

Społeczna odpowiedzialność technologii i osób ich używających jest fundamentalną sprawą, która zdecyduje o tym, czy zasady, którymi kierują się nasze algorytmy, będą zasadami naszego społeczeństwa, czy też po prostu chińskiego czy amerykańskiego rządu, a my nie będziemy o tym wiedzieć - mówi Bartosz Paszcza, Klub Jagielloński.

Publikacja: 20.12.2019 18:00

Bartosz Paszcza: Rosjanie chcieli doprowadzić do zamieszek

Foto: Fotorzepa, Darek Golik

Plus Minus: Żyjemy w kasynie?

Tak. Jeśli patrzymy na świat pod kątem używanych wobec nas metod. Stosowane są takie rozwiązania, które mają utrzymać nas jak najdłużej przed ekranem. Chodzi o to, byśmy za szybko nie wyszli z tego cyfrowego kasyna.

Ale tu chyba nie możemy przegrać? W końcu nie kładziemy na stół żadnych pieniędzy.

Jeszcze do niedawna wydawało się, że w ogóle nie możemy przegrać. Teraz to się zaczyna zmieniać. Zaczynamy zauważać, że ten telefon wyciągamy nieświadomie, patrzymy i chowamy do kieszeni, ale za chwilę nie pamiętamy, co na nim robiliśmy. Miałem taki moment, że w czasie mszy w kościele chciałem instynktownie sięgnąć po telefon. To odruch, dziejący się trochę poza moją świadomością.

Pierwsze pytanie, które zadałeś w tej kawiarni, dotyczyło hasła do wi-fi.

No właśnie! Lekkie uzależnienie. Wszędobylskość internetu to jest największa zmiana, która zaszła w ciągu ostatnich lat. Internet przestał być narzędziem, które odpalamy najczęściej w pracy czy domu. Dziś robimy to w tramwaju, metrze czy kawiarni.

Prawie wszyscy przy stolikach dookoła nas są wpatrzeni w telefony. To jest to smażenie mózgu?

Smażenie mózgu to trochę szersze pojęcie. Internet powstał jako technologiczne narzędzie do darmowej wymiany informacji. Zaczęto się zastanawiać, na czym można zarabiać, i wyszło, że na reklamach. Jeśli chcesz ich sprzedać jak najwięcej, to (oprócz profilowania) musisz utrzymać czytelnika jak najdłużej.

I te metody są skuteczne.

Stąd rosnąca, choć nadal niszowa, popularność takich ruchów jak cyfrowy detoks czy cyfrowy minimalizm. Trzeba się jakoś od tego oderwać.

Nie wystarczy zostawić telefon w szufladzie?

Pytanie, czy w twojej pracy możesz wyłączyć się na tydzień z internetu.

Nie.

A na urlopie?

Nie lubię.

No właśnie, po prostu tego nie robimy. Technologia może być użyta do bardzo słusznych celów i nie sądzę, by pozbycie się telefonu było receptą na ucieczkę. Ostatnia dekada była okresem, gdy technologia weszła w każdy zakątek naszego życia, i myślę, że ta kolejna będzie etapem normalizacji.

W swoim tekście o technorepublikanizmie nazwałeś to odpięciem technologicznych wrotek.

To może oznaczać momenty wyłączenia, ale przede wszystkim chodzi o tworzenie racjonalnej praktyki korzystania z technologii.

To trochę jak pytanie: na ile da się zapanować nad piciem wódki.

Nie zawsze się to będzie udawać. Ale żyjemy w momencie, gdy nam się to systemowo nie udaje. Rzeczywistość jest skonstruowana tak, że im więcej technologii, tym lepiej. Jeszcze parę lat temu na różnych debatach hasło, że technologia może przynieść negatywne efekty, było bardzo niszowe. Dziś właściwie jest to główny temat dyskusji.

Gdy w latach 90. mówił o tym Stanisław Lem uznawano to za zrzędzenie.

Było kilka osób, które przewidywały to zagrożenie.

Ty piszesz o kryptoanarchistach, którzy mieli jeszcze inne lęki.

Ich drogę można prześledzić od powstania Doliny Krzemowej i lat 80. Uważali, że człowiek jako jednostka musi funkcjonować niezależnie od państwa i korporacji. Dlatego sami stworzyli sobie bezpieczne kanały komunikacji czy możliwości anonimowego przelewania pieniędzy. Dzięki temu mamy dziś szyfrowanie maili, ale też kryptowaluty. Przewidzieli wiele zagrożeń, w które dziś wpadliśmy: sieć przestaje być wolną przestrzenią wymiany myśli, a staje się narzędziem globalnej ekonomii zdominowanej przez kilkudziesięciu dużych graczy i kilka państw.

Ale czy w dzisiejszym świecie jest w ogóle możliwa idea cyfrowego wyłączenia?

Czy możemy przeżyć życie, kompletnie nie będąc podłączonymi do technologii? Niestety nie. Chociażby z tego powodu, że nasze nowe dowody osobiste mają warstwę technologiczną. Pytanie, czy każdy element naszej relacji społecznej musimy przenosić na sferę cyfrową? Niekoniecznie. Na przykład: czy powinniśmy całkowicie zastąpić papierowy pieniądz plastikowym? Uważam, że nie.

Przed chwilą płaciłeś kartą.

Tak i to jest jak najbardziej OK – jestem zwolennikiem technologii. Ma ona do odegrania ważną rolę. Nie chodzi więc o to, by wycofać karty z użycia, tylko o to, byśmy mieli prawo zapłacić gotówką w każdym miejscu w Polsce. W Warszawie jest już kilka miejsc, gdzie nie można nią zapłacić.

W Chinach jest z tym poważny problem. Masz jedną aplikację, którą płacisz i za pomocą której się komunikujesz, a nad wszystkim, bardzo oficjalnie, kontrolę sprawuje państwo.

Powinniśmy projektować systemy pod sytuacje skrajne, gdy będzie rządził nami rząd, który będzie na przykład chciał prześladować wąską grupę etniczną czy choćby dziennikarzy. Może być wtedy tak, że ten dziennikarz nie będzie miał gdzie zjeść. Odebranie karty płatniczej, którą łatwiej śledzić, może być takim prześladowaniem. Śledzenie jej transakcji również może zostać użyte do ograniczenia naszej niezależności.

A co z prześladowaniem, które fundują nam same algorytmy? W Chinach ktoś nie dostaje kredytu, bo mu się często rozładowuje telefon. System uznaje, że takie osoby są mniej ogarnięte i mogą mieć potem życiowe problemy.

Decyzje kredytowe w Europie też są podejmowane w oparciu o algorytmy. Do niedawno też nie wiedzieliśmy, jakich danych do tego użyto i jakie czynniki były przy tym najważniejsze – to akurat właśnie się w Polsce zmienia i będzie można uzyskać taką informację.

Podobnie w rekrutacji. Czy algorytm może być seksistą, homofobem czy rasistą?

Mam taki cytat, którego ostatnio nadużywam: „technologia nie jest ani pozytywna, ani negatywna, a już na pewno nie jest neutralna". Pewne rozwiązania mogą odegrać fantastyczną rolę, ale wszystko zależy od tego, kto i w jakim celu z nich skorzysta. Można stworzyć algorytm sztucznej inteligencji, w którym będą zakodowane pewne wartości i przekonania osób, które go napisały.

Jakby chcieć w uproszczony sposób wytłumaczyć sztuczną inteligencję, to można stwierdzić, że jest ona średnią inteligencji wszystkich ludzi. Ona się uczy w oparciu o historyczne decyzje ludzi i wyciąga z nich uśrednione wnioski.

Wracając do cyfrowego wyłączenia. Jeśli mamy mieć do niego prawo, to musimy wyłączyć np. cyfrową identyfikację w metrze, która pozwala nas chronić na przykład przed zamachami terrorystycznymi. I tu już mamy klasyczny konflikt między prawem do prywatności a bezpieczeństwem.

Mam szereg dylematów, które za każdym razem są trudne do rozwiązania. Społeczny interes też potrafi być w pewnych elementach sprzeczny. Zanim jednak będziemy mogli podjąć decyzję o tym, czy dajemy policji prawo do rozpoznawania naszych twarzy, to chcielibyśmy przynajmniej wiedzieć, jakie dane są zbierane i jak działa dane rozwiązanie. Dobrze byłoby, gdyby naukowcy mogli zweryfikować, czy ten system naprawdę dobrze działa. Pułapką w długim okresie może być zbyt duże zaufanie do algorytmów, niepoparte niezależną weryfikacją. I przekonanie, że są one całkowicie obiektywne.

A potem okazuje się, że spada boeing 737 MAX, bo w oprogramowaniu były błędy.

Dodajmy do tego przykładu wypadek autonomicznego samochodu, czy krytykę Facebooka z ostatnich miesięcy i zaczynamy tracić zaufanie do technologii.?A utrata zaufania byłaby bardzo zła. Kiedyś może pojawić się ruch, który będzie chciał całkowicie skasować technologię z naszego życia.

Pytanie, czy ten ruch nie będzie potrzebował jakiejś technologii, by zaistnieć w debacie.

Są osoby, które twierdzą, że trzeba rozwiązać Unię Europejską, a chętnie korzystają z diet europarlamentu. Wszystko możemy sobie więc wyobrazić i wszystko może być wytłumaczalne. Kluczowe w tej układance jest zaufanie społeczne. Bez niego nie możemy rozwijać nowych technologii. To ono zdefiniuje, czy stworzymy w Polsce popyt na nowe rozwiązania. Siłą ich nie narzucimy. Zaufanie jest najważniejsze.

Tylko zaufanie do czego? Bo ja mogę zaufać państwu, a w tym samym czasie, za pomocą tych samych narzędzi, mogę być wykorzystany przez wielkie korporacje.

Zupełnie inaczej jest, gdy ufasz jakiemuś systemowi, bo został on zweryfikowany albo jakieś organizacje, naukowcy mieli dostęp do tego, jak on działa. Najlepiej, jak masz też zaufanie, jeśli masz możliwość odwołania się od pewnej decyzji i poproszenia o wytłumaczenie jej. Zaufanie potrzebuje transparentności. Problem polega na tym, że wiele osób korzysta dziś ze zautomatyzowanych systemów podejmowania decyzji, a nawet o tym nie wiedzą. Trudno, by ktoś w takiej sytuacji zastanawiał się nad zagrożeniami.

Mamy przykład żłobka z Wrocławia.

Prosty system wspierania decyzji o przydzielaniu miejsc w żłobku miał błąd. Urzędnicy nie potrafili wytłumaczyć rodzicom, dlaczego podjęto taką decyzję, a nie inną, bo algorytm należał do zewnętrznej firmy, która nie chciała ujawnić swoich narzędzi.

I to już jest świat z „Procesu" Kafki. Algorytm podejmuje decyzję, której nie rozumiesz i nie możesz się od niej odwołać.

Nadal nie wiemy, dlaczego pokazuje się nam coś na Facebooku. Mamy znajomych, których treści nie będą się nam pokazywać, bo algorytm uznał, że nie jest to dla nas ważne czy ciekawe. Oczywiście jest to tylko prywatna usługa, ale w dużym stopniu definiuje, jakie informacje do nas dotrą. Mamy instytucje prasowego sprostowania. Kiedyś, jak ktoś kupował regularnie jakąś gazetę, to była szansa, że to sprostowanie do niego dotrze. Dziś możemy umieścić je na stronie, ale nie ma pewności, że ktoś je zobaczy, np. w mediach społecznościowych.

W zasadzie to sprostowanie powinno pojawiać się tam, gdzie ten artykuł, co jest oczywiście bardzo mało prawdopodobne.

Technicznie jest to możliwe. Wszystko jest kwestią nacisku społecznego, tego, czy będziemy się tym zajmować. Pytanie, jak się tym zajmiemy, bo to nie jest dochodowe. Mamy szczęście, że żyjemy w Unii Europejskiej, która mocno się wzięła za te sprawy.

Jako kraj jesteśmy strasznie wobec takich zjawisk bezbronni. To w ogóle dziś mocny argument za Unią.

Szalenie ważny argument. Mamy szczęście, bo Unia stwierdziła, że żyjemy w świecie etycznej sztucznej inteligencji; etyka to jest to, co ją interesuje.

Stwierdziła i kombinuje, co nie zmienia sytuacji, że nie jest to wcale takie proste. Rząd USA pytał Facebooka o to, jak ma sobie poradzić z nim samym.

Obudziliśmy się z długiego snu. Jest taki suchar programistów, którzy zajmują się sztuczną inteligencją – większość prezentacji rewolucyjnych startupów polega na tym, że na pierwszym slajdzie jest hasło „problem", na drugim „sztuczna inteligencja", a na trzecim „brak problemu". Takie dość powszechne przekonanie, że sztuczna inteligencja rozwiąże każdy problem, a ona sama też je generuje.

Pytania senatorów (do Marka Zuckerberga – red.) to był apel rozpaczy. Zawołanie: niech Facebook przygotuje rozwiązania, które będą jego dotyczyć. Przyznanie się do tego, że nie bardzo wiemy, co tu się właściwie dzieje. Te zagrożenia nigdy nie były tajemnicą dla tych, którzy interesują się tematem, ale nikt nie chciał słuchać. Dziś mamy za mało prawników i w ogóle ludzi, którzy się tym zajmują.

A jak miałoby ich pozyskać państwo, skoro sektor prywatny zawsze zaproponuje im więcej?

Pamiętajmy, że to nie są ludzie, którzy przyszli do firmy, która robi nieetyczne rzeczy. Im również zależy, by robić coś użytecznego, żeby ich praca miała sens. Wśród pracowników Facebooka jest bardzo duża dyskusja, czy to, co robią, jest etyczne i po prostu dobre. Wiemy już, że pracownicy Google'a odchodzą, by zaprotestować przeciw współpracy z chińskim rządem. Część tych osób nie zdawała sobie sprawy z konsekwencji tego, co robią, ale nic dziwnego – wszyscy to przecież dopiero zaczynamy odkrywać.

A potem Chiny nas wyprzedzają w tym wyścigu.

Inwestycje w sztuczną inteligencję w 2018 r. nieoczekiwanie spadły w Chinach o 30 proc. To był rok RODO. Przyczyn jest pewnie wiele – ale jedną z nich jest kwestia prywatności. Tamtejsze rozwiązania działają w prostym modelu biznesowym, ale przy nieograniczonym dostępie do danych, trudno więc je sprzedać za granicę. Nie tylko Unia, ale też Stany coraz mocniej chronią dane osobowe. Niektóre tamtejsze miasta przecież zakazały rozpoznawania twarzy z kamer przemysłowych.

Ale Chińczycy muszą je sprzedawać za granicę, by wygrywać finansowo. Przy takim dostępie do danych maleją choćby koszty bezpieczeństwa wewnętrznego.

Harari pisał, że kluczowym aspektem w konflikcie między Wschodem a Zachodem w czasie zimnej wojny była efektywność przetwarzania informacji. Komunizm upadł, bo między innymi kontrola społeczeństwa była za droga.

A co wynika z raportu „AlgoPolska", który napisaliście w Klubie Jagiellońskim we współpracy z Centrum Cyfrowym?

Postulujemy między innymi tworzenie rejestrów takich systemów zautomatyzowanego podejmowania decyzji, które mają wpływ na nasze życie. Urzędnik czy pracownik firmy musi rozpatrywać argumenty za i przeciw, pokazać, w jakim celu ten system działa i co bierze pod uwagę. Nie chodzi bynajmniej o to, by potem ścigać tego urzędnika za wprowadzenie danego algorytmu, tylko żeby ktoś się zastanowił, na co stawia. Jak się potem wydarzy błąd, to wiemy, czy ktoś starał się zadbać o nasz interes. Sędziowie muszą tłumaczyć swoje wyroki i tak samo powinno być z algorytmami. Obecnie jesteśmy uzależnieni od nastrojów urzędników, a dzięki technologii mamy szansę, że otrzymamy naprawdę szczere wytłumaczenie. To wszystko można przenieść do strefy, która będzie wytłumaczalna.

Teraz możemy się przynajmniej z nimi pokłócić, jak nam podpadną. Z algorytmem trochę trudniej.

Niestety człowiek ma taką naturę, że jak podejmie jakąś decyzję, to potem znajduje sobie argumenty na rzecz tej decyzji. Wiadomo jednak, że jesteśmy ułomni. Słynne są badanie na ławnikach, którzy wydają łagodniejsze wyroki po lunchu, bo są najedzeni.

Algorytm przynajmniej nie bywa głodny. Nie ma też poglądów politycznych. Sporo mitów wokół tego narosło. Największy to zwycięstwo Trumpa. Hillary Clinton wydała – według Michała Kosińskiego – na tzw. mikrotargetowanie w internecie trzy razy więcej niż obecny prezydent USA.

A tak zwane ruskie trolle miały przekaz zarówno do zwolenników Clinton, jak i Trumpa, tylko ci drudzy chętniej wchodzili z nimi w interakcję.

Rosjanie kierowali przekaz do obydwu stron sporu, chcąc je wyprowadzić na ulice i doprowadzić do zamieszek. Ostatecznie atmosfera zagrożenia działała na korzyść Trumpa. Patrząc jednak, gdzie byliśmy w tej debacie o algorytmach trzy lata temu, a gdzie jesteśmy dziś, to mamy znaczący postęp.

Społeczna odpowiedzialność technologii i osób ich używających jest fundamentalną sprawą, która zdecyduje o tym, czy zasady, którymi kierują się nasze algorytmy, będą zasadami naszego społeczeństwa, czy też po prostu chińskiego czy amerykańskiego rządu, a my nie będziemy o tym wiedzieć.

Czy ocalimy republikę? Nawiązując do tytułu jednego z twoich tekstów.

Ocalimy. Jeśli zrozumiemy, że to się nie wydarzy samo z siebie. Nie możemy czekać, aż technologia to za nas załatwi. Jeśli nie będziemy mogli – my, obywatele – zajrzeć do środka i zapytać, czemu coś działa, to wpadniemy w spiralę błędów, które nas pogrążą. 

—rozmawiał Piotr Witwicki, dziennikarz Polsatnews.pl

Bartosz Paszcza jest członkiem zarządu Klubu Jagiellońskiego, gdzie zajmuje się nowymi technologiami. Ukończył studia nad internetem na Uniwersytecie w Southampton. Współzałożyciel Fundacji Polonium, organizacji łączącej polskich naukowców za granicą

Plus Minus: Żyjemy w kasynie?

Tak. Jeśli patrzymy na świat pod kątem używanych wobec nas metod. Stosowane są takie rozwiązania, które mają utrzymać nas jak najdłużej przed ekranem. Chodzi o to, byśmy za szybko nie wyszli z tego cyfrowego kasyna.

Pozostało 98% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi