Christopher Wylie: Dlaczego zdemaskowałem Cambridge Analytica

Prywatność to narzędzie, które wykorzystujemy każdego dnia, by budować swoją osobowość. Jesteś inną osobą, kiedy rozmawiasz z kolegami z pracy, a inną, kiedy rozmawiasz z rodziną. Jak możemy rozwijać się jako ludzie w środowisku, które decyduje za nas, kim jesteśmy i kim będziemy? Do tego właśnie prowadzą stosowane w sieci algorytmy – mówi Michałowi Szułdrzyńskiemu Christopher Wylie, były dyrektor ds. badań w firmie Cambridge Analytica, który ujawnił jej nadużycia.

Publikacja: 16.10.2020 10:00

Christopher Wylie: Dlaczego zdemaskowałem Cambridge Analytica

Foto: materiały prasowe

Plus Minus: Na czym w skrócie polegała afera z Cambridge Analytica (CA)?

Myślę, że był to pierwszy na świecie przykład powszechnego użycia propagandy opartej na algorytmie. Pierwszy raz w historii informacje psychologiczne o internautach i ich aktywności w sieci posłużyły do wpływania na światowe potęgi. W tym przypadku na amerykańskie wybory prezydenckie z 2016 r.

Kiedy zdał pan sobie sprawę, że to właśnie dane są kluczem do wpływania na politykę?

Najpierw pracowałem w firmie Strategic Communication Laboratories Group (SCL Group), która później współtworzyła CA. Jednym ze zleceniodawców SCL była brytyjska armia. Moim zadaniem było badanie w sieci działań grup ekstremistycznych. Dotyczyło to głównie śledzenia aktywności internetowej młodych mężczyzn, którzy nie założyli rodziny, ale jednocześnie wpływali na swoich znajomych, bo to oni byli potencjalnym zagrożeniem dla bezpieczeństwa państwa. Monitorowałem też to, w jaki sposób konkretna informacja roznosi się wśród danej grupy i jaki jest typowy profil osoby, która jest najbardziej skłonna do przekazywania jej dalej. Miałem też znaleźć odpowiedź na pytanie, czy możliwe jest zarządzanie taką informacją.

Działo się to w czasie, kiedy tzw. Państwo Islamskie było u szczytu swoich możliwości. ISIS wykorzystywało internet do rekrutowania członków, planowania spotkań – właściwie cała ich organizacja odbywała się online. Tradycyjne metody obrony przed zagrożeniem terrorystycznym nie były już więc wystarczające. Generałowie myśleli o pociskach, okrętach, uzbrojonych po zęby żołnierzach, ale w dzisiejszym świecie takie metody niekoniecznie zdają egzamin. Jest cała masa rzeczy, dzięki którym możemy uzyskać dostęp do informacji o ludziach, którzy mogą stwarzać zagrożenie.

Pewnego dnia szef naszej firmy Alexander Nix spotkał się z późniejszym doradcą prezydenta USA Steve'em Bannonem, który chciał dołączyć do naszego zespołu. To właśnie Steve wpadł na pomysł wykupienia firmy przez Roberta Mercera – nowojorskiego miliardera, prezesa Renaissance Technologies, czyli najbardziej dochodowego funduszu inwestycyjnego. I wtedy wszystko się zmieniło. Wcześniej tłumaczyłem sobie, że moje badania są elementem obrony kraju, wpływają na bezpieczeństwo ludzi, nawet jeśli wchodzą w ich prywatność. Ale wystarczyło, że firma została wykupiona, by zniszczyć tę zasadę. Powstało Cambridge Analytica i te same mechanizmy – czyli śledzenie aktywności w sieci młodych mężczyzn, którzy nie założyli rodziny i mieli tendencję do wpływania na innych – zostało wykorzystane w USA.

W jakim celu?

Wiele mechanizmów, które wypracowaliśmy, nie było stworzonych po to, by wpływać na demokrację innych krajów. Pierwotnie powodem była obrona kraju oraz zwalczanie grup terrorystycznych. A kiedy pracujesz po to, by zapewnić bezpieczeństwo ludzi, i kiedy jesteś przekonany, że są to działania skierowane przeciwko terrorystom, to nie masz oporu przed stosowaniem manipulacji, oszustw, gróźb... Potencjalnym celem jest rekruter ISIS, możesz więc robić właściwie wszystko, co jest konieczne i mieści się w kategorii informacji, która może zapewnić bezpieczeństwo. Jednak w demokratycznym ustroju, kiedy tylko zaczniesz manipulować i oszukiwać ludzi, to oni nie będą w stanie w pełni podejmować własnych decyzji jako wyborcy.

Pytał mnie pan o to, kiedy zdałem sobie sprawę, jaki jest mój wpływ na wybory. Myślę, że to było właśnie wtedy, gdy firma została wykupiona i zaczęliśmy pracę nad „targetowaniem" Amerykanów. I nawet nie chodziło o same wybory, i o to, by wygrał Donald Trump, ale po prostu o to, by zradykalizować amerykańskie społeczeństwo. To jest niezwykle ważna sprawa, której wciąż nie jesteśmy do końca świadomi zarówno w USA, jak i w Europie. To jest problematyczne nie tylko w sytuacji, gdy patrzymy na ruchy polityczne, ale też w przypadku grup społecznych, które stają się coraz radykalniejsze czy nawet ekstremistyczne, a wszystko to napędzane jest aktywnością w sieci. Dopóki nie zdamy sobie z tego sprawy, nie będzie możliwe rozwiązanie problemu.

Ale czy CA była potrzebna, by radykalizować nasze społeczeństwa? Tristan Harris, były informatyk Google'a, mówił ostatnio, że aż 64 proc. ludzi przyłącza się do radykalnych grup na Facebooku (FB) nie dlatego, że tego chcą, ale dlatego, że zostały im zarekomendowane przez samego FB. Może wystarczą same media społecznościowe, byśmy się radykalizowali?

Cambridge Analytica działała tylko i wyłącznie dzięki algorytmom FB. To jest pierwsza rzecz, którą tłumaczę ludziom. Algorytmy FB są w całości połączone z mechanizmami, które najmocniej nas angażują w sieci. Ludzie, ewoluując, uczyli się zwracać uwagę na zagrożenia. Od tysiącleci to właśnie ten mechanizm pomaga nam przetrwać nawet w najbardziej niesprzyjających warunkach. Wyobraźmy sobie jaskiniowca, który widział przed sobą trupa i piękny wschód słońca. Ten wschód słońca może i był ujmujący, ale i tak nasz jaskiniowiec nie mógł odwrócić wzroku od trupa. Bo jeśli ktoś zabił tego człowieka, to jaskiniowiec ma świadomość, że może zabić także i jego. Ludzie są po prostu stworzeni w taki sposób, by zwracać uwagę na zagrożenia albo rzeczy, które ich niepokoją.

To dlatego rzeczy ekstremalne i budzące nasz niepokój będą na celowniku takich firm jak Facebook. Celem algorytmów jest po prostu to, aby zebrać na jak największą liczbę kliknięć i zmusić ludzi do ciągłego odświeżania stron, aby pokazać im nowe reklamy. Ekstremalnie niepokojące strony będą generowały największe zaangażowanie nie tylko po to, by zdobyć jednorazowe kliknięcia, ale po to, by stworzyć długotrwałe zaangażowanie i żeby na tę witrynę wracać.

I tu pojawia się problem: tworzymy sztuczną inteligencję, która wpływa na dane grupy, ale wcale nie myślimy o tym, jakie skutki może to przynieść dla społeczeństwa. To dlatego radykalizowanie się grup na Facebooku jest tak silne, bo ta platforma nie jest zaniepokojona tym, jakie mogą być negatywne skutki jej działalności. Nawet jeśli algorytmy Facebooka pomagały np. ISIS, by rekrutować nowych członków.

Brytyjskie władze oskarżały YouTube'a o to, że pomaga radykalizować młodych ludzi.

Oczywiście. Mówimy teraz o Facebooku, ale wiele platform internetowych takich jak YouTube, Twitter, Instagram itp. ma z tym problem. Mówię o tym w kategorii problemu, bo niewielu ludzi jest zaniepokojonych tym, że każdy ich ruch w sieci może być wykorzystany do tworzenia algorytmów.

Kiedy spojrzymy na każdą inną technologię przemysłową – bez znaczenia, czy jest to przemysł lotniczy, kosmiczny, energetyczny, farmaceutyczny czy jakikolwiek inny – zanim jakikolwiek produkt oferowany przez firmy działające w danym sektorze zostanie wypuszczony na rynek, musi przejść testy bezpieczeństwa. A tutaj nie istnieją żadne regulacje, które czuwałyby nad bezpieczeństwem oprogramowań. Panuje takie przeświadczenie, że internet powinien być wolny od wszelkich ograniczeń, zasad czy wpływów zewnętrznych. Ja jednak nie jestem przekonany, że wszystkie chwyty w tej grze są dozwolone. A z czasem oprogramowanie Facebooka stało się ważniejsze od ludzi, którzy tworzą tę społeczność. To jest takie niepisane prawo do krzywdzenia ludzi po to, by ulepszyć swoją technologię. Sprawa Facebooka i Birmy (Myanmaru) z 2018 r. jest najlepszym przykładem tego, jak platforma została wykorzystana jako narzędzie szerzenia mowy nienawiści przeciwko mniejszości etnicznej.

Opisano to w raporcie ONZ z 2018 r. Chodziło o ludobójstwo Rohindżów – birmańskiej mniejszości muzułmańskiej zamieszkującej zachodnią część kraju.

Nie było żadnej kary dla Facebooka za to, że doprowadził do tej zbrodni. A dlaczego? Bo nie ma prawa, które by to regulowało, więc formalnie Facebook prawa nie złamał. Nie ma żadnych zasad, więc można tworzyć mechanizmy, które stają się narzędziami napędzającymi etniczną nienawiść. Nie ma żadnych zasad, więc firmy nie czują się w obowiązku, by coś zmienić. Co więcej, nie ma żadnej presji globalnej, która nakłaniałaby te firmy do większej odpowiedzialności za swoje działania.

Jestem programistą i nie chcę, żeby moje wynalazki krzywdziły ludzi. I myślę, że większość ludzi, którzy tworzą oprogramowanie, nie chce krzywdzić innych. Jeśli jesteś np. architektem i projektujesz budynki, to jedną z rzeczy, które musisz sobie wyobrazić, jest pożar. Musisz zadać sobie pytanie, co się stanie, jeśli ten budynek stanie w płomieniach? Jakie mechanizmy powinny zadziałać, żeby ludzie mogli uciec z tego budynku? Z jakiego materiału należy skorzystać? Przygotowujesz się na taką ewentualność. I część architektów rzeczywiście o tym myśli, ale pozostali czekają na rozwiązania prawne, które np. zakażą im pewnych czynności. Część pokazuje swoje plany władzom publicznym, które chcą je przejrzeć i sprawdzić pod kątem zapewnienia ludziom bezpieczeństwa.

W sieci taka odpowiedzialność nie istnieje?

Przemysł informatyczny związany z tworzeniem nowego oprogramowania jest jedynym na świecie, który nie podlega takim regulacjom – nie ma żadnej władzy, która nadzorowałaby ich pracę. Ten, kto tworzy algorytmy, stoi właściwie ponad prawem, nawet jeśli doprowadza do krzywdy wielu ludzi.

Myślę, że firmy informatyczne wcale nie mają zamiaru wycofywać się ze stosowania takich rozwiązań. Tym bardziej że nikt im tego nie zabrania. Cambridge Analytica to tylko wierzchołek góry lodowej. Bo my właściwie byliśmy małą firmą na globalnym rynku – na świecie jest wiele krajów, wiele z nich może nawet w tym momencie korzystać z takich rozwiązań. A my jako użytkownicy sieci możemy tylko ufać, że firmy takie jak Google czy Facebook będą działać w dobrej wierze i nie będą wpływać na procesy demokratyczne w USA, Polsce czy gdziekolwiek indziej.

Jak dokładnie działała Cambridge Analytica?

Wielu ludzi nie rozumie roli psychometrii w tych procesach. Rola profilowania psychologicznego bazującego na algorytmach sieciowych została odkryta jeszcze przed Cambridge Analytica. Początkowo wynikała z chęci zrozumienia, kto i dlaczego ma skłonność do radykalizowania się i w jaki sposób wpływa to na resztę społeczeństwa. Było to połączenie profilowania demograficznego, gdzie zwracano uwagę na wiek, płeć czy powiązania rodzinne, oraz profilowania psychologicznego, gdzie celem było wyłowienie osobowości paranoicznych, neurotycznych, skłonnych wpadać w stany lękowe. Jak się okazało, te cechy miały statystycznie istotne odzwierciedlenie w tym, jak ludzie angażują się w media społecznościowe.

Pytanie było, jak znaleźć takie osoby pośród miliardów użytkowników sieci? Żeby to uprościć, posłużę się przykładem. Jeśli idziesz na pierwszą randkę i chcesz dowiedzieć się o drugiej osobie czegoś więcej, najzwyczajniej w świecie pytasz o wszystkie interesujące cię kwestie. To pozwala ci zdobyć bardziej dokładny opis tej osoby, którą będziesz mógł sprofilować do własnych oczekiwań. Zadajesz zatem pytania, jakiej słucha muzyki, jakie programy telewizyjne lubi, jak spędza wolne weekendy itd. W sieci te wszystkie informacje o nas już są – algorytm obserwuje każdego użytkownika platformy, analizuje jego kliknięcia, reakcje, treści zamieszczone na tablicy lub podane dalej.

Tak odbywa się profilowanie użytkownika.

Celem Cambridge Analytica było wyszukiwanie osób znajdujących się niejako na marginesie społeczeństwa, które charakteryzowały się wiarą w teorie spiskowe, były neurotyczne, łatwo wpadały w gniew. To niewielka grupa – stanowi 1–2 proc. populacji. Kiedy już udało się je znaleźć, następowało „targetowanie" treści. Pokazywano tym ludziom reklamy albo zachęcano ich, by dołączały do proponowanych grup. Kiedy już udało się zgromadzić pewną liczbę użytkowników, zaczynała się dyskusja – czyli np. przekazywanie wiadomości czy linków, które niekoniecznie pochodziły od faktycznie istniejących ludzi, a częściej od botów. To był etap budowania zaufania do treści zamieszczanych w tej grupie. Później można było stosować już powszechnie znane mechanizmy manipulacji, często oparte na stereotypach. Podawano np. informację w stylu „Czy wiesz, że Obama chce ci zabrać broń?", „Nie wierzysz, obejrzyj ten film!", „To przez nich nie możesz znaleźć pracy" itd. Były to głównie treści trafiające do młodych mężczyzn, które nie miały wiele wspólnego z prawdą. Ale były za to łatwe w odbiorze i szybko rozprzestrzeniały się w tej grupie. Tradycyjne przekazy medialne okazywały się w tej walce słabsze, bo przecież wszystkie media mają z góry narzuconą narrację. Tylko w sieci, w mojej grupie na Facebooku potrafię znaleźć zrozumienie.

Wrócę na chwilę do ekstremizmów, bo kiedy spojrzymy na dynamikę radykalizowania się ludzi, to widać, że ważnym elementem tego procesu jest odsuwanie ich od wiarygodnych źródeł informacji. W przypadku ISIS rekruterzy zachęcali nowych członków, by przestali słuchać rodziców, krewnych i przyjaciół, którzy mieli ich tłamsić, nie dopuszczać do prawdy.

To chyba dotyczyło nie tylko ISIS. Celem każdej dezinformacji jest obniżanie zaufania do instytucji, mediów, rządu.

To rzecz fundamentalna dla ekstremistycznych grup. Po pierwsze, rekruterzy próbują podkopać zaufanie do wszelkich innych źródeł informacji niż ich własne. Dzięki temu mogą zarażać swoich ludzi danym schematem myślenia i sprawić, że odrzucą oni wiarygodne źródła informacji. Po drugie, towarzyszy temu przesuwanie granicy od „myślę, że" do „jestem jednym z nich". W ten sposób zmieniana jest osobowość człowieka, który porzuca swoje przekonania i tożsamość, a zaczyna identyfikować się wyłącznie z grupą. Kiedy do tego dochodzi, zaczyna się powoli zatracać wewnętrzna tożsamość człowieka. A im bardziej podawane są w wątpliwość przekonania takiego człowieka i kwestionuje się jego grupę, to tym bardziej zamyka się on w narzucanych mu poglądach, bo zrozumienie znajduje już tylko i wyłącznie w sieci.

To wzór, który istnieje w grupach ekstremistycznych czy sektach. Cały ten proces został tak obmyślony, aby uniemożliwić wyciąganie członków grupy poza jej krąg. To był też jeden z fundamentów, na którym opierała się kampania Donalda Trumpa w 2016 r.

Kiedy zdałem sobie sprawę z tego, co się dzieje i do czego doprowadziła Cambridge Analytica, miałem poczucie, że to nie jest legalne ani etyczne. Wtedy zdecydowałem się na upublicznienie raportu o działalności firmy.

Jak to się stało, że ktoś taki jak pan, człowiek o liberalnych poglądach, pomagał w tworzeniu takiego narzędzia do kreowania kampanii skrajnej amerykańskiej prawicy?

W 2013 r. firma chciała po prostu prowadzić badania w Stanach Zjednoczonych. I kiedy doszło do przejęcia jej przez Mercera, dostaliśmy miliony dolarów na naszą działalność. Z relatywnie małej, nieznanej firmy z Londynu staliśmy się ogromnym przedsiębiorstwem, które zaczęło zatrudniać rzesze ludzi. Wszystko działo się tak szybko. Pamiętam taką scenę, kiedy zaproszono do firmy grupę ludzi, na których miały być prowadzone badania fokusowe. Byli w niej Amerykanie, których wyłowiono na podstawie ich radykalnych poglądów, którymi chętnie dzielili się w sieci. Pamiętam ich gniew i to, jak zaczęli przekrzykiwać się na temat teorii spiskowych. Wszystko zostało udokumentowane. A oni nawet nie zdawali sobie sprawy, że uczestniczą w eksperymencie, który później zostanie wykorzystany w wyborach. Dysponowaliśmy dokładnymi opisami tego, jak ludzie reagują na daną informację i co budzi ich największe emocje.

By potem wykorzystać te informacje np. w reklamach albo żeby radykalizować jeszcze więcej ludzi?

Takie były intencje. Firma, którą tworzyliśmy wcześniej, czyli SCL Group, nie była już tą samą firmą, kiedy przemianowano nas na Cambridge Analytica. Na dodatek nie znaliśmy większości pracowników. Byli wśród nich ludzie, którzy wcześniej pracowali na potrzeby Rosji w Europie Wschodniej, np. na Ukrainie. Zatrudnialiśmy też ogromną liczbę psychologów. Wszyscy ci dziwni ludzie zaczęli kręcić się po firmie, a wszystkie te zmiany rozgrywały się na przestrzeni zaledwie kilku miesięcy. Innymi słowy, firma pracująca dla brytyjskiej armii została wykupiona i chwilę później spotykaliśmy w biurze osobę, która jeszcze niedawno wpływała na wybory na Ukrainie. Wtedy właśnie zrozumiałem, że nie chcę już brać w tym udziału. Oczywiście byłem naiwny, sądząc, że moja decyzja przejdzie bez echa. Pierwszą rzeczą, którą od nich usłyszałem, było to, że mnie pozwą.

Kiedyś pracowałem dla ludzi, którzy tworzyli kampanię Baracka Obamy, opowiedziałem im więc, czym zajmuje się ta firma i do czego może to doprowadzić. Nikt się tym nie przejął i odpowiedzieli, że niestety ten świat jest popaprany. Kiedy Donald Trump wygrał nominację Partii Republikańskiej, reakcje były podobne. Doradcy w Białym Domu, z którymi rozmawiałem, powtarzali, że Hillary Clinton wygra te wybory i nie ma się czego obawiać. Przecież wszyscy wiedzą, że Donald Trump jest podejrzanym biznesmenem, dla którego pracują typy spod ciemnej gwiazdy z całego świata. Hillary Clinton wygra, więc nie chcemy wpływać na wybory informacją o Cambridge Analytica – mówili.

W tamtym momencie pomyślałem sobie: „Dobrze, pewnie wiecie lepiej ode mnie, co należy robić". Wszyscy wiemy, jak sprawy potoczyły się dalej. Trump został wybrany na prezydenta, ludzie zaczęli dostrzegać, że istnieje wiele zagrożeń, które przestają być już tylko teoretyczne.

Kiedy mówimy o potencjalnym radykalizowaniu się społeczeństwa, Amerykanie czy Brytyjczycy odpowiadają, że u nich się to nie wydarzy, że takie manipulacje mogą dotyczyć innych krajów, ale nie ich.

A przecież oni są tylko ludźmi – takimi samymi jak w Afryce, Azji czy w Europie. Jednym z powodów, dla których napisałem swoją książkę, było to, że przeżyłem swego rodzaju podróż, w trakcie której wiele się nauczyłem o problemach, które pociągają za sobą technologie, i o lukach prawnych. To wszystko, o czym rozmawiamy, wydarzyło się tylko dlatego, że nie było żadnych zasad, które by tego zabraniały. A jeśli wciąż nie ma żadnej władzy, żadnych inspekcji czy regulacji, to jestem pewien, że będzie się to powtarzało. Prawdopodobnie będzie nawet jeszcze gorzej, dopóki nie ustanowimy adekwatnego prawa.

W trakcie dochodzenia w sprawie Cambridge Analytica okazało się, że w świetle prawa właściwie nic złego się nie stało. Bo jaki konkretnie przepis został złamany? Nikt nawet nie pomyślał, że coś takiego może się wydarzyć, więc nie stworzono żadnych procedur prawnych, które mogłyby być zastosowane. Kolejnym problemem było to, które prawo miałoby tutaj zastosowanie (oczywiście jeśliby istniało) – amerykańskie, brytyjskie? Prawo zakłada, że jeśli popełnię zbrodnię, np. zastrzelę kogoś w Wielkiej Brytanii, to będę osądzony zgodnie z brytyjskim prawem. Ale co będzie, jeśli działanie przestępcze dokonało się w sieci? Mamy sprawdzać, gdzie umieszczone były serwery firmy? Przecież one są rozsiane po całym świecie. Gdzie są zatem dane? Są wszędzie i nigdzie. Gdzie w takim razie zapadały decyzje? Część z nich w Wielkiej Brytanii, część w Europie Wschodniej, część w Ameryce.

Nagle okazało się, iż to jest na tyle skomplikowane, że nawet nie jesteśmy w stanie stwierdzić, gdzie doszło do przestępstwa.

Wtedy też zdałem sobie sprawę, że dane są podobne do pieniędzy, w tym sensie że pieniądze możesz przesyłać z banku A do banku B, a stamtąd do banku C, D itd. Podobnie jest z danymi, które ciągle wędrują po sieci. Każdy z naszych banków może znajdować się w innym państwie, może używać wielu firm przykrywek, a każde z państw może mieć swoje odrębne prawo. Jedna rzecz, która jest dozwolona w kraju A, może być całkowicie zakazana w kraju B. Posługując się dalej analogią pieniędzy, uważam, że to, co zrobiła Cambridge Analytica to było „pranie brudnych danych". Kiedyś pieniądze też wędrowały z banku do banku bez żadnych regulacji. Ludzie unikali w ten sposób płacenia podatków. Ale z czasem prawo finansowe i podatkowe ewoluowało wraz ze wzrostem liczby coraz to nowszych sposobów na unikanie płacenia podatków. Wytworzyły się zasady, które musiały nadążyć za globalizacją pieniądza i konieczne było ich powszechne użycie. Wracając do sieci, ona także ma zasięg globalny, a dane mają podobne cechy do pieniędzy. Dlatego potrzebne jest stworzenie podstaw prawnych, które uregulują kwestię przestępstw cyfrowych.

Po wybuchu pandemii koronawirusa nasze życie jeszcze bardziej przeniosło się do sieci. Nasz świat nie jest ani realny, ani wirtualny, tylko hybrydowy. Dobry przykład to pieniądze – one istnieją w naszym elektronicznym banku, ale nie są wirtualne, bo mogę kupić za nie realny produkt. Jaki wpływ na te zjawiska będzie miał Covid-19?

Ostatnie miesiące nauczyły nas, że dezinformacja nie jest wyłącznie sprawą związaną z polityką. Media społecznościowe szerzą nieprawdziwe informacje, a te, według ostatnich badań, roznoszą się szybciej niż prawdziwe, oparte na źródłach informacje. To dlatego że rzeczy, które są prawdziwe, często mają szerszy kontekst, tło, trzeba się w nie zagłębić, trochę więcej przeczytać. Łatwo przedstawić to na przykładzie obecnej pandemii. Fałszywe informacje są krótkie, angażujące emocje odbiorcy, są krzykliwe. I rzeczywiście są o wiele bardziej angażujące, łatwo je zrozumieć i zaniepokoić się nimi. Ludzie też są bardziej skłonni do dzielenia się takimi informacjami, umieszczają wpisy na swoich tablicach, bo po prostu są na coś wściekli albo czegoś się boją.

Covid-19 pokazał nam więc, że sprawa dezinformacji nie dotyczy już tylko republikanów i Donalda Trumpa czy też manipulacji przy wyborach w danym kraju. To już nie jest tylko sprawa Amerykanów czy Brytyjczyków. Te platformy zostały zaprojektowane w taki sposób, by częściej i łatwiej szerzyć kłamliwe informacje, niż przyswajać te prawdziwe. A jeśli mamy do czynienia z globalną pandemią, ludzie mogą nawet umierać z tego powodu, że będą źle informowani. To jest na tyle poważna sprawa, że nie można tego ukrywać. Musimy zatem wyjrzeć poza ramy myślenia o dezinformacji wyłącznie w kategorii politycznej czy militarnej. To dotyczy także naszego życia i zdrowia. Ale nie chodzi tylko o zdrowie fizyczne. W Wielkiej Brytanii i w USA badania wskazały, że śpimy mniej o godzinę tylko dlatego, że tuż przed zaśnięciem nadal korzystamy ze smartfonów.

Twórcy Netfliksa sami mówią, że sen jest ich wrogiem, bo chcą walczyć o każdą minutę zaangażowania odbiorców.

Co dzieje się ze społeczeństwem, któremu zabierana jest jedna godzina snu w czasie doby? Jak może to wpłynąć na ekonomię? I jakie skutki pociągnie to za sobą dla naszego zdrowia psychicznego? Być może osoby, którym zabrano tę godzinę snu nawet nie będą zdawać sobie z tego sprawy, ale wkrótce może okazać się, że spadnie produktywność całej populacji, co może w realny sposób wpłynąć na ekonomię. Dlatego uważam, że sprawą prawnego uregulowania funkcjonowania platform internetowych powinny zacząć angażować się rządy państw.

Mamy tu do czynienia z pewną kwestią filozoficzną. Kiedy czytałem pana książkę, przypominały mi się dylematy opisane przez Rogera McNamee, byłego doradcę Marka Zuckerberga, czy prof. Shoshanę Zuboff. W swych książkach twierdzą oni, że ambicje firm technologicznych nie kończą się na angażowaniu ludzi treściami i czerpaniu zysku z reklam. Te firmy chcą stworzyć coś na kształt systemu operacyjnego naszego życia, z którego nie będziemy mogli zrezygnować.

Czy rzeczywiście regulacje są w stanie tu pomóc?

To nie jest pytanie teoretyczne. Jeśli spojrzymy na wzór działania wszystkich tych platform, to jest on zawsze taki sam. Chodzi o tworzenie sieci powiązań i uzależnienia użytkowników. Na pozór nie wydaje się to straszne, prawda? Ale kiedy przychodzisz do domu, a lodówka obserwuje, co jesz, a kiedy oglądasz telewizję, ekran także monitoruje twoje zachowanie. I właściwie wszystkie urządzenia w domu „rozmawiają" o tobie, komunikują się, wymieniają informacjami na twój temat. W końcu wpływają też na twoje zachowanie. Kiedy wsiadasz do swojego automatycznego samochodu, który zna drogę do twojego biura, może też zdecydować, czy spóźnisz się do pracy, czy nie. I nagle okazuje się, że mamy bardzo problematyczną sytuację, w której coś dziwnego dzieje się z ludzkością, co nie miało miejsca nigdy wcześniej. Wyewoluowaliśmy jako gatunek w pasywnym środowisku – natura oczywiście wpływa na nas, ale naturalny świat nie myśli o nas, nie obmyśla planów, jak wpłynąć na nasze życie. Natura jest pasywna. Różnica polega na tym, że żyjemy w środowisku, które przestało być bierne, bo kontroluje je dzisiaj kilku miliarderów, którzy stworzyli świat, gdzie środowisko planuje i myśli za nas. I to jest właśnie największy problem, kiedy zdasz sobie sprawę, że każdy twój wybór przestaje być zależny tylko od ciebie.

Kiedy mówimy o prywatności, to ona często jest opisywana jako sytuacja, gdy ktoś chce coś ukryć przed innymi. Często powtarzana jest fraza, że jeśli nie masz niczego do ukrycia, to dlaczego się martwisz? Ale prywatność jest czymś więcej – to narzędzie, które wykorzystujemy każdego dnia do tego, by budować swoją osobowość. Dzisiaj jesteś już innym człowiekiem, niż byłeś 10–20 lat temu. I będziesz też inny za następne 10–20 lat. Jesteś inną osobą, kiedy rozmawiasz z kolegami z pracy, a inną, kiedy rozmawiasz z rodziną. Rzeczą, która daje ci siłę do tego, by się zmieniać, jest właśnie twoja prywatność. I teraz pomyślmy o tym, że istnieje sztuczna inteligencja, która jest zaprojektowana do tego, żeby profilować cię w sieci, i decyduje za ciebie, że jesteś danym typem konsumenta i należysz do pewnego segmentu, więc zaczyna pokazywać ci rzeczy, które będą do ciebie pasować. Jak możemy rozwijać się jako ludzie w środowisku, które decyduje za nas, kim jesteśmy i więcej – kim będziemy?

Brzmi to jak perwersyjny eksperyment na ludzkości, w którym naprawdę wiele rzeczy może pójść źle.

I kiedy spojrzymy na sprawę Cambridge Analytica, to faktycznie można powiedzieć, że był to nieetyczny eksperyment, który wpływał na zachowania ludzi i ich wybory. Jednak Facebook czy Google to firmy, które mają wystarczająco dużo siły, by pójść krok dalej i wpływać na każdy aspekt naszego życia. I wcale nie muszą zachowywać się przy tym przyzwoicie.

Kiedy tylko wyszła na jaw sprawa Cambridge Analytica, pierwszą rzeczą, którą zrobił Facebook, było zablokowanie mojego konta. W totalitarnych reżimach, takich jak np. Związek Radziecki, kiedy ktoś sprzeciwiał się władzy, nie znikał tylko fizycznie, czasami taki człowiek znikał nawet z artykułów w prasie czy ze zdjęć, by nie było żadnego śladu po tym, że w ogóle istniał. Korzystałem z mediów społecznościowych przez dziesięć lat i po tym, jak ujawniłem mediom sprawę CA, nagle mnie wymazano. Moi rodzice nie byli w stanie odnaleźć naszych starych konwersacji. Zdjęcia, które udostępniałem, nagle przepadły. Mamy więc do czynienia z firmami, które dosłownie mogą, ot tak, wymazać twoją obecność z sieci. Może to brzmi głupio czy trywialnie, ale pomyślmy o tym, co może się stać za dziesięć lat, kiedy np. bez tożsamości sieciowej nie będziesz wpuszczany do sklepu, a drzwi budynku, w którym mieszkasz od lat, pewnego dnia się przed tobą nie otworzą, bo system nie rozpozna twojego profilu społecznościowego i zostaniesz potraktowany jak zwierzę. Dla mnie to trochę przerażające. Zastanówmy się, czy na pewno chcemy żyć w społeczeństwie, które jest pod totalną kontrolą kilku firm.

Jeszcze nie dotarliśmy do takiego scenariusza, ale niestety zmierzamy do jego zrealizowania. Możemy podjąć decyzję, że jako społeczeństwo nie chcemy iść tą drogą i możemy stworzyć granice, dzięki którym te firmy nie zajdą tak daleko. Ale to nie będzie łatwe, bo przecież te korporacje stają się coraz większe i większe, spójrzmy choćby na Amazona. Ich celem nie jest tylko manipulowanie przemysłem, ale także manipulowanie człowiekiem – i w tym momencie wszystko wydaje się już bezsensowne i niepotrzebne, nawet rząd. Bo skoro można wpłynąć z taką łatwością na wybór prezydenta w Stanach Zjednoczonych, to co będzie się działo dalej?

Po tym jak film dokumentalny „Dylemat społeczny" ukazał się na platformie Netflix, „New York Times" skrytykował tę produkcję za rozszerzanie teorii spiskowych. Wszystko dlatego, że bohaterowie dokumentu krytykują platformy społecznościowe za szerzenie teorii spiskowych na prawicy, a sami twierdzą, że platformy społecznościowe i algorytmy rządzą naszym życiem. Taki zarzut można postawić też panu. Przed chwilą powiedział pan, że kilku miliarderów z Doliny Krzemowej chce przejąć kontrolę nad światem.

Oczywiście, można tak to ująć. Ale fakt, że ktoś nazwie mój opis rzeczywistości teorią spiskową, wcale nie oznacza, że nie jest on prawdziwy. Kiedy spotykam się ze sceptycyzmem, zawsze przed oczami mam osoby, które nie wierzą w zmiany klimatu, bo przecież dziś akurat mamy deszczową, zimną pogodę. Kiedy myślimy o przyszłości internetu, to również i przy tej kwestii tego typu argumenty powtarzają się – że to przesada, że przecież tak nie dzieje się teraz. Ale tak samo jak przy rozmowach o klimacie mamy perspektywę tego, jak będzie wyglądać Ziemia za 20–50 lat, tak samo rozmawiamy o internecie. Z tym że tutaj nie mamy już tak wiele czasu, bo wystarczy zaledwie kilka lat, żeby totalnie zmienić kształt sieci.

Nie mówię, że Amazon posiada technologię, by kontrolować umysły ludzi już dziś, i że jesteśmy codziennie poddawani praniu mózgu albo że system Alexa steruje naszymi dziećmi. Tak nie jest, ale możemy zauważyć pewien trend, który zmierza do stworzenia systemu, który będzie decydował o tym, jak będziemy prowadzić nasze życie. Moje obawy dotyczą tego, co może wydarzyć się za dziesięć lat – dziś możemy tego jeszcze nie zauważać, ale to nie znaczy, że tego nie ma. Dlatego musimy utrudnić powstanie tego sytemu, tak mocno jak tylko się da.

rozmawiał Michał Szułdrzyński, tłum. Katarzyna Płachta

Książka Christophera Wyliego pt. „Mindf*ck. Cambridge Analytica, czyli jak popsuć demokrację" ukazała się nakładem wydawnictwa Insignis w przekładzie Michała Strąkowa

Plus Minus: Na czym w skrócie polegała afera z Cambridge Analytica (CA)?

Myślę, że był to pierwszy na świecie przykład powszechnego użycia propagandy opartej na algorytmie. Pierwszy raz w historii informacje psychologiczne o internautach i ich aktywności w sieci posłużyły do wpływania na światowe potęgi. W tym przypadku na amerykańskie wybory prezydenckie z 2016 r.

Pozostało 99% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi