Max Fisher. Jak media społecznościowe przeprogramowały nasze umysły

Po tym jak tłum podjudzany przez Facebooka spustoszył Amparę, platformę w ciągu kilku dni obiegły nawoływania do ludobójstwa. „Zabić wszystkich muzułmanów, nie oszczędzać nawet dzieci”, głosił jeden z postów.

Publikacja: 26.05.2023 17:00

Max Fisher. Jak media społecznościowe przeprogramowały nasze umysły

Foto: mat.pras.

W odległych górach, gdzie asfaltowa droga przechodzi w wertepy zryte koleinami, trzynaścioro mieszkańców betonowego domku, którzy nie dysponują bieżącą wodą, ale mają telefony komórkowe, nie mogło oderwać się od Facebooka. Byli w szoku. Kilka tygodni wcześniej czternasty domownik zmarł w wyniku pobicia. Policja twierdziła, że wdał się w awanturę z innym kierowcą i doszło do rękoczynów. Tymczasem plotki krążące na Facebooku głosiły, jakoby napastnicy należeli do muzułmańskiego spisku wymierzonego przeciwko Syngalezom, najliczniejszej grupie etnicznej na Sri Lance, dominującej kulturowo i politycznie. Nazwa tego narodu pochodzi od sanskryckiego słowa oznaczającego lwa. Dlatego właśnie wizerunek owego zwierzęcia zdobi ich flagę. Społeczność tę ogarnęła niewytłumaczalna panika rasowa.

Czytaj więcej

Bogusław Chrabota: Kartka z Polski dla króla Karola III

Platforma niczym żar skryty w płomieniach

Nie chcemy tego oglądać, bo to zbyt bolesne”, oświadczył łamiącym się głosem H.M. Lal, kuzyn ofiary. „Jednak w głębi serca odczuwamy narastającą chęć zemsty”. Gdy zapytałem członków rodziny, czy wierzą doniesieniom z Facebooka, pokiwali głowami – wszyscy oprócz najstarszych osób, które najwyraźniej nie korzystały z platformy. Zadałem następne pytanie: czy inni użytkownicy wyrażali chęć wzięcia odwetu? Znowu odpowiedzieli twierdząco. Potrafili wyrecytować z pamięci treść memów, które udostępniali i które tworzyły alternatywny świat, zagrożony przez muzułmańskie intrygi. Choć bliscy zabitego nie przyłączyli się do grup na Facebooku – szczycących się tym, że zrzeszają tysiące członków i planują ataki odwetowe na muzułmanów – nie potępiali ich działalności.

„Facebook jest dla nas ważny, bo dzięki niemu wiemy, że dzieje się coś istotnego”, powiedział jeden z naszych rozmówców. Lal zgodził się z nim i dodał: „Facebook zawsze nam o tym mówi”. Platforma jest, jak to ujął, „żarem skrytym w popiołach” gniewu rasowego, przez który kilka dni wcześniej kraj pogrążył się w chaosie, kiedy „ludzie dali się sprowokować do działania”. W tej górskiej wiosce zaczęliśmy nasze poszukiwania przyczyn niepokojów społecznych na Sri Lance. Ustaliliśmy, że Facebook odegrał istotną rolę na każdym etapie tej tragedii. Tak jak podczas ludobójstwa w Mjanmie, platforma nie reagowała na liczne naglące apele o interwencję.

Zapytaliśmy rodzinę ofiary, jak doszło do tragedii. „Wszystko zaczęło się w Amparze”, powiedział jeden z krewnych. Nazwę tę znaliśmy z internetu. Ampara to miasto, jakich wiele w całym kraju, z betonowymi domami otoczonymi przez zielone pola. Jednak w świecie stworzonym przez pogłoski krążące w mediach społecznościowych stanowi ona epicentrum spisku, mającego na celu eliminację całej populacji syngaleskiej.

Osiemnastosekundowe nagranie

Bracia Atham-Lebbe nie wiedzieli jednak o tej wyimaginowanej Amparze, kiedy za pieniądze, które zaoszczędzili, ciężko pracując za granicą, otworzyli knajpkę z jedną salą. Byli muzułmanami i posługiwali się językiem tamilskim, używanym przez niewielką część populacji, dlatego nigdy nie mieli styczności z syngaleskimi wspólnotami internetowymi, uważającymi ich miasto za symbol zagrożeń rasowych. Nie podejrzewali, że w ciepły marcowy wieczór w 2018 roku w wyniku zderzenia prawdziwej i wyimaginowanej Ampary ich życie zmieni się nieodwracalnie.

Tamtego dnia w porze kolacji pewien klient zakrzyknął po syngalesku, że znalazł coś w swoim curry z wołowiną. Jeden z braci, dwudziestoośmioletni Farsith, który stał przy kasie, zignorował go. Nie znał syngaleskiego. Zresztą zdążył się już nauczyć, że na nietrzeźwych gości najlepiej nie zwracać uwagi. Nie miał pojęcia, że poprzedniego dnia Facebook obiegła fałszywa wiadomość o konfiskacie dwudziestu trzech tysięcy pigułek sterylizacyjnych, znalezionych przez policję w aptece prowadzonej przez muzułmanina. Gdyby Farsith o tym wiedział, domyśliłby się, dlaczego wokół coraz bardziej rozjuszonego klienta gromadzi się tłum.

Mężczyźni otoczyli Farsitha, popychając go i wykrzykując niezrozumiałe dla niego pytanie. Przypuszczał, że powtarzając: „Ty dodałeś?”, mają na myśli grudkę mąki znalezioną w curry. Napastnicy jednak dopytywali się o to, czy wrzucił do jedzenia pigułki sterylizacyjne, o których słyszeli na Facebooku. Farsith wolał milczeć, bo jedno niewłaściwe słowo mogło jeszcze bardziej rozwścieczyć ludzi, ale w końcu wyjąkał: „Nie wiem”, a potem łamanym syngaleskim przyznał: „Tak, dodajemy”.

Słysząc twierdzącą odpowiedź, tłum rzucił się na niego z pięściami. Gdy skatowany Farsith osunął się na podłogę, rozwścieczeni napastnicy zerwali ze ścian półki, roztrzaskali meble i zniszczyli sprzęt kuchenny. Dołączyły do nich dziesiątki mieszkańców dzielnicy na wieść, że potwierdziły się informacje z Facebooka. Ludzie wdarli się do pobliskiego meczetu i podpalili go, skazując na śmierć imama schowanego w gabinecie, który szybko wypełnił się dymem.

Dawniej taki incydent ograniczyłby się do Ampary. Ktoś jednak nagrał telefonem wyznanie Farsitha: „Tak, dodajemy”. W ciągu kilku godzin dotarło ono do grupy na Facebooku o nazwie Buddyjski Ośrodek Informacyjny. Rozpowszechniała ona rzekomo prawdziwe informacje o zagrożeniach ze strony muzułmanów, przez co przyciągała rzeszę fanatyków. Osiemnastosekundowy filmik zarejestrowany drżącą ręką zamieszczono na profilu jako potwierdzenie islamofobicznych memów, od miesięcy udostępnianych na tym forum. Nagranie obiegło sieć.

Czytaj więcej

Sztuczna inteligencja zmieni społeczeństwo

Kultury, których nie rozumiemy

Na Sri Lance tak jak w Mjanmie początkowo uważano, że media społecznościowe przynoszą same pożytki. Dzięki nim emigranci pracujący za granicą utrzymywali kontakt z rodzinami, którym przysyłali pieniądze. Aktywiści i przywódcy polityczni uważali, że wspierają one demokrację. Facebook, korzystając z tej samej strategii co w Mjanmie, wprowadził stawki zerowe, by miliony obywateli mogły korzystać z platformy za darmo.

Rozwiązanie to podyktował rozpowszechniony w Dolinie Krzemowej model biznesowy, sankcjonujący dążenie do stałego powiększania liczby użytkowników. Ubogie kraje przynoszą platformom niewiele korzyści. Reklamodawcom nie opłaca się docierać do konsumentów, którzy zarabiają kilka dolarów dziennie. Przedsiębiorstwa technologiczne zaczęły jednak od początku wydawać duże sumy, by jak najszybciej zdominować pejzaż medialny i rynki internetowe w ubogich państwach, gdzie nie miały dużej konkurencji. Firmy te gwarantowały swoim inwestorom kolosalne przychody za dziesięć lub dwadzieścia lat, gdy konsumenci awansują do klasy średniej.

Facebook, WhatsApp, Twitter, Snapchat i inne platformy wprowadziły zerowe stawki w kilkudziesięciu krajach, od Kolumbii do Kenii. Kadra kierownicza niewiele wiedziała o tych dziewiczych terenach, ale postanowiła uczyć się na bieżąco. Miejscowym nauczycielom angielskiego zlecono przetłumaczenie nazw kilku podstawowych ikonek, jak choćby „Dodaj do znajomych”. Resztę roboty miały wykonać – a jakże – algorytmy uczenia maszynowego. Śledząc zachowanie użytkowników, mogły wykryć ewentualne błędy w przekładzie.

„W miarę jak rośnie liczba użytkowników, Facebook pojawia się we wszystkich krajach świata, nawet w kulturach i językach, których nie rozumiemy”, oznajmił z dumą Chris Cox, główny dyrektor do spraw produktów w firmie. Powołał się na jeden przykład: Mjanmę, gdzie – jak mu doniesiono – obywatele czerpali wiedzę o aktualnych wydarzeniach głównie z jego portalu. Szefowie platform z powodów ideowych albo względów czysto rynkowych utwierdzali się w przekonaniu, że nie ma potrzeby monitorować mediów społecznościowych i zastanawiać się nad konsekwencjami ich funkcjonowania, te bowiem mogą być tylko pozytywne.

Bezpodstawne stwierdzenie

Ich postawa wyrażała nie tylko pychę, ale także fundamentalną zasadę „od zera do jednego”, w Dolinie Krzemowej rozpropagowanej przez jej twórcę, Petera Thiela, który jako jeden z pierwszych wyłożył fundusze na założenie Facebooka. Jak głosi jego doktryna biznesowa i ideologiczna, przedsiębiorstwo powinno zaczynać od zera, czyli inwestować w nowe wynalazki, których jeszcze nie ma na rynku, a potem całkowicie go zdominować jako jedyny gracz. „Historia postępu to historia zastępowania przez lepsze monopole tych, które uległy skostnieniu”, napisał Thiel. Oto przykłady: Intel i procesory, Apple i komputer osobisty, Uber i prywatna taksówka, Facebook i wspólnoty internetowe.

Jak przekonywał Thiel, monopolista, który nie ma konkurencji, może swobodnie inwestować w innowacje dla dobra ludzkości. To bezpodstawne stwierdzenie. Monopoliści z reguły korzystają ze swojej pozycji, by wytwarzać coraz mniej wartościowe produkty, domagając się od konsumentów coraz większych opłat. Thiel znalazł jednak posłuch w Dolinie Krzemowej, której mieszkańcy propagowali model biznesowy, narzucony przez inwestorów kilka lat wcześniej, gdy powstała chmura obliczeniowa, i zakładający nieograniczony rozwój firmy. W swoim mniemaniu realizowali chwalebną misję, kontynuując zapoczątkowane w latach dziewięćdziesiątych dzieło poszerzania zakresu wolności w Internecie. Oznaczało to, że zapanowanie nad całym społeczeństwem i zdeptanie wszystkiego, co istniało wcześniej, było nie tylko pożądane, ale wręcz konieczne.

Taki rezultat uważano za dar dla świata. Dzięki branży technologicznej mieliśmy zrobić „kolejny krok” jako gatunek, jak stwierdził Zuckerberg w eseju o objętości sześciu tysięcy słów opublikowanym na rok przed moją podróżą na Sri Lankę. Podejmując bodaj ostatnią próbę ożywienia utopii w Dolinie Krzemowej, obiecał, że w tej nowej erze Facebook zapewni „społeczną infrastrukturę”, dzięki czemu „miasta i narody” utworzą „globalną wspólnotę”. Umożliwi to „powiększanie dobrobytu i wolności, szerzenie pokoju i wiedzy, przeciwdziałanie biedzie”, a nawet „zwalczenie terroryzmu, powstrzymanie zmian klimatycznych i zapobieganie pandemiom”.

Te wzniosłe wizje niewiele miały wspólnego z rzeczywistością. Po tym jak tłum podjudzany przez Facebooka spustoszył Amparę, platformę w ciągu kilku dni obiegły nawoływania do ludobójstwa. „Zabić wszystkich muzułmanów, nie oszczędzać nawet dzieci”, głosił jeden z postów. Powstały setki podobnych w reakcji na nagranie, na którym Farsith mówi: „Tak, dodajemy”. Znany na Facebooku ekstremista zachęcał swoich zwolenników do ataku na lokalną społeczność muzułmańską, żeby „wyrżnąć ich w pień”. Miejscowi obrońcy praw człowieka, stłoczeni w małym biurze w stolicy państwa, Kolombo, archiwizowali każdy post, by udokumentować zasięg sieci nienawiści. Zamierzali przekazać dane Facebookowi. Wiedzieli, że za darmo wyręczają najbogatszą platformę na świecie, ochotniczo ją nadzorując. Firma ich zignorowała.

„Od czterech lat dostarczamy im poparte danymi przykłady aktów nienawiści. Zebrało się tego mnóstwo”, powiedział nam Sanjana Hattotuwa, jeden z ówczesnych członków Center for Alternative Policy. „Współpraca z Facebookiem nie ma sensu”, irytował się, nerwowo krążąc po pokoju. Jako stały bywalec międzynarodowych konferencji technologicznych nawiązał kontakty w firmie. Jednak bez względu na to, jak groźnie brzmiały nawoływania do przemocy i jak usilnie Hattotuwa ostrzegał platformę, że ktoś wkrótce zginie, słyszał tę samą odpowiedź: „Ich zdaniem nie naruszono żadnych zasad. Proszą, żebyś się zgłosił, jak zbierzesz więcej informacji”.

Czytaj więcej

Bułhakowowi grozi eksmisja

Nie ma takiej możliwości

Kilka miesięcy wcześniej, zanim doszło do zamieszek w Amparze, jego koleżanka Raisa Wickrematunge wygłosiła odczyt na Uniwersytecie Stanforda na temat dezinformacji w mediach społecznościowych. Podczas przerwy na kawę podeszła do Jen Weedon, dyrektor do spraw bezpieczeństwa Facebooka, która brała udział we wcześniejszej dyskusji panelowej. Wickrematunge ostrzegła ją, że na Sri Lance na platformie rozbrzmiewają gremialne nawoływania do przemocy, niezgodne z regulaminem portalu. Z rozmowy nic nie wyniknęło. Po konferencji Wickrematunge wysłała Weedon mail, w którym zaoferowała darmową pomoc: chciała przesłać do Facebooka wyselekcjonowane przykłady mowy nienawiści. Nie dostała odpowiedzi.

W październiku 2017 roku działacze społeczni ze Sri Lanki z jednoznaczną w wymowie prezentacją wybrali się do regionalnej siedziby Facebooka, skąd firma sprawuje kontrolę nad czterystoma milionami użytkowników z Azji Południowej. Jak twierdzili, mowa nienawiści i dezinformacja szerzą się w najlepsze na platformie, propagowane przez algorytmy. Niektóre z najpopularniejszych profili należą do ekstremistów nawołujących do przemocy. Jawne zmyślenia powtarzane w internecie użytkownicy uważają za prawdę. Przecież Facebook zastąpił lokalne serwisy informacyjne, tak jak w Mjanmie, gdzie wciąż płonęły wioski. Ten dramat mógł się powtórzyć na Sri Lance. Przedstawiciele rządu spotkali się też w Kolombo z dyrekcją regionalną Facebooka. Prosili firmę, by zaostrzyła nadzór nad platformą. Posty i profile propagujące mowę nienawiści łamią regulamin portalu. Dlaczego firma nie reagowała?

Podczas obu spotkań Facebook zajął to samo stanowisko. Pracownicy platformy oznajmili, że nie mogliby zainterweniować, nawet gdyby sam minister zidentyfikował w jakimś poście mowę nienawiści. Firma musiałaby sprawdzić, czy doszło do naruszenia zasad. Problem jednak polegał na tym, że zlecała takie zadania zewnętrznym podmiotom, którym brakowało mocy przerobowych, bo zatrudniały niewielu pracowników władających językiem syngaleskim. Przedstawiciele Facebooka złożyli mglistą obietnicę, że powiększą swoją załogę.

Wysłannicy rządu zapytali, czy będą mogli skontaktować się z firmą bezpośrednio, gdyby, tak jak w Mjanmie, doszło do eskalacji przemocy. Reprezentanci platformy odparli, że nie ma takiej możliwości. Gdyby stało się coś niepokojącego, należy zgłosić naruszenie regulaminu za pomocą dostępnego na stronie formularza. Nie mogli chyba udzielić gorszej porady. Z formularza dla zwykłych użytkowników od wielu miesięcy korzystał Hattotuwa i jego współpracownicy, coraz głośniej bijąc na alarm. Nic nie wskórali, choć nawołujący do przemocy coraz wyraźniej brali na celownik swoją ofiarę, domagając się czystek w meczetach i dzielnicach muzułmańskich.

Fragment książki Maksa Fishera „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”, w tłumaczeniu Mateusza Borowskiego, która ukazała się nakładem Wydawnictwo Szczeliny

Tytuł i śródtytuły pochodzą od redakcji

W odległych górach, gdzie asfaltowa droga przechodzi w wertepy zryte koleinami, trzynaścioro mieszkańców betonowego domku, którzy nie dysponują bieżącą wodą, ale mają telefony komórkowe, nie mogło oderwać się od Facebooka. Byli w szoku. Kilka tygodni wcześniej czternasty domownik zmarł w wyniku pobicia. Policja twierdziła, że wdał się w awanturę z innym kierowcą i doszło do rękoczynów. Tymczasem plotki krążące na Facebooku głosiły, jakoby napastnicy należeli do muzułmańskiego spisku wymierzonego przeciwko Syngalezom, najliczniejszej grupie etnicznej na Sri Lance, dominującej kulturowo i politycznie. Nazwa tego narodu pochodzi od sanskryckiego słowa oznaczającego lwa. Dlatego właśnie wizerunek owego zwierzęcia zdobi ich flagę. Społeczność tę ogarnęła niewytłumaczalna panika rasowa.

Pozostało 95% artykułu
Plus Minus
Politolog o wyborach prezydenckich: Kandydat PO będzie musiał wtargnąć na pole PiS
Plus Minus
Bogusław Chrabota: Dlaczego broń jądrowa nie zostanie użyta
Plus Minus
„Empire of the Ants”: 103 683 zwiedza okolicę
Plus Minus
„Chłopi”: Chłopki według Reymonta
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Plus Minus
„Największe idee we Wszechświecie”: Ruch jest wszystkim!