Algorytmy i społeczeństwo. Nieuchronne zderzenie interesów

Trudno obarczać internet czy platformy społecznościowe wyłączną odpowiedzialnością za konflikty społeczne. To wygodna wymówka, zwłaszcza dla polityków. Niewątpliwie jednak napędzają polaryzację. Musimy nauczyć się je wspólnie kontrolować.

Aktualizacja: 30.01.2021 07:21 Publikacja: 29.01.2021 00:01

Algorytmy i społeczeństwo. Nieuchronne zderzenie interesów

Foto: Piixabay

Usunięcie profilu przywódcy największego światowego mocarstwa z platform umożliwiających mu komunikowanie się z wyborcami powinno stać się momentem przełomowym dla rozwoju serwisów społecznościowych. Po latach afer i rozmów o roli platform internetowych u progu nowej dekady stajemy wobec pilnego wyzwania, które może zadecydować o losie demokracji – nie tylko tej liberalnej. Jeśli w tej dekadzie nie uporządkujemy zasad wypowiedzi i rozprzestrzeniania treści w sieci, to możemy nie mieć już nigdy na to kolejnej szansy. Odpowiedzią nie jest jednak ani pozwolenie platformom na samoregulację, ani zakazanie moderacji, ani jej upaństwowienie, lecz system kontroli i równowagi.

Przez większość nowożytności – do końca XVIII wieku – cywilizacja europejska pod względem szybkości przesyłu informacji pozostawała w tyle. Nie znała metody szybszej niż podróż konno lub statkiem. Wyprzedzały nas wówczas używające tam-tamów ludy Afryki czy rdzenni mieszkańcy Ameryki z ich komunikacją dymną – opisywał w książce „The Information" James Gleick. Cywilizacja europejska miała jednak pewną przewagę skali rozprzestrzeniania informacji – druk. Powielenie tej samej treści w setkach egzemplarzy umożliwiało równoczesne rozesłanie jej do wielu miejsc na świecie, bez narażania się na różnice powstające w przekazie ustnym.

To właśnie tempo oraz skala rozprzestrzeniania się informacji są kluczowym elementem kolejnych rewolucji medialnych. Nieprzypadkowo drukowane masowo gazety nabrały na znaczeniu, kiedy wzrósł odsetek potrafiących czytać i pisać. Wkrótce pojawiło się zdolne do zdecydowanie szybszego przesyłu informacji radio oraz krocząca za nim – już w wieku XX – telewizja.

Na początku XXI wieku na scenę wszedł internet, który całkowicie zrewolucjonizował zarówno tempo, jak i skalę rozprzestrzeniania informacji. Żadna wydawana następnego dnia gazeta czy nawet wieczorny program informacyjny nie ma szans na bycie pierwszym w podaniu informacji. W internecie znajdziemy nie tylko ją, ale i zdjęcia, i filmy z miejsca zdarzenia oraz relacje naocznych świadków. Autorzy nie muszą być dziennikarzami. Tam, gdzie telewizja działała w minutach, internet działa w sekundach.

Wzrosła również skala tworzonej i rozprzestrzenianej informacji. Dość powiedzieć, że szacuje się, że aż 90 proc. wszystkich informacji stworzonych w historii ludzkiej cywilizacji powstało w ciągu ostatnich paru lat. Dziś można utonąć w miliardach informacyjnych bitów generowanych co sekundę przez 4,5 miliarda użytkowników internetu. Tradycyjne redakcje telewizyjne, radiowe czy prasowe musiały – ze względu na ograniczone zasoby – selekcjonować tematy.

Te dwa elementy, czyli wzrost ilości oraz tempa rozprzestrzeniania się informacji, tworzą niebagatelne wyzwanie dla pojęcia wolności wypowiedzi oraz demokracji w ogóle.

Władza nowych elit

Walka o władzę nad informacją toczy się od początków cywilizacji, dziś jedynie piszemy jej kolejny rozdział. Krótką historię tego sporu przytoczył ostatnio na łamach Klubu Jagiellońskiego dr Jan Rudnicki w artykule „Od Rzymu do Internetu. Czego historia uczy nas o władzy nad informacją".

Już w starożytnym Rzymie, choć jeszcze nieskodyfikowana, wolność wypowiedzi była wartością republikańską. Była zachowywana, dopóki obywatele Republiki zachowali pewną społeczną równowagę statusu i majątków. Jednak na skutek podboju i wzrostu wielkich fortun sytuacja diametralnie się zmieniła, a elita w końcu została skuszona możliwością zamknięcia ust krytykom. Kiedy Cyceron odważył się w „Filipikach" skrytykować Marka Antoniusza, przypłacił to nie tylko śmiercią, ale i ekspozycją swoich odciętych narzędzi tworzenia – rąk i głowy – na Forum.

Jan Rudnicki pokazuje również historię nieco bardziej nowożytnych wyroków amerykańskiego Sądu Najwyższego. Osławiona pierwsza poprawka do konstytucji powoduje, że USA kojarzy się właśnie z obroną wolności słowa. Jeśli jednak cofniemy się do pierwszej połowy XX wieku, to okaże się, że amerykańskie sądy – w tym Najwyższy – bez problemu potrafiły uzasadnić konieczność represjonowania socjalistów i komunistów, uznając ich wypowiedzi za „sprzeczne z dobrem publicznym". Rudnicki zwraca uwagę, że ostrość tych wyroków koreluje z poczuciem politycznego zagrożenia elit w czasach „red scare" (strachu przed czerwonymi). Próbując stanąć w obronie także własnego interesu, zasiadający w sądach przedstawiciele elit w końcu sięgnęli po cenzurę i towarzyszące jej represje.

Dziś nową potężną elitą, szczególnie w Stanach Zjednoczonych, są miliarderzy i technokraci z Doliny Krzemowej. Zostali nią nie tylko dlatego, że zgromadzili pokaźny majątek, ale przede wszystkim ze względu na ich znaczenie dla możliwości prowadzenia publicznej debaty czy działalności gospodarczej. Nie powinniśmy demonizować postaci Billa Gatesa, Jacka Dorseya (szef Twittera) czy Petera Thiela (jeden z najbardziej wpływowych i kontrowersyjnych inwestorów Doliny). Nawet jeśli dziś – blokując Donaldowi Trumpowi możliwość kontestowania wyników wyborów uznanych przez sądy za przeprowadzone poprawnie – wykonują ruchy naprawdę w dobrej wierze wyboru „mniejszego zła" dla dobra publicznego, to pytanie brzmi, czy tak jak różne elity w dotychczasowej historii cywilizacji – kiedyś nie skusi ich władza nad przepływem informacji (albo działalnością gospodarczą), aby ograniczyć rozprzestrzenianie się na przykład krytyki działalności ich platform.

W końcu takie przypadki już się zdarzały. Facebook usunął niegdyś z profilu senator Elizabeth Warren umieszczoną w serwisie reklamę jej postu nawołującą do rozbicia firmy, choć szybko ją później przywrócił. Wśród dziennikarzy bez trudu można usłyszeć historie o naciskach na „konsultowanie" artykułów dotyczących sylwetki właściciela jednej z globalnych platform. Dziś w bardzo ograniczonym stopniu odpowiadają one za decyzje moderacyjne przed kimkolwiek. Trudno nazwać inaczej niż naiwnością nadzieję, że akurat te elity, mając w rękach pełną kontrolę nad swoimi produktami, zachowają się inaczej niż ich historyczni poprzednicy, mający zbyt wiele władzy.

Absolutna wolność nie jest odpowiedzią

Jeśli więc nie chcemy pozostać w stanie błogiej naiwności, pozostają nam dwie drogi: zakazanie moderowania czegokolwiek, co nie jest prawnie zakazane, lub próba znalezienia pewnego balansu pomiędzy interesem koncernów, państw i społeczeństw. Zajmijmy się na początek pierwszą z tych opcji.

Skoro możliwość moderacji debaty publicznej i działalności gospodarczej w internecie powoduje oddanie ogromnej władzy w ręce pewnej grupy ludzi, to może łatwiej będzie moderacji zakazać? Takie podejście kompletnie ignoruje decydującą rolę, jaką w sieci odgrywają algorytmy decydujące o tym, co się ukaże przed naszymi oczami. Dziś broniąc możliwości powiedzenia czegokolwiek w mediach społecznościowych, bronimy nie tylko wolności wypowiedzi, ale też wolności do darmowego promowania treści przez algorytmy nastawione na poszukiwanie angażujących postów i filmów. To znacząca różnica, daleko wykraczająca poza „wolność słowa" w rozumieniu przedinternetowym.

U swoich początków media społecznościowe niosły liberalną narrację decentralizacji dostępu do megafonu w publicznej debacie. Chciały – w duchu nowego, lepszego świata internetu – dać każdemu możliwość wypowiedzenia się, kontaktu z innymi ludźmi. Liczyły na to, że w ten sposób wytłumaczymy sobie wszelkie nasze bolączki.

Dosyć szybko okazało się jednak, że jeśli każdy może się wypowiedzieć, wrzucić zdjęcie swojego psa czy piękną fotkę z wakacji, to ilość informacji jest nieprzyswajalna dla odbiorców. Nasza sieć połączeń – liczba znajomych czy osób śledzonych – w mediach społecznościowych nieustannie przecież rośnie. Choćbyśmy zatrudnili tysiąc atletów, którzy wcześniej zjedliby tysiąc kotletów, to nie zdołamy wszystkich tych informacji przyjąć i przetworzyć. Po drodze nas po prostu znudzą albo zabraknie nam czasu.

Dlatego w mediach społecznościowych od dawna nie widzimy wszystkich treści od naszych znajomych ustawionych chronologicznie. Zamiast tego pokazywany jest nam tylko pewien ich polecony nam wycinek, w kolejności ustawionej przez algorytm. Jego celem jest utrzymanie naszej uwagi jak najdłużej – a więc pokazywanie nam treści dla nas najciekawszych. Niestety, w praktyce oznacza to pokazywanie nam treści wywołujących w nas emocje, w tym również – te negatywne. Badania Facebooka już w 2016 roku pokazywały, że 64 proc. członków radykalnych grup spiskowych dołączyło do nich, bo członkostwo w tej grupie polecił im algorytm platformy. „Nasze algorytmy wykorzystują naturalną skłonność ludzkich mózgów do angażowania się w społeczne podziały" – miał głosić slajd na wewnętrznej prezentacji firmy przedstawionej w 2018 roku, co ujawnił w 2018 r. serwis The Verge.

Obrońcom sztywnej reguły zabraniania platformom moderowania treści, które wprost nie są zakazane przez prawo, przyświeca wizja stania na straży tego, żeby każdy z nas mógł w internetowym Hyde Parku postawić swoją skrzynkę, stanąć na niej i wygłosić to, co leży mu na sercu.

Tyle że w internecie po ścieżkach tego parku jesteśmy prowadzeni przez algorytmy, których głównym zadaniem jest utrzymanie naszej uwagi. Nie wystarcza im, że lubimy już treści jakiegoś twórcy, firmy czy medium. Żeby utrzymać uwagę, potrzebne jest dostarczenie nam coraz bardziej emocjonujących informacji. To one są więc polecane, podsuwane nam przed oczy kosztem tych „nudnych", informacyjnych. Co więcej, pogrążając się w studni radykalizmu, internauta nie jest jedynie widzem: na każdym etapie staje się częścią pewnej społeczności fanów medium czy twórcy. Kiedy spacerowicz dociera po krętych ścieżkach do jednego z zagajników Hyde Parku, naprzeciw niego stoi radykalny trybun w rodzaju człowieka-bizona, a dookoła nie ma przypadkowej, różnorodnej grupy przechodniów – a tylko ludzie, którzy przeszli podobną ścieżkę, mają więc podobne spojrzenie na rzeczywistość. Znajduje się w bańce.

Forum „QAnon Casualties" (ofiary QAnon) na Reddicie pełne jest historii przyjaciół i rodzin osób, które przeszły taką drogę. „Straciłam córkę dla QAnon. Mam 80 lat, jestem wdową, moja córka spędziła poprzedni rok, codziennie poświęcając 4–5 godzin na »badania« w internecie. Jest matką czwórki dzieci. Wierzy, że pandemia to spisek szpitali i lekarzy, odmawia noszenia maseczki, wierzy, że szczepionki mogą wyrządzić krzywdę. Zakupiła też broń" – pisze jedna z użytkowniczek. „Dla moich rodziców QAnon jest ważniejszy niż odwiedzenie ich mającej się narodzić wnuczki". Takich historii na forum zebrało się ponad tysiąc, a przecież liczba fanów QAnon w Stanach Zjednoczonych szacowana jest na parę milionów osób.

Wśród osób krok po kroku popadających w wiarę w rządzący nami pedofilsko-satanistyczny krąg elit są wspominani wierzący i ateiści, republikanie i demokraci. Wspólny element? Długie godziny spędzane na konsumowaniu polecanych przez algorytmy treści. W podcaście „Rabbit Hole" dziennika „The New York Times" jedna z osób, która zanurzyła się zarówno w spiskowych teoriach alt-rightu, jak i później radykalnej lewicy, opowiada o tym, że na tę prowadzącą donikąd spiralę zaprowadził ją rok spędzony na codziennym, wielogodzinnym oglądaniu YouTube'a.

Współodpowiedzialni

Platformy od 2016 roku, kiedy znalazły się pod publicznym ostrzałem, starały się poprawić sytuację – niektóre bardziej niż inne. Facebook podjął próbę stworzenia częściowo niezależnej, choć powołanej przez firmę rady doradczej („sądu najwyższego"), pomagającej rozstrzygać, czy treści są na tyle kontrowersyjne, że zasługują na usunięcie.

YouTube, między innymi po opowieściach whistleblowerów takich jak Guillaume Chaslot, podjął się wprowadzania zmian w algorytmie, aby rekomendować mniej spiskowych filmów. Patrząc jednak na zamieszki na Kapitolu, krążące wciąż po platformach treści w rodzaju teorii spiskowej QAnon i rosnącą popularność przeróżnych teorii na temat czipów w szczepionkach, musimy zapytać: czy te działania doprowadziły do rzeczywistej zmiany?

Niestety, nie. Choć bez nich najprawdopodobniej bylibyśmy w jeszcze gorszym miejscu, to nie udało nam się poradzić sobie z problemem. Samoregulacja platform nie zadziałała, a podjęte kroki były zbyt skromne.

Nie można za zdrową uznać sytuację, w której usunięty zostaje profil Donalda Trumpa, ale na Twitterze wciąż funkcjonuje konto oficjalnego rzecznika prasowego talibów. Podobnie jak sytuację, gdy próbująca pozwać Facebooka za niesłuszne według nich zbanowanie polska Społeczna Inicjatywa Narkopolityki wraz z Fundacją Panoptykon muszą prowadzić proces w języku angielskim przed sądem w Irlandii, ponieważ platforma – okazuje się nie do końca rozumie treści tworzone po polsku. A z drugiej strony, sytuację, w której rozprzestrzenianie się treści naprawdę szkodliwych, np. poprzez profile szarlatanów oferujących leki na wirusa, wciąż odbywa się na dużą skalę.

Donald Trump nie jest „błędem w systemie" mediów społecznościowych. Po jego zbanowaniu nie możemy odetchnąć i stwierdzić, że nic się nie stało. Popularność redykalizmów, Trumpa czy QAnon to skutki uboczne gospodarki cyfrowej, w której najważniejszym elementem jest nasza uwaga, przekuwana na zyski z reklam.

Chris Stokel-Walker, autor książek o YouTubie i Tik Toku, słusznie napisał w „Business Insiderze", że winę za sytuację ponoszą: „luźne zasady moderacji, błędne lub wymykające się spod kontroli algorytmy i zblazowanie ich opiekunów, spowodowane przekonaniem w Dolinie Krzemowej, że »światło słoneczne jest najlepszym środkiem zaradczym«, ignorujące fakt, że platformy pomagają treściom rosnąć i rozprzestrzeniać się szybciej". Liberalna filozofia Doliny Krzemowej znów okazała się zbyt naiwnym podejściem do rzeczywistości. Człowiek – cóż za zaskoczenie – niestety nie okazał się tym idealnie obiektywnym i racjonalnym bytem, który potrafi zawsze w pełni krytycznie ocenić dostarczoną informację, nie poddając się emocjom. Problem w tym, że dzisiejsze media społecznościowe stworzone są właśnie dla takiego internetowego homo oeconomicusa.

Według Evelyon Douek z Harvardu moderację można prowadzić na dwa sposoby. Pierwszy to taki, w który platformy chcą, żebyśmy wierzyli: że to neutralny i obiektywny proces podejmowania decyzji oparty na zasadach. Jednak realistycznie patrząc, „posty i tweety szefów platform są listkami figowymi, próbującymi ukryć, że w gruncie rzeczy te arbitralne decyzje stały się nagle wygodne, dzięki zmieniającemu się krajobrazowi politycznemu" – napisała w artykule dla „The Atlantic".

Kręta droga naprzód

Trudno obarczać internet czy platformy społecznościowe wyłączną odpowiedzialnością za konflikty społeczne. To dla wielu – szczególnie polityków – wygodna wymówka przed spojrzeniem na jakość mediów, polityki, ilość czy intensywność światopoglądowych sporów. Jednak algorytmy pomagają zyskać uwagę rzeszy ludzi w tempie, do którego nasze społeczeństwa nie są przyzwyczajone. Tworzą zogniskowane wokół jednej hipotezy grupy wiernych wyznawców, z którymi trudno tworzyć przestrzeń debaty publicznej. Wysiłki platform – mimo że liczba usuniętych grup czy ograniczonych w rozprzestrzenianiu postów wzrosła gigantycznie – nie dają oczekiwanych rezultatów. Czas pozostawiony na samoregulację cyfrowej przestrzeni debaty publicznej nie pomógł unormować tej sytuacji.

Nie wystarczy też ograniczyć prawa platform do moderacji wyłącznie do treści, które wprost łamią przyjęte w Polsce prawo – a w tę stronę wydają się iść inicjatywy Ministerstwa Sprawiedliwości. Każde forum czy grupa ma możliwość przyjęcia przecież własnego ograniczenia poruszanych tematów. Moglibyśmy dosyć łatwo znaleźć się w miejscu, w którym administrator fora wędkarzy łowiących karasie nie mógłby usunąć treści trolli z konkurencyjnego forum poławiaczy sumów, narażałby się bowiem na pozew sądowy. Wydaje się, że serwis Albicla właśnie stał się świetnym eksperymentem pokazującym ten problem: powstały jako przestrzeń pozbawiona cenzorskiej moderacji, zamienił się w farmę trolli, pełną setek kont papieża Jana Pawła II, memów i podszywania się pod innych.

Potrzebujemy więc przejrzystości procesu moderacji, możliwości odwołania się do niezależnej instancji oraz finalnie – odtworzenie konkurencyjności w internecie z wykorzystaniem interoperacyjności.

Społeczeństwo powinno być przez platformy informowane, jakie decyzje moderacyjne zostały podjęte. Podobnie użytkownik powinien otrzymywać konkretną informację o przyczynach zablokowania go oraz możliwość odwołania się od tej decyzji. W przypadku jej podtrzymania musi mieć również możliwość odwołania się do instancji niezależnej od firmy – być może sądu – na gruncie prawa krajowego. Tak, aby nie musiał, będąc polskim obywatelem i pisząc posty po polsku, sądzić się w Irlandii.

To podstawowe założenia wizji regulacji moderacji internetu, która nie odbiera platformom władzy nad ich produktem, ale jednocześnie wprowadza mechanizm społecznej kontroli, przedstawiliśmy w grudniu na portalu Klubu Jagiellońskiego. Bardzo podobne zasady są fundamentem propozycji aktu o usługach cyfrowych (Digital Services Act), którego projekt Komisja Europejska zaproponowała w grudniu.

O wiele trudniejszym i wciąż niezaadresowanym tematem jest działanie algorytmów. Platformy bronią się przed ich upublicznianiem lub społecznym wpływem na ich kształt, wskazując, że to fundament ich sukcesu, chroniony przed innymi unikalny know-how. Ale czy bez wglądu w mechanizm ich działania jesteśmy w stanie dokładnie oszacować, na ile odpowiedzialne są one za promocję szkodliwych społecznie i nieprawdziwych treści? Czy bez interwencji w ich założenia jesteśmy jakkolwiek w stanie zaadresować problem rodzących się spiskowych baniek?

Ban dla Trumpa nie oznacza końca problemu. Teorie spiskowe – w tym te skupione wokół konkretnych polityków i ich stronnictw – mogą się dziś rozwijać w sieci tak samo, jak robiły to rok czy dwa lata temu. Mogą wykorzystać te same sprzyjające warunki: nierówne zasady moderacji i promujące angażujące treści algorytmy. Minął już czas, który daliśmy platformom, aby same poradziły sobie z tym problemem.

Na samym początku nowej dekady rozpoczynamy proces unormowania debaty publicznej w internecie. Jeśli ma się udać, musimy najpierw ustalić parę faktów. Platform internetowych nie sposób porównać do tradycyjnych mediów, bo portal, na którym miliardy osób mogą jednocześnie tworzyć treści, zupełnie nie przypomina tradycyjnych mediów z dziennikarzami, redaktorami i redaktorem naczelnym. Wolność wypowiedzi nie jest równoznaczna z równym dostępem do darmowego „megafonu" – możliwości promocji i rozgłaszania treści. Niestety, algorytmy wręcz promują treści kontrowersyjne i wzbudzające emocje. System, w którym wąska grupa elit – niezależnie od tego, czy będą to prezesi platform, czy też jakaś elita polityczna w strukturze państwa – ma dominującą władzę nad rozprzestrzenianiem informacji, w końcu doprowadzi do nadużyć.

Minęło sporo czasu od „Deklaracji Niepodległości Internetu" z połowy lat 90. Sieć nie okazała się technologią zbawiającą demokrację i nas samych. Jest tak samo jak świat rzeczywisty zanurzona w sporach, wystawiona na pokusy łatwego zarobku czy zyskania sławy, glebą dla ludzkich ułomności. Zamiast śnić o liberalnej utopii, potrzebujemy już dziś zabrać się za wdrożenie w sieci republikańskich zasad separacji władzy, systemu kontroli, balansu między rolą różnych elit. 

Bartosz Paszcza jest członkiem zarządu Klubu Jagiellońskiego, szefem działu „Techno-republikanizm" na portalu KJ. Prowadzi podcast „ScepTech"

Usunięcie profilu przywódcy największego światowego mocarstwa z platform umożliwiających mu komunikowanie się z wyborcami powinno stać się momentem przełomowym dla rozwoju serwisów społecznościowych. Po latach afer i rozmów o roli platform internetowych u progu nowej dekady stajemy wobec pilnego wyzwania, które może zadecydować o losie demokracji – nie tylko tej liberalnej. Jeśli w tej dekadzie nie uporządkujemy zasad wypowiedzi i rozprzestrzeniania treści w sieci, to możemy nie mieć już nigdy na to kolejnej szansy. Odpowiedzią nie jest jednak ani pozwolenie platformom na samoregulację, ani zakazanie moderacji, ani jej upaństwowienie, lecz system kontroli i równowagi.

Pozostało 97% artykułu
Plus Minus
Kiedy będzie następna powódź w Polsce? Klimatolog odpowiada, o co musimy zadbać
Plus Minus
Filmowy „Reagan” to lukrowana laurka, ale widzowie w USA go pokochali
Plus Minus
W walce rządu z powodzią PiS kibicuje powodzi
Plus Minus
Aleksander Hall: Polska jest nieustannie dzielona. Robi to Donald Tusk i robi to PiS
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Prof. Marcin Matczak: PSL i Trzecia Droga w swym konserwatyzmie są bardziej szczere niż PiS