Elżbieta Chojna-Duch: Wirtualne słowa, realny problem

Nie może być zgody na złośliwe, obraźliwe czy agresywne wypowiedzi w internecie.

Publikacja: 17.07.2024 04:32

Elżbieta Chojna-Duch: Wirtualne słowa, realny problem

Foto: Adobe Stock

Ochrona treści informacyjnych publikowanych w internecie to przede wszystkim przeciwdziałanie mowie nienawiści, bezprawnym treściom – dezinformacji i wulgaryzmom w mediach elektronicznych oraz ich monetyzacji, w tym na platformach internetowych. Tego wymaga prawo europejskie i w drodze implementacji do polskiego prawa dyrektywy o prawie autorskim i prawach pokrewnych na jednolitym rynku (aktu o usługach cyfrowych, DSA) oraz o rynkach cyfrowych (DMA) powinno obowiązywać od lutego 2024 r. w Polsce.

Przejęcie, kopiowanie cudzych treści i osiąganie przychodów z reklam medialnych przez big-techy (apel polskich mediów z 4 lipca 2024 r.) to więc tylko jedna strona problemu – podziału przychodów i tantiem. Akt o usługach cyfrowych DSA natomiast zawiera szersze regulacje, dotyczące nielegalnych treści na krajowych i zagranicznych platformach internetowych, oraz stworzenia bezpiecznego środowiska internetowego dla wszystkich konsumentów, nie tylko mediów, ochrony dóbr osobistych i godności ofiar hejtu. Chodzi też o eliminację takich pozornie neutralnych treści jak: „Chcesz dołączyć do dyskusji? Zostań naszym prenumeratorem”, zaraz obok obraźliwych komentarzy i reklam. Zarówno na platformach globalnych, jak i, niestety, krajowych.

Czytaj więcej

Łukasz Guza: Fejki i bezbronność przepisów

Mowa nienawiści to rynek

W dobie cyfryzacji, kiedy dostęp do informacji jest nieograniczony, mowa nienawiści i hejt stały się wyzwaniem dla współczesnych społeczeństw. Rozwój technologii, który miał ułatwić komunikację i wymianę poglądów, przyniósł również eskalację przemocy słownej i wrogości w debacie publicznej. Platformy internetowe, także w polskich mediach, tak ważne w dystrybucji treści, często nieświadomie przyczyniają się do monetyzacji mowy nienawiści, co prowadzi do poważnych konsekwencji społecznych.

Nowe technologie mają wpływ na wiele branż, a wartość rynku AI rośnie. Media liczą się jako ważna gałąź przemysłu, przestając być jedynie sferą oddziaływania sił społecznych, popularyzacji wartościowych treści, wiedzy, edukacji czy tylko rzetelnej informacji. Dla 56 proc. użytkowników w szesnastu krajach platformy internetowe są podstawowym źródłem informacji. To dobrodziejstwo dla świata, ale ma swą ciemną, biznesową stronę: silnej konkurencji firm oraz wykorzystywania mowy nienawiści, czyli nowego rodzaju przestępstwa, szczególnego dla przestrzeni cyfrowej, z przychodami z reklam i kliknięć w tle. Zagrożeniem dla wartości demokratycznych jest więc przemoc w cyfrowym świecie, nie tylko wirtualna. Anonimowość i brak bezpośrednich konsekwencji sprzyjają rozprzestrzenianiu się obraźliwych, agresywnych komunikatów.

Konsekwencje społeczne i ekonomia uwagi

„Wrogościwe” komunikaty prowadzą do głębszych podziałów społecznych, zwiększają antagonizmy i utrudniają dialog.

To także destrukcja konstruktywnej debaty – mowa nienawiści ją uniemożliwia. A przede wszystkim – i to jest najbardziej groźne – przyzwolenie na agresję i brutalność w przestrzeni publicznej prowadzi do normalizacji takich zachowań w internecie. Częsta ekspozycja na agresję słowną może sprawić, że przemoc fizyczna staje się akceptowalna. Ofiary przemocy słownej, nienawiści online często doświadczają problemów psychicznych, czują się zagrożone. Hejt przekłada się na zdrowie psychiczne właściwie każdego ich czytelnika, całego społeczeństwa.

Clickbaitowe tytuły często wypierają wartościowe i rzetelne teksty. Platformy internetowe korzystają z algorytmów budzących największe zaangażowanie użytkowników, co prowadzi do preferowania kontrowersyjnych i sensacyjnych materiałów. W efekcie, choć szkodliwe, generują więcej kliknięć i przychodów z reklam. Hejt dotyczy też sportowców. Doświadcza tego nasza najlepsza tenisistka Iga Świątek. Może mieć to wpływ na ich wyniki. Fake-newsy dotyczą nie tylko osób publicznych. Co więcej, grupy radykalne wykorzystują mowę nienawiści do polaryzacji społeczeństwa, szerzenia dezinformacji i rekrutacji nowych członków.

Aspekty prawne i obowiązki platform w wielu systemach

Sąd Najwyższy w wyroku z 10 stycznia 2014 r., sygn. akt I CSK 128/13 zauważył, że sytuacja obywateli obrażanych i poniżanych przez anonimowych użytkowników internetu jest bardzo trudna. Z tego względu powinny istnieć skuteczne mechanizmy prawne, które będą zapobiegać działaniom naruszającym godność obywateli w internecie. Z kolei z orzecznictwa Europejskiego Trybunału Praw Człowieka wynika, że administrator portalu ma niezwłocznie usuwać oczywiście bezprawne treści, w szczególności komentarze, które mogą naruszać dobra osobiste, noszą znamiona nienawiści lub podżegania do przemocy, nawet bez uprzedniego wezwania do ich usunięcia ze strony domniemanej ofiary lub osób trzecich (wyrok z 16 czerwca 2015 r. w sprawie Delfi AS przeciwko Estonii, nr 64569/09).W orzeczeniu tym Trybunał przypomniał, że każdy głos może być słyszany w internecie; obowiązek dużego portalu podjęcia skutecznych działań w celu ograniczenia rozpowszechniania mowy nienawiści nie może w żadnym razie być utożsamiany z prywatną cenzurą. Uznając ważną rolę internetu w zwiększaniu dostępu obywateli do informacji, należy też uwzględniać ryzyko i skutki szkód wynikających z dostępnych tam treści.

W Wielkiej Brytanii wprowadzono szczegółowe przepisy karne uwzględniające specyfikę przestępstw w przestrzeni cyfrowej. Przeciwdziałanie mowie nienawiści może zostać uwzględnione w nowych regulacjach. Wymaga to jednak ostrożnego wyważenia kolidujących ze sobą dóbr. W lutym2024 r. w Kanadzie z kolei wprowadzono przepisy mające przeciwdziałać szkodliwym treściom online. Ustawa o szkodach w internecie przewiduje podobne do określonych w europejskim akcie o usługach cyfrowych. Są potrzebne i słuszne, jednak ze względu na dodatkowe zaostrzenie sankcji karnych wzbudziły obawy o ich nadużywanie.

Monetyzacja mowy nienawiści

Algorytmy mediów społecznościowych i portali internetowych promują treści generujące największe zaangażowanie, co często oznacza preferowanie materiałów kontrowersyjnych i wrogich. Sensacyjne treści wypychają te rzetelne, a szokujące zapewniają większe zasięgi, wyższe zaangażowanie użytkowników i oczywiście przychody z reklam. Monetyzacja mowy nienawiści przez platformy internetowe wymaga więc ograniczenia.

Przeciwdziałanie wymaga systemowych rozwiązań

Po pierwsze, wdrożenia w Polsce aktu o usługach cyfrowych. Do rozważenia jest też zmiana przepisów karnych uwzględniających specyfikę przestępstw w internecie, przejrzystość i weryfikowalność algorytmów. Jednak ustalenie anonimowego sprawcy jest bardzo trudne. Dlatego przepisy karne nie wystarczą do skutecznej ochrony przed mową nienawiści. To dostawcy tych patotreści i podmioty je rozpowszechniające powinni ponosić za nie odpowiedzialność. Przeniesienie ciężaru na wymiar sprawiedliwości wydaje się słabo efektywne. Usunięcie naruszeń po kilku latach postępowania sądowego w ograniczonym stopniu zrekompensuje szkody. W świadomości odbiorców fałszywy negatywny obraz został utrwalony.

Po drugie, zmiany modelu finansowania mediów, gdy opierają się, jak obecnie, na przychodach z reklam, prowadzą do patologii i monetyzacji mowy nienawiści. Sensacyjne treści, clickbaitowe tytuły wypierają jakościowe, rzetelne teksty. Ważne jest przestrzeganie standardów i zasad etyki dziennikarskiej. To także edukacja i dbałość o język w debacie publicznej wszystkich jej uczestników. Dyskusja powinna być merytoryczna, konstruktywna. Złośliwa, agresywna jest bezproduktywna. Różnice w poglądach nie mogą usprawiedliwiać agresji słownej. Przeciwdziałanie mowie nienawiści wymaga jednocześnie systemowego podejścia, zmiany modelu finansowania mediów, odpowiedzialności dostawców treści online, skutecznych mechanizmów weryfikacji treści i szybkiego usuwania tych bezprawnych.

Promowana powinna być dbałość o język debaty publicznej i wzajemny szacunek. Wolność słowa i prawo do krytyki nie mogą być nadużywane, przemoc słowna jest zagrożeniem dla pluralizmu poglądów i demokracji, a przede wszystkim – hejt nie może być opłacalny.

Po trzecie, nie można pominąć zagrożeń wynikających z dynamicznie rozwijającej się sztucznej inteligencji. Firmy oskarżane są o wykorzystywanie publicznie dostępnych treści do trenowania algorytmów, bez zachowania weryfikacji ich rzetelności lub zgodności z przepisami prawa. Oznacza to, że wszelkie pato- treści mogą być powielane, zwiększając zakres naruszeń.

Działania przeciwko mowie nienawiści i innym bezprawnym treściom powinny mieć charakter systemowy, działać prewencyjnie. Monitorować i usuwać je mógłby organ państwowy (UKE?) lub społeczny zespół moderatorów.

Podsumowując, nie może być zgody wszystkich stron społecznych i Państwa na złośliwe, obraźliwe czy agresywne wypowiedzi w internecie. Popieram więc wszelkie apele, rekomendacje na rzecz zwalczania dezinformacji i mowy nienawiści, a zwłaszcza jej monetyzacji.

Elżbieta Chojna-Duch — dr. hab. nauk prawnych, była wiceminister finansów

Ochrona treści informacyjnych publikowanych w internecie to przede wszystkim przeciwdziałanie mowie nienawiści, bezprawnym treściom – dezinformacji i wulgaryzmom w mediach elektronicznych oraz ich monetyzacji, w tym na platformach internetowych. Tego wymaga prawo europejskie i w drodze implementacji do polskiego prawa dyrektywy o prawie autorskim i prawach pokrewnych na jednolitym rynku (aktu o usługach cyfrowych, DSA) oraz o rynkach cyfrowych (DMA) powinno obowiązywać od lutego 2024 r. w Polsce.

Przejęcie, kopiowanie cudzych treści i osiąganie przychodów z reklam medialnych przez big-techy (apel polskich mediów z 4 lipca 2024 r.) to więc tylko jedna strona problemu – podziału przychodów i tantiem. Akt o usługach cyfrowych DSA natomiast zawiera szersze regulacje, dotyczące nielegalnych treści na krajowych i zagranicznych platformach internetowych, oraz stworzenia bezpiecznego środowiska internetowego dla wszystkich konsumentów, nie tylko mediów, ochrony dóbr osobistych i godności ofiar hejtu. Chodzi też o eliminację takich pozornie neutralnych treści jak: „Chcesz dołączyć do dyskusji? Zostań naszym prenumeratorem”, zaraz obok obraźliwych komentarzy i reklam. Zarówno na platformach globalnych, jak i, niestety, krajowych.

Pozostało 87% artykułu
Rzecz o prawie
Ewa Szadkowska: Jak u Hitchcocka
Rzecz o prawie
Mikołaj Małecki: Aborcja dozwolona nie znaczy dowolna
Rzecz o prawie
Marek Domagalski: Zbiórka na PiS wyrasta na obywatelską samoobronę
Rzecz o prawie
Gutowski, Kardas: Paradoksy polskiego sądownictwa
Rzecz o prawie
Maciej Zaborowski: Gdy pióro staje się bronią, czyli dziś każdy z nas jest dziennikarzem
Materiał Promocyjny
Jak wygląda auto elektryczne