Michał Szułdrzyński: Człowiek czy robot? Nie wiadomo

Co się stanie, kiedy już zupełnie nie będziemy w stanie odróżnić, kto siedzi po drugiej stronie ekranu – człowiek czy maszyna?

Publikacja: 17.02.2023 17:00

Michał Szułdrzyński: Człowiek czy robot? Nie wiadomo

Foto: Adobe Stock

Opisanej m.in. przez brytyjskiego „Guardiana” i izraelskiego „Haaretza” historii Team Jorge właściwie trzeba się było prędzej czy później spodziewać. Po skandalu z Cambridge Analytica oczywiste stało się, że nie tylko jedna, ale znacznie więcej firm cyfrowych zbiera dane użytkowników, po to, by jeszcze lepiej profilować ich zachowania i wpływać na ich sympatie polityczne. I można się było spodziewać, że wiele innych podmiotów wykorzystuje algorytmy w mediach społecznościowych, by – jak pisze się o Team Jorge – wpływać na wyniki wyborów w ponad 30 krajach świata.

Czytaj więcej

Michał Szułdrzyński: Jak Facebook rozmontował demokrację

Były oficer izraelskich służb Tal Hanan stworzył globalną siatkę kont na różnych portalach, głównie społecznościowych, ale również profilów w serwisach Gmail czy Telegram, do których podczepione były karty kredytowe. Do tego stworzył program AIMS, Advanced Impact Media Solutions, czyli zaawansowane narzędzie wpływania na media, które wspierało główne zadanie Team Jorge – szerzenie dezinformacji. Jak to już opisywała Jessikka Aro w książce „Trolle Putina”, metody są zawsze podobne: gdzieś w odmętach sieci pojawia się fałszywa informacja, która rozprzestrzenia się, potem interesują się nią media i dzięki temu dostaje ona przyspieszenia, nawet jeśli zostanie sfalsyfikowana. Wszak w zalewie milionów bodźców płynących do nas z nagłówków w mediach społecznościowych fałszywe informacje rozprzestrzeniają się niekiedy szybciej niż prawdziwe, a możliwość odróżnienia jednych od drugich często przekracza możliwości zwykłego użytkownika. A jeśli w dodatku do dyspozycji jest sieć kont w różnych, często uchodzących za bezpieczne, serwisach, do których współpracownicy Team Jorge bez trudu się włamywali, oraz tysięcy profilów z własną historią, szerzenie dezinformacji staje się znacznie prostsze, a wytropienie źródeł fałszywych informacji praktycznie niemożliwe.

Wszak w zalewie milionów bodźców płynących do nas z nagłówków w mediach społecznościowych fałszywe informacje rozprzestrzeniają się niekiedy szybciej niż prawdziwe, a możliwość odróżnienia jednych od drugich często przekracza możliwości zwykłego użytkownika. 

W dziennikarskim śledztwie dotyczącym firmy Tala Hanana uderzył mnie mały szczegół. Otóż działalność fałszywych kont wspierana była przez rozwiązania z dziedziny sztucznej inteligencji, które miały utrudnić zdemaskowanie ich jako botów. Innymi słowy sztuczna inteligencja (prawdopodobnie był to zaawansowany algorytm) pomagała maszynie oszukać człowieka, który mógłby nabrać podejrzeń, że obcuje z fałszywym kontem sterowanym przez maszynę, a nie żywą osobą prowadzącą konto ze zdjęciem profilowym itp.

I choć to właściwie drobiazg, stanowił niezłą metaforę sytuacji, w której się znaleźliśmy. Ryzykiem związanym z tworzeniem przez człowieka zaawansowanych narzędzi jest to, że ludzie będą przekonani, że mają do czynienia z żywą istotą w sytuacji, gdy tak naprawdę po drugiej stronie jest maszyna. Czyż nie to właśnie stanowi umowną granicę pomiędzy światem ludzi i maszyn, właśnie świadomość tego, że obcujemy z robotem, a nie ludzkim istnieniem, osobą? Czy właśnie nie tu czai się zagadka intrygująca tak wielu i rozpalająca wyobraźnię, a mianowicie możliwość stworzenia samoświadomej sztucznej inteligencji.

Czytaj więcej

Michał Szułdrzyński: Mieliśmy rację. I co dalej?

A jeśli maszyny czy stworzone przez ludzi algorytmy – prostsze oraz te bardziej zaawansowane – zdolne do modyfikowania samych siebie, są w stanie oszukiwać nas w czymś tak niezwykle ludzkim jak złudzenie kontaktu z drugą istotą, to naprawdę powinna cierpnąć nam skóra na myśl o tym, jak perfekcyjnie będą oszukiwać ludzi jeszcze bardziej zaawansowane technologie wkrótce. I to właśnie jest moim zdaniem największe ryzyko fazy rozwoju technologicznego, w której się obecnie znajdujemy.

Opisanej m.in. przez brytyjskiego „Guardiana” i izraelskiego „Haaretza” historii Team Jorge właściwie trzeba się było prędzej czy później spodziewać. Po skandalu z Cambridge Analytica oczywiste stało się, że nie tylko jedna, ale znacznie więcej firm cyfrowych zbiera dane użytkowników, po to, by jeszcze lepiej profilować ich zachowania i wpływać na ich sympatie polityczne. I można się było spodziewać, że wiele innych podmiotów wykorzystuje algorytmy w mediach społecznościowych, by – jak pisze się o Team Jorge – wpływać na wyniki wyborów w ponad 30 krajach świata.

Pozostało 86% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi