Opisanej m.in. przez brytyjskiego „Guardiana” i izraelskiego „Haaretza” historii Team Jorge właściwie trzeba się było prędzej czy później spodziewać. Po skandalu z Cambridge Analytica oczywiste stało się, że nie tylko jedna, ale znacznie więcej firm cyfrowych zbiera dane użytkowników, po to, by jeszcze lepiej profilować ich zachowania i wpływać na ich sympatie polityczne. I można się było spodziewać, że wiele innych podmiotów wykorzystuje algorytmy w mediach społecznościowych, by – jak pisze się o Team Jorge – wpływać na wyniki wyborów w ponad 30 krajach świata.
Czytaj więcej
Z Trumpem czy bez Facebook nie rozwiąże problemów, które sam stworzył.
Były oficer izraelskich służb Tal Hanan stworzył globalną siatkę kont na różnych portalach, głównie społecznościowych, ale również profilów w serwisach Gmail czy Telegram, do których podczepione były karty kredytowe. Do tego stworzył program AIMS, Advanced Impact Media Solutions, czyli zaawansowane narzędzie wpływania na media, które wspierało główne zadanie Team Jorge – szerzenie dezinformacji. Jak to już opisywała Jessikka Aro w książce „Trolle Putina”, metody są zawsze podobne: gdzieś w odmętach sieci pojawia się fałszywa informacja, która rozprzestrzenia się, potem interesują się nią media i dzięki temu dostaje ona przyspieszenia, nawet jeśli zostanie sfalsyfikowana. Wszak w zalewie milionów bodźców płynących do nas z nagłówków w mediach społecznościowych fałszywe informacje rozprzestrzeniają się niekiedy szybciej niż prawdziwe, a możliwość odróżnienia jednych od drugich często przekracza możliwości zwykłego użytkownika. A jeśli w dodatku do dyspozycji jest sieć kont w różnych, często uchodzących za bezpieczne, serwisach, do których współpracownicy Team Jorge bez trudu się włamywali, oraz tysięcy profilów z własną historią, szerzenie dezinformacji staje się znacznie prostsze, a wytropienie źródeł fałszywych informacji praktycznie niemożliwe.
Wszak w zalewie milionów bodźców płynących do nas z nagłówków w mediach społecznościowych fałszywe informacje rozprzestrzeniają się niekiedy szybciej niż prawdziwe, a możliwość odróżnienia jednych od drugich często przekracza możliwości zwykłego użytkownika.
W dziennikarskim śledztwie dotyczącym firmy Tala Hanana uderzył mnie mały szczegół. Otóż działalność fałszywych kont wspierana była przez rozwiązania z dziedziny sztucznej inteligencji, które miały utrudnić zdemaskowanie ich jako botów. Innymi słowy sztuczna inteligencja (prawdopodobnie był to zaawansowany algorytm) pomagała maszynie oszukać człowieka, który mógłby nabrać podejrzeń, że obcuje z fałszywym kontem sterowanym przez maszynę, a nie żywą osobą prowadzącą konto ze zdjęciem profilowym itp.