ChatGPT. Czy prawda przestanie istnieć?

Świat modeli generatywnych dostępnych dla każdego może stać się światem całkowicie pozbawionym prawdy, przykrytej przez halucynacje i fałszywki tworzone przez sztuczną inteligencję. A życie społeczne w świecie, w którym nie ma prawdy, staje się niedorzeczne.

Publikacja: 14.04.2023 10:00

ChatGPT. Czy prawda przestanie istnieć?

Foto: mat.pras.

Wpierwszej księdze „Polityki” Arystoteles dowodzi, że człowiek ze swojej natury stworzony jest do życia w państwie. Człowiek jest zwierzęciem politycznym, ponieważ potrzebuje żyć w zorganizowanej grupie społecznej – ale tym, co go odróżnia od innych gatunków społecznych, jak pszczoły czy mrówki, jest fakt, że posiada mowę. Posługiwanie się językiem, który nie tylko służy do komunikowania innym swojej radości, bólu, głodu czy nadchodzącego niebezpieczeństwa, ale również do wartościowania rzeczy i dyskutowania o abstrakcyjnych bytach, stanowi według Arystotelesa najbardziej istotny dowód na to, że nie możemy żyć poza państwem.

Podobnie jak w przypadku prostych komunikatów, które spotykamy również u innych zwierząt, w bardziej zaawansowanej ludzkiej komunikacji istotna jest kategoria prawdy. Jeżeli w grupie szympansów jeden z osobników komunikuje reszcie pojawienie się niebezpieczeństwa, to nikt nie dyskutuje nad tym faktem, nie analizuje jego znaczenia, nie zastanawia się, czy nadawcy coś się nie przywidziało – taki komunikat domyślnie traktowany jest jako prawdziwy. Szympans zawiadomiony przez ziomka o pojawieniu się lamparta reaguje tak, jak zareagowałby, widząc go osobiście. Język jest warunkiem współpracy społecznej, a warunkiem języka jest prawda. W innym wypadku żadna komunikacja nie miałaby najmniejszego sensu.

Jest to fundamentalna „prawda o prawdzie”. W tym miejscu jednak pojawiają się, być może nierozstrzygalne, trudności. Każdy niuans w formie komunikatu i każde świadome oraz nieświadome nagięcie konwencji językowych, każda decyzja o tym, co powiedzieć, a co przemilczeć – wszystko to wpływa na to, co możemy, a czego nie możemy traktować jako prawdę.

Na przykład status prawdziwości zdania: „Jan nie zaprosił na urodziny Marii”, wydaje się łatwy do stwierdzenia, bo jeżeli takiego zaproszenia nie było, to zgodnie z klasyczną definicją prawdy zdanie jest prawdziwe. Jednak jeżeli takie zdanie pada w kontekście rozmowy osób, które Marii nie lubią, a Jan nie miał możliwości zaproszenia Marii albo tego w ogóle nie rozważał, to jest to już w najlepszym wypadku półprawda. Gdy zaś równie prosty komunikat zyskuje zabarwienie polityczne – jak na przykład „Biden nie spotka się z Dudą” albo „Duda nie spotka się z Bidenem” – to odpowiedź na pytanie, czy jest on prawdą, będzie brzmieć zawsze: „to zależy”. Skoro nieoczywiste mogą być najprostsze komunikaty, to jak mamy podchodzić do złożonej, wielokanałowej i wielokontekstowej komunikacji?

Problem leży w tym, że większość tej komunikacji nie jest ani prawdziwa, ani fałszywa. Amerykański filozof Harry Frankfurt używał do opisu tego zjawiska pojęcia „bullshit” (w polskim tłumaczeniu książki Frankfurta: „wciskanie kitu”). „Bullshit” to kategoria poza prawdą i fałszem – osoba „wciskająca kit” nie zaprzecza prawdzie (jak robi to kłamca), ponieważ wciskanie kitu nie ma na celu przekazania jakichkolwiek informacji, ale skupienie uwagi na sobie. Wciskany kit stanowią zwykle zdania beztreściowe, których jedyną funkcją jest zaistnienie nadawcy – polityka, dziennikarza, „eksperta” – w świadomości odbiorcy.

Według Frankfurta cechą wyróżniającą nasze czasy – a pierwotną wersję eseju pisał jeszcze w latach 80. ubiegłego wieku – jest właśnie informacyjny chaos polegający na systemowej produkcji „kitu”. Źródłem tego jest coraz powszechniejsze oczekiwanie, że wszyscy powinni „mieć opinię” na pewien temat. Jeżeli zatem pojawi się jakiś gorący news, czujemy potrzebę dyskutowania o nim, zatem oczekujemy od innych (ale przede wszystkim od siebie) zajęcia w tej sprawie stanowiska. Pandemia, wojna w Ukrainie czy niedawne „rewelacje” na temat Jana Pawła II to znakomite przykłady tematów, o których „należało” napisać posta na Facebooku, zatweetować czy nagrać filmik na TikToka – im szybciej, tym lepiej.

Frankfurt zauważał, że to właśnie dlatego, że „bullshit” nie jest kłamstwem par excellence, wiele osób podchodzi do niego pobłażliwie, nie traktując go jako zagrożenie. To czyni z wciskania kitu działalność o wiele bardziej niebezpieczną niż zwykłe kłamstwa. „Wciskanie kitu” w istocie przyczynia się do dezinformacji. Nasza uwaga jest ograniczona – im więcej informacji krąży w przestrzeni, tym większe prawdopodobieństwo, że te rzeczywiście istotne zostaną przez nas pominięte. W ten sposób praktyka opisana przez Frankfurta jeszcze skuteczniej, niż zwykłe kłamstwo, pozbawia nas prawdy.

Czytaj więcej

Sztuczna inteligencja – narzędzie nowego autorytaryzmu

Inflacja postprawdy

Jeszcze nie wygasło na dobre zainteresowanie dotychczasową wersją Chatu GPT, a OpenAI opublikowało już jego następcę – GPT-4. Pomiędzy modelem GPT-3.5, na którym oparty jest Chat, a GPT-4 jest ogromna różnica skali wykorzystywanych parametrów, zatem GPT-4 wzbudził jeszcze większe poruszenie i jeszcze większą ilość zmarnotrawionego przy nim czasu.

Postępy w generatywnej AI to w istocie postępy w produkcji „bullshitu”. Pionier w dziedzinie uczenia głębokiego, obecnie pracujący w laboratorium Meta AI Yann LeCun, od momentu opublikowania ChatGPT stara się studzić publiczny entuzjazm dotyczący przyszłości wykorzystania wielkich modeli językowych (LLM). Modele językowe nie mają pojęcia o rzeczywistości, którą opisuje język, na którym pracują, twierdzi LeCun, natomiast ludzie, którzy posługują się językiem, są zanurzeni w rzeczywistości, która nie jest w całości tym językiem opisana. Większość naszej wiedzy o świecie jest niezwerbalizowana, a nawet nieuświadomiona. Model językowy natomiast, jak sama nazwa wskazuje, ma generować komunikaty językowe – poprawne gramatycznie i semantycznie, ale zupełnie oderwane od rzeczywistości.

Gdyby model wytrenowany był na bardzo wąskim zbiorze danych i nie posiadał wiedzy takiej, jaką posiada obecnie GPT-4, wciąż generowałby zgrabne odpowiedzi. Zatem chociaż LLM-y nie kłamią, to doskonale nadają się do produkowania coraz większej ilości informacji zupełnie bezużytecznych. Jeżeli prognozy się sprawdzą, to już w ciągu kilku lat miażdżąca większość treści w internecie będzie dziełem właśnie generatywnej sztucznej inteligencji, co w znaczący sposób spotęguje zjawisko opisane przez Frankfurta. Nie będziemy wiedzieli, co jest prawdą, ale na dobrą sprawę nie będzie nas to w ogóle interesowało.

Jednak pojawia się tutaj również i kłamstwo. Za pomocą uczenia głębokiego można obecnie generować obraz i dźwięk na podstawie coraz mniejszego zbioru danych uczących. Istnieją aplikacje, które mogą stworzyć ruchomy film na podstawie jednego tylko zdjęcia. Istnieją również programy, które na podstawie niewielkiej próbki głosu danej osoby są w stanie zsyntetyzować cały wywód mówiony jej głosem. A im więcej danych mamy – tekstu, zdjęć, nagrań wideo i audio – tym coraz mniej różniący się od rzeczywistości obraz możemy stworzyć. Deep fake, czyli generowane w ten sposób fałszywe wideo, opanowały już świat reklam i memów, ale wkraczają również na salony polityczne.

Chociaż próba użycia deep fake Wołodymyra Zełenskiego przez Rosjan w zeszłym roku była bardziej groteskowa niż straszna, to musimy mieć świadomość coraz bardziej postępującego udoskonalania tych technologii. Deep fakes będą z całą pewnością użyte jeszcze w ciągu tego roku do zachwiania porządkiem politycznym. Jednak wbrew temu, co twierdzą popularni „eksperci od AI”, nie w tym leży główny problem.

Naiwnością jest jednak sądzić, że nawet dobrze sfabrykowany deep fake – na przykład nagranie Joe Bidena, który wypowiada wojnę Chinom – rzeczywiście do wojny doprowadzi. Realną konsekwencją sytuacji, w której każdy może w domu wyprodukować wideo nieróżniące się niczym od rzeczywistych nagrań, będzie masowe zwątpienie w istnienie prawdy w ogóle.

W jednej z baśni braci Grimm zwolniony ze służby żołnierz kradnie czarownicy błękitne światełko, które pozwala mu na przywoływanie demona spełniającego wszystkie jego polecenia. Jedną z zachcianek jest uprowadzenie w nocy córki króla, który żołnierza ze służby zwolnił. Już za drugim razem królewna pozostawia na drzwiach żołnierza znak, który ma pomóc za dnia zidentyfikować miejsce, do którego była uprowadzana. Aby ochronić swojego pana, demon nie zamazuje znaku pozostawionego przez królewnę, ale robi podobny znak na wielu innych domach, czyniąc identyfikację niemożliwą.

Jeżeli będziemy codziennie we wszelkich możliwych kanałach oglądali nagrania prezydentów, premierów i innych wielkich tego świata mówiących absurdalne rzeczy, dokonujących nielegalnych czynów, czy choćby uprawiających ze sobą seks, to po pewnym czasie każde następne, choćby potwierdzone zeznaniami naocznych świadków, będziemy z automatu uznawali za fałsz. To właśnie ci, którzy mają najwięcej do ukrycia, najwięcej skorzystają z inflacji sfabrykowanych informacji. Skoro rzeczy, które raz trafiły do internetu, nie można stamtąd usunąć, to świetnym rozwiązaniem jest przykrycie ich setkami nowych.

Czytaj więcej

Cancel culture, czyli jak wymazać liberalizm

Mapa poprzedza terytorium

Największą szkodę poniosą oczywiście prości ludzie, w tym dzieci. O ile bowiem deep fake polityka albo innej osoby publicznej nie jest dużą jakościową zmianą w stosunku do różnych chwytów stosowanych w przeszłości, o tyle publiczny dostęp do narzędzi tworzących niemal idealne kopie rzeczywistości ma kolosalny (i tragiczny) wpływ na życie młodzieży. Wygenerowanie filmu pornograficznego z udziałem koleżanki lub kolegi z klasy ma zupełnie inny społeczny wymiar niż „tradycyjne” rozpuszczanie plotek i pomówień, a mało który rodzic – jeżeli którykolwiek – przygotowany jest na to, że może się to stać jego dziecku.

Świat modeli generatywnych dostępnych dla każdego może więc stać się światem całkowicie pozbawionym prawdy, przykrytej przez „halucynacje” generatorów tekstu i fałszywki stworzone przy pomocy generatorów wideo. Ale większa część procesu dokonała się wcześniej bez nich.

Jeszcze w 1981 roku francuski filozof Jean Baudrillard pisał o „precesji symulakrów” – uniezależnieniu się znaków od tego, co miały znaczyć. Według Baudrillarda na początku znak – tekst, obraz – reprezentował rzeczywistość; następnie tę rzeczywistość przysłaniał i zniekształcał; później ukrywał, że głębsza rzeczywistość nie istnieje. Na samym końcu przestawał mieć odniesienie do rzeczywistości i udawał, że nadal jest znakiem. Takie simulacrum to mapa w skali 1:1, która przykrywa całe terytorium; obserwator przestaje odróżniać to, co jest mapą, od tego, co ta mapa opisuje.

Aby znaleźć przykłady świadczące o tym, że Baudrillard miał rację, nie trzeba daleko szukać. Co jakiś czas pojawiają się historie, w których do chirurgów plastycznych zgłaszają się osoby, przede wszystkim kobiety, które jako wzór swojego wymarzonego wyglądu przynoszą własne zdjęcia zniekształcone filtrami Snapchata czy Instagrama. Trudno o bardziej wyraźny dowód na to, że rzeczywistość wirtualna nie reprezentuje już rzeczywistości, ale samą siebie, a ta ostatnia próbuje rozpaczliwie nadgonić ten dystans.

Czy na dłuższą metę jesteśmy jednak w stanie w taki sposób funkcjonować? Baudrillard zauważał, że kiedy rzeczywistość przestaje być tym, czym była, zaczyna się dominacja nostalgii i poszukiwania sensu w przeszłości. Rzeczywiście obserwujemy ten proces wszędzie wokół, znajdując odniesienia do lat 80. czy 90. w pop- kulturze czy marketingu. Pokolenie urodzone i wychowane pod koniec XX wieku jednak w końcu wymrze. Za czym tęskniło będzie pokolenie, które wyrosło już w świecie zupełnie oderwanych symulakrów? Co będzie dla niego punktem odniesienia?

Życie społeczne w świecie, w którym nie ma prawdy, staje się niedorzeczne. Amerykański psycholog społeczny Jonathan Haidt zwraca uwagę, że od 2010 roku, a więc od momentu rozpowszechnienia się Instagrama, podwoiła się liczba dziewczynek w wieku szkolnym przyjmowanych na oddziały szpitalne w związku z epizodami autoagresji. Dlatego też Haidt konsekwentnie prowadzi od kilku lat krucjatę na rzecz ograniczenia używania smartfonów w szkołach ze względu na zdrowie psychiczne dzieci. Ludzie zaskakująco dobrze radzą sobie z życiem w fikcji, ale warunkiem fikcji jest to, że istnieje również rzeczywistość, do której można wrócić.

Jednak z rezerwą należy traktować przestrzeganie przed sztuczną inteligencją, którego wyrazem był opublikowany pod koniec marca list otwarty nawołujący do „sześciomiesięcznej przerwy” w rozwijaniu tych technologii. Abstrahując od tego, czy coś takiego byłoby możliwe – i w jaki sposób – sztuczna inteligencja nie jest ani źródłem, ani najważniejszą częścią problemu. Stoimy przed dwoma scenariuszami – albo bardzo drastycznie odrzucimy świat symulacji, albo czeka nas rozpad życia społecznego, jakie znamy.

Wpierwszej księdze „Polityki” Arystoteles dowodzi, że człowiek ze swojej natury stworzony jest do życia w państwie. Człowiek jest zwierzęciem politycznym, ponieważ potrzebuje żyć w zorganizowanej grupie społecznej – ale tym, co go odróżnia od innych gatunków społecznych, jak pszczoły czy mrówki, jest fakt, że posiada mowę. Posługiwanie się językiem, który nie tylko służy do komunikowania innym swojej radości, bólu, głodu czy nadchodzącego niebezpieczeństwa, ale również do wartościowania rzeczy i dyskutowania o abstrakcyjnych bytach, stanowi według Arystotelesa najbardziej istotny dowód na to, że nie możemy żyć poza państwem.

Pozostało 95% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi