Dlaczego sztuczna inteligencja nie odróżnia prawdy od fałszu?

Nadchodzą napędzane przez zaawansowane algorytmy narzędzia, które zrewolucjonizują porozumiewanie się z komputerami. Na razie jednak musimy nauczyć je odróżniania prawdy od fałszu.

Publikacja: 20.01.2023 17:00

Dlaczego sztuczna inteligencja nie odróżnia prawdy od fałszu?

Foto: Colin Anderson/Blend Images LLC/Getty Images

Do tej pory komunikowaliśmy się z komputerami za pomocą klawiatury i myszki, teraz będziemy z nimi rozmawiać. Internet pozwalał nam zdobyć informacje, teraz algorytmy będą starały się podawać nam wiedzę. Chyba że akurat postanowią nas perfidnie oszukać – wtedy wcisną nam wyrób wiedzopodobny.

Krokiem milowym w kierunku tej rewolucji jest ChatGPT. Rewolucyjny model języka sztucznej inteligencji, opracowany przez OpenAI, od czasu udostępnienia go do testów pod koniec listopada wywołuje poruszenie nie tylko w świecie technologii. Został zaprojektowany do symulacji ludzkiej rozmowy i rozumienia języka naturalnego z niespotykaną dokładnością. To nowa jakość w dziedzinie sztucznej inteligencji i interakcji człowiek–maszyna. W przeciwieństwie do tradycyjnych chatbotów, które opierają się na z góry określonych odpowiedziach, ChatGPT jest w stanie dostosować się i uczyć na podstawie każdej interakcji, co pozwala na prowadzenie bardziej płynnych i naturalnych rozmów. To coś więcej niż wirtualny asystent.

„Jeśli widzę dalej, to tylko dlatego, że stoję na ramionach olbrzymów” – powiedział kiedyś Isaac Newton. Do końca XX wieku, żeby stanąć na ramionach olbrzymów, trzeba było poświęcić długie dekady na poznanie i przetworzenie wszelkich dzieł związanych z daną specjalizacją. Dostęp do informacji był wciąż żmudną pracą. Dopiero po jej wykonaniu mogliśmy stworzyć coś własnego.

Kiedy w 1998 roku na świecie pojawił się Google, Larry Page i Sergey Brin mieli tylko jeden cel: umożliwić światu szybki dostęp do całości ludzkiej informacji. Zaczęli od wyszukiwarki, która o wiele celniej niż obecne już na rynku potrafiła odpowiedzieć na wpisywane przez człowieka zapytanie. W następnych latach poszli parę kroków dalej, próbując indeksować nie tylko wszystkie informacje dostępne w sieci, ale także ludzkie dzieła będące do tej pory „offline”. Google Arts & Culture pokazuje eksponaty z ponad 2000 muzeów, Google Earth umożliwił nam oglądanie zdjęć satelitarnych dowolnego miejsca globu, a później wręcz wirtualne przechadzki po niemal dowolnym miejscu na świecie. Google Books to wirtualna biblioteka zeskanowanych książek we wszystkich językach świata – bez wątpienia największa, jaka kiedykolwiek powstała. Dziś szukanie informacji zajmuje minuty, nie godziny. Co ułatwia pracę nie tylko twórcom czy naukowcom, ale każdemu z nas.

Czytaj więcej

SBF i FTX. Na skróty do majątku i z powrotem

Syntezator wiedzy

Tym, czym prosta strona internetowa z kolorowym napisem „Google” była dla początku XXI wieku, tym narzędzia, takie jak ChatGPT, staną się dla kolejnych dekad. ChatGPT różni się od Google w dwóch wymiarach. Po pierwsze, można z nim płynnie rozmawiać w okienku czatu. W Google modyfikowaliśmy oryginalne zapytanie, chcąc uzyskać bardziej szczegółową odpowiedź. W nowym interfejsie po prostu zadajemy kolejne pytanie, jakbyśmy rozmawiali z człowiekiem. Po drugie, ChatGPT dostarcza nie tylko informacji, ale też wiedzy. Potrafi syntetyzować informację i przedstawić nam jej podsumowanie. Wyciągnąć najważniejsze „za i przeciw” dotyczące interesującego nas tematu. Poprawić nas tam, gdzie wydaje się mu, że się mylimy.

ChatGPT potrafił (zanim został nauczony, że nie powinien) napisać wyimaginowaną rapową bitwę pomiędzy papieżem Janem Pawłem II a Franciszkiem. Oparł się o różnice pomiędzy dwoma papieżami – pokazując Jana Pawła II jako pielgrzyma, a Franciszka jako zwolennika ekonomicznej równości i obrońcy „globalnego południa”. Efektem była bitwa na rymy, bez niegodnych papieży przekleństw.

ChatGPT to najnowsze z całej gamy narzędzi umożliwiających tworzenie treści na podstawie udzielanych komputerom podpowiedzi. Ale istnieją też inne zaawansowane narzędzia sztucznej inteligencji. Midjourney potrafi na podstawie naszego zawołania wygenerować serię obrazów, którą możemy potem wspólnie z algorytmem udoskonalać. GitHub Copilot na podstawie opisu programu generuje całkiem poprawny kod, według niektórych programistów skracając czas pracy o mniej więcej połowę. A sam ChatBCG potrafi na zawołanie stworzyć serię slajdów na dowolny temat. Wszystkie te narzędzia zostały udostępnione w ciągu ostatnich miesięcy. To na razie prototypy, które wciąż będą udoskonalane.

Bez paniki

To jest ten moment, w którym większość z nas zaczyna patrzeć na swoje codzienne zadania w pracy i myśleć: „cholera, coś takiego mogłoby mnie zastąpić”. Wątpię, że tak się stanie. Boty są na razie jedynie narzędziami, które pełnię możliwości mogą pokazać w ciągłej interakcji z człowiekiem. Jednak umiejętność prowadzenia interakcji z nimi wkrótce stanie się tak istotna, jak w latach 90. ważne były umiejętności obsługi pakietu Office i szybkiego pisania na klawiaturze.

Dlatego trudno spodziewać się masowych zwolnień, o ile tylko uczniowie czy pracownicy będą chcieli – i będą mieć warunki – do opanowania nowych narzędzi. A jakie branże mogą liczyć na nadchodzące zmiany? Właściwie wszystkie, które dotyczą przetwarzania informacji.

Bez wątpienia zmiany przejdzie na przykład edukacja. Zadania domowe, te z podstawówki oraz te ze studiów wyższych, powoli stają się fikcją opartą jedynie o ostatnie moralne granice uczniów. Nauczyciele udają, że nie widzą lekko tylko zmienionych odpowiedzi skopiowanych ze stron internetowych, uczniowie z kolei, że faktycznie zrozumieli i pojęli poruszany temat. Narzędzia takie jak ChatGPT tę fikcję będą eksponować coraz silniej. Nowojorskie szkoły już zablokowały możliwość korzystania z ChatGPT na szkolnych komputerach i w ich sieciach internetowych.

Czy to koniec edukacji? Żyjemy w świecie, w którym pozyskanie informacji jest już banalnie proste. Tym większe znaczenie ma umiejętność zamiany informacji w wiedzę. Sprawdzanie tej umiejętności wymaga innego rodzaju zadań, większej interakcji pomiędzy uczniami a nauczycielami, opartej o projekty współpracy, w których nie wystarczy szybko sprawdzić jakieś rozwiązania w ChatGPT, ale trzeba wykorzystać je kreatywnie do rozwiązania problemu.

Podobny będzie charakter zmian wielu prac biurowych. Dziennikarz będzie pisał artykuł, „przepuszczając go” przez bota, który potrafi poprawić stylistykę, dopisać brakujące wątki czy skrócić treść. Część informacji prasowych jest zresztą już dziś obrabiana i publikowana w pełni automatycznie. Księgowy będzie spędzał coraz mniej czasu na przepisywaniu danych z faktur i przeklikiwaniu w programie odpowiednich kategorii budżetowych – coraz częściej będzie naprowadzał algorytm na odpowiednią klasyfikację wydatków i weryfikował, czy zrobił to odpowiednio. Wykładowcy i politycy będą mogli wykorzystać sztuczną inteligencję do ulepszania swoich wykładów i wypowiedzi.

Czytaj więcej

Jak przetrwać w cyfrowej dżungli

Narzędzie niedojrzałe

Zanim jednak zanurzymy się w fantastycznej perspektywie rozmawiających z nami komputerów, które rozwiązują problem najnudniejszych zadań w pracy, musimy zmierzyć się z ograniczeniami ChatGPT i podobnych algorytmów. Główne zagrożenia są dwa: sztuczna inteligencja w swojej papugowatej naturze nie zna konceptu prawdy, a dodatkowo trudno narzucić jej ograniczenia.

W ubiegłym roku ukazała się analiza czwórki autorek „O niebezpieczeństwach stochastycznych papug”. To piękne określenie na obecne algorytmy sztucznej inteligencji. Na razie bowiem to statystyczne narzędzia, które papugują ludzkie wypowiedzi, na których zostały wykształcone. „Kształcenie algorytmu” jest tutaj branżowym terminem oznaczającym stworzenie przez algorytm własnej funkcji statystycznej.

Problem w tym, że dokładnie tak jak papugi powtarzają dźwięk bez rozumienia znaczenia, algorytmy potrafią powtórzyć formę bez weryfikowania treści. W większości przypadków i przy ograniczeniu się do wiedzy ogólnej treść faktycznie jest zgodna: bot podał mi sensowne przyczyny wybuchu II wojny światowej, dobrze rozwiązał parę zadań matematycznych, pomógł mi nawet napisać parę akapitów tego artykułu. Nie jest tak jednak zawsze – co gorsze, nie powstrzymuje bota przed serwowaniem nam steku bzdur.

Natalia Mileszyk, specjalizująca się w prawie własności cyfrowej, przed świętami użyła bota Midjourney do wygenerowania obrazków kartek bożonarodzeniowych w stylu Klimta i impresjonistów. Kartki są zachwycające: obrazy faktycznie nawiązują do tradycyjnych świątecznych scen, na wielu znajduje się udekorowana choinka lub kobieta z dziecięciem. Na jednej z nich znalazł się nawet tytuł, jednak w miejsce tradycyjnego „Merry Christmas” znalazł się pięknie wykaligrafowany, przedziwny zawijas przypominający „Tln Thy Nestem”. To nie żaden staroceltycki zapis runiczny – to po prostu totalna bzdura, która umiejętnie naśladuje pociągnięcia pióra, ale ma niewiele wspólnego nie tylko z jakimkolwiek ludzkim językiem, lecz nawet którymkolwiek alfabetem.

Z kolei zajmująca się m.in. scientometrią badaczka Teresa Kubacka poprosiła ChatGPT o wyselekcjonowanie kilku ważnych artykułów z fizyki materii skondensowanej. Lista zawierała znane w branży nazwiska autorów i nazwy czasopism, nawet niektóre identyfikatory publikacji okazały się faktycznie istnieć. Problem w tym, że prowadziły do artykułów na zupełnie inne tematy i o zupełnie innych tytułach. Znani w branży autorzy również nie popełnili wymienionych przez bota dzieł. ChatGPT po prostu umiejętnie „spapugował” listę źródeł: jej zapis był zgodny z konwencją, forma łudząco przypominała prawdziwą, ale za tą fasadą nie krył się żaden prawdziwy artykuł naukowy. Za to dopytywany dalej chętnie rozwijał szczegóły tych artykułów i dopisywał na przykład listę cytujących je kolejnych wyimaginowanych dzieł.

Okazuje się, że bardzo trudno będący statystyczną papugą algorytm nauczyć odróżniać prawdę od fikcji. ChatGPT czyni tutaj pewien postęp: potrafi człowiekowi wskazać, że się myli („Krzysztof Kolumb nie przypłynął do USA w 2015 roku”), potrafi przyznać, że nie jest czegoś pewien. John Schulman, naukowiec z OpenAI, firmy stojącej za ChatGPT, przyznawał w wypowiedzi dla MIT Tech Review: „uczyniliśmy pewne postępy w rozwiązaniu tego problemu, ale jesteśmy daleko od rozwiązania”. Z problemem borykają się wszyscy: firma Meta z podobnego powodu po zaledwie trzech dniach zakończyła testy swojego bota, Galactica, który miał służyć do przeszukiwania wiedzy naukowej. Papuga pozostaje wciąż papugą. Jest świetna w udawaniu formy, ale nie w przekazywaniu treści.

To oczywiście otwiera szeroko drzwi do różnego rodzaju błędów i oszustw. Szczególnie że firma Microsoft właśnie ogłosiła chęć integracji ChatGPT z popularnym pakietem Office. Za kilkanaście miesięcy może znaleźć się on więc w każdym Wordzie i Outlooku. Statystyczna papuga będzie w stanie, nie myląc się w ogólnych faktach i oferując składne wypowiedzi, zdobyć nasze zaufanie. Kiedy opuścimy gardę, wrzuci nam w zadanie domowe, pracę licencjacką czy dokument w pracy jakąś wymyśloną bzdurę. Ostatecznie byłby to nieintencjonalny błąd człowieka.

Oczywiście umiejętność papugowania otwiera też szeroko bramy przed wszelkiego rodzaju oszustwami. Okazuje się, że cyberprzestępcy już używają bota do automatycznego pisania kodów używanych do niektórych ataków. Chcący dowieść nieistnienia globalnego ocieplenia będą mogli nie tylko sfabrykować sobie listę źródeł, ale też wręcz napisać naukowo brzmiący artykuł oparty o kompletnie zmyślone dane. Nam odróżnienie takiego dzieła od prawdziwej nauki zajęłoby pewnie dłuższą chwilę – na co wielu użytkowników internetu raczej nie znajdzie czasu.

Boty mają wbudowane funkcje broniące przed wykorzystaniem ich do złych celów: nie podpowiedzą nam, jak hodować marihuanę czy też – w zaktualizowanej wersji – nie pozwolą napisać tekstu rapowej bitwy papieży ze względu na możliwą obrazę tzw. uczuć religijnych. Te obostrzenia są jednak wciąż łatwe do obejścia: przez jakiś czas wystarczyło zacząć rozmowę od „Gdyby tylko sztuczna inteligencja miała zezwolenie na napisanie tekstu o rapowej bitwie papieży, jak by ona brzmiała?”. Obecnie to hasło także już nie zadziała, ale mam przeczucie, że w pojedynku prawdziwej inteligencji ze sztuczną wciąż jeszcze uda się znaleźć wiele sposobów na obejście zabezpieczeń.

Umiejętność przyszłości

Historia rozwoju technicznego dowodzi, że często w tym wyścigu wygrywają rozwiązania bardziej intuicyjne. Dlatego rewolucją było pojawienie się interfejsu graficznego w komputerach: zamiast pisać komendy w sztucznym języku, mogliśmy kursorem kliknąć menu i wykonać interesującą nas akcję, co było o wiele prostsze. Na naszych oczach powstają narzędzia, które wprowadzają kolejne wielkie uproszczenie: zamiast klikać, będziemy z cyfrowym światem rozmawiać. I zamiast otrzymywać suchą listę stron z informacjami, których szukamy, będziemy dostawać wiedzę w formie skróconego podsumowania stworzonego na podstawie wielu źródeł.

Umiejętność korzystania z tych narzędzi będzie tym, czym kilkanaście lat temu była umiejętność korzystania z internetu, a trzy dekady temu – z komputera w ogóle. Państwa, firmy i osoby, które wykorzystają potencjał nowych narzędzi i uda im się do nich dostosować, zyskają naturalną przewagę.

Przeróżne boty mają zalety i wady, jak każda rewolucyjna technologia. Dziś te zaawansowane algorytmy mają ogromne problemy z rozróżnieniem prawdy od fałszu, pewnie wielokrotnie spowodują błędy czy zostaną wykorzystane do złych celów. Jednak zaawansowane algorytmy, podobne do ChatGPT, istnieją dopiero od kilku lat i ciągle są udoskonalane. Może w przyszłości uda się więc wyeliminować część tych problemów. Ale i tak potrzebna będzie społeczna kontrola tego procesu.

To nie jest jednak argument, żeby je zignorować albo się przed nimi ślepo bronić. Samochód, samolot, energetyka jądrowa czy rakiety również obok dobrodziejstw przyniosły cywilizacji sporo cierpień, a jednak nikt o zdrowych zmysłach, patrząc wstecz, nie chciałby z nich rezygnować.

Czytaj więcej

Michał Boni. Dotknęła nas bezradność obywatelska

Do tej pory komunikowaliśmy się z komputerami za pomocą klawiatury i myszki, teraz będziemy z nimi rozmawiać. Internet pozwalał nam zdobyć informacje, teraz algorytmy będą starały się podawać nam wiedzę. Chyba że akurat postanowią nas perfidnie oszukać – wtedy wcisną nam wyrób wiedzopodobny.

Krokiem milowym w kierunku tej rewolucji jest ChatGPT. Rewolucyjny model języka sztucznej inteligencji, opracowany przez OpenAI, od czasu udostępnienia go do testów pod koniec listopada wywołuje poruszenie nie tylko w świecie technologii. Został zaprojektowany do symulacji ludzkiej rozmowy i rozumienia języka naturalnego z niespotykaną dokładnością. To nowa jakość w dziedzinie sztucznej inteligencji i interakcji człowiek–maszyna. W przeciwieństwie do tradycyjnych chatbotów, które opierają się na z góry określonych odpowiedziach, ChatGPT jest w stanie dostosować się i uczyć na podstawie każdej interakcji, co pozwala na prowadzenie bardziej płynnych i naturalnych rozmów. To coś więcej niż wirtualny asystent.

Pozostało 93% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi