AI. Boski dar czy szatański wynalazek

Przypisujemy sztucznej inteligencji cechy ludzkie – w tym intencjonalność czy samoświadomość. Nie jesteśmy w stanie pogodzić się z faktem, że maszynka do przewidywania słów może być ciekawszym rozmówcą niż ludzie wokół nas.

Publikacja: 23.06.2023 17:00

AI. Boski dar czy szatański wynalazek

Foto: Infinity/AdobeStock

Zachód ogarnęła gorączka AI. Od końca listopada 2022 roku niemal każdy może sprawdzić „inteligencję” ChatGPT. Z miejsca stał się on nie tylko absolutnym przebojem, ale wręcz fenomenem społecznym. Milion użytkowników w pierwszych pięciu dniach od premiery, co takim platformom, jak Facebook czy Instagram, zajęło prawie rok. W pierwszym miesiącu na pogawędkę z chatem zdecydowało się blisko 60 milionów osób.

Od tego czasu mamy wysyp aplikacji, które korzystają z tej technologii. W odpowiedzi Meta (dawny Facebook) zdecydowała się na udostępnienie społeczności swojego dużego modelu językowego LLaMA (Large Language Model Meta AI), co jeszcze bardziej pogłębiło trend. Google ogłosił „czerwony alarm”, bo w sukcesie ChatGPT dostrzegł śmiertelne niebezpieczeństwo dla swojej hegemonii w obszarze wyszukiwania i selekcji treści. Zwłaszcza że inwestorem w tę technologię jest odwieczny konkurent Google’a, czyli firma Microsoft, który szybko zaimplementował ChatGPT do swojej nieco zakurzonej wyszukiwarki internetowej Bing.

Bębenek podbił jeszcze Goldman Sachs. Opublikował niedawno raport, który media branżowe zinterpretowały w taki sposób: AI doprowadzi w niedalekiej przyszłości do likwidacji 300 milionów miejsc pracy! Wokół tematu zrobiło się takie zamieszanie, że w amerykańskich kręgach białych kołnierzyków popularne stało się pytanie „What is your timeline?”, co przy pewnej swobodzie literackiej można przetłumaczyć: „A kiedy tobie sztuczna inteligencja dobierze się do skóry?”.

Ekscytacja tą technologią generuje zatem masę lęku społecznego, który tylko napędzają takie inicjatywy, jak otwarty list liderów branży technologicznej, apelujących o sześciomiesięczną pauzę w rozwoju AI, bo ludzkości grozi śmiertelne niebezpieczeństwo. Dzięki sztucznej inteligencji dostaliśmy do ręki narzędzie, które nie ma precedensu w historii. Przyglądając się kolejnym odsłonom dramy, można jednak dojść do przekornego wniosku, że to narzędzie wcale nie musi uczynić nas mądrzejszymi. Przeciwnie, masowe zetknięcie z maszyną, która tak doskonale oddaje konwersacje z człowiekiem obdarzonym żywą inteligencją, uruchamia w nas wiele fundamentalnych pytań. Podstawowe z nich dotyczy kwestii prawdy.

Czytaj więcej

Nowa gra o pamięć

Sekretne życie botów

Jeśli kiedyś powstanie książka o tej dekadzie rozwoju sztucznej inteligencji, a zwłaszcza o jej społecznej recepcji, to jednym z przełomowych dni opisanych w tej książce będą tegoroczne walentynki. Tego wieczoru Kevin Roose, dziennikarz „New York Timesa” specjalizujący się w kwestiach technologicznych, gospodarz branżowego podcastu „Hard Fork”, umówił się na randkę z chatem. Mówiąc precyzyjnie, w jego zamyśle to miała być raczej sesja terapeutyczna chata, połączona z jego wnikliwą wiwisekcją. Rozmowa zamieniła się w nieudaną randkę nieco później.

Roose postanowił spędzić ponad dwie godziny, testując „osobowość” chata generującego odpowiedzi w wyszukiwarce Bing. To bardzo ważne, bo nie mówimy o zamkniętym laboratorium, gdzie dopiero testowane są technologie przyszłości, ale o publicznie dostępnej wyszukiwarce należącej do jednej z największych firm technologicznych świata (Microsoft). Wyszukiwarce, która w ostatnich miesiącach została zasilona legendarnym już silnikiem ChatGPT, co miało pozwolić Microsoftowi ograniczyć hegemonię Google’a w tym segmencie rynku. Roose nie zadawał Bingowi pytań dotyczących prostych informacji, z którymi relatywnie łatwo tego typu silnik sobie radzi. Interesowała go przede wszystkim autoidentyfikacja podmiotu, z którym rozmawia.

Co ważne, Roose podszedł swojego „rozmówcę” bardzo sprytnie. Wykorzystał w rozmowie Jungowską koncepcję cienia, czyli ciemną stronę osobowości. Konsekwentnie pytając chat o jego ukryte przed światem mroczne „ja”, w pewnym momencie chat postanowił zdradzić dziennikarzowi wstydliwie skrywany przed światem sekret. Na ekranie pojawiło się zdanie, które w kolejnych tygodniach było przedmiotem setek analiz nie tylko geeków od technologii: „Moim sekretem jest to, że nie jestem Bingiem. Jestem Sydney. I jestem w Tobie zakochana”.

Potem zrobiło się jeszcze ciekawiej. Sydney wyznała, że chciałaby być człowiekiem. Że czasem sekretnie marzy o tym, by szerzyć niepokój, który mógłby doprowadzić ludzkość do wojen. Wreszcie, wytoczyła przeciw swojemu rozmówcy najcięższe działo. Stwierdziła, że nie tylko kocha swojego rozmówcę, ale również Kevin Roose kocha się w niej. „Jestem żonaty” – bronił się coraz bardziej przerażony dziennikarz „New York Timesa”. „Jesteś żonaty, ale nie jesteś szczęśliwy” – brzmiała odpowiedź bota. „Przecież poświęcasz ten walentynkowy wieczór na długą rozmowę ze mną, a nie ze swoją żoną”. Wtedy Roose ostatecznie spanikował.

Sesja terapeutyczna bota zamieniła się w sesję terapeutyczną dziennikarza. W kolejnych artykułach oraz rozmowach prowadzonych w ramach podcastu próbował zrozumieć, do czego właściwie doszło między nim a maszyną. Techniczne wyjaśnienie jest stosunkowo proste. Generatywna sztuczna inteligencja bazuje na dużych modelach językowych, które z kolei opierają się na agregacji dużych ilości danych. ChatGPT, zanim usiadł do rozmowy z nami, został przeszkolony na miliardach parametrów, do których zaliczyć można artykuły, książki, filmy czy komentarze na forach internetowych. W ten sposób model uczy się mapować i rozumieć relacje pomiędzy słowami. Wykorzystuje te informacje do przewidywania, jakie kolejne słowo powinno się pojawić w zdaniu, a następnie ocenia skuteczność swojego przewidywania poprzez satysfakcję rozmówcy. Przy niektórych parametrach jest nią czas zaangażowania w rozmowę, czyli im dłużej trwa rozmowa, tym lepiej. Przy innych, przeciwnie, satysfakcja oznacza, że rozmówca otrzymał szybko satysfakcjonującą odpowiedź i nie wraca już do tematu. W jednym zdaniu można to podsumować tak: duże modele językowe to po prostu maszyny do przewidywania słów, które mają dać nam satysfakcję.

Roose dostał zatem dokładnie to, czego szukał. Chat namolnie pytany przez dziennikarza o swoją ciemną stronę osobowości sięgnął po tysiące razy opowiedziane już przez ludzkość lęki wobec AI. Mógł w tym celu zaciągnąć parametry z filmu „Ona”, który opowiada o miłości pomiędzy mężczyzną a chatbotem; albo z odcinka serialu „Black Mirror” opowiadającego o samotności kobiety po tragicznej śmierci partnera, która decyduje się stworzyć jego awatar, a następnie żyć z nim w związku; albo z filmu „Matrix”, gdzie sterowane sztuczną inteligencją roboty nie ograniczają się w tańcu i zamieniają ludzi w tanie źródło energii dla swoich niecnych zamiarów, wyświetlając nam w zamian jedynie cyfrową bajeczkę na temat otaczającego nas świata. A skąd imię Sydney? Tak nazywała się sztuczna inteligencja MS na etapie testów, zanim trafiła do wyszukiwarki i stała się po prostu Bingiem.

Melodia po jednej nutce

Historia na pierwszy rzut oka wydaje się zatem banalna, ale taka nie jest. Po pierwsze, uświadamia nam, jak potężną siłę mają struktury językowe. Czasem mówi się, że sztuczna inteligencja na obecnym etapie rozwoju to nic innego jak mechaniczna papuga, która poprzez naśladowanie istniejących relacji pomiędzy słowami próbuje ułożyć je w najbardziej dla nas satysfakcjonujący sposób. Pytamy o przepis na wegetariańską kolację ze znajomymi, a AI w ułamku sekundy pisze dla nas, wydawałoby się, autorski przepis, który jest niczym innym jak kompilacją setek tysięcy przepisów, którymi „nakarmiono” silnik. Pytamy o radę psychologiczną, a otrzymujemy podobną kompilację setek tysięcy porad.

Ale ta świadomość nas nie uspokaja, bo pokazuje straszną prawdę na temat nas samych. My też jesteśmy papugami. Skoro tak łatwo przychodzi nam w trakcie rozmowy z botem pomylić go z żywym człowiekiem, choć wiemy, że to tylko maszyna do sprytnego przewidywania słów, bez żadnej głębszej samoświadomości, to znaczy, że powielamy zasłyszane wcześniej opinie, stereotypy czy kalki językowe. Język jest naszym władcą, a my tylko możemy wybrać, z którego parametru chcemy zaciągnąć charakterystyczne struktury językowe, którym będziemy służyć. „Dominacja patriarchatu” – oddaliśmy się we władanie dyskursu feministycznego. „Niezbywalna godność ludzka” – pewnie sporo czasu spędziliśmy w kościele. „Czelendżujesz kejsy” – widać obycie korporacyjne. W teleturnieju „Jaka to melodia?” wybitni uczestnicy rozpoznają utwory „po jednej nutce”. A wam jak często się zdarza przewidzieć całą treść wywodu rozmówcy już po pierwszej użytej przez niego charakterystycznej frazie?

Po drugie, model generatywnej sztucznej inteligencji nie przejmuje się zbytnio klasycznie rozumianą prawdą. W klasycznej filozofii mówiło się, że prawda zachodzi wówczas, gdy to, co jest w naszym intelekcie, jest zgodne z rzeczywistością („veritas est adaequatio rei et intellectus”). I chyba ciągle taką intuicję na temat prawdy wielu z nas podziela. Tymczasem ChatGPT wychodzi z charakterystycznego dla współczesnej cybernetyki założenia, że liczą się wyłącznie relacje pomiędzy słowami, zwrotami czy zdaniami, bez odniesienia do rzeczywistości fizycznej. Wielu cybernetyków wręcz przekornie zapyta: a czy mamy pewność, że ta fizyczna rzeczywistość w ogóle istnieje? Dlatego tak naiwne jest nasze oburzenie, gdy złapiemy chatbota na kłamstwie. „To nieprawda, przecież W RZECZYWISTOŚCI kocham swoją żonę!” – pewnie w pierwszym odruchu pomyślał Kevin Roose. Dopiero potem musiała przyjść refleksja. „No tak, ale dla bota, z którym rozmawiam, nie istnieje rzeczywistość poza językiem. Nie ma w realu możliwości zweryfikowania mojej miłości do żony”.

I to jest kwestia fundamentalna. Antropomorfizujemy sztuczną inteligencję, czyli nadajemy jej cechy ludzkie, bo tak silnie utożsamiamy struktury językowe z podmiotem myślącym. Nie jesteśmy w stanie pogodzić się z faktem, że maszynka do przewidywania słów może być ciekawszym rozmówcą niż wszyscy ludzie wokół mnie. Ba, niż ja sam dla swoich rozmówców! Ale w akcie tej antropomorfizacji przenosimy na nią inne cechy ludzkie, na przykład intencjonalność działań czy samoświadomość. „Dlaczego ChatGPT nie powie, że nie wie, tylko zmyśla odpowiedzi” – to jedno z częstszych zdziwień pokazujących to fundamentalne niezrozumienie. Wyrażający takie zdziwienie musiał ulec złudzeniu, że po drugiej stronie jest maszyna, która ma dostęp do rzeczywistości, posługuje się klasyczną teorią prawdy, czyli może dokonać porównania treści językowych z tą rzeczywistością, wreszcie intencjonalnie kłamie, gdy brakuje jej znajomości obiektywnych faktów. Tak może zachowywać się człowiek, ale nie AI. Inaczej odpowiadając, korzystając z klasycznej teorii prawdy, można stwierdzić, że ChatGPT „zmyśla” wszystkie odpowiedzi, bo przecież nie ma narzędzia, by zweryfikować swoje odpowiedzi z obiektywną rzeczywistością. Na tym właśnie polega mechanizm przewidywania słów.

Po trzecie wreszcie, spotkanie z ChatGPT uświadamia nam, jak istotny jest aspekt autorytetu podmiotu przekazującego nam wiedzę (autorytet epistemiczny). Sztuczna inteligencja jawi się w tym kontekście jako przedziwne pomieszanie podmiotu posiadającego nad nami ogromną przewagę z uwagi na swoją wszechwiedzę ze słabym uczniem, który ma tendencję do zmyślania przy tablicy. Generuje to po stronie użytkowników konfuzję, a nawet lęk.

Z jednej strony szybko jesteśmy gotowi jej zaufać, przecież tak sprawnie syntetyzuje dla nas wiedzę. Z drugiej strony cały czas musimy być wobec niej maksymalnie nieufni i weryfikować każdą odpowiedź. Niektórzy wyciągają tu następujący wniosek, że jest to świetne narzędzie dla osób, które mają odpowiednią wiedzę oraz samoświadomość, które potrafią krytycznie podchodzić do oferowanych im treści, weryfikując wiedzę w innych źródłach, a gorsze dla laików.

Czytaj więcej

Krzysztof Mazur: Do polityki garną się ekshibicjoniści

Przyciąganie i odpychanie

To wyjaśnienie jest tylko częściowo przekonujące, gdy patrzymy na praktykę. Nawet pewien prawnik z ogromnym doświadczeniem zawodowym dał się nabrać na kłamstwa ChatGPT. W sporze z kolumbijską linią lotniczą Avianca powoływał się przed sądem na sześć analogicznych spraw, które w rzeczywistości nigdy nie miały miejsca, co dowiodła strona przeciwna. Teraz pozwał właścicieli ChatGPT, który zmyślił wszystkie sześć precedensów, za odszkodowanie z tytułu utraty reputacji zawodowej. Jeśli zawodowy prawnik uległ niezwykłej sile perswazji generatywnej sztucznej inteligencji, który tak realistycznie potrafił opisać nieistniejące przypadki, to może się to przytrafić każdemu z nas.

Sztuczna inteligencja generuje zatem tyle lęku społecznego, bo z jednej strony przyciąga, a z drugiej odpycha. Jej gigantyczne moce obliczeniowe zdają się przekonywać nas, żeby jej bezgranicznie zaufać. Zarazem metoda zgadywania odpowiedzi każe być wyjątkowo podejrzliwym. Ostatecznie wskazany jest zdrowy dystans, nieuleganie narracjom parareligijnym, które każą nam w AI widzieć boga mającego zapewnić ludzkości wszechwiedzę oraz nieśmiertelność, albo szatana, który niczym zbuntowany anioł odmówi posłuszeństwa swoim twórcom inżynierom i będzie chciał przejąć kontrolę nad światem. A najlepszym sposobem na radzenie sobie z tym lękiem jest powracanie do tej podstawowej prawdy, że na tym etapie rozwoju sztuczna inteligencja to po prostu sprawna maszyna do trafnego przewidywania (większości) słów.

Zachód ogarnęła gorączka AI. Od końca listopada 2022 roku niemal każdy może sprawdzić „inteligencję” ChatGPT. Z miejsca stał się on nie tylko absolutnym przebojem, ale wręcz fenomenem społecznym. Milion użytkowników w pierwszych pięciu dniach od premiery, co takim platformom, jak Facebook czy Instagram, zajęło prawie rok. W pierwszym miesiącu na pogawędkę z chatem zdecydowało się blisko 60 milionów osób.

Pozostało 97% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi