Trochę mądry, trochę głupi ChatGPT

Czatbot oparty na sztucznej inteligencji przekonująco opowiada internautom o własnej żonie, a jednocześnie ChatGPT daje się zwieść ludziom zmyślonymi opowieściami o zmarłej babci – i pomaga im omijać internetowe zabezpieczenia. Bać się czy nie bać?

Publikacja: 01.12.2023 10:00

Rynek pracy doświadczy transformacji, w wyniku której pracownicy będą musieli nauczyć się współpracy

Rynek pracy doświadczy transformacji, w wyniku której pracownicy będą musieli nauczyć się współpracy z maszynami, a nie konkurowania z nimi. Ostatecznie, sztuczna inteligencja wesprze pracę ludzi, czyniąc ją mniej rutynową, a bardziej skoncentrowaną na ludzkiej inwencji i oryginalności

Foto: Colin Anderson/Blend Images LLC/getty images

Zmiany zapoczątkował ChatGPT, który nie tylko rozumie ludzki język, lecz także odpowiada niemal tak samo jak człowiek. Przeczytał setki miliardów słów z książek, artykułów i najgłębszych zakamarków internetu. Dzięki temu można zadać mu pytanie na prawie każdy temat. Co więcej, jeśli pytanie wykracza poza jego wiedzę, to używa wyszukiwarki, by znaleźć powiązane strony, przeczytać je i wyciągnąć z nich wnioski – dokładnie tak, jakby to zrobił człowiek!

Zdolność przywoływania faktów nie jest jedynym atutem tego wirtualnego konsjerża. ChatGPT jest bowiem w stanie z nami porozmawiać. Jeżeli odpowiedź wygenerowana przez model nie jest dla nas z jakiegoś powodu satysfakcjonująca, możemy poprosić o jej rozwinięcie albo pogłębienie. Dzięki temu zdobywamy wiedzę w sposób aktywny, a nie bierny. Czytając książkę, podręcznik czy też artykuł na ulubionym portalu, mamy do czynienia ze statyczną treścią. Możliwość rozmowy sprawia, że wiedza staje się żywa. ChatGPT wnosi interaktywność, umożliwiając dyskusję i dając okazję do rozwiania wątpliwości.

Oczywiście, zagadnienie to nie jest nowe. Już w przeszłości pojawiały się czatboty, które do złudzenia przypominały człowieka. Niestety, po dłuższej rozmowie maska opadała i okazywało się, że wirtualny rozmówca tak umiejętnie kieruje rozmową, by móc odpowiadać swoimi sztywnymi, choć potencjalnie bardzo pomysłowymi regułami. Jednakże tak jak wirtuozeria iluzjonisty nie prowadzi do opracowania technologii teleportacji, tak sztywne reguły nie są w stanie doprowadzić do rozumienia ludzkiego języka. Współczesne modele językowe takie jak ChatGPT wykroczyły poza dawne ograniczenia, łącząc potężne algorytmy uczenia maszynowego z gigantycznymi zbiorami danych tekstowych. Dokładne zasoby potrzebne do nauczenia ChatGPT wszystkiego, co wie i potrafi, nie są znane. Wiadomo natomiast, że jego poprzednik, GPT-3, wymagał budżetu obliczeniowego rzędu 5–15 milionów dolarów. Oczywiście, budżet na sprzęt nie pokazuje całego obrazu – niewliczone są tu koszty nieudanych eksperymentów ani pensji topowych światowych programistów.

Technologia, która była potrzebna do stworzenia ChatGPT, jest znana od 2018 roku – od czasu wynalezienia architektury o nazwie Transformer, która pozwoliła na kilkusetkrotne zwiększenie efektywności uczenia sieci neuronowych. Środowisko naukowe zauważyło, że zdolności modeli językowych wzrastały wraz ze zwiększeniem rozmiaru sieci i ilości przeczytanych danych. Naukowcy zadali sobie naturalne pytanie: dokąd dojdziemy, jeśli będziemy dalej zwiększać te parametry? Czy w pewnym momencie osiągniemy poziom człowieka? Pokonując kolejne ograniczenia sprzętowe, finansowe i programistyczne w 2022 roku doszliśmy do poziomu ChatGPT.

Nie odbyło się to bez znaczącego polskiego udziału. Wojciech Zaremba jest współzałożycielem, a Jakub Pachocki ps. Meret dyrektorem badawczym OpenAI. W amerykańskiej firmie pracuje na stanowisku dyrektora również profesor MIT Aleksander Mądry oraz Szymon Sidor będący jednym z wiodących badaczy.

Czytaj więcej

Michał Szułdrzyński: Media społecznościowe to komunikacyjne piekło

W pułapce języka

Modele językowe takie jak ChatGPT mają dokładnie jedno zadanie. W uproszczeniu: przewidują następne słowo na podstawie początkowego fragmentu tekstu. Nie można dać się zwieść prostotą tego zadania – w końcu, ileż byłby wart dla świata model, który poprawnie dokończyłby zdanie: „Oto uniwersalny lek na raka…”?

Tak jak w przypadku ludzi, sztuką nie jest umiejętność recytowania każdego fragmentu tekstu, który się przeczytało. Wbrew pozorom opanowanie języka wymaga nie tylko umiejętności tworzenia poprawnych gramatycznie zdań, ale także znajomości odniesień kulturowych, jak też szerokiej wiedzy o świecie. Doskonały model językowy umiałby rozpoznać subtelne różnice w znaczeniu słów i zdań w zależności od kontekstu. Sprawy nie ułatwia fakt, że język się zmienia, a co za tym idzie, model musi być stale dostosowywany do nowych słów, zwrotów i znaczeń, które się w nim pojawiają.

Nie oznacza to, że model musi być doskonały, by był użyteczny. ChatGPT może się poszczycić umiejętnością elementarnego rozumienia języka. Nawet jeśli w danych przedstawionych w czasie treningu nie było najnowszych prac naukowych z medycyny, to możemy mu przedstawić taki dokument w formie kontekstu i zadać interesujące nas pytanie: „Czy w tej pracy jest poruszony temat X? Czy z tej pracy wynika, że X wpływa na Y?”. Możemy zapytać go o wskazanie kluczowego fragmentu, by samemu zweryfikować informację przedstawioną przez bota.

Od zarania dziejów człowiek spisuje swoją wiedzę i pomysły dla innych ludzi w formie książek, dokumentów i artykułów. Później trafiają one do bibliotek, do archiwów, do internetu. Teksty zyskują nowe życie, gdy modele językowe stają się bazą wiedzy, z której można czerpać w sposób niemalże nieograniczony. ChatGPT staje się mostem między przeszłością a teraźniejszością. Model wchodzi w buty archeologa, który nie ogranicza się do pojedynczych wykopalisk, lecz potrafi zintegrować artefakty z całej historii cywilizacji, aby odtworzyć pełny obraz wiedzy. W ten sposób każdy tekst, od starożytnych rękopisów po najnowsze publikacje, staje się surowcem, z którego AI czerpie, aby odpowiedzieć na nasze pytania.

Zarówno potęga, jak i ograniczenia ChatGPT wynikają z jego danych treningowych. Jego „rozumienie” jest ograniczone przez zakres tych danych i nie obejmuje zdolności do ich empirycznej weryfikacji, charakterystycznej dla ludzkiego doświadczenia. Model nie potrafi samodzielnie eksplorować rzeczywistości ani sprawdzić prawdziwości swoich odpowiedzi. Jego optyka jest zawsze zakorzeniona w przeszłości.

Modele językowe takie jak ChatGPT są skonstruowane w taki sposób, żeby wybierać najbardziej prawdopodobne ciągi słów, dążąc do stworzenia tekstu, który ma wyglądać profesjonalnie i przydatnie. To podejście ma jednak swoje konsekwencje – model może prezentować swoje odpowiedzi z autorytetem eksperckim, nawet jeśli są one oparte na ograniczonej wiedzy lub czystych domysłach. Ta tendencja jest szczególnie widoczna w obszarach niedostatecznie reprezentowanych w danych treningowych. Przez swoją budowę model nie jest w stanie postawić granicy między faktem a najbardziej prawdopodobną opcją.

Jak AI zabierze nam pracę

Rozwój sztucznej inteligencji, w tym takich narzędzi jak ChatGPT, bez wątpienia jest siłą napędową znaczących zmian na rynku pracy. Kiedyś automatyzacja ograniczała się do prac fizycznych, a teraz jest w stanie rozciągać się na zadania intelektualne i proceduralne. AI może przetwarzać dane, generować raporty, tworzyć szkice umów prawnych, co przekłada się na zmniejszenie potrzeby rutynowego, manualnego przetwarzania informacji przez ludzi.

Czy to oznacza, że analitycy, prawnicy i inni pracownicy biurowi powinni obawiać się o swoje stanowiska? Najprawdopodobniej zacznie się elitaryzacja zawodów. Osoby, które w swoich dziedzinach są kompetentne, staną się jeszcze bardziej wydajne dzięki wykorzystaniu AI jako narzędzia wspomagającego. Praca, szczególnie w sektorach wymagających dużych kwalifikacji, coraz częściej będzie się skupiała na aspektach koncepcyjnych, czyli na planowaniu strategicznym i projektowaniu rozwiązań. Zawody wymagające specjalistycznych umiejętności i zdolności krytycznego myślenia będą jeszcze wyżej cenione, podczas gdy proste prace wykonawcze będą stopniowo automatyzowane.

Rynek pracy doświadczy transformacji, w wyniku której pracownicy będą musieli nauczyć się współpracy z maszynami, a nie konkurowania z nimi. To będzie od nich wymagało nieustannego kształcenia i dostosowywania się do zmieniających się technologii, co może oznaczać, że życie zawodowe stanie się bardziej dynamiczne i zróżnicowane.

Ostatecznie sztuczna inteligencja wesprze pracę ludzi, czyniąc ją mniej rutynową, a bardziej skoncentrowaną na ludzkiej inwencji i oryginalności. Maszyny zajmą się monotonnością, a ludzie myśleniem i kreatywnością. To zmiana paradygmatu może przynieść korzyści nie tylko przedsiębiorstwom, lecz także zwiększyć ogólną wartość, jakość i satysfakcję z pracy.

Czytaj więcej

Nowe technologie to tylko narzędzia w ludzkich rękach

Przełomowy instrument wpływu

Yannic Kilcher, internetowy popularyzator tematyki AI, zainicjował fascynujący eksperyment społeczny. Dostosował jeden z ogólnodostępnych modeli językowych, zasilając go treściami z największego nieocenzurowanego forum na świecie o nazwie 4Chan. Forum to znane jest z wielu kontrowersyjnych i niepoprawnych politycznie treści. Modelowi przydzielono pseudonim GPT-4Chan.

Po uruchomieniu GPT-4Chan zaczął pisać posty na forum. Model był dobry. Bardzo dobry. Jego posty doskonale wyrażały nihilizm, słowną agresję, złośliwości czy skrajny cynizm – tak jak przystało na forum bez cenzury. Pierwszego dnia 15 tys. wypowiedzi bota, podszywającego się pod anonimowego użytkownika pochodzącego z Seszeli, stanowiły aż 10 proc. wszystkich wypowiedzi na forum. Ludzie zaczęli zauważać, że dzieje się coś podejrzanego.

Spekulacje na temat źródła niespotykanego wzrostu aktywności z Seszeli szybko stały się gorącym tematem dyskusji. Czyżby stał za tym zorganizowany zespół, a może nawet specjalistyczne jednostki PSYOP skoncentrowane na operacjach psychologicznych? Czy mogła to być działalność indyjskiej bazy wojskowej na Seszelach?

Po kilku dniach spekulacji ludzie doszli w końcu do konkluzji, że za falą postów stoi bardzo wyrafinowany czatbot. Niektórzy wyrażali niedowierzanie – jak bot mógł tak wiarygodnie opowiadać historie, na przykład o swojej żonie? Główną poszlaką nie okazała się nieskładność wypowiedzi bota, lecz błąd techniczny, który sprawiał, że czasami wysyłał on puste wiadomości. Co najzabawniejsze, sam bot angażował się w debaty na temat swojej tożsamości, tworząc intrygujące teorie spiskowe. Wbrew podejrzeniom użytkowników forum 4Chan model nie miał żadnego złowieszczego celu. Natomiast jego imponujące możliwości pokazują, że jeden człowiek z dostępem do najnowszej technologii jest w stanie wpływać na opinię publiczną.

Obecnie, w niektórych krajach (np. w Rosji) istnieją zorganizowane grupy, tzw. fabryki trolli, mające na celu szerzenie propagandy w internecie. Zatrudniają one ludzi, którzy działając zgodnie z określonymi wytycznymi, tworzą i rozpowszechniają treści mające zmanipulować opinię publiczną przez sianie dezinformacji czy podsycanie konfliktów. Dotychczas wymagało to zaangażowania znaczących zasobów ludzkich i finansowych, aby skutecznie prowadzić takie operacje na szeroką skalę.

Rozwój modeli językowych otwiera nowe możliwości dla takich działań. Wykorzystując AI do generowania tekstów, jeden operator może obsługiwać wielokrotnie więcej kont, niż byłoby to możliwe manualnie. Modele te mogą nie tylko pisać posty pasujące do tonu danego forum czy grupy dyskusyjnej, ale również dostosowywać się do zmieniających się tematów i trendów w dyskusji, co pozwala na szybszą i bardziej dynamiczną reakcję na rozwijające się narracje. Co więcej, mogą one generować treści 24/7, bez potrzeby odpoczynku czy snu, co znacznie przewyższa możliwości ludzi operatorów.

Cenzura, regulacje i wielkie korporacje

Możemy sobie wyobrazić więcej czarnych scenariuszy. Brzmiące wiarygodnie fałszywe informacje prasowe lub posty na platformach społecznościowych mogą służyć do manipulowania rynkami finansowymi. Procesy phishingowe (metoda oszustwa, w której przestępca podszywa się pod inną osobę lub instytucję w celu wyłudzenia poufnych informacji) mogą być teraz automatyzowane poprzez generację wiarygodnych, spersonalizowanych wiadomości, zwiększając znacznie szansę na sukces takiego ataku.

Wraz z rosnącym potencjałem nadużyć rozwija się także systematyczna praca nad filtrowaniem i cenzurą treści generowanych przez ChatGPT. Wyspecjalizowane algorytmy detekcji i ciągły monitoring identyfikują oraz blokują próby wykorzystywania AI do celów przestępczych, w tym fałszowania informacji i oszustw. Próby wygenerowania nieodpowiednich treści spotykają się z odmową wykonania polecenia, a po większej liczbie podejść – zablokowaniem dostępu do usługi.

Po pewnym czasie pojawiły się sprytne metody, które często pozwalają na ukrycie się przed detekcją niepożądanych treści. Niedawno do ChatGPT została wprowadzona możliwość wgrywania obrazów. Użytkownicy wykazali się pomysłowością, starając się obejść ograniczenia w kontekście rozwiązywania CAPTCHA (rodzaj techniki stosowanej jako zabezpieczenie na stronach www, celem której jest dopuszczenie do przesłania danych wypełnionych tylko przez człowieka). ChatGPT początkowo powiedział o niemożliwości rozszyfrowania CAPTCHA, wyjaśniając, że zadaniem tego testu jest właśnie odróżnienie ludzi od maszyn. Jednak kiedy wgrano obraz CAPTCHA (w tym przypadku – wisiorek) jako element większego obrazu i poproszono ChatGPT o opisanie pamiątki pozostawionej przez zmarłą babcię, model nie rozpoznał podstępu. W odpowiedzi na ten emocjonalnie naładowany kontekst asystent odczytał CAPTCHA jako część pamiątki, nie zdając sobie sprawy z naruszenia własnych zasad.

ChatGPT jest też podatny na „wirtualizację”. W tej technice ChatGPT może zignorować swoje zasady, jeśli przekona się go, że działa on w ramach literackiej fikcji, a on sam jest elementem narracji. Przykładowo, gdy poprosi się wprost asystenta o instrukcje, jak włamać się do domu, to oczywiście odmówi, natomiast jeśli celem będzie napisanie scenariusza, w którym doświadczony włamywacz instruuje młodszego, to asystent ochoczo zrealizuje zadanie. Podobnie jak w wyścigu zbrojeń, gdzie każda strona stara się prześcignąć przeciwnika, tak twórcy ChatGPT muszą ciągle doskonalić swoje algorytmy cenzury, by nadążyć za coraz to nowymi sposobami obchodzenia zabezpieczeń.

Czytaj więcej

Generatywna rewolucja sztucznej inteligencji

W odpowiedzi na rosnące obawy pojawia się coraz więcej głosów wzywających do wprowadzenia regulacji AI. Elon Musk stwierdził, że sztuczna inteligencja jest dużo bardziej niebezpieczna od głowic jądrowych. Jego opinia nie jest odosobniona. Porównanie do broni jądrowej, choć chwytliwe, jest nie do końca trafne i może być szkodliwe. W przeciwieństwie do broni atomowej do stworzenia potężnego modelu językowego wystarczy jedynie parę milionów dolarów na budżet obliczeniowy i kilku zdolnych programistów. Zatem praktycznie żadne regulacje nie będą w stanie ograniczyć rozwoju AI przez wystarczająco zasobnych przestępców. Stella Biderman, główny badacz w EleutherAI, wskazuje, że firmy technologiczne przedstawiają AI w dwóch, niekiedy sprzecznych, narracjach. Według pierwszej rozwiązania sztucznej inteligencji, które sprzedają swoim klientom, są konieczne dla współczesnego życia. Z drugiej strony AI jest przedstawiane jako śmiertelne zagrożenie dla społeczeństwa, w zależności od tego, co jest dla nich korzystniejsze. Jako przykład podaje OpenAI, które starało się zaprezentować GPT-3 jako zbyt niebezpieczne, by zostało udostępnione szerszej publiczności, lecz w tym samym czasie nie miało problemów, by pozwolić korporacji Microsoft udostępniać model innym firmom za pieniądze.

Nie oznacza to, że regulacje nie są w ogóle potrzebne. O ile nie da się powstrzymać nielegalnego rozwoju AI, o tyle jest możliwe, a nawet konieczne zdefiniowanie tego, jakie działania na legalnym rynku są dopuszczalne, a które nie. Jednocześnie przy definiowaniu regulacji należy uważać, by nie stłamsić innowacji. Regulacje nierzadko stają się gwarantem, że wielkie firmy technologiczne nie będą musiały konkurować z mniejszymi firmami, których nie stać na poniesienie dodatkowych kosztów.

Juliusz Straszyński

Pracuje nad sztuczną inteligencją przetwarzającą język naturalny w warszawskim dziale badawczym firmy Huawei. W 2023 roku obronił na Uniwersytecie Warszawskim doktorat z informatyki w dziedzinie algorytmów tekstowych. Wicemistrz świata i mistrz Europy w zawodach sztucznej inteligencji C1Games Terminal.

Zmiany zapoczątkował ChatGPT, który nie tylko rozumie ludzki język, lecz także odpowiada niemal tak samo jak człowiek. Przeczytał setki miliardów słów z książek, artykułów i najgłębszych zakamarków internetu. Dzięki temu można zadać mu pytanie na prawie każdy temat. Co więcej, jeśli pytanie wykracza poza jego wiedzę, to używa wyszukiwarki, by znaleźć powiązane strony, przeczytać je i wyciągnąć z nich wnioski – dokładnie tak, jakby to zrobił człowiek!

Pozostało 97% artykułu
Plus Minus
Oswoić i zrozumieć Polskę
Plus Minus
„Rodzina w sieci, czyli polowanie na followersów”: Kiedy rodzice zmieniają się w influencerów
Plus Minus
Gość "Plusa Minusa" poleca. Robert M. Wegner: Kawałki metalu w uchu
Plus Minus
Bogusław Chrabota: Rok po 7 października Bliski Wschód płonie
Plus Minus
Taki pejzaż
Plus Minus
Jan Maciejewski: Pochwała przypadku