Juliusz Straszyński: ChatGPT to nie jest wszechwiedzący Bóg

Nigdy nie będzie tak, że dzięki sztucznej inteligencji absolutnie niczego nie będzie się od nas samych wymagać. Zawsze będziemy musieli coś wiedzieć - mówi Juliusz Straszyński, specjalista od sztucznej inteligencji.

Publikacja: 27.09.2024 10:00

Juliusz Straszyński: ChatGPT to nie jest wszechwiedzący Bóg

Foto: archiwum prywatne

Plus Minus: Wolałby pan rozmawiać teraz ze mną czy z ChatGPT?

Z panem, bo od człowieka mogę się czegoś ciekawego dowiedzieć.

A od chata nie?

U niego mogę znaleźć odpowiedzi, których się spodziewam. Mogę przypuszczać, że chat opowie mi ciekawostkę historyczną i w tym sensie działa jak inna wersja wyszukiwarki internetowej. Człowiek zaś może robić trochę więcej, szczególnie w rozmowie. Potrafi pomyśleć, zaskoczyć, zaciekawić czy zażartować. Chat jeszcze nie jest w stanie tego zrobić.

A może się to zmienić? Rola np. dziennikarzy może zostać sprowadzona do programistów, którzy wstukują kody?

Trochę tak, trochę nie. Są różni dziennikarze. Mamy felietonistów opisujących swoje myśli, które wymagają głębszych intelektualnych obserwacji. Są newsowcy, którzy opisują fakty, coś, co się zdarzyło. I tak jak w tym drugim ChatGPT jest dobry, tak widzimy jego duże deficyty w używaniu logiki i myślenia. To blokuje formułowanie bardziej złożonych treści. Najlepiej to widać w takich skomplikowanych dziedzinach jak matematyka czy programowanie. Programiści nie są w stanie zastąpić samych siebie, bo projektowanie złożonych algorytmów i systemów to coś, czego AI jeszcze nie umie. Gdy czytamy pogłębione artykuły, widzimy, że jest to aktywność wymagająca kreatywności, a chat jest dobry w imitacji, nie w innowacji. I póki będziemy zajmować się tym drugim, jeszcze nic nam nie grozi.

Czytaj więcej

Ignacy Dudkiewicz: Gdy będzie mniej wiernych i pieniędzy, Kościół się zmieni

Jeśli ktoś korzysta z AI nieodpowiedzialnie, istnieje ryzyko, że niczego się nie nauczy

Zły pieniądz nie wyprze dobrego? Nie będzie tak, że ludzie wybiorą gorszy, ale tańszy produkt? Po co zamawiać grafiki u profesjonalistów, skoro może je wypluć ChatGPT?

Ekonomia mówi nam, że wprawdzie nie jest tak, że nie chcemy żadnych innowacji w dziedzinie obrazów, ale jeśli istnieje możliwość, że będzie można produkować je taniej, ludzie z tej opcji skorzystają. Zawsze jednak odbiorcy chcą czegoś więcej i kiedyś grafiki generowane przez ChatGPT nam spowszednieją. A wchodząc na poziom wyżej, trzeba powiedzieć, że innowacje są potrzebne, bo bez nich sam chat się nie rozwinie. Polega tylko na bazie treningowej, która jest sumą ludzkich dokonań. Pełne cedowanie kreatywnych zadań na ChatGPT byłoby głupie, bo kręcilibyśmy się w kółko. Na ten moment to narzędzie nie jest samo z siebie innowacyjne. 

Na ten moment?

Przyjrzyjmy się tzw. modelom generatywnym AI, czyli takim, które są w stanie wygenerować tekst lub obraz. Są one w stanie popatrzeć na tekst i odpowiedzieć na pytanie „czy to wygląda na dobry tekst?” albo „czy to wygląda na obraz wykonany przez człowieka?”. Innymi słowy, bot stwierdza, czy widział podobny wytwór w swoim zestawie treningowym. Wszystkie modele językowe i generatywne mają na wyjściu „wgrane” miliony tekstów i obrazów, na podstawie których działają – albo oceniając to, co im podamy, albo generując samodzielnie. W dalszym ciągu jest to imitacja. Możemy pójść o krok dalej. Badacze AI chcieliby zdekonstruować nasz niewypowiedziany styl myślenia. Próbują przeformułować przywołane przeze mnie pytania w taki sposób, by pytano o kroki myślowe, nie wytwory. Jeśli im się to uda, będzie można generować kroki myślowe i – tym samym – myśleć.

I firma będzie mogła stworzyć sobie, dajmy na to, plan strategiczny na najbliższy kwartał?

Na przykład. Tyle tylko, że jeszcze nie jesteśmy w stanie tego zrobić. Widzimy oczywiście postępy. Ostatnio Google Deepmind pochwaliła się modelem AlphaProof, który podobno był w stanie rozwiązać cztery z sześciu zadań z Międzynarodowej Olimpiady Matematycznej. Cechują się one tym, że nie wymagają aż tyle wiedzy, ale za to bardzo dobrego logicznego myślenia. Wychodzi na to, że ten model potrafił stwierdzić, czy dana operacja wygląda jak dobry krok dowodowy w stronę rozwiązania zadania.

Firma OpenAI z kolei wypuściła niedawno model o1, który był w stanie osiągnąć wynik na poziomie złotego medalu podczas Międzynarodowej Olimpiady Informatycznej, pod wieloma względami podobnej do tej z matematyki. Jednym z kroków było zebranie danych, które ukazywały pojedyncze kroki myślowe. Natomiast ludzka myśl ma to do siebie, że nie do końca można ją spisać w formie tekstu. Świadoma, werbalna myśl jest jedynie elementem ludzkich zdolności kognitywnych, często opieramy się na podświadomych intuicjach.

Ale chyba coraz mniej tego myślenia potrzebujemy, skoro AI może nas w wielu rzeczach wyręczyć. Nie uważa pan, że nowe technologie zbyt mocno ułatwiają nam życie?

Ogólnie rzecz biorąc, nigdy zbyt wiele ułatwiania sobie życia. Zawsze lepiej, gdy jest ono prostsze. Kluczowe pytanie brzmi, czy z tych dobrodziejstw korzystamy odpowiedzialnie. Weźmy przykład uczniów. Jeśli zadaje im się rozprawkę do napisania, to celem nie jest efekt bezpośredni w postaci gotowej pracy, ale to, by potrenowali logiczne myślenie i argumentację. Jeśli pomylimy te dwa porządki, a to się zdarza często, to dochodzimy do sytuacji, w której uczeń zamiast przygotować rozprawkę samemu, pyta o nią ChatGPT. Jakkolwiek sama rozprawka nie wydaje się formą specjalnie użyteczną, tak pozwala ona nabyć i ćwiczyć umiejętności, które potem pozwolą robić rzeczy znacznie bardziej potrzebne. Tak działa też matematyka. Jeśli ktoś korzysta z AI nieodpowiedzialnie, istnieje ryzyko, że niczego się nie nauczy.

Nie da się zadekretować odpowiedzialności.

Zgadza się. I tu mamy kolejny problem otwarty: jak podczas korzystania z dobroczynnych możliwości sztucznej inteligencji nie wylać dziecka z kąpielą. Czyli jak sprawić, żeby np. dzieci dalej się uczyły. Uważam, że szkolnictwo powinno uświadamiać ludzi, że życie nie polega jedynie na pasywnym trwaniu i omijaniu przeszkód po linii najmniejszego oporu, ale również na definiowaniu tego, co tak naprawdę chcielibyśmy osiągnąć. I w tym oczywiście mogą pomagać rozmaite narzędzia.

Gdy byłem w liceum, bardzo popularna była aplikacja PhotoMath, która – po zrobieniu zdjęcia danemu zadaniu – nie tylko pokazywała rozwiązanie, ale także cały proces dojścia do niego.

Przy czym należy pamiętać, że to, co się dzieje w liceum, nie popycha ludzkości do przodu. To baza pod poważniejsze rzeczy, do których dochodzi się później. Moim zdaniem kluczem, by poradzić sobie z problemem, na który zwraca pan uwagę, jest zrozumienie, że aby opanować najbardziej zaawansowane umiejętności, których ChatGPT jeszcze nie pojął, najpierw trzeba opanować najbardziej proste i banalne zagadnienia.

Może uczniowie liczą na to, że do momentu końca ich edukacji już pojmie.

Nie wiem, jak będzie w przyszłości, ale na ten moment możemy powiedzieć, że jest wiele czynności, których sztuczna inteligencja nie potrafi zrobić. To nie jest wszechwiedzący Bóg. Pamiętajmy, że opiera się na zbiorze treningowym, a żeby nawet go poszerzać, ludzkość musi przekraczać własne dziedzictwo i nieustannie tworzyć nowe myśli, wytwory itd. To zaś wymaga etapów pośrednich, nawet jeśli wyglądają one banalnie. Mamy prostą matematykę, skomplikowaną matematykę, aż w końcu dochodzimy do twierdzeń, których nikt wcześniej nie udowodnił.

A wiedza ogólna będzie nam jeszcze potrzebna?

Tak. Żeby myśleć, musimy coś już wiedzieć. Jeśli zadajemy jakieś pytanie, to znaczy, że mamy wiedzę i chcemy ją poszerzyć. Nawet intuicja jest swego rodzaju wiedzą. Poza tym każdy człowiek ma jakiś cel. Żeby go zdefiniować, musimy mieć jakąś wiedzę o świecie, o jego problemach. ChatGPT nie jest w stanie tego określić. Nigdy więc nie będzie tak, że absolutnie niczego nie będzie się od nas samych wymagać. Zawsze będziemy musieli coś wiedzieć.

Czyli nie boi się pan, że ziszczą się wizje z boomerskich żartów, wedle których uczniowie będą proszeni jedynie o pokolorowanie trójkącików?

Jeśliby się tak stało, to byłaby to absolutna porażka systemu szkolnictwa. Jednak koniec końców oświata polega na tym, że chcemy, aby człowiek się czegoś nauczył. Pytanie brzmi, czego. Być może zapamiętywanie bezużytecznych faktów nie jest dobrą drogą. Sądzę, że powinniśmy postawić silniejszy nacisk na krytyczne i logiczne myślenie, które w dłuższej perspektywie jest niezbędne. Sucha wiedza konieczna nie jest. Drugim aspektem jest kształtowanie tożsamości i osobowości jednostki. Szkoła uczy, że jesteśmy Polakami, obywatelami demokratycznego świata, przekazuje kody kulturowe. Żadne narzędzie tego nie zastąpi.

Czego jeszcze nie zastąpi?

Poczucia samorealizacji. Żeby jej doświadczyć; żeby poczuć, że odcisnęło się na rzeczywistości jakieś istotne piętno, trzeba wychodzić poza to, co już zostało zrobione. To jest ten rodzaj satysfakcji, którego ChatGPT nie może nam dostarczyć. Zresztą jest ich więcej.

Na przykład?

Relacje międzyludzkie. ChatGPT nie będzie w stanie kochać drugiego człowieka, dbać o niego, zawiązać przyjaźni czy służyć jakiejś wspólnocie. To po prostu narzędzie, którego ktoś używa. Nawet jeśli kiedyś to się zmieni i chat stanie się wszechpotężny, to nie da się kochać kogoś wszechpotężnego. My kochamy i dbamy o siebie nawzajem właśnie dlatego, że jesteśmy ograniczeni.

A można by nauczyć ChatGPT wrażliwości?

Aktualnie chat pracuje tylko na tekście, a ludzie komunikują się w dużej mierze pozawerbalnie – wyglądem, zachowaniem itd. Z technicznego punktu widzenia wyobrażam sobie jednak, że dałoby się sprawić, iż ChatGPT rozpoznawałby, czy człowiek ma jakiś problem. Niemniej jednak pozostaje kwestia dwustronności. Nie ma powodów, dla których my mielibyśmy dbać o ChataGPT. Jest tylko narzędziem.

Może uzależnienie byłoby takim powodem?

Pytanie, co to w praktyce znaczy. Uzależnieni jesteśmy w równym stopniu także od elektryczności czy miejskiej kanalizacji. O tym się nie mówi, a przecież również na nich polegamy, bo są bardzo przydatne. Moglibyśmy oczywiście wrócić do epoki kamienia łupanego, gdzie bylibyśmy praktycznie niezależni, ale co wówczas moglibyśmy z tą niezależnością zrobić?

Czytaj więcej

Piotr Zychowicz: Wojna w Ukrainie? Polska nie najgorzej rozegrała tę partię

Sztuczna inteligencja znacznie inteligentniejsza od nas? „Święty Graal AI. To rzecz jasna odległa przyszłość” 

Dlaczego doprowadziliśmy do tego, że nasze własne wytwory nas zastępują?

Najprostsza odpowiedź brzmiałaby: bo są użyteczne. Przydatnym jest mieć inteligentnego asystenta. To prawda nienowa, bo podobnie było podczas rewolucji przemysłowej, kiedy również maszyny zastępowały człowieka w jakichś czynnościach. Sztuczna inteligencja wyręcza nas w przeglądaniu setek tekstów, bo możemy ją po prostu o jakiś fakt zapytać. Jeśli jednak boimy się, że AI zastąpi nas w pracach bardziej zaawansowanych, to wchodzimy na poziom zagrożenia egzystencjalnego. Człowiek jako gatunek jest przecież bardzo dumny z tego, że jest najinteligentniejszą istotą na Ziemi, a coś, co byłoby i użyteczne, i inteligentniejsze, zepchnęłoby go z piedestału.

Człowiek nie jest użyteczny?

Oczywiście, że jest. Dlatego wciąż istnieje, znajduje zatrudnienie itd. Możemy sobie oczywiście zadać pytanie, kto zyska na automatyzacji, jaką w imię użyteczności rewolucja AI przyniesie. Na pewno zyskają konsumenci, bo możliwości produkcyjne się zwiększą, ale jest też szeroka gama poszkodowanych, czyli tych, których praca albo zostanie ograniczona, albo przestanie istnieć. Jest jeszcze najmniejsza grupa beneficjentów, czyli właściciele kapitału. Clou naszego systemu gospodarczego opiera się na nierówności.

Podobnie będzie chyba z zawodami kreatywnymi, bo przecież ci, którzy będą mieli dostęp do najnowszych, usprawniających pracę narzędzi, znajdą się na znacznie lepszej pozycji niż osoby bez takich możliwości.

Faktycznie w przeszłości było tak, że aby korzystać na automatyzacji, którą przyniosła rewolucja przemysłowa, trzeba było mieć jakiś kapitał. Dziś dostęp do sztucznej inteligencji jest znacznie bardziej zdemokratyzowany. Środowisko informatyczne wykształciło sobie model rozwoju open source, który polega na tym, że za darmo dzielimy się kodami, które mogą trenować modele AI, jak i samymi modelami. To zakłada, że nie kierujemy się krótkoterminowym interesem finansowym, a pewnego rodzaju dobrem ogółu. Co więcej, bezpłatne modele nie są duże gorsze niż te komercyjne. Każdy więc, kto opanował podstawowe programowanie, jest w stanie z nich korzystać.

O ile opanował. To nie jest powszechna umiejętność.

Zgoda, ale nie uważam, by była poza zasięgiem przeciętnego człowieka. Programowanie wymaga solidnych podstaw z logiki i matematyki, np. prawdopodobieństwa. Na razie nasza edukacja tego nie uczy. Trudno zresztą kogoś, kto się tym nie pasjonuje, zachęcić do takiej aktywności. Potrzeba do tego rygoru. Wiedzowe dziedziny mają to do siebie, że otrzymujemy bezpośrednią gratyfikację – czegoś się dowiedzieliśmy i możemy się tym podzielić. Matematyka i informatyka działają w logice bardziej abstrakcyjnej i przez to nagroda w postaci umiejętności przychodzi dużo później. Sztuczna inteligencja to szczyt tego zjawiska, bo stanowi ukoronowanie rozmaitych teoretycznych przełomów z zakresu informatyki.

Te wiedzowe dziedziny w ogóle będą potrzebne w dobie sztucznej inteligencji, która wypluwa fakty na zawołanie?

Już o tym mówiliśmy. Im dalej wychodzimy poza to, co już zostało zrobione, czyli potencjalnie znajduje się w danych treningowych, tym mniej powinniśmy się czuć zagrożeni.

Człowiek w ogóle ma jakąś kontrolę nad tym, co jest w tych danych?

Bezpośrednio nie. Musimy jednak pamiętać, że wytrenowanie takiego modelu jest relatywnie tanie. Jeśli mamy zbiór danych i algorytm, to stworzenie np. GPT-3, czyli dość mądrego pierwowzoru ChatGPT, kosztuje około 5 mln dolarów. Dla biznesu nie jest to astronomiczna suma. Nie jest więc tak, że korporacje mogą w pełni zmonopolizować ten obszar.

Do jakiego momentu może się posunąć technologizacja życia człowieka?

Świętym Graalem sztucznej inteligencji jest tzw. AGI, czyli sztuczna inteligencja ogólna. Szczyt marzeń ludzi od AI to w gruncie rzeczy opracowanie czegoś, co byłoby jedynie trochę gorsze od człowieka albo – w wariancie skrajnym – wynalezienie czegoś, co byłoby znacznie inteligentniejsze od nas. To rzecz jasna odległa przyszłość, bo na razie mamy problem z najbardziej podstawowymi zdolnościami kognitywnymi.

Co to znaczy „odległa przyszłość” w skali rozwoju sztucznej inteligencji?

Są problemy, do których nie do końca wiadomo, jak podejść, więc kilka przełomów musiałoby jeszcze nastąpić. To właśnie za ich pomocą można obserwować proces rozwoju AI. W 2018 roku pojawiła się architektura transformer, która sprawiła, że trening sieci neuronowych stał się kilkaset razy bardziej wydajny. To duży krok. Pytanie, co dalej. Nieodgadnionym działem jest matematyka. W tej dziedzinie, podobnie jak w przypadku ludzkiej myśli, mnogość „trików”, możliwości, których dałoby się użyć, jest niezliczona. Sądzę, że AI wymyśli kiedyś, jak znaleźć do tego klucz, ale trudno powiedzieć, kiedy to nastąpi.

Juliusz Straszyński

Wykładowca Natural Language Processing na Wydziale Matematyki, Informatyki i Mechaniki UW, pracuje w zespole Gemma Code Assist w Google’u. W 2023 roku obronił na Uniwersytecie Warszawskim doktorat z informatyki w dziedzinie algorytmów tekstowych. Wicemistrz świata i mistrz Europy w zawodach sztucznej inteligencji C1Games Terminal. 

Plus Minus: Wolałby pan rozmawiać teraz ze mną czy z ChatGPT?

Z panem, bo od człowieka mogę się czegoś ciekawego dowiedzieć.

Pozostało 99% artykułu
Plus Minus
Oswoić i zrozumieć Polskę
Plus Minus
„Rodzina w sieci, czyli polowanie na followersów”: Kiedy rodzice zmieniają się w influencerów
Plus Minus
Gość "Plusa Minusa" poleca. Robert M. Wegner: Kawałki metalu w uchu
Plus Minus
Bogusław Chrabota: Rok po 7 października Bliski Wschód płonie
Plus Minus
Taki pejzaż
Plus Minus
Jan Maciejewski: Pochwała przypadku