Zmiany zapoczątkował ChatGPT, który nie tylko rozumie ludzki język, lecz także odpowiada niemal tak samo jak człowiek. Przeczytał setki miliardów słów z książek, artykułów i najgłębszych zakamarków internetu. Dzięki temu można zadać mu pytanie na prawie każdy temat. Co więcej, jeśli pytanie wykracza poza jego wiedzę, to używa wyszukiwarki, by znaleźć powiązane strony, przeczytać je i wyciągnąć z nich wnioski – dokładnie tak, jakby to zrobił człowiek!
Zdolność przywoływania faktów nie jest jedynym atutem tego wirtualnego konsjerża. ChatGPT jest bowiem w stanie z nami porozmawiać. Jeżeli odpowiedź wygenerowana przez model nie jest dla nas z jakiegoś powodu satysfakcjonująca, możemy poprosić o jej rozwinięcie albo pogłębienie. Dzięki temu zdobywamy wiedzę w sposób aktywny, a nie bierny. Czytając książkę, podręcznik czy też artykuł na ulubionym portalu, mamy do czynienia ze statyczną treścią. Możliwość rozmowy sprawia, że wiedza staje się żywa. ChatGPT wnosi interaktywność, umożliwiając dyskusję i dając okazję do rozwiania wątpliwości.
Oczywiście, zagadnienie to nie jest nowe. Już w przeszłości pojawiały się czatboty, które do złudzenia przypominały człowieka. Niestety, po dłuższej rozmowie maska opadała i okazywało się, że wirtualny rozmówca tak umiejętnie kieruje rozmową, by móc odpowiadać swoimi sztywnymi, choć potencjalnie bardzo pomysłowymi regułami. Jednakże tak jak wirtuozeria iluzjonisty nie prowadzi do opracowania technologii teleportacji, tak sztywne reguły nie są w stanie doprowadzić do rozumienia ludzkiego języka. Współczesne modele językowe takie jak ChatGPT wykroczyły poza dawne ograniczenia, łącząc potężne algorytmy uczenia maszynowego z gigantycznymi zbiorami danych tekstowych. Dokładne zasoby potrzebne do nauczenia ChatGPT wszystkiego, co wie i potrafi, nie są znane. Wiadomo natomiast, że jego poprzednik, GPT-3, wymagał budżetu obliczeniowego rzędu 5–15 milionów dolarów. Oczywiście, budżet na sprzęt nie pokazuje całego obrazu – niewliczone są tu koszty nieudanych eksperymentów ani pensji topowych światowych programistów.
Technologia, która była potrzebna do stworzenia ChatGPT, jest znana od 2018 roku – od czasu wynalezienia architektury o nazwie Transformer, która pozwoliła na kilkusetkrotne zwiększenie efektywności uczenia sieci neuronowych. Środowisko naukowe zauważyło, że zdolności modeli językowych wzrastały wraz ze zwiększeniem rozmiaru sieci i ilości przeczytanych danych. Naukowcy zadali sobie naturalne pytanie: dokąd dojdziemy, jeśli będziemy dalej zwiększać te parametry? Czy w pewnym momencie osiągniemy poziom człowieka? Pokonując kolejne ograniczenia sprzętowe, finansowe i programistyczne w 2022 roku doszliśmy do poziomu ChatGPT.
Nie odbyło się to bez znaczącego polskiego udziału. Wojciech Zaremba jest współzałożycielem, a Jakub Pachocki ps. Meret dyrektorem badawczym OpenAI. W amerykańskiej firmie pracuje na stanowisku dyrektora również profesor MIT Aleksander Mądry oraz Szymon Sidor będący jednym z wiodących badaczy.