Generatywna rewolucja sztucznej inteligencji

OpenAI zdążyła już zmienić świat. Niekoniecznie na lepsze.

Publikacja: 01.12.2023 10:00

Dla większości osób ChatGPT był pierwszym i jedynym kontaktem z zaawansowaną sztuczną inteligencją –

Dla większości osób ChatGPT był pierwszym i jedynym kontaktem z zaawansowaną sztuczną inteligencją – i tego efektu nie da się wymazać. Na zdjęciu: loga OpenAi i ChatGPT; Tuluza, Francja, styczeń 2023 r.

Foto: Lionel BONAVENTURE/AFP

11 grudnia 2015 roku Ilya Sutskever i Greg Brockman wydali oświadczenie o powołaniu do życia przedsięwzięcia o imponującym rozmachu – fundacji OpenAI. Do współpracy zaproszono śmietankę inżynierów uczenia głębokiego, którzy mieli rzucić wyzwanie takim gigantom jak Google. Elon Musk, Peter Thiel, Reid Hoffman i Jessica Livingston zadeklarowali ponad miliard dolarów na działalność nowo powstałej fundacji, która miała starać się, aby rozwój sztucznej inteligencji szedł we właściwym kierunku – dla dobra ludzkości.

Być może brzmi to pompatycznie, ale takie rzeczywiście były motywacje fundatorów OpenAI, którzy gorąco wierzą w możliwość stworzenia sztucznej inteligencji na poziomie ludzkim, stanowiącej zagrożenie dla przetrwania ludzkiego gatunku. Jeżeli taki byt rzeczywiście powstałby w laboratoriach u któregoś z technologicznych gigantów, na przykład w przywołanym już Google’u, wówczas jego wykorzystanie byłoby motywowane jedynie zyskiem. Natomiast Musk czy Thiel sądzili, że oddanie badań nad zaawansowaną sztuczną inteligencją podmiotowi non profit, na bieżąco upubliczniającemu wyniki swoich badań, zapobiegnie wykorzystaniu takiej inteligencji w ramach korporacyjnej żądzy zysku.

Z zadeklarowanego miliarda dolarów fundatorzy wpłacili tylko niewielką część, a najbardziej oddany sprawie okazał się Elon Musk. Po jego rezygnacji w 2018 roku formuła czystego non profit zaczęła się wyczerpywać. W 2019 roku nowo powstała spółka OpenAI Global LLC rozpoczęła komercjalizację produktów i zawiązała partnerską współpracę z Microsoftem, głównie w zakresie dostarczania usług chmury obliczeniowej, co znacząco zwiększyło możliwości budowania modeli zaawansowanej sztucznej inteligencji. A co za tym idzie – również apetyt na kolejne komercyjne produkty.

Czytaj więcej

Czy da się zatrzymać wygaśnięcie ludzkości?

Jak adidasy i pampersy

Po transformacji OpenAI w przedsięwzięcie komercyjne historia przyspieszyła. Od tamtego czasu firma z San Francisco opublikowała wiele badań z dziedziny uczenia głębokiego, a swoje osiągnięcia przekuła w budzące niemałe zainteresowanie produkty. Jednak dopiero opublikowanie 30 listopada 2022 roku transformera ChatGPT okazało się przełomem, którego nie można będzie wymazać z kart historii sztucznej inteligencji.

Na początku należy zaznaczyć jedno: ChatGPT, czy raczej model GPT-3.5, na którym znany chatbot był oparty, nie był rewolucyjny pod względem wykorzystanej technologii. Badacze OpenAI nie wymyślili nowych metod, nie zmienili paradygmatu uczenia maszynowego. Co więcej, Google, Microsoft czy Meta w tym samym czasie pracowały już na modelach językowych podobnej wielkości, a nawet większych. Rewolucja Altmana i spółki polegała na opakowaniu tego w zgrabny produkt oraz udostępnieniu go za darmo szerokiej publiczności, która dotąd nie miała żadnej styczności ze sztuczną inteligencją.

Ale to nie znaczy, że był to mniej znaczący przełom. Według ankiety KDnuggets, portalu dla inżynierów uczenia maszynowego, maksymalnie 20 proc. wszystkich modeli, nad którymi pracują specjaliści, ma szansę działać „produkcyjnie”, to znaczy w rzeczywistym świecie. Pozostałe 80 proc. zostaje „na papierze” – w publikacji lub prezentacji na branżowej konferencji, a czasem nie dociera nawet do tego etapu. Stworzenie produktu z modelu uczenia maszynowego jest więc trudniejsze niż stworzenie samego modelu. Zwłaszcza produktu, który może przyciągnąć masy.

Z tej perspektywy OpenAI odniosło niebywały sukces, wyprzedzając pod tym względem Google i Microsoft. ChatGPT stał się pospolitą nazwą „wielkiego modelu językowego” w takim samym stopniu, jak adidasy są synonimem dla każdego rodzaju butów sportowych lub pampersy dla pieluch jednorazowych. Dla większości osób ChatGPT był pierwszym i jedynym kontaktem z zaawansowaną sztuczną inteligencją – i tego efektu nie da się wymazać. Przynajmniej do momentu, w którym wielkie modele językowe nie stracą popularności na rzecz kolejnej innowacji.

Niekoniecznie etyczna AI

W styczniu 2023 roku magazyn „Time” opublikował wyniki dziennikarskiego śledztwa, w trakcie którego ustalił, że za sukcesem flagowego produktu OpenAI stały praktyki, których moralny status był co najmniej dwuznaczny. Podobnie jak poprzednie iteracje (metoda w programowaniu polegająca na wielokrotnym stosowaniu tego samego przekształcenia lub procedury) ChatGPT operuje na olbrzymich zasobach danych, z imponującą liczbą 175 miliardów parametrów. Treści te zostały automatycznie ściągnięte do zbioru uczącego – czy też „zeskrobane” („scraped”) – z internetu, co oznacza… no cóż, każdy, kto był w internecie, wie, co to oznacza.

Zezwolenie modelowi generatywnej sztucznej inteligencji na swobodne operowanie na takim zbiorze byłoby mocno nieodpowiedzialne. Z drugiej strony żaden człowiek nie byłby w stanie przeczytać takiego zbioru danych, aby oddzielić ziarna od plew i zapobiec wizerunkowej katastrofie. Dlatego OpenAI sięgnęło po półśrodek, wykorzystując „analizę białkową” kilkudziesięciu ludzi, którzy mozolnie oznaczali odpowiednimi „flagami” potencjalnie rasistowskie czy seksistowskie myśli w zbiorze GPT. Wszystko po to, aby wspomóc uczenie modelu i zminimalizować prawdopodobieństwo, że po udostępnieniu go masowemu odbiorcy chatbot zacznie generować niebezpieczne i odbiegające od politycznej poprawności myśli.

Nie byłoby w tym zapewne nic dziwnego – wśród „zeskrobanych” treści, które pracownicy musieli przeczytać, znajdowały się istotnie te najbardziej szokujące i obrzydliwe. Zadanie powierzono jednak firmie Sama Group, wcześniej współpracującej przy podobnych zadaniach z Google’em i Facebookiem. I to właśnie praktyki outsourcingowe Samy raziły najbardziej. Firma z San Francisco zatrudniała do tego zadania pracowników z Kenii, którym płaciła od 1,3 do 2 dolarów za godzinę pracy. Jeżeli przeliczymy ceny podobnych produktów w Kenii oraz w Polsce na dolary i porównamy je ze sobą, to miesięczna wartość takiej płacy będzie zbliżona do 1200–1300 złotych netto.

W zestawieniu z grzechami innych big techów, jak korzystanie z niewolniczej pracy dzieci czy współpraca w zakresie cenzury z totalitarnymi reżimami Chin i Arabii Saudyjskiej, oferowanie głodowych stawek pracownikom z Trzeciego Świata wydaje się raczej mało szokujące. Jednak mimo wszystko w przypadku firmy, która została założona dla dobra ludzkości, dysonans pomiędzy frazesami o etycznej AI a brutalną biznesową rzeczywistością po prostu rzuca się w oczy. Paradoksalnie OpenAI udowodniło, że nie da się prowadzić biznesu związanego z tak zaawansowanymi technologiami, nie ubrudziwszy sobie rąk.

Czytaj więcej

Sztuczna inteligencja – narzędzie nowego autorytaryzmu

Transhumanizm i ludzie przeciętni

Jeden z ojców założycieli OpenAI, Elon Musk, wielokrotnie krytykował odejście od modelu non profit na rzecz produktów komercyjnych, jako że zaprzeczało to idei założycielskiej fundacji. Uwidoczniło to różnicę w podejściu do rozwoju sztucznej inteligencji pomiędzy Muskiem a Samem Altmanem. Obaj są zdeklarowanymi transhumanistami, tzn. uważają, że sztuczna inteligencja w pewien sposób stanowić będzie metodę na przekroczenie fizycznych ograniczeń człowieczeństwa. Obaj również wierzą głęboko w to, że ogólna sztuczna inteligencja i superinteligencja mają szansę się ziścić. Musk jest jednak przekonany, że powinno to się odbywać dla dobra człowieka takiego, jakim jest dziś. Altman natomiast reprezentuje podejście zgoła odmienne.

We wrześniu tego roku „New Yorker” opublikował obszerną sylwetkę Altmana, gdzie przytoczył jego wypowiedzi dotyczące tego, że hipotetyczna ogólna sztuczna inteligencja (AGI) ma zastąpić przeciętnego człowieka (median human). Użycie takiego sformułowania wzbudziło zrozumiałe kontrowersje, ale nie było na dobrą sprawę niczym zaskakującym. Ideologia reprezentowana przez Altmana wprost zakłada, że sztuczna inteligencja stanowi kolejny etap w ewolucji gatunku, co z kolei pociąga za sobą koniecznie założenie o tym, że stary człowiek musi wyginąć. W tej wizji sztuczna inteligencja przejmie z człowieczeństwa wszystko to, co wartościowe, jednocześnie umożliwiając nam egzystencję na wyższym poziomie.

Ale czy na pewno nam? Jeżeli scenariusz Altmana miałby się spełnić i AGI przejęłaby rolę przeciętnego człowieka, to wszyscy powyżej przeciętnej mieliby się rzeczywiście świetnie. Natomiast niejasne jest to, co stałoby się z tymi przeciętnymi i poniżej na skali Altmana. Jest to problem, którego nie można skwitować nadzieją, że rynek jakoś się wyreguluje, że na miejsce wyeliminowanych przez sztuczną inteligencję zawodów przyjdą inne. Wymagałoby to redefinicji całego systemu gospodarczego i politycznego. Konkretnych pomysłów jednak jak do tej pory brakuje.

Altman podchodzi do zagadnienia nie tyle z beztroską, ile raczej z pełną świadomością negatywnych skutków. Tutaj casus pracowników z Kenii, spędzających długie godziny przy czytaniu treści pełnych przemocy, jest znaczący: może jest to rozwiązanie mało eleganckie, ale konieczne dla osiągnięcia większego dobra. Ale czy to większe dobro jest nam rzeczywiście potrzebne?

Czy Q* to Skynet?

Wątek AGI pojawił się również przy okazji wyrzucenia Sama Altmana z pozycji CEO OpenAI (i jego triumfalnego powrotu kilka dni później). Według ustaleń Reutersa grupa badaczy skierowała do zarządu OpenAI list, przestrzegając, że zaawansowana sztuczna inteligencja, nad którą pracuje firma pod kryptonimem Q* (wymawiane jako „Q-Star”), może zagrozić ludzkości. Altman został usunięty ze stanowiska dzień później. Wielu komentatorów wskazywało, że świadczy to o tym, że prezentował on wobec tego zagadnienia stanowisko, które w jawny sposób stało w sprzeczności z pryncypiami OpenAI. Są to jednak tylko domysły.

Hasło AGI w odniesieniu do wynalazków OpenAI przywoływane było już kilkukrotnie, między innymi w publikacji Microsoft Research z kwietnia tego roku. Badacze testowali GPT-4 w fazie, kiedy model nie był jeszcze dostępny publicznie, sprawdzając jego kreatywność i innowacyjność w podejściu do nowych problemów. Wyniki testów okazały się imponujące, co przekonało badaczy do oceny, że GPT-4 może być uznany za wczesną wersję AGI.

Problem polega na tym, że uznanie, czy coś jest, czy nie jest sztuczną inteligencją ogólną, a więc równą przeciętnemu człowiekowi, zależy od definicji i użytych miar. Możemy uznać, że stworzony model jest równy człowiekowi, ale nie ma żadnego sensownego pomysłu, co dalej z tym fantem zrobić. Model może nam nawet powiedzieć, że domaga się respektowania go jako osoby i przyznania mu praw, ponieważ taka „myśl” mogłaby z łatwością zostać wygenerowana na podstawie danych zgromadzonych w zbiorze, na którym się uczył. Danych stworzonych przez miliony żywych ludzi mających właśnie takie przeświadczenie. Nie byłoby to jednak dowodem na nic.

ChatGPT, tak jak jego następca i konkurenci, otworzył już furtkę do eliminacji zapotrzebowania na niektóre typy zadań. GPT-4 może już z powodzeniem zastąpić osoby na mniej istotnych stanowiskach, przepisując kod, tworząc streszczenia i tłumaczenia i wykonując mnóstwo innych żmudnych zadań intelektualnych taniej, niż gdyby mieli robić to żywi ludzie. Wpływ tego oprogramowania na rynek pracy już jest dostrzegalny i znaczący. Co będzie dalej trudno przewidzieć, natomiast warto zwrócić uwagę na to, że hipotetyczne powstanie AGI nie zmieniłoby w tej sytuacji niczego.

Podstawowe pytanie dotyczące AGI zasadza się bowiem na kwestii autonomii i wolnej woli: albo AGI może zostać przeprogramowane lub wyłączone, albo nie może. Jeżeli może, to znaczy, że nie jest równe ludziom; jeżeli natomiast nie może, to jakakolwiek dyskusja o ograniczeniach jest pozbawiona sensu. Przywoływanie AGI w dyskusji o destruktywnym wpływie sztucznej inteligencji na społeczeństwo, gospodarkę i politykę jest wygodnym tematem zastępczym.

Czytaj więcej

Cancel culture, czyli jak wymazać liberalizm

Opowieść o małpiej łapie

Twórca cybernetyki Norbert Wiener w eseju „Bóg i Golem” z 1964 roku, gdzie analizował religijne aspekty powstającej dopiero sztucznej inteligencji, przywoływał historyjkę z początku XX wieku o zaczarowanej małpiej łapie. Rzeczona łapa spełniała trzy życzenia swojego posiadacza. Bohater historii, ojciec rodziny, w pierwszej kolejności zażyczył sobie 200 funtów – na tamte czasy pokaźnej sumy. Życzenie spełniło się następnego dnia, kiedy jego syn zginął w fabryce przygnieciony ciężką maszyną i wypłacono mu odszkodowanie w wysokości właśnie 200 funtów. Zrozpaczony ojciec zażyczył sobie więc, aby jego syn powrócił do życia, co również się stało – syn zapukał do drzwi, z ciałem w takim stanie, w jakim wyciągnięto je spod maszyny. Trzecim życzeniem ojca była śmierć.

Nie ma sposobu, aby przewidzieć, ile dokładnie osób straci pracę w wyniku upowszechnienia generatywnej sztucznej inteligencji, czy pojawią się nowe zawody i jak w ogóle wpłynie to na dobrobyt społeczny. Należy jednak pamiętać o tym, że innowacje w zakresie sztucznej inteligencji obarczone są ogromnymi kosztami, z których wielu obecnie nie widać, a przykrywane są one niekończącymi się dyskusjami o tym, czy dany model kogoś dyskryminuje i czy obraża czyjeś uczucia.

Coraz bardziej zaawansowane modele sztucznej inteligencji wymagają też większej mocy obliczeniowej, co przekłada się w bardzo prosty sposób na zapotrzebowanie energetyczne, a więc również na zanieczyszczenie środowiska. Według analizy duńskiego badacza Kaspera Ludvigsena energia elektryczna potrzebna do wytrenowania GPT-4 waha się między 51 a 62 milionów kilowatogodzin. To energia, która mogłaby zasilić tysiące gospodarstw domowych przez cały rok. A mówimy tu o samym uczeniu się. Napływ nowych danych, kolejne możliwe zastosowania, pojawiające się każdego dnia lub po prostu wykorzystywanie przez miliony użytkowników to prawdziwa gargantuiczna gardziel, w której odmętach zużywana jest olbrzymia ilość energii.

Nawet optymalizując procesy uczenia i struktury bazodanowe, aby zajmowały mniej czasu i zużywały mniej energii, przy obecnej popularności zastosowań technik sztucznej inteligencji skazujemy się na coraz większą jej konsumpcję. W świetle nieustannych nacisków na oszczędność energii w imię „ratowania klimatu” nieuchronnie prowadzi to do dylematu, czy generatywna rewolucja rzeczywiście jest nam potrzebna.

11 grudnia 2015 roku Ilya Sutskever i Greg Brockman wydali oświadczenie o powołaniu do życia przedsięwzięcia o imponującym rozmachu – fundacji OpenAI. Do współpracy zaproszono śmietankę inżynierów uczenia głębokiego, którzy mieli rzucić wyzwanie takim gigantom jak Google. Elon Musk, Peter Thiel, Reid Hoffman i Jessica Livingston zadeklarowali ponad miliard dolarów na działalność nowo powstałej fundacji, która miała starać się, aby rozwój sztucznej inteligencji szedł we właściwym kierunku – dla dobra ludzkości.

Pozostało 97% artykułu
Plus Minus
Bogusław Chrabota: Dlaczego broń jądrowa nie zostanie użyta
Plus Minus
„Empire of the Ants”: 103 683 zwiedza okolicę
Plus Minus
„Chłopi”: Chłopki według Reymonta
Plus Minus
„Największe idee we Wszechświecie”: Ruch jest wszystkim!
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Plus Minus
„Nieumarli”: Noc żywych bliskich