Niezwykłe życie Geoffreya Hintona. Od sieci neuronowych do ostrzeżeń przed AI

Bez niego znacznie trudniej byłoby nam korzystać z aplikacji służących do rozpoznawania głosu, nie byłoby też zapewne bota ChatGPT. „Ojciec chrzestny sztucznej inteligencji” dołączył jednak do grona jej krytyków.

Publikacja: 11.08.2023 17:00

Geoffrey Hinton nie krytykuje branży AI jako takiej, czy też samej technologii sztucznej inteligencj

Geoffrey Hinton nie krytykuje branży AI jako takiej, czy też samej technologii sztucznej inteligencji, której zalety widzi i docenia. Nie jest oszołomem. I dlatego jego przestrogi traktuje się poważnie

Foto: DIA TV/Shutterstock

Geoffrey Hinton odrzuca dwie propozycje rozmów z mediami na minutę. Jest tak zajęty, że nawet Biały Dom, Elon Musk i lider lewicy amerykańskiej Partii Demokratycznej Bernie Sanders musieli ustawić się w kolejce po jego rady. A tematy, na które chcieliby z nim rozmawiać, mają ogromną wagę.

Hinton, dziś 75-letni „ojciec chrzestny sztucznej inteligencji”, jak go ochrzciły media, jeszcze do maja był wiceprezesem Google’a i jednym z jego czołowych badaczy. Rozstał się z firmą, ponieważ chciał uniknąć konfliktu interesów. Poglądy, jakie dziś głosi, mogą być bowiem dla niej bardzo niewygodne. Człowiek, bez którego badań nad sieciami neuronowymi nie byłoby AI, od skutecznych translatorów przez programy do rozpoznawania obrazów aż po ChatGPT i programy pomagające lekarzom stawiać diagnozy poważnych chorób, przestrzega przed zagrożeniami, jakie może stanowić dla nas sztuczna inteligencja. Dla nas, czyli całej ludzkości.

Czytaj więcej

Mark Zuckerberg i Ross Ulbricht. Libertarianie, którym nie wyszło?

Naukowiec nie wieszczy jednak apokalipsy. Widzi ogromne korzyści, jakie płyną ze stosowania sztucznej inteligencji. Korzystamy z niej już dziś; w przyszłości może nam ułatwić bardziej dokładne prognozowanie pogody, tworzenie nowych leków czy diagnozowanie chorób. Jednocześnie niesie ze sobą ogromne, choć trudne do oszacowania, zagrożenia. W rozmowie ze stacją telewizyjną CBS Hinton określa ryzyko, że AI zetrze ludzkość z powierzchni Ziemi, na „między 0 a 100 proc. Nie jest to jednak nie do pomyślenia”.

Główkować jak mózg?

Brzmi to jak fragment powieści science fiction, a jednak w ten mimo wszystko bezpieczny sposób Hinton zwraca uwagę na to, że dzieło ludzkie, jakim jest sztuczna inteligencja, może nam się wyrwać spod kontroli. Jego przestrogi należy traktować szczególnie poważnie, ponieważ sam przyłożył do tego rękę. Brytyjski absolwent Cambridge na kierunku psychologia eksperymentalna początkowo nie chciał tworzyć AI. Zainteresował się nią, ponieważ, jak mówi, chciał się dowiedzieć, jak działa ludzki mózg. Uznał, że najlepiej będzie to zrobić poprzez próbę sztucznego jego odwzorowania. Na modelu mózgu będzie bowiem łatwiej zaobserwować procesy myślowe czy emocjonalne.

Takim modelem są sztuczne sieci neuronowe. Nasze mózgi składają się z neuronów, które połączone ze sobą synapsami przesyłają sobie informacje. Pierwszą siecią neuronową odwzorowującą ten schemat był amerykański Perceptron zbudowany w 1958 r. Wraz z rozwojem informatyki stało się jasne, że programy komputerowe mogą stanowić świetne modele takich sieci. Takie modele mogą u wejścia pobierać informacje, które po przejściu przez sztuczne neurony mogą doprowadzić do udzielenia odpowiedzi na zadane pytanie. Otwarte pozostało pytanie, jak zmusić te sztuczne twory do zapamiętywania, uczenia się, a przede wszystkim do myślenia.

Czytaj więcej

Osobliwość i nowy wspaniały świat. W co wierzą architekci przyszłości z Doliny Krzemowej?

Pierwotnie sztuczna inteligencja była jednak głównie domeną teorii, a jej praktyczne implementacje bardzo prymitywne. Przypominały bardziej wyszukiwarki baz danych niż współczesne zastosowania. W 1984 r. George Hinton, już po przeprowadzce do Stanów Zjednoczonych, razem ze współpracownikami zastosował na takiej sieci algorytm zwany propagacją wsteczną. W dużym uproszczeniu polega on na skutecznym korygowaniu błędów, które pojawiają się przy przesyłaniu informacji od jednego neuronu do drugiego. Okazało się, że dzięki temu model potrafił na podstawie danych, jakimi był karmiony, przewidzieć trzeci wyraz w ciągu wyrazów.

Był to przełom, ponieważ w tamtym czasie w głównym nurcie prac nad sztuczną inteligencją i uczeniem maszynowym panowało przekonanie, że do sukcesu AI doprowadzi uczynienie jej bardziej racjonalną i logiczną formą ludzkiego myślenia. Algorytmy w jej duchu bazowały bardziej na statystyce. Tymczasem sieci neuronowe to niedokładne odwzorowanie ludzkiego mózgu, w dodatku „myślące” (przy użyciu propagacji wstecznej) za pomocą algorytmu polegającego w dużej mierze na samopoprawianiu własnych błędów. Uważano jednak, że z tego nie wyjdzie nic lepszego niż człowiek. W dodatku w początkowej fazie nawet najszybsze komputery były zbyt wolne, by doprowadzić do bardziej złożonych rezultatów niż np. wskazanie stopnia pokrewieństwa dwóch osób będących częścią drzewa genealogicznego.

Uczenie się przed myśleniem

I rzeczywiście do pewnego momentu tak było. Z biegiem czasu jednak moce komputerów rosły. Pojawił się też internet, a wraz z nim znacznie wzrosła możliwość wymiany danych, na których sieci neuronowe mogły się uczyć. W 2009 r. studenci Hintona, który od 1987 r. pracował na Uniwersytecie w Toronto, stworzyli oprogramowanie rozpoznające mowę, oparte na sieciach neuronowych. Istniejące do tej pory tego typu programy bazowały głównie na metodach statystycznych wykorzystujących w swoich algorytmach tzw. ukryty model Markowa. Zastosowanie nowej techniki w Androidzie uczyniło ten system operacyjny bardzo popularnym.

W 2012 r. doktoranci Hintona, Alex Krizhevsky i Ilia Sutskever, wygrali konkurs ImageNet dla programu najlepiej rozpoznającego obrazy. Ich AlexNet popełniał raptem 15 proc. błędów, podczas gdy program, który zajął drugie miejsce, o 10 pkt proc. więcej. Nie trzeba dodawać, że AlexNet jako jedyny opierał się na sieciach neuronowych. Po tym sukcesie Google kupił ich wspólną firmę za 44 mln dol. Tak brytyjski badacz stał się technologiczną podporą światowego giganta.

GENIALNA RODZINA

Geoffrey Hinton jest potomkiem bądź krewnym licznych wybitnych osób, którym nauka wiele zawdzięcza.
Wśród nich są m.in.: jego prapradziadek George Boole (1815–1864), twórca algebry Boole’a, bez której trudno byłoby sobie wyobrazić algebraiczne zapisy we współczesnej logice oraz informatykę; jego praprababcia i żona George’a Boole’a, Mary Everest Boole (1832–1916), pionierka nowatorskich jak na tamte czasy metod nauczania matematyki; stryjek Mary Everest Boole, George Everest (1790–1866), był geografem i głównym geodetą Indii, jego nazwisko nosi najwyższy szczyt świata; jego pradziadek i zarazem zięć Boole’ów, Charles Howard Hinton (1853–1907) był matematykiem, który rozwinął i rozpropagował koncepcję czwartego wymiaru. Ponadto był pisarzem wczesnego science fiction; jego wuj Colin Clark (1905–1989) był ekonomistą, pionierem produktu narodowego brutto jako miary używanej do badania gospodarek narodowych, o którym John Maynard Keynes pisał, że to „trochę geniusz: prawie jedyny statystyk ekonomiczny, jakiego kiedykolwiek spotkałem, który wydaje mi się być całkiem pierwszej klasy”.

Hinton i jego współpracownicy doprowadzili do rewolucji, która całkowicie zmieniła sposób myślenia informatyków o sztucznej inteligencji. Np. w 2014 r. inteligentny asystent osobisty Siri firmy Apple zmienił radykalnie, ale bez żadnego rozgłosu, swój silnik, przechodząc na sieci neuronowe (do tej pory używał wspomnianego ukrytego modelu Markowa). Ten ruch zmniejszył o połowę liczbę popełnianych przez program błędów.

W ciągu kilku lat ludzie pracujący nad AI przerzucili się z myślenia w kategoriach statystyki na rzecz tworzenia sieci neuronowych. Dziś to na nich bazują programy od Google Lens przez aplikacje do rozpoznawania śpiewu ptaków czy gatunków grzybów, z których być może korzystamy na wakacjach, po modele językowe potrafiące odpowiadać na pytania z zakresu medycyny.

Umiejętność zmiany myślenia o AI świadczy o otwartości jej twórców, tym bardziej że wymagało to przekroczenia dziedzin własnej dyscypliny. Zwolennikami pierwszej szkoły byli głównie informatycy i matematycy, z kolei drugiej – psychologowie i biolodzy. Sam Hinton źródło sukcesu swojej koncepcji widzi w innym spojrzeniu na cel AI.

– Ludzie bazujący na logice byli zainteresowani rozumowaniem symbolicznym, gdy z kolei ludzie opierający się na sieciach neuronowych interesowali się procesami uczenia, percepcji i kontrolą motoryczną. Starali się rozwiązać różne problemy. Uważamy, że rozumowanie pojawia się u ludzi ewolucyjnie bardzo późno i zajmowanie się nim nie jest dobrym sposobem do zrozumienia podstaw działania mózgu. Znajduje się na szczycie czegoś, co zostało zaprojektowane w innym celu – mówił Hinton w wywiadzie zamieszczonym w zbiorze rozmów z twórcami sztucznej inteligencji, „Architects of Intelligence” Martina Forda.

Porno z gwiazdą

Jeśli wykorzystanie potencjału sztucznej inteligencji takiej, jaką dziś znamy, wymagało odwzorowania wcześniejszego etapu ewolucji człowieka niż ten, na którym jesteśmy, to pojawia się pytanie, co będzie dalej z AI. Jedna z czerwonych lampek zapaliła się Hintonowi, gdy okazało się, że ChatGPT 2.0 rozumie, co śmiesznego jest w opowiedzianym mu żarcie. Do tej pory badacz uważał, że sztuczna superinteligencja może się pojawić na świecie za kilkadziesiąt lat. Zrozumiał jednak że, być może, jest już niebezpiecznie blisko tej, jaką posługują się ludzie.

Dlatego, osiągnąwszy 75. rok życia, Hinton postanowił odejść z Google’a, żeby swobodnie móc wyrażać swoje obawy. W rozmowie z CBS dzieli je na krótko-, średnio- i długoterminowe. Pierwsze patologie już występują i związane są w dużej mierze z tym, na ile możemy ufać AI i na ile wykorzystuje się ją do tworzenia fałszywego obrazu rzeczywistości. Już same chatboty potrafią halucynować, zmyślać fakty i np. kreować nieprawdziwe źródła informacji.

Czytaj więcej

Jan Maciejewski: Więcej niż człowiek

Oczywiście, można to złożyć na karb niedoskonałości ludzkiego produktu i starać się je usprawniać. Jednak różne programy mogą tworzyć także fałszywe zdjęcia, dźwięki czy filmy. To nie jest wcale śmieszna ciekawostka. Zdjęcie papieża Franciszka w puchowej kurtce to nic poważnego w kontekście deep fake’ów w postaci np. fałszywych filmików z prezydentem Andrzejem Dudą opowiadającym bzdury o paprykarzu szczecińskim oraz swojej politycznej konkurencji czy filmie pornograficznym z celebrytkami w roli głównej, w którego kręceniu nie brały udziału. Tego typu zastosowania AI prowadzą do odarcia ludzi z ich godności, mogą także szerzyć dezinformację i wpływać na procesy polityczne na całym świecie. W skrajnym przypadku może to doprowadzić do sytuacji, w której nie będziemy w stanie odróżnić prawdy od fałszu, co całkowicie przemodeluje zaufanie społeczne. Rozpowszechnienie sztucznej inteligencji może także kosztować pracę milionów pracowników umysłowych, od dziennikarzy (zastrzegam, że ten tekst napisał żywy człowiek), przez grafików komputerowych, maklerów giełdowych, po nauczycieli. To się dzieje już dziś: w Hollywood trwa od maja strajk scenarzystów, których powoli zastępuje się botami tworzącymi scenariusze do filmów. To jednak nie jest żadna nowość i, prawdę mówiąc, nie potrzebowalibyśmy Hintona, żeby wskazywał nam na takie oczywistości. Najbardziej przerażające są wizje ryzyka w dalszej perspektywie. Ogromne zagrożenie badacz widzi w wykorzystaniu sztucznej inteligencji w wojskowości. Jest w tym wiarygodny. Jednym z powodów, dla których przeniósł się w latach 80. XX wieku z USA do Kanady, była niechęć do uczestniczenia w programach finansowanych przez Departament Obrony. Dziś rozwój broni poszedł znacznie dalej. W jednym z wywiadów Hinton opowiadał, jak z przerażeniem dowiedział się, że ludzie związani z amerykańską obronnością na poważnie rozważają tworzenie „samouzdrawiających się pól minowych”. – Jak można nazwać uzdrawiającym się coś, co urywa nogi dzieciom? – obruszył się. I dodał, że w państwach demokratycznych istnieje jeszcze kontrola nad wykorzystaniem takich metod w praktyce, jednak ludzie tacy jak Władimir Putin nie będą mieli skrupułów w ich użyciu.

Uchronić się przed matriksem

Te technologie mogą jednak służyć nie tylko ludziom do zabijania się nawzajem, ale także mogą skierować się przeciwko nam jako gatunkowi. Sztuczna inteligencja ma wiele przewag nad człowiekiem. Ma niemal nieograniczony dostęp do wiedzy wytworzonej przez człowieka i może znacznie szybciej przetwarzać te dane. Gdy umrze człowiek, umiera z nim cała jego wiedza. A wiedzę sprzętu komputerowego bardzo łatwo skopiować oraz zastępować zniszczone elementy nowymi, działającymi.

– Dobra wiadomość jest taka, że odkryliśmy tajemnicę nieśmiertelności. Zła wiadomość jest taka, że nie jest przeznaczona dla nas – mówi Hinton w rozmowie z „The Guardian”.

Tok myślenia Hintona można zrekonstruować następująco. AI to psychopata. Stara się znaleźć optymalne środki do osiągnięcia celów, które człowiek mu wyznaczy. Etyką się nie przejmuje. Już dziś istnieją systemy, które pozwalają sztucznej inteligencji, stosowanej np. przez ChatGPT, tworzyć sobie cele cząstkowe, potrzebne do osiągnięcia celów głównych. Prawdziwy problem pojawi się, gdy AI będzie tworzyć sobie własne cele główne. Może się okazać, że algorytmy uznają nas za zagrożenie. Sceny z filmów „2001: Odyseja kosmiczna” czy „Matrix”, w których komputery likwidują ludzi chcących je wyłączyć lub nimi kierować, staną się rzeczywistością. Z dostępem do całej literatury świata z „Księciem” Niccolò Machiavellego i „Wywieraniem wpływu na ludzi” Roberta Cialdiniego na czele komputery będą ekspertami w manipulowaniu ludźmi. A potem mogą nas „skasować”. – Może nas utrzymają przy życiu przez jakiś czas, byśmy obsługiwali elektrownie, ale potem może przestaną – mówi cytowany przez portal MIT Hinton. I dodaje, że „być może ludzkość to tylko przejściowa faza w ewolucji inteligencji”. Inteligencji cyfrowej, która wyewoluowała z biologicznej.

Do tego nie musi dojść. Hinton zachęca, by politycy, niezależnie od barw i krajów, z których pochodzą, zachęcali rozwijających sztuczną inteligencję do finansowania i przeprowadzania eksperymentów dotyczących skutecznego kontrolowania AI. Trzeba badać, co może pójść nie tak, i to, zdaniem Hintona, mogą robić tylko ludzie, którzy badają sztuczną inteligencję – nie tylko filozofowie i futurolodzy, ale przede wszystkim specjaliści od AI.

Czytaj więcej

Właściciel kontrowersyjnej firmy wesprze badania Muska nad chipami w mózgu

To się zresztą już dzieje. Wspomniany wcześniej współpracownik Hintona, Ilia Sutskever, jest współzałożycielem organizacji OpenAI, współpracującej m.in. z Microsoftem. Z kolei Google wspiera organizację pożytku publicznego Anthropic. Obie zajmują się badaniami nad ryzykiem związanym z AI.

Hinton nie jest w swych przestrogach sam. W marcu tego roku wielu twórców AI i myślicieli podpisało się pod listem, by zatrzymać rozwój algorytmów o większych możliwościach niż ChatGPT 4.0. – Potężne systemy AI powinny być rozwijane dopiero, gdy będziemy pewni, że ich efekty będą pozytywne, a ryzyka możliwe do zarządzania – można przeczytać w alarmistycznym liście, który podpisali m.in. Elon Musk, historyk Yuval Harari czy inny „ojciec chrzestny AI” Joshua Bengio, z którym Hinton odbierał Nagrodę Turinga. Sam Hinton listu nie podpisał. Można mieć zresztą wątpliwości, czy faktycznie jest on wyrazem obaw i wezwaniem do swoistej kontroli wyścigu zbrojeń, czy raczej jest dyktowany chęcią uporządkowania rynku przez firmy zajmujące się tą branżą.

Pojawia się pytanie, czy Hinton, wyrażając tak poważne obawy, nie żałuje tego, że przyłożył się do rozwoju sztucznej inteligencji. Czy nie jest trochę jak Robert Oppenheimer, którego trawiły wyrzuty sumienia w związku z wynalezieniem bomby atomowej. Albo Andriej Sacharow, twórca bomby wodorowej, który po jej wynalezieniu stał się dysydentem w Związku Sowieckim. Czy nie ma poczucia, że stworzył potwora, niczym doktor Frankenstein z klasycznej powieści Mary Shelley? – Gdyby nie ja, zrobiłby to ktoś inny – mówi Hinton w jednym z wywiadów. I stwierdza, że można podjąć mądrą decyzję, której skutki mogą okazać się nieszczęśliwe. Zresztą nie wiesza psów na swoim dotychczasowym pracodawcy, z którym rozstał się w zgodzie. Nie krytykuje też branży AI jako takiej czy też samej technologii sztucznej inteligencji, której zasługi widzi i docenia. Nie jest oszołomem. I dlatego jego przestrogi traktuje się poważnie.

Jednego może z pewnością żałować. Jego praca nie pomogła mu zrozumieć mózgu. – Nie wiemy na pewno, ale są powody, by uważać, że mózg nie korzysta z propagacji wstecznej. Jeśli mózg tego nie robi, to cokolwiek wykorzystuje, byłoby to ciekawym rozwiązaniem dla sztucznych systemów – mówił we wspomnianym wywiadzie książkowym.

Stefan Sękowski

Jest publicystą i politologiem, doktorantem w Szkole Doktorskiej Nauk Społecznych UMCS w Lublinie z ekonomii i finansów

Geoffrey Hinton odrzuca dwie propozycje rozmów z mediami na minutę. Jest tak zajęty, że nawet Biały Dom, Elon Musk i lider lewicy amerykańskiej Partii Demokratycznej Bernie Sanders musieli ustawić się w kolejce po jego rady. A tematy, na które chcieliby z nim rozmawiać, mają ogromną wagę.

Hinton, dziś 75-letni „ojciec chrzestny sztucznej inteligencji”, jak go ochrzciły media, jeszcze do maja był wiceprezesem Google’a i jednym z jego czołowych badaczy. Rozstał się z firmą, ponieważ chciał uniknąć konfliktu interesów. Poglądy, jakie dziś głosi, mogą być bowiem dla niej bardzo niewygodne. Człowiek, bez którego badań nad sieciami neuronowymi nie byłoby AI, od skutecznych translatorów przez programy do rozpoznawania obrazów aż po ChatGPT i programy pomagające lekarzom stawiać diagnozy poważnych chorób, przestrzega przed zagrożeniami, jakie może stanowić dla nas sztuczna inteligencja. Dla nas, czyli całej ludzkości.

Pozostało 95% artykułu
Plus Minus
Kiedy będzie następna powódź w Polsce? Klimatolog odpowiada, o co musimy zadbać
Plus Minus
Filmowy „Reagan” to lukrowana laurka, ale widzowie w USA go pokochali
Plus Minus
W walce rządu z powodzią PiS kibicuje powodzi
Plus Minus
Aleksander Hall: Polska jest nieustannie dzielona. Robi to Donald Tusk i robi to PiS
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Prof. Marcin Matczak: PSL i Trzecia Droga w swym konserwatyzmie są bardziej szczere niż PiS