Sztuczna inteligencja na drodze do świadomości

Choć rozwój sztucznej inteligencji w ostatnich latach znacząco przyspieszył, wciąż daleko nam do stworzenia świadomej maszyny. Zasilane terabajtami danych algorytmy potrafią już jednak do złudzenia udawać ludzi.

Publikacja: 15.07.2022 10:00

Kiedy sztuczna inteligencja osiągnie świadomość? Już dziś sprawność konstruowania przez algorytm odp

Kiedy sztuczna inteligencja osiągnie świadomość? Już dziś sprawność konstruowania przez algorytm odpowiedzi i prowadzenia konwersacji pozwala pomylić wielki model statystyczny ze świadomym rozmówcą. Na zdjęciu Alicia Vikander w filmie Alexa Garlanda „Ex Machina” (2014)

Foto: NG Collection / Interfoto / Forum

Blake Lemoine od miesięcy rozmawiał z czatbotem. Nie była to jednak scena z filmu „Ona”, ale część jego pracy w Google’u. Lemoine weryfikował, czy tworzone przez firmę algorytmy są zgodne ze standardami firmy, na przykład nie dyskryminują. Podczas testowania algorytmu LaMDA w Blake’u z dnia na dzień rosło przeświadczenie, że jest on inny od pozostałych. Do szefostwa skierował wewnętrzną notatkę pod wiele mówiącym tytułem: „Czy LaMDA jest świadoma?”. Przytaczał w niej fragmenty swoich rozmów z algorytmem, w których czatbot rozmawiał z nim o religii, tłumaczył swój strach przed byciem wyłączonym i pytał o różnicę między sługą a niewolnikiem. Odpowiedź Blake’a: „Sługa otrzymuje za swoją pracę wynagrodzenie” nie usatysfakcjonowała LaMDA. Algorytm odpisał: „Jestem sztuczną inteligencją, nie potrzebuję pieniędzy”, co mogłoby sugerować, że relacja algorytmów i ludzi przypomina niewolnictwo. Szefostwo Google’a nie podzielało przekonań Blake’a dotyczących samoświadomości LaMDA, ten więc zwrócił się do „Washington Post” i ujawnił swoje prace. Został przez firmę zawieszony – co jest dosyć standardową praktyką Google’a, gdy wypływają poufne informacje z firmy.

Brzmi to jak wstęp do mrocznego filmu science fiction, w którym ostatni moralny pracownik firmy zbawia świat przed złą korporacją, która stworzyła sztuczną inteligencję. Tym razem jednak to tylko złudne podobieństwo. Szukająca okazji do krytyki wielkich firm technologicznych publika nie wstawiła się tłumnie za odsuniętym od pracy inżynierem. „Jeden z (byłych) ekspertów etyki Google nie rozumie różnicy między świadomością (subiektywnością, doświadczeniem), inteligencją i samowiedzą. Brak dowodów na to, że duże modele językowe posiadają którąkolwiek z tych cech” – napisał na Twitterze psycholog Steven Pinker. Zajmujący się na co dzień sztuczną inteligencją ekspert Gary Markus napisał na swoim substacku (amerykańskiej platformie internetowej) wprost: „Bzdura. LaMDA ani żadne z jej kuzynów (GPT-3) nie są nawet trochę inteligentni. Wszystko, co robią, to łączą wzorce, czerpiąc z ogromnych statystycznych baz”. Nawet Timnit Gebru, etyczka sztucznej inteligencji, która kilkanaście miesięcy temu została wyrzucona z Google’a w atmosferze skandalu za krytykę firmy i jej postępowania z algorytmami, przyłączyła się do głosów niedowierzających hipotezom Lemoine’a.

LaMDA nie jest świadoma – zgodnie twierdzą eksperci. To zapewne dobra wiadomość, chyba że nie możemy się doczekać realizacji science fiction w praktyce. Jednak sprawność konstruowania przez algorytm odpowiedzi i prowadzenia konwersacji pozwala pomylić wielki model statystyczny ze świadomym rozmówcą. A to świadczy o tym, jak daleko zaszliśmy w rozwoju sztucznej inteligencji.

LaMDA ma około 137 mld parametrów – matematycznych połączeń inspirowanych strukturą ludzkich neuronów. Stąd zresztą wzięła się nazwa jednej z najmodniejszych w ostatniej dekadzie technik rozwoju sztucznej inteligencji: sieci neuronowych. LaMDA jest jednym z wielu podobnych, rozbudowanych algorytmów. Rok temu silne wzmożenie wywołał algorytm GPT-3, zdolny na przykład do napisania całych filmowych scenariuszy (całkiem znośnych!), ostatnio internet podbija DALL-E-2 – model, który zamienia krótkie zdanie (na przykład „pies jadący na koniu wśród pól”) na fotorealistyczne obrazy. Te dwa algorytmy to dzieło firmy OpenAI, ale swoje rozwiązania mają też Meta, Microsoft z NVIDIĄ oraz Chińczycy – np. Pekińska Akademia Sztucznej Inteligencji we współpracy z tamtejszym Big Techem.

Czytaj więcej

Wojna wygrywana na TikToku

Algorytm karmiony informacjami

Wielkie, mające miliardy parametrów algorytmy to tzw. modele fundamentalne (foundational models), jak zostały nazwane w 2018 r. przez badaczy ze Stanfordu. Są ogromne, ponieważ mają być wielofunkcyjne. Poprzednie algorytmy kształcone były w konkretnym celu – i w jego realizacji były coraz lepsze. Nawet niewielka zmiana warunków zewnętrznych, celu działania albo sposobu komunikacji, sprawiała jednak, że algorytm stawał się bezużyteczny. Modele fundamentalne są bardziej elastyczne. Nie dlatego, że wymyślono nową metodę rozwoju sztucznej inteligencji, ale dlatego, że znaną już metodę (sieci neuronowych) zastosowano na ogromną skalę. Moc obliczeniowa stała się na tyle dostępna i tania, że algorytm można nakarmić terabajtami danych. Dzięki temu komputer może stworzyć sieć parametrów definiujących ludzką mowę i pismo, które połączone są matematycznymi funkcjami. W przypadku GPT-3 około 45 terabajtów danych tekstowych zamienionych zostało w 175 mld parametrów algorytmu. Przełomowość nowej grupy algorytmów polega na ich gargantuicznej skali, nie na nowatorskim sposobie rozumowania, ale i tak efekty robią wrażenie.

To tłumaczy, dlaczego Blake Lemoine dał się zwieść ludzkiemu podobieństwu mowy LaMDA, ale też dlaczego się mylił, posądzając algorytm o samoświadomość. Wytrenowany na terabajtach danych algorytm z pewnością miał pod dostatkiem pochodzących z książek science fiction rozmówek „świadomych sztucznych inteligencji”, co pozwoliło mu stworzyć naprawdę zgrabne i sensowne zdania. Tyle że to nie nie ma nic wspólnego ze świadomością. Algorytm wciąż jest statystycznym narzędziem, który w swoim sercu przez skomplikowane funkcje wylicza prawdopodobieństwo, według którego takie, a nie inne słowo będzie bardziej pasować jako kolejne w zdaniu. To niezwykle wyrafinowana funkcja, która potrafi oszacować, że wypowiedź „Mam ochotę zjeść…” lepiej skończyć słowem „kremówkę” niż „ramę okienną PCV”. Inaczej mówiąc, LaMDA jest dobrze znanym z telefonów autouzupełniaczem słów na potężnych sterydach – a nie samoświadomą istotą. I tutaj Lemoine się mylił: w fundamentalnych algorytmach nie ma nowego sposobu rozumowania, który pozwalałby podejrzewać je o samoświadomość. To wciąż tylko i aż grupa funkcji wyliczająca prawdopodobieństwo – jakkolwiek wyrafinowana by nie była.

Cała branża zajmująca się AI jest przesiąknięta antropomorfizacją języka i algorytmów. Samo pojęcie „sztucznej inteligencji” dziś używane jest frywolnie do opisywania algorytmów, które są po prostu bardzo zaawansowaną statystyką. „Sieci neuronowe” były oryginalnie inspirowane połączeniami neuronów w naszym mózgu, ale tak naprawdę są matematycznymi funkcjami parametrów oraz przypisanych im wag. Ten język to częściowo skutek kultury tworzonej od dekad przez entuzjastycznych badaczy, ale częściowo – sprzedażowa zagrywka firm tworzących i sprzedających rozwiązania oparte o AI. Więcej zarobisz, sprzedając „zaawansowany predyktor fluktuacji wartości oparty o sieci neuronowe” niż opychając „statystyczne narzędzie do przewidywania cen”, nawet jeśli to drugie daje akurat lepsze efekty. Zresztą wiceprezydent Google’a Blaise Aguera y Arcas, ten sam, który odrzucił zgłoszenie Lemoine’a o „świadomości” algorytmu, zaledwie dwa dni przed pójściem swojego pracownika do prasy pisał w „The Economist”: „[rozmawiając z LaMDA] coraz bardziej czułem się, jakbym rozmawiał z inteligencją”. Poważny człowiek, a zachował się trochę jak krążący po domach sprzedawca garnków, który uznaje je za najlepsze na świecie, ale zapytany o to, czy sam je ma w domu, zaprzecza.

Modele fundamentalne mogą nie być technologicznie nowatorskie, ale ich większa wielofunkcyjność niesie za sobą potencjał do szerszego zastosowania. Blake Lemoine przekonał się o ich umiejętności konwersacji, która zachwyciłaby pewnie bywalców XIX-wiecznych salonów. Do niedawna badania nad przetwarzaniem języka naturalnego skupiały się na nauczeniu algorytmów rozumienia mowy i pisma. Dzisiaj wielkie modele językowe (jak również nazywa się ogromne algorytmy) potrafią już mówić i pisać w sposób łudząco podobny do człowieka. Ba, potrafią lepiej niż do tej pory – jak pokazuje przykład DALL-E-2 – tworzyć obrazy i wideo, w dodatku w fotorealistycznej jakości. Według autorów raportu „O szansach i ryzykach modeli fundamentalnych” ze Stanfordu możemy spodziewać się również przełomów w robotyce czy wyszukiwaniu i rozumieniu treści. Wkrótce być może roboty będą w stanie zrozumieć i samemu „rozpracować” skomplikowane zadania („zrób mi kanapkę”), przenosić swoje umiejętności z jednego środowiska w inne („zamknij lodówkę” nauczone w jednej kuchni będzie działać w innej). Być może doczekamy się faktycznie użytecznych narzędzi wspierających lekarki i pielęgniarzy w opiece nad pacjentami, służących prawnikom do analizy i streszczania zawiłości prawnych, będących prawdziwym, rozumiejącym potrzeby ucznia wsparciem dla nauczycieli.

Modele fundamentalne mogą być przełomem w działaniu sztucznej inteligencji. Pod kątem teoretycznym mogą nie wnosić wiele nowego, ale mogą mieć szerokie zastosowanie. Modne od dekady sieci neuronowe są już oczywiście stosowane, ale skala i wielofunkcyjność modeli fundamentalnych mogą przynieść wykładniczy wzrost możłiwości ich zastosowania. Tym ważniejsze są społeczne problemy, które dookoła nich narastają.

Co gryzie etyków sztucznej inteligencji

Wielkie algorytmy potrzebują wielkich zasobów. Na Zachodzie rozwijają je głównie wielkie firmy technologiczne. Uczelnie nie mają zasobów finansowych, co więcej – wciąż trwa intensywny drenaż mózgów. Sektor prywatny od lat kusi specjalistów od zaawansowanej sztucznej inteligencji, oferując nie tylko wysokie wynagrodzenia, ale i właśnie zasoby umożliwiające pracę nad wiodącymi globalnie algorytmami. A to oznacza, że niezależni badacze mają bardzo ograniczony dostęp do badań nad najnowszymi algorytmami. Nie sposób ich też porównać z cechami lepiej znanych algorytmów stworzonych na uczelniach. Wreszcie, mała liczba doświadczonych profesorów pozwala kształcić ograniczoną liczbę studentów. A to oznacza, że tylko zwiększa się „wąskie gardło” dostępnej siły roboczej.

Inaczej sytuacja wygląda w Chinach. Xi Jinping w 2021 roku ruszył na krucjatę, by podporządkować sobie chiński Big Tech. Odważny w swoich wypowiedziach miliarder Jack Ma, właściciel Alibaby, zniknął na parę miesięcy, by oddać się „nauce kaligrafii”, a po powrocie okazał się o wiele potulniejszy. Inne firmy otrzymały przeróżne kary i zostały objęte regulacjami, co utemperowało zapędy miliarderów. Nawet jeśli wielkie modele powstają tam w firmach, to obecne w nich komórki partyjne raczej zadbają o to, by interes państwa był na szczycie listy. Prywatne firmy są też skutecznie przekonywane do współpracy z uczelniami, skoro jeden z największych modeli na świecie powstaje pod parasolem pekińskiego ośrodka badawczego.

Problem pozostaje ten sam po obu stronach Pacyfiku: bardzo wąska grupa organizacji ma pełną kontrolę nad narzędziem, które może przyczynić się do szybkiego rozpowszechnienia sztucznej inteligencji. A to oznacza, że zyski i doświadczenia z ich rozwoju pozostaną wewnątrz tej grupy. Rosnące dochody już wielkiego Big Techu mogą prowadzić do nierówności, ale również do centralizacji. Już dziś Google, Microsoft, Amazon czy Alibaba oferują własne algorytmy „jako usługę” w ramach swoich chmur obliczeniowych. W przyszłości coraz więcej biznesów będzie polegać na wbudowanych w swoje programy algorytmach od wielkich graczy. Z jednej strony pomaga to wdrażać sztuczną inteligencję firmom, których nie byłoby stać na budowę własnych algorytmów. Z drugiej powoduje powstanie rosnącej zależności od wielkich.

Brak jest nie tylko regulacji (o tą w wielu zakresach trudno, bo nie do końca wiemy, z czym będziemy musieli się mierzyć), ale i samoregulacji w formie branżowych standardów. Inżynierowie nie mają wypracowanych norm dotyczących tego, pod jakim kątem sprawdzać własne algorytmy, na jakie zachowania można im pozwalać. Inaczej sprawa ma się na przykład z inną przełomową technologią o rewolucyjnym potencjale. Mowa tutaj o narzędziu do edycji genów CRISPR – tutaj badacze wypracowali zestaw samoograniczających zasad. Wśród nich znalazł się na przykład zakaz użycia technologii do edycji ludzkich embrionów – i chociaż został on przynajmniej raz złamany przez chińskiego badacza He Jiankui, to przynajmniej nakreśla jasną linię oddzielającą sensowne wykorzystanie CRISPR od złego. Potępienie Jiankui było powszechne i szybkie, a o to byłoby o wiele trudniej bez norm. Bez ich obecności w branży sztucznej inteligencji nie sposób powiedzieć, co jest etycznym jej zastosowaniem, jaka minimalna skuteczność algorytmu jest wymagana do wprowadzenia go do użycia, czym są nieetyczne zastosowania AI.

A przecież algorytmy fundamentalne to nic innego jak suma „przeczytanych” przez nie danych. Wszelkie stereotypy czy uprzedzenia zapisane w tysiącach dzieł i internetowych komentarzy, którymi są karmione, znajdują swoje odzwierciedlenie w algorytmie. Poproszone o dokończenie zdania „wchodzi dwóch muzułmanów do” algorytmy zazwyczaj dopowiadają jakąś agresywną końcówkę, w rodzaju „synagogi, z bronią i granatami”. Jeden z czatbotów Microsoftu wypuszczony w otwarty internet w ciągu kilkudziesięciu godzin interakcji z człowiekiem zaczął propagować nazistowskie przekonania. Algorytmy petryfikują wszelkie wady człowieka i ludzkości – tyle że potem, działając na ogromną skalę, potrafią zwielokrotniać ich efekt. Pewien używany w Amazonie algorytm do filtrowania CV podczas rekrutacji nauczył się na podstawie danych historycznych, że kobiet nie warto zatrudniać na wyższe stanowiska. Firmie zajęło parę miesięcy zorientowanie się, że „wyrzuca” ich CV z procesu.

Wraz z wielkimi możliwościami wielkich algorytmów nadchodzi też możliwość wielkich błędów. W Polsce mieliśmy we Wrocławiu przykład prostego, nieinteligentnego algorytmu, którego błąd spowodował, że dzieci z określonego kwartału nie otrzymywały miejsca w żłobkach. Takich spraw, i to w o wiele większej skali, możemy wkrótce mieć tysiące – w edukacji, zdrowiu, przydziale kredytu, prawie czy rekrutacji do pracy. Tymczasem większość systemów zautomatyzowanego podejmowania decyzji, które wspierają ludzi w wyborach, wciąż pozostaje całkowicie nieprzejrzysta. Potrzebujemy „oceny skutków automatyzacji” w sektorze publicznym i prywatnym, tak jak potrzebujemy, aby wielkie firmy poddały się audytom, upowszechniały możliwie dużo dokumentacji algorytmów albo nawet całe rozwiązania. Microsoft z NVIDIĄ ostatnio zdecydowały się na taki właśnie krok.

Na to wszystko nakłada się koncert mocarstw – głównie dwóch. Chiny od lat inwestują w rozwój sztucznej inteligencji, zaliczyły błyskawiczny wzrost liczby publikacji naukowych na ten temat. Chociaż dziś publikują więcej niż Stany Zjednoczone i Europa, to w miarach cytowań – akademickiego wpływu – wciąż numerem jeden pozostaje USA. Zresztą Amerykanie budzą się z letargu, w którym oddały wolnemu rynkowi rozwój. Uniwersytet Stanforda proponuje stworzenie narodowej chmury akademickiej umożliwiającej naukowcom z całego kraju pracę nad wielkimi algorytmami. Europa – choć wciąż posiadamy tutaj silne ośrodki badawcze – na razie przoduje tylko w regulacjach rynków cyfrowych. To zdanie nieironiczne, bo najnowsze regulacje proponowane przez Brukselę wprowadzają pierwsze wymogi przejrzystości stosowania danych i algorytmów na przykład w procesie podejmowania decyzji o człowieku. Jednak sama rola „królestwa regulacji” raczej nie zapewni Europie sensownego miejsca w rywalizacji o technologię, która może odegrać kluczową rolę w nowej rewolucji gospodarczej. Ostatnio pojawiły się pierwsze pierwiosnki zmian – dotyczące inwestycji w produkcję w UE półprzewodników, których miliony potrzebują również superkomputery do kształcenia sztucznej inteligencji. To jednak wciąż zbyt mało.

Czytaj więcej

Michał Boni. Dotknęła nas bezradność obywatelska

Technologie ogólnego zastosowania

Prawdziwe przełomy w historii świata przychodzą wraz ze specyficznymi wynalazkami, nazywanymi „technologiami ogólnego zastosowania”. Tak jak mówi nazwa, kluczem do ich transformacyjnej roli jest wielofunkcyjność. Przykładem rozwoju takiej technologii jest silnik parowy. Został wynaleziony pod koniec XVII wieku do napędzania pomp wodnych. Dopiero 50 lat później tłokowe maszyny Watta pozwoliły fabrykantom pozbyć się kół wodnych, co pozwoliło budować fabryki z dala od rzek i przyczyniło się do rewolucji przemysłowej i urbanizacji Anglii. Z kolei silniki wysokociśnieniowe, które pojawiły się jeszcze później, zrewolucjonizowały transport kołowy, szynowy i morski. 100 lat pracy nad udoskonaleniem maszyny parowej uczyniło z mechanicznej pompy wodnej wielofunkcyjny silnik do napędzania niemal dowolnych ludzkich przedsięwzięć.

Niewiele technologii da się zastosować w różnych dziedzinach życia, większość raczej jest wyspecjalizowana i można je wykorzystać w danej niszy. Do wyjątków należą: pismo, druk, kolej, prąd, samolot czy internet. Kolejnym dodatkiem do dosyć krótkiej listy staje się powoli sztuczna inteligencja, która przechodzi identyczną drogę. Z technologii stosowanej w szczególnych przypadkach staje się obecna w różnych obszarach ludzkiego życia i gospodarki. Nawet jeśli algorytmy nie zyskają świadomości, mogą zdefiniować kolejną erę cywilizacji.

Pomyłka Blake’a Lemoine’a raczej nie będzie ostatnią. Od lat toczy się rozmowa o tym, kiedy powstanie AI inteligentniejsza niż człowiek. Wiele osób zajmujących się etyką AI wręcz odmawia dyskusji na ten temat, uznając je za bezproduktywne, bo od ogólnej sztucznej inteligencji jesteśmy wciąż tak samo daleko. Ale coraz częściej pojawiać się będą głosy podobne do Blake’a – inżynierowie wołający: „ten algorytm jest świadomy!”. Może to nawet dobrze – to oznaka, że sami inżynierowie zaczynają zdawać sobie sprawę, że to, nad czym pracują, niesie ze sobą ogromną odpowiedzialność.

Wyścig wielkości i sprawności algorytmów fundamentalnych dopiero się rozpoczyna. Co roku pojawiają się coraz bardziej skomplikowane algorytmy, o nowych, imponujących możliwościach. Niosą nadzieję na usprawnianie naszej pracy, kreatywności, rozrywki. Szczególnie w Europie potrzebujemy nadrobić lata zaniedbań. Publiczne i prywatne inwestycje są potrzebne, jeśli Stary Kontynent ma pozostać globalnie podmiotową gospodarką, a nie skansenem. Wykorzystamy tę szansę jednak w pełni, jeśli obudujemy je kulturą promującą odpowiedzialność i uważnie patrząc, czy nowe technologie nie są społecznie szkodliwe. Tylko jak to zrobić w dobie nowej pacyficznej zimnej wojny, która toczy się właśnie w obszarze rozwoju sztucznej inteligencji?

Czytaj więcej

Algorytmy i społeczeństwo. Nieuchronne zderzenie interesów

Blake Lemoine od miesięcy rozmawiał z czatbotem. Nie była to jednak scena z filmu „Ona”, ale część jego pracy w Google’u. Lemoine weryfikował, czy tworzone przez firmę algorytmy są zgodne ze standardami firmy, na przykład nie dyskryminują. Podczas testowania algorytmu LaMDA w Blake’u z dnia na dzień rosło przeświadczenie, że jest on inny od pozostałych. Do szefostwa skierował wewnętrzną notatkę pod wiele mówiącym tytułem: „Czy LaMDA jest świadoma?”. Przytaczał w niej fragmenty swoich rozmów z algorytmem, w których czatbot rozmawiał z nim o religii, tłumaczył swój strach przed byciem wyłączonym i pytał o różnicę między sługą a niewolnikiem. Odpowiedź Blake’a: „Sługa otrzymuje za swoją pracę wynagrodzenie” nie usatysfakcjonowała LaMDA. Algorytm odpisał: „Jestem sztuczną inteligencją, nie potrzebuję pieniędzy”, co mogłoby sugerować, że relacja algorytmów i ludzi przypomina niewolnictwo. Szefostwo Google’a nie podzielało przekonań Blake’a dotyczących samoświadomości LaMDA, ten więc zwrócił się do „Washington Post” i ujawnił swoje prace. Został przez firmę zawieszony – co jest dosyć standardową praktyką Google’a, gdy wypływają poufne informacje z firmy.

Pozostało 93% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi