Blake Lemoine od miesięcy rozmawiał z czatbotem. Nie była to jednak scena z filmu „Ona”, ale część jego pracy w Google’u. Lemoine weryfikował, czy tworzone przez firmę algorytmy są zgodne ze standardami firmy, na przykład nie dyskryminują. Podczas testowania algorytmu LaMDA w Blake’u z dnia na dzień rosło przeświadczenie, że jest on inny od pozostałych. Do szefostwa skierował wewnętrzną notatkę pod wiele mówiącym tytułem: „Czy LaMDA jest świadoma?”. Przytaczał w niej fragmenty swoich rozmów z algorytmem, w których czatbot rozmawiał z nim o religii, tłumaczył swój strach przed byciem wyłączonym i pytał o różnicę między sługą a niewolnikiem. Odpowiedź Blake’a: „Sługa otrzymuje za swoją pracę wynagrodzenie” nie usatysfakcjonowała LaMDA. Algorytm odpisał: „Jestem sztuczną inteligencją, nie potrzebuję pieniędzy”, co mogłoby sugerować, że relacja algorytmów i ludzi przypomina niewolnictwo. Szefostwo Google’a nie podzielało przekonań Blake’a dotyczących samoświadomości LaMDA, ten więc zwrócił się do „Washington Post” i ujawnił swoje prace. Został przez firmę zawieszony – co jest dosyć standardową praktyką Google’a, gdy wypływają poufne informacje z firmy.
Brzmi to jak wstęp do mrocznego filmu science fiction, w którym ostatni moralny pracownik firmy zbawia świat przed złą korporacją, która stworzyła sztuczną inteligencję. Tym razem jednak to tylko złudne podobieństwo. Szukająca okazji do krytyki wielkich firm technologicznych publika nie wstawiła się tłumnie za odsuniętym od pracy inżynierem. „Jeden z (byłych) ekspertów etyki Google nie rozumie różnicy między świadomością (subiektywnością, doświadczeniem), inteligencją i samowiedzą. Brak dowodów na to, że duże modele językowe posiadają którąkolwiek z tych cech” – napisał na Twitterze psycholog Steven Pinker. Zajmujący się na co dzień sztuczną inteligencją ekspert Gary Markus napisał na swoim substacku (amerykańskiej platformie internetowej) wprost: „Bzdura. LaMDA ani żadne z jej kuzynów (GPT-3) nie są nawet trochę inteligentni. Wszystko, co robią, to łączą wzorce, czerpiąc z ogromnych statystycznych baz”. Nawet Timnit Gebru, etyczka sztucznej inteligencji, która kilkanaście miesięcy temu została wyrzucona z Google’a w atmosferze skandalu za krytykę firmy i jej postępowania z algorytmami, przyłączyła się do głosów niedowierzających hipotezom Lemoine’a.
LaMDA nie jest świadoma – zgodnie twierdzą eksperci. To zapewne dobra wiadomość, chyba że nie możemy się doczekać realizacji science fiction w praktyce. Jednak sprawność konstruowania przez algorytm odpowiedzi i prowadzenia konwersacji pozwala pomylić wielki model statystyczny ze świadomym rozmówcą. A to świadczy o tym, jak daleko zaszliśmy w rozwoju sztucznej inteligencji.
LaMDA ma około 137 mld parametrów – matematycznych połączeń inspirowanych strukturą ludzkich neuronów. Stąd zresztą wzięła się nazwa jednej z najmodniejszych w ostatniej dekadzie technik rozwoju sztucznej inteligencji: sieci neuronowych. LaMDA jest jednym z wielu podobnych, rozbudowanych algorytmów. Rok temu silne wzmożenie wywołał algorytm GPT-3, zdolny na przykład do napisania całych filmowych scenariuszy (całkiem znośnych!), ostatnio internet podbija DALL-E-2 – model, który zamienia krótkie zdanie (na przykład „pies jadący na koniu wśród pól”) na fotorealistyczne obrazy. Te dwa algorytmy to dzieło firmy OpenAI, ale swoje rozwiązania mają też Meta, Microsoft z NVIDIĄ oraz Chińczycy – np. Pekińska Akademia Sztucznej Inteligencji we współpracy z tamtejszym Big Techem.
Czytaj więcej
W tych dniach odkrywamy budującą prawdę: dzięki nowoczesnym technologiom wolny, aktywny politycznie człowiek wyrażający swoje zdanie nie pozostaje bezradny wobec zła. Ma wpływ na kształt globalnej debaty w sieci, a przez to – zwiększa społeczną presję na władze. Masa takich obywateli może wygrać nawet z tak sprawną maszyną propagandową, jak rosyjska.