Sztuczna inteligencja zmieni społeczeństwo

Sztuczna inteligencja nie ma wolnej woli. Może napisać piękny sonet o liczbach pierwszych, ale nie może zadecydować, że „chciałaby” go napisać. Zagrożenie, które ze sobą niesie, nie jest więc bezpośrednie. Dużo poważniejsze jest to, jak zmieni ludzkość.

Publikacja: 28.04.2023 10:00

Sztuczna inteligencja zmieni społeczeństwo

Foto: Stokkete/Shutterstock

Być może najważniejszą książką o filozofii sztucznej inteligencji napisaną w ostatnich latach jest wydana w 2015 roku „Dusza marionetki” brytyjskiego filozofa Johna N. Graya („The Soul of the Marionette. A Short Inquiry Into Human Freedom”). Tytuł odnosi się do eseju Heinricha von Kleista, rozważającego kwestię wolności. Marionetka według Kleista, chociaż robi wyłącznie to, co nakazuje jej lalkarz, jest wolna, ponieważ nie posiada świadomości; posiadający świadomość człowiek zawsze będzie skażony „wewnętrznym rozdarciem” pomiędzy pragnieniem wolności a biologiczną naturą.

Ten wewnętrzny konflikt jest dla Graya nieodłączną częścią ludzkiej natury, mówiąc biblijnie – koniecznym skutkiem grzechu pierworodnego. Chrześcijaństwo akceptowało fakt niedoskonałości człowieka wynikającej z upadku. Doskonały jest tylko Bóg, a to Bóg jest również twórcą materii; ciało więc nie może być ze swojej istoty złe. Człowiek nie może wyzwolić się z ciała inaczej niż poprzez śmierć.

Zupełnie inną wizję natury człowieka i świata roztaczały nurty gnostyckie. Widać w gnostycyzmie wpływy orfickie, pitagorejskie czy neoplatońskie, które również widziały w człowieku złożenie duszy i ciała, ale nie na zasadzie komplementarności, ale wrogości – ciała jako więzienia duszy. Twórcą materii był zły Demiurg, który uwięził w niej dusze, dzieło dobrego Boga. Jednak sytuacja nie jest beznadziejna: człowiek może wyzwolić się przez poznanie (gnosis), które umożliwi mu samodoskonalenie i pokonanie barier materialnego świata.

Właśnie gnoza i gnostycyzm są dla Graya kluczem do analizy tego, co dzieje się dziś w postępie technicznym. Przekonanie, że ludzkość może „przekroczyć samą siebie”, „wkroczyć na nowy etap ewolucji” wyłącznie siłą badań naukowych i wysiłków inżynierskich, jest nowym gnostycyzmem, który przenika umysły czołowych inwestorów z branży tech. Człowiek nie ma już co prawda duszy – pozbawiła go tego dawno oświeceniowa filozofia – ale ma ogromną wiedzę na temat działania świata i samego siebie, a przynajmniej tak mu się wydaje. Może więc „naprawić błędy stworzenia” i ulepszyć samego siebie, a zarazem i świat.

Czytaj więcej

ChatGPT. Czy prawda przestanie istnieć?

Zbawienie ludzkości

Ta współczesna gnostycka wiara ma swoją nazwę: transhumanizm. Termin ten jest dość szeroki i obejmuje postulaty związane z wydłużaniem życia, rozszerzaniem funkcji poznawczych przez wszczepianie implantów, modyfikacje genetyczne prowadzące do produkcji „ulepszonych” ludzi czy wreszcie przenoszenie zawartości umysłu do komputera. Transhumanistami są wpływowi intelektualiści, tacy jak: Ray Kurzweil, Nick Bostrom, Eliezer Yudkowsky czy Max Tegmark, a ich idee chłoną jeszcze bardziej wpływowi przedsiębiorcy, jak Elon Musk, Peter Thiel czy Sam Altman. Wszystkie wysiłki związane z ulepszaniem sztucznej inteligencji, połączeniem mózgu z komputerem czy kolonizacją kosmosu są motywowane tą właśnie wiarą: że człowiek może zbawić sam siebie przez narzędzia, które sam stworzył.

Transhumanistyczna wiara rzutuje na przekonania żywione w stosunku do sztucznej inteligencji i jej przyszłości. Tegmark, Yudkowsky czy Bostrom głęboko wierzą w to, że istnieje możliwość powstania „ogólnej sztucznej inteligencji” (AGI), a następnie przeistoczenia tej ostatniej w „superinteligencję”, która może zniszczyć ludzkość. To kierowany przez Tegmarka Future of Life Institute koordynował zbieranie podpisów pod niedawnym apelem o „przerwę w rozwijaniu sztucznej inteligencji” z obawy przed wymknięciem się jej spod kontroli. Yudkowsky szedł jeszcze dalej, nawołując do wydłużenia tej przerwy właściwie w nieskończoność.

Jeżeli spojrzeć na transhumanizm z perspektywy chrześcijańskiej antropologii, to obawy te mają głęboki sens. Gnostyckie wyzwolenie się z ograniczeń ciała to utrata tożsamości indywidualnej, a więc de facto zaprzeczenie człowieczeństwu. Transhumanizm jest więc antyhumanizmem, a skoro tak, to transhumanistyczny Bóg stworzony rękami człowieka musi być również antyludzki.

Problem w tym, że poza wiarą nie ma przesłanek mówiących o tym, że „ogólna sztuczna inteligencja” czy „sztuczna inteligencja na poziomie ludzkim” (Human-Level Artificial Intelligence) jest w ogóle możliwa, nie mówiąc już o dalszych hipotetycznych etapach jej ewolucji. O ile więc zagrożenia ze strony sztucznej inteligencji są realne, o tyle dotyczą one spraw dużo bardziej przyziemnych niż komputerowe bóstwo, które miałoby zniszczyć ludzkość. Są też dużo bardziej niewygodne dla branży tech i nadbudowanej nad nią polityki.

O czym myśli twój komputer

Przy pytaniu o „ludzką sztuczną inteligencję” nie można nie odwołać się do wpływowego artykułu Alana Turinga z 1950 roku pod tytułem „Computing Machinery and Intelligence”, gdzie brytyjski matematyk zaproponował coś, co nazywamy dziś „testem Turinga”. Test Turinga, którego przejście było przez długi czas Świętym Graalem badań nad sztuczną inteligencją, jest oparty na założeniu, że świadomość (i ludzka inteligencja) jest kwestią percepcji. Postrzegam innych jako świadome istoty ludzkie i inni postrzegają mnie jako świadomą istotę ludzką. Chociaż do mojej świadomości nikt inny nie ma dostępu, to jednak inni mają dostęp do swoich własnych stanów mentalnych. Ponieważ dostrzegamy podobieństwa między sobą i porozumiewamy się za pomocą języka, to wnioskujemy, że rozumiemy i przeżywamy podobnie te same rzeczy.

Chociaż Turing nie był pierwszym, który powoływał się na takie kryterium (wcześniej robił to m.in. Kartezjusz), to jednak jego artykuł nadaje kształt współczesnej dyskusji o maszynach myślących i możliwości zaistnienia ludzkiej świadomości poza ludzkim umysłem. Jeżeli komputer udziela odpowiedzi takich, jakich udzieliłby człowiek, to nie ma powodu, dla którego mielibyśmy uznać, że wewnątrz niego nie zachodzą procesy mentalne takie jak w przypadku ludzi. Jeśli więc osoba zadająca pytania człowiekowi i komputerowi nie jest w stanie zgadnąć, która odpowiedź została udzielona przez kogo, to znaczy, że komputer uzyskał zdolność myślenia.

W zeszłym roku inżynier pracujący dla Google’a Blake Lemoine ogłosił, że model LaMDA (na którym oparty jest dziś Bard, chatbot Google'a) uzyskał świadomość i posiada inteligencję dziesięcioletniego dziecka. Zespół zajmujący się etyką w Google’u od razu zdementował te pogłoski, a Lemoine został niecały miesiąc po wycieku swoich rewelacji zwolniony. Kto miał w tym sporze rację? Wszak kryterium Turinga dotyczy percepcji „innych”, skoro zatem LaMDA przekonał Lemoine’a do tego, że jest świadomym umysłem, to nie ma prawa zabraniać temu ostatniemu sądzić, że LaMDA takim świadomym umysłem jest.

I tutaj pojawia się problem z ludzką percepcją, której nie jest potrzebne wcale dużo, aby dostrzec człowieka nawet tam, gdzie go nie ma. Tak jesteśmy zaprogramowani przez naszą społeczną naturę. Kiedy w 1966 roku Joseph Wei-zenbaum skończył pisać Elizę, pierwszego chatbota opartego na raczej banalnym – z dzisiejszej perspektywy – algorytmie konwersacyjnym, to jego motywacją było udowodnienie, że konwersacja z komputerem nie może być „ludzka”. Ku swojemu zaskoczeniu zauważył jednak, że ludzie rozmawiający z Elizą (na przykład jego sekretarka) traktują jego program zupełnie na serio po ludzku.

Podobnie, kiedy zespół badaczy ze stanfordzkiego instytutu SRI przedstawił prototyp robota Shakey, magazyn „Life” nazwał go „pierwszą elektroniczną osobą”. Shakey był samobieżnym wózkiem wyposażonym w kamerę oraz system pozwalający kalkulować pokonywanie przeszkód. W niczym nie przypominał człowieka, ale sam fakt „inteligentnego” zachowania wystarczał, aby pobudzić wyobraźnię i zastanawiać się, czy Shakey myśli podobnie jak człowiek.

Skoro nawet Eliza czy Shakey były postrzegane jako bliskie ludziom, to co można powiedzieć o udzielających wyrafinowanych odpowiedzi modelach językowych albo o coraz bardziej przypominających ludzi humanoidalnych robotach? Obecnie mamy narzędzia, aby stworzyć personalizowanych asystentów głosowych, jak Siri czy Alexa, opartych na którymś z wielkich modeli językowych i prowadzących „inteligentne” konwersacje, a na dodatek mówiących głosem kogokolwiek chcemy. Tylko jeden krok dzieli nas od tego, aby połączyć te technologie z osiągnięciami robotyki i stworzyć „świadome” androidy rodem z filmów science fiction.

Ludzie są coraz bardziej samotni, a postępujący niż demograficzny jedynie to zjawisko pogłębi. To, że w niedalekiej przyszłości starzejący się milenialsi będą nawiązywali zupełnie ludzkie relacje z robotami, ponieważ nie będą mieli alternatywy, jest bardzo prawdopodobnym scenariuszem.

Czytaj więcej

Gdy nauka jest na usługach polityki

Wolna wola

Samo jednak uznanie, że interakcja z robotem czy modelem językowym jest ludzka, nie jest racją dostateczną do tego, aby sztuczną inteligencję uznać za równą człowiekowi. Pomysł taki byłby brzemienny w konsekwencje na gruncie etyki, prawa i polityki. Wszystko bowiem obraca się wokół zagadnienia wolnej woli.

Wolna wola we współczesnej filozofii nie jest zbyt lubiana, jednak zawsze w kontekście regulacji stosunków międzyludzkich i naruszenia ich reguł pojawia się choćby jako domniemanie. To, czy czyn był „dobrowolny”, ma fundamentalne znaczenie dla jego moralnej oceny i wymiaru ewentualnej kary. Jeżeli ludzie nie posiadaliby wolnej woli, to różnica pomiędzy morderstwem z premedytacją a śmiercią wskutek uderzenia pioruna byłaby żadna: oba przypadki byłyby po prostu zdarzeniami wynikającymi z praw przyrody.

Chociaż więc argumenty przeciwko istnieniu wolnej woli są bardzo popularne i są świetnym sposobem na zabłyśnięcie w towarzystwie, to nic nie zmieni faktu, że poczucie agencji, czyli bycia źródłem swoich decyzji i działań, nie może zostać wyeliminowane ani z naszego życia wewnętrznego, ani ze społecznego.

No dobrze, a czy w takim razie sztuczna inteligencja może mieć wolną wolę? We wspomnianym artykule Turing polemizuje m.in. z argumentem Lady Lovelace, która w swoich pamiętnikach zawarła filozoficzną obserwację związaną z jej pracą nad „silnikiem analitycznym”: maszyna licząca według Lovelace nie może zrobić niczego nowego, a jedynie to, do czego jest zaprogramowana. Nie może być więc mowy o kreatywności, a także o wolnej woli maszyny. Turing odpiera argument, skupiając się na tym, że maszyny w istocie mogą zachowywać się w sposób nieprzewidywalny, gdyż nieprzewidywalność jest kwestią niedoskonałości obliczeń i obserwacji. Innymi słowy, determinizm maszyny liczącej nie wyklucza tego, że może ona zachować się nieprzewidywalnie.

Argument ten można – i bardzo często tak się dzieje – rozciągnąć na ludzi. Jeżeli jesteśmy „biorobotami”, biologicznie zdeterminowanymi maszynami, to wolna wola jest jedynie złudzeniem, wynikającym z tego, że nie jesteśmy w stanie dobrze wykonać obliczeń. Zatem jaka jest różnica pomiędzy ludzkim umysłem a komputerem?

Nawet jeżeli za dobrą monetę brać biologiczny determinizm, to rozwiązanie wcale nie jest takie proste. Jako istoty posiadające ciało podlegamy wpływom środowiska społecznego i naturalnego w sposób, z którego w większości nie zdajemy sobie sprawy. Mamy emocje, potrzeby, żądze, a także poczucie przemijania i świadomość nieuchronności śmierci. To ze złożenia tych wszystkich informacji konstruowane jest nasze „ja” i jego działania. Nie jesteśmy w stanie opisać całej złożoności „systemu obliczeniowego”, który wpływa na podejmowanie konkretnych decyzji, a co dopiero odtworzyć go w maszynie.

Ludzka świadomość i jej wytwory, ze sztuką, nauką, literaturą i rozrywką, jest nieprzewidywalna, ale nie w takim sensie, w jakim nieprzewidywalny jest komputer wykonujący obliczenia. Gdyby populację robotów zainstalować na odosobnionej planecie i wyposażyć we wszystkie zdobycze uczenia maszynowego, to za 40 tys. lat nie wynalazłyby ludzkiej kultury z bardzo prostego powodu: nie byłyby ludźmi. ChatGPT może napisać piękny sonet o liczbach pierwszych, ale nie może zadecydować, że „chciałby” napisać sonet o liczbach pierwszych. Tak samo więc nie może „zadecydować” o tym, żeby wymordować całą ludzkość.

„I tak się właśnie kończy świat. Nie hukiem, lecz skomleniem” – pisał T.S. Elliot. Alarmistyczne przestrogi przed AGI zwyczajnie odciągają uwagę od tego, co istotne, jeżeli chodzi o naszą relację z techniką i wynikającą z tego przyszłość. A tych realnych problemów jest mnóstwo – destrukcyjny wpływ na rodzinę i wspólnotę lokalną, wynaturzenie relacji damsko-męskich, demoralizacja dzieci przez nieograniczony dostęp do pornografii i mediów społecznościowych, przesycenie informacjami i upośledzenie funkcji kognitywnych. Systemy obliczeniowe i rekomendacyjne, które przez ostatnie lata umożliwiały nasilenie tych negatywnych zjawisk, są rzeczywistym zagrożeniem, który może doprowadzić do końca ludzkości. Nikt jednak nie pisze listów otwartych w sprawie ich wyłączenia. Odważni intelektualiści z „niezależnych” fundacji muszą przecież z czegoś żyć.

Być może najważniejszą książką o filozofii sztucznej inteligencji napisaną w ostatnich latach jest wydana w 2015 roku „Dusza marionetki” brytyjskiego filozofa Johna N. Graya („The Soul of the Marionette. A Short Inquiry Into Human Freedom”). Tytuł odnosi się do eseju Heinricha von Kleista, rozważającego kwestię wolności. Marionetka według Kleista, chociaż robi wyłącznie to, co nakazuje jej lalkarz, jest wolna, ponieważ nie posiada świadomości; posiadający świadomość człowiek zawsze będzie skażony „wewnętrznym rozdarciem” pomiędzy pragnieniem wolności a biologiczną naturą.

Pozostało 96% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi