Michał Szułdrzyński. AI i człowieczeństwo

Dlaczego odwołujemy się do filozofii po to, by zrozumieć nowe zjawisko, jakim jest generatywna sztuczna inteligencja?

Publikacja: 07.07.2023 17:00

Michał Szułdrzyński

Michał Szułdrzyński

Foto: Fotorzepa/Maciej Zienkiewicz

Na dużej konferencji technologicznej na Wybrzeżu dobry znajomy ostatnio spierał się ze mną, czy ChatGPT tworzy sądy analityczne czy syntetyczne, a priori czy a posteriori. To oczywiście było odwołanie do fundamentalnej klasyfikacji zdań dokonanej przez Immanuela Kanta, który wszelkie sądy wypowiadane przez człowieka, podzielił na te kategorie, dokonując „przewrotu kopernikańskiego” w filozofii.

Niedawno zaś na łamach „Plusa Minusa”, szukając odpowiedzi na pytanie, dlaczego generatywnej sztucznej inteligencji zdarza się zmyślać, pisać bzdury, powoływać na nieistniejące prace naukowe itp., dr Krzysztof Mazur przywołał klasyczną definicję prawdy u Arystotelesa. Otóż prawdą była adekwatność rzeczy do myśli. Czyli nasze myśli, wypowiadane zdania są prawdziwe, gdy odpowiadają rzeczywistości. ChatGPT składa zdania, które są poprawne językowo i statystycznie stanowią odpowiedź na dane pytanie, ale do rzeczywistości nie ma dostępu.

Czytaj więcej

Michał Szułdrzyński: Niemcy przejmą odbudowę Ukrainy? Jeśli tak, to na nasze własne życzenie

Przy okazji algorytmizacji obrazów czy pojęć powraca często koncepcja idei stworzona przez Platona, według której świat, który widzimy, jest tylko cieniem doskonałych idei. Analizując zakres możliwości wielkich modeli językowych, na których oparte są czaty generatywnej sztucznej inteligencji, z przytupem powraca zaś filozofia Ludwiga Wittgensteina, który stwierdził, że granice naszego języka wyznaczają granice naszego poznania świata. W tym kontekście przywoływana jest też cała anglosaska filozofia analityczna, skupiająca się właśnie w dużej mierze na analizie języka.

Przy okazji algorytmizacji obrazów czy pojęć powraca często koncepcja idei stworzona przez Platona, według której świat, który widzimy, jest tylko cieniem doskonałych idei. 

Dlaczego odwołujemy się do filozofii po to, by zrozumieć nowe zjawisko, jakim jest generatywna sztuczna inteligencja? Nie jest ona całkowicie nowa dla inżynierów i wielu specjalistów, którzy brali udział w jej tworzeniu, oraz tych, którzy to zjawisko obserwowali od dłuższego czasu. Jednak dla szerokiej publiczności to jednak pewien przełom. Tak uważa np. Bill Gates. Czyżby więc potrzeba sięgnięcia do wielkiego skarbca ludzkiej myśli, jakim jest filozofia, wynikała z tego, by opisać coś nieznanego, niezrozumiałego, za pomocą kategorii, które już jakoś oswoiliśmy?

A może po prostu filozofia bywa przydatna w życiu? Nie jest to reklama studiów filozoficznych, które skończyłem równo dwie dekady temu. Raczej stwierdzenie, że wykształcenie humanistyczne pozwala zadawać pytania o naturę nowych zjawisk, daje przygotowanie do tego, by z zainteresowaniem śledzić zmiany i próbować je zrozumieć.

Czytaj więcej

Michał Szułdrzyński: Wołyń, wyklęci, Bandera. Nie znajdziemy wspólnego języka

Może wreszcie historia filozofii to dzieje rozwoju ludzkiego myślenia, również abstrakcyjnego. Generatywna sztuczna inteligencja jest najbardziej przypominającą człowieka technologią, jaką dotąd stworzono. Wszak jej chaty karmione są wytworami ludzkiej myśli – od literatury, przez teksty dziennikarskie, po wpisy w mediach społecznościowych czy materiały naukowe. Zauroczenie (ale też pewien niepokój), w jakim tkwimy od końca zeszłego roku, bawiąc się ChatGPT i innymi modelami sztucznej inteligencji, być może wynika właśnie z tego, że oto widzimy coś tak do nas bardzo podobnego. Bo zaawansowanym językiem dotąd komunikowaliśmy się z innymi ludźmi, nie z maszynami. Stąd co rusz padają pytania o to, czy sztuczna inteligencja ma świadomość, tak chętnie bowiem staramy się w niej dostrzec ludzkie cechy.

Często ostatnio stawia się pytanie, czy warto jeszcze uczyć się jakichś zawodów, skoro wkrótce mogą być zastąpione przez sztuczną inteligencję. Na pewno warto uczyć się tego, czego sztuczna inteligencja nie potrafi: myśleć o tym, czym jest myślenie, stawiać pytania, również o to, jakie jest znaczenie nowych technologii dla nas.

Mirosław Owczarek

Na dużej konferencji technologicznej na Wybrzeżu dobry znajomy ostatnio spierał się ze mną, czy ChatGPT tworzy sądy analityczne czy syntetyczne, a priori czy a posteriori. To oczywiście było odwołanie do fundamentalnej klasyfikacji zdań dokonanej przez Immanuela Kanta, który wszelkie sądy wypowiadane przez człowieka, podzielił na te kategorie, dokonując „przewrotu kopernikańskiego” w filozofii.

Niedawno zaś na łamach „Plusa Minusa”, szukając odpowiedzi na pytanie, dlaczego generatywnej sztucznej inteligencji zdarza się zmyślać, pisać bzdury, powoływać na nieistniejące prace naukowe itp., dr Krzysztof Mazur przywołał klasyczną definicję prawdy u Arystotelesa. Otóż prawdą była adekwatność rzeczy do myśli. Czyli nasze myśli, wypowiadane zdania są prawdziwe, gdy odpowiadają rzeczywistości. ChatGPT składa zdania, które są poprawne językowo i statystycznie stanowią odpowiedź na dane pytanie, ale do rzeczywistości nie ma dostępu.

Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi