Na dużej konferencji technologicznej na Wybrzeżu dobry znajomy ostatnio spierał się ze mną, czy ChatGPT tworzy sądy analityczne czy syntetyczne, a priori czy a posteriori. To oczywiście było odwołanie do fundamentalnej klasyfikacji zdań dokonanej przez Immanuela Kanta, który wszelkie sądy wypowiadane przez człowieka, podzielił na te kategorie, dokonując „przewrotu kopernikańskiego” w filozofii.
Niedawno zaś na łamach „Plusa Minusa”, szukając odpowiedzi na pytanie, dlaczego generatywnej sztucznej inteligencji zdarza się zmyślać, pisać bzdury, powoływać na nieistniejące prace naukowe itp., dr Krzysztof Mazur przywołał klasyczną definicję prawdy u Arystotelesa. Otóż prawdą była adekwatność rzeczy do myśli. Czyli nasze myśli, wypowiadane zdania są prawdziwe, gdy odpowiadają rzeczywistości. ChatGPT składa zdania, które są poprawne językowo i statystycznie stanowią odpowiedź na dane pytanie, ale do rzeczywistości nie ma dostępu.
Czytaj więcej
Mało który temat wywołuje tak żywiołowe reakcje w polskim internecie jak Niemcy.
Przy okazji algorytmizacji obrazów czy pojęć powraca często koncepcja idei stworzona przez Platona, według której świat, który widzimy, jest tylko cieniem doskonałych idei. Analizując zakres możliwości wielkich modeli językowych, na których oparte są czaty generatywnej sztucznej inteligencji, z przytupem powraca zaś filozofia Ludwiga Wittgensteina, który stwierdził, że granice naszego języka wyznaczają granice naszego poznania świata. W tym kontekście przywoływana jest też cała anglosaska filozofia analityczna, skupiająca się właśnie w dużej mierze na analizie języka.