Chiński pokój” to znany eksperyment myślowy stworzony przez Johna Searle’a w 1980 roku. Amerykański filozof wykorzystał go jako argument przeciwko tak zwanemu „mocnemu” podejściu do sztucznej inteligencji, czyli twierdzeniu, że komputery mogą myśleć tak jak ludzie. To, co obserwowaliśmy w ubiegłym roku w dziedzinie sztucznej inteligencji (z Chatem GPT jako zwieńczeniem), nie świadczy co prawda przeciwko poglądowi Searle’a, ale raczej o czymś jeszcze innym – komputery nie muszą myśleć jak ludzie, ponieważ wystarczy, że zaczną myśleć za nich.
Wyobraźmy sobie, że jesteśmy zamknięci w pomieszczeniu, w którym posiadamy do dyspozycji napisaną w języku polskim instrukcję manipulowania literami chińskiego alfabetu w odpowiedni sposób. Przez otwór w ścianie otrzymujemy kartkę papieru zapisaną chińskimi literami, a następnie na podstawie naszej instrukcji zapisujemy kartkę zestawem chińskich liter i wysuwamy ją na zewnątrz.
Chociaż nie rozumiemy ani pytania, ani odpowiedzi, to jednak osoba na zewnątrz pokoju, która zadała pytanie w języku chińskim, będzie miała wrażenie, że otrzymała odpowiedź od kogoś, kto posługuje się tym językiem. Tak właśnie według Searle’a wygląda przetwarzanie informacji w komputerach – mogą dawać sensowne odpowiedzi, ale nie są w stanie zrozumieć ich sensu.
Można się kłócić, czy w przypadku najbardziej zaawansowanych technik uczenia maszynowego wskazana w argumencie chińskiego pokoju różnica nadal ma znaczenie. Nie musimy wcale udowadniać, że wewnątrz komputera zachodzą (lub nie) procesy myślowe podobne ludzkim ani rozważać zagadki ludzkiej świadomości. Jak w sławnym „teście Turinga”: znaczenie ma to, co ludzie rozmawiający z komputerem będą na temat swojego rozmówcy uważać. Jeżeli ktoś zacznie myśleć, że komputer ma ludzką świadomość, albo zaprzyjaźni się z robotem konwersacyjnym czy inteligentną lodówką, to dowody na brak świadomości niczego nie zmienią.
Doświadczenia z modelem ChatGPT opublikowanym pod koniec zeszłego roku przez OpenAI wskazują na problem, który może stanowić odwrócenie argumentu Searle’a. Chociaż techniki zastosowane przez OpenAI nie są niczym nowym, to jednak nowością jest udostępnienie ich jako produktu dla masowego odbiorcy. W porównaniu z wyszukiwarką Google ChatGPT ma jedną przewagę – daje jedną odpowiedź, a nie pewną liczbę rezultatów do wyboru, co od razu czyni go bardziej „ludzkim”, a zatem również „godnym zaufania”. Wpisując w internecie nurtujące nas pytanie, szukamy właśnie tej jednej odpowiedzi, niezależnie, czy jest napisana anonimowo na forum internetowym, czy przez eksperta na blogu – jeżeli jest wystarczająco zwięzła i napisana z pewnością siebie (a także potwierdza nasze przeczucia), to nie ma powodu, aby jej nie ufać. Skoro mamy tendencje do ufania temu, co przeczytamy na anonimowym forum, to dlaczego nie mielibyśmy wierzyć w to, co powie nam „zaawansowana technologia” od „szanowanej instytucji”?