Sztuczna inteligencja – narzędzie nowego autorytaryzmu

Samoświadoma sztuczna inteligencja wymykającą się spod kontroli człowieka i przejmująca władzę nad światem to fantazja. Ale AI rzeczywiście będzie narzędziem władzy. I to skutecznym.

Publikacja: 17.02.2023 10:00

Sztuczna inteligencja – narzędzie nowego autorytaryzmu

Foto: BPawesome/AdobeStock

Chiński pokój” to znany eksperyment myślowy stworzony przez Johna Searle’a w 1980 roku. Amerykański filozof wykorzystał go jako argument przeciwko tak zwanemu „mocnemu” podejściu do sztucznej inteligencji, czyli twierdzeniu, że komputery mogą myśleć tak jak ludzie. To, co obserwowaliśmy w ubiegłym roku w dziedzinie sztucznej inteligencji (z Chatem GPT jako zwieńczeniem), nie świadczy co prawda przeciwko poglądowi Searle’a, ale raczej o czymś jeszcze innym – komputery nie muszą myśleć jak ludzie, ponieważ wystarczy, że zaczną myśleć za nich.

Wyobraźmy sobie, że jesteśmy zamknięci w pomieszczeniu, w którym posiadamy do dyspozycji napisaną w języku polskim instrukcję manipulowania literami chińskiego alfabetu w odpowiedni sposób. Przez otwór w ścianie otrzymujemy kartkę papieru zapisaną chińskimi literami, a następnie na podstawie naszej instrukcji zapisujemy kartkę zestawem chińskich liter i wysuwamy ją na zewnątrz.

Chociaż nie rozumiemy ani pytania, ani odpowiedzi, to jednak osoba na zewnątrz pokoju, która zadała pytanie w języku chińskim, będzie miała wrażenie, że otrzymała odpowiedź od kogoś, kto posługuje się tym językiem. Tak właśnie według Searle’a wygląda przetwarzanie informacji w komputerach – mogą dawać sensowne odpowiedzi, ale nie są w stanie zrozumieć ich sensu.

Można się kłócić, czy w przypadku najbardziej zaawansowanych technik uczenia maszynowego wskazana w argumencie chińskiego pokoju różnica nadal ma znaczenie. Nie musimy wcale udowadniać, że wewnątrz komputera zachodzą (lub nie) procesy myślowe podobne ludzkim ani rozważać zagadki ludzkiej świadomości. Jak w sławnym „teście Turinga”: znaczenie ma to, co ludzie rozmawiający z komputerem będą na temat swojego rozmówcy uważać. Jeżeli ktoś zacznie myśleć, że komputer ma ludzką świadomość, albo zaprzyjaźni się z robotem konwersacyjnym czy inteligentną lodówką, to dowody na brak świadomości niczego nie zmienią.

Doświadczenia z modelem ChatGPT opublikowanym pod koniec zeszłego roku przez OpenAI wskazują na problem, który może stanowić odwrócenie argumentu Searle’a. Chociaż techniki zastosowane przez OpenAI nie są niczym nowym, to jednak nowością jest udostępnienie ich jako produktu dla masowego odbiorcy. W porównaniu z wyszukiwarką Google ChatGPT ma jedną przewagę – daje jedną odpowiedź, a nie pewną liczbę rezultatów do wyboru, co od razu czyni go bardziej „ludzkim”, a zatem również „godnym zaufania”. Wpisując w internecie nurtujące nas pytanie, szukamy właśnie tej jednej odpowiedzi, niezależnie, czy jest napisana anonimowo na forum internetowym, czy przez eksperta na blogu – jeżeli jest wystarczająco zwięzła i napisana z pewnością siebie (a także potwierdza nasze przeczucia), to nie ma powodu, aby jej nie ufać. Skoro mamy tendencje do ufania temu, co przeczytamy na anonimowym forum, to dlaczego nie mielibyśmy wierzyć w to, co powie nam „zaawansowana technologia” od „szanowanej instytucji”?

Czytaj więcej

Gdy nauka jest na usługach polityki

Sztuczna inteligencja i propaganda

Europol w niedawnym raporcie oszacował, że do 2026 roku 90 proc. treści w internecie będzie stworzona za pomocą narzędzi sztucznej inteligencji. Ale największe niebezpieczeństwo tkwi nie w tym, że zostaniemy zalani treścią tworzoną przez inteligentne narzędzia. Problem leży w tym, że wraz z coraz większymi możliwościami owych narzędzi będzie coraz mniej ludzi, którzy rozumieją, jak te narzędzia działają. A to oznacza koncentrację władzy nad tymi informacjami w rękach nielicznych.

Chociaż wiedza na temat uczenia maszynowego, programowania i budowania modeli jest bardzo szeroko dostępna bez praktycznie żadnych barier finansowych, to jednak wcielenie jej w życie na szerszą skalę wymaga ogromnych nakładów na infrastrukturę i pozyskanie danych. Przewagą modeli Google'a, Mety czy Microsoftu nie jest to, że zatrudniają najmądrzejszych ludzi na planecie, ale dane, które pozyskują dzięki swoim produktom. I owszem, produkty te były również stworzone przez „mądrych ludzi” – niemniej gdyby to był wystarczający warunek, to na przykład Google byłoby dziś potentatem mediów społecznościowych, a tymczasem o tym, że istniało niegdyś Google+, mało osób pamięta.

Przewaga w postaci infrastruktury, mocy obliczeniowej i ilości zbieranych danych to próg, którego pokonanie jest mało prawdopodobne nawet dla najzdolniejszego inżyniera oprogramowania. Modele rekomendacji, które z łatwością odgadują, jaką reklamę kliknę albo który z filmów na YouTubie obejrzę jako następny, nie mogą zostać napisane w garażu, bo ich siłą napędową są dane, na których się uczą. A nikt do garażu nie ściągnie całego zasobu danych z Google’a, bo musiałby je gdzieś przechować i na czymś przeliczyć.

LLM-y, czyli wielkie modele językowe, będą więc wykorzystywane przede wszystkim przez tych, którzy dysponują odpowiednim zapleczem. Chociaż więc możemy dziś z zainteresowaniem czytać o tym, jak to ChatGPT zdaje egzaminy do adwokatury albo na studia medyczne, to nie zwiastuje to nic innego, jak zmonopolizowanie dużej części rozproszonej wiedzy przez garstkę firm informatycznych. A co to oznacza w praktyce, mieliśmy okazję obserwować w ciągu ostatnich dwóch lat.

Jeżeli zadamy Chatowi GPT pytanie o kontrowersyjny obecnie temat społeczny, jak na przykład liczba płci, to wcale nie otrzymamy odpowiedzi, która jest „esencją wszystkiego, co zostało na ten temat napisane”, ale asekurancką formułkę napisaną zgodnie z promowanymi obecnie poglądami. I nie ma tu znaczenia, czy twórcy ChatGPT zrobili to po to, żeby zapobiec atakom uciążliwych aktywistów, czy po to, aby forsować określone poglądy w przestrzeni publicznej. Skutek w obu przypadkach będzie ten sam: sztuczna inteligencja będzie cenzurowana, a treści przez nią tworzone nie będą wcale przypadkowe.

Zatem o ile można włożyć między bajki prognozy powstania samoświadomej SI wymykającej się spod kontroli człowieka i przejmującej władzę nad światem, to rzeczywiście będzie ona narzędziem władzy. I to skutecznym.

Czytaj więcej

Tragedia cyfrowych tubylców

Klasa bezużytecznych

To, że narzędzia sztucznej inteligencji i robotyki uczynią w niedługim czasie część zawodów zbędną, stanowi od wielu już lat dyskutowany problem. Stąd pomysły bezwarunkowego dochodu podstawowego, który ma zrekompensować „bezproduktywność” tych, którzy nie potrafią konkurować z robotami i programami komputerowymi. Takie właśnie pomysły ma popularny izraelski pisarz Yuval Noah Harari, który wprost mówi o branży technologicznej jako elicie, a o reszcie – jako o klasie bezużytecznych (useless class), której będzie należało znaleźć jakiś sens życia, gdy straci źródło dochodu. W wizji Harariego klasa bezużytecznych będzie spędzała czas w wirtualnej rzeczywistości, konsumując świat stworzony przez oświeconą elitę z Krzemowej Doliny.

Harari jest bardzo lubiany w firmach takich jak Google czy Meta i jego wizja nie bez powodu łechce próżność zatrudnionych tam inżynierów i kadry kierowniczej. Fantazje Izraelczyka omawia się jako realne scenariusze przyszłości, niemniej nawet jeżeli wydają się one logicznie wynikać z obecnego biegu wydarzeń, to w takich przypadkach nic nie jest nieodwracalne. Są to idee, które usprawiedliwiają ten „przewidywany” porządek, więc jeżeli się rzeczywiście sprawdzą, to nie jako nieubłagana „lokomotywa historii”, ale jako realizacja czyjegoś planu.

Zdominowanie gospodarki automatyzacją, robotyzacją i sztuczną inteligencją rzeczywiście oznacza władzę elity, ale elity finansowej, a nie intelektualnej, ponieważ wiąże się z uzależnieniem ludzi od technologii, których nie rozumieją, ale potrzebują do codziennego funkcjonowania. Jeżeli zepsuje nam się samochód i nie potrafimy go naprawić, to istnieje jeszcze mnóstwo scenariuszy, w których możemy dotrzeć do pracy. Na spotkanie na internetowym komunikatorze możemy dotrzeć tylko jedną drogą. Czym więc jest przyszłość, w której każdy aspekt życia jest uzależniony od mnogości skomplikowanych urządzeń, których działania nie kontrolujemy? Piekłem.

ChatGPT nie jest rewolucją, ponieważ technologie stojące za jego stworzeniem są rozwijane od kilkudziesięciu już lat. To nie jest superinteligentny komputer rodem z „Terminatora” czy „Odysei kosmicznej”. Nie jest zatem tak, że możemy scenariusze przyszłości podzielić na te „przed” i „po” jego pojawieniu się. Jednak jego popularność i umiejętności pozwalają nam nieco zbliżyć się do prawdziwego kierunku, w jakim podąża świat technologii. I nie jest to wcale obraz przyjemny.

Czytaj więcej

Społeczeństwo w okowach strachu czyli czy należy palić czarownice?

Autor jest analitykiem z branży big data i sztucznej inteligencji.

Chiński pokój” to znany eksperyment myślowy stworzony przez Johna Searle’a w 1980 roku. Amerykański filozof wykorzystał go jako argument przeciwko tak zwanemu „mocnemu” podejściu do sztucznej inteligencji, czyli twierdzeniu, że komputery mogą myśleć tak jak ludzie. To, co obserwowaliśmy w ubiegłym roku w dziedzinie sztucznej inteligencji (z Chatem GPT jako zwieńczeniem), nie świadczy co prawda przeciwko poglądowi Searle’a, ale raczej o czymś jeszcze innym – komputery nie muszą myśleć jak ludzie, ponieważ wystarczy, że zaczną myśleć za nich.

Pozostało 94% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi