Sztuczna inteligencja, prawdziwe problemy

Sztuczna inteligencja wkrada się już w praktycznie wszystkie sfery naszego życia, nie tylko podnosząc jego komfort i naszą produktywność, ale też przynosząc trudne do wyobrażenia wyzwania.

Publikacja: 05.03.2021 18:00

Sztuczna inteligencja, prawdziwe problemy

Foto: Shutterstock

Rewolucja dokonuje się na naszych oczach, a rozwiązania bazujące na sztucznej inteligencji są dziś „zaszyte" niemal wszędzie – od lodówki, przez smartfon oraz elektronicznego asystenta w bankowym call center, po zaawansowane medyczne urządzenia diagnostyczne. Entuzjaści technologii AI (z ang. artificial intelligence) się tym ekscytują. Sceptycy przekonują, że to wielka mistyfikacja, i wskazują na głośne badania firmy MMC Ventures z 2019 r., które ujawniły, że 40 proc. startupów rzekomo pracujących nad tym zagadnieniem w rzeczywistości zupełnie się nim nie zajmuje. AI traktowana jest bowiem jako slogan przyciągający inwestorów i podnoszący wycenę spółki.

Niewątpliwie większość z dostępnych systemów sztucznej inteligencji to w praktyce mniej lub nieco bardziej zaawansowane algorytmy, które „mówią" np. maszynie, jak uzyskać odpowiedzi na pytanie lub jak rozwiązać dany problem. Coraz więcej technologii czerpie z tzw. uczenia maszynowego (z ang. machine learning, ML), a tym bardziej tzw. głębokiego uczenia (deep learning) bazującego na sieciach neuronowych.

Gdzie zatem leży prawda? Czy prawdziwa AI istnieje? A jeśli nie, to jak daleko jesteśmy od technologii potrafiących myśleć jak człowiek? To ważne pytania. Ale należałoby zadać też inne. Dokąd ta technologiczna rewolucja nas zaprowadzi i przede wszystkim, czy jesteśmy na nią gotowi?




W oczekiwaniu na przełomy

W 2015 r. grupa badaczy z nowojorskiego szpitala uniwersyteckiego Icahn School of Medicine zbudowała narzędzie o nazwie Deep Patient, które miało pomóc lekarzom identyfikować pacjentów wysokiego ryzyka jeszcze przed zdiagnozowaniem u nich objawów choroby. Do przeczesywania oceanu informacji z bazy o pacjentach, w której znajdowały się rejestry chorób, wyniki badań i konsultacji, zastosowano techniki głębokiego uczenia maszynowego. Na tej podstawie powstał program analityczny, który – przeszkolony z użyciem danych niemal 700 tys. osób – był w stanie wykrywać różnego rodzaju zależności i schematy, których człowiek w tym czasie by nie dostrzegł.

Co trzeba podkreślić, bez wsparcia ekspertów medycyny Deep Patient samodzielnie odkrył w danych szpitalnych wzorce, a na ich podstawie (po nałożeniu algorytmów na rejestry nowych pacjentów) mógł wyciągać wnioski wskazujące, który pacjent znajduje się np. na prostej drodze do raka trzustki. I robił to w niezwykle skuteczny sposób. Według serwisu insideBigData narzędzie jest w stanie przewidywać ok. 80 chorób i to nawet rok przed ich wystąpieniem. Wystarczy, że zapozna się z historią medyczną pacjenta. W ocenie specjalistów skuteczność prognostyczno-diagnostyczna systemu jest zdecydowanie wyższa niż jakiekolwiek innej znanej dziś medycynie metody.

Geoffrey Hinton, nazywany ojcem chrzestnym głębokiego uczenia, wierzy, że będziemy w stanie stworzyć tzw. generalną AI, potrafiącą myśleć jak człowiek. W listopadowym wywiadzie dla pisma „MIT Technology Review" mówił jednak o koniecznych warunkach, by to nastąpiło. W 2017 r. Ashish Vaswani z zespołem wprowadził „transformatory", które są w stanie „rozumieć" znaczenie słów w sposób, w jaki nigdy wcześniej żaden algorytm tego nie potrafił. – To był koncepcyjny przełom. Obecnie to rozwiązanie używane jest w prawie wszystkich najlepszych procesach przetwarzania języka naturalnego. A będziemy potrzebować jeszcze kilku takich przełomów. Potrzebujemy również ogromnego wzrostu skali – tłumaczy Hinton.

Ludzki mózg ma setki milionów synaps. Tymczasem najbardziej zaawansowany model predykcji języka trzeciej generacji, tzw. GPT-3, stworzony przez OpenAI, laboratorium badawcze sztucznej inteligencji z siedzibą w San Francisco, jest tysiąc razy mniejszy pod tym względem niż ludzki mózg.

Wąskim gardłem jest dzisiaj również brak mocy obliczeniowych i potężnych superkomputerów. Ale globalny wyścig w tym kierunku trwa.

Sztuczna inteligencja potrafiąca myśleć jak człowiek, ale potężniejsza od niego i samoświadoma – taka wizja zdaniem niektórych optymistów z Doliny Krzemowej może się urzeczywistnić w perspektywie roku 2045. Hinton jest realistą. Podobnie jak Aleksandra Przegalińska, prorektor Akademii Leona Koźmińskiego w Warszawie, były pracownik naukowy Massachusetts Institute of Technology, a wkrótce senior research fellow na Harvardzie w zakresie edukacji o AI. Słuchając jej, można dojść do wniosku, że dziś samoświadomość maszyn wydaje się abstrakcją. Jej zdaniem sztuczna inteligencja w ogóle nie dorównuje inteligencji społecznej czy emocjonalnej człowieka. Bycie w realnym świecie dostarcza nam wielu bodźców, których algorytmy nie mają.

Owszem, w pewnych wąskich specjalizacjach sztuczna inteligencja już prześciga człowieka. Nikt nie jest bowiem w stanie analizować ogromnych wolumenów danych i wyszukiwać w nich wzorców tak dobrze jak maszyna. Przykładem może być DeepMind. Startup ten stworzył sieć neuronową, która uczy się grać w gry w sposób, w jaki czynią to ludzie (w 2016 r. pokonała zawodowego gracza w chińską grę planszową, w której liczba wariantów rozgrywki jest o wiele większa niż w szachach). Na bazie tych doświadczeń opracował systemy, które pomogły brytyjskim szpitalom we wczesnym wykrywaniu chorób oczu czy nowotworów szyi.

– Projekty takie jak DeepMind pokazują, że można tworzyć bardzo ambitne systemy głębokiego uczenia maszynowego, które nie tylko będą robić pewne rzeczy lepiej niż ludzie, ale w ogóle dostrzegać rozwiązania dla pewnych problemów, których ludzie nie byliby w stanie zauważyć – przekonuje Przegalińska.

Putin wie, kto będzie władał światem

Deep Patient czy DeepMind to przykład „deep learningu" – maszyna uczy się sama przez obserwacje i kolejno powtarzane doświadczenia, choć bez bezpośredniego wpływu człowieka. Programy tego typu automatycznie modyfikują swoją wiedzę, by poprawić wydajność. Nie działają przy tym na podstawie wyraźnych instrukcji od „nauczyciela", wzorców ze szkoleń czy wcześniejszych eksperymentów. Głębokie uczenie zastosowano m.in. w wyszukiwarce Google, w systemach przewidujących trzęsienia ziemi czy programach rozpoznawania obrazów. Uczenie maszynowe z reguły wymaga jednak, często olbrzymiego, zaangażowania ludzi. Np. amerykański startup Figure Eight (przejęty dwa lata temu za 300 mln dol. przez australijską firmę Appen specjalizującą się w rozwoju AI) zatrudniał dorywczo setki tysięcy ludzi na całym świecie, by godzinami, dzień po dniu, wskazywali komputerom, co znajduje się na kolejnym prezentowanym zdjęciu. Miliony fotografii, tysiące nauczycieli, nieustanne szkolenie. Figure Eight, pracujący m.in. na zlecenie Facebooka i Google'a, właśnie w ten sposób uczył autonomiczne samochody rozpoznawać znaki i przechodniów, czy identyfikować w mediach społecznościowych wpisy szerzące tzw. mowę nienawiści.

Ale AI to nie tylko samojezdne pojazdy czy medyczne urządzenia, które mimo wszystko dla wielu z nas pozostają abstrakcją. Jeśli ktoś korzystał w swoim smartfonie z systemem Android z funkcji tłumacza lub włączał asystenta Siri w iPhonie, to miał w praktyce kontakt z tą technologią. Stojący za tym pierwszym rozwiązaniem koncern Google to dziś jedna z wiodących firm rozwijających zaawansowane systemy sztucznej inteligencji. Nie bez kozery gigant w 2013 r. zatrudnił wspomnianego już Geoffreya Hintona. Guru sektora AI, na co dzień wykładowca Uniwersytetu w Toronto, współtworzył Google Brain, jednostkę koncernu specjalizującą się w najbardziej zaawansowanych projektach z zakresu sztucznej inteligencji (to ona przyczyniła się choćby do powstania popularnego Tłumacza Google'a).

Termin sztuczna inteligencja po raz pierwszy ukuto w 1956 r. podczas konferencji zorganizowanej przez Dartmouth College w New Hampshire – AI zdefiniowano wówczas jako „system, który świadomie postrzega otoczenie i reaguje na nie tak, by zmaksymalizować swoje szanse powodzenia". Od tego czasu algorytmy przeszły długą drogę. Dziś w praktyce badacze starają się tworzyć algorytmy, które nie tylko naśladują ludzką inteligencję podczas wykonywania zadań, ale mogą też sukcesywnie ją udoskonalać na podstawie zbieranych informacji. To dlatego AI karmi się milionami danych, aby poszerzała swoją wiedzę i zdobywała doświadczenie. Oczekiwane korzyści mają sprawić, że medycyna stanie się bardziej skuteczna, a biznes – bardziej dochodowy. Jak wynika z badań, aż 80 proc. banków deklaruje, iż zdaje sobie sprawę z zalet płynących z wdrażania systemów sztucznej inteligencji. Szacuje się, że instytucje finansowe, które zastosują AI, zaoszczędzą tylko do 2023 r. niemal 0,5 bln dol.

– Algorytmy umożliwiają pracownikom podejmowanie natychmiastowych decyzji kredytowych, pomagając im w ocenie ryzyka. Jak wskazują badania, już niemal co piąta instytucja z sektora bankowego zaangażowała AI do pracy w kilku działach – wylicza Marcin Somla, dyrektor SER Group specjalizującej się w oprogramowaniu dla firm.

Biznes sięga po AI, bo to sposób na podniesienie produktywności. Ale i możliwe zastosowania czysto konsumenckie sztucznej inteligencji dają tej technologii pole do popisu. W imię naszego komfortu. Wyobraźmy sobie przyszłość, w której automatyczny asystent układa zadania na nadchodzący tydzień, fotel w biurze dostosowuje swoją pozycję tak, aby ból kręgosłupa nie powrócił. Po drodze automatyczny doradca finansowy pomaga w planach urlopowych i sugeruje rezerwacje wakacji, które przypadną do gustu całej rodzinie i nie przekroczą domowego budżetu, a treści umów uzgadniamy z cyfrowym prawnikiem, który sprawnie porusza się w labiryncie paragrafów. To idylliczna wizja. Ale Marcin Sugak, ekspert firmy Ericsson, zaznacza, że inteligentne maszyny nie będą zwykłymi automatami czy też uległymi sługami bezmyślnie podążającymi za naszymi zachciankami. Oczywiście, będą o nas i nasze otoczenie dbały. – Ale również będą wykorzystywane przez świat przestępczy – ostrzega. W 2017 r. Władimir Putin zadeklarował, że kraj, który stanie się liderem w technologii AI, będzie „władał światem". To pokazuje nie tylko znaczenie sztucznej inteligencji, ale i zagrożenia. I to nie tylko ze strony tych, którzy sięgają po AI.

Słowa Putina pokazują bowiem także potencjalny błąd w myśleniu o superinteligencji. Geoffrey Hinton podaje w wątpliwość „panowanie" człowieka nad AI. Jego zdaniem, choć nie da się kategorycznie wykluczyć scenariusza, w którym w przyszłości istoty ludzkie będą kontrolować super-AI, to nie ma doświadczeń, które potwierdzałyby, że mniej inteligentne organizmy są w stanie zarządzać tymi bardziej rozwiniętymi.

Algorytm pociąga za spust

Nic dziwnego, że większość ludzi ma obawy względem sztucznej inteligencji. Jon Thor Sigurleifsson, szwedzki edukator w zakresie etyki w AI, konsultant firm technologicznych, częsty mówca na konferencjach naukowych TED, wskazuje, że to poziom społecznej akceptacji dla tej technologii może stanowić barierę w jej wdrażaniu. Podczas niedawnego wystąpienia na MKAI Forum, zrzeszającym społeczność ekspertów branży AI, tłumaczył, że kiedy myśli o zaufaniu do technologii, zawsze przypomina mu się hasło z gry wideo „GTA 2" powstałej na początku lat 90.: „Zaufania się nie dostaje, lecz trzeba na nie zapracować". – Co więcej, ciężko je zbudować, a łatwo roztrwonić – podkreśla.

Przed AI więc potężne wyzwanie. Z jednej strony jest zbyt wcześnie, by wykształciła się w nas ufność do stosunkowo świeżej technologii, a z drugiej strony liczne zastosowania sztucznej inteligencji już dziś budzą powszechne kontrowersje.

Paradoksalnie jesteśmy jednak otwarci na technologie jako takie. Według Sigurleifssona przykładem są zakupy w sieci. Nie obawiamy się przekazać komuś pieniędzy przed wysyłką towaru nie dlatego, że ufamy sprzedającemu, ale dlatego, że wierzymy w systemy ratingowe oceniające dany sklep internetowy czy korzystamy z zaufanych pośredników w płatnościach, jak choćby PayPal. Nasza ufność do technologii rośnie również wraz z rozwojem takich rozwiązań jak podpis elektroniczny i systemy autentykacji dokumentów. Wierzymy w gwarancje, jakie nam one dają. Dlaczego zatem nie ufamy inteligentnym algorytmom? – Bo taki odbiór mamy zakodowany – przekonuje etyk AI ze Sztokholmu.

Jego zdaniem dobrym przykładem jest filmowy Skynet. Pojawiający się w „Terminatorze" inteligentny system obrony, który uzyskał samoświadomość, stał się śmiertelnym zagrożeniem dla człowieka. Ten obraz w popkulturze stał się powszechny, co oddziałuje na nasze postrzeganie sztucznej inteligencji. Jon Thor Sigurleifsson zaznacza jednak, że to nie z powodu „Terminatora" ludzie nie ufają AI. – Film tylko dowodzi tego, że ten wrodzony strach w nas jest. Boimy się, że jakiś algorytm będzie panować nad światem, że stanie się potężniejszy od człowieka – zauważa.

Prof. Yoshua Bengio z Uniwersytetu Montrealskiego, który razem z Geoffreyem Hintonem odebrał w 2018 r. prestiżową Nagrodę Turinga, uważa, iż należałoby zmienić optykę. Według niego bardziej powinniśmy być zainteresowani tym, w jaki sposób to ludzie nadużywają mocy, jaką oferuje AI. A to może faktycznie budzić strach. Przypadek firmy Cambridge Analytica, która wykorzystała algorytmy, by manipulować ludźmi na masową skalę w celach politycznych, daje do myślenia. Operacje informacyjno-psychologiczne, niegdyś zarezerwowane dla wywiadów obcych państw, dziś – za sprawą AI – stały się również domeną prywatnych podmiotów. W taki sposób wpływano choćby na brytyjskie referendum w sprawie brexitu czy na prezydenckie wybory w USA.

Według Sigurleifssona w kontekście sztucznej inteligencji pojawiają się też wątpliwości dotyczące jej militarnego zastosowania. Zabójstwo Mohsena Fakhrizadeha, do którego doszło z końcem 2020 r., nie pozwala nam wątpić, w którą stronę może rozwijać się technologia. Jak się okazało, przyczyną śmierci tego czołowego irańskiego specjalisty od atomu były pociski z karabinu maszynowego. Broń była sterowana satelitarnie przez sztuczną inteligencję. Tymczasem armie Chin i USA są zaawansowane w tworzeniu całkowicie autonomicznych systemów rakietowych.

Ale zagrożenie ze strony AI ma również związek z naszą prywatnością. Dane zbierane z „inteligentnych" głośników w naszych domach, wszechobecne systemy rozpoznawania twarzy, to wszystko budzi obawy. Technologia sprawia, że człowiek przestaje być podmiotem, a staje się przedmiotem. To często eksploatacyjny i wyzyskujący charakter relacji między firmami technologicznymi czy reżimami stosującymi systemy AI a ludźmi. Zjawisko to przyjęło się już określać jako cyfrowy kolonializm.

Prezes Watson mocno się pomylił

Jaka będzie więc przyszłość sztucznej inteligencji? Lavina Ramkissoon, znana mentorka w zakresie technologii i etyki AI, nie ma wątpliwości, że stanie się ona wszechobecna. Będzie niezauważalna, ale dostępna dla wszystkich. A zatem demokratyzacja sztucznej inteligencji? Można wątpić. Wystarczy wspomnieć o już funkcjonujących na świecie tzw. technologiach face recognition. W Chinach wykorzystuje się je m.in. do śledzenia i represjonowania mniejszości Ujgurów. Amerykańska prasa rozpisywała się parę lat temu o sądowym algorytmie, który dla Afroamerykanów wydawał cięższe wyroki niż dla białych, czy systemie oceny kredytobiorców dyskryminującym Latynosów. Niedawno głośno było również o opartym na AI programie rekrutacyjnym Amazona, który faworyzował mężczyzn. Koncern ostatecznie wycofał się ze stosowania tej technologii.

Nie oznacza to jednak, że technologia sama w sobie jest zła. Kate Crawford, badaczka Microsoft Research, współzałożycielka AI Now Institute, powtarza niczym mantrę: problemem nie jest algorytm, ale to, przez kogo jest tworzony i w jaki sposób wykorzystywany. Jej zdaniem zagrożeń będzie przybywać, a mogą wiązać się z próbami odczytywania z twarzy skłonności przestępczych czy kompetencji zawodowych. Cytowana przez serwis Vox.com stwierdziła: widzimy, iż systemy AI powielają uprzedzenia w sposób, który może tylko pogłębiać i usprawiedliwiać niesprawiedliwość.

Raport McKinsey & Company z 2019 r. potwierdza obawy. Firma, choć konkluduje badania stwierdzeniem, iż sztuczna inteligencja może podnieść produktywność i wzrost gospodarczy, to przyznaje zarazem, że automatyzacja pracy pogłębi „rasową lukę bogactwa". Do 2030 r. w Stanach Zjednoczonych ma nastąpić bowiem automatyzacja 25,5 proc. stanowisk pracy zajętych przez Latynosów. A to o 3 punkty procentowe wyższy wskaźnik niż w przypadku średniej krajowej.

Geoffrey Hinton z reguły odmawia jednak prognozowania na więcej niż pięć lat, zauważając, że wykładniczy postęp technologii sprawia, iż niepewność jest zbyt duża. Z kolei Terence J. Sejnowski, który kieruje Laboratorium Neurobiologii Obliczeniowej w kalifornijskim instytucie badawczym Salk Institute for Biological Studies, zauważa, że podobnie nikt nie był w stanie przewidzieć w latach 90. ubiegłego wieku, kiedy internet zaczął nabierać charakteru komercyjnego, jaki będzie miało to wpływ na przemysł muzyczny, firmy taksówkowe czy prowadzenie kampanii politycznych. A o tym, jak bardzo można się pomylić, niech świadczą słowa Thomasa Watsona, prezesa IBM (to na jego cześć nazwano dekadę temu superkomputer, który wygrał z ludźmi rywalizację w teleturnieju Jeopardy, a dziś służy placówkom medycznym do zaawansowanej diagnostyki). W 1943 r. powiedział: „na światowych rynkach jest, jak sądzę, miejsce dla może pięciu komputerów". 

Rewolucja dokonuje się na naszych oczach, a rozwiązania bazujące na sztucznej inteligencji są dziś „zaszyte" niemal wszędzie – od lodówki, przez smartfon oraz elektronicznego asystenta w bankowym call center, po zaawansowane medyczne urządzenia diagnostyczne. Entuzjaści technologii AI (z ang. artificial intelligence) się tym ekscytują. Sceptycy przekonują, że to wielka mistyfikacja, i wskazują na głośne badania firmy MMC Ventures z 2019 r., które ujawniły, że 40 proc. startupów rzekomo pracujących nad tym zagadnieniem w rzeczywistości zupełnie się nim nie zajmuje. AI traktowana jest bowiem jako slogan przyciągający inwestorów i podnoszący wycenę spółki.

Pozostało 96% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi