Czy ludzkość ujarzmi algorytmy?

Bez zmiany fundamentalnych zasad działania internetowego rynku nie przekujemy postępu w działający na rzecz człowieka rozwój. Bez reform ryzykujemy wprowadzenie nowych nierówności społecznych. Ci nieliczni, którzy będą dysponować kapitałem społecznym i umiejętnościami opanowania technologii, będą zyskiwać dużo lepszą pozycję.

Aktualizacja: 21.05.2021 22:37 Publikacja: 21.05.2021 10:00

Czy ludzkość ujarzmi algorytmy?

Foto: BEW

Boimy się, że komputerowe algorytmy wyhodowane na naszych danych będą sterować naszym życiem. Tak nie musi jednak być. Koniec końców to, co nazywamy „wolną wolą", też w dużej mierze sterowane jest biologiczno-chemicznymi procesami zachodzącymi w naszym organizmie. Kluczową kwestią jest jednak, kto cyfrowym algorytmom ustala cele i określa metody działania. Już teraz musimy stoczyć walkę o to, czy w przyszłości komputerowe algorytmy będą starały się nas wciąż ogrywać, czy też będą przynajmniej nie przeszkadzały w integralnym rozwoju człowieka i społeczeństwa.

Na początku roku, w pewien wyjątkowo śnieżny poniedziałek, musiałem przejechać samochodem z Rzeszowa do Warszawy. Uruchomiłem nawigację i wybrałem standardową, dosyć dobrze znaną mi trasę. W trakcie jazdy nawigacja podpowiedziała mi nową – podobno o dziesięć minut szybszą. Wybrałem ją, spodziewając się, że to próba ominięcia jakiegoś korka czy wypadku.

Kwadrans później znalazłem się na kompletnie zasypanej śniegiem leśnej drodze, klnąc na czym świat stoi. Nie wiem, jak dokładnie wygląda algorytm nawigacji. Podejrzewam, że aplikacja, zbierając dane o wolno jadących samochodach na drodze krajowej, zaproponowała boczną trasę. Nie miała stamtąd żadnych informacji o obecnym ruchu – bo nikt nie pakował się przecież w środek lasu w śnieżycy – ale z danych historycznych wiedziała, że można tamtędy spokojnie jechać około 50 km/h. Przeliczyła więc, zgaduję, że ta trasa będzie szybsza, a ja jej zaufałem.

Człowiek bardzo szybko zaczyna bezrefleksyjnie ufać, szczególnie jeśli to zaufanie upraszcza mu życie. Jakkolwiek upieralibyśmy się, że myślimy krytycznie i zawsze staramy się sprawdzić inne rekomendacje, nie zawsze tak jest. Nasze mózgi bardzo lubią otrzymywać pomoc w upraszczaniu skomplikowanego świata. Dlatego o tym, co przeczytam w sporym stopniu decydują rekomendacje Facebooka i Twittera. Oglądnę to, co podsunie mi algorytm YouTube'a, posłucham muzyki rekomendowanej przez Spotify, pojadę trasą zasugerowaną przez Google'a, a kupię ten przedmiot, który będzie na górze wyszukiwań w Allegro.

Nie powinniśmy się za mocno za to biczować. Kiedy w latach 90. XX w. wprowadzono nowatorskie systemy ostrzegania pilotów przed drobnymi awariami silników, okazało się, że wykrywalność takich incydentów... zmalała. Nawet świetnie wyszkoleni piloci po prostu przyzwyczaili się, że jeśli coś się będzie działo – maszyna ich ostrzeże. Przestali więc monitorować przyrządy pod kątem wykrywania takich incydentów, które mogłyby umknąć komputerowi. Wszyscy jesteśmy ludźmi, jesteśmy mocno przeładowani bodźcami do przeanalizowania i decyzjami do podjęcia. Dlatego korzystamy z każdej możliwości delegowania rozwikływania węzłów gordyjskich skomplikowanego świata na kogoś lub coś innego.

Z dnia na dzień w coraz większym stopniu ufamy więc maszynom. Wiele z nich w swoich założeniach wcale nie jest horrendalnie skomplikowanych. Polecanie muzyki w Spotify jest oparte na prostej zasadzie: znajdowania użytkowników o podobnych odsłuchaniach do moich i polecaniu mi muzyki, której oni słuchają. Nie jest żadną wielką tajemnicą, że jeśli słucham Łony, L.U.Ca i Rasmentalismu, to może spodobać mi się Jan-Rapowanie czy inny PRO8L3M. Algorytm poleca na podobnej zasadzie, na jakiej muzykę polecałby dowolny hiphopowy bloger.

Za, a nawet przeciw

Algorytmy są więc dla nas ogromnym ułatwieniem: upraszczają nam skomplikowany świat, rekomendując parę rozwiązań, ograniczają zalew możliwych opcji do wyboru. To ważne, szczególnie w czasie, kiedy nawet liczba możliwych do kupienia w internecie patelni jest przytłaczająca. Zamiast analizować każdy z trzech różnych materiałów, siedmiu rodzajów powłok i kilkunastu firm o różnych opiniach – dostajemy zawężony wybór wraz z opiniami użytkowników. Może nie są najlepszą opcją, ale oszczędzają nam czas i nasz mózg, który pośród zbyt szerokiego i nieoczywistego wyboru po prostu się gubi. Nic dziwnego, że – według profesora Kartika Hosanagara z Uniwersytetu Wharton – około 80 proc. obejrzanych na Netflixie filmów i seriali, mniej więcej 35 proc. zakupów na Amazonie i zdecydowana większość par na Tinderze i OkCupid to skutki poleceń algorytmów.

Z drugiej strony, algorytmy obficie korzystają ze zdobyczy behawiorystyki. Po to, żeby dostarczyć nam lepszą usługę i również po to, żeby dłużej zatrzymać nas w aplikacji albo namówić nas na kupienie jeszcze jednej rzeczy. Żeby to zrobić, właściwie ogrywają naszą duszę: wykorzystują to, że jako ludzie mamy spory problem z odłożeniem w czasie gratyfikacji. Tak zwana gamifikacja usług zapewnia nam gratyfikację natychmiastową – dostaniemy lajka, powiadomienie, kupimy rzecz jednym kliknięciem, natychmiastowo obejrzymy kolejny odcinek serialu czy filmik. Problem w tym, że zanurzeni w różnych algorytmach zaczynamy oddawać im większość dnia, mocy umysłowych. Że żerując na naszych behawioralnych zachowaniach, zabierają nam skupienie w nauce czy pracy, czas dla znajomych lub rodziny albo po prostu godziny snu. Czy mamy więc jeszcze wolną wolę, czy stajemy się powoli biologicznymi zasobami uwagi i czasu powoli eksploatowanymi przez algorytmy wielkich firm?

Sterowana wolna wola

Ten podział naszych ról przestaje być jednak taki prosty, jeśli przyjrzymy się szczegółom. Yuval Noah Harrari w swoich książkach i artykułach zwraca uwagę, że emocjonalność i racjonalność wcale nie są konkurencyjne. Przecież to, co często odbieramy jako emocjonalną reakcję opartą na wolnej ludzkiej woli jest tak naprawdę efektem działania bardzo skomplikowanej chemiczno-biologicznej maszynerii naszego organizmu, która w toku ewolucji nauczyła się eksperymentalnie podejmować pewne działania w reakcji na określone bodźce.

Kiedyś takie mechanizmy służyły podjęciu decyzji o ucieczce przed lwem, dziś raczej decydują o tym, kto nam się podoba i jak spędzimy czas po pracy. Dobór partnera czy hobby są naszym wyborem, ale ukierunkowanym przez skomplikowany biologiczny algorytm. Zmiana jego „rekomendacji" jest szalenie trudna, o czym przekonał się każdy, kto – tak jak ja – chciał się oduczyć jedzenia czipsów wieczorami. Z tej perspektywy pojawienie się internetowych rekomendacji nie jest pozbawieniem nas wolnej woli, a jedynie zamianą jednych algorytmów (biologicznych) na inne (cyfrowe).

Obraz malowany przez Harariego jest jednak niepełny. Nawet jeśli akceptujemy, że ta maszyneria organizmu ma ogromny wpływ na nasze decyzje, to wciąż jednak nie oznacza, że w pełni nami steruje. Wolna wola to więcej niż rezultat działania skomplikowanej biologii. Przykład świadomego oduczania się jedzenia czipsów, wbrew podpowiedziom łasego organizmu, jest tutaj świetnym dowodem. Świat jest w końcu pełen ludzi, którzy zaczynają właśnie biegać, ćwiczyć, przechodzić na dietę, robić dokształcające kursy, lepić garnki z gliny, oglądać ambitniejsze kino, czytać trudną książkę. Wielu z nas zrobi to nie dziś, ale „jutro" (cudzysłów jest tu uzasadniony), wielu więcej o podjęciu nowej aktywności mówi na spotkaniach towarzyskich, niż faktycznie robi. To jednak nie ma znaczenia – codziennie podejmujemy szereg decyzji wbrew rekomendacjom biologicznych rekomendacji organizmu. Zaczynając od tej pierwszej – wyłączenia budzika i wstania z łóżka do pracy zamiast powrotu do snu.

Odkładamy więc natychmiastową nagrodę na później kosztem chwilowego cierpienia. Niektórzy nawet powiedzieliby, że to właśnie podejmowanie decyzji innych niż pójście za głosem organizmu czyni nas ludźmi. Jednak, skoro wygranie z naszym własnym „systemem rekomendacyjnym" organizmu jest trudne, to co dopiero, jeśli równocześnie musimy walczyć z ewoluującymi w zawrotnym tempie (w porównaniu z ewolucją człowieka) systemami rekomendacyjnymi komputerów??Jak żyć z algorytmami?

Dziś toczymy faktycznie nierówną walkę – już nie tylko z samymi sobą, ale też z uzależniającą technologią. Trudno było zebrać się do ćwiczeń, kiedy nasz organizm podpowiadał nam, że lepiej posiedzieć przed telewizorem. Dziś dodatkowo nasz smartfon i laptop kuszą nas kilkunastoma powiadomieniami z aplikacji, które oferują zobaczenie, co u naszych znajomych, nowy filmik na YouTubie czy nawet przejrzenie tego nowego e-maila z pracy.

Niekoniecznie musi tak być. W naturę naszego organizmu pewne mechanizmy wpisane są ewolucyjnie przez dziesiątki tysięcy lat – i od takiego czasu staramy się w niektórych aspektach z nimi walczyć. W przypadku algorytmów komputerowych mówimy zaledwie o paru dekadach ewolucji matematyki. W naturze statystyki i technologii nie ma nic, co zmuszałoby je do zawłaszczania naszego czasu i uwagi pełnymi garściami. To kwestia zmiany celów i wartości, a nie samej technologii. Algorytmy to tylko metoda – jeśli postawimy przed nimi inne cele, pomogą nam je realizować. W naturze nauki i technologii nie ma niczego, co wprost nakazywałoby jej nas ogrywać, uzależniać, niszczyć nasze marzenia o byciu lepszym człowiekiem.

Prawdziwy rozwój, pozwalający człowiekowi się realizować, to taki, w którym technologia nie będzie wyłącznie konkurować z naszymi marzeniami i ambicjami, ale je wspierać. A przynajmniej – przyjaźnie zbytnio nie przeszkadzać. To jednak oznacza, że musimy wydobyć sferę naszej uwagi z czysto rynkowego, konkurencyjnego rozumienia tego zasobu. Wprowadzić pewne reguły i zasady, które pozwolą zabezpieczyć interes naszych długoterminowych, wyższych potrzeb. To ważne indywidualnie – dla naszej psychiki i samopoczucia. To jednak również ważne dla całego naszego społeczeństwa.

Żeby przekierować cel działania setek algorytmów potrzebujemy oczywiście ogromnej systemowej zmiany. Póki jednak dopiero czai się ona na horyzoncie, o czym poniżej, musimy radzić sobie sami. Powinniśmy to robić z pełną świadomością, że to dosyć nierówna walka, w której każdy z nas indywidualnie staje naprzeciw jednych z najtęższych umysłów świata – inżynierów, behawiorystów, specjalistów od projektowania zatrudnianych przez technologiczne firmy. Z drugiej strony, my sami uzbrojeni jesteśmy przecież w nasze mózgi oraz to poczucie rozczarowania samymi sobą, kiedy po „krótkiej chwili" godzinach odrywamy wzrok z nad telefonu czy sprzed komputera i okazuje się, że zamiast godziny 19.10 jest 23.15.

Walka o samodzielność, o nasz czas i uwagę, może przybierać rozmaite formy. Najbardziej oczywistą jest całkowite wyłączenie się – tego jednak nie polecam. Wiemy z doświadczenia własnego, ale również badań, że obecność w wirtualnym świecie jest po prostu pomocna: zwiększa szanse na znalezienie dobrej pracy, pomaga nam zdobywać nową wiedzę czy rozwijać pasje. Nie chodzi więc o to, żeby technologie odrzucić, ale by je okiełznać.

Możemy więc uczynić smartfona mniej atrakcyjnym dla naszego uwielbiającego kolory gadziego umysłu, zmieniając ekran na biało-czarny. Jeszcze lepiej – co mówię z własnego doświadczenia – działa wyłączenie większości rozpraszających, migających powiadomień nie tylko z mediów społecznościowych, ale też wszelkich aplikacji informacyjnych czy komunikacyjnych. Kiedy chcę sięgnąć i dowiedzieć się, co dzieje się w świecie – wciąż mogę to zrobić, ale w czasie, który sam chcę na to przeznaczyć.

Futurolożka Natalia Hatalska przeprowadziła na sobie arcyciekawy eksperyment, w którym przez miesiąc zrezygnowała z używania smartfona, co opisała na swoim blogu i w rozmowie ze mną w podcaście ScepTech. Dzięki temu, jak sama mówi, mogła zmienić pewne swoje zwyczaje korzystania z technologii. Używać jej wtedy, kiedy naprawdę jej potrzebuje, ale nie odczuwać strachu, kiedy będąc w sklepie i poklepując się po kieszeni, okazuje się, że smartfona nie ma przy sobie.

Dla tych z nas, którzy z kolei zmęczeni są poleganiem na Facebooku czy Twitterze w poznawaniu ciekawych artykułów, polecam czytniki RSS oraz newslettery. To miejsca, w których sami wybieramy źródła, które chcemy śledzić – i niejednokrotnie odkryjemy tam wiele ciekawych artykułów, których algorytm raczej by nam nie pokazał ze względu na ich niską „klikalność". Mnie osobiście dzięki takim metodom udało się zmniejszyć dzienny czas patrzenia w ekran smartfona z ponad trzech godzin do około godziny dziennie.

Włączenie biało-czarnego ekranu, zostawianie smartfona na szafce w przedpokoju czy włączenie aplikacji blokujących dostęp do rozpraszających stron podczas pracy mogą się wydawać desperackimi krokami antytechnologicznych konserwatystów. Według mnie to jednak początek pewnego trendu – trendu opanowywania technologicznych narzędzi tak, żeby działały w służbie konkretnego człowieka. W rzeczywistości, w której przeciętny pracownik biurowy rozpraszany jest przez e-maile co parę minut, umiejętność odpowiedniego „wyłączenia się" choćby na dwa kwadranse i wykonania swojej pracy w skupieniu staje się ogromną wartością. Podobnie jak na nikim wrażenia już nie robi dorosły sięgający przy stole po smartfona, żeby przejrzeć powiadomienia.

Bardziej ludzki system

Całe tabuny algorytmów i firm działają dziś na nowym, unikalnym internetowym rynku, na którym walutą jest nasza uwaga oraz czas. W końcu to właśnie nasze zainteresowanie portalem czy platformą można przekuć w reklamy albo przekonanie nas do płatnej subskrypcji. Firmy technologiczne świetnie nauczyły się tworzyć swoje usługi tak, aby swój cel osiągać. Wykorzystują do tego zdobycze nauki, metody szybkiego prototypowania i testowanie nowych wersji połączone z obserwacją zachowania użytkowników.

Bez zmiany fundamentalnych zasad działania internetowego rynku nie przekujemy postępu w działający na rzecz człowieka rozwój. Bez reform ryzykujemy wprowadzenie nowych nierówności społecznych: nieliczni ci, którzy będą dysponować kapitałem społecznym i umiejętnościami opanowania technologii na tyle, aby pomagała im w realizacji siebie, będą zyskiwać dużo lepszą pozycję. Natomiast dla większości, która nie ma czasu czy umiejętności, aby zawracać sobie głowę jakimiś algorytmami, pozostanie zanurzenie się w hiperaktywnej zupie aplikacji i platform. Badania już dziś pokazują, że nadużywanie internetowych usług – szczególnie wśród osób dorastających – odbija się na zdrowiu psychicznym.

Jedną z prób podejmuje właśnie Unia Europejska, która tworzy regulacje rozwoju odpowiedzialnej sztucznej inteligencji. Odpowiedzialnej, czyli służącej właśnie człowiekowi. Propozycja słusznie dzieli algorytmy według ryzyka ich wykorzystania, pozostawiając słabsze reguły zastosowaniom niemogącym wyrządzić szkody życiu człowieka – na przykład w przemyśle. Elementem propozycji są też zakazy dla nieetycznych algorytmów wykorzystujących podświadomość odbiorców czy takie wykorzystujące grupy niepełnosprawnych lub dzieci.

To dopiero wstępna propozycja, której, ze względu na jej ogólny charakter, towarzyszy sporo pytań i wątpliwości. Bez wątpienia regulowanie całkowicie nowej sfery życia i działalności gospodarczej jest jednym z najtrudniejszych wyzwań dla polityk publicznych, trudno więc oczekiwać od początku bezbłędnych działań. Jednak jako Europa czynimy krok w dobrą stronę – zwrócenia uwagi na odpowiedzialność technologii.

Zarówno Amerykanie, jak i Europejczycy przyglądają się również konkurencyjności. Ona też mogłaby pomóc w odzyskaniu władzy społeczeństw nad algorytmami. Rozwiązania tego problemu związane są z otwieraniem platform na ingerencję użytkownika lub innych usług.

Pierwszym pomysłem jest oddanie części kontroli nad algorytmami decydującymi o rekomendowaniu nam postów, usług czy produktów nam samym. Dzięki takiemu rozwiązaniu mógłbym na przykład zażyczyć sobie, by serwis priorytetyzował posty od moich najbliższych przyjaciół kosztem linków zewnętrznych, żeby ograniczyć odsetek oglądanych przeze mnie internetowych dyskusji światopoglądowych. Takie rozwiązanie wymagałoby jednak ręcznego ustawiania założeń algorytmów przez użytkownika – co pewnie nie byłoby szalenie popularne (Facebook niedawno zapowiedział udostępnienie takiej możliwości). Drugim pomysłem jest stworzenie rynku różnych algorytmów rekomendacyjnych. Zamiast samemu próbować ustawić założenia algorytmu, mógłbym oddać kontrolę nad tym, co poleca mi YouTube czy Twitter algorytmom stworzonym przez inną firmę. Zamiast polegać na algorytmie rekomendacyjnym Google'a mógłbym w YouTubie wykorzystać na przykład konkurencyjny system rekomendacji, który obiecuje mi „zero nieprawdziwych informacji" albo chwali się, że poleci mi wyłącznie wartościowe treści na temat społeczeństwa i polityki.

Trzecim pomysłem jest wreszcie wprowadzenie konkurencyjności całych platform. Aby to zrobić, konieczna jest tak zwana interoperacyjność – zdolność do wymiany danych i wiedzy o użytkowniku, za jego zgodą, w czasie rzeczywistym pomiędzy serwisem, w którym mamy już konto, a jego bezpośrednią konkurencją. Dziś nie sposób stworzyć alternatywy dla Facebooka – jego ogromna skala powoduje, że na nowej platformie będę pozbawiony kontaktu z większością mojej sieci. Dzięki interoperacyjności mógłbym widzieć posty z Facebooka na Twitterze, a prywatne wiadomości z WhatsAppa w Telegramie. Tym samym mój wybór usługi, z której korzystam, byłby podyktowany zdecydowanie szerszą gamą czynników niż wyłącznie stwierdzeniem, „bo tam są ludzie, z którymi chcę mieć kontakt". 15 lat temu wysyłanie SMS-a z jednej sieci do drugiej było drogie – dziś, dzięki konkurencji i regulacjom już nie jest. Z naszą internetową twórczością i wiadomościami mogłoby stać się podobnie.

Te trzy metody łączy jeden czynnik: przywrócenie człowiekowi decyzyjności. Nie chodzi tu o pozbycie się algorytmów ze swojego życia, ale zdolność do zadania im parametrów i celów, które my sami chcemy osiągnąć. To nie pomysł na „zaoranie" internetowego rynku, ale wprowadzenie w nim reguł umożliwiających konkurencję.

Przyszłość, która być może nadejdzie

Po dekadzie zachwytu nad technologią przyszły lata narzekania na jej negatywny wpływ. W 2015 roku media zastanawiały się, czy to już odpowiedni moment, żeby Mark Zuckerberg kandydował na prezydenta Stanów Zjednoczonych. Dzisiaj krytykują go raczej za to, że dzięki swojej firmie ma zbyt wiele władzy. To według mnie dopiero forpoczta zmian myślenia społeczeństwa: krytyka technologii rozpędza się od czasu wyboru Donalda Trumpa coraz intensywniej. Z jednej strony – to dobrze, że pożegnaliśmy się z bezrefleksyjnym zachwytem nad tym, jak 20-latkowie z Doliny Krzemowej zmienią nam świat. Z drugiej – jeśli jako społeczeństwo potępimy technologie cyfrowe, zatrzymamy naukowy i technologiczny rozwój na całe dekady. Szczególnie w kraju o niskim zaufaniu społecznym, jakim jest Polska, skutki mogą być silniejsze i dłużej odczuwalne.

Żyjemy w rzeczywistości, w której algorytmy pomagają nam ograniczyć złożoność świata, ale bardzo często działają też przeciw naszemu interesowi. Przez setki lat nauczyliśmy sobie radzić z naszymi biologicznymi algorytmami, wprowadzając różne normy społeczne pozwalające opanować nam przeróżne szkodliwe zachowania. Dziś jednak mierzymy się z algorytmami komputerowymi ewoluującymi szybciej niż (w skali cywilizacji) mgnienie oka.

Nie musimy jednak powoli zamieniać się w cywilizację uzależnionych od smartfonów, sterowanych szybkimi strzałami dopaminy i decyzjami gadziego mózgu zombie. W naturze technologii nie ma nic z gruntu złego, ona po prostu funkcjonuje w systemie, w którym cele jej działania ustalane są odgórnie przez zmotywowane przez inwestorów – i często są sprzeczne z celami naszego społecznego i indywidualnego rozwoju.

To oznacza też, że tę samą technologię możemy wykorzystywać w lepszy sposób. Wolna wola oznacza możliwość decydowania o swoim losie. Potrzebujemy więc przywrócić sobie samym decyzyjność nad swoim czasem, a najlepiej również nad cechami i celami działania algorytmów mających na nas wpływ. Trudno zaprzeczyć, że program pokazujący nam w parę minut, co najciekawszego wydarzyło się u setki znajomych, streszczający nam najważniejsze wypowiedzi debaty publicznej czy polecający nam trzy odkurzacze dostosowane do naszych nawyków konsumenckich, jest rzeczywiście przydatny. O ile robi to, biorąc pod uwagę moje cele, ambicje i wartości.

Żeby zrealizować pozytywną wizję rozwoju ludzkości wspieranej przez algorytmy, potrzebujemy połączyć siły systemowe i indywidualne. Nie pozwolą nam wygrać same nasze starania na rzecz opanowania własnych zasad korzystania z technologii, tak aby Netflix, Messenger, Instagram czy YouTube nie zabierały nam całego dnia i nie zabierały skupienia na rozmowie z mamą czy przyjacielem. Ale też regulacyjne wprowadzenie interoperacyjności usług cyfrowych samo nie rozwiąże problemu. Podobnie jak możliwość samodzielnego definiowania celów algorytmów. Potrzebujemy jeszcze wiedzieć, że chcemy coś zmienić – i na co dokładnie.

Potrzebujemy indywidualnych, oddolnych działań z odgórnymi reformami. Gramy o zdrowie psychiczne, o to, jak wygląda parę godzin naszego codziennego życia, wreszcie o istnienie wolnej woli w świecie zdominowanym przez algorytmy. Taka gra jest chyba warta świeczki.

Autor jest członkiem zarządu Klubu Jagiellońskiego, szefem działu „Techno-republikanizm" na portalu KJ. Prowadzi podcast ScepTech



Boimy się, że komputerowe algorytmy wyhodowane na naszych danych będą sterować naszym życiem. Tak nie musi jednak być. Koniec końców to, co nazywamy „wolną wolą", też w dużej mierze sterowane jest biologiczno-chemicznymi procesami zachodzącymi w naszym organizmie. Kluczową kwestią jest jednak, kto cyfrowym algorytmom ustala cele i określa metody działania. Już teraz musimy stoczyć walkę o to, czy w przyszłości komputerowe algorytmy będą starały się nas wciąż ogrywać, czy też będą przynajmniej nie przeszkadzały w integralnym rozwoju człowieka i społeczeństwa.

Pozostało 97% artykułu
Plus Minus
Michał Szułdrzyński: Co łączy składkę zdrowotną z wyborami w USA
Plus Minus
Politolog o wyborach prezydenckich: Kandydat PO będzie musiał wtargnąć na pole PiS
Plus Minus
Bogusław Chrabota: Dlaczego broń jądrowa nie zostanie użyta
Plus Minus
„Empire of the Ants”: 103 683 zwiedza okolicę
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Plus Minus
„Chłopi”: Chłopki według Reymonta