Michał Szułdrzyński: Algorytm i moralność

Czy jeśli już kiedyś powstanie samoświadoma sztuczna inteligencja, stanie się podmiotem moralnym? Czy będzie rozróżniać dobro i zło?

Publikacja: 26.08.2022 17:00

Michał Szułdrzyński: Algorytm i moralność

Foto: AdobeStock

Osoby szczególnie wrażliwe łączą różne doznania zmysłowe. Jak Marcel Proust, który zwracał uwagę na powiązanie wspomnień i zapachów. Wspomnienie zapachu wywoływało całą lawinę skojarzeń i wyciągało z zakamarków pamięci obrazy i inne doznania. Być może nie jestem aż tak wrażliwy, bo wiele wspomnień, obrazów łączy się w mej głowie z pewnymi myślami czy konceptami. Od kilku dni nie mogę się na przykład uwolnić od pewnego zestawu pojęć i obrazów, które połączyły się w jeden związek, odsyłając do pewnych wspomnień i wydarzeń.

Czytaj więcej

Michał Szułdrzyński: Wybory w Izraelu a sprawa polska

W połowie sierpnia jechałem samochodem przez Warmię i Mazury. Za oknami przesuwały się pejzaże jezior, lasów i wielkich pól uprawnych – w Małopolsce, gdzie się wychowałem, nie było takich. W głowie zaś kołatało mi pytanie o to, czy sztuczna inteligencja może stać się podmiotem moralnym. Nie, to nie żadne dziwactwo, po prostu wcześniej słuchałem mego ulubionego podcastu naukowego Babbage przygotowanego przez redakcję „The Economist”. Kenneth Cukier relacjonował spory wokół wydarzenia, o którym pisaliśmy na łamach „Plusa Minusa” kilkukrotnie. Chodzi o twierdzenie Blake’a Lemoine’a, byłego już inżyniera Google’a, że czatbot, którego testował, stał się samoświadomy. Cukier, podobnie jak kilka tygodni temu Bartosz Paszcza w „Plusie Minusie”, tłumaczył, że było to złudzenie wynikające z faktu, że czatbot był modelem fundamentalnym, algorytm operował na miliardach danych naszego języka, wiedział więc, jakiej odpowiedzi oczekuje od niego pytający. I nie tyle miał świadomość, co odpowiadał na pytania tak, by rozmawiający z nim człowiek nabrał przekonania, że ją posiada. Działała tu wyłącznie i aż zaawansowana statystyka, algorytm sam nie tyle rozumie znaczenie słów, co wie, że występują w pewnym porządku, w pewnej kolejności, pasują więc do pewnych sytuacji.

 Być może nie jestem aż tak wrażliwy, bo wiele wspomnień, obrazów łączy się w mej głowie z pewnymi myślami czy konceptami. Od kilku dni nie mogę się na przykład uwolnić od pewnego zestawu pojęć i obrazów, które połączyły się w jeden związek, odsyłając do pewnych wspomnień i wydarzeń.

Cukier postawił jednak tezę – w oparciu o rozmowy z ekspertami – że to wcale jednak nie oznacza, że za jakiś czas (jeden z naukowców w podcaście mówił o około 20 latach) powstanie układ, który nabierze cech samoświadomości. Nie będzie mówił tak, jakbyśmy oczekiwali od samoświadomej istoty, ale rzeczywiście będzie posiadał coś w rodzaju metawiedzy – nie tylko będzie przetwarzał pewne procesy, ale będzie wiedział, że to robi. Będzie nie tylko działać, ale też wiedzieć, że działa.

Tu zaś pojawiło się zupełnie jak w filmie „Incepcja” wspomnienie we wspomnieniu. Bowiem przypomniały mi się zajęcia na Uniwersytecie Jagiellońskim sprzed dwóch dekad, na których debatowaliśmy na temat filozoficznych dylematów, które pojawiają się w naukach biologicznych. Przypomniałem sobie jedno upalne popołudnie, gdy omawialiśmy koncepcję, która rozciągała odpowiedzialność moralną na wszystkie istoty zdolne do odczuwania bólu. Założenie było następujące: człowiek jako podmiot moralny ma zobowiązania moralne nie tylko wobec innych podmiotów moralnych, ale również wobec świata przyrody. Na przykład bezmyślne zadawanie cierpienia jest czymś nieetycznym. To akurat nie jest coś zdumiewającego, ponieważ zgodne jest z intuicją moralną bardzo wielu osób. A czy jeśli już kiedyś powstanie samoświadoma sztuczna inteligencja, to stanie się podmiotem moralnym? Czy będzie rozróżniać dobro i zło? A nawet jeśli nie stanie się podmiotem, to może stać się przedmiotem moralnym. Czy samoświadoma sztuczna inteligencja będzie wytwarzała w nas jakieś zobowiązania moralne? Czy będziemy musieli zaktualizować nasze pojęcia i język, którym posługujemy się w sferze aksjologii? Dla przykładu, czy unicestwienie, skasowanie samoświadomej inteligencji będzie niemoralne, tak jak bezmyślne zabicie zwierzęcia? Czy będzie się ona bać tego tak samo, jak zwierzę boi się śmierci?

Czytaj więcej

Michał Szułdrzyński: Prawdziwa cena dezinformacji

Czy wreszcie sztuczna inteligencja będzie miała wspomnienia? A wspomnienia we wspomnieniach? I mazurskie krajobrazy będą ją skłaniać do refleksji nad wyzwaniami aksjologicznymi?

Osoby szczególnie wrażliwe łączą różne doznania zmysłowe. Jak Marcel Proust, który zwracał uwagę na powiązanie wspomnień i zapachów. Wspomnienie zapachu wywoływało całą lawinę skojarzeń i wyciągało z zakamarków pamięci obrazy i inne doznania. Być może nie jestem aż tak wrażliwy, bo wiele wspomnień, obrazów łączy się w mej głowie z pewnymi myślami czy konceptami. Od kilku dni nie mogę się na przykład uwolnić od pewnego zestawu pojęć i obrazów, które połączyły się w jeden związek, odsyłając do pewnych wspomnień i wydarzeń.

Pozostało 87% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi