Sztuczna inteligencja wkracza we wszystkie dziedziny życia. Firmy prześcigają się, by pochwalić się wdrażaniem jej w życie. Jednak czy taki pośpiech na pewno jest dobry?

Michał Plechawski: Jest na nią niewątpliwy hype. Czujemy go, ale podchodzimy do tematu ostrożnie. Mamy obecnie program, w którym zajmujemy się generatywną sztuczną inteligencją i kilka uruchomionych podprojektów w ramach tego programu. Jednak nie wychodzimy z tym od razu na zewnątrz. Te projekty tworzymy najpierw dla tak zwanego klienta wewnętrznego, czyli mówiąc krótko, pracowników banku.

Wiadomo, że nie można ignorować sztucznej inteligencji jako technologii i ona na pewno będzie miała spory wpływ na nas wszystkich oraz na usługi oferowane w sposób cyfrowy. Natomiast musimy pamiętać, że to jest zupełnie nowa technologia. Ma swoje pułapki, np. zdarza się, że tworzy „halucynacje”. Musimy się najpierw naprawdę nauczyć jej stosować i nabrać w tym biegłości. W banku nie możemy sobie pozwolić na błędy, które dzisiaj pojawiają się gdy wykorzystywana jest generatywna sztuczna inteligencja (GenAI). Wiarygodność i dobra reputacja są kluczowe w naszym biznesie.

Piotr Gawrysiak: Wiele instytucji z wielką pompą wdrożyło generatywną sztuczną inteligencję na rynku i się tym chwalą. Nie jest to trudne, gdyż można wziąć generyczne rozwiązania od dostawcy zewnętrznego lub choćby narzędzia, które obecnie stosujemy wewnętrznie i po prostu je udostępnić klientom. Tyle tylko, że wcale nie spowoduje to wzrostu satysfakcji klienta. Z generycznym chatbotem wykorzystującym GenAI z pewnością „rozmawia się” w sposób bardziej naturalny, ale niekoniecznie będzie on równie efektywny w rozwiązaniu problemów klienta co pracownik banku, którego miałby zastąpić. Takie podejście, którego celem jest głównie reklama nie wydaje nam się właściwe. W naszych dotychczasowych wdrożeniach systemów AI (czy też mówiąc bardziej tradycyjnie systemów uczenia maszynowego) zawsze staraliśmy się na pierwszym miejscu stawiać korzyść klienta banku. Przykładem może być choćby nasz asystent płatności – jeden z pierwszych na rynku polskim systemów wykorzystujących AI, który wdrożyliśmy już prawie 10 lat temu aby pomóc klientom pamiętać o cyklicznych płatnościach. Ten system ułatwia im życie, więc – mamy nadzieję – ich satysfakcja z kontaktów z bankiem rośnie i chętniej korzystają z innych naszych usług i produktów. Pomagając klientom pomagamy zatem też sobie. To znacznie ważniejsze niż optymalizacja kosztów i jest to filozofia stojąca u podstaw naszego podejścia także do GenAI.

Piotr Gawrysiak, Chief Data Scientist w mBanku

Piotr Gawrysiak, Chief Data Scientist w mBanku

Foto: Mat. Partnera

W jakich dziedzinach ta technologia przyda się najbardziej?

Michał Plechawski: Nie zdradzę żadnej tajemnicy, jeśli powiem, że sztuczna inteligencja może nam pomagać podczas kontaktów z klientami. Wysyłają oni do nas dokumenty, składają nam reklamacje, dzwonią itd. To jest cała masa informacji, którą można w jakiś sposób przetwarzać modelami językowymi właśnie po to, żeby tego klienta lepiej obsłużyć. Jest jednak jeszcze jeden, bardzo ciekawy aspekt, o którym rzadko się mówi. Trzeba pamiętać, że każde zapytanie kosztuje. Te ceny potrafią się bardzo zmieniać a różnice bywają kosmiczne. Gdy udostępniono model GPT 4, to oprócz tego, że był lepszy od modelu GPT 3, to po pierwsze był wolniejszy w działaniu, a po drugie – kosztował 20 razy więcej za token. To nie są małe kwoty. Gdy się policzy koszt pojedynczej interakcji z klientem to może być to nawet kilka złotych. Nie zawsze więc wykorzystanie takiego narzędzia ma uzasadnienie ekonomiczne.

Takie instytucje jak bank, które z punktu widzenia Open AI są konsumentem usług, muszą ten koszt jakoś zmieścić w swojej ekonomice produktów i usług. To jest bardzo ważny aspekt, o którym się w ogóle nie mówi, a myślę, że on będzie odgrywał ważną rolę w adaptacji tych rozwiązań. Nie wydaje mi się, by te koszty miałyby dramatycznie spaść. Oprócz mody, potrzeby zaspokojenia naszego i klientów głodu na innowacyjność, musimy pamiętać też o długoterminowym wpływie danego rozwiązania na nasze koszty.

Piotr Gawrysiak: Pewną pomocą mogą być mniejsze modele, dedykowane przetwarzaniu danych ograniczonych semantycznie. W pewnych obszarach potrafią one całkiem dobrze sobie radzić. Na przykład Microsoft ma, zupełnie niezależnie od rozwiązań oferowanych wspólnie z OpenAI, taką linię „miniaturowych” modeli i one są dość efektywne pod warunkiem, że zadajemy im pytania dotyczące tematów, na których zostały wytrenowane – zaś koszt ich działania jest nieporównanie mniejszy. Ich skuteczność demonstruje także wpływ jakości materiału trenującego na działanie modelu. Tu już jednak dotykamy kolejnej ważnej kwestii – praw autorskich oraz ograniczeń regulacyjnych, takich jak choćby AI Act Unii Europejskiej.

Michał Plechawski: Częściowo regulator ograniczy pole gry, jak to zwykle bywa. Jak pokazuje dotychczasowe doświadczenie część z tych ograniczeń będzie bardzo rozsądna i pożądana, a część to będzie „wypadek przy pracy”. Ostatecznie jednak, jak zwykle, wyklaruje się jakiś rozsądny kompromis w praktyce.

Co zatem będzie na końcu tej drogi? Czy już Panowie widzą kierunek, w którym ta technologia się będzie rozwijać?

Michał Plechawski: To jest bardzo trudne pytanie, bo trochę się tu bawimy w futurologię, a to dziedzina trudna i niewdzięczna. Żartobliwie mówiąc iż rzadko który futurolog posiada w swym CV same sukcesy. Ale spróbuję odpowiedzieć: wierzę, że w tej technologii jest prawdziwa „substancja” – odmiennie od np. technologii „blockchain” - i za kilka lat będzie w szerokim użyciu u nas w banku, nie tylko w zastosowaniach wewnętrznych, ale też we współpracy z klientami. To spowoduje, że zupełnie zmieni się sposób interakcji klienta z bankiem. Myślę, że będą to zmiany o podobnym znaczeniu jak te związane z wprowadzeniem przez nas aplikacji mobilnej. Wtedy bank zaczął być dostępny 24 godziny, siedem dni w tygodniu w kieszeni klienta. Teraz zmieni się także szybkość tej interakcji, i to jak szybko będziemy mogli dotrzeć do potrzebnych nam w danym momencie informacji. Nie będziemy musieli przedzierać się przez archiwalne konwersacje, pamiętać różnych informacji, AI zrobi to za nas. Tutaj potencjał jest naprawdę ogromny.

Piotr Gawrysiak: Warto dorzucić parę słów o tym, co to może zmienić wewnętrznie. W dyskursie o sztucznej inteligencji przewija się informacja, że za chwilę wszyscy stracimy pracę, gdyż sztuczna inteligencja nas zastąpi. Szczególnie tych, którzy wykonują prace stosunkowo mało skomplikowane, choć tu od razu muszę zaznaczyć, że akurat te prace dawno już zostały u nas w dużej części zautomatyzowane, między innymi metodami AI „poprzedniej generacji”. Zaryzykuję więc stwierdzenie, że raczej w banku nie musimy się bardzo bać o swoje posady. Myślę, że raczej wdrożenie GenAI spowoduje demokratyzację dostępu do metod analizy danych, które do tej pory wymagały specjalistycznej wiedzy z obszaru „data science” – teraz zaś zaczynają być szerzej dostępne. Przykładowo - analityk biznesowy dostaje zbiór informacji np. o zachowaniu rynku i musi stworzyć model, który dokona predykcji. Już teraz może posłużyć się w tym celu modelem LLM który wykona to zadanie w sposób właściwie automatyczny, bez potrzeby trenowania dedykowanych modeli uczenia maszynowego, wstępnej obróbki danych i podobnych czynności nie leżących w obszarze jego kompetencji. Dotyczy to bardzo szerokiego obszaru - zarówno ludzi którzy bezpośrednio wchodzą w kontakty z klientami i np. analizują skargi, czy też tych którzy pracują z danymi wewnętrznymi. Wszystkich, którzy do tej pory wymagali wsparcia dedykowanego zespołu data science. Oczywiście nie wydarzy się to od razu i nie dotyczyć będzie wszystkich analiz, raczej tych najprostszych – przynajmniej w początkowym okresie.

Pojawiają się pytania, co się stanie jeśli AI się pomyli...

Piotr Gawrysiak: Kwestia wspomnianych już „halucynacji” jest oczywiście istotna. Dla mnie osobiście zresztą samo słowo „halucynacja” nie wydaje się tu właściwe, gdyż sugeruje, że tam „po drugiej stronie” ktoś jest i tam naprawdę jest inteligencja porównywalna z ludzką. A tak nie jest. Być może właściwszym określeniem mogłoby być słowo „konfabulacja”?

Michał Plechawski: Warto też podkreślić , że na końcu i tak najważniejszy jest człowiek. Te modele będą, przywołanemu już analitykowi, dawać pewne „supermoce”, czyli konkretne narzędzia, których on w tej chwili nie ma. To są algorytmy trenowane na ogromnych zasobach ludzkiej wiedzy, które mimo to są w stanie się spektakularnie mylić. Oczywiście łapią coraz więcej kontekstu, dzięki „zassaniu” dużej ilości skompresowanych informacji, ale nadal potrzebują człowieka, który musi być świadomy, co robi i dlaczego to robi, który zweryfikuje kolejne kroki. Ja też nie wierzę więc w to, że AI zabierze ludzkości pracę, ale może mieć wpływ na konkretne zawody, np. z branż kreatywnych.

Czy sztuczna inteligencja może nam zagrozić?

Piotr Gawrysiak: Nikt nie wymyślił jeszcze sposobu na bezpośrednie podłączenie dużych modeli językowych do urządzeń które byłoby w stanie nam zagrozić – więc jak na razie nikt rozsądny ich w ten sposób nie integruje. Nie znaczy to jednak, że tych technologii nie można wykorzystać w sposób niecny. Dajmy przykład naszych adwersarzy zza wschodniej granicy. Różnego rodzaju wiadomości „fake news”, które do tej pory musiały być pracowicie pisane przez ludzi znających język polski, albo język angielski, po to, żeby były wiarygodne, teraz mogą być „wygładzone” albo nawet i w całości stworzone przez AI. Drugi przykład to reżimy, które chciałyby użyć tej technologii już nie do generowania treści, ale do, np. analizy zachowania swoich obywateli. Chociaż tu od razu nadmienię, że np. Chiny do tej pory zbudowały totalny system inwigilacji bez wykorzystywania generatywnej AI.

Michał Plechawski: Może dołożę scenariusz skrajny. Pojawia się ktoś, kto podłącza model LLM do guzika atomowego. No i wtedy konfabulacja AI mogłaby się skończyć fatalnie. Ale ufam, że nikt z posiadaczy guzika atomowego nie jest tak nierozsądny, żeby to zrobić. A wracając na ziemię, zagrożenie, które już się zaczyna pojawiać to tworzenie szeroko pojętych deep fake’ów. Zaczynają być dostępne modele, które bazując na próbce zaledwie kilkunastu sekund głosu są w stanie podłożyć go pod dowolny tekst. Z materiałem wideo jest na razie trochę trudniej, modele generują treść o wyraźnie gorszej jakości, ale nadal może być ona wystarczająca, by kogoś oszukać. To jest mechanizm, który automatycznie mocno degraduje zaufanie do środków elektronicznego przekazu.

Czy zatem AI może być dobrym narzędziem dla przestępców?

Michał Plechawski: Niestety tak. Swoją drogą, mBank od wielu lat prowadzi kampanie społeczne, w których uczy klientów, żeby nie dali się oszukać. Myślę jednak, że ostatecznie, w długim terminie ten problem da się rozwiązać. Choćby dlatego, że na końcu nie ma aż tak dużo instytucji, które mają wystarczająco duże zasoby, żeby w ogóle tworzyć takie modele. To muszą być firmy bardzo bogate. Naturalna koncentracja w tej branży ułatwi walkę z przestępcami.

Piotr Gawrysiak: Akurat walka z wyłudzeniami to jest ten obszar, gdzie sztuczną inteligencję w banku już teraz wykorzystujemy w bardzo intensywny sposób – oczywiście do tego by wykrywać tego rodzaju próby wpływania na naszych klientów. To jest swego rodzaju wyścig zbrojeń, my cały czas musimy modyfikować nasze metody, nasze systemy i przeciwdziałać temu, co robią przestępcy. A są to takie działania, że czasami aż się zastanawiamy, skąd oni mają na to zasoby.

A czy istnieją realne zagrożenia związane z fałszowaniem danych, z których korzysta AI?

Piotr Gawrysiak: Większość dużych modeli językowych LLM, z którymi mamy do czynienia teraz, uczona była w dużej mierze po prostu na zawartości Internetu, a jak wiadomo, tam – delikatnie rzecz ujmując - nie wszystko jest prawdziwe. Samo zwiększanie ilości danych służących do uczenia modeli niewiele może pomóc, dlatego też sądzę że coraz większe znaczenie będzie miało właściwe ich przygotowanie. Zauważmy że modele te używane są już teraz do generowania treści publikowanych w sieci, co prowadzić może do niebezpiecznego procesu uczenia się na materiale przez nie stworzonym. Zamiast tego sądzę, że na znaczeniu zyskiwać będzie korzystanie ze zbiorów przejrzanych i uporządkowanych danych – a może nawet należałoby powiedzieć „wiedzy” – ale to wymagać będzie sporych nakładów finansowych, choćby na pozyskiwanie materiałów wysokiej jakości – stąd zresztą umowy o wykorzystywanie treści jakie firmy tworzące narzędzia generatywnej AI zawierają z domami mediowymi i agencjami prasowymi.

To oczywiście uproszczenie, ale duże modele językowe możemy traktować jako metody kompresji wiedzy. Gdy dane wejściowe, uczące, zawierają nieprawdziwe informacje – to taka kompresja nie spowoduje, że te informacje zostaną poprawione. Pewnie warto w tym miejscu przywołać przykład Tay, jednego z pierwszych chatbotów Microsoftu jeszcze z 2016 roku, który musiał być szybko wyłączony, gdyż generował treści nie tylko obraźliwe, ale wręcz wulgarne. Jego zachowanie odzwierciedlało jednak bezpośrednio tekst wpisów użytkowników Internetu, które wykorzystano w procesie uczenia chatbota.

Materiał Promocyjny