Piotr Andrzejewski: Okiełznać rynek sztucznej inteligencji

Organy ochrony konkurencji sprawdzają zagrożenia wynikające m.in. z tego, że tylko największe firmy mają zasoby do rozwijania nowych narzędzi AI – mówi Piotr Andrzejewski, radca prawny z kancelarii SMM Legal w rozmowie z Szymonem Cydzikiem.

Publikacja: 20.03.2024 02:00

Piotr Andrzejewski: Okiełznać rynek sztucznej inteligencji

Foto: Adobe Stock

Jakie jest podejście europejskich odpowiedników Urzędu Ochrony Konkurencji i Konsumentów do narzędzi sztucznej inteligencji?

Rozwiązania technologiczne wykorzystujące sztuczną inteligencję są gorącym tematem w debacie publicznej. Działalność przedsiębiorców w tym obszarze jest bardzo zintensyfikowana. Mamy więc do czynienia z niezwykle dynamicznym, nowym obszarem życia gospodarczego. Organy ochrony konkurencji (organy) dostrzegają potencjalne znaczenie technologii wykorzystujących AI jako źródło przewagi konkurencyjnej oraz ryzyko ich relacji z konsumentami. Z tego powodu prowadzą badania rynków powiązanych z rozwojem i wykorzystywaniem sztucznej inteligencji. Sprawdzają przede wszystkim zasady działania rozwiązań technologicznych wykorzystujących AI, obszary działalności, jakie są związane z tworzeniem i stosowaniem takich rozwiązań, i bariery dostępu na poszczególnych szczeblach tej działalności. Organy analizują też przewagi, jakie pozwala uzyskać AI, a przez to, w jaki sposób oddziałuje na inne rynki i jakie szkody dla konkurencji mogą powstać.

Czytaj więcej

Michał Kruk: AI i patenty. Konsekwencje na przyszłość

Co się udało osiągnąć w krajach UE?

Kilka europejskich organów ochrony konkurencji przedstawiło już wyniki wstępnych badań rynków związanych z AI. Największy dorobek ma brytyjski CMA, który opublikował już obszerny raport o rynkach związanych z AI. Wynik z przeprowadzonych analiz opublikował też już portugalski regulator, a podobne badania rozpoczęto w tym roku na Węgrzech. Także Komisja Europejska poinformowała o wszczęciu swojej analizy i skierowaniu zapytań do najważniejszych uczestników rynku. Widać więc, że AI budzi spore zainteresowanie organów ochrony konkurencji. Ta praca analityczna jest bardzo ważna, ponieważ przyczyni się do wyjaśnienia, jak działają rynki związane z AI i jak organy powinny oceniać zachowania przedsiębiorców działających na nich. Organy ochrony konkurencji nie chcą pozostać w tyle za zmieniającą się rzeczywistością gospodarczą. Celem jest ochrona skutecznej konkurencji w rozwoju i dostępie do rozwiązań AI.

Czego dotyczy postępowanie prowadzone w Wielkiej Brytanii?

Kwestii kontroli koncentracji, a konkretnie tego, że Microsoft zainwestował poważne środki w OpenAI – jednego z głównych graczy na rynku. CMA (podobnie zresztą jak Komisja Europejska) badają, czy inwestycja ta powinna podlegać zgłoszeniu w systemie kontroli koncentracji. Sprawa jest bardzo ciekawa ze względu na złożoność tej transakcji oraz samego OpenAI. Dla organów istotne będzie, czy doszło do przejęcia przez Microsoft kontroli nad OpenAI. Ta inwestycja dała Microsoftowi wyłączność na świadczenie najważniejszych usług, ale też udział w części zysków OpenAI. Rola Microsoftu w OpenAI budzi dodatkowe emocje ze względu na kontrowersje związane z odwołaniem i ponownym powołaniem szefa OpenAI. Organy badają, na czym dokładnie polegają uzgodnienia wynikające z inwestycji, by ustalić, czy Microsoft zyskał możliwość efektywnego wpływania na OpenAI. Jeśli dojdą do wniosku, że transakcja powinna podlegać zgłoszeniu, Microsoft zmierzy się z ryzykiem sankcji za naruszenie zakazu gun jumpingu, czyli dokonania koncentracji przed uzyskaniem zgody. Ta sprawa ciekawie wpisuje się w szerszą dyskusję o uszczelnieniu reżimu kontroli koncentracji przez Komisję Europejską i TSUE w ostatnich latach.

Na czym on polega?

Organy europejskie domykają ten reżim, rozszerzając zastosowanie istniejących instytucji do kontroli koncentracji, dostosowując swoje wytyczne do aktualnych realiów gospodarczych, a nawet stosując niestandardowe mechanizmy, jak następcza ocena dokonanych koncentracji przez pryzmat nadużywania pozycji dominującej. Te okoliczności muszą być uwzględniane jako ryzyko przez przedsiębiorców dokonujących transakcji na rynkach związanych z AI. Chodzi o sytuacje, które nie wymagają zgłoszenia zamiaru koncentracji, w szczególności gdy przejmowany nie osiąga dostatecznie dużych obrotów, ale może spowodować negatywny skutek dla konkurencji na rynku, np. przez odcięcie klientom dostępu do pewnych rozwijanych przez niego usług. TSUE w głośnym wyroku Tower Cast otworzył furtkę dla organów krajowych do kontrolowania takich transakcji po ich przeprowadzeniu.

Z drugiej strony wzmacnianie reżimu kontroli koncentracji odbywa się na poziomie interpretacji i wytycznych publikowanych przez Komisję Europejską. Nie tak dawno KE rozszerzyła w drodze interpretacji przepisów swoje kompetencje do kontrolowania transakcji, które formalnie nie mieszczą się w obowiązku zgłoszeniowym. Doprowadziło to do nałożenia wysokich kar oraz obowiązku rozwiązania koncentracji w głośnej sprawie Illumina/Grail.

A jakie znaczenie mają tu wytyczne Komisji Europejskiej?

Po ponad dwudziestu latach KE znowelizowała swoje wytyczne, jak należy wyznaczać rynki właściwe dla przedsiębiorcy i oceniać skutki koncentracji. Dawniej skupiano się na tradycyjnych aspektach, np. konkurowaniu ceną. Tego nie dało się zastosować do wielu usług cyfrowych, które oferowane są odbiorcom za darmo, a konkurencja między przedsiębiorcami ma takie aspekty jak np. jakość czy poszanowanie prywatności. Paradygmat ochrony konkurencji się zmienia, stąd tak gorąca dyskusja o sztucznej inteligencji i potrzeba bliższej analizy rynków z nią związanych.

Szczególne ryzyko, dostrzegane przez organy w publikowanych badaniach dotyczących AI, wynika z tego, że posiadanie takiego narzędzia pozwala na budowanie barier w dostępie do niego konkurentów. Wykorzystując pozycję na rynku zdominowanym, można „przelać” przewagę na rozwijające się rynki, takie właśnie jak AI, pogłębiając zagrożenia dla skutecznej konkurencji. Organy ochrony konkurencji dostrzegają te ryzyka w publikowanych raportach.

Czego dotyczy postępowanie węgierskie?

Chodzi m.in. o analizę zagrożeń wynikających z korzystania z AI przez przedsiębiorców. Organ bada szkody, jakie mogą powstać przy wykorzystywaniu danych klientów. Dostrzeżono na przykład ryzyko wychwytywania w nich pewnych wzorców przy użyciu sztucznej inteligencji, a potem wykorzystywania tej wiedzy przy projektowaniu interfejsów swoich usług (tzw. dark patterns). W aspekcie ochrony konkurencji organ sprawdza zaś, jakie zagrożenie niesie to, że tylko największe firmy mają dostęp do skutecznych zasobów dla rozwijania nowych narzędzi oraz czy może prowadzić do zaburzenia konkurencji na rynkach cyfrowych w przyszłości.

Wspominał pan też o zakończonym badaniu portugalskim?

Tak, wydano w tej sprawie raport podsumowujący spostrzeżenia co do parametrów konkurencji w sektorze generatywnej AI. Chodzi tu o narzędzia najbardziej znane konsumentom, takie jak DALL-E. Zbadano przede wszystkim, jakie są najważniejsze czynniki wpływające na konkurencję w tym sektorze. Zwrócono uwagę, że może on zostać łatwo zmonopolizowany przez największych graczy zasiedziałych na rynkach cyfrowych. Technologia ta wymaga bowiem dużych ilości danych i mocy obliczeniowych, dlatego ważny jest tu efekt skali. Sektor ten szybko się rozwija i będzie miał coraz większe znaczenie dla gospodarki. Dlatego też takie badania są bardzo przydatne i pozwalają organowi określić obszary, które powinien objąć szczególnym zainteresowaniem w postępowaniach antymonopolowych.

A jak do AI podchodzi polski UOKiK? Prowadził podobne badania lub można się ich spodziewać w najbliższym czasie?

UOKiK zajmował się wykorzystaniem AI w relacji z konsumentami. Chodziło o czatboty, wykorzystywane w procedurze reklamacyjnej. Urząd badał, jak należy oceniać stosowanie takiego rozwiązania. Wnioski są bardzo konserwatywne – przyjęto, że przedsiębiorca może się posługiwać takimi narzędziami, ale ponosi pełną odpowiedzialność za skutki ich działania. Narzędzia sztucznej inteligencji nie są jednak obce UOKiK, już jakiś czas temu rozpoczął wdrażanie własnych narzędzi mających wspomóc prace organu, na przykład przy analizie klauzul umownych pod kątem abuzywności. O takich badaniach jak na Węgrzech czy w Portugalii jednak nie słyszałem. Myślę, że UOKiK będzie obserwował efekty działań Komisji Europejskiej jako organu mającego większe zasoby do przeprowadzenia kompleksowego badania rynku.

Czy Akt o sztucznej inteligencji – zatwierdzony w ubiegłym tygodniu przez Parlament Europejski – jakoś ułatwi działanie organom ochrony konkurencji na tym rynku?

W obecnym kształcie AI Act skupia się na tym, kto odpowiada za narzędzia związane ze sztuczną inteligencją i jakich zasad należy przestrzegać, gdy się je stosuje w swojej działalności gospodarczej. Przepisy te nie przyznają jednak nowych kompetencji organom ochrony konkurencji. To raczej element porządkowania tej konkretnej przestrzeni gospodarczej. Myślę jednak, że dodatkowe narzędzia dla organów nie są obecnie potrzebne. Prawo ochrony konkurencji jest dostatecznie elastyczne, a jego organy muszą po prostu zastanowić się, jak wykorzystywać możliwości, które już mają. Dostarczają już dowodów na swoją kreatywność w tej kwestii, czego przykładem są przytoczone wcześniej sprawy Towercast lub Illumina/Grail.

Jakie jest podejście europejskich odpowiedników Urzędu Ochrony Konkurencji i Konsumentów do narzędzi sztucznej inteligencji?

Rozwiązania technologiczne wykorzystujące sztuczną inteligencję są gorącym tematem w debacie publicznej. Działalność przedsiębiorców w tym obszarze jest bardzo zintensyfikowana. Mamy więc do czynienia z niezwykle dynamicznym, nowym obszarem życia gospodarczego. Organy ochrony konkurencji (organy) dostrzegają potencjalne znaczenie technologii wykorzystujących AI jako źródło przewagi konkurencyjnej oraz ryzyko ich relacji z konsumentami. Z tego powodu prowadzą badania rynków powiązanych z rozwojem i wykorzystywaniem sztucznej inteligencji. Sprawdzają przede wszystkim zasady działania rozwiązań technologicznych wykorzystujących AI, obszary działalności, jakie są związane z tworzeniem i stosowaniem takich rozwiązań, i bariery dostępu na poszczególnych szczeblach tej działalności. Organy analizują też przewagi, jakie pozwala uzyskać AI, a przez to, w jaki sposób oddziałuje na inne rynki i jakie szkody dla konkurencji mogą powstać.

Pozostało 89% artykułu
Rzecz o prawie
Ewa Szadkowska: Ta okropna radcowska cisza
Rzecz o prawie
Maciej Gutowski, Piotr Kardas: Neosędziowski węzeł gordyjski
Rzecz o prawie
Jacek Dubois: Wstyd mi
Rzecz o prawie
Robert Damski: Komorniku, radź sobie sam
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Rzecz o prawie
Mikołaj Małecki: Zabójstwo drogowe gorsze od ludobójstwa?