Amerykański dziennik The New York Times (NYT) złożył pozew o naruszenie praw autorskich przeciwko Microsoftowi oraz firmie OpenAI. Za sprawą tej drugiej w ostatnich latach ogromny rozgłos zyskały oprogramowania wykorzystujące sztuczną inteligencję, ze stworzonymi przez nią aplikacjami ChatGPT oraz DALL-E na czele. Okazuje się, że mogą one dopuszczać się praktyk, naruszających prawa nie tylko amerykańskiego dziennika, ale także wielu innych serwisów informacyjnych oraz autorów tekstów.
Krecia robota sztucznej inteligencji
W pozwie, wniesionym we wtorek 27.12.2023 do sądu federalnego w Manhattanie, organizacjom stawiane są zarzuty szczególnego skupiania algorytmów sztucznej inteligencji na tekstach publikowanych na łamach NYT. Materiały te, w których przygotowanie angażowany jest zespół dziennika oraz poświęcane są nakłady finansowe, są potem wykorzystywane przez sztuczną inteligencję do preparowania nowych tekstów nieodpłatnie i bez zgody osób uprawnionych – a więc dziennika i autorów. Ma stanowić to zagrożenie dla NYT – algorytmy, naśladując jakościowe teksty publikowane przez dziennik, łamią bowiem monopol na ich własny przekaz prasowy. Nie jest to pierwszy tego typu pozew, zarzucający sztucznej inteligencji łamanie praw autorskich i krecią robotę, wymierzoną w ludzi pióra. Jak taki pozew mógłby wyglądać na gruncie polskiego prawa?
Czytaj więcej:
– Sytuacja jest o tyle skomplikowana, że Polska nie implementowała unijnej dyrektywy DSM, dotyczącej prawa autorskiego na jednolitym rynku cyfrowym, mimo że termin na to minął 2,5 roku temu. – komentuje dr Michał Markiewicz, ekspert z dziedziny prawa autorskiego. – Dyrektywa ta zezwala na tzw. „text and data mining”, a więc eksplorowanie dostępnych w Internecie zasobów, bez zgody osoby upoważnionej z tytułu praw autorskich. Jest to ważne dla twórców sztucznej inteligencji, gdyż algorytm „uczy się” za jego pomocą. Dyrektywa zapewnia jednak, w przypadku korzystania z treści w sposób komercyjny, tzw. model „opt-out”. Oznacza to, że podmioty praw mogą wyłączyć dopuszczalność eksploracji ich treści poprzez stosowną adnotację bezpośrednio w treści strony lub w jej kodzie.
Polskie prawo bardziej stanowcze wobec AI
– Na gruncie naszej obecnej ustawy istnieją wątpliwości czy wspomniane wyżej działania, zmierzające do „uczenia” sztucznej inteligencji, byłyby legalne. Część doktryny wskazuje, że usprawiedliwienia dla nich szukać można w przepisie zezwalającym na tymczasowe zwielokrotnianie utworu. – mówi dr Markiewicz. – Uważam to stanowisko za kontrowersyjne i opowiadam się za brakiem aktualnie podstawy zezwalającej na tego typu działania. W moim przekonaniu trudno argumentować, że takie zwielokrotnienie nie ma samodzielnego znaczenia gospodarczego – skoro pozwala ono algorytmowi na pozyskanie informacji niezbędnych do „nauki”. Trzeba jednak zaznaczyć, że istnieją orzeczenia, które mogłyby być podstawą dla przeciwnego stanowiska. Nawet gdyby uznać te działania za objęte przepisem o tymczasowym zwielokrotnieniu, dodatkowo należałoby przeanalizować, czy nie naruszają one słusznych interesów twórców (art. 35 pr. aut.). Powstaje bowiem wątpliwość, czy algorytmy mogą bez naruszenia tych interesów w sposób nieograniczony „uczyć się” np. na materiałach prasowych publikowanych w Internecie, po to, aby w przyszłości zastąpić ludzi co najmniej w części działalności dziennikarskiej. Tym samym, w mojej ocenie, polskie prawo daje osobom uprawnionym podstawy do sprzeciwu na wykorzystywanie treści dla potrzeb „uczenia” AI, choćby poprzez złożenie pozwu, jak uczynił to The New York Times.