Zapowiedź Microsoft, który chce wesprzeć klientów pozwanych za naruszenie praw autorskich do cudzych utworów, to odpowiedź na galopujący rozwój AI.
Zastosowanie AI wiąże się z prawną niepewnością
Jak zauważa dr Gabriela Bar, radczyni prawna z Kancelarii Szostek_Bar i Partnerzy, samo rozwiązanie nowe nie jest. Zmienia się jednak jego kontekst, bo zastosowanie AI wiąże się z prawną niepewnością. Jak wyglądało będzie to w praktyce – czas pokaże, ale specjalistka przewiduje, że zależy to od konkretnych postanowień zawartych w umowach oferowanych przez Microsoft jego klientom. - Niemniej inicjatywa ta jest ważna, bo w przypadku generatywnej AI nie ma jednoznacznych odpowiedzi, co do praw autorskich i ich naruszeń – zauważa. Podkreśla przy tym, że „sami twórcy takich narzędzi AI nie wiedzą, w jaki sposób dochodzi do wytworzenia konkretnego wyniku”, a one same – działające w oparciu o głębokie sieci neuronowe – stanowią swoiste „czarne skrzynki”.
To nie pierwsze w tej sferze działania technologicznych gigantów, którzy pracują m.in. na odznaczeniami w postaci „znaków wodnych”, mających odróżnić wytwory AI od tego, co wyszło spod ręki człowieka. - W kontekście odpowiedzialności, większe znaczenie mają jednak oznaczenia zakazujące korzystania z materiałów chronionych na potrzeby uczenia systemów generatywnej AI – dodaje radczyni prawna. I ocenia, że jako użytkownicy nie jesteśmy w stanie ocenić, jakie dane AI przetworzyła w celu wygenerowania konkretnego wyniku i czy posłużyła się przy tym takimi, z których skorzystać mogła zgodnie z prawem.
Ekspertka wskazuje, że zapowiedź Microsoftu jest jak najbardziej możliwa do wdrożenia w polskim systemie prawnym. - Z pewnością w każdym konkretnym przypadku doprecyzowania będzie wymagała kwestia, czy to zwolnienie dotyczyć będzie także dalszych użytkowników, np. innych podmiotów z grupy kapitałowej lub użytkowników końcowych – tłumaczy Gabriela Bar. Zastrzega przy tym, że zwolnienie użytkownika z odpowiedzialności uzależnione jest od korzystania przez niego z filtrów, stworzonych celem ograniczenia ryzyka naruszenia praw autorskich. - Jeśli użytkownik je wyłączy, ochrona nie będzie mu przysługiwała - wyjaśnia ekspertka z zakresie prawa nowych technologii. I dodaje, że to samo tyczy się klienta, który celowo spróbuje wygenerować treści naruszające prawo lub wykorzystać materiały, do których prawa autorskie albo licencje mu nie przysługują.
Czytaj więcej
Systemy oparte na sztucznej inteligencji (dalej: „SI”) coraz częściej stają się częścią różnych sfer naszego życia. Jest oczywiste, że powinny być bezpieczne i godne zaufania. Zdarzają się jednak sytuacje, gdy systemy te zawodzą, a to może skutkować wyrządzeniem szkody. W takich przypadkach ustalenie osoby odpowiedzialnej za szkodę może okazać się trudne albo wręcz niemożliwe, np. w sytuacjach ataków hackerskich. Kwestię określenia takiej osoby znacząco utrudnia również autonomiczny charakter funkcjonowania systemów SI.