Sztuczna inteligencja znajduje szerokie zastosowanie w tworzeniu programów komputerowych. Dzięki zaawansowanym modelom uczenia maszynowego, możliwe jest analizowanie znaczących ilości danych, wzorców i problemów. Wiele z tych modeli bazuje zarówno na najlepszych praktykach programistycznych, jak i powszechnie dostępnych źródłach, jak GitHub. To umożliwia generowanie efektywnego oraz zoptymalizowanego kodu źródłowego, testowanie i usuwanie błędów oprogramowania, tworzenie interfejsów użytkownika, a także inteligentne zarządzanie bazami danych. Od wielu lat rynek usług informatycznych cierpi na niedobór doświadczonych pracowników, dlatego produkcja aplikacji jest droga i czasochłonna. Wprowadzanie rozwiązań opartych o sztuczną inteligencję sprawia, że proces programowania staje się bardziej efektywny. Popularyzacja modeli generatywnych najpewniej zmniejszy zapotrzebowanie na usługi mniej doświadczonego personelu, nie tylko w obszarze oprogramowania, ale i w innych branżach podatnych na automatyzację. Przyspieszy to znacząco rozwój nowych narzędzi informatycznych i obniży koszty realizacji projektów, czasem - niestety - kosztem człowieka. Ot, znak naszych - cyfrowych - czasów. Naszą rolą powinno być jednak rozsądne, sprawiedliwe i uczciwe korzystanie z możliwości jakie daje sztuczna inteligencja.
Wytwór AI potencjalnie może naruszać prawa autorskie twórców
Optymalizacja kosztów produkcji oprogramowania w oparciu o zastosowanie w przedsiębiorstwie sztucznej inteligencji jest bardzo kusząca, jednak trzeba mieć świadomość ryzyk prawnych, wynikających z wykorzystania tej wymykającej się ze znanych nam ram prawnych technologii. Jak dotąd uwaga wielu ekspertów skupia się na zjawisku „karmienia” baz służących do trenowania algorytmów różnego rodzaju danymi wrażliwymi lub na kwestiach etycznych, jednak równie istotne problemy pojawiają się w kontekście własności intelektualnej. Te zagadnienia nie tylko nie są ignorowane przez znaczących dostawców technologii, ale wręcz aktywnie „rozstrzygane”, np. poprzez tworzenie programów wsparcia dla użytkowników rozwiązań opartych o generatywną sztuczną inteligencję w przypadku sporu z zakresu praw własności intelektualnej.
Zgodnie z prawem autorskim, programy komputerowe na ogół podlegają takiej samej ochronie jak inne utwory. Modele generatywne, by uczyć się i rozwijać, faszerowane są niezliczonymi ilościami utworów - najczęściej wciąż chronionych, a więc każdy wytwór AI potencjalnie może (choć to otwarta kwestia) naruszać prawa autorskie twórców dzieł, które stanowiły materiał treningowy dla algorytmu - prawnicy nie są na razie w tej kwestii zgodni. W przypadku wygenerowania nowej treści powstaje ryzyko, że właściciel praw autorskich, dowiedziawszy się o wykorzystaniu części należącego do niego oprogramowania, zwróci się przeciwko naruszającemu z roszczeniem. Co prawda niektórzy dostawcy rozwiązań z zakresu AI niedawno wprowadzili do swoich regulaminów świadczenia usług postanowienia o przejęciu odpowiedzialności za potencjalne naruszenia praw stron trzecich, jednak dokumenty te przewidują liczne wyłączenia.
Czytaj więcej:
Wady prawne mogą pozostać niewykryte przez lata
W obrocie powszechnie występują licencje otwarte („open source”). Na ich podstawie wolno bezpłatnie wykorzystywać software do dowolnych celów, choć często z zastrzeżeniem pewnych warunków wskazanych w umowie. Jednym ze szczególnych typów takich licencji są tzw. licencje wirusowe, inaczej zwane „copyleft”, takie jak GNU GPL. Jeżeli jakieś rozwiązanie choć w części oparte jest o oprogramowanie udostępnione na podstawie licencji wirusowej, to wykorzystujący to oprogramowanie na mocy tejże licencji zobowiązuje się do licencjonowania innym nowopowstałego programu na tych samych warunkach, pomimo tego, że „copyleft” może stanowić zaledwie promil całości kodu. W realiach biznesowych kod źródłowy przeważnie jest pieczołowicie strzeżoną tajemnicą i know-how przedsiębiorstwa, dlatego jego upublicznienie to niejednokrotnie katastrofa, mogąca mieć skutki zarówno w sferze finansowej, jak i bezpieczeństwa, jeżeli kod trafi w niepowołane ręce. W niektórych przypadkach, np. w regulowanym sektorze instytucji finansowych, wykorzystanie oprogramowania „copyleft” jest szczególnie problematyczne. Użycie modeli generatywnych, które były trenowane m.in. na oprogramowaniu dostępnym na podstawie licencji wirusowej, niesie ryzyko „zarażenia” całego produktu końcowego.