Meta podpisała się pod listem otwartym wskazującym, że duża niejasność w kwestiach regulacyjnych szkodzi badaniom nad sztuczną inteligencją w Unii Europejskiej. Tymczasem Unia wdrożyła niedawno tzw. AI Act, pierwsze kompleksowe przepisy w tym obszarze. Dlaczego nie są one dla was wystarczające?
AI Act zawiera wiele istotnych treści i nie kontestujemy całości tych przepisów. Jednak jeśli chodzi o wykorzystywanie danych do trenowania naszych modeli sztucznej inteligencji, to nie ma wystarczającej jasności regulacyjnej w tej kwestii w obecnie obowiązujących przepisach. Oczekujemy, że ta klarowność pojawi się w trakcie wdrażania przepisów. Jednak ich wdrażanie może zająć dużo czasu, modele są trenowane, a my nie mamy jasnych wytycznych dotyczących tego, co możemy, a czego nie możemy robić w kontekście trenowania tych modeli.
Dlatego będziemy przestrzegać przepisów AI Act i innych regulacji, ale docenilibyśmy znacznie większą ich klarowność, która ma teraz realne znaczenie. Mamy modele, takie jak Meta AI, które są już wdrażane na przykład w inteligentnych okularach w całej Ameryce Północnej, ale nie są dostępne tutaj, w Europie.
Również Llama 3.1, czyli wasz najnowszy model AI, nie jest obecnie dostępny w UE…
Nasze modele bazowe text-to-text, w tym Llama 3.1, zostały udostępnione globalnie jako open source. Natomiast multimodalny model Llama, który będzie miał premierę wkrótce, nie będzie dostępny w UE ze względu na nieprzewidywalną naturę europejskiego środowiska regulacyjnego. A przecież wiele z ważnej pracy nad tym modelem wykonane zostało przez nasz zespół w Paryżu. Szkoda, że użytkownicy w Europie nie mogą z niego korzystać.