Plus Minus: Jesteśmy świadkami bezprecedensowego rozwoju technologii AI. Dla jednych takie zaawansowane algorytmy to niespotykana dotąd szansa cywilizacyjnego rozwoju, dla innych śmiertelne zagrożenie. Czy porównywanie generatywnej sztucznej inteligencji do bomby atomowej nie jest przesadne?
Wiem, do czego odnosi się to pytanie – do listu otwartego Center for AI Safety, który sygnowałem. Ale w nim zawarte jest porównanie AI do wojny atomowej, a nie bomby. Autorom listu chodziło w tym odniesieniu o oczywiste ryzyko wyginięcia ludzkości spowodowane wybuchem wojny atomowej. Zaryzykuję jednak stwierdzenie, że porównanie AI do broni jądrowej nie jest przesadzone, jak twierdzą niektórzy, choć nie oddaje prawdziwej istoty zagrożenia. Broń jądrowa niesie z sobą ogromne ryzyko, ale z racji tego, że posiada ją ograniczona, w sumie niewielka liczba państw, jest ono mniejsze, niż gdyby każde państwo miało do niej dostęp. Ryzyko więc jest duże, ale w jakiś sposób jednak kontrolowane, nie tylko przez reżimy nieproliferacji, ale też psychologiczne uwarunkowania decyzji politycznych. Wydaje się, że dzisiaj bardziej się boimy wydostania się broni jądrowej spod kontroli państw i wpadnięcia jej w ręce terrorystów niż jej użycia przez któreś z mocarstw dysponujących takim arsenałem.
W przypadku AI chodzi po prostu o poddanie jej kontroli tak, by można było ryzykiem związanym z jej rozwojem w podobny sposób zarządzać.
Czytaj więcej
Równo 20 lat temu na szczycie w Salonikach przywódcy Unii Europejskiej obiecali, że miejsce Bałkanów Zachodnich jest we Wspólnocie. Dziś po raz pierwszy na poważnie myślą o wywiązaniu się z tej obietnicy.
Pod sygnowanym przez pana oświadczeniem podpisało się kilkudziesięciu najbardziej znanych w branży naukowców, menedżerów firm technologicznych i filozofów, ostrzegając, że sztuczna inteligencja to „ryzyko egzystencjalne” i porównując ją m.in. do pandemii. Podziela pan te obawy?