Liczba przedsiębiorstw korzystających z chatbotów dynamicznie rośnie, zdecydowanie szybciej niż świadomość zarządów i pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi. Jak wynika z najnowszych badań Cyberhaven Labs, ilość danych wprowadzanych do narzędzi genAI (geratywna sztuczna inteligencja) przez pracowników gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie.
Czytaj więcej
Problem fake newsów musi być uregulowany. Nie liczyłbym na USA. To UE musi przycisnąć koncerny, by wzięły odpowiedzialność za szkody, które wyrządzają – mówi nam prof. Dariusz Jemielniak, badacz internetu współpracujący z Uniwersytetem Harvarda.
Zasada „zero zaufania”
Problem w tym, że pracownicy najczęściej używają AI z prywatnych kont, co może być dla firm i instytucji zagrożeniem. Dlaczego? Bo – jak wylicza Cyberhaven Labs – ponad ¼ informacji wprowadzanych do tych aplikacji to dane wrażliwe. W efekcie wypływają one poza firmy i instytucje, a, co więcej, służą do szkolenia botów.
To ryzyko, o ile przedsiębiorstwa nie korzystają z „zamkniętych”, płatnych narzędzi AI, jak np. ChatGPT Enterprise, lecz z tych ogólnodostępnych, gdzie bezpieczeństwo przetwarzania wpisywanych treści może budzić obawy. Potwierdzają je analitycy Check Point. Firma działająca na rynku cyberochrony mówi wprost: wrażliwe dane, wykorzystywane do szkolenia lub „dostrajania” dużych modeli językowych (LLM), mogą wyciec.
„Nie można ufać modelom LLM w zakresie ochrony wrażliwych danych” – pisze Check Point w raporcie i rekomenduje podejście Zero Trust AI (ang. zero zaufania do sztucznej inteligencji) i traktowanie takich narzędzi jako wymagających ścisłej kontroli dostępu.