Kto się boi używać ChatGPT

Coraz więcej firm za granicą zakazuje korzystania przez pracowników z konwersacyjnej sztucznej inteligencji lub je ogranicza. Chodzi o względy bezpieczeństwa. Nad Wisłą też będą podobne blokady.

Publikacja: 21.04.2023 03:00

Kto się boi używać ChatGPT

Foto: Adobe Stock

Rewolucyjne narzędzie od OpenAI jest w stanie odpowiadać na wiele pytań i pomagać w prowadzeniu biznesu – analizuje, systematyzuje i rozwiązuje problemy. Coś, co zespołom specjalistów różnych dziedzin zajęłoby wiele godzin czy nawet dni, bot robi w sekundy. Niezwykle popularny ChatGPT ma jednak też swoje wady.

Eksperci wskazują, że istnieje ryzyko wycieków danych dostarczanych systemowi AI. Pracownicy przedsiębiorstw i instytucji korzystają bowiem z tego oprogramowania często w sposób nierozważny, udostępniając poufne dane firmowe i wrażliwe informacje o klientach.

Czytaj więcej

Twórca ChatGPT po liście otwartym Muska: nie pracujemy nad GPT-5

Brytyjska agencja wywiadowcza GCHQ oficjalnie ostrzegła, że zapytania wprowadzane do systemów AI mogą trafić do domeny publicznej – albo na skutek ataku hakerskiego, albo w wyniku wykorzystania przesłanych materiałów do „uczenia” bota.

Hakerzy tylko czekają

Po początkowym zachłyśnięciu się świata nowatorskim chatbotem przychodzi czas na otrzeźwienie. A problem jest poważny. Cyberhaven, amerykańska firma specjalizująca się w usługach bezpieczeństwa IT, podała, że przeanalizowała wykorzystanie ChatGPT przez 1,6 mln pracowników różnych przedsiębiorstw i instytucji. Okazało się, że poufne dane były wklejane do systemów AI około 200 razy w tygodniu (ów współczynnik dotyczył każdej badanej firmy zatrudniającej co najmniej 100 tys. pracowników).

Najgłośniejszy incydent tego typu dotyczył do tej pory Samsunga. Pracownicy jednej z fabryk półprzewodników wprowadzili do chatbota poufne informacje, w tym kod źródłowy, jeden z najściślej strzeżonych sekretów firmy technologicznej. W rezultacie cenne tajemnice handlowe nieumyślnie wpadły w posiadanie OpenAI.

Czytaj więcej

Jerzy Surdykowski: Sztuczna głupota

Nic dziwnego, że ban na stosowanie ChatGPT wprowadziły już Włochy, częściowe ograniczenia wdrożyły też władze Hongkongu, a przymierzają się do tego Hiszpania i Kanada. Zakazy używania konwersacyjnej sztucznej inteligencji wśród pracowników obowiązują już w wielu firmach na świecie, a teraz – jak dowiedziała się „Rzeczpospolita” – do podobnego scenariusza przymierzają się podmioty sektora finansowego w naszym kraju. W jednej z instytucji już zablokowano dostęp do programów bazujących na API (tzw. wtyczkach) do ChatGPT.

Piotr Kluczwajd, ekspert Business Centre Club ds. AI, wskazuje na duże zainteresowanie świata przestępczego takimi platformami. – Aktywnie wykorzystuje on te narzędzia do intensywnych prób nielegalnego pozyskiwania danych przekazywanych przez nieświadomych użytkowników – ostrzega.

Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Research, podkreśla zaś, że rośnie rynek skradzionych kont premium ChatGPT w tzw. darknecie. – A to może mieć poważne konsekwencje dla prywatności osobistej i korporacyjnej – dodaje.

Edukacja i zakazy

UE pracuje obecnie nad dwoma aktami prawnymi, które mają uregulować korzystanie ze sztucznej inteligencji. Jak tłumaczy dr hab. Przemysław Polański, ekspert prawa nowych technologii z Akademii L. Koźmińskiego, pierwszy będzie wskazywał zakazane obszary sztucznej inteligencji. – Większość znanych dziś zastosowań AI będzie dopuszczona pod warunkiem spełnienia wielu daleko idących wymogów pod sankcją bardzo wysokich kar finansowych. Drugi z aktów regulować będzie odpowiedzialność m.in. producentów rozwiązań z obszaru sztucznej inteligencji za szkody wyrządzone przez takie rozwiązania – podkreśla Polański.

Czytaj więcej

Górski & Cieślik: Kto byłby lepszym ministrem sprawiedliwości: Zbigniew Ziobro czy ChatGPT?

Ale niektórzy eksperci nie sądzą, by zakazy były najlepszym rozwiązaniem. Piotr Kawecki, prezes ITBoom, przekonuje, że pracowników należy szkolić i uświadamiać, jakiego rodzaju zagrożenia czekają na nich w sieci.

– W tym zakresie korzystanie z ChatGPT stanowi takie samo ryzyko w kontekście bezpieczeństwa danych jak korzystanie z innych narzędzi. Każdy z pracowników współczesnej firmy, niezależnie od branży, powinien przejść odpowiednie szkolenia. To podstawa we współczesnym biznesie – komentuje Kawecki. I zaznacza, że ChatGPT w sposób naturalny przyciąga rzeszę nowych użytkowników, którzy chcą sprawdzić możliwości AI. – Coraz większe wykorzystanie AI będzie niosło ze sobą nowe ryzyka i konsekwencje. Musimy do nowej sytuacji przygotować biznes. Edukacja przyniesie większe korzyści niż ograniczenia i zakazy – dodaje.

Rewolucyjne narzędzie od OpenAI jest w stanie odpowiadać na wiele pytań i pomagać w prowadzeniu biznesu – analizuje, systematyzuje i rozwiązuje problemy. Coś, co zespołom specjalistów różnych dziedzin zajęłoby wiele godzin czy nawet dni, bot robi w sekundy. Niezwykle popularny ChatGPT ma jednak też swoje wady.

Eksperci wskazują, że istnieje ryzyko wycieków danych dostarczanych systemowi AI. Pracownicy przedsiębiorstw i instytucji korzystają bowiem z tego oprogramowania często w sposób nierozważny, udostępniając poufne dane firmowe i wrażliwe informacje o klientach.

Pozostało 89% artykułu
Biznes
Polska Moc Biznesu: w centrum uwagi tematy społeczne i bezpieczeństwo
Biznes
Zyski z nielegalnego hazardu w Polsce zasilają francuski budżet? Branża alarmuje
Materiał Promocyjny
Kongres Polska Moc Biznesu 2024: kreowanie przyszłości społeczno-gospodarczej
Biznes
Domy po 1 euro na Sardynii. Wioska celuje w zawiedzionych wynikami wyborów w USA
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Biznes
Litwa inwestuje w zbrojeniówkę. Będzie więcej pocisków dla artylerii