Michał Szułdrzyński: Kto sprząta dla ChatGPT

Każdy wielki sukces ma jakąś ciemną stronę. Nie inaczej jest z narzędziem, które od kilkunastu tygodni rozpala wyobraźnię wszystkich osób, które interesują się technologiami, czyli dziełem firmy OpenAI – ChatGPT.

Publikacja: 27.01.2023 17:00

Michał Szułdrzyński: Kto sprząta dla ChatGPT

Foto: mat.pras.

W ciągu pierwszych dni swoje konto, by porozmawiać ze „sztuczną inteligencją”, zarejestrowało milion użytkowników. W kolejnych tygodniach chętnych było znacznie więcej, chwilami nie dało się zalogować do ChatGPT, ponieważ dochodziło do przeciążeń systemu.

Czytaj więcej

Michał Szułdrzyński: Morawiecki, premier z innej ligi

Fascynujące okazały się ustalenia śledztwa magazynu „Time”. Dziennikarze ujawnili, że aby stworzyć ChatGPT, korzystano z nisko płatnej pracy siły roboczej w Kenii. Dostający 2 dol. za godzinę pracownicy mieli w uproszczeniu otagować treści zawierające okrucieństwo, przemoc seksualną, terroryzm, tortury, samobójstwo, wykorzystanie dzieci, słowem: wszelkie okropieństwa świata. Twórcy ChatGPT chcieli, by bot nie udzielał nam rad dotyczących przygotowania zamachu, skrzywdzenia dziecka czy samobójstwa. W tym celu odpowiednie treści musiały zostać oznaczone jako nieodpowiednie.

Twórcy ChatGPT chcieli, by bot nie udzielał nam rad dotyczących przygotowania zamachu, skrzywdzenia dziecka czy samobójstwa. W tym celu odpowiednie treści musiały zostać oznaczone jako nieodpowiednie.

„Uczenie się” przez GPT polega na analizowaniu milionów stron internetowych. Programiści stworzyli algorytmy, dzięki którym bot napisze (a właściwie sklei z rozmaitych kawałków przejrzanych przez siebie stron) pracę z biologii albo z historii, w zależności od tego, o co go poprosimy. Więc aby ChatGPT działał, najpierw musimy go nakarmić mnóstwem danych, a jeśli dodatkowo chcemy, by pewnych tematów unikał, musimy te tematy – niejako ręcznie – oznaczyć. I dlatego z najciemniejszych zakamarków sieci wyciągano największe plugastwa tego świata i przesyłano współpracownikom z Kenii, by dokonali ich prawidłowego opisu, żeby bot wiedział, od czego ma się trzymać z daleka.

Uderza niewspółmierność pomiędzy świństwami, nad którymi musieli pracować kenijscy współpracownicy, a śmiesznymi kwotami, jakie za to dostawali. Prawdopodobnie w USA czy w Europie trudno było znaleźć chętnych do tego, by babrać się w bagnie za takie pieniądze.

Przypomina to opisywane przez media kilka lat temu historie firm, które były podwykonawcami największych platform społecznościowych, i miały to samo zadanie. Chodziło o to, by wyłapywać wrzucane przez ludzi zdjęcia, filmy czy nawet transmisje na żywo, dokumentujące samobójstwa, samookaleczenia, gwałty, tortury czy zamachy terrorystyczne (dość przypomnieć zamachowca z Christchurch, który transmitował w sieci rzeź swoich ofiar). Później algorytmy uczyły się rozpoznawać niedozwolone treści, ale najpierw tę pracę musiał wykonać człowiek. A nawet i wtedy potrzebni byli ludzie, którzy w pewnych sytuacjach, nie zerojedynkowych, podejmowali decyzję, czy coś łamało zasady związane z zakazem promowania przemocy, sadyzmu itp.

I podobnie jak w przypadku ChatGPT i Kenijczyków okazywało się, że wielkie platformy zlecały tę pracę firmom zewnętrznym, które za oglądanie największych okropieństw świata płaciły grosze. Jednym z wyjaśnień, dlaczego robiły to firmy zewnętrzne, było to, że platformy nie chciały narażać własnych pracowników na szkody dla psychiki, jakie może wywołać oglądanie kilka godzin dziennie zdjęć i filmów dokumentujących ludzkie dewiacje.

Czytaj więcej

Michał Szułdrzyński: Bibi powrócił

W opisanych wyżej przypadkach widać pewną prawidłowość – otóż ktoś musi przyjść i posprzątać. Tam, gdzie dajemy możliwość swobodnej ekspresji wszystkim ludziom, ktoś musi pełnić rolę tego, kto wywiezie nieczystości, uprzątnie gnój. I to jest właśnie ta najmroczniejsza strona każdego ludzkiego sukcesu – jak widać, dotyczy to w równym stopniu świata technologicznego.

W ciągu pierwszych dni swoje konto, by porozmawiać ze „sztuczną inteligencją”, zarejestrowało milion użytkowników. W kolejnych tygodniach chętnych było znacznie więcej, chwilami nie dało się zalogować do ChatGPT, ponieważ dochodziło do przeciążeń systemu.

Fascynujące okazały się ustalenia śledztwa magazynu „Time”. Dziennikarze ujawnili, że aby stworzyć ChatGPT, korzystano z nisko płatnej pracy siły roboczej w Kenii. Dostający 2 dol. za godzinę pracownicy mieli w uproszczeniu otagować treści zawierające okrucieństwo, przemoc seksualną, terroryzm, tortury, samobójstwo, wykorzystanie dzieci, słowem: wszelkie okropieństwa świata. Twórcy ChatGPT chcieli, by bot nie udzielał nam rad dotyczących przygotowania zamachu, skrzywdzenia dziecka czy samobójstwa. W tym celu odpowiednie treści musiały zostać oznaczone jako nieodpowiednie.

Pozostało 80% artykułu
Plus Minus
Trwa powódź. A gdzie jest prezydent Andrzej Duda?
Plus Minus
Liga mistrzów zarabiania
Plus Minus
Jack Lohman: W muzeum modlono się przed ołtarzem
Plus Minus
Irena Lasota: Nokaut koni
Materiał Promocyjny
Wpływ amerykańskich firm na rozwój polskiej gospodarki
Plus Minus
Mariusz Cieślik: Wszyscy jesteśmy wyjątkowi