W ciągu pierwszych dni swoje konto, by porozmawiać ze „sztuczną inteligencją”, zarejestrowało milion użytkowników. W kolejnych tygodniach chętnych było znacznie więcej, chwilami nie dało się zalogować do ChatGPT, ponieważ dochodziło do przeciążeń systemu.
Czytaj więcej
Na tle PiS Mateusz Morawiecki wydaje się kimś z zupełnie innej ligi.
Fascynujące okazały się ustalenia śledztwa magazynu „Time”. Dziennikarze ujawnili, że aby stworzyć ChatGPT, korzystano z nisko płatnej pracy siły roboczej w Kenii. Dostający 2 dol. za godzinę pracownicy mieli w uproszczeniu otagować treści zawierające okrucieństwo, przemoc seksualną, terroryzm, tortury, samobójstwo, wykorzystanie dzieci, słowem: wszelkie okropieństwa świata. Twórcy ChatGPT chcieli, by bot nie udzielał nam rad dotyczących przygotowania zamachu, skrzywdzenia dziecka czy samobójstwa. W tym celu odpowiednie treści musiały zostać oznaczone jako nieodpowiednie.
Twórcy ChatGPT chcieli, by bot nie udzielał nam rad dotyczących przygotowania zamachu, skrzywdzenia dziecka czy samobójstwa. W tym celu odpowiednie treści musiały zostać oznaczone jako nieodpowiednie.
„Uczenie się” przez GPT polega na analizowaniu milionów stron internetowych. Programiści stworzyli algorytmy, dzięki którym bot napisze (a właściwie sklei z rozmaitych kawałków przejrzanych przez siebie stron) pracę z biologii albo z historii, w zależności od tego, o co go poprosimy. Więc aby ChatGPT działał, najpierw musimy go nakarmić mnóstwem danych, a jeśli dodatkowo chcemy, by pewnych tematów unikał, musimy te tematy – niejako ręcznie – oznaczyć. I dlatego z najciemniejszych zakamarków sieci wyciągano największe plugastwa tego świata i przesyłano współpracownikom z Kenii, by dokonali ich prawidłowego opisu, żeby bot wiedział, od czego ma się trzymać z daleka.