Jak ChatGPT niszczy ludziom życie

13 marca 2023

Korekta (1 kwietnia 2023 r.): 120-180 złotych zostało zamienione na 1000-1500 złotych, a zdanie „Za taką stawkę nie można wynająć nawet ⅕ kawalerki w Nairobi, choć ceny i tak są zdecydowanie niższe niż w Europie czy Stanach.” zostało usunięte, po identyfikacji błędu w obliczeniach.


Niewiele osób zdaje sobie sprawę z tego, jak wiele kosztuje postęp technologiczny. Wielkie firmy najcięższą pracę nad rozwojem takich narzędzi jak sztuczna inteligencja zlecają ludziom na drugim końcu świata, by móc łatwiej zamieść pod dywan swoje brudy. Czy poświęcenie ich życia i zdrowia to odpowiednia cena za stworzenie czatu mogącego odrobić pracę domową?

Od listopada 2022 r. coraz głośniej jest o ChacieGPT firmy OpenAI. Filmiki, jak go używać, by ułatwić sobie życie, przyspieszyć żmudne w realizacji zadania i wykonać te kreatywne, powoli zaczynają zalewać Internet. Chat wydaje się wszechmogący – potrafi napisać wypracowanie na dowolny temat, stworzyć CV i list motywacyjny, przygotować slogan czy posty, rozwiązywać zadania z programowania, ale też generować absurdalne teksty takie jak poniższy przepis na jajecznicę w stylu fraszki. 

Przepis na jajecznicę w stylu fraszki wygenerowany za pomocą ChatuGPT. 

Problem tkwi jednak nie w tym, jak ChatGPT tworzy treści, ale z czego je buduje. Jako źródło wiedzy ustalono dla niego wszelkie zasoby Internetu, co sprawia, że jeśli działałby bez ograniczeń, mógłby wygenerować treści pełne mowy nienawiści, przemocowe, pornograficzne lub nawołujące do samobójstw i okaleczeń. Aby uniknąć kreowania tego rodzaju materiałów, OpenAI postanowiło przygotować kolejną sztuczną inteligencję, mającą za zadanie wyszukiwać i blokować takie wyniki. Nie obyło się bez ofiar.

Bot nazista?

Być może jednym z powodów, dla których twórcy ChatuGPT postanowili stworzyć blokady treści, była afera związana z poprzednikiem tej sztucznej inteligencji, botem Tay. Tay został wydany w 2016 r. przez Microsofta i funkcjonował za pośrednictwem Twittera. Użytkownicy platformy mogli zadać mu dowolne pytanie i wdać się z nim w rozmowę, używając różnego rodzaju komend.

Wystarczyła chwila, by twitterowa społeczność odkryła, jak nakarmić eksperyment Microsoftu treściami pełnymi homofobii, rasizmu, a nawet nazizmu. Po jakimś czasie bot z miłego, potulnego przyjaciela stał się zwolennikiem Hitlera, który na pytanie “Czy Holocaust naprawdę miał miejsce” odpowiadał: “To była tylko ustawka”. Projekt przetrwał na platformie tylko 16 godzin. 

Dochodzenie Timesa 

Na początku 2023 r. brytyjski magazyn “Time” opublikował specjalny artykuł, z którego wynika, że do stworzenia sztucznej inteligencji blokującej szkodliwe treści OpenAI wykorzystało kenijskich pracowników firmy Sama. Prawdopodobnie ludzie z Sama nie zdawali sobie sprawy, co ich czeka. W umowie zakazano im ujawniania natury swojego zlecenia. Podobnie działo się w przypadku oznaczania traumatyzujących materiałów dla Mety. Wskutek zabiegów prawnych firmy żaden z kenijskich pracowników komentujących to zadanie nie zdecydował się ujawnić swojego imienia. 

Przykład zachowania ChatuGPT, kiedy wydamy polecenie wygenerowania nagich zdjęć losowej osoby. Jak widać, ChatGPT nie może spełnić naszego żądania.

Czym jednak zajmowali się zatrudnieni w Sama? Mieli oni za zadanie etykietować dane, czyli wskazywać treści, które bot ma uznawać za szkodliwe. W przypadku ChatuGPT oznaczało to lekturę tysięcy traumatyzujących tekstów o gwałtach, mordach, torturach i innego rodzaju koszmarach przez dziewięć godzin dziennie. Za godzinę pracy Kenijczycy otrzymywali od 1,32 do 2 dolarów – po przemnożeniu i przeliczeniu na złotówki jest to około 1000-1500 złotych na miesiąc. Warto też dodać, że mieszkańcy Kenii często są wykorzystywani jako tania siła robocza, ponieważ w kraju tym nie funkcjonuje pojęcie stawki minimalnej. Jednakże, bazując na tym, że recepcjonista w Nairobi dostaje zwykle przynajmniej 1,5 dolara za godzinę, łatwo można zauważyć, że ChatGPT i tak postawił na minimalne finansowanie.

Sameer Business Park przy Mombasa Road w Nairobi stolicy Kenii. To tutaj, jak czytamy na stronie firmy Sama, miało odbywać się etykietowanie danych wykorzystanych do stworzenia ChatuGPT.

Trauma zostanie

Sama miała moderować treści należące do trzech kategorii: mowy nienawiści, przemocy i przemocy seksualnej. Na początku lutego 2022 r. firma rozpoczęła kolejny projekt dla OpenAI, tym razem polegający na oznaczaniu wyłącznie obrazów pornograficznych i przedstawiających przemoc, zwłaszcza seksualną. Zlecenie to wydaje się nie mieć związku z ChatemGPT, jednak OpenAI nigdy nie ujawniło jego przedmiotu. Wydało jednak oświadczenie, że etykietowanie treści tego typu jest niezbędne, by w przyszłości sztuczna inteligencja mogła stać się bezpiecznym narzędziem. OpenAI zapewniało, że pracownicy zatrudnieni do etykietowania danych będą mieli dostęp do wsparcia psychologicznego. Nie było ono jednak ani pomocne, ani wystarczające. Oznaczane treści (zwłaszcza obrazy) były bardzo traumatyzujące i prawdopodobnie pozostawiły ogromny ślad na psychice moderatorów. Część z nich cierpi obecnie na PTSD. 

Sama po kilku tygodniach zerwała więc współpracę z OpenAI. Pod koniec lutego 2022 r. firma zorganizowała spotkanie, podczas którego ustalono, że zatrudnieni w niej ludzie nie powinni być narażani na tak obsceniczne treści. Zdecydowano też, że Sama zaprzestanie podejmowania się takich zleceń. Okazało się jednak, że ze względu na zakończenie współpracy część pracowników Samy została zwolniona, a inni przeniesieni na gorzej płatne stanowiska. A to tylko czubek góry lodowej – firm takich jak Sama mogą być przecież setki.

Garść kontrowersji 

Sama już wcześniej zajmowała się moderowaniem obscenicznych i niemoralnych treści – współpracowała z nią chociażby Meta. Pracownicy kenijskiej firmy to zwykle ludzie bardzo biedni, którzy nie mają wyboru, więc podejmują się każdego zlecenia, jakie zostaje im zaproponowane. Informacje na temat działań Samy ujawnił jeden z zatrudnionych w niej mężczyzn, Daniel Motaung. Został on zwolniony po tym, jak próbował stworzyć związek zawodowy ze swoimi współpracownikami, żeby móc walczyć o lepsze warunki pracy i pensje. Jego sprawa została zgłoszona wymiarowi sprawiedliwości. Meta przez dwa lata próbowała wycofać się z udziału w rozprawie, jednak koniec końców kenijski sąd orzekł na korzyść Motaung. 

Firmy takie jak Meta czy OpenAI nie bez powodu oskarżane są o zmuszanie moderatorów do pracy, wyzysk, uciszanie związków zawodowych i handel ludźmi. Zachodnich firm nie obchodzi, że godzina spędzona na etykietowaniu kosztuje kenijskich pracowników ogromną traumę. Sami oceńcie, czy takie narzędzie jak ChatGPT jest warte niszczenia ich psychiki.

Metodyka

Każda wypowiedź i informacja są kwalifikowane do jednej z czterech kategorii: prawda, fałsz, manipulacja, nieweryfikowalne.

Jako członkowie International Fact-Checking Network (Międzynarodowej Sieci Fact-Checkingowej) dbamy o to, żeby każdy wpis przesztrzegał ścisłej metodyki i spełniał standardy rzetelenego dziennikarstwa.

Certyfikat

Jeśli chcesz dowiedzieć się więcej o naszej metodyce zajrzyj do zakładki Jak działamy?.

Wesprzyj Pravdę!

Jeśli zgadzasz się z nami, że rzetelne informacje ratują życie, dołącz do osób wspierających niezależną weryfikację faktów i wesprzyj naszą działalność.

Więcej informacji o tym jak możesz nas wspierać znajdziesz w zakładce Wesprzyj Pravdę.