Za AI stoi praca wykorzystywanych i nisko opłacanych pracowniczek i pracowników - zwraca uwagę badaczka Milagros Miceli, opowiadająca o kulisach “szkolenia” AI. Miceli stoi na czele zespołu badaczy w Instytucie Weizenbauma w Berlinie. Od dawna zajmuje się kwestiami związanymi ze sztuczną inteligencją, w tym z tzw. anotacją danych. W ten sposób określa się kategoryziowanie i etykietowanie treści, na których będzie się uczyć AI - ludzcy pracownicy wcześniej muszą przygotować dla technologii odpowiednio dobrany zbiór danych. W wywiadzie udzielonym netzpolitik.org opowiada o - często ukrywanej - pracy ludzi z Argentyny, Bułgarii czy Kenii.

Część z systemów sprzedawanych jako “inteligentny monitoring” to po prostu zwykłe kamery obsługiwane całodobowo przez zespół pracowników i pracowniczek. Badacz Antonio Casilli opisał przypadek takiego zespołu z Madagaskaru: to 35 osób umieszczonych w domu z 1 toaletą. Amerykański magazyn TIME wykazał, że słabo opłacani kenijscy pracownicy i pracownice musieli przesiewać brutalne i rasistowskie treści, by końcowi użytkownicy ChatuGPT mieli do czynienia z “etyczną” sztuczną inteligencją. Pracującym płacono nie za godziny pracy, a za wydajność, w efekcie czego byli bombardowani ogromną ilością toksycznych treści.

W ramach stawiania na wydajność podwykonawcy nieraz nie oferują pracownikom i pracowniczkom funkcji czatu czy innej możliwości zadawania pytań. Jeżeli ktoś mimo to próbuje - algorytm klasyfikuje pytanie pracownika/czki jako narzekanie i ocenia wydajność niżej, co czasem kończy się wykluczeniej danej osoby z projektu.

Wiele osób jest zatrudnianych przez tzw. BPO (skrót od “Business Process Outsourcing”). W ramach oszczędności kosztów ceduje się pracę do rejonów, gdzie jest ona po prostu tańsza. W Argentynie zatrudnionymi byli młodzi ludzie z biednych dzielnic, część z nich mocno ceniło sobie możliwość pracy biurowej. W Bułgarii z kolei zatrudniano uchodźców z Bliskiego Wschodu, którzy mieli monitorować przez kamery pacjentów szpitali i reagować w razie potrzeby. Za wykonanie zadania (a niektóre zadania potrafiły trwać 2 godziny) otrzymywali jednego amerykańskiego dolara. Część BPO działa bezpośrednio w Syrii.

Inny przykład: aplikacja, która miała automatycznie wykrywać fałszywe dowody osobiste, zintegrowana z platformą sprzedażową. Pracownicy i pracowniczki pracując przy jej trenowaniu musieli nie tylko oznaczać zdjęcia prawdziwych i fałszywych dokumentów tożsamości, ale także pozyskiwać nowe dane. Innymi słowy: powinni użyć własnych dokumentów oraz pozyskać 5 innych (np. przyjaciół czy rodziny), zrobić zdjęcia, a następnie je przerobić (np. zmieniając imię). “Kiedy rozmawiasz z ludźmi o prywatności, mówią: prywatność to problem pierwszego świata. Najpierw muszą zdobyć coś do jedzenia na stół.” - stwierdza rozmówczyni, gdy netzpolitik.org zwraca uwagę, jak bardzo prywatność pracowników zostaje podczas tej pracy naruszona.

Osobna kwestia to nieodpłatna praca użytkowników, którzy korzystając z tej technologii jednocześnie pomagają ją rozwijać.

źródło: https://netzpolitik.org/2023/datenarbeit-wie-millionen-menschen-fuer-die-ki-schuften/