Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
Opieram się na potężnej pracy badaczek i badaczy AI/ML, zwłaszcza:
-
Excavating AI. The Politics of Images in Machine Learning Training Sets
https://excavating.ai/ -
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 https://dl.acm.org/doi/10.1145/3442188.3445922
-
To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes
https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
(autorowi dziękuję za wywiad do tekstu!)
No to się w dużej mierze zgadzamy. I na koniec przecież piszę, że da się to robić dobrze, tyle, że nie da się wtedy robić na tym aż takiego hype’u — bo modele musiałyby byc mniejsze, wyspecjalizowane, oparte na mniejszych i lepiej opracowanych zbiorach danych treningowych. Pejper “Stochastic Parrots…” w to nurkuje.
Mamy na to procedury i systemy minimalizacji skutków takich błędów. Z AI ludzie udają, że to jakaś nieomylna, neutralna, obiektywna magia. Ty wiesz, że to nieprawda, ale większość osób nie ma pojęcia. Stąd ten tekst.
Nie twierdzę, że to jest jakoś nieprawdopodobnie odkrywcze. Jakby było, pisałbym prace naukowe, a nie opierał się na pracach napisanych miesiące i lata temu. Ale w mainstreamie to nie funkcjonuje. Celem tego tekstu nie jest odkrycie Ameryki, tylko podkreślenie, że Amerykę odkryto i że są z tym pewne problemy.