Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę

Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.

Opieram się na potężnej pracy badaczek i badaczy AI/ML, zwłaszcza:

  • @rysiekOP
    link
    12 years ago

    Tego typu technologie to nie jest jakiś diabeł ukryty w maszynie, tylko zwyczajne narzędzie, które odpowiednio przygotowane może w większości przypadków pomóc i przyśpieszyć pracę. Jest szansa że się pomyli, a błąd może być dla kogoś krzywdzący, dlatego potrzebne są narzędzia do weryfikacji. Ale to też nie jest nic nowego.

    No to się w dużej mierze zgadzamy. I na koniec przecież piszę, że da się to robić dobrze, tyle, że nie da się wtedy robić na tym aż takiego hype’u — bo modele musiałyby byc mniejsze, wyspecjalizowane, oparte na mniejszych i lepiej opracowanych zbiorach danych treningowych. Pejper “Stochastic Parrots…” w to nurkuje.

    Błędy ludzkie zdarzają się znacznie częściej i jakoś z tym żyjemy.

    Mamy na to procedury i systemy minimalizacji skutków takich błędów. Z AI ludzie udają, że to jakaś nieomylna, neutralna, obiektywna magia. Ty wiesz, że to nieprawda, ale większość osób nie ma pojęcia. Stąd ten tekst.

    Nie twierdzę, że to jest jakoś nieprawdopodobnie odkrywcze. Jakby było, pisałbym prace naukowe, a nie opierał się na pracach napisanych miesiące i lata temu. Ale w mainstreamie to nie funkcjonuje. Celem tego tekstu nie jest odkrycie Ameryki, tylko podkreślenie, że Amerykę odkryto i że są z tym pewne problemy.