Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę
Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.
Opieram się na potężnej pracy badaczek i badaczy AI/ML, zwłaszcza:
-
Excavating AI. The Politics of Images in Machine Learning Training Sets
https://excavating.ai/ -
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 https://dl.acm.org/doi/10.1145/3442188.3445922
-
To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes
https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf
(autorowi dziękuję za wywiad do tekstu!)
Tak się składa że przeczytałem, jest tam cały długi paragraf na temat tego jak to ktoś nieumiejętnie zastosował tego typu rozwiązanie. No i dalej nie widzę w tym żadnej sensacji. Ciągle jesteśmy na etapie wdrażania tego typu systemów, ciągle są one bardzo prymitywne. Wystarczy spojrzeć na ciekawsze przykłady.
Autonomiczne samochody? Dalej ich nie ma. Mercedes przoduje w tej technologii, istnieje kilka firm które mają swoje w pełni autonomiczne taksówki ale jeżdżą tylko na małym obszarze w USA, i mamy teslę która po mimo marketingu to w kwestii takich samochodów jest coraz mocniej w tyle.
Jeśli chodzi o przykłady z artykułu, no cóż, błąd algorytmu. Człowiek nie jest nieomylny, tym bardziej maszyna zbudowana przez człowieka.
Potem było marudzenie że często dane wykorzystywane do trenowania AI były często pozyskiwane w sposób nielegalny. Gdzie ani to nowy problem, ani oryginalny. Sieć pełna jest nielegalnie przesyłanych zdjęć, filmów, danych… Dziwne by było, gdyby do takiego czegoś nie dochodziło.
Natomiast same tego typu narzędzia to jest przyszłość czy tego chcemy czy nie, bo to się po prostu opłaca. Skoro pozwala to zmniejszyć koszta firm, jednocześnie zwiększając wydajność, to oczywistym jest, że biznes się będzie spinał, i taka będzie przyszłość.
Tego typu technologie to nie jest jakiś diabeł ukryty w maszynie, tylko zwyczajne narzędzie, które odpowiednio przygotowane może w większości przypadków pomóc i przyśpieszyć pracę. Jest szansa że się pomyli, a błąd może być dla kogoś krzywdzący, dlatego potrzebne są narzędzia do weryfikacji. Ale to też nie jest nic nowego. Błędy ludzkie zdarzają się znacznie częściej i jakoś z tym żyjemy.
@Pajonk Nie no, praca dzieci też się biznesom opłacała, a została zakazana.
Że też rzucę hot-tejkiem ;)
Jeśli będzie wola, to się zakaże. Za skopiowanie karty sim możesz iść do pierdla. Podobnie może być z “AI”.
@rysiek
Po pierwsze czy praca dzieci jest zakazana? Oczywiście że nie. Na całym świecie pewnie i z miliony dzieci pracują, z czego ogromna część w bardzo złych warunkach.
A na naszym podwórku została ona zakazana, przez protesty i przez to że bardzo łatwo taki proceder wykryć. Z AI możliwość wykrycia czy ktoś z niego korzysta czy nie, jest znikome.
No to się w dużej mierze zgadzamy. I na koniec przecież piszę, że da się to robić dobrze, tyle, że nie da się wtedy robić na tym aż takiego hype’u — bo modele musiałyby byc mniejsze, wyspecjalizowane, oparte na mniejszych i lepiej opracowanych zbiorach danych treningowych. Pejper “Stochastic Parrots…” w to nurkuje.
Mamy na to procedury i systemy minimalizacji skutków takich błędów. Z AI ludzie udają, że to jakaś nieomylna, neutralna, obiektywna magia. Ty wiesz, że to nieprawda, ale większość osób nie ma pojęcia. Stąd ten tekst.
Nie twierdzę, że to jest jakoś nieprawdopodobnie odkrywcze. Jakby było, pisałbym prace naukowe, a nie opierał się na pracach napisanych miesiące i lata temu. Ale w mainstreamie to nie funkcjonuje. Celem tego tekstu nie jest odkrycie Ameryki, tylko podkreślenie, że Amerykę odkryto i że są z tym pewne problemy.