Antropomorfizacja modeli uczenia maszynowego, takich jak ChatGPT, ma na celu przekonanie nas, że nawet jeśli te technologie nie są całkowicie bezpieczne i nieszkodliwe, to są przynajmniej neutralne. Po to, by trudniej było nam dostrzec, jaką mogą wyrządzać krzywdę

Warto przyjrzeć się bliżej zakodowanym w nich uprzedzeniom i temu, komu służą — a kogo mogą krzywdzić.

Opieram się na potężnej pracy badaczek i badaczy AI/ML, zwłaszcza:

  • rysiekOP
    link
    fedilink
    arrow-up
    2
    ·
    2 years ago

    Jakbyś przeczytał tekst, to byś na przykład w nim znalazł, że “technologia nie jest ani dobra, ani zła, nie jest też neutralna”, z konkretnymi przykładami i wyjaśnieniem, dlaczego to jest ważne, i co to ma do rzeczy.

    Ale rzucić hot-tejka z wyświechtanym sloganem typu “narzędzie, ani dobre ani złe” jest oczywiście łatwiej, niż przeczytać tekst, który się komentuje. 🙂

    • Pajonk
      link
      fedilink
      arrow-up
      2
      ·
      edit-2
      2 years ago

      Jedna z największych firm technologicznych, Amazon, przez trzy lata próbował zbudować oparty o sztuczną inteligencję system oceniania osób aplikujących o pracę. Projekt został zarzucony, ponieważ szybko okazało się, że konsekwentnie znacznie niżej oceniał on aplikacje kobiet…

      Tak się składa że przeczytałem, jest tam cały długi paragraf na temat tego jak to ktoś nieumiejętnie zastosował tego typu rozwiązanie. No i dalej nie widzę w tym żadnej sensacji. Ciągle jesteśmy na etapie wdrażania tego typu systemów, ciągle są one bardzo prymitywne. Wystarczy spojrzeć na ciekawsze przykłady.

      Autonomiczne samochody? Dalej ich nie ma. Mercedes przoduje w tej technologii, istnieje kilka firm które mają swoje w pełni autonomiczne taksówki ale jeżdżą tylko na małym obszarze w USA, i mamy teslę która po mimo marketingu to w kwestii takich samochodów jest coraz mocniej w tyle.

      Jeśli chodzi o przykłady z artykułu, no cóż, błąd algorytmu. Człowiek nie jest nieomylny, tym bardziej maszyna zbudowana przez człowieka.

      Potem było marudzenie że często dane wykorzystywane do trenowania AI były często pozyskiwane w sposób nielegalny. Gdzie ani to nowy problem, ani oryginalny. Sieć pełna jest nielegalnie przesyłanych zdjęć, filmów, danych… Dziwne by było, gdyby do takiego czegoś nie dochodziło.

      Natomiast same tego typu narzędzia to jest przyszłość czy tego chcemy czy nie, bo to się po prostu opłaca. Skoro pozwala to zmniejszyć koszta firm, jednocześnie zwiększając wydajność, to oczywistym jest, że biznes się będzie spinał, i taka będzie przyszłość.

      Tego typu technologie to nie jest jakiś diabeł ukryty w maszynie, tylko zwyczajne narzędzie, które odpowiednio przygotowane może w większości przypadków pomóc i przyśpieszyć pracę. Jest szansa że się pomyli, a błąd może być dla kogoś krzywdzący, dlatego potrzebne są narzędzia do weryfikacji. Ale to też nie jest nic nowego. Błędy ludzkie zdarzają się znacznie częściej i jakoś z tym żyjemy.

      • m0bi@mastodon.social
        link
        fedilink
        arrow-up
        1
        ·
        2 years ago

        @Pajonk Nie no, praca dzieci też się biznesom opłacała, a została zakazana.

        Że też rzucę hot-tejkiem ;)

        Jeśli będzie wola, to się zakaże. Za skopiowanie karty sim możesz iść do pierdla. Podobnie może być z “AI”.
        @rysiek

        • Pajonk
          link
          fedilink
          arrow-up
          2
          ·
          2 years ago

          Po pierwsze czy praca dzieci jest zakazana? Oczywiście że nie. Na całym świecie pewnie i z miliony dzieci pracują, z czego ogromna część w bardzo złych warunkach.

          A na naszym podwórku została ona zakazana, przez protesty i przez to że bardzo łatwo taki proceder wykryć. Z AI możliwość wykrycia czy ktoś z niego korzysta czy nie, jest znikome.

      • rysiekOP
        link
        fedilink
        arrow-up
        1
        ·
        2 years ago

        Tego typu technologie to nie jest jakiś diabeł ukryty w maszynie, tylko zwyczajne narzędzie, które odpowiednio przygotowane może w większości przypadków pomóc i przyśpieszyć pracę. Jest szansa że się pomyli, a błąd może być dla kogoś krzywdzący, dlatego potrzebne są narzędzia do weryfikacji. Ale to też nie jest nic nowego.

        No to się w dużej mierze zgadzamy. I na koniec przecież piszę, że da się to robić dobrze, tyle, że nie da się wtedy robić na tym aż takiego hype’u — bo modele musiałyby byc mniejsze, wyspecjalizowane, oparte na mniejszych i lepiej opracowanych zbiorach danych treningowych. Pejper “Stochastic Parrots…” w to nurkuje.

        Błędy ludzkie zdarzają się znacznie częściej i jakoś z tym żyjemy.

        Mamy na to procedury i systemy minimalizacji skutków takich błędów. Z AI ludzie udają, że to jakaś nieomylna, neutralna, obiektywna magia. Ty wiesz, że to nieprawda, ale większość osób nie ma pojęcia. Stąd ten tekst.

        Nie twierdzę, że to jest jakoś nieprawdopodobnie odkrywcze. Jakby było, pisałbym prace naukowe, a nie opierał się na pracach napisanych miesiące i lata temu. Ale w mainstreamie to nie funkcjonuje. Celem tego tekstu nie jest odkrycie Ameryki, tylko podkreślenie, że Amerykę odkryto i że są z tym pewne problemy.