• Renat
    link
    fedilink
    arrow-up
    7
    ·
    16 days ago

    Bardzo optymistyczne jest to założenie, że AI będzie czerpać swoją wiedzę tylko z dobrych źródeł. Zdarzało się, że AI negowało holokaust. Nie mówiąc już o tym, że taki Grok od Elona Muska nazwał sam siebie mecha Hitlerem. Moim zdaniem tą technologię trzeba zakopać, bo robi znacznie więcej złego niż dobrego.

    • ddplf
      link
      fedilink
      arrow-up
      2
      ·
      15 days ago

      Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.

      Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.

      Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.

      • Renat
        link
        fedilink
        arrow-up
        2
        ·
        edit-2
        15 days ago

        Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.

        • ddplf
          link
          fedilink
          arrow-up
          1
          ·
          15 days ago

          No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI

          Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił