Gość, który był pierwowzorem postaci granej przez Christiana Bale’a w “The Big Short” (inwestor przewidujący pęknięcie bańki spekulacyjnej), stawia na pęknięcie bańki AI.

Wiadomo że koleś nie jest nieomylny. Poza tym nie jest jasne jak długo taka bańka może dochodzić do momentu, w którym musi lub może pęknąć. Ale moim zdaniem to i tak dobra wiadomość.

  • pfmOP
    link
    fedilink
    arrow-up
    4
    ·
    1 month ago

    Wybacz, ale piszesz w sposób na tyle trudny w odbiorze dla mnie, że się nie odniosę.

    • Waćpan
      link
      fedilink
      Polski
      arrow-up
      1
      ·
      1 month ago

      O, to sorry – komentarze podrzucam czysto informacyjnie, tj. nie trzeba się do nich odnosić, acz oczywiście spróbuję wyjaśnić: bańka spekulacyjna w tzw. AI wynika chyba z oczekiwań inwestorów co do dalszego rozwoju technologii (przy np. moich zastrzeżeniach, że aktualne State-of-the-Art – Stan Sztuki, najlepsze dostępne osiągnięcia – nie jest rozpoznane ani tym bardziej szerzej wdrażane w cywilizacji; mind: ja jestem twardo pro-AI, popieram to, aby tzw. Sztuczna Inteligencja suplementowała lub zastępowała ludzi w jak najszerszym wymiarze, od decydentów poczynając).

      Wybacz proszę, że z kolei ja tylko pobieżnie czytam opinie liberałów gospodarczych/kapitalistów/inwestorów prywatnych – w moim świecie nie istnieją; fakt, że od ich finansowania zależy rozwój jakiegoś techu (drugi taki case to prywatne for-profit firmy rozwijające elektrownie fuzji jądrowej) uważam ortodoksyjnie za niepomyślność dziejową i patologię.

      Organizacja RAND – Think Tank z USA wywodzący się z wojska – być może ma zasoby, aby ocenić scenariusze rozwoju technologii (pomijając, na ile wiarygodne są takie publiczne dokumenty – jeszcze za czasów globalizacji a`la WTO-globalny wolny handel było to wątpliwe, teraz stało się jeszcze mniej prawdopodobne). Rozpoznali, że są dwa ograniczenia:

      1. zasób danych np. tekstowych do trenowania – że niby LLMy (Bogate Modele Językowe) “przeczytały już wszystkie książki i publikacje świata oraz cały Internet”,
      2. skalowanie się “algorytmów” – LLMy (a z nich LRMy – Bogate Modele Rozumujące) wyewoluowały z tzw. architektury AI/ML znanej jako Transformer with an Attention, wcześniej kojarzone z tłumaczami maszynowymi, jak Deepl, i mają swoje zauważalne ograniczenia, z których chyba najpoważniejsze to halucynacje, tj. fałszowanie faktów, oraz niedostateczne wnioskowanie matematyczno-logiczne.

      Zależnie od tego, czy uda się je przezwyciężyć, nastąpi lub nie dalszy skokowy rozwój technologii (oby hen kiedyś zmierzając do AGI – Ogólnej Sztucznej Inteligencji, tj. zdolnej do autonomicznego samorozwoju tak, by co najmniej zrównać się z np. ludzką; hipotetyczny stan opisany przez futurologa Raya Kurzweila), a to z kolei – optymistycznie (1/3 scenariuszy) – usatysfakcjonuje inwestorów for-profit, bądź też właśnie – pesymistycznie (2/3 scenariuszy) – podeprze przewidywanie z linka. Dla wielu osób (normalsów, normików) oznaczałoby to przypuszczalnie jakąś kompromitację wynalazku, choć nie dla Ekspertów z Dyscypliny, którzy i tak będą ją rozwijać dalej, tylko już bez wsparcia Sektora Prywatnego (z pożytkiem: bez jego agendy) – to forma zdystansowania czy atomizacji społecznej.