Żadna technologia nie jest przecież nieunikniona, choć Sam Altman i inni, mogący dużo na tym skorzystać, bardzo chcieliby nas o tym przekonać.

Nie dajmy się bałamucić wizjami “superinteligentnych” systemów przyszłości czy “egzystencjalnych” zagrożeń. To tylko próba odwrócenia uwagi. Zamiast tego, musimy zadbać, by kontrola nad narzędziami budowanymi na modelach uczenia maszynowego nie została przejęta przez kilku ogromnych graczy, i by przede wszystkim służyła osobom z niej korzystającym.

Tekst poszedł parę tygodni temu, ale był za login-wallem. Teraz jest już publicznie dostępny.

Przyznam nieskromnie, że jestem dość dumny z tego tekstu. W niemałym stopniu z powodu pierwszego (z tego co wiem) publicznego użycia terminu “cykl bajery Gartnera”. 😉

  • link
    fedilink
    1
    edit-2
    1 year ago

    @rysiek

    >Czy w takim razie łańcuchy Markowa myślą według Twojej definicji? A ELIZA?

    Ja to bym nazwał, że zawsze istnieje pewien poziom “meta-”, tak jak np. masz relację układów FPGA i ASIC-ów. Cywilizacja ludzi oczywiście swoją ciekawością wspina się na kolejne “meta-” poziomy abstrakcji tego, z czym ma do czynienia.

    O ile sam łańcuch Markowa, czy ELIZA sprowadzony do pojmowalnego jedną kartką papieru automatu nie robi wrażenia, to odpowiednio bardziej rozbudowane już mogą. Ja bym to określił, że istnieje już wymyślony bardziej uogólniony poziom tego rodzaju zagadnień w dziedzinie nauki o zbiorach, a do której nawiązuje koncepcja maszyny Turinga, a problem myślowy jest sprowadzony do pytań:
    * Czy maszyna Turinga może wyprodukować maszynę Turinga?
    * Czy maszyna Turinga jako parametr może wykorzystać maszynę Turinga?

    W takich sprawach lubię to opracowanie: https://www.youtube.com/watch?v=HeQX2HjkcNo

    >Jak się powie “A”, trzeba powiedzieć “B”. Ale jakoś nie słyszę, by osoby cisnące pomysł, że ChatGPT “myśli”, cisnęli też pomysł, że może cierpi, i że może jako “istota myśląca” ChatGPT i inne LLM nie powinny być kontrolowane przez jakieś korpo i ew. zabijane jak już nie są potrzebne. 🤔

    Ogólnie świat do tego dąży, że tak będzie. Jeżeli koszt uformowania/ukształtowania jakiegoś unikatu, który na w interakcji na bodźce (czy to szum elektr.), czy to jako intencjonalne interakcje będzie reagować w sposób spersonalizowany, a koszt (i czas) osiągnięcia/wytrenowania tego będzie odpowiednio długi, to taka “matryca” wag będzie komuś równie cenna co np. pupil-pies, a w zależności od poziomu złożoności, nawet może osiągnąć poziom przywiązania wartościujący to na równi z człowiekiem w swoim zadanym punkcie rozwojowym/starzenia - otrzymujemy wtedy uniwersum rodem z Gwiezdnych Wojen.

    >Czy cierpi? Czy jest szczęśliwa?

    Jeżeli będzie mieć zdefiniowane “okablowanie” sygnałów i będzie mieć to wplecione jako element bycia, czyli ogólniej - będzie mieć zdolność do osadzenia się w tych stanach, to tak — np. ma czas ważności, a to ją by blokowało.

    • @rysiekOP
      link
      11 year ago

      Czy w takim razie łańcuchy Markowa myślą według Twojej definicji? A ELIZA?

      Ja to bym nazwał, że zawsze istnieje pewien poziom “meta-”, tak jak np. masz relację układów FPGA i ASIC-ów. Cywilizacja ludzi oczywiście swoją ciekawością wspina się na kolejne “meta-” poziomy abstrakcji tego, z czym ma do czynienia.

      Pytanie było dużo prostsze. Bez machania rękami proszę, binarnie tak lub nie: czy na bazie Twojej definicji uznajemy, że łańcuchy Markowa i ELIZA myślą?