Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.
Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.
Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.
Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.
No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI
Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił
Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.
Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.
Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.
Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.
No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI
Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił