Bardzo optymistyczne jest to założenie, że AI będzie czerpać swoją wiedzę tylko z dobrych źródeł. Zdarzało się, że AI negowało holokaust. Nie mówiąc już o tym, że taki Grok od Elona Muska nazwał sam siebie mecha Hitlerem. Moim zdaniem tą technologię trzeba zakopać, bo robi znacznie więcej złego niż dobrego.
Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.
Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.
Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.
Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.
No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI
Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił
Bardzo optymistyczne jest to założenie, że AI będzie czerpać swoją wiedzę tylko z dobrych źródeł. Zdarzało się, że AI negowało holokaust. Nie mówiąc już o tym, że taki Grok od Elona Muska nazwał sam siebie mecha Hitlerem. Moim zdaniem tą technologię trzeba zakopać, bo robi znacznie więcej złego niż dobrego.
Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.
Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.
Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.
Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.
No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI
Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił