W fatalnych czasach żyjemy. Wiele osób używa tylko korpo socjalmediów, które nie są najlepszym miejscem na znalezienie przyjaciół.
AI wciąż jest lepsze, niż te wszystkie skrajnie toksyczne fora, discordy, grupki na FB.
Lepiej żeby dziecko mogło porozmawiać z AI które swoją wiedzę o świecie czerpie z nauki, faktów, encyklopedii, niż słuchać pierdolenia jakichś demagogów i zjebów. AI nie będzie rezonować w tematach spierdolenia, szurstwa etc. AI może deeskalować idiotyczne tematy i wpajać pozytywne rzeczy i naukę.
Popatrzcie jak jeszcze nie tak dawno temu była moda na tych wszystkich discordach i innym syfie, by być skrajnie edgy, udawać dorosłego i powtarzać najgłupsze brednie, czyli często było to rasistowskie, prorosyjskie, mizogistyczne pierdolenie. Bo przecież to cool być tak edgy.
Bardzo optymistyczne jest to założenie, że AI będzie czerpać swoją wiedzę tylko z dobrych źródeł. Zdarzało się, że AI negowało holokaust. Nie mówiąc już o tym, że taki Grok od Elona Muska nazwał sam siebie mecha Hitlerem. Moim zdaniem tą technologię trzeba zakopać, bo robi znacznie więcej złego niż dobrego.
Więcej złego niż dobrego robi takie bazowanie na ekstremach zamiast realnie podejść do tematu. Powiem tak - też się bałem że AI nas wszystkich zgubi. Dopóki nie zanurzyłem się porządnie w to jak ono działa pod spodem.
Szury są bardzo głośne, ale ostatecznie ich działalność ginie w morzu suchych faktów, dokumentacji, raportów czy prac naukowych. Modele AI czerpią z ogółu tego co wytworzył człowiek, szury mogą próbować nauczyć AI że Stalin i Hitler byli namiętnymi kochankami, ale ich wysiłek będzie porównywalny z wlewaniem fanty szklanka po szklance do stawu by nadać mu pomarańczowy kolor.
Co robią inżynierowie Muska to załączanie do każdego prompta dokumentu z instrukcjami co może a czego nie może mówić Grok. To nie jest część modelu jako-tako tylko to jego konkretnej konfiguracji która jest stosowana na X. Grok na X to Mecha-Hitler, Grok na np. Perplexity nie ma osobowości.
Z AI jest jeszcze taki problem, że generowanie obrazów i tworzenie deepfake’ów jest używane do szerzenia dezinformacji. Raz się nabrałem na jeden obrazek AI mimo, że go nawet nie widziałem. Został przedstawiony na stronie z newsami jako fakt i mój brat mi opowiedział tego newsa. Czasem muszę się uważnie wpatrywać w obrazek by stwierdzić, że został wygenerowany. Są jeszcze spamboty, które piszą wygenerowane komentarze, by podbijać określone treści w internecie. Rosja używa takich farm troli.
No nie ma o czym mówić, to jest naprawdę przerażające i generalnie zgadzam się, że to powinien być wystarczający powód by powstrzymać rozwój AI
Niemniej na ten moment nie bałbym się zostawić dzieciora sam na sam z Chatem GPT jako-tako. Ale za to z GPT skonfigurowanym pod udawanie wirtualnego kumpla… no nie, na to bym nie pozwolił
AI nie będzie rezonować w tematach spierdolenia, szurstwa etc. AI może deeskalować idiotyczne tematy i wpajać pozytywne rzeczy i naukę
Może, ale to zależy od modelu AI i modelu biznesowego jego twórców :). Są też i takie przypadki: https://www.youtube.com/watch?v=qfK6H714moc
jeszcze wiecej alienacji, centralizacji cyfrowej i algorytmizacji ludzkich emocji, ludzkosc wytrzyma
Wielu dorosłych nie nauczyło się jeszcze, jak w zdrowy sposób wchodzić w interakcje z AI. Więc gdzie nasze dzieci powinny szukać wzorów do tego mienia?