Sorry, nie mogę się zgodzić. Jestem Progresywistą – także otwartym proponentem AI/ML, również LLMów, ogólnie utransparentnienia, modelowania, automatyzacji i wsparcia relacji międzyludzkich lub człowiek-system. Szczerze, pamiętam początki pierwszego masowego Crowd Sourcingu, czyli Wikipedii (na której nb. LLMy, ogólnie NLPy, w wielkiej mierze były trenowane) – dokładnie te same zastrzeżenia, Henryk Batuta; to jasne, iż w aktualnej epoce systemy eksperckie, wspomagania decyzji niedeterministyczne popełniają błędy, mimo to konwergują do jakiegoś mniej czy bardziej konsensusowego (“zdroworozsądkowego”) wykładnika “prawdy”. Teraz, wyjście poza prosty graf (bazę) wiedzy, sferę konceptów, czyli jakościową (np. asocjacje, skojarzenia), a obarczenie jej elementarną logiką i wnioskowaniem (np. LRMy, także np. AFAIR deterministyczna metoda Rulemapping) czy ilościową (Wolfram|Alpha, MindOpt) – zaczynają naśladować pracę Białych Kołnierzyków (oraz ich gry – np. skarbówka zabiega o maksymalizację zebranych podatków, zaś prywatny przedsiębiorca o optymalizację podatkową). Odbiorcy muszą natomiast zinternalizować odruch sprawdzania rozwiązań podawanych przez zawodne zautomatyzowane systemy, a zatem odbudować (samo)krytycyzm – w np. moim pokoleniu jeszcze domyślny. W Świecie Wolnościowym nikt nikogo do niczego nie zmusza – nie ufasz, to nie używaj. :) PITa też można dziś “składać” z automatu (prosty algorytm), albo nadal wypełniać ręcznie, jak dekady temu.
Hallucinations — which occur when models authoritatively states something that isn’t true (or in the case of an image or a video makes something that looks…wrong) — are impossible to resolve without new branches of mathematics, and while you might be able to reduce or mitigate them, their existence makes it hard for business-critical applications to truly rely on generative AI.
Oraz świetną prezentację prof. Emily M. Bender (która zajmowała się LLMami “zanim to było cool”) na temat tego, kiedy takie narzędzia mają sens: https://www.youtube.com/watch?v=qpE40jwMilU
Sorry, nie mogę się zgodzić. Jestem Progresywistą – także otwartym proponentem AI/ML, również LLMów, ogólnie utransparentnienia, modelowania, automatyzacji i wsparcia relacji międzyludzkich lub człowiek-system. Szczerze, pamiętam początki pierwszego masowego Crowd Sourcingu, czyli Wikipedii (na której nb. LLMy, ogólnie NLPy, w wielkiej mierze były trenowane) – dokładnie te same zastrzeżenia, Henryk Batuta; to jasne, iż w aktualnej epoce systemy eksperckie, wspomagania decyzji niedeterministyczne popełniają błędy, mimo to konwergują do jakiegoś mniej czy bardziej konsensusowego (“zdroworozsądkowego”) wykładnika “prawdy”. Teraz, wyjście poza prosty graf (bazę) wiedzy, sferę konceptów, czyli jakościową (np. asocjacje, skojarzenia), a obarczenie jej elementarną logiką i wnioskowaniem (np. LRMy, także np. AFAIR deterministyczna metoda Rulemapping) czy ilościową (Wolfram|Alpha, MindOpt) – zaczynają naśladować pracę Białych Kołnierzyków (oraz ich gry – np. skarbówka zabiega o maksymalizację zebranych podatków, zaś prywatny przedsiębiorca o optymalizację podatkową). Odbiorcy muszą natomiast zinternalizować odruch sprawdzania rozwiązań podawanych przez zawodne zautomatyzowane systemy, a zatem odbudować (samo)krytycyzm – w np. moim pokoleniu jeszcze domyślny. W Świecie Wolnościowym nikt nikogo do niczego nie zmusza – nie ufasz, to nie używaj. :) PITa też można dziś “składać” z automatu (prosty algorytm), albo nadal wypełniać ręcznie, jak dekady temu.
Tak tak, a AGI jest tuż za rogiem!™ 🤣
Zamiast powyższej ściany tekstu, polecam osobom w tym wątku tekst Eda Zittrona:
https://www.wheresyoured.at/subprimeai/
Oraz świetną prezentację prof. Emily M. Bender (która zajmowała się LLMami “zanim to było cool”) na temat tego, kiedy takie narzędzia mają sens:
https://www.youtube.com/watch?v=qpE40jwMilU
Nie mówiąc o doskonałym podkaście, którego jest współautorką:
https://www.dair-institute.org/maiht3k/