Hallucinations — which occur when models authoritatively states something that isn’t true (or in the case of an image or a video makes something that looks…wrong) — are impossible to resolve without new branches of mathematics, and while you might be able to reduce or mitigate them, their existence makes it hard for business-critical applications to truly rely on generative AI.
Oraz świetną prezentację prof. Emily M. Bender (która zajmowała się LLMami “zanim to było cool”) na temat tego, kiedy takie narzędzia mają sens: https://www.youtube.com/watch?v=qpE40jwMilU
Tak tak, a AGI jest tuż za rogiem!™ 🤣
Zamiast powyższej ściany tekstu, polecam osobom w tym wątku tekst Eda Zittrona:
https://www.wheresyoured.at/subprimeai/
Oraz świetną prezentację prof. Emily M. Bender (która zajmowała się LLMami “zanim to było cool”) na temat tego, kiedy takie narzędzia mają sens:
https://www.youtube.com/watch?v=qpE40jwMilU
Nie mówiąc o doskonałym podkaście, którego jest współautorką:
https://www.dair-institute.org/maiht3k/