- cross-posted to:
- polska@sopuli.xyz
- cross-posted to:
- polska@sopuli.xyz
Model PLLuM udostępnimy na otwartej licencji. Za pośrednictwem platformy Huggingface udostępnione zostaną modele do pobrania. Dostępny też jest interfejs graficzny (GUI) w postaci czatu.
To brzmi jeszcze prawie racjonalnie jak na ten cały AI nonsens, ale ciekawe gdzie to jest faktycznie hostowane i jak zapewnią prywatność danych/rozmów.
Czat w mObywatelu nie brzmi racjonalnie w ogóle. Te modele nie mogą nie halucynować, halucynacje to jedyne co robią (i czasem te halucynacje przypadkiem nie odbiegają za bardzo od rzeczywistości). Umieszczanie ich w jakimkolwiek oficjalnym kontekście jest po prostu nieodpowiedzialne.
Czy to by w razie czego było zaskarżalne na drodze administracyjnej albo cywilnoprawnej?
Nie mam pojęcia. Ale jestem pewien, że to szybko zostanie sprawdzone…
Sorry, nie mogę się zgodzić. Jestem Progresywistą – także otwartym proponentem AI/ML, również LLMów, ogólnie utransparentnienia, modelowania, automatyzacji i wsparcia relacji międzyludzkich lub człowiek-system. Szczerze, pamiętam początki pierwszego masowego Crowd Sourcingu, czyli Wikipedii (na której nb. LLMy, ogólnie NLPy, w wielkiej mierze były trenowane) – dokładnie te same zastrzeżenia, Henryk Batuta; to jasne, iż w aktualnej epoce systemy eksperckie, wspomagania decyzji niedeterministyczne popełniają błędy, mimo to konwergują do jakiegoś mniej czy bardziej konsensusowego (“zdroworozsądkowego”) wykładnika “prawdy”. Teraz, wyjście poza prosty graf (bazę) wiedzy, sferę konceptów, czyli jakościową (np. asocjacje, skojarzenia), a obarczenie jej elementarną logiką i wnioskowaniem (np. LRMy, także np. AFAIR deterministyczna metoda Rulemapping) czy ilościową (Wolfram|Alpha, MindOpt) – zaczynają naśladować pracę Białych Kołnierzyków (oraz ich gry – np. skarbówka zabiega o maksymalizację zebranych podatków, zaś prywatny przedsiębiorca o optymalizację podatkową). Odbiorcy muszą natomiast zinternalizować odruch sprawdzania rozwiązań podawanych przez zawodne zautomatyzowane systemy, a zatem odbudować (samo)krytycyzm – w np. moim pokoleniu jeszcze domyślny. W Świecie Wolnościowym nikt nikogo do niczego nie zmusza – nie ufasz, to nie używaj. :) PITa też można dziś “składać” z automatu (prosty algorytm), albo nadal wypełniać ręcznie, jak dekady temu.
Tak tak, a AGI jest tuż za rogiem!™ 🤣
Zamiast powyższej ściany tekstu, polecam osobom w tym wątku tekst Eda Zittrona:
https://www.wheresyoured.at/subprimeai/Hallucinations — which occur when models authoritatively states something that isn’t true (or in the case of an image or a video makes something that looks…wrong) — are impossible to resolve without new branches of mathematics, and while you might be able to reduce or mitigate them, their existence makes it hard for business-critical applications to truly rely on generative AI.
Oraz świetną prezentację prof. Emily M. Bender (która zajmowała się LLMami “zanim to było cool”) na temat tego, kiedy takie narzędzia mają sens:
https://www.youtube.com/watch?v=qpE40jwMilUNie mówiąc o doskonałym podkaście, którego jest współautorką:
https://www.dair-institute.org/maiht3k/
Nie lepiej byłoby, gdyby zatrudnili kolesia, któremu można zadawać pytania? Z 10 lat temu mój stary zadzwonił do pomocy technicznej Ubisoftu, bo gra Anno 1503 nie działała na Windosie 7. Dostał patcha naprawiającego ten błąd.