Nová štúdia odhaľuje pretrvávajúce halucinácie v top modeloch AI

Nová štúdia odhaľuje pretrvávajúce halucinácie v top modeloch AI

Podľa nedávnej štúdie aj tie najlepšie modely AI pravidelne zažívajú halucinácie )) – chyby, pri ktorých modely generujú nepravdivé alebo zavádzajúce informácie. Všetky generatívne modely AI – od Gemini od Google po Claude od Anthropic a najnovšie GPT-4o od OpenAI – majú tento problém, avšak druh a frekvencia chýb sa líšia v závislosti od tréningových údajov.

V snahe posúdiť tieto halucinácie výskumníci z Cornellu, univerzít vo Washingtone a Waterloo a organizácie AI2 porovnávali modelové výstupy so spoľahlivými zdrojmi na rôzne témy vrátane geografie, histórie, zdravia a práva. Podľa údajov žiadny model nefungoval konzistentne dobre medzi všetkými jednotlivcami a tí, ktorí mali menej halucinácií, tak urobili čiastočne preto, že odmietli odpovedať na otázky, na ktoré mohli odpovedať nesprávne.

Výskum podčiarkuje pretrvávajúcu obtiažnosť spoliehania sa na materiál generovaný AI, keďže aj tie najpokročilejšie modely sú schopné generovať presný text bez halucinácií len v približne 35 % prípadov. Toto vyšetrovanie zahŕňa zložitejšie témy, ktoré nie sú pokryté Wikipédiou, ako je kultúra, financie a medicína, zatiaľ čo predchádzajúce štúdie sa často zameriavali na otázky s ľahko dostupnými odpoveďami na Wikipédii. Vyhodnotili sme viac ako tucet známych modelov, ako napríklad Gemini 1.5 Pro od Googlu, Llama 3 od Meta a GPT-4o.

Štúdia zistila, že hoci modely AI pokročili, miera ich halucinácií sa výrazne neznížila. Modely OpenAI patrili medzi najmenej pravdepodobné, že prinesú nepresné výsledky; no modelky mali viac problémov s odpovedaním na otázky o financiách a celebritách ako o geografii a informatike.

Nielen, že modely, ktorým chýba možnosť vyhľadávania na webe, sa snažia odpovedať na problémy, ktoré Wikipédia nepokrýva, ale menšie modely prekonali tie väčšie, pokiaľ ide o mieru halucinácií. Tieto výsledky spochybňujú pokroky, o ktorých tvrdili dodávatelia AI.

Výskum naznačuje, že halucinácie budú ešte nejaký čas problémom a že kritériá používané na hodnotenie týchto modelov nemusia byť dostatočné. Model Claude 3 Haiku, ktorý dosiahol väčšiu presnosť tým, že neodpovedal na približne 28 % otázok, je jedným z príkladov modelu, ktorý výskumníci navrhujú ako prechodné riešenie. Programovanie modelov, aby urobili to isté. Na druhej strane nie je jasné, či ľudia budú tolerovať model, ktorý sústavne odmieta odpovedať.

Výskumníci podporujú legislatívu, ktorá zaručuje, že ľudskí experti sú zapojení do overovania obsahu generovaného AI, ako aj sústredenejšie úsilie na zníženie halucinácií, možno prostredníctvom overovania faktov typu „človek v slučke“ a vylepšených postupov citovania. Veria, že existuje veľký potenciál na zlepšenie nástrojov na kontrolu faktov a ponúkanie opráv obsahu pre obsah, ktorý bol zmenený halucináciami.

Code Labs Academy © 2025 Všetky práva vyhradené.