Le allucinazioni dell'AI sono inevitabili? - Wired
“Gli LLM avranno sempre delle allucinazioni; è un difetto di progettazione. Prevedono sequenze di testi plausibili, ma non seguono il mondo e non sanno come verificare i fatti. Ogni singolo LLM è stato lo stesso. Avremo bisogno di nuovi progressi scientifici per risolvere questo problema”, ha commentato Gary Marcus, una delle voci più autorevoli e critiche nel campo dell’IA, raggiunto da Wired Italia.
Esistono strumenti, metodi e classificazioni della probabilità che si verifichino allucinazioni quando si utilizza un LLM per riassumere documenti. I risultati sembrano progressivamente migliorare, tuttavia, come sostenuto dagli autori della ricerca, il problema non è mai stato del tutto risolto.
Leggi tutto: https://www.wired.it/article/allucinazioni-ai-inevitabili/
Vai alla ricerca: Hallucination is Inevitable: "An Innate Limitation of Large Language Models"
Commenti
Posta un commento