Le allucinazioni dell'AI sono inevitabili? - Wired

“Gli LLM avranno sempre delle allucinazioni; è un difetto di progettazione. Prevedono sequenze di testi plausibili, ma non seguono il mondo e non sanno come verificare i fatti. Ogni singolo LLM è stato lo stesso. Avremo bisogno di nuovi progressi scientifici per risolvere questo problema”, ha commentato Gary Marcus, una delle voci più autorevoli e critiche nel campo dell’IA, raggiunto da Wired Italia.

Esistono strumenti, metodi e classificazioni della probabilità che si verifichino allucinazioni quando si utilizza un LLM per riassumere documenti. I risultati sembrano progressivamente migliorare, tuttavia, come sostenuto dagli autori della ricerca, il problema non è mai stato del tutto risolto.

Leggi tutto: https://www.wired.it/article/allucinazioni-ai-inevitabili/

Vai alla ricerca: Hallucination is Inevitable: "An Innate Limitation of Large Language Models"

Commenti

Post popolari in questo blog

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity. - IFM blog

Building a high-performance data and AI organization - MIT report 2023