Assistenti AI Presentano Problemi Significativi Nel 45% delle Risposte alle Notizie

## L’Inaffidabilità degli Assistenti AI: Un’Analisi Preoccupante Una recente indagine condotta dalla European Broadcasting Union (EBU) e dalla BBC ha rivelato che i principali assistenti AI hanno presentato problemi significativi nella gestione dei contenuti informativi in quasi la metà delle risposte valutate. Il problema è emerso in uno studio che ha esaminato le versioni gratuite […]

## L’Inaffidabilità degli Assistenti AI: Un’Analisi Preoccupante

Una recente indagine condotta dalla European Broadcasting Union (EBU) e dalla BBC ha rivelato che i principali assistenti AI hanno presentato problemi significativi nella gestione dei contenuti informativi in quasi la metà delle risposte valutate. Il problema è emerso in uno studio che ha esaminato le versioni gratuite di ChatGPT, Copilot, Gemini e Perplexity, analizzando le loro risposte a domande di attualità in 14 lingue diverse all’interno di 22 organizzazioni di media pubblici in 18 paesi.

### Principali Risultati dello Studio

L’analisi ha valutato un totale di **2.709 risposte**, e ha mostrato che il **45%** di esse conteneva almeno un problema significativo, mentre un sorprendente **81%** presentava qualche tipo di errore. L’area più problematica è stata quella delle fonti: il **31%** delle risposte ha subito problematiche rilevanti in questo ambito.

### Come Hanno Performato Gli Assistenti

Le performance sono variate notevolmente tra i diversi assistenti. Google Gemini ha mostrato il maggior numero di problemi, con il **76%** delle sue risposte contenenti errori significativi, la maggior parte dei quali legati a problematiche di sourcing (cioè **72%**). Gli altri assistenti si sono attestati a un massimo del **37%** per questioni principali e sotto il **25%** per problemi legati alle fonti.

### Esempi di Errori

Tra gli errori di accuratezza più evidenti, alcuni assistenti hanno erroneamente identificato Papa Francesco come attuale pontefice a fine maggio, nonostante la sua morte avvenuta in aprile. Inoltre, Gemini ha fornito informazioni errate riguardo a modifiche legali sui vaporizzatori usa e getta.

### Nota Metodologica

Il periodo di raccolta delle risposte è avvenuto tra il 24 maggio e il 10 giugno, utilizzando un insieme condiviso di 30 domande chiave e domande locali opzionali. Lo studio si è concentrato sulle versioni gratuite di ciascun assistente per riflettere l’uso tipico.

### Perché Questo è Importante

Questi risultati sottolineano l’importanza di verificare le affermazioni fornite dagli assistenti AI contro le fonti originali, specialmente quando si utilizza l’AI per ricerche o pianificazione di contenuti. L’elevato tasso di errori aumenta il rischio di dichiarazioni errate o non supportate nei riassunti che citano i tuoi contenuti.

### Uno Sguardo al Futuro

Con il rapporto, l’EBU e la BBC hanno pubblicato un [Toolkit per l’Integrità delle Notizie negli Assistenti AI](https://www.ebu.ch/research/open/report/news-integrity-in-ai-assistants-toolkit) che fornisce orientamenti per aziende tecnologiche, organizzazioni mediatiche e ricercatori. Secondo le affermazioni dell’EBU, la crescente dipendenza dagli assistenti per le notizie potrebbe minare la fiducia del pubblico. Come ha sottolineato Jean Philip De Tender, direttore dei media dell’EBU:

> “Quando le persone non sanno a cosa credere, tendono a non fidarsi di nulla, e questo può ostacolare la partecipazione democratica.”

In conclusione, è fondamentale affrontare queste problematiche con serietà, garantendo che gli assistenti AI offrano un servizio affidabile, soprattutto in un’epoca in cui l’informazione è più critica che mai.