L’AI di Google Ha Fornito Consigli sulla Salute Fuorvianti

# Google AI Overviews: Consigli sulla Salute Fuorvianti Recentemente, **The Guardian** ha pubblicato un’inchiesta riguardante le risposte fornite da Google AI Overviews a domande legate alla salute, rilevando che esperti del settore hanno trovato indicazioni inaccurate o fuorvianti. Google ha contestato questa segnalazione, sostenendo che molti degli esempi utilizzati erano basati su screenshot incompleti. ## […]

# Google AI Overviews: Consigli sulla Salute Fuorvianti

Recentemente, **The Guardian** ha pubblicato un’inchiesta riguardante le risposte fornite da Google AI Overviews a domande legate alla salute, rilevando che esperti del settore hanno trovato indicazioni inaccurate o fuorvianti. Google ha contestato questa segnalazione, sostenendo che molti degli esempi utilizzati erano basati su screenshot incompleti.

## I Risultati dell’Inchiesta di The Guardian

L’inchiesta ha coinvolto una serie di ricerche sanitarie, con risposte generate dall’IA condivise con organizzazioni benefiche, esperti medici e gruppi informativi per pazienti. Diverse recensioni hanno evidenziato che i riassunti generati dall’IA includevano suggerimenti fuorvianti o errati.

Un esempio significativo riguardava il cancro pancreatico, in cui Anna Jewell, direttrice di Pancreatic Cancer UK, ha sottolineato che consigliare ai pazienti di evitare cibi ricchi di grassi era “completamente errato”. Ha avvertito che seguire tale indicazione “potrebbe essere davvero pericoloso e compromettere le possibilità di ricevere cure”.

L’inchiesta ha evidenziato anche query sulla salute mentale. Stephen Buckley, responsabile informazione di Mind, ha affermato che alcuni riassunti IA per condizioni come psicosi e disturbi alimentari offrivano “consigli molto pericolosi” che erano “errati, dannosi o avrebbero potuto portare le persone a evitare di cercare aiuto”.

Inoltre, è stato menzionato un errore riguardante lo screening del cancro, con Athena Lamnisos, CEO della charity Eve Appeal, che ha dichiarato che citare un pap test come test per il cancro vaginale era “totalmente sbagliato”.

Sophie Randall, direttrice del Patient Information Forum, ha osservato che questi esempi indicano che “le AI Overviews di Google possono posizionare informazioni sanitarie inaccurate in cima ai risultati delle ricerche online, presentando un rischio per la salute delle persone”. Da segnalare è anche il fatto che ripetere la stessa ricerca può produrre riassunti diversi, attingendo a fonti diverse.

## La Risposta di Google

Google ha contestato sia gli esempi sia le conclusioni tratte da The Guardian. Un portavoce ha affermato che molti degli esempi condivisi erano “screenshot incompleti” e che, per quanto riguardava la loro valutazione, si collegavano a “fonti ben note e raccomandavano di cercare consulenza esperta”. Ha anche dichiarato che la “stra grande maggioranza” delle AI Overviews sono “fattuali e utili” e che l’azienda sta apportando miglioramenti alla qualità in modo “continuo”.

## Il Contesto Più Ampio dell’Accuratezza

Questa inchiesta arriva in un periodo di dibattito che dura dal 2024, quando le AI Overviews sono state ampliate. All’inizio, queste risposte avevano suscitato attenzione per risultati bizzarri, come suggerimenti che includevano colla su pizza o mangiare sassi. Google ha successivamente annunciato la volontà di “ridurre il numero di query” che attivano i riassunti generati dall’IA e di affinare come funziona la funzione.

Dati recenti di Ahrefs suggeriscono che le query mediche YMYL (Your Money Your Life) sono più propense a innescare AI Overviews rispetto alla media. In un’analisi di 146 milioni di SERP, il 44.1% delle query mediche YMYL ha attivato un’AI Overview, un dato più che doppio rispetto alla media generale nel dataset.

La ricerca ha anche evidenziato lacune nel supporto alle citazioni nelle risposte generate dall’IA. Un framework di valutazione ha trovato che molte risposte non erano completamente supportate dalle fonti citate, anche quando i sistemi fornivano link.

## Perché È Importante

Le AI Overviews appaiono sopra i risultati classificati. Quando il tema è la salute, gli errori hanno un peso maggiore. Gli editori hanno investito anni per ottenere esperienza medica documentata, e questa inchiesta mette in evidenza la stessa luce sulle sintesi di Google quando compaiono in cima ai risultati.

L’inchiesta di The Guardian sottolinea anche un problema pratico: la stessa query può produrre riassunti diversi nel tempo, rendendo difficile verificare ciò che si è visto eseguendo nuovamente la ricerca.

## Uno Sguardo al Futuro

Google ha già apportato modifiche alle AI Overviews dopo critiche virali. La sua risposta a **The Guardian** indica che si aspetta che le AI Overviews siano valutate come altre funzionalità di ricerca, non sottoposte a uno standard differente. La questione rimane: come possiamo garantire che le informazioni sanitarie fornite dall’IA siano accurate e affidabili per la salute pubblica?