Una panoramica sull'affidabilità delle fonti AI per i giovani utenti e le criticità emergenti
Secondo recenti studi europei, quasi un utente giovane su sei si informa quotidianamente attraverso assistenti virtuali come ChatGPT, Copilot, Gemini e altri strumenti di intelligenza artificiale. Tuttavia, emerge che il 45% di queste risposte contiene errori gravi o significativi, sollevando preoccupazioni sulla reale affidabilità di queste fonti digitali.
Dettagli e metodologia dell'indagine sull'affidabilità dell'AI
Un importante studio condotto dall'Unione Europea di Radiodiffusione (EBU) in collaborazione con la BBC ha ascoltato la voce di 22 emittenti pubbliche di 18 Paesi, tra cui la Radiotelevisione Italiana (RAI).
Sono state analizzate più di 3.000 risposte a quesiti di attualità, evidenziando le criticità e le aree di miglioramento dell'AI.
Risultati principali e dati significativi
- Il 45% delle risposte analizzate presenta almeno un errore di rilevanza.
- L'80% delle risposte mostra imprecisioni, più o meno gravi, a seconda del sistema valutato.
- Tra le tecnologie esaminate, Gemini di Google si distingue come il sistema con le performance più deboli, con il 76% di errori nelle risposte.
Impatti delle imprecisioni e rischi di disinformazione
Benché si siano registrati miglioramenti rispetto al passato (dal 51% di risposte problematiche nel 2023 al 37% attuale), rimane un problema sistemico. Questi errori, spesso dovuti a distorsioni di fonte e interpretazioni errate, rischiano di alimentare fenomeni di disinformazione e di compromettere la fiducia del pubblico.
Indicazioni e strumenti per un uso consapevole dell'AI
Per contrastare queste criticità, l'EBU e la BBC hanno sviluppato un "Toolkit per l'integrità dell'informazione negli assistenti di intelligenza artificiale". Tale strumento propone norme e linee guida per garantire:
- Accuratezza e affidabilità delle risposte
- Correttezza nel presentare il contesto
- Distinzione chiara tra fatti e opinioni
- Corrette attribuzioni delle fonti
Inoltre, la tassonomia degli errori più frequenti include:
- Allucinazioni: dati falsi o inventati dall'AI
- Collegamenti causali infondati: deduzioni errate tra eventi o concetti
Considerando che circa il 7% di chi consulta quotidianamente notizie si affida già ad assistenti AI, e questa percentuale sale al 15% tra gli under 25, è fondamentale che le autorità europee e nazionali monitorino l'utilizzo di questi strumenti. Lo scopo è garantirne accuratezza, trasparenza e correttezza dei contenuti trasmessi, prevenendo la diffusione di informazioni false.
Secondo recenti studi, quasi un utente giovane su sei si informa quotidianamente attraverso assistenti virtuali come ChatGPT, Copilot e Gemini. Questo indica una crescente dipendenza dalle fonti di intelligenza artificiale per ottenere notizie e aggiornamenti, specialmente tra le nuove generazioni.
Purtroppo, il 45% delle risposte generate dalle intelligenze artificiali come ChatGPT e simili contiene errori di grave o significativa entità, sollevando dubbi sulla loro affidabilità come fonti informative per i giovani.
L'affidamento a AI senza verifica può portare a ricevere informazioni errate, distorte o inventate, favorendo la disinformazione e compromettendo la fiducia del pubblico nei media digitali, specialmente tra i giovani utenti.
Le risposte incorrecte derivano da distorsioni delle fonti di dati, interpretazioni errate e limiti intrinseci agli algoritmi di intelligenza artificiale, che spesso producono 'allucinazioni' o collegamenti causali infondati.
Implementando strumenti di verifica, sviluppando linee guida chiare e educando gli utenti sulla necessità di controllare le fonti, si può aumentare l'accuratezza e la trasparenza delle risposte generate dalle AI.
Esistono toolkit come quello sviluppato dall'EBU e dalla BBC, che forniscono linee guida e norme per valutare l'integrità e l'affidabilità delle risposte dell'AI, aiutando gli utenti a distinguere tra fatti e opinioni.
I frequenti errori e le distorsioni delle fonti AI possono portare i giovani a sviluppare sfiducia nei confronti delle fonti digitali, rendendo più difficile distinguere tra informazioni vere e false in futuro.
Distinguere tra fatti e opinioni è fondamentale per garantire un'informazione corretta e per evitare che le interpretazioni soggettive influenzino le scelte e le convinzioni dei giovani che si affidano all'AI.
Le autorità possono implementare normative sulla trasparenza, promuovere la formazione degli utenti e sostenere strumenti di verifica indipendenti, per assicurare che le AI siano utilizzate in modo responsabile e affidabile nel settore dell'informazione.
Se correttamente gestite e accompagnate da strumenti di verifica, le AI possono offrire accesso immediato a diverse fonti e aggiornamenti, aiutare a sviluppare competenze critiche ed educare i giovani a un uso più consapevole delle tecnologie digitali.