L’intelligenza artificiale generativa sta ridisegnando i confini del giornalismo. È quanto emerge dal EBU News Report 2025 – Leading Newsrooms in the Age of Generative AI, lo studio condotto dall’European Broadcasting Union che fotografa un settore in rapida trasformazione: le redazioni di tutto il mondo stanno cercando di comprendere come integrare l’AI nei propri processi produttivi, senza sacrificare qualità, etica e fiducia del pubblico.
Il documento, che raccoglie testimonianze e casi studio da BBC, BR, SR, Yle, Rappler e altre testate internazionali, descrive un panorama complesso: le potenzialità dell’AI generativa sono enormi, ma i rischi non sono meno significativi.
Dalla sperimentazione alla strategia
Dopo una prima fase di curiosità e sperimentazione, molte redazioni hanno adottato un approccio più maturo all’uso dell’intelligenza artificiale. Gli strumenti più diffusi non riguardano la sostituzione del giornalista, ma il suo potenziamento: assistenti per la scrittura, traduzioni automatiche, trascrizioni di interviste, analisi semantiche e personalizzazione dei contenuti. La chiave del successo, sottolinea il report, è l’integrazione dell’AI nei flussi di lavoro esistenti, con obiettivi chiari e una governance solida. Non più esperimenti isolati, ma strategie strutturate che coinvolgono redazioni, tecnici e management.
Efficienza e responsabilità: un equilibrio fragile
Le opportunità sono tangibili. L’AI consente di ottimizzare tempi e costi di produzione, migliorare l’accessibilità – ad esempio con sottotitoli e traduzioni automatiche – e personalizzare l’esperienza informativa.
Tuttavia, il report mette in guardia da rischi altrettanto concreti: la scarsa trasparenza dei modelli generativi, la produzione di contenuti errati o fuorvianti (“allucinazioni”) e la dipendenza crescente dalle grandi aziende tecnologiche.
Le redazioni pubbliche, in particolare, mantengono un atteggiamento prudente, consapevoli che ogni errore può intaccare il rapporto di fiducia con i cittadini. L’obiettivo è bilanciare innovazione e responsabilità, evitando che l’automazione comprometta il ruolo umano nella verifica e nel racconto dei fatti.
Il pubblico tra fiducia e scetticismo
Un aspetto centrale del report riguarda la percezione dell’audience. Il pubblico si mostra generalmente favorevole all’impiego dell’AI per compiti tecnici, come la traduzione o la creazione di sottotitoli, ma reagisce con diffidenza quando percepisce che l’AI sostituisce i giornalisti. La trasparenza sull’uso dell’intelligenza artificiale è fondamentale, ma un’eccessiva etichettatura (“contenuto generato da AI”) può avere l’effetto opposto, generando sfiducia.
L’AI, inoltre, apre la strada a una nuova forma di personalizzazione informativa, capace di adattare le notizie agli interessi e al linguaggio del singolo utente. Una tendenza che migliora la fruibilità ma rischia di frammentare il dibattito pubblico, chiudendo gli utenti in “bolle informative” che limitano la visione d’insieme e il senso di comunità.
La corsa alle competenze
Dietro ogni tecnologia efficace ci sono persone preparate. L’EBU sottolinea che la trasformazione digitale delle redazioni non può prescindere dalla formazione continua. Servono ambienti sicuri e laboratori interni in cui i giornalisti possano sperimentare senza rischi, come dimostra il caso di YleGPT, la piattaforma sviluppata dall’emittente finlandese Yle per testare in sicurezza strumenti basati su AI generativa.
Il rischio di “deskilling” – la perdita di capacità critiche e creative dovuta all’uso passivo della tecnologia – è reale. Per questo motivo, le redazioni più lungimiranti stanno investendo su figure ibride, capaci di unire competenze giornalistiche, digitali e analitiche.
La sfida delle Big Tech
Uno dei punti più delicati affrontati dal report riguarda la dipendenza dalle grandi piattaforme tecnologiche. Le redazioni segnalano difficoltà nell’accedere ai dati, nella comprensione dei meccanismi dei modelli linguistici e nella sostenibilità economica delle soluzioni commerciali proposte dai colossi del digitale. L’adozione dell’AI, dunque, non è solo una questione tecnica, ma anche politica e regolatoria: servono regole chiare per evitare squilibri di potere che possano compromettere l’indipendenza editoriale.
Verso una leadership responsabile
Il News Report 2025 si chiude con un invito alla responsabilità. L’AI può essere una forza positiva solo se incardinata in una visione strategica che integri sei dimensioni:
- giornalismo, fondato su contenuti originali e verificati;
- distribuzione, capace di bilanciare personalizzazione e accesso condiviso all’informazione;
- tecnologia, da adottare in modo consapevole;
- dati, da gestire con trasparenza e sicurezza;
- talenti, da formare e valorizzare;
- leadership, come garante del legame tra innovazione e missione pubblica dell’informazione.
Il futuro del giornalismo resta umano
L’AI è già una componente strutturale del giornalismo contemporaneo, ma non potrà mai sostituire la sensibilità, il giudizio e la responsabilità di chi racconta i fatti. Come ricorda il report, la tecnologia deve rafforzare – non indebolire – il patto di fiducia tra media e cittadini. La sfida, per le redazioni del futuro, sarà quella di mantenere l’essenza del mestiere: spiegare il mondo attraverso lo sguardo umano, con l’AI come alleata, non come voce sostitutiva.
