
Introduzione
L’avvento recente dell’Intelligenza Artificiale (IA) – in particolare delle piattaforme di IA generativa come ChatGPT, Google Gemini, Perplexity, solo per citare alcune delle più note – ha investito anche il mondo dell’informazione con impatto dirompente. Questi strumenti sono entrati nell’uso quotidiano degli utenti e dei professionisti, rendendo familiari i Large Language Model (LLM), capaci di generare contenuti simili a quelli prodotti dall’intelletto umano. Le redazioni giornalistiche, per le quali il fattore tempo è fondamentale, hanno avviato i primi esperimenti per velocizzare e semplificare la produzione di contenuti: sono stati introdotti servizi di traduzione automatica, trascrizione audio-testo, creazione di audioarticoli e newsletter automatizzate, riassunti e titoli ottimizzati per la SEO. Tuttavia, l’approccio è rimasto prudente: dopo un iniziale entusiasmo, sono emerse problematiche di verifica e validazione dei contenuti generati dall’IA, che per ora vengono pubblicati raramente e solo dopo controllo umano in redazione.
In parallelo, molte testate stanno formando i giornalisti sulle tematiche IA e implementando tecnologie per migliorare l’offerta e la fidelizzazione del pubblico – ad esempio mediante personalizzazione dei contenuti e paywall dinamici -. Questo perché l’IA non è soltanto uno strumento di automazione interna, ma incide sul modo in cui le notizie vengono distribuite e “consumate” nell’ecosistema digitale. Ci troviamo dunque a un bivio: da un lato l’IA offre opportunità significative per innovare il giornalismo, dall’altro solleva rischi etici e pratici che richiedono di essere governati con attenzione. Come ha sottolineato il prof. Francesco Giorgino, docente LUISS e, da circa trent’anni, giornalista RAI, occorre saper bilanciare punti di forza e debolezza, evitando sia visioni apocalittiche sia eccessivi trionfalismi, e impegnarsi a “governare la complessità” dell’applicazione di una tecnologia così impattante sulla produzione editoriale giornalistica.
Del resto l’IA rappresenta una rivoluzione globale, la cui potenza è sotto gli occhi di tutti. Se non è già il presente in alcune applicazioni, lo sarà in un futuro molto prossimo. L’unica soluzione, quindi, è adattarsi, imparare a “guidare” il mezzo, sfruttandolo per rilanciare la qualità dell’informazione.
Declinazioni dell’IA nel giornalismo: predittiva, prescrittiva e generativa
L’IA può supportare il ciclo produttivo editoriale in varie fasi, riconducibili a tre macro-categorie: soluzioni predittive, prescrittive e generative. Ciascuna categoria presenta specifiche funzionalità e impatti nel lavoro giornalistico.
L’IA predittiva sfrutta algoritmi di machine learning e analisi statistica su dati storici per prevedere trend futuri o comportamenti del pubblico. Nel marketing tali strumenti vengono usati per anticipare le mosse dei consumatori (ad esempio la probabilità di churn, ossia abbandono di un servizio).
Analogamente, nell’industria dei media l’IA predittiva può aiutare a comprendere e prevedere le dinamiche di fruizione delle notizie. Un esempio pratico riguarda la previsione dell’abbandono dei media tradizionali in modalità lineare da parte dei giovani (Generazione Z e, in prospettiva, Generazione Alpha): algoritmi predittivi possono analizzare i comportamenti di consumo per segnalare un calo di attenzione su TV o stampa e suggerire, ove possibile, contromisure editoriali mirate. Nelle redazioni, sebbene da utilizzare con le dovute cautele, l’analisi predittiva può supportare la programmazione dei contenuti (identificando quali temi potrebbero diventare virali o di interesse in futuro) e ottimizzare le strategie di pubblicazione. Inoltre, in combinazione con strumenti di data mining, l’IA può individuare correlazioni in grandi moli di dati giornalistici, evidenziando notizie potenziali (ad esempio anomalie in bilanci pubblici, trend nei social media) prima che diventino evidenti a occhio nudo. Va rilevato che tali applicazioni di IA predittiva nel giornalismo sono agli inizi e spesso integrate in piattaforme analitiche più ampie; tuttavia stanno diventando sempre più importanti man mano che le testate si affidano ai dati per guidare le decisioni.
L’IA prescrittiva, che include quei sistemi capaci non solo di analizzare dati ma di suggerire azioni ottimali sulla base di tali analisi, nel contesto dei media, si evidenzia principalmente in algoritmi di raccomandazione e soluzioni per “personalizzare” l’esperienza dell’utente. Piattaforme come i social network e i servizi di streaming hanno abituato il pubblico a contenuti suggeriti “su misura”; anche i siti di news adottano modelli simili, ad esempio proponendo articoli correlati a quelli già letti o notificando aggiornamenti su argomenti di interesse del lettore. Nelle aziende editoriali italiane, meccanismi di IA sono già alla base delle strategie di distribuzione: la personalizzazione dei flussi di notizie, la moderazione automatica dei commenti dei lettori e strumenti per la fidelizzazione come i paywall dinamici sono realtà consolidate. Come spiega Andrea Iannuzzi, giornalista caporedattore de La Repubblica, tali sistemi aiutano a migliorare i tassi di conversione e a conquistare o trattenere abbonati, ottimizzando l’offerta per ogni segmento di pubblico. In pratica, l’IA prescrittiva suggerisce all’editore come adattare i contenuti all’utente: per un lettore abituale di cronaca politica, la home page potrebbe mostrare più articoli di quel genere; mentre per un giovane che accede solo da smartphone al mattino, potrebbero essere consigliati formati brevi e visivi, e così via. Queste logiche, mutuate dal marketing, puntano a incrementare l’engagement e il tempo di permanenza sul sito, nonché a ridurre l’abbandono. Inoltre, sistemi prescrittivi possono gestire l’allocazione delle risorse editoriali suggerendo, ad esempio, quale articolo portare “in evidenza” in base alle performance previste o quale titolo “funziona” meglio per i motori di ricerca. In sintesi, l’IA prescrittiva agisce come un consulente virtuale della direzione editoriale, raccomandando decisioni ottimali per massimizzare audience e ricavi.
La terza categoria, quella dell’IA generativa, è la più discussa e innovativa. Si tratta di sistemi in grado di creare nuovi contenuti (quindi testi, immagini, audio, video) in modo autonomo, partendo da prompt o dati di input. In ambito giornalistico, l’IA generativa può essere impiegata per redigere articoli, sintetizzare testi, generare immagini a corredo delle notizie, produrre clip audio o video con voce e volti artificiali. Già da alcuni anni prima della recente ondata di LLM, diverse testate avevano sperimentato con successo la scrittura automatica di notizie basate su dati ricorrenti – tipicamente per i bollettini di Borsa, risultati sportivi, previsioni meteo – affidandola a software di Natural Language Generation al posto di reporter umani: una strategia molto vantaggiosa da punto di vista economico. Tali progetti di robot journalism hanno dimostrato di poter produrre rapidamente notizie factual, liberando i giornalisti da compiti ripetitivi. A livello internazionale, secondo l’agenzia Associated Press, per produrre oltre 3.000 news trimestrali sui risultati finanziari delle aziende, che rappresentano dieci volte quello che la redazione scriveva in passato, occorre circa il 20% in meno del tempo. Un tempo che i reporter possono dedicare ad attività più complesse. Di recente in Italia, molte redazioni nazionali e locali, hanno avviato progetti per generare automaticamente report e articoli, a partire dai dati delle elezioni locali e circoscrizionali: un esempio concreto di applicazione dell’IA generativa nel reportage elettorale.
Ma accanto al testo, più spesso, l’IA generativa può essere utilizzata per produrre immagini artificiali di alta qualità create dal nulla. Getty Images – colosso della fotografia d’archivio – ha sviluppato un proprio generatore di immagini AI, garantendo output visuali eccellenti e privi di violazioni copyright (grazie a un addestramento su dataset proprietari). Queste immagini possono essere utili per arricchire servizi giornalistici quando non si disponga di foto pertinenti, quando i contenuti originali non sarebbero pubblicabili, o per creare infografiche e contenuti visual originali. Inoltre, l’IA può migliorare tecnicamente contenuti esistenti (ad esempio
aumentando la risoluzione di immagini sgranate e restaurando filmati d’archivio) offrendo un vantaggio qualitativo. Tuttavia è proprio sul fronte della generazione autonoma di contenuti che si concentrano i maggiori problemi etici e di affidabilità. Se impiegata senza controllo, l’IA generativa può “manipolare” il senso delle cose, producendo testi o foto fuorvianti, e mettendo in discussione il valore stesso del lavoro giornalistico. Di conseguenza, molte redazioni adottano un approccio estremamente cauto: ad esempio, in Italia i contenuti generati interamente dall’IA vengono pubblicati ancora raramente, dopo un attento controllo redazionale, specialmente per evitare errori o informazioni non verificate. A dimostrazione di quanto l’IA generativa sia uno strumento potente ma “acerbo”, che il giornalismo sta studiando con attenzione, consapevole che da un suo uso corretto possono derivare benefici, ma da un abuso potrebbero scaturire gravi danni.
Opportunità per l’ecosistema informativo
L’integrazione dell’IA nel processo editoriale offre numerose opportunità di miglioramento sia sul versante produttivo, sia su quello dell’esperienza fruitiva per il pubblico. Come accennato, l’IA può assumere incarichi a basso valore aggiunto – trascrivere interviste, tradurre testi, redigere brevi aggiornamenti di routine – liberando tempo prezioso ai giornalisti. Questo consente alle redazioni di riallocare le risorse umane su attività a più alto valore, come inchieste, approfondimenti e verifiche dei fatti. In prospettiva, quindi, l’IA può contribuire a un giornalismo più efficace, dove i reporter non sono sommersi da incombenze meccaniche e routine produttive, ma possono concentrarsi sulla sostanza delle notizie.
Non soltanto il tempo, inteso come minor lavoro a parità di resa, ma il tempo come velocità di pubblicazione: in un ambiente competitivo dove arrivare per primi sulla notizia conta, l’IA offre un vantaggio in termini di rapidità. Algoritmi di news writing possono pubblicare un flash di agenzia pochi secondi dopo l’uscita di un dato di borsa o di una breaking news (basti pensare ai terremoti segnalati dai sistemi automatici). Ciò consente alle testate di coprire in tempo reale sviluppi che altrimenti richiederebbero minuti se non ore. Anche per la produzione di contenuti più elaborati, l’IA può accelerare alcune fasi: ad esempio generare un primo abstract o schema di articolo su cui poi il giornalista interviene per rifinire e aggiungere valore umano. Diverse redazioni italiane hanno già implementato strumenti del genere: il Corriere della Sera permette ora ai lettori di ascoltare la versione audio degli articoli in tempo reale, grazie a una voce artificiale neurale che legge automaticamente i testi sul sito. Questo servizio, oltre a offrire un nuovo modo di fruire le notizie, rappresenta un processo automatizzato quasi istantaneo (la versione audio è disponibile subito, senza attendere un speaker umano) e dimostra come l’IA possa ampliare e velocizzare la fruizione multimediale dei contenuti.
Dal lato del pubblico, i sistemi di raccomandazione e personalizzazione possono tradursi in una migliore esperienza (il lettore trova facilmente ciò che gli piace) e in un maggiore coinvolgimento. Ad esempio, molte testate online propongono in coda agli articoli una selezione di “articoli suggeriti”, scelti dall’algoritmo sulla base della cronologia di lettura. Questa pratica, se ben calibrata, può aumentare il numero di pagine lette per visita e il tempo speso sul sito, metriche cruciali sia editorialmente sia commercialmente (più tempo sul sito significa più esposizione alla pubblicità e più probabilità di sottoscrivere abbonamenti). Da uno studio, frutto della collaborazione fra l’Ordine Dei Giornalisti (ODG) e l’Università Lumsa,
emerge che “all’IA viene riconosciuta dal pubblico la capacità di migliorare l’efficienza, soprattutto nella riduzione dei tempi di produzione di contenuti e nella raccolta delle informazioni” (ma solo un giornalista su cinque crede che la verifica delle fonti possa essere migliorata dall’intelligenza artificiale).
Un ulteriore ambito di opportunità è quello creativo. L’IA apre la strada a format narrativi innovativi: chatbot informativi che dialogano con gli utenti rispondendo a domande sui fatti del giorno; notiziari personalizzati in cui un’AI anchor (un avatar virtuale) presenta le news; esperienze di realtà aumentata che sovrappongono informazioni contestuali al mondo reale. Strumenti come “Midjourney” permettono di generare immagini originali per reportage su vicende avvenute in passato, quando non esistono fotografie (si pensi a ricostruzioni storiche illustrate dall’IA).
Un aspetto spesso trascurato ma cruciale è l’uso dell’IA come “assistente nell’investigazione giornalistica”. Già oggi esistono algoritmi che aiutano a verificare l’autenticità di immagini e video (individuando ad esempio segni di manipolazione digitale) e strumenti di analisi semantica che possono passare al setaccio enormi quantità di testo in cerca di particolari informazioni. Nelle redazioni data-driven, l’IA può setacciare database e social network per trovare segnalazioni, pattern o anomalie che meritano un articolo. Ad esempio, può monitorare automaticamente centinaia di fonti locali e lanciare un alert se emergono notizie di potenziale interesse nazionale (ad esempio un aumento improvviso di casi di una malattia in una certa zona o un trend di proteste sui social).
Il risultato di queste applicazioni pratiche è un giornalismo più robusto e documentato, in cui l’IA agisce come un “collega” infaticabile
Rischi e criticità: dall’affidabilità ai risvolti etici
Accanto alle opportunità, l’adozione dell’IA nel giornalismo comporta numerose criticità che è necessario considerare attentamente. Queste riguardano la qualità e veridicità dei contenuti, la trasparenza e responsabilità, gli effetti sul pluralismo informativo e sul lavoro giornalistico, nonché aspetti di privacy e legalità. Quanto più si affinano le capacità dell’IA, tanto più è difficile garantire l’attendibilità delle notizie da essa prodotte (o co-prodotte). I modelli generativi di linguaggio, per quanto sofisticati, possono incorrere in allucinazioni: generano cioè affermazioni false o inesatte con apparente sicurezza. Questo è evidentemente inaccettabile nel giornalismo, dove l’accuratezza fattuale è fondamentale. Così come è altrettanto chiaro che delegare troppo lavoro alle macchine aumenta il rischio di non comprendere appieno come un dato contenuto sia stato prodotto. La nuova tecnologia, apparentemente una minaccia per la figura del giornalista, diventa quindi il mezzo che ne valorizza la figura, poiché più cresce l’uso dell’AI più “diventerà importante garantire ai lettori l’attendibilità dei contenuti prodotti”, tramite un lavoro di verifica e autenticazione, per il quale i giornalisti restano insostituibili; lo sottolineava il Consiglio Nazionale dell’ODG già nel Report 2024.
Passando poi all’IA prescrittiva, i meccanismi di personalizzazione presentano il rovescio della medaglia noto come filter bubble o echo chamber. Se gli algoritmi sono addestrati per dare all’utente “quello che vuole”, potrebbero finire col rinforzare pregiudizi e visioni parziali, mostrando solo notizie coerenti con le preferenze o credenze pregresse del lettore. Ciò alimenta
la disinformazione, in quanto contenuti distorti o unilaterali possono venire percepiti come verità oggettive dal pubblico esposto esclusivamente ad essi. Paradossalmente, l’altra faccia del problema è una eccessiva omologazione: se tutti i sistemi di IA attingono alle medesime fonti e adottano schemi standard, potremmo ritrovarci con un’informazione massificata e generalista, priva di quel pluralismo di voci e approcci che è linfa della democrazia. Il rischio echo chamber, emerso inizialmente con i social media, potrebbe accentuarsi ulteriormente con algoritmi sempre più “intelligenti” nel selezionare i contenuti per noi. Per i giornalisti, questa è una sfida deontologica: conciliare le esigenze di personalizzazione (spesso spinte dagli uffici marketing) con il dovere di offrire un’informazione completa ed equilibrata.
Quanto all’IA generativa, che rende possibile creare contenuti falsi ma estremamente verosimili su larga scala e a basso costo, come testi manipolati, immagini deepfake (si pensi alla famosa foto fittizia di Papa Francesco in piumino bianco diventata virale nel 2023): questo scenario rappresenta forse la minaccia più grave. Un ecosistema mediatico “contaminato da contenuti artificiali verosimili ma potenzialmente falsi”, nel quale distinguere il vero dal falso diventa arduo, costringerebbe i giornalisti a operare in un contesto di credibilità precaria, dove l’informazione verificata rischia di perdere valore perché sommersa da imitazioni indistinguibili. Già oggi proliferano siti di “pseudo-news” che sfruttano l’IA per ripubblicare notizie altrui riscritte automaticamente con titoli più “attraenti” guadagnando con la pubblicità e “soffocando” l’industria giornalistica regolare. Questo “saccheggio” dei contenuti non solo diffonde potenzialmente errori (se l’IA riassume male o altera il senso), ma danneggia economicamente le testate originarie, riducendo gli introiti e quindi le risorse per il giornalismo di qualità. Non è un caso che il 77% dei giornalisti italiani consideri la produzione di contenuti di bassa qualità la principale preoccupazione legata all’uso dell’IA generativa, seguita dal timore di un aumento delle fake news in circolazione. Il compito chiave sarà dotarsi di strumenti per identificare e segnalare i contenuti sintetici. Alcune piattaforme stanno introducendo filtri in grado di riconoscere testi o immagini fake, e a livello istituzionale si parla di “marcatura” digitale dei contenuti originali certificati. L’idea è associare a ogni articolo giornalistico un sigillo (un codice univoco) che ne garantisca l’integrità e l’originarietà; se il testo viene anche minimamente alterato o se ne trova uno uguale pubblicato dopo, il sistema lo segnala, smascherando i cloni non autorizzati. Questa sorta di watermark potrebbe rivelarsi uno strumento prezioso per difendere la filiera dell’informazione verificata dalle contraffazioni algoritmiche.
Quale futuro?
La prospettiva che i “robot” possano sostituire i giornalisti ha alimentato preoccupazioni occupazionali. Molte redazioni affrontano già crisi economiche e tagli di personale; l’idea che l’IA generativa possa scrivere articoli al posto di redattori in carne e ossa genera timori di ulteriori esuberi. Tuttavia, almeno nel breve termine, questo rischio appare contenuto. Più che un’ondata di licenziamenti robotici, è verosimile assistere a un’evoluzione delle competenze richieste: il giornalista di domani dovrà saper collaborare con l’IA, governarla e sfruttarla, diventando una sorta di “pilota” di sistemi intelligenti. Attualmente il livello di familiarità con gli strumenti di IA tra i giornalisti italiani non è molto elevato – la maggioranza dichiara di non aver mai o raramente usato strumenti di IA, salvo per traduzione automatica e generazione di immagini -, segno che c’è ampio spazio per iniziative di aggiornamento. Se gestita bene, l’IA
potrebbe addirittura rendere più attrattiva la professione per le nuove generazioni, eliminando alcuni aspetti più noiosi e aumentando l’impatto creativo e investigativo del lavoro giornalistico.
L’IA in Italia oggi
Nel nostro Paese l’adozione dell’IA nelle redazioni è partita più lentamente rispetto ad altre realtà internazionali, ma dal 2022 ha conosciuto una decisa accelerazione. Una recente relazione dell’Ordine dei Giornalisti ha analizzato la diffusione, l’efficacia, le prospettive e le criticità dell’IA generativa nel giornalismo italiano, tramite casi di studio e interviste nelle principali testate. Dai risultati emerge un quadro di sperimentazione cauto-ottimistica: praticamente tutte le grandi testate – dai quotidiani tradizionali (Corriere, Repubblica, La Stampa, Sole 24 Ore) alle digital native (ad esempio Fanpage, Money.it) – stanno esplorando strumenti di IA, ma con approcci graduali e spesso in fase pilota. Al Corriere della Sera, ad esempio, le iniziative IA includono gli audioarticoli automatici e tool di supporto come la trascrizione automatica e la sottotitolazione video. In pratica l’atteggiamento è “molto prudente”: si riconoscono le grandi potenzialità di reti neurali e LLM, ma si vuole prima definire limiti e condizioni d’uso e procedere solo quando si sarà sicuri di “affidabilità e qualità” di ciò che si offre ai lettori. L’augurio è che le testate italiane collaborino scambiandosi risultati e best practice delle sperimentazioni, perché solo facendo fronte comune si potrà ottenere progresso diffuso e avere voce in capitolo con i big player tecnologici.
Anche a livello legislativo, l’Italia si muove: nel marzo 2025 il Senato ha approvato un disegno di legge (n. 1146 del 20/03/2025) in materia di IA riguardante anche il mondo del lavoro e delle professioni intellettuali, giornalismo incluso. Pur dovendo passare ancora alla Camera, questo DDL prefigura un quadro nazionale di principi e norme che accompagnerà il regolamento europeo in arrivo. In sostanza, l’Italia sta cercando un equilibrio: sperimentare l’IA mantenendo centrale l’uomo. La parola d’ordine è prudenza: molte sperimentazioni sono in corso ma spesso non dichiarate pubblicamente, e paradossalmente le realtà più piccole e agili sembrano più avanti delle grandi testate mainstream nella sperimentazione coraggiosa. Ciò potrebbe indicare che, lontano dai riflettori, c’è un fiorire di progetti pilota locali (ad esempio testate iperlocali che usano IA per coprire notizie di quartiere) che funge da laboratorio per tutto il settore. L’importante sarà non farsi trovare impreparati: l’IA non è una moda passeggera, quindi tanto vale conoscerla a fondo e governarla dall’interno, anziché subirla passivamente o – peggio – farsi scavalcare da attori esterni non giornalistici che la potrebbero usare per scopi poco trasparenti.
Verso un’IA “guidata” dall’uomo per un nuovo giornalismo
In conclusione, l’Intelligenza Artificiale rappresenta per il giornalismo una sfida complessa ma anche un’occasione di rilancio. Come abbiamo visto, essa è già realtà operativa nelle redazioni (soprattutto digitali) da qualche anno e la sua presenza è destinata a crescere esponenzialmente. Nel prossimo futuro sarà sempre più impensabile fare informazione senza interagire in qualche modo con sistemi di intelligenza artificiale, siano essi assistenti per i giornalisti, algoritmi che distribuiscono i nostri contenuti, o persino “giornalisti” robot che scrivono parti di articoli. L’IA
è il presente e sarà sempre più il futuro, ma quanto la conosciamo davvero? Siamo pronti a guidarla come uno strumento e non a esserne guidati?
Allo stato attuale, la conoscenza approfondita dell’IA da parte di chi lavora nell’informazione è limitata. C’è dunque un bisogno urgente di acquisire competenze, sperimentare, “mettere le mani sul volante” di questa tecnologia. L’alternativa sarebbe lasciar guidare l’auto a qualcun altro (big tech, algoritmi opachi) e adattarsi passivamente: uno scenario che metterebbe a rischio l’autonomia e la rilevanza del giornalismo. L’IA non è una bacchetta magica né un nemico apocalittico: è uno strumento – straordinariamente potente, ma pur sempre strumento – nelle mani dell’uomo. Come ogni tecnologia, i suoi effetti dipenderanno dall’uso che ne faremo. Se la utilizzeremo per migliorare l’accesso alle informazioni, per arricchire le nostre storie con dati e visualizzazioni, per liberare energie creative e affinare la verifica dei fatti, allora l’IA potrà inaugurare una nuova era di giornalismo aumentato, in cui il reporter diventa più incisivo grazie al supporto intelligente. Se invece la useremo in modo acritico o irresponsabile – delegando ad essa il giudizio, riempiendo i siti di contenuti generati a caso solo per fare clic – allora rischiamo un impoverimento sia sul piano informativo sia su quello sociale.
La tesi più realistica è quella che adotta una posizione equilibrata (né technofobia, né technofilia): riconoscere l’IA come parte integrante dell’ecosistema mediatico e gestirne l’integrazione con equilibrio. In questo senso, possiamo già intravedere alcuni principi guida: l’IA deve aumentare, non rimpiazzare il giornalista. La trasparenza verso il pubblico è d’obbligo, la qualità e la verifica umana restano il valore supremo da perseguire. Come spesso accade, nelle fasi di trasformazione epocale c’è un’occasione di rifondazione: l’IA, paradossalmente, potrebbe spingere il giornalismo a riscoprire la sua missione originaria. In un mondo invaso da informazioni generate a macchina, ciò che farà davvero la differenza sarà la credibilità e la cura artigianale tipica del buon giornalismo. Qualità, attendibilità e accuratezza, come sottolinea l’ODG, rappresentano probabilmente “la via d’uscita dalla crisi” del settore. L’intelligenza artificiale, quindi, lungi dall’uccidere il giornalismo, potrebbe liberarlo dalle catene della quantità per permettergli di riabbracciare la qualità. Purché alla guida ci sia sempre l’uomo, con la sua intelligenza – questa sì – davvero insostituibile.
Bibliografia
CAPPELLO, F. GIORGINO, A. PARADISI, P.C. RIVOLTELLA 2025, Media Literacy – Istruzioni per l’uso, RAI Ufficio Studi, Roma.
ORDINE DEI GIORNALISTI, 2024, OSSERVATORIO REPORT. L’Intelligenza Artificiale e il giornalismo in Italia, Ordine Nazionale dei Giornalisti
ORDINE DEI GIORNALISTI, 2023, “Giornalismo e Intelligenza Artificiale”, articolo pubblicato sul sito ufficiale dell’ODG
FNSI, 2025, Intelligenza artificiale, 8 giornalisti su 10 chiedono regole chiare e più formazione disponibile su https://www.fnsi.it/intelligenza-artificiale-8-giornalisti-su-10-chiedono-regole-chiare-e-piu-formazione#:~:text=Sul%20tema%20degli%20atteggiamenti%20verso,agli%20effetti%20dell%27impiego%20nella%20professione