Nel panorama dell’informazione globale, l’intelligenza artificiale svolge un duplice ruolo come generatore di fake news e strumento di contrasto alle stesse.
Proponiamo allora alcune azioni pratiche che le aziende possono adottare per resistere alla diffusione di fake news, tra cui: l’implementazione di processi di verifica interna basati su strumenti di IA avanzata per monitorare e filtrare le informazioni prima della pubblicazione; l’investimento sulla formazione del personale, con programmi di alfabetizzazione mediatica per migliorare la capacità di identificare contenuti manipolati; la collaborazione con organismi indipendenti di fact-checking e promuovere l’adozione di standard di trasparenza nel trattamento dei dati e delle informazioni.
L’IA generativa come potente strumento di disinformazione
L’IA, specialmente negli ultimi anni, ha acquisito notevoli capacità che possono essere utilizzate anche per generare fake news, ossia notizie false o ingannevoli create per manipolare opinioni, disinformare o ottenere altri scopi. Questa capacità deriva principalmente dai modelli di linguaggio avanzati e da altre tecnologie basate sull’IA.
L’IA può, infatti, generare fake news grazie a diverse tecniche avanzate. Modelli di linguaggio naturale come GPT possono creare testi realistici e persuasivi che imitano lo stile giornalistico, mentre tecnologie come i deepfake generano immagini, video e audio manipolati, rendendo notizie false ancora più credibili. La produzione di contenuti può avvenire in modo rapido e automatizzato, permettendo la diffusione capillare su larga scala.
Fake news personalizzate e falsi commenti
Inoltre, l’IA personalizza le fake news sfruttando dati personali, adattandole ai bias e interessi degli utenti, e sfrutta algoritmi di piattaforme social per massimizzarne la visibilità, favorendo la viralità di contenuti sensazionalistici.
A questo si aggiunge la capacità di generare commenti e discussioni false tramite bot automatizzati, rendendo la disinformazione più credibile. Queste tecniche rendono le fake news sempre più sofisticate e difficili da rilevare, amplificando i rischi sociali, politici e culturali associati alla diffusione di informazioni false.
Tali difficoltà di rilevazione delle fake news si riverberano, in particolare, sulle società che si occupano di informazione, come TV, radio ed editori, poiché pongono una sfida significativa nella consultazione delle fonti e nella selezione delle notizie. Questo problema non solo rallenta i processi editoriali, ma aumenta anche il rischio di diffondere contenuti inaccurati, compromettendo la fiducia del pubblico. Inoltre, gli stessi utenti incontrano difficoltà nel distinguere informazioni affidabili da quelle fuorvianti, amplificando il problema a livello sociale e culturale.
L’IA nella lotta alla disinformazione
Cionondimeno, l’IA si è altresì dimostrata un utile supporto per la lotta alla disinformazione, avendo il potenziale di diventare una risorsa fondamentale per promuovere la diffusione di informazioni corrette e affidabili.
In tal senso, sono sorti alcuni progetti che prevedono l’impiego dell’IA a beneficio della società, aiutando a contrastare il fenomeno delle fake news e della disinformazione nell’Unione Europea. Grazie all’integrazione tra tecnologie avanzate e competenze umane, è risultato possibile creare con l’AI un sistema ibrido in cui l’intelligenza artificiale supporta il lavoro dei fact-checker, migliorando l’efficienza del monitoraggio delle informazioni.
In un mondo in cui la quantità di contenuti online cresce a ritmi vertiginosi, individuare rapidamente segnali di disinformazione, come fonti inaffidabili e nuove narrazioni, è una sfida impossibile da affrontare con le sole risorse umane. Qui entra in gioco l’IA, che permette di monitorare in tempo quasi reale i contenuti pubblicati su numerosi canali, inclusi social media e fonti tradizionali, analizzando testo, immagini e audio in più lingue. E, più in particolare, parliamo di sistemi che, una volta identificati i contenuti potenzialmente rischiosi, li segnalerebbe agli esperti per una revisione accurata. I fact-checker, a loro volta, verificherebbero le informazioni, aggiornando i dati e migliorando continuamente gli algoritmi utilizzati, in un ciclo virtuoso di collaborazione tra uomo e macchina.
L’obiettivo raggiunto sarebbe quello di fornire report affidabili e personalizzati per giornalisti, ricercatori e decisori politici, in modo da prevenire la diffusione incontrollata di disinformazione e promuovere un ambiente informativo più sicuro e trasparente. Grazie a questa sinergia tra tecnologia avanzata e competenze umane, l’IA è in grado di diventare uno strumento essenziale per ristabilire la fiducia nelle informazioni e promuovere un dibattito pubblico più consapevole e informato.
Le misure tecnico-organizzative per le aziende e la lotta alla disinformazione
Consapevole dei rischi correlati alla creazione di contenuti generati artificialmente allo scopo di informare il pubblico, lo stesso legislatore europeo ha previsto l’adozione di alcuni presidi. In particolare, ai sensi dell’art. 50, par. 4, AI Act, i deployer di un sistema di IA che generi testo “allo scopo di informare il pubblico su questioni di interesse pubblico” dovrebbero rendere noto che il testo in questione sia stato generato o manipolato artificialmente.
Tuttavia, il legislatore europeo ha altresì ritenuto di esonerare dall’obbligo di trasparenza il deployer di un sistema di IA che, nel generare testo allo scopo di informare il pubblico, abbia adottato misure di sorveglianza umana sul contenuto generato artificialmente ovvero di controllo editoriale e una persona fisica o giuridica detenga la responsabilità editoriale della pubblicazione del suddetto contenuto.
Pertanto, se da un lato sembra potersi affermare la centralità dei presidii di trasparenza, revisione umana e controllo editoriale, dall’altro lato residuerebbero ulteriori misure da adottare, a livello aziendale, per contrastare il dilagare di fake news.
Nel solco di quanto sopra anticipato, al fine di contrastare efficacemente la disinformazione e scongiurare i rischi connessi ad essa, il suggerimento concreto che è possibile fornire alle aziende rimane quello di adottare dunque una serie di misure mirate che combinino tecnologie avanzate, formazione del personale e collaborazioni strategiche, quali:
Implementazione di processi di verifica interna basati su strumenti di IA avanzata
Le aziende possono integrare strumenti di intelligenza artificiale avanzata nei loro processi interni per monitorare e filtrare le informazioni prima della pubblicazione. Questi strumenti, basati su modelli di linguaggio naturale (cd. NLP), algoritmi di machine learning e tecnologie di analisi multimodale (testo, immagini e audio), sono in grado di rilevare contenuti manipolati o potenzialmente ingannevoli in tempo quasi reale.
Tali sistemi di IA possono esaminare l’affidabilità delle fonti citate nei contenuti, verificando se provengono da siti riconosciuti per la diffusione di fake news. Gli algoritmi avanzati identificano schemi ricorrenti, incongruenze o toni sensazionalistici nei testi e nei media visivi, segnalando contenuti a rischio per un controllo umano.
Inoltre, prima che un contenuto venga diffuso su siti aziendali o piattaforme social, l’IA può valutarne l’accuratezza e suggerire modifiche o approfondimenti.
Questi processi riducono il rischio di diffondere informazioni errate, ottimizzando il lavoro delle redazioni interne e fornendo strumenti di verifica automatica sempre più sofisticati.
Investimento nella formazione del personale con programmi di alfabetizzazione mediatica
L’adozione di strumenti tecnologici deve essere accompagnata da un forte investimento sulla formazione del personale aziendale. Programmi dedicati all’alfabetizzazione mediatica possono migliorare sensibilmente la capacità dei fact-checkers di monitorare l’attività svolta dalla macchina di individuazione e segnalazione di contenuti manipolati o disinformativi.
Le aziende potrebbero attuare:
- Corsi di alfabetizzazione sull’IA in generale e sulla sua applicazione in campo giornalistico;
- Corsi di formazione continua, quali sessioni periodiche per aggiornare il personale sulle nuove tecniche di disinformazione, incluse manipolazioni visive, deepfake e fake news testuali.
- Simulazioni pratiche, basate su scenari realistici in cui i dipendenti imparano a riconoscere contenuti ingannevoli attraverso esempi concreti.
- Corsi di formazione per il corretto uso di strumenti di fact-checking e di piattaforme affidabili di verifica delle notizie o software proprietari basati su IA.
L’alfabetizzazione mediatica aiuta a costruire una cultura aziendale più attenta alla qualità delle informazioni condivise, riducendo il rischio di errori nella comunicazione.
Collaborazione con organismi indipendenti di fact-checking
La collaborazione dell’azienda con enti esterni specializzati nel fact-checking rappresenta un ulteriore pilastro nella lotta contro la disinformazione.
Gli organismi indipendenti, come associazioni di giornalismo investigativo o agenzie di verifica accreditate, possono supportare le aziende nella validazione delle informazioni e nell’identificazione delle fonti affidabili. Stabilire partnership formali con organizzazioni certificate per garantire un controllo periodico dei contenuti pubblicati può allora risultare cruciale.
Inoltre, le aziende potrebbero anche valutare la partecipazione a progetti collaborativi promossi da enti di fact-checking a livello internazionale, contribuendo a sviluppare metodologie condivise contro le fake news.
Questo assetto collaborativo consentirebbe alle aziende di ottenere un ulteriore livello di verifica, migliorando la trasparenza e la credibilità dei contenuti diffusi.
Integrazione di API di verifica nei sistemi digitali aziendali
Le aziende potrebbero valutare l’integrazione di API dedicate alla verifica automatizzata dei dati e delle informazioni nei loro sistemi digitali, traendo vantaggio sia dalla semplificazione che l’utilizzo di protocolli standardizzati comporta lato implementazione e interoperabilità sia dalla tipologia di soluzione (aumento dell’efficienza operativa, riduzione degli errori umani e la capacità di adattarsi efficacemente al carico di lavoro, particolarmente utile quando vi sia la necessità di dover trattare grossi volumi di dati ed informazioni).
Promozione di standard di trasparenza nel trattamento dei dati e delle informazioni
Adottare standard elevati di trasparenza appare fondamentale per contrastare la disinformazione e promuovere la fiducia del pubblico nei confronti delle informazioni fornite dall’azienda. La trasparenza riguarda sia il modo in cui i contenuti vengono creati che il trattamento dei dati utilizzati per elaborarli. È, infatti, possibile che all’interno di articoli o video siano presenti dati personali (quali: nomi, cognomi, immagini, informazioni anche particolari sui soggetti, pubblici o meno pubblici, cui le notizie fanno riferimento), nonché che vengano riportati dati personali degli stessi fact-checkers o di coloro che si siano occupati in prima battuta del caricamento.
Le misure aziendali chiave
Tra le misure aziendali chiave di cui si suggerirebbe l’implementazione:
- Dichiarare le fonti: ogni contenuto pubblicato dovrebbe includere riferimenti chiari e verificabili alle fonti utilizzate.
- Etichettare i contenuti generati dall’IA: quando vengono usati strumenti automatizzati per produrre testi, immagini o video, è importante indicarlo chiaramente, non solo per obbligo di legge (come previsto dallo stesso Regolamento europeo sull’IA), ma anche per evitare ambiguità.
- Audit periodici dei dati: garantire che i processi di raccolta e analisi dei dati aziendali seguano protocolli etici e trasparenti, prevenendo manipolazioni e distorsioni.
- Comunicazione verso l’esterno: creare policy aziendali che promuovano la responsabilità dell’azienda nell’elaborare le informazioni e verificarle, nonché diffondere tali documenti di policy sia internamente che esternamente.
- Adottare policy di privacy by design, che garantiscano la valutazione di progetti che implichino un trattamento di dati personali.
- Valutare eventuali rischi privacy dei trattamenti eventualmente svolti mediante IA. Effettuare valutazioni di impatto ai sensi dell’art. 35 del Regolamento Generale europeo sulla Protezione dei Dati personali (“GDPR”) in caso di rischio residuo alto o di un trattamento che comporti un monitoraggio sistematico, o anche totalmente automatizzato.
- Adottare misure organizzative (quali informative e policy per la gestione dei dati e l’informazione degli interessati, registro dei trattamenti, etc.) e tecniche adeguate anche ai sensi dell’art. 32 GDPR.
Un ruolo attivo per le aziende nella lotta alla disinformazione
In conclusione, le aziende possono assumere un ruolo attivo nella lotta alla disinformazione, attraverso:
- l’implementazione di processi avanzati di verifica,
- la formazione continua del personale,
- collaborazioni con organismi indipendenti,
- l’integrazione di API di verifica nei sistemi digitali aziendali, e
- l’adozione di standard di trasparenza,
Questo approccio integrato permette di garantire la diffusione di informazioni affidabili, proteggendo l’integrità della comunicazione aziendale e contribuendo a un ambiente informativo più sicuro e trasparente, contribuendo, a ben vedere, a contrastare la disinformazione, ma soprattutto a rafforzare la reputazione dell’azienda, creando un rapporto di fiducia con il pubblico e gli stakeholder.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link