perché non possiamo non essere preoccupati

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Dilazione debiti

Saldo e stralcio

 


di Federico Faloppa, Coordinatore della Rete nazionale per il contrasto ai discorsi e fenomeni d’odio

 

La notizia è di ieri: con un messaggio video pubblicato sulla sua pagina Facebook personale, l’amministratore delegato di Meta Mark Zuckerberg ha annunciato che la piattaforma – che conta più di 3 miliardi di utenti in tutto il mondo, e a cui fanno capo, oltre a Facebook, anche WhatsApp, Instagram, e Threads – apporterà modifiche sostanziali al suo sistema di fact-checking, adottando un modello simile a quello già usato da X-Twitter (quello del “community notes”, spiegato qui) e ridimensionando drasticamente l’intervento dei suoi fact-checker su temi politici e sociali quali, ad esempio, l’immigrazione e il ‘genere’. Anzi, spostando fisicamente – strategicamente – i suoi team di moderazione dei contenuti dalla (liberale) California al (repubblicano) Texas.

Finanziamenti e agevolazioni

Agricoltura

 

Come si ricava dal video, la decisione ha un motivo preciso: garantire una maggior libertà di espressione, impedendo restrizioni su argomenti sensibili ed evitando gli “errori di censura” compiuti negli ultimi anni da fact checker “troppo prevenuti”. Senza troppi giri di parole, Zuckerberg ha inoltre aggiunto che la piattaforma collaborerà “con il presidente Trump per difendersi dai governi stranieri che perseguitano le aziende americane intimando loro di censurare di più” (“work with President Trump to push back against foreign governments going after American companies to censor more”). Preconizzando così un allineamento con le posizioni del tycoon a meno di due settimane dal suo ritorno alla Casa Bianca.

Nulla di sorprendente, a prima vista: tutti gli imprenditori fanno mosse astute e calcolate per adattarsi al clima politico, al potente di turno. Ma Mark Zuckerberg non è un imprenditore qualsiasi: le sue decisioni pesano direttamente su quei 3 miliardi di utenti, e indirettamente sul sistema dell’intrattenimento e dell’informazione globale, ovvero sull’opinione pubblica mondiale e sulle sue scelte. E infatti la svolta di Meta preoccupa, e non poco, osservatori e commentatori. E noi della Rete nazionale per il contrasto ai discorsi e ai fenomeni d’odio siamo tra questi.

La ricerca su fact checking e impatto della moderazione dei contenuti sulle piattaforme social ha prodotto negli anni importanti risultati, non sempre omogenei. Ed è bene partire da questi, per evitare di ricorrere a slogan e semplificazioni.

Secondo alcuni, il fact-checking non funziona e Zuckemberg – con la sua presa di posizione – ne prenderebbe semplicemente atto. Studi come Debunking in a World of Tribes, grazie all’analisi di milioni di contenuti, hanno dimostrato infatti che il fact-checking non solo non è una soluzione, ma spesso peggiora le cose, facilitando la polarizzazione e consolidando le echo chamber. Contrapponendo quindi “etichette alla viralità emotiva dei contenuti” in ambienti – come le piattaforme social – che “non sono stati progettati come strumenti di informazione, ma macchine per l’intrattenimento”, premiando ciò che cattura l’attenzione, che emoziona, che divide, perché è questo che genera interazione, e non la qualità dell’informazione (Walter Quattrociocchi, Il fact-checking è stato un fallimento, ma nessuno vuole dirlo, www.corriere.it, 8 gennaio 2025).

Secondo altri, invece, pur con i suoi limiti il fact-checking si è rivelato molto utile, se non necessario. Se è vero infatti che esso sembra influire molto poco su visioni consolidate o molto preconcette già in partenza – dice la ricerca – può però senz’altro avere un impatto significativo sulla comprensione dei fatti e, tanto contestualmente quanto globalmente, attenuare fenomeni di disinformazione – a maggior ragione se accompagnato da warning label – anche su chi di solito diffida dei fact-checker ritendendoli di parte. Avrebbe inoltre (ancora) un effetto su chi fa per mestiere informazione e chi prende parte al dibattito pubblico, i quali tendono a lasciar cadere un argomento o un’affermazione dopo che questi sono stati smentiti. Sapere che qualcuno sta verificando fonti e dati spinge molti a essere più cauti nel sostenere tesi controverse.

Tutte le analisi concorrono nel sottolineare, comunque, che la misurazione della validità (o meno) del fact-checking presenta incoerenze ed è soggetta a molte variabili. Ad esempio: la verifica delle informazioni non è detto che raggiunga chi è effettivamente stato esposto a disinformazione. Ma – ed è questo il punto – in assenza di un uso attento e pienamente consapevole dei social media da parte dell’utenza, la deregulation della moderazione produrrà probabilmente più disinformazione da parte di strutture organizzate (come dimostrato dallo Study on preventing and combating hate speech in times of crisis del Consiglio d’Europa), soprattutto su temi fortemente polarizzanti e nei confronti di soggetti marginalizzati (non è un mistero che in Europa l’estrema destra stia generando contenuti fake tramite l’IA per promuovere politiche anti-immigrazione), e riducendo ancora di più la soglia di vigilanza dell’utenza nell’uso di piattaforme nate sì per l’intrattenimento ma utilizzate oggi, dai più, come canale privilegiato (se non unico) di informazione. Non è un caso che in molte regioni del mondo fact-checker di agenzie indipendenti (come l’European Fact-Checking Standards Network, e in Italia la Task Force Hate Speech di Amnesty) collaborino con istituzioni e soggetti della società civile non solo per tentare di contrastare la disinformazione e l’hate speech online, ma anche per implementare corsi di alfabetizzazione mediatica e utilizzo critico del mezzo.

Moderare contenuti online è complesso e oneroso, e le strategie adottate finora non hanno dimostrato di essere prive di difetti o risolutive. Ma rinunciare completamente alla moderazione a favore delle “community notes” non è, secondo noi, la risposta. Tanto più in un contesto in cui nuove forme di hate speech, radicalizzazione, e normalizzazione del discorso razzista e omolesbobitransfobico stanno rapidamente prendendo piede proprio perché non monitorate e moderate (ad esempio, nelle piattaforme di gaming, attraverso le quali gruppi radicali di estrema destra e sovversivi stanno da alcuni anni reclutando nuovi adepti, tra gli utenti più giovani), e nel quale la mossa di Meta – oltre a sancire un utilitaristico allineamento a Trump – tende a minare, qui in Europa, le stesse ragioni del Digital Services Act. Il quale non sarà perfetto (come abbiamo sottolineato più volte anche noi della Rete), ma impone trasparenza nei modelli di business e precise forme di protezione della privacy, stabilendo la preminenza delle leggi e della sicurezza dell’utenza – a partire dagli utenti più a rischio di abuso – sulle policy arbitrarie dei colossi dell’infotainment digitale. Cosa certamente non da poco, in un’epoca di grandi concentrazioni di capitale (economico e sociale) nelle mani di un numero limitatissimo di soggetti privati dall’incidenza politica sempre più onnivora e abnorme, e sempre più riluttanti al rispetto delle regole e dei diritti umani.



Source link

Conto e carta

difficile da pignorare

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link