Le nuove regole sullo sviluppo e uso dell’intelligenza artificiale nell’Unione Europea entreranno in vigore il 1° febbraio. Ma alcune deroghe potrebbero consentire la creazione di «tecnologie invasive e contrarie all’etica», come sottolinea il Centro per la tecnologia e la democrazia
Dal 1 febbraio entreranno in vigore le misure dell’Ai Act, il regolamento dell’Unione europea sull’intelligenza artificiale (Ai), che vietano l’uso dell’Ai quando espone le persone a «rischi inaccettabili». Tra questi rischi la Commissione Ue include tutte «le minacce evidenti alla sicurezza, ai mezzi di sostentamento o ai diritti delle persone». La Ue però ha introdotto una serie di eccezioni per la «sicurezza nazionale» che secondo i critici possono portare a gravi violazioni dei diritti fondamentali. A volere queste eccezioni, rivela adesso un’inchiesta del sito Investigative Europe, è stata la Francia, appoggiata anche dall’Italia. «Lontano dalle promesse iniziali, questo testo è fatto su misura per l’industria tecnologica e le forze di polizia europee», dice Félix Treguer del gruppo di tutela dei diritti digitali La Quadrature du Net.
In un momento in cui l’industria digitale ha un peso politico sempre maggiore, come mostra quello che sta succedendo negli Stati Uniti con la seconda presidenza di Donald Trump, la questione è particolarmente scottante. Lunedì, come riporta l’agenzia Reuters, Trump ha revocato l’ordine esecutivo sull’ Ai firmato nel 2023 dall’allora presidente Joe Biden che richiedeva agli sviluppatori di sistemi di intelligenza artificiale che presentano rischi per la sicurezza nazionale, l’economia, la salute o la sicurezza pubblica di condividere i risultati dei test di sicurezza con il governo degli Stati Uniti prima di metterli a disposizione del pubblico. Ma anche il regolamento europeo – sempre presentato dall’Unione europea come il più avanzato a livello globale – rischia di essere meno efficace di quanto promesso. Vediamo perché.
Tra le forme di «annacquamento» dell’Ai Act, nota il Fatto Quotidiano, c’è l’articolo aggiunto al regolamento in fase di discussione, che «consente alle aziende di compilare un’autocertificazione per decidere se il proprio prodotto sia “ad alto rischio” o meno, liberandole così dagli obblighi di trasparenza». «C’è un elevato livello di soggettività lasciato alle aziende, che sembra in contrasto con l’obiettivo generale della legge sull’Ai, ovvero affrontare il rischio di danni posti dai sistemi di Ai ad alto rischio» si legge in un documento interno del servizio giuridico del Parlamento europeo rivelato da Investigate Europe.
Tra i sistemi di Ai che comportano «rischi inaccettabili» la Ue include:
- usare tecniche subliminali, manipolative o ingannevoli per influenzare il comportamento e compromettere il processo decisionale delle persone;
- rilevare dati biometrici per classificare gli individui sulla base di attributi sensibili (razza, opinioni politiche, appartenenza a sindacati, credenze religiose o filosofiche, vita sessuale o orientamento sessuale).
- classificare gli individui o i gruppi in base al comportamento sociale o a tratti personali per poi trattarli in modo svantaggioso o sfavorevole sulla base di tale classificazione (è il cosiddetto social scoring);
- valutare il rischio che un individuo commetta reati penali basandosi esclusivamente sulla profilazione o sui tratti della personalità;
- compilare database di riconoscimento facciale attraverso l’acquisizione generica di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
- interpretare le emozioni nei luoghi di lavoro o negli istituti scolastici sulla base di rilevazioni biometriche;
- il riconoscimento facciale e in generale l’identificazione biometrica remota (RBI) delle persone «in tempo reale» in spazi aperti al pubblico.
Queste regole generali prevedono però delle eccezioni a tutela della sicurezza nazionale. L’Ai Act permette alle forze dell’ordine il riconoscimento facciale e l’identificazione biometrica remota «in tempo reale» in caso di indagini su 16 reati particolarmente gravi (come omicidio, stupro, rapina a mano armata, traffico di stupefacenti e di armi illegali, crimine organizzato, crimine ambientale); quando cercano persone scomparse, vittime di rapimenti, di traffico di esseri umani o di sfruttamento sessuale e quando devono prevenire una minaccia sostanziale e imminente alla vita o un attacco terroristico.
È paradossale che l’Italia, che a livello nazionale ha limitato molto l’uso delle intercettazioni tradizionali nelle indagini penali, poi abbia spinto a livello europeo insieme alla Francia (ma anche a Ungheria, Romania, Svezia, Repubblica Ceca, Lituania, Finlandia e Bulgaria) per estendere le forme di sorveglianza basate sull’intelligenza artificiale.
Ci sono altre due eccezioni importanti per le forze dell’ordine previste dall’Ai Act. Il regolamento infatti consente l’interpretazione delle emozioni tramite intelligenza artificiale per motivi di sicurezza nei posti di frontiera o nei centri di controllo dell’immigrazione. E di usare di algoritmi predittivi per individuare chi potrebbe compiere crimini in futuro a patto che queste previsioni vengano sottoposte a valutazione umana, cosa che avviene di fatto sempre (sembra il «sistema pre-crimine» immaginato nel film distopico con Tom Cruise Minority Report). Visto quello che sappiamo oggi sui pregiudizi inconsapevoli che limitano l’attendibilità degli algoritmi e dell’intelligenza artificiale, è possibile che questi sistemi predittivi dei reati portino a individuare come possibili criminali persone che non lo sono per niente, con tutte le conseguenze del caso.
Secondo Cdt, il Centro per la tecnologia e la democrazia (un’importante organizzazione indipendente per la tutela dei diritti civili e la libertà dal controllo digitale), le conseguenze sono gravi: «L’esenzione dall’AI Act per la sicurezza nazionale, se letta in senso letterale, consentirebbe la creazione e l’utilizzo di tecnologie invasive e contrarie all’etica che altrimenti sarebbero illegali». Grazie alle eccezioni per la tutela della sicurezza nazionale, «un ente preposto all’applicazione della legge potrebbe cercare di evitare le restrizioni imposte dalla legge sull’identificazione biometrica in tempo reale effettuata in spazi pubblici semplicemente alludendo a uno scopo di sicurezza nazionale. Questa scappatoia può essere pericolosamente interpretata e applicata, aprendo la porta alla sorveglianza di massa legittimata sotto il velo delle attività di “sicurezza nazionale”» scrive ancora Cdt.
C’è poi un altro aspetto, che riguarda le aziende tecnologiche che controllano le tecnologie di riconoscimento facciale e sorveglianza digitale. «Queste esenzioni riguarderanno anche le aziende private, o eventualmente i Paesi terzi, che forniscono la tecnologia Ai alla polizia e alle forze dell’ordine. Il testo stabilisce che la sorveglianza è consentita “indipendentemente dall’entità che svolge tali attività”» scrive Investigative Europe. Le aziende tecnologiche, cioè, avranno accesso alle informazioni che forniranno alle forze dell’ordine. È un altro esempio di quello strapotere del «complesso tecnologico-industriale» di cui ha tardivamente parlato Joe Biden nel suo ultimo discorso da presidente.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link