Entro la cornice regolatoria tracciata da Papa Francesco nel discorso pronunciato durante la sessione G7 sull’IA, dando seguito alla visione del Sommo Pontefice ivi enunciata, il Governatorato dello Stato della Città del Vaticano ha adottato le Linee guida in materia di intelligenza artificiale, con il Decreto N. DCCII della Pontificia Commissione per lo Stato della Città del Vaticano.
La novità delle linee guida del Vaticano sull’IA
Si tratta di un’indubbia novità nel panorama normativo di riferimento che merita, pertanto, una specifica riflessione di approfondimento dedicata a focalizzare le ragioni che hanno indotto l’Organismo Pontificio a intervenire in materia per poi, altresì, analizzare nel merito il contenuto del documento predisposto.
Sotto il profilo esegetico, la genesi delle menzionate linee guida scaturisce dalle osservazioni formulate in occasione del meeting del G7 sull’intelligenza artificiale, quando Papa Francesco ha sottolineato espressamente il doppio – ambivalente – volto di tale nuova tecnologia emergente, considerata uno “strumento affascinante e tremendo”, in grado di alimentare antitetici atteggiamenti di reazione rispetto alle sue future prospettive di sviluppo: al tecno-entusiasmo che coglie, in un’ottica ottimistica, gli straordinari vantaggi offerti dall’intelligenza artificiale all’umanità si contrappone, infatti, un pessimistico timore di preoccupazione legato ai pericoli che potrebbero presto configurarsi.
L’approccio umano-centrico all’IA secondo il Vaticano
Senza per nulla disconoscere le implicazioni negative derivanti dall’utilizzo dell’intelligenza artificiale, Papa Francesco mette espressamente in risalto il “potenziale creativo” donato da Dio agli uomini che si manifesta, appunto, anche con l’avvento dell’IA, alla stregua di una “vera e propria rivoluzione cognitivo-industriale”, destinata “alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali” (cfr. Discorso del Santo Padre Francesco, Sessione G7 sull’intelligenza artificiale).
In altre parole, nella qualificazione dell’intelligenza artificiale ricostruita da Papa Francesco emerge la valenza tecnologica neutra di uno strumento sia pure “sui generis”, dal cui concreto impiego dipenderà il prevalere di uno scenario favorevole o ostile, a seconda dei benefici o pregiudizi fattualmente prodotti.
Necessità di principi etici per l’IA
Alla luce dei risvolti rilevati, pertanto, vi è l’esigenza di promuovere un approccio umano-centrico orientato a salvaguardare la dignità della persona mediante l’elaborazione di principi etici universali, condivisi all’esito di un’incisiva azione politica finalizzata a definire la base giuridica di riferimento per individuare la più adeguata normativa applicabile, in grado di disciplinare lo sviluppo sostenibile, equo e inclusivo dell’intelligenza artificiale.
Struttura delle linee guida sull’IA della Città del Vaticano
Entrando nel merito delle linee guida adottate, il relativo testo consta di 15 articoli formulati nell’ambito di 3 distinti Capi, che sono preceduti da brevi considerazioni introduttive, ove viene enucleata la “ratio” sottesa alla stesura del documento, nella parte in cui si pone la necessità di predisporre un catalogo fondamentale di principi generali per orientare il progresso tecnologico verso il perseguimento del bene comune.
Il Decreto recante le citate linee guida in materia di intelligenza artificiale, entrate ufficialmente in vigore dal 1° gennaio 2025, rappresenta il nucleo iniziale di regole basilari, che fungeranno da coordinate di partenza, integrate da leggi e ulteriori regolamenti attuativi emanati nei successivi 12 mesi per completare il quadro normativo di riferimento (cfr. articolo 15).
Le disposizioni generali delle linee guida
1 – “Finalità e ambito di applicazione”; articolo 2 – “Definizioni”; articolo 3 – “Principi fondamentali”; articolo 4 – “Divieti di utilizzo dell’intelligenza artificiale”).
In particolare, l’articolo 1, dopo aver specificato la finalità dei principi enunciati verso un “utilizzo etico e trasparente dell’intelligenza artificiale”, in una “dimensione antropocentrica e affidabile”, nel rispetto della dignità umana e del bene comune”, delimita l’ambito di applicazione della disciplina, circoscrivendone gli effetti per qualsivoglia tipologia e categoria di personale e organismo in cui si articola il Governatorato dello Stato della Città del Vaticano, “limitatamente al territorio dello Stato della Città del Vaticano”.
La citata previsione va letta in combinato disposto con il successivo articolo 3, laddove si statuisce che l’attività di sperimentazione, sviluppo, adozione e utilizzo di sistemi e modelli di intelligenza artificiale deve essere “conforme al rispetto della dignità umana, del bene comune”, nel rispetto dei “principi di responsabilità etica, trasparenza e proporzionalità dell’azione amministrativa”, salvaguardando, altresì, “la sicurezza dello Stato della Città del Vaticano, la protezione e la riservatezza dei dati personali, la non discriminazione dell’essere umano, la sostenibilità economica e la cura del Creato”. Inoltre, sempre ai sensi della citata disposizione, assicurando il mantenimento di un’irrinunciabile dimensione antropocentrica, “l’utilizzo dei sistemi e dei modelli di intelligenza artificiale devono garantire la vocazione dell’intelligenza artificiale al servizio dell’uomo, preservando il rispetto dell’autonomia e del potere decisionale dell’umano, senza arrecare “pregiudizio alla missione pastorale del Sommo Pontefice, all’integrità della Chiesa cattolica e al corretto svolgimento delle attività istituzionali del Governatorato dello Stato della Città del Vaticano”.
In diretta attuazione dei principi proclamati, esprimono la visione programmatica così formalizzata i divieti prescritti dall’articolo 4, che esclude espressamente il ricorso a ogni pratica di utilizzo dell’IA qualora vi sia il rischio di cagionare pericoli di varia natura per l’umanità. Al riguardo, l’elenco (da ritenersi meramente esemplificativo e non esaustivo) delineato dalla norma individua una serie di fattispecie preclusive, ostative a qualunque sistema di intelligenza artificiale in presenza di specifici indici sintomatici ritenuti senz’altro pregiudizievoli (la citata norma descrive taluni utilizzi vietati aventi portata generale con esteso ambito di applicazione elastica. Ad esempio: trarre deduzioni generali di ordine antropologico con effetti discriminatori sulla persona; avvalersi di tecniche di manipolazione subliminale idonee a provocare alla persona o a un gruppo di persone un danno fisico o psicologico; precludere alle persone con disabilità di accedere all’intelligenza artificiale e alle relative funzionalità ed applicazioni; creare disuguaglianze sociali, degradando la dignità umana e violando i principi fondamentali dell’uomo, ecc.).
Nell’ambito delle definizioni positivizzate dalle linee guida emerge una peculiare tecnica descrittiva volta a valorizzare le multiformi sfumature applicative configurabili nella concreta prassi tecnologica. Più precisamente, a tenore dell’articolo 2, la categoria generale di “intelligenza artificiale” identifica “l’insieme di sistemi e modelli computazionali che, attraverso processi automatizzati, sono in grado di analizzare dati, apprendere da essi, prendere decisioni ed eseguire compiti che di norma richiederebbero l’intelligenza umana”. Quando si parla, invece, di “sistema di intelligenza artificiale”, viene in rilievo un “sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dai dati analizzati che riceve come generare risposte quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. I “modelli di intelligenza artificiale” consistono, infine, in “sistemi di software e hardware che, attraverso l’utilizzo di tecniche di apprendimento automatico e la capacità di identificare strutture ricorrenti in collezione di dati, sono in grado di eseguire compiti e attività tipicamente associati all’intelligenza umana”.
Applicazioni settoriali dell’IA secondo le linee guida del Vaticano
Il Capo II (articoli 5-13) descrive le applicazioni settoriali dell’intelligenza artificiale distinte per materie (articolo 5 – “Principi in materia di informazione e trattamento dei dati”; articolo 6 – “Principi in materia di ricerca scientifica e sanità”; articolo 7 – “Principi in materia di protezione del diritto di autore”; articolo 8 – “Principi in materia di beni culturali”; articolo 9 – “Principi in materia di infrastrutture e servizi”; articolo 10 – “Principi in materia di procedure amministrative”; articolo 11 – “Principi in materia di lavoro”; articolo 12 – “Principi in materia di attività giudiziaria”; articolo 13 – “Principi in materia di sicurezza”).
L’articolo 5 richiama il Regolamento generale sulla protezione dei dati personali (decreto n. DCLVII, del 30 aprile 2024) per garantire che l’uso dei sistemi e modelli di intelligenza artificiale avvenga rispettando le relative regole, nell’ottica di non arrecare “pregiudizio alla veridicità, alla libertà di espressione, all’imparzialità e alla completezza”, con l’ulteriore divieto di produrre effetti discriminatori, ledere la dignità umana e danneggiare l’immagine dello Stato della Città del Vaticano e della Chiesa cattolica. Una tutela oltremodo rafforzata è stabilita dal successivo articolo 6 che, in materia di ricerca scientifica e sanitaria, consente “l’introduzione di sistemi e modelli di intelligenza artificiale che contribuiscano al miglioramento della cura della salute della persona e della tutela della sanità e igiene pubblica”, purché si garantisca “il rispetto dei diritti umani, delle libertà fondamentali e della protezione nel trattamento dei dati personali”, in ogni caso senza “arrecare pregiudizio o limitazioni alla valutazione decisionale degli esercenti la professione medica”.
L’articolo 7, rinviando alla legge sulla protezione del diritto di autore sulle opere di ingegno e dei diritti connessi (n. CXCVII, 1° settembre 2017), richiede di identificare mediante l’acronimo “IA” l’utilizzo di qualsivoglia sistema e modello di intelligenza artificiale volto alla “riproduzione, estrazione e creazione di contenuti testuali, musicali, fotografici, audiovisivi e radiofonici e delle arti figurative, di cui il “Governatorato dello Stato della Città del Vaticano è titolare, in via esclusiva, del diritto di paternità e dei diritti di utilizzazione economica sui contenuti testuali, musicali, fotografici, audiovisivi e radiofonici e delle arti figurative creati, attraverso l’uso dell’intelligenza artificiale, all’interno del territorio dello Stato della Città del Vaticano e nelle zone di cui agli articoli 15 e 16 del Trattato Lateranense”.
L’articolo 8 prevede l’introduzione di sistemi e modelli di intelligenza artificiale “che contribuiscano al miglioramento della conservazione, gestione, valorizzazione e fruizione del patrimonio artistico – museale dello Stato della Città del Vaticano […] nel rispetto delle finalità istituzionali del Governatorato e senza arrecare pregiudizio all’integrità e alla conservazione dei beni medesimi”.
L’articolo 9 consente di “avvalersi di sistemi e modelli di intelligenza artificiale al fine di incentivare la sostenibilità economica ed ambientale nell’ambito dell’esecuzione degli interventi infrastrutturali e dell’erogazione dei servizi; mentre il successivo articolo 10 riconosce il potenziale impatto positivo dell’intelligenza artificiale sul processo di semplificazione dei procedimenti, al fine di ridurne i tempi di definizione e migliorare gli standard di efficienza dell’azione amministrativa, nel rispetto dei principi di “eticità nell’orientamento delle scelte amministrative; trasparenza, economicità, efficacia, efficienza e risultato; segregazione delle funzioni e buon andamento dell’azione amministrativa”. In ogni caso, la menzionata disposizione sottolinea la valenza meramente strumentale dell’intelligenza artificiale, preservando l’autonomia e il potere decisionale della persona umana, “che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”.
A tenore dell’articolo 11, con specifico riferimento alle procedure di selezione del personale, l’attività di sperimentazione e applicazione dei sistemi e modelli di intelligenza artificiale, astrattamente ammissibile, “deve avvenire nel rispetto del principio di trasparenza, prevenendo ogni violazione della dignità umana e potenziali effetti discriminatori tra i partecipanti alla procedura di selezione”.
Anche in materia di attività giudiziaria, “i sistemi di intelligenza artificiale possono essere utilizzati esclusivamente per l’organizzazione e semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale”, riservando “esclusivamente al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento” (cfr. articolo 12).
Come norma di chiusura del Capo II, l’articolo 13 prevede l’emanazione di un apposito regolamento attuativo di settore per disciplinare specificamente i principi generali in materia di utilizzo dell’intelligenza artificiale nell’ambito della sicurezza e della sicurezza informatica dello Stato della Città del Vaticano.
Commissione sull’intelligenza artificiale
Infine, all’interno dell’Capo III, l’articolo 14 istituisce una Commissione sull’intelligenza artificiale, nominata dal Presidente del Governatorato dello Stato della Città del Vaticano. La Commissione, composta da 5 membri e presieduta dal Segretario Generale, ha il compito, tra l’altro, di predisporre le leggi e i regolamenti attuativi per integrare il contenuto delle linee guida vigenti già adottate in materia; esprimere pareri sulle proposte di sperimentazione e applicazione dei sistemi e modelli di intelligenza artificiale; svolgere attività di monitoraggio sull’applicazione dei sistemi e modelli di intelligenza artificiale, segnalando agli Organi di Governo i potenziali rischi per il Governatorato, predisporre una relazione semestrale sull’impatto dell’uso dell’intelligenza artificiale.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link