Intelligenza artificiale open source per la PA: le norme e i modelli

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Richiedi prestito online

Procedura celere

 


I modelli di AI per finalità generali appresentano una delle evoluzioni più avanzate nel campo dell’intelligenza artificiale. Questi sistemi sono progettati per affrontare una vasta gamma di compiti, grazie alla loro capacità di apprendere da grandi quantità di dati e di sfruttare le conoscenze acquisite. Si differenziano dalle IA tradizionali, solitamente limitate a un compito specifico, per la loro versatilità e la loro applicazione in contesti diversificati.

Cosa sono i modelli di AI per finalità generali

Fra le loro caratteristiche essenziali si evidenzia la versatilità, ossia la capacità di generare testo, immagini, audio e persino azioni autonome. Questo li rende applicabili in diversi settori, dalla sanità alla giustizia, fino all’amministrazione pubblica, che è il punto sul quale è centrato questo intervento. Divergono poi dai modelli di IA tradizionali per dimensioni e complessità: sono di dimensioni estremamente grandi, addestrati su miliardi di dati provenienti da fonti diverse, come libri, articoli scientifici e contenuti digitali. Da ultimo ricordiamo l’autoadattabilità, dato che i modelli possono essere personalizzati o “addestrati” ulteriormente per specifiche applicazioni senza la necessità di ripartire da zero. Ne sono un esempio GPT-3 e GPT-4 sviluppati da OpenAI, che alimentano strumenti di generazione di testo, come ChatGPT, utilizzati per creare documenti, rispondere a domande o supportare decisioni complesse, MidJourney, che è un modello IA per la generazione di immagini di alta qualità a partire da descrizioni testuali, e altri sistemi integrati, già incorporati in strumenti di uso quotidiano come Microsoft Office (ad esempio, per la scrittura assistita) o nei motori di ricerca come Google e Bing.

Concetto di rischio per l’AI con finalità generali

L’AI Act, che nella sua ultima versione approvata nel maggio 2024, si occupa anche di regolare i modelli di AI per finalità generali, li suddivide in due categorie: generici e sistemici. Questi ultimi sono un sottoinsieme dei Foundation models caratterizzati da un impatto significativo e presentano rischi classificabili appunto come sistemici, poiché il loro utilizzo improprio o la loro vulnerabilità possono avere conseguenze ampie e profonde.

Dilazione debiti

Saldo e stralcio

 

Il tentativo definitorio risulta piuttosto sfumato: potrebbero rientrarvi grandi modelli di linguaggio (come GPT o BERT) utilizzati in infrastrutture linguistiche globali che hanno caratteristiche di versatilità, dato che possono essere adattati a molteplici applicazioni e che hanno impatto su larga scala, influenzando quindi anche indirettamente settori critici (salute, sicurezza, economia). Possono rientrarvi quei modelli utilizzati in catene di fornitura tecnologiche globali, che rendono eventuali malfunzionamenti o abusi particolarmente dannosi.

La dimensione dei modelli e il loro raggio di utilizzo aumentano anche i rischi di propagazione: i difetti o bias introdotti nei Foundation model possono essere amplificati nelle applicazioni derivate. Dovrebbe essere la Commissione europea, con una procedura per ora non chiarissima (data anche la definizione normativa di rischio sistemico, che appare un po’ tautologica), a designare l’appartenenza o meno di un modello alla categoria. Centrale sarà soprattutto la nozione di high impact capabilities, che si ritrova all’art. 3 par. 64 «capacità di impatto elevato»: capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati. Come si può ben immaginare è una nozione che lascia molto spazio di discrezionalità alla Commissione – e all’AI Office, chiamato a supportarla.

Le norme di riferimento

Le norme di riferimento sembrano essere le sezioni 2 e 3 del Capo V (modelli di AI per finalità generali), rubricati rispettivamente obblighi dei fornitori di modelli di base e Specificità per i Foundation model generativi con rischio sistemico, a norma delle quali, in sintesi:

  • I fornitori devono garantire che i modelli siano progettati, sviluppati e testati in modo da rispettare i requisiti essenziali di sicurezza e trasparenza;
  • Vi è l’obbligo di fornire una documentazione dettagliata sui dati di addestramento, inclusi i metodi di raccolta e i criteri di selezione, per ridurre i rischi di bias e discriminazione.

Gli oneri aggiuntivi previsti dall’art. 55 hanno come oggetto la necessità di fare un costante assesment del rischio da parte di coloro che sviluppano e rilascio modelli a rischio sistemico.

Le sfide nell’enforcement della regolazione

Le maggiori sfide nell’enforcement della regolazione appena ricostruita possono essere riassunte così:

  • In primo luogo abbiamo detto che l’identificazione dell’impatto è complessa, e da essa discende la distinzione tra i modelli generici e quelli con impatto sistemico;
  • In secondo luogo si tratta di sistemi con un alto potenziale di responsabilità condivisa: i Foundation model sistemici sono spesso sviluppati da un fornitore e utilizzati da terzi in applicazioni specifiche, e ciò rende ancora più complesso attribuire gli assetti di responsabilità;
  • Rischi emergenti: poiché i modelli sono adattabili, il loro utilizzo futuro potrebbe non essere prevedibile al momento della regolamentazione.

Modelli di AI per il settore pubblico: potenzialità e sfide regolatorie

Tentata una ricostruzione della disciplina di riferimento, bisogna interrogarsi su quale sia lo spazio per l’utilizzo dei modelli in esame, tanto generici quanto sistemici, da parte dell’Amministrazione Pubblica italiana.

Sul fatto che vi sia un ampio margine di azione non sembrano esserci dubbi, basta leggere la Strategia italiana per l’Intelligenza Artificiale 2024-2026, che ha una sezione ad hoc dedicata alle potenzialità per la PA e il cui incipit recita: “l’Intelligenza Artificiale può diventare un fattore centrale nella trasformazione digitale della Pubblica Amministrazione, per il suo potenziale che può esprimere sia in termini di strumenti atti a rendere più efficienti le attività interne, sia in termini di servizi più vicini alle esigenze dei cittadini”.

Maggiori dubbi emergono quando si entra nel vivo della costruzione dei progetti con la conseguente necessità di identificare la normativa applicabile. Ciò è ancora più vero quando si tratta di utilizzare sistemi di AI Generativa, a maggior ragione quando classificati a rischio sistemico.

Cessione crediti fiscali

procedure celeri

 

Procediamo con ordine. Se, come si è visto, sull’enunciato teorico dell’utilità dell’IA nella PA non sembra esserci discussione, un passo avanti può essere fatto esaminando i progetti fino ad ora intrapresi: dal Piano Triennale per l’Informatica – sezione dedicata all’IAI – emerge che numerose iniziative sono state intraprese da INAIL (ben 8 i progetti in corso), da INPS – che ha sviluppato fra i tanti un progetto che ha ricevuto molteplici riconoscimenti per smistare automaticamente le PEC in entrata, e da altre amministrazioni virtuose.

Più complesso però è addentrarsi nei meandri delle tecnologie utilizzate e dei problemi regolatori emersi: nella sezione dedicata ai progetti sviluppati da INPS, ad esempio, si legge che è stata già avviata una discussione sulle conseguenze dell’utilizzo di IA generative da parte di Pubbliche Amministrazioni, e che i profili rilevanti sono svariati – dall’utilizzo preferenziale di sistemi sviluppati open source, all’utilizzo di dati sensibili in presenza di sistemi in cloud.

L’esperienza del servizio sanitario UK

Se usciamo dal panorama nazionale, possiamo rintracciare esperienze di utilizzo di IA generative sistemiche da parte del settore pubblico: lo ha fatto l’NHS partecipando allo sviluppo di Limbic (“a ChatGPT-based therapy app”), un chatbot che funge da primo interfaccia per i pazienti con problemi di salute mentale.

IA nella PA: le possibili direzioni per un’esperienza condivisa

Il panorama attuale appare quindi costellato da singole esperienze in via di rapido sviluppo, e da un apparato normativo molto articolato che necessita di un’ampia implementazione, soprattutto per le fasi più operative dei progetti: sarebbe interessante che, in parallelo alle esperienze sul campo, si sviluppasse un’esperienza condivisa, a livello nazionale o europeo, quanto meno in due direzioni:

  • Sarebbe auspicabile la creazione di un protocollo condiviso di utilizzo per tutte le amministrazioni: il primo suggerimento lo si coglie proprio dal Piano triennale, che invita a creare strumenti comuni per l’analisi del rischio modulati sulla base della dimensione di ciascuna PA. Serve poi una ricognizione dei fabbisogni sia in termini di infrastrutture tecnologiche disponibili e da acquisire che di competenze, con una determinazione di ciò che verrà realizzato in house e ciò che può essere esternalizzato. Oltre a ciò, sarebbe rilevante elaborare delle linee guida sui dati che possono essere oggetto di trattamento e sugli strumenti più idonei da utilizzare considerato il fine dell’interesse pubblico (e considerata anche la chiara spinta del Legislatore per l’utilizzo del software aperto).
  • È anche auspicabile la prospettiva di uno sviluppo pubblico di modelli di IA generativa, che permetterebbe un più agevole rispetto della normativa europea e una filiera di trasparenza fin dal modello di training iniziale.

Modelli open source: l’esempio di Minerva

Ovviamente la prima soluzione, anche in questo caso, potrebbe essere quella, da parte del settore pubblico, di ricorrere a modelli sviluppati opensource (ne è un esempio la francese Mistral AI), ma a mio parere è interessante fare un passaggio ulteriore: un modello sviluppato da soggetti pubblici (o in partenariato) pensato per l’esercizio/l’erogazione di funzioni e servizi da parte di Pubbliche Amministrazioni. Va in questa direzione “Minerva”, una famiglia di LLM allenata da zero per la lingua italiana. Anche in questo caso si tratta di un modello aperto, con la peculiarità di essere stato allenato su una fonte di dati aperta. Il progetto è stato realizzato dal gruppo di ricerca Sapienza NLP – Natural Language Processing, all’interno di FAIR – Future Artificial Intelligence Research, con i fondi PNRR e la collaborazione di CINECA, che ha reso disponibile il supercomputer Leonardo, e anche dalle dichiarazioni dei suoi stessi fondatori emerge come la volontà sia quella di diventare il Large Language Model di riferimento per la Pubblica Amministrazione.

Note

Considerando 111: È opportuno stabilire una metodologia per la classificazione dei modelli di IA per finalità generali come modelli di IA per finalità generali con rischi sistemici. Poiché i rischi sistemici derivano da capacità particolarmente elevate, si dovrebbe considerare che un modello di IA per finalità generali presenti rischi sistemici se ha capacità di impatto elevato, valutate sulla base di metodologie e strumenti tecnici adeguati, o se ha un impatto significativo sul mercato interno a causa della sua portata. Per i diversi usi di concetti come sistemi fondazionali e sistemi per finalità generali, si veda A.Santosuosso – G.Sartor, Decidere con l’IA, Il Mulino 2024, pp. 51 e 166.



Source link

Assistenza per i sovraindebitati

Saldo e stralcio

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link