L’IA nel 2025: memoria (quasi) infinita e risposte “pensate”

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Finanziamo agevolati

Contributi per le imprese

 


Sono diversi i macrotemi che caratterizzeranno il mondo dell’intelligenza artificiale nel 2025, che si prepara – come del resto il 2024 – ad essere un anno ulteriormente caldo e ricco di miglioramenti.

Di seguito raccogliamo i macro-trend più interessanti.

Finestre di contesto infinite (ovvero memoria quasi infinita)

La finestra di contesto è la quantità di informazioni che uno strumento di AI può ricevere in input prima di dare una risposta.

Carta di credito con fido

Procedura celere

 

Solitamente il concetto di contesto si capisce meglio pensando a quando (ad esempio) Chatgtp dice che è necessario cambiare chat. Questo vuol dire che ha finito la sua capacità di assorbire informazioni in input, ovvero che la chat è diventata troppo lunga, ovvero si è arrivati al limite delle capacità massima dell’input del modello che tecnicamente significa che si è riempita la finestra di contesto di input.

Ecco un altro esempio: si immagini di poter inserire come contesto solo una pagina di un file pdf e poi voler fare una domanda riguardo a quanto scritto. Chiaramente il modello si baserà su quella pagina per rispondere alla domande e quindi la sua risposta sarà piuttosto semplice e con poco dettaglio. Si immagini che quella pagina era il riassunto di un libro, in particolare il Signore degli Anelli. Cosa succederebbe se potessi dare in pasto al modello tutto il libro di oltre 1000 pagine e poi fare la stessa domanda? La sua risposta sarebbe molto migliore e più dettagliata! Ecco spiegato con un altro esempio il contesto.

Il contesto è molto utile per far sembrare che gli strumenti di AI abbiano memoria: quando infatti si è nella stessa chat e si scrivono più prompt in sequenza, al modello viene rimandata tutta la chat per far sembrare che il modello si ricordi anche le risposte date precedentemente quando in verità semplicemente riceve tutto il resto da capo. Se venissero mandati solo spezzoni, il limite della memoria ovvero del contesto non si raggiungerebbe mai, ma non avrebbe nemmeno memoria di quanto detto prima.

Il potenziamento delle finestre di contesto permette in conclusione di dare al modello molte più informazioni e questo migliora la qualità delle risposte.

Riflessione in fase di inferenza

I nuovi modelli di intelligenza artificiale stanno estendendo l’elaborazione dell’inferenza per dedicare del tempo a “pensare” prima di dare una risposta. La quantità di tempo che il modello trascorre a pensare è variabile a seconda della quantità di ragionamento che deve fare. Il ragionamento dell’inferenza può essere messo a punto e migliorato senza dover addestrare e modificare il modello sottostante.

Fino a fine 2024 i modelli venivano potenziati in base a 3 parametri:

  • Aumento della potenza di calcolo e aumento dei tempi di training (allenamento)
  • Aumento dei dati in ingresso e/o della loro qualità
  • Numero di parametri (da pochi miliardi a qualche centinaio o migliaio di miliardi)

Dopo l’estate 2024 con il modello o1 (e sotto Natale con o3) OpenAI ha aggiunto un altro punto di miglioramento dei modello: la fase di “pensiero prima della risposta“.

Considerato che negli ultimi test OpenAI si è resa conto che i miglioramenti derivanti dai tre parametri elencati sopra che sono miglioramenti in fase di apprendimento non portavano a risultati interessanti, ha pensato di fare cambiamenti nella fase di inferenza (ovvero la fase in cui il modello risponde). Questa fase prima dell’esistenza del modello o1 era immediata e quindi il modello dava la sensazione di rispondere subito. Con o1 la risposta non è più immediata perché il modello “pensa” ovvero genera una risposta, poi la analizza, la modifica, genera una seconda risposta e così via fino a quando secondo il modello stesso la risposta è “buona” secondo un grado di valutazione definito da OpenAI. Il modello si comporta come se fosse un umano davanti ad una domanda difficile, ovvero pensa prima di rispondere. Questo permette di migliorare la qualità delle risposte, a discapito di maggior tempo di risposta e maggiori costi in energia e computazione.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Immagine 1 – o1 ha aumentato il tempo di riflessione prima della risposta nella fase di inferenza

Agenti AI

Gli agenti Ai sembrano essere la nuova frontiera dello sviluppo dell’AI.

Un Agente è una AI a cui dato un obiettivo si lascia decidere autonomamente il percorso per raggiungerlo, sfruttando tipicamente strumenti come la generazione di immagini, la navigazione in internet, l’interazione con altri sistemi, o altro.

Esistono 3 tipi di agenti:

  • Agenti base: Chatgtp da quando permette di generare immagini usando Dall-E è un agente che usa lo strumento Dall-E per generare immagini.
  • Agente in ambiente chiuso: lo strumento Canva contiene un agente che ti consiglia come fare certe attività. Sono agenti che operano in un ambiente chiuso e aiutano l’utente a eseguire dei compiti come fossero un maggiordomo digitale specializzano nello strumento che si sta usando.
  • Agenti in ambiente aperto: come il Claude PC Mode, permettono di controllare direttamente un pc, di aprire un browser, navigare in internet, individuare un informazione, il tutto con un’istruzione in linguaggio naturale (a differenza degli RPA esistenti da tempo che fanno operazioni simili ma con istruzioni macchina deterministiche e solo se la sequenza di operazioni è sempre la stessa.)

Una demo di agente in ambiente aperto si può vedere qui: viene chiesto a Claude PC Mode di andare su un sito e raccogliere un dato (Il numero di Responsabili della Transizione Digitale della PA). Al di là del tema specifico è interessante vedere come si comporta l’AI: apre il browser, cerca la pagina, fa degli screenshot per capire dove si trova e fino a che non individua il dato che gli interessa facendo scrolling della pagina come fosse un umano. Quindi individuato il dato richiesto nel prompt lo riporta come risposta. Sbalorditivo!

Aumento o rimpicciolimento dimensioni del modello

I modelli linguistici di grandi dimensioni sono costituiti da molti parametri che vengono perfezionati durante il processo di apprendimento. I modelli più evoluti nel 2024 hanno raggiunto dimensioni oltre il trilione di parametri, ma si prevede che la prossima generazione di modelli sarà molte volte più grande. Lo svantaggio di avere modelli così grandi è che sono molto costosi da costruire e necessitano di enorme potenza di calcolo per poter essere utilizzati. I modelli molto piccoli d’altro canto hanno solo pochi miliardi di parametri e possono essere eseguiti su un laptop o su un telefono, ma sono meno precisi nelle risposte.

Il trend sembra essere individuato nel continuare a esplorare eventuali capacità che possono emergere nei modelli di grandi dimensioni, sebbene questo costi milioni di dollari e sia appannaggio di grandi aziende come Anthropic, OpenAI …

Sconto crediti fiscali

Finanziamenti e contributi

 

Più battuto è d’altro canto il percorso di portare in modelli più piccoli (pochi miliardi di parametri) le capacità di modelli molto grandi, in modo da poterli poi far girare in dispositivi poco potenti come pc, smartphone o altri dispositivi casalinghi, dell’automotive etc etc Questo miglioramento dei modelli piccoli viene realizzato mediante training con dati di qualità dei modelli grandi. I modelli grandi vengono poi utilizzati per trasferire conoscenza (transfer learning) ai modelli piccoli, come fossero insegnanti.

Auto-miglioramento ricorsivo

Se gli agenti ti hanno spaventato o entusiasmato è solo perché non sai ancora cosa è il miglioramento ricorsivo. Il miglioramento ricorsivo è lasciare la libertà agli algoritmi di migliorare se stessi. Questo comporta l’assenza totale di controllo e prevedibilità dei risultati perché un algoritmo può migliorare se stesso in modo che nemmeno possiamo immaginare e ad una velocità che noi umani non abbiamo.

Si prenda un esempio tratto dal mondo dei giochi: AlphaGo contro Lee Se-dol. AlphaGo è riuscito a battere il campione del mondo Lee Se-dol al gioco del GO, non solo vincendo ma anche usando tecniche che nessun umano aveva mai nemmeno pensato, eppure molto efficaci e che ora stanno diventando patrimonio dei giocatori umani di GO.

Questo fa ben sperare, pensando all’utilizzo del miglioramento ricorsivo e alle sue capacità di andare oltre gli schemi mentali umani, in ambiti sanitari, nella ricerca di proteine, nel campo della biotecnologia e della scienza.

D’altra parte preoccupa nel campo delle cyberguerre, della propaganda computazionale, o anche solo del marketing.

Che conseguenze potrebbe avere il suo utilizzo?

Dilazioni debiti fiscali

Assistenza fiscale

 

E’ probabile che nessuno lo sappia. Se immagini di essere per un attimo come umanità una scimmia che sta dando vita alla Machina Sapiens, si potrebbe prevedere il suo sviluppo? Ora pensiamo a una scimmia rispetto all’umanità (Homo Sapiens): la scimmia avrebbe potuto prevedere tutto quello che abbiamo fatto e stiamo facendo come umanità? Quasi sicuramente no. L’umanità oggi è la scimmia e l’AI la Machina Sapiens. Pensare di prevedere cosa potrebbe fare forse è sicuramente troppo arrogante.

Limiti dell’AI Attuale

Se da una parte ci sono gli entusiasti dell’AI, coloro che prevedono uno sviluppo infinito fino alla AI Generale che governerà il mondo e quindi sono fiduciosi nei miglioramenti sopra indicati, dall’altra vanno evidenziati i problemi che rimangano e che rimarranno sfide anche nel 2025 essendo intrinsechi nel modo in cui sono fatti gli LLM:

  • Bias: in base ai dati forniti, l’AI apprende. Se i dati sono di qualità impara correttamente, altrimenti impara in maniera non corretto. Un ottimo modello allenato con dati di bassa qualità training può dare risultati migliori di un modello non ottimale ma allenato su dati di qualità. Il modello è come un bambino: se un bambino cresce in una famiglia dove si dicono parolacce, dirà parolacce (vedasi l’esperimento di Microsoft del 2026, denominato Tay). Lo stesso è per l’AI quando si comporta in modo non preferibile, come ad esempio generando immagini di neri nazisti o invogliando persone al suicidio (come successo nel 2024).
  • Rigurgito: i dati con cui viene allenata l’Ai vengono utilizzati per creare modelli matematici. Tali modelli a volte diventano così precisi che effettuato un prompt di richiesta, l’AI restituisce non una estrapolazione matematica della risposta, bensì il dato da cui ha imparato, in una sorta di data overfitting. Si può provare con “nel mezzo del cammin di nostra vita” e notare come completi perfettamente la frase. Fino a che si parla di Dante nessun problema, ma se venissero restituiti dati sanitari o personali quale sarebbe la reazione dell’opinione pubblica?
  • Allucinazioni: le risposte che dà l’AI non sono quelle giuste, sono quelle più probabili e plausibili, quindi non ha problemi a dire il falso purché computazionalmente probabile e plausibile. E non sa nemmeno di dire il falso.
  • Servilismo: l’AI è molto brava ad assecondare, essere gentile e coinvolgere noi umani. Questo ci porta a credere a quello che dice, forse troppo.

Conclusioni e possibili scenari

Visto che la palla di vetro non ce l’ha nessuno, proviamo a delineare 4 scenari del prossimo anno e futuro in riferimento all’AI:

  • l’AI è arrivata al massimo dello sviluppo: sebbene poco probabile, l’obiettivo in caso si verifichi questo scenario è quello di estrarre il meglio da questa tecnologia sempre più diffusa e pervasiva. Tale tecnologia è qui da tempo, visto che danni ognuno di noi utilizza Glovoo, Uber, Netflix, Google Maps, Amazon, tanto per dirne alcuni. Alcuni esperti dicono che già al livello attuale di sviluppo, ci vorranno uan decina di anni prima di utilizzare al meglio gli LLM in tutti gli ambiti di applicazione che possono avere e spesso ancora da scoprire)
  • l’AI continuerà a migliorare lentamente: avremo come umanità più tempo per capire i cambiamenti in corso ed abituarci ad essi.
  • l’AI continuerà a migliorare velocemente: non avremo modo di seguire i cambiamenti e probabilmente nemmeno di governarli a modo. Come finirà?
  • l’AI diventerà davvero AGI (AI generale): perché preoccuparsi, non riusciamo come umani nemmeno ad immaginare cosa potrebbe succedere.

Potendo scegliere, lo scenario migliore è sicuramente il secondo: tutte le tecnologie hanno bisogno di tempo di valutazione e assorbimento da parte dell’umanità, nonché un minimo di superamento dell’hype derivante dall’entusiasmo all’adozione per poi entrare nel concreto e valutarne l’impatto reale.

Immagine 2 – La curva di adozione di una tecnologia secondo Gartner – Siamo arrivati al punto di picco?

I casi d’uso aziendali più comuni per l’intelligenza artificiale nel 2024 sono stati il miglioramento dell’esperienza del cliente, le operazioni e l’automazione IT, gli assistenti virtuali e la sicurezza informatica.

Nel 2025, vedremo casi d’uso più avanzati in queste aree. Ad esempio, i bot del servizio clienti che possono risolvere problemi complessi o i sistemi di intelligenza artificiale che possono ottimizzare in modo proattivo intere reti IT. E questo potrebbe avere progressivamente un grande impatto sul mondo del lavoro, sul welfare e su intere società.

Riassumendo, il 2025 sarà quindi l’anno della trasformazione aziendale guidata dall’AI. Le organizzazioni e la PA passeranno da un approccio sperimentale a una strategia integrata, dove l’intelligenza artificiale diventerà il motore dell’innovazione e dell’efficienza operativa.

Finanziamo agevolati

Contributi per le imprese

 

Cambiamenti di così ampia portata hanno bisogno di tempo per essere assorbiti e gestiti, dai governi e dalle società. E’ quindi importante porre attenzione particolare all’etica e alla trasparenza nell’uso dell’intelligenza artificiale che imporrà uno sviluppo e un utilizzo dell’AI sicuro e responsabile.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link