nuove strategie per ridurre il consumo energetico nell’era digitale

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Dilazioni debiti fiscali

Assistenza fiscale

 


A cura di Cullen Bash, vicepresidente di ricerca e sviluppo, Hewlett Packard Labs.

Cernusco sul Naviglio, 5 febbraio 2025 – L’appetito per l’AI generativa (GenAI) ha generato un’impennata nella domanda di sistemi di elaborazione sempre più potenti. Di conseguenza, il consumo energetico ed i relativi costi sono aumentati e continueranno a crescere.

Dalla nascita dell’intelligenza artificiale, la dimensione dei modelli di AI è cresciuta in modo esponenziale. Nel 1950, il numero massimo di parametri in un modello di AI era 40. Nel 2010, prima dell’era deep learning, i modelli avevano già riscontrato un incremento di sei ordini di grandezza, raggiungendo i 100.000 parametri . Da allora, le dimensioni dei modelli sono aumentate di ulteriori cinque ordini di grandezza. In sintesi, modelli più grandi richiedono sistemi più potenti o tempi di calcolo più lunghi, e in entrambi i casi si incorre in un maggiore consumo energetico.

Carta di credito con fido

Procedura celere

 

Attualmente, ChatGPT consuma più di 500.000 kilowattora di elettricità al giorno, mentre, per confronto, il consumo medio giornaliero della famiglia media statunitense ammonta a 29 kilowattora. L’Uptime Institute prevede che entro il 2025 l’intelligenza artificiale rappresenterà circa il 10% della potenza globale dei data center, con una crescita di cinque volte rispetto a oggi. Inoltre, l’Agenzia Internazionale dell’Energia (IEA) prevede che, tra il 2022 e il 2026, il fabbisogno energetico dei data center potrebbe raddoppiare, in gran parte a causa della crescita dell’intelligenza artificiale.

Allo stesso tempo, molte imprese si stanno concentrando sulla sostenibilità, impegnandosi a diventare carbon-neutral entro il 2050, per allinearsi all’obiettivo net zero delle Nazioni Unite. Per raggiungere questo obiettivo e mitigare gli effetti più gravi del cambiamento climatico, le organizzazioni devono ridurre il consumo energetico, aumentare il ricorso a fonti di energia rinnovabili e carbon-free, sviluppare metodi per sequestrare il carbonio o catturarlo prima che si disperda nell’atmosfera, nonché ottimizzare il riutilizzo delle risorse e l’eliminazione degli sprechi. In sintesi, per ottenere un’AI sostenibile è necessario un approccio olistico.

Quattro strategie per un’AI più efficiente dal punto di vista energetico

I ricercatori stanno esplorando strategie per ottimizzare l’uso delle risorse, indipendentemente dal fatto che i carichi di lavoro AI siano eseguiti su cloud, supercomputer o data center on-premises. Diverse tipologie di risorse possono eseguire specifici carichi di lavoro in modo più efficiente rispetto ad altre. Pertanto, per eseguire ogni carico di lavoro nel modo più efficace, è essenziale capire come suddividere i workflow. Se alcuni carichi di lavoro possono essere più adatti al cloud, altri invece risultano più efficienti su un supercomputer o in un data center locale.

Acceleratori analogici – Per decenni, i circuiti digitali sono stati l’opzione preferita. Sono veloci, potenti e consentono di elaborare enormi quantità di dati in tempi record. Tuttavia, con la diffusione su larga scala dell’intelligenza artificiale emerge un limite di questi circuiti digitali: richiedono enormi quantità di energia. In questo contesto, la tecnologia analogica sta tornando di attualità. I circuiti analogici, composti da resistenze, condensatori e induttori, operano nel dominio analogico e rappresentano un’alternativa promettente per ridurre il consumo energetico. Infatti, invece di utilizzare un sistema binario di zeri e uno, i circuiti analogici sostituiscono la logica binaria con una gamma di segnali continui. Se si utilizzano componenti come i memristori per immagazzinare dati, la movimentazione di dati tra memoria e acceleratore viene ridotto, diminuendo così il consumo energetico complessivo. Gli acceleratori specializzati, progettati per carichi di lavoro specifici, risultano generalmente più efficienti rispetto a quelli di uso generico, migliorando il rapporto tra prestazioni e consumo energetico a livello di chip.

Gemelli digitali – Un “gemello digitale” (digital twin) è una rappresentazione virtuale di un sistema fisico, come un cloud, un supercomputer o un data center on-premise. Questo modello viene costantemente aggiornato e può essere utilizzato per ottimizzare in tempo reale il funzionamento del sistema fisico. I gemelli digitali sono generalmente classificati in base al grado di interazione con il sistema reale. La forma più elementare di gemello digitale è una simulazione del sistema fisico, come ad esempio un modello virtuale dell’infrastruttura di raffreddamento di un data center, utile nella fase di progettazione della struttura. Questa tipologia di simulazioni è utilizzata da decenni nell’ingegneria. Se, per rimanere aggiornato, il modello digitale riceve dati dal sistema fisico – ad esempio rilevando il consumo energetico in un data center – può evolvere con il sistema fisico e contribuire all’ottimizzazione operativa e alla gestione dell’efficienza energetica.

Carichi di lavoro geo-distribuiti – La disponibilità di energia e acqua varia in modo significativo a livello locale. HPE Labs, in collaborazione con la Colorado State University, ha sviluppato una serie di algoritmi di ottimizzazione in grado di analizzare le variazioni nella produzione di carbonio, nella disponibilità idrica e nei costi energetici nelle diverse aree geografiche. Questi dati permettono di determinare la posizione più efficiente dove eseguire specifici carichi di lavoro AI, ottimizzando l’uso delle risorse in base alle condizioni locali. Questa strategia consente di ottenere risparmi significativi in termini di consumo di energia e acqua, oltre a ridurre i costi operativi.

Riutilizzo del calore di scarto – Il 100% dell’energia elettrica che entra in un data center viene convertita in calore, che deve poi essere dissipato. Tradizionalmente, i data center utilizzano raffreddamento ad aria, che risulta meno efficiente e più costoso rispetto al raffreddamento a liquido diretto (DLC, Direct Liquid Cooling), sempre più popolare nell’era dell’intelligenza artificiale. Il DLC è un metodo di raffreddamento che prevede il pompaggio di un liquido refrigerante direttamente all’interno dei server per assorbire il calore prodotto dai componenti hardware, come processori, GPU e memorie, trasferendolo poi a un sistema di scambio termico esterno. Questa soluzione di raffreddamento è più efficace rispetto all’aria, poiché l’acqua ha una capacità termica quattro volte superiore. Inoltre, il liquido è più facile da contenere e trasportare, riducendo le dispersioni di calore e migliorando il recupero del calore di scarto. Il riutilizzo del calore di scarto è cruciale perché ne permette l’impiego per altri scopi, come il riscaldamento di serre per ottimizzare la coltivazione di pomodori, o il riscaldamento di edifici. La crescente popolarità dell’AI offre opportunità straordinarie per aumentare la creatività, scoprire nuove applicazioni e migliorare la produttività in tutti i settori. Tuttavia, questa crescita comporta un aumento della domanda energetica per l’addestramento e l’esecuzione dei modelli AI. Minimizzare l’impatto ambientale di questo consumo sarà fondamentale per il futuro sostenibile della tecnologia e della società.

Assistenza per i sovraindebitati

Saldo e stralcio

 

Licenza di distribuzione:

INFORMAZIONI SULLA PUBBLICAZIONE


© Pensi che questo testo violi qualche norma sul copyright, contenga abusi di qualche tipo? Contatta il responsabile o
Leggi come procedere





Source link

Sconto crediti fiscali

Finanziamenti e contributi

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link