I ricercatori dell’Università del Minnesota Twin Cities hanno creato un dispositivo che secondo loro potrebbe ridurre il consumo energetico dell’intelligenza artificiale di un fattore di almeno 1.000.
In genere, i processi di machine learning o intelligenza artificiale trasferiscono i dati tra la logica, dove le informazioni vengono elaborate all’interno del sistema, e la memoria, dove vengono archiviati i dati.
I ricercatori hanno affermato che questo trasporto consuma una grande quantità di energia e richiede risorse significative.
Ma il nuovo dispositivo conserva i dati in modo permanente in quella che viene chiamata memoria ad accesso casuale computazionale (CRAM). La memoria aritmetica ad accesso casuale esegue i calcoli direttamente all’interno delle celle di memoria, utilizzando la struttura dell’array in modo più efficiente ed eliminando la necessità di trasferimenti di dati lenti e dispendiosi in termini di energia.
“Essendo un substrato di calcolo digitale altamente efficiente dal punto di vista energetico, la memoria ad accesso casuale (CRAM) personalizzabile è molto flessibile poiché il calcolo può essere eseguito ovunque nell’array di memoria”, ha affermato Olya Karbozhko, coautore dell’articolo e professore associato presso il Dipartimento di Scienze Ingegneria elettrica e informatica. “Possiamo riconfigurare la RAM personalizzabile (CRAM) per soddisfare meglio le esigenze prestazionali di una varietà di algoritmi AI.”
“È più efficiente dal punto di vista energetico rispetto ai tradizionali elementi costitutivi dei sistemi di intelligenza artificiale di oggi.”
I ricercatori hanno notato che i test dell’acceleratore di inferenza dell’apprendimento automatico basato su CRAM hanno mostrato un miglioramento di circa 1.000 volte, mentre altri esempi hanno ottenuto un risparmio energetico di 2.500 e 1.700 volte rispetto ai metodi tradizionali.
Questo lavoro estende la precedente ricerca del team sulle giunzioni tunnel magnetiche (MTJ), dispositivi nanostrutturati utilizzati per migliorare dischi rigidi, sensori e altri sistemi microelettronici, inclusa la memoria ad accesso casuale magnetico (MRAM).
I dispositivi di memoria ad accesso casuale (RAM) a breve termine più efficienti utilizzano quattro o cinque transistor per codificare un uno o uno zero, ma un singolo MTJ, un dispositivo giroelettronico, può eseguire la stessa funzione utilizzando una frazione della potenza, a un livello più elevato. velocità ed è resistente agli ambienti difficili, afferma il team.
“Il nostro concetto iniziale di utilizzare celle di memoria direttamente nell’informatica 20 anni fa era considerato folle”, ha affermato Jianping Wang, autore principale dello studio e illustre professore alla McKnight University.
I ricercatori stanno lavorando su una serie di brevetti in cantiere e prevedono di collaborare con i leader del settore dei semiconduttori per fornire dimostrazioni su larga scala.
All’inizio di quest’anno, l’Agenzia internazionale per l’energia ha pubblicato una previsione sull’uso energetico globale indicando che il consumo energetico per l’intelligenza artificiale probabilmente raddoppierà da 460 terawattora nel 2022 a 1.000 terawattora nel 2026, più o meno equivalenti al consumo di elettricità dell’intero Giappone.
La settimana scorsa, il World Economic Forum ha avvertito che i sistemi di intelligenza artificiale generativa potrebbero effettivamente utilizzare circa 33 volte più energia per completare un’attività rispetto ai software specifici per attività.
Anche altri ingegneri mirano a ridurre il consumo energetico dell’intelligenza artificiale, con Nvidia che afferma che il suo nuovo “chip super AI” può migliorare le prestazioni di 30 volte durante l’esecuzione di servizi di intelligenza artificiale generativa, utilizzando 25 volte meno energia.
“Pluripremiato specialista televisivo. Appassionato di zombi. Impossibile scrivere con i guantoni da boxe. Pioniere di Bacon.”