venerdì, Novembre 22, 2024

Il consenso di NVIDIA indica la necessità imminente di una significativa potenza dell’intelligenza artificiale: Barclays di Investing.com

| Data:

In un recente rapporto sugli investimenti tematici, gli analisti di Barclays hanno discusso della domanda di energia che è destinata ad accompagnare l’ascesa delle tecnologie di intelligenza artificiale, con particolare attenzione al ruolo di NVIDIA (NASDAQ:) in questo panorama.

Secondo gli analisti, il fabbisogno energetico atteso associato ai progressi nell’intelligenza artificiale evidenzia un aspetto cruciale delle prospettive di mercato di NVIDIA.

Barclays Analytics suggerisce che i data center potrebbero consumare più del 9% dell’attuale domanda di elettricità negli Stati Uniti entro il 2030, guidato in gran parte dalle richieste energetiche dell’intelligenza artificiale. Gli analisti hanno notato che “l’intelligenza artificiale inclusa nel consenso di NVIDIA” è uno dei principali fattori alla base di questa grande previsione energetica.

Il rapporto rileva inoltre che, mentre l’efficienza dell’intelligenza artificiale continua a migliorare con ogni nuova generazione di GPU, le dimensioni e la complessità dei modelli di intelligenza artificiale crescono rapidamente. Ad esempio, la dimensione dei principali modelli linguistici di grandi dimensioni (LLM) è aumentata di circa 3,5 volte all’anno.

Nonostante questi miglioramenti, si prevede che la domanda complessiva di energia aumenterà a causa dell’ampliamento della portata delle applicazioni dell’intelligenza artificiale. Ogni nuova generazione di GPU, come le serie Hopper e Blackwell di NVIDIA, è più efficiente dal punto di vista energetico. Tuttavia, modelli di intelligenza artificiale più grandi e complessi richiedono una potenza computazionale significativa.

“I modelli linguistici di grandi dimensioni richiedono un’enorme potenza di calcolo per ottenere prestazioni in tempo reale”, afferma il rapporto. “I requisiti computazionali dei modelli linguistici di grandi dimensioni si traducono anche in un maggiore consumo energetico con sempre più memoria, acceleratori e server necessari per adattare, addestrare e dedurre questi modelli”.

READ  Potenziale attacco informatico che colpisce i sistemi informatici del porto di Seattle, compreso l'aeroporto di Seattle - KIRO 7 News Seattle

“Le organizzazioni che mirano a implementare programmi LLM per il ragionamento in tempo reale dovranno affrontare queste sfide”, ha aggiunto Barclays.

Per illustrare la portata di questa domanda di energia, Barclays prevede che alimentare circa 8 milioni di GPU richiederà circa 14,5 gigawatt di potenza, che equivalgono a circa 110 terawattora di energia. Questa previsione presuppone un fattore di carico medio dell’85%.

Si prevede che circa il 70% di queste GPU sarà implementato negli Stati Uniti entro la fine del 2027, pari a oltre 10 GW e 75 TWh di potenza AI e domanda di energia nei soli Stati Uniti nei prossimi tre anni.

“La capitalizzazione di mercato di NVIDIA indica che questo è solo l’inizio della diffusione della domanda di energia attraverso l’intelligenza artificiale”, hanno detto gli analisti. Si prevede che il continuo sviluppo e l’implementazione delle GPU da parte del produttore di chip aumenteranno significativamente il consumo energetico nei data center.

Inoltre, la dipendenza dall’elettricità della rete per i data center sottolinea l’importanza di soddisfare i picchi di domanda di energia. I data center funzionano continuamente e richiedono un’alimentazione bilanciata.

Il rapporto cita una notevole dichiarazione di Sam Altman, CEO di OpenAI, al World Economic Forum di Davos, in cui ha affermato: “Abbiamo bisogno di molta più energia nel mondo di quella che pensavamo di aver bisogno prima… Penso che abbiamo ancora bisogno molta più energia nel mondo di quella che prima pensavamo di aver bisogno… “Non valutiamo il fabbisogno energetico di questa tecnologia.”

Popolare

Altri simili