Bnl (BNL) Economia Green a tutti i costi ... sarà contenta Greta

Il boom dell’intelligenza artificiale potrebbe utilizzare una quantità scioccante di elettricità

Alimentare modelli di intelligenza artificiale richiede molta energia. Una nuova analisi dimostra quanto grande potrebbe diventare il problema
DI LAUREN LEFFER
Attrezzatura nella sala server

Ogni interazione online si basa su un’impalcatura di informazioni archiviate in server remoti e queste macchine, impilate insieme nei data center di tutto il mondo, richiedono molta energia.
Secondo l’Agenzia internazionale per l’energia , in tutto il mondo i data center rappresentano attualmente circa l’1-1,5% del consumo globale di elettricità .
E il boom mondiale dell’intelligenza artificiale, ancora in espansione, potrebbe far aumentare questo numero molto, e velocemente.
Negli ultimi mesi i ricercatori hanno lanciato allarmi generali sull’elevato fabbisogno energetico dell’intelligenza artificiale .
Ma un’analisi peer-reviewed pubblicata questa settimana su Joule è una delle prime a quantificare la domanda che si sta rapidamente materializzando. Il proseguimento delle attuali tendenze in termini di capacità e adozione dell’intelligenza artificiale porterà NVIDIA a spedire 1,5 milioni di unità server AI all’anno entro il 2027. Questi 1,5 milioni di server, funzionanti a piena capacità, consumerebbero almeno 85,4 terawattora di elettricità all’anno : più di quello che molti piccoli paesi consumano in un anno, secondo la nuova valutazione.

L’analisi è stata condotta da Alex de Vries, data scientist presso la banca centrale dei Paesi Bassi e Ph.D. candidato alla Vrije University Amsterdam, dove studia i costi energetici delle tecnologie emergenti. In precedenza de Vries era diventato famoso per aver lanciato l’allarme sugli enormi costi energetici del mining e delle transazioni di criptovalute. Ora ha rivolto la sua attenzione all’ultima moda tecnologica. Scientific American ha parlato con lui dello sconcertante appetito dell’intelligenza artificiale per l’elettricità.
[ Segue una trascrizione modificata e condensata dell’intervista. ]
Perché ritieni sia importante esaminare il consumo energetico dell’intelligenza artificiale?

Perché l’intelligenza artificiale è ad alta intensità energetica. Ho inserito un esempio di ciò nel mio articolo di ricerca: ho sottolineato che se trasformassi completamente il motore di ricerca di Google in qualcosa come ChatGPT e tutti lo usassero in questo modo, avresti nove miliardi di interazioni chatbot invece di nove miliardi di ricerche regolari per giorno, quindi il consumo di energia di Google aumenterebbe. Google avrebbe bisogno della stessa potenza dell’Irlanda solo per far funzionare il suo motore di ricerca.
Ora, questo non accadrà perché anche Google dovrebbe investire 100 miliardi di dollari in hardware per renderlo possibile. E anche se [l’azienda] avesse i soldi da investire, la catena di fornitura non potrebbe consegnare subito tutti quei server. Ma penso ancora che sia utile illustrare che se si intende utilizzare l’intelligenza artificiale generativa in applicazioni [come un motore di ricerca], ciò ha il potenziale per rendere ogni interazione online molto più pesante in termini di risorse.

Penso che sia salutare includere almeno la sostenibilità quando parliamo del rischio dell’intelligenza artificiale. Quando parliamo del potenziale rischio di errori, delle incognite della scatola nera o del pregiudizio discriminatorio dell’IA, dovremmo includere anche la sostenibilità come fattore di rischio. Spero che il mio articolo incoraggi almeno il processo di riflessione in quella direzione. Se useremo l’intelligenza artificiale, sarà d’aiuto? Possiamo farlo in modo responsabile? Abbiamo davvero bisogno di utilizzare questa tecnologia in primo luogo? Cos’è che un utente finale desidera e di cui ha bisogno e come possiamo aiutarlo al meglio? Se l’intelligenza artificiale è parte di questa soluzione, ok, vai avanti. Ma se non lo è, allora non inserirlo.
Quali parti dei processi dell’intelligenza artificiale utilizzano tutta quell’energia?
Generalmente ci sono due grandi fasi quando si parla di intelligenza artificiale.
La prima è la fase di addestramento, in cui si imposta e si fa in modo che il modello impari da solo come comportarsi.
E poi hai una fase di inferenza, in cui inserisci il modello in un’operazione live e inizi a fornirgli suggerimenti in modo che possa produrre risposte originali.
Entrambe le fasi sono ad alta intensità energetica e non sappiamo veramente quale sia il rapporto energetico. Storicamente, con Google, il bilancio era del 60% di inferenza e del 40% di formazione. Ma poi con ChatGPT questo problema è crollato, perché l’addestramento di ChatGPT richiedeva un consumo energetico relativamente minimo rispetto all’applicazione del modello.

 


Uno scienziato informatico analizza l’elevata impronta di carbonio dell’intelligenza artificiale generativa

KATE SAENKO e LA CONVERSAZIONE USA
Dipende da molti fattori, ad esempio la quantità di dati inclusi in questi modelli. Voglio dire, questi grandi modelli linguistici su cui è alimentato ChatGPT sono noti per l’utilizzo di enormi set di dati e per avere miliardi di parametri. E, naturalmente, rendere questi modelli più grandi è un fattore che contribuisce a farli semplicemente necessitare di più potenza, ma è anche il modo in cui le aziende rendono i loro modelli più robusti.
Quali sono alcune delle altre variabili da considerare quando si pensa all’utilizzo dell’energia dell’IA?
Il raffreddamento non è incluso nel mio articolo, ma se ci fossero stati dei dati su cui basarsi, lo sarebbero stati. Una grande incognita è dove finiranno quei server. Ciò conta molto, perché se sono in Google, il consumo aggiuntivo di energia per il raffreddamento sarà nell’ordine di un aumento del 10%. Ma i data center globali, in media, aggiungeranno il 50% al costo energetico solo per mantenere le macchine fresche. Ci sono data center che funzionano anche peggio di così.

Perché la AI ha bisogno di quantità di energia così enormi da danneggiare l’ambiente?

Un anno fa, è apparso un blog intitolato “ L’intelligenza artificiale sta danneggiando il nostro pianeta: affrontare l’incredibile costo energetico dell’intelligenza artificiale ” per far luce sulle allarmanti richieste energetiche dell’intelligenza artificiale e introdurre tecniche basate sul cervello per mitigare potenzialmente queste preoccupazioni ambientali. Oggi, poiché l’importanza delle applicazioni e delle tecnologie di intelligenza artificiale come ChatGPT e Large Language Models (LLM) continua a crescere, l’importanza di questa discussione non ha fatto altro che aumentare.
Sulla sua traiettoria attuale, l’intelligenza artificiale non farà altro che accelerare la crisi climatica. Al contrario, il nostro cervello è incredibilmente efficiente e consuma circa 20 watt di potenza, più o meno quanto necessario per alimentare una lampadina. Se potessimo applicare tecniche basate sulle neuroscienze all’intelligenza artificiale, esiste un enorme potenziale per ridurre drasticamente la quantità di energia utilizzata per i calcoli e quindi ridurre le emissioni di gas serra. Alla luce dei progressi che hanno plasmato il panorama dell’intelligenza artificiale nell’ultimo anno, questo post sul blog mira a rivisitare le preoccupazioni ambientali sottolineate nel post originale e il modo in cui le tecniche basate sul cervello possono affrontare il costo energetico incredibilmente elevato dell’intelligenza artificiale.
 

Per l’intelligenza artificiale l’elettricità del mondo può non bastare​

Maurizio Blondet 20 Gennaio 2024
Per l’Intelligenza Artificiale l’elettricità del mondo può non bastare

L’Intelligenza artificiale è così mostruosamente energivora, ha bisogno di tale quantità di elettricità far funzionare le sue batterie di centinaia di supercomputer, che per rischia di non avere futuro se non si adotta l’energia nucleare, più precisamente la fusione atomica – una tecnologia che non è proprio dietro l’angolo.
Lo ha detto al Forum di Davos Sam Altman, il padrone di Open AI qualche giorno fa. Rallegriamoci : come dovrebbe essere chiaro, la Intelligenza Artificiale (AI) a noi non serve; serve a loro, ai plutocrati, primariamente per non pagare più i giusti salari a milioni di lavoratori intellettuali, aumentando di milioni le “Bocche inutili” inquinanti da eliminare; ma ancor più la AI per rendere perfetto e totale l’apparato di schiavitù, dall’abolizione del contante alle camere a riconoscimento facciale collegate con il credito sociale, fino alla realizzazione dell’aberrante Progetto Transumano, con l’integrazione di chip e corpi umano ea altri deliri concepiti dal superomismo di Harari e di Schwab.
Notiamo da questa rivelazione che l’AI provoca più effetto serra e CO2 dell’agricoltura che in USA Kerry, nominato zar climatico, vuole “eliminare” (non ridurre, eliminare) perché colpevole del 30% del riscaldamento climatico; più delle auto private che ci vogliono togliere e del riscaldamento della casa che ci vogliono vietare.
Notiamo infine che la titanica quantità d energia elettrica che i lorsignori del digitale consumano per la loro AI, ha un prezzo, gigantesco; lorsignori preferiscono pagare per quella, piuttosto che i salari giusti. La consolazione è che non riusciranno ad espandere a livello totale la schiavitù AI.


Qui sotto alcuni testi che spiegano il problema:

Il futuro dell’intelligenza artificiale dipende dall’energia: lo ha detto il CEO di OpenAI a Davos​

l CEO di OpenAI, Sam Altman, ha dichiarato che serve una svolta in materia di energia per sostenere i progressi nel campo dell’intelligenza artificiale.
Il pensiero di Altman è molto semplice: l’IA richiederà sempre più potenza di calcolo e di conseguenza hardware più energivoro. Intervistato da Bloomberg (via Reuters), Altman ha affermato che è necessario investire su fonti di energia più rispettose del clima, in particolare la fusione nucleare
Non c’è modo di arrivarci senza una svolta“, ha detto. “Questo ci motiva a investire di più nella fusione”. Altman è già passato dalle parole ai fatti con un investimento nel 2021 di 375 milioni in Helion Energy, società che persegue la fusione nucleare.
Helion Energy ha già siglato un accordo per fornire energia nucleare da fusione a Microsoft a partire dal 2028, anche se non mancano gli scettici che ritengono impossibile rispettare una tale tempistica. Microsoft è il principale investitore di OpenAI, quindi non sembra causale che abbia stretto un’intesa con un’azienda sostenuta da Sam Altman.
 
ma le auto elettriche sono davvero ecologiche?

ovete ascoltarlo tutti. Bugiardi in Europa, inetti in Italia, ipocriti quelli di sx​


 


L’insostenibile fardello delle pompe di calore: un altro flop green?

Come tutti voi probabilmente sapete, una delle azioni a supporto della cosiddetta “transizione green” che gli adepti della setta del cambiamento climatico di origine antropica sostengono essere imprescindibile per la salvezza del pianeta e che – manco a dirlo – l’Ue ha fatto propria sotto forma di direttiva, è il divieto di vendita e installazione […]
Vincent Vega
di Vincent Vega1 Febbraio 2024, 5:59
 

Users who are viewing this thread

Back
Alto