Huang, ceo di Nvidia, ai giovani: «Vi auguro dolore e sofferenza».

franky1

Forumer storico
65f96bc1cb705.r_d.2161-2238-1389.jpeg


Nvidia
è diventata il nuovo diamante della Silicon Valley, il faro che illumina il cammino verso la rivoluzione, promessa e in corso, dell'intelligenza artificiale. Nel corso di un maxi-evento californiano che qualche analista ha subito ribattezzato «la Woodstock dell'AI», capace di riempire l'enorme Sap Forum di San Jose, 18 mila posti, casa degli Sharks dell'hockey su ghiaccio professionistico, il ceo di Nvidia Jensen Huang ha svelato i suoi nuovi chip che saranno cervello e carburante per il prossimo salto dell'Intelligenza Artificiale. Si chiamano Blackwell.


L'augurio ai giovani e il «Think Big»

Prima del suo show sul palco a San Jose, Huang aveva parlato agli studenti della Stanford School of Business. Ai futuri imprenditori e manager Jensen Huang, il ceo taiwanese dallo stile rock con il suo immancabile «chiodo», ha augurato «Dolore e sofferenza»: «Ancora oggi uso la frase 'dolore e sofferenza' all'interno della nostra azienda con grande gioia - ha aggiunto in un'intervista a Fortune -. La grandezza viene dal carattere e il carattere non si forma da persone brillanti, ma da persone che hanno sofferto». Poi, in antitesi al mantra americano del «Think Big», dell'avere grandi ambizioni per ottenere grandi risultati, ha aggiunto che oltre alle difficoltà per forgiare il carattere è importante collocare l'asticella con realismo: «Le persone con aspettative molto elevate hanno una resilienza molto bassa ed essa è fondamentale per il successo. Uno dei miei punti di forza è che ho aspettative molto basse».

Cosa sono i chip Nvidia Blackwell


Durante il keynote, Huang ha illustrato le straordinarie capacità dei Blackwell, chip dotati di 208 miliardi di transistor rispetto agli 80 miliardi dei precedenti chip H100. Il tutto con risparmi energetici notevoli (quello del consumo dei datacenter per l'AI, di elettricità ma anche di acqua, è un tema fondamentale). Nvidia afferma che per addestrare un modello da 1.800 miliardi di parametri servono 8.000 GPU con la precedente architettura Hopper e un consumo totale di 15 megawatt (su 90 giorni circa di training del modello). Con Blackwell sono sufficienti 2.000 GPU che consumano 4 megawatt, quasi un quarto della vecchia generazione.



Ecco, soffrite e già che ci siamo "penitenziagite". :-o :d:
 
Ultima modifica:
Comunque a parte tutto il resto....un processore che ha ben 208 miliardi di transistor.

Mi ricordo ai miei tempi neanderthaliani degli anni '80 in cui il microprocessore Z80 del mio fido home computer ZX Spectrum aveva ben.....10 mila transistor. :d:
 
Comunque a parte tutto il resto....un processore che ha ben 208 miliardi di transistor.

Mi ricordo ai miei tempi neanderthaliani degli anni '80 in cui il microprocessore Z80 del mio fido home computer ZX Spectrum aveva ben.....10 mila transistor. :d:
E forse ti ricordi anche i floppy disk da 8" che riuscivano a immagazzinare ben 126 KByte.
 
E forse ti ricordi anche i floppy disk da 8" che riuscivano a immagazzinare ben 126 KByte.
Ah si me li ricordo e ne ho ancora qualcuno da qualche parte. :up:
Quelli erano per i pc che usavano l'MS DOS che io usavo negli anni '90 e avevano raggiunto all'epoca una capacità di 1.2 Mb, poi c'erano quelli 3.5" da 1.44 Mb.
 

Users who are viewing this thread

Back
Alto