NVIDIA presenta Earth-2: il sistema AI che cambia il modo di effettuare le previsioni meteo

NVIDIA presenta Earth-2: il sistema AI che cambia il modo di effettuare le previsioni meteo

NVIDIA ha annunciato Earth-2, una nuova suite di modelli meteo basati sull'intelligenza artificiale. Il modello Medium Range supererebbe GenCast di Google per accuratezza, mentre Nowcasting e Global Data Assimilation rendono le previsioni più rapide e accessibili

di pubblicata il , alle 11:01 nel canale Scienza e tecnologia
NVIDIA
 

Nel pieno della tempesta invernale che sta colpendo vaste aree degli Stati Uniti, con previsioni meteo spesso discordanti e stime delle nevicate molto variabili, NVIDIA ha presentato una nuova generazione di modelli di previsione del tempo basati sull'intelligenza artificiale. L'annuncio è arrivato lunedì durante il meeting dell'American Meteorological Society a Houston e riguarda la suite Earth-2, che promette previsioni più rapide e più accurate rispetto ai modelli tradizionali.

Secondo NVIDIA, uno dei nuovi modelli, Earth-2 Medium Range, supera il modello AI di Google DeepMind, GenCast, su oltre 70 variabili meteorologiche. GenCast, rilasciato nel dicembre 2024, era già considerato un significativo passo avanti rispetto ai modelli capaci di produrre previsioni fino a 15 giorni. NVIDIA sostiene che Earth-2 Medium Range rappresenti un ulteriore salto di qualità, grazie a una nuova architettura chiamata Atlas, di cui verranno forniti maggiori dettagli.

NVIDIA vuole semplificare la simulazione e previsione climatica

Dal punto di vista scientifico, NVIDIA parla di un "ritorno alla semplicità". Mike Pritchard, direttore della simulazione climatica dell'azienda, ha spiegato che l'approccio si allontana da architetture AI molto specializzate per puntare su modelli transformer semplici e scalabili. Tradizionalmente, le previsioni meteo si basano su simulazioni fisiche estremamente complesse, mentre l'uso dell'AI rappresenta un'aggiunta relativamente recente.

Oltre a Medium Range, la suite Earth-2 include Nowcasting e Global Data Assimilation. Nowcasting è pensato per previsioni a brevissimo termine, da zero a sei ore, ed è particolarmente utile per stimare l'impatto immediato di tempeste e fenomeni meteorologici pericolosi. Il modello è addestrato direttamente su dati satellitari geostazionari globali, rendendolo adattabile ovunque vi sia una buona copertura satellitare, anche in paesi più piccoli o con risorse limitate.

Il modello Global Data Assimilation, invece, utilizza dati provenienti da stazioni meteo, palloni sonda e altre fonti per creare istantanee continue delle condizioni atmosferiche in migliaia di punti del pianeta. Un processo che, nei sistemi tradizionali, richiede enormi risorse di supercalcolo. Secondo NVIDIA, il nuovo modello è in grado di svolgere lo stesso lavoro in pochi minuti su GPU, anziché in ore su supercomputer.

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto27 Gennaio 2026, 14:05 #1
Quindi i supercomputer (con dentro GPU) fino ad ora utilizzati,non servono a un tubo perché arriva Nvidia che con il suo nuovo sistema,sconfigge il male e fa trionfare la giustizia,manca solo il grido di Huang : per Atena e per la giustizia,Fulmine di Pegasus!
Lo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?
Cappej27 Gennaio 2026, 20:00 #2
Originariamente inviato da: supertigrotto
Quindi i supercomputer (con dentro GPU) fino ad ora utilizzati,non servono a un tubo perché arriva Nvidia che con il suo nuovo sistema,sconfigge il male e fa trionfare la giustizia,manca solo il grido di Huang : per Atena e per la giustizia,Fulmine di Pegasus!
Lo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?


dipende da quando decideranno di mettere n palio l'armatura d'oro di Sagitter...

Probabilmente presto, visto che Apple sta dando segni di NON onnipotenza (flopponi come Apple Vision. Apple Car, Apple AI) Insomma, come ci insegna il buon vecchio Leonida, hanno appena dimostrato che anche un Dio può sanguinare (marketing parlando) e non basteranno più annuncetti di "x4 volte più bello del precedente".
Hanno sempre bilanci da sogno, ma... il futuro non è così roseo, mentre NVidia tira fuori ogni giorno qualche one-more-thing che arrapa i mercati (IMHO totalmente inutili... ma sono vecchio)
pertanto... chiuderei con un CHI VINCERAAAAAAAAAA' .. L'ARMATURA D'ORO!? TA-TTA-TA TA-TTA! (vecchia sigla...)

IMHO
CrapaDiLegno27 Gennaio 2026, 23:29 #3
Originariamente inviato da: supertigrotto
Quindi i supercomputer (con dentro GPU) fino ad ora utilizzati,non servono a un tubo perché arriva Nvidia che con il suo nuovo sistema,sconfigge il male e fa trionfare la giustizia,manca solo il grido di Huang : per Atena e per la giustizia,Fulmine di Pegasus!
Lo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?


Quindi le evoluzioni delle AI (o sistemi Deep Learning per maggiore precisione) sono arrivati al punto di poter ottenere risultati paragonabili a quelli ottenuti tramite computazione classica ad una frazione delle risorse/costi/tempi.
Invece che simulare ogni singola cella sintetica per sapere come evolve un sistema, studiano celle che hanno già rivelato il loro comportamento e così possono predire il comportamento di altre che si comportano in maniera simile.
Due approcci diversi, ma a quanto pare quest'ultima modalità è maturata a sufficienza al punto di poter competere con la prima e portare benefici in termini di tempi e risorse di calcolo necessarie.

P.S: ormai sono almeno 5 anni che non c'è più la corsa al supercomputer con capacità di elaborazione per le simulazioni (FP64) ma piuttosto a quelli che sono in grado di elaborare modelli di addestramento sempre migliori che infatti portano migliori soluzioni in campo medico/farmaceutico/scienza dei materiali.
Che la simulazione classica sia ancora necessaria nessuno lo nega (prima che ti avventi in qualche altra tua volata pindarica sul nulla) ma il suo uso si è ristretto moltissimo ad simulazioni limitate ai casi d'uso/previsioni/suggerimenti che danno i modelli addestrati invece di usare questi ultimi per simulare la qualunque.

Quindi, sì, l'arrivo delle nuove soluzioni basate su Deep Learning porta i super computer classici ad essere meno utili rispetto a qualche anno fa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^