NVIDIA presenta Earth-2: il sistema AI che cambia il modo di effettuare le previsioni meteo
NVIDIA ha annunciato Earth-2, una nuova suite di modelli meteo basati sull'intelligenza artificiale. Il modello Medium Range supererebbe GenCast di Google per accuratezza, mentre Nowcasting e Global Data Assimilation rendono le previsioni più rapide e accessibili
di Francesco Messina pubblicata il 27 Gennaio 2026, alle 11:01 nel canale Scienza e tecnologiaNVIDIA
Nel pieno della tempesta invernale che sta colpendo vaste aree degli Stati Uniti, con previsioni meteo spesso discordanti e stime delle nevicate molto variabili, NVIDIA ha presentato una nuova generazione di modelli di previsione del tempo basati sull'intelligenza artificiale. L'annuncio è arrivato lunedì durante il meeting dell'American Meteorological Society a Houston e riguarda la suite Earth-2, che promette previsioni più rapide e più accurate rispetto ai modelli tradizionali.

Secondo NVIDIA, uno dei nuovi modelli, Earth-2 Medium Range, supera il modello AI di Google DeepMind, GenCast, su oltre 70 variabili meteorologiche. GenCast, rilasciato nel dicembre 2024, era già considerato un significativo passo avanti rispetto ai modelli capaci di produrre previsioni fino a 15 giorni. NVIDIA sostiene che Earth-2 Medium Range rappresenti un ulteriore salto di qualità, grazie a una nuova architettura chiamata Atlas, di cui verranno forniti maggiori dettagli.
NVIDIA vuole semplificare la simulazione e previsione climatica
Dal punto di vista scientifico, NVIDIA parla di un "ritorno alla semplicità". Mike Pritchard, direttore della simulazione climatica dell'azienda, ha spiegato che l'approccio si allontana da architetture AI molto specializzate per puntare su modelli transformer semplici e scalabili. Tradizionalmente, le previsioni meteo si basano su simulazioni fisiche estremamente complesse, mentre l'uso dell'AI rappresenta un'aggiunta relativamente recente.
Oltre a Medium Range, la suite Earth-2 include Nowcasting e Global Data Assimilation. Nowcasting è pensato per previsioni a brevissimo termine, da zero a sei ore, ed è particolarmente utile per stimare l'impatto immediato di tempeste e fenomeni meteorologici pericolosi. Il modello è addestrato direttamente su dati satellitari geostazionari globali, rendendolo adattabile ovunque vi sia una buona copertura satellitare, anche in paesi più piccoli o con risorse limitate.
Il modello Global Data Assimilation, invece, utilizza dati provenienti da stazioni meteo, palloni sonda e altre fonti per creare istantanee continue delle condizioni atmosferiche in migliaia di punti del pianeta. Un processo che, nei sistemi tradizionali, richiede enormi risorse di supercalcolo. Secondo NVIDIA, il nuovo modello è in grado di svolgere lo stesso lavoro in pochi minuti su GPU, anziché in ore su supercomputer.










PNY RTX 5080 Slim OC, sembra una Founders Edition ma non lo è
Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
L'AI agentica potrebbe trasformare Internet: il settore della pubblicità online è a rischio?
Qualcomm lancerà due chip per smartphone Android a 2 nm nel 2026: ecco le possibili differenze
Xiaomi dà i numeri: ecco come è andato il 2025 dell'azienda tra smartphone, tablet, accessori e auto elettriche
AMD annuncia Ryzen 9 9950X3D2 Dual Edition: primo Zen 5 con doppio 3D V-Cache e TDP a 200W
CyrusOne avvia la costruzione del suo primo data center in Italia, a Milano
Cloud in crescita, ma l’adozione dell’IA resta lenta. L’identikit delle PMI italiane secondo Wolters Kluwer Italia
OpenAI cancella l'adult mode di ChatGPT: il riassetto strategico miete un'altra vittima
Google Search Live arriva in Italia: la ricerca ora ci vede e ci parla
MacBook Air 15'' con chip M4 (2025) crolla su Amazon: il prezzo che stavamo cercando è finalmente realtà
Ora è possibile trasferire file tra Samsung e Apple con AirDrop e Quick Share. Ecco come fare
Apple domina con il MacBook Neo: i laptop Windows faticano a tenere il passo
Arriva la nuova gamma di PC Dell Pro per utenti aziendali: nuovi notebook, desktop e workstation portatili
DJI Avata 360: la recensione del primo drone FPV 8K con sensori da 1 pollice
Il browser di Samsung arriva su Windows, ma in Italia non c'è l'IA agentica









3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?
Lo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?
dipende da quando decideranno di mettere n palio l'armatura d'oro di Sagitter...
Probabilmente presto, visto che Apple sta dando segni di NON onnipotenza (flopponi come Apple Vision. Apple Car, Apple AI) Insomma, come ci insegna il buon vecchio Leonida, hanno appena dimostrato che anche un Dio può sanguinare (marketing parlando) e non basteranno più annuncetti di "x4 volte più bello del precedente".
Hanno sempre bilanci da sogno, ma... il futuro non è così roseo, mentre NVidia tira fuori ogni giorno qualche one-more-thing che arrapa i mercati (IMHO totalmente inutili... ma sono vecchio)
pertanto... chiuderei con un CHI VINCERAAAAAAAAAA' .. L'ARMATURA D'ORO!? TA-TTA-TA TA-TTA! (vecchia sigla...)
IMHO
Lo avevano detto che Nvidia adesso punta sul marketing,Apple sei avvisata!
A quando lo scontro fanboy Nvidia VS fanboy Apple?
Quindi le evoluzioni delle AI (o sistemi Deep Learning per maggiore precisione) sono arrivati al punto di poter ottenere risultati paragonabili a quelli ottenuti tramite computazione classica ad una frazione delle risorse/costi/tempi.
Invece che simulare ogni singola cella sintetica per sapere come evolve un sistema, studiano celle che hanno già rivelato il loro comportamento e così possono predire il comportamento di altre che si comportano in maniera simile.
Due approcci diversi, ma a quanto pare quest'ultima modalità è maturata a sufficienza al punto di poter competere con la prima e portare benefici in termini di tempi e risorse di calcolo necessarie.
P.S: ormai sono almeno 5 anni che non c'è più la corsa al supercomputer con capacità di elaborazione per le simulazioni (FP64) ma piuttosto a quelli che sono in grado di elaborare modelli di addestramento sempre migliori che infatti portano migliori soluzioni in campo medico/farmaceutico/scienza dei materiali.
Che la simulazione classica sia ancora necessaria nessuno lo nega (prima che ti avventi in qualche altra tua volata pindarica sul nulla) ma il suo uso si è ristretto moltissimo ad simulazioni limitate ai casi d'uso/previsioni/suggerimenti che danno i modelli addestrati invece di usare questi ultimi per simulare la qualunque.
Quindi, sì, l'arrivo delle nuove soluzioni basate su Deep Learning porta i super computer classici ad essere meno utili rispetto a qualche anno fa.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".