Previsioni meteo locali, rapide e precise? Ci prova Google con l'Intelligenza Artificiale

A Mountain View si sperimenta un modello previsionale che sfrutta le capacità del machine learning per elaborare previsioni meteo con un elevato grado di precisione e tempestività. I primi riscontri sono decisamente incoraggianti
di Andrea Bai pubblicata il 15 Gennaio 2020, alle 10:01 nel canale Scienza e tecnologiaGoogle non nasconde l'ambizione di sfruttare l'Intelligenza Artificiale e le tecniche di machine learning per riuscire a confezionare previsioni del tempo geograficamente cirocstanziate e tempestive: lo racconta in un nuovo post sul proprio blog ufficiale - corredato di un documento tecnico - dove illustra un sistema AI che fa uso di immagini satellitari per produrre previsioni "quasi istantanee" e precise. In particolare si parla di una risoluzione di un chilometro circa e di una latenza di elaborazione della previsione solo 5-10 minuti. I ricercatori affermano che questo sistema opera in miglior modo rispetto ai modelli tradizionali anche giàa dalle prime fasi dello sviluppo.
Il sistema di modellazione metereologica si basa su un approccio che Google chiama "physics-free" e focalizzato sui dati: in termini più comprensibili vuol dire che impara ad approssimare la fisica atmosferica traendo solamente da esempi e non sfruttando una conoscenza pre-esistente. A supportare questo approccio c'è una rete neurale convoluzionale che prende le immagini di input dei pattern meteo e le trasforma in nuove immagini di output.
Google spiega che una rete convoluzionale comprende una sequenza di strati dove ciascuno di essi è costituito da una serie di operazioni matematiche. In questo caso si tratta di U-Net, un tipo di rete in cui vi è una sequenza di livelli che procede via via a ridurre la risoluzione dell'immagine data in input e una successiva sequenza di livelli che si occupa di aumentare la risoluzione dell'immagine creata durante la prima fase. Gli input per la rete U-Net sono costituiti da un canale per ciascuna immagine satellitare multi-spettrale catturate in una sequenza di osservazioni su un arco di tempo predefinito, normalmente di un'ora. Ad esempio se in un'ora venissero raccolte 10 immagini satellitari, ciascuna a 10 lunghezze d'onda diverse, l'mmagine di input sarebbe costituita da 100 canali.
Come lavoro preparatorio gli ingegneri di Google hanno allenato una rete attingendo da osservazioni storiche degli Stati Uniti continentali avvenute tra il 2017 e il 2019. I dati sono stati suddivili in periodi di 4 settimane, dove le prime tre sono usate per l'allenamento della rete e la quarta per la valutazione delle previsioni. Le prestazioni di questo particolare modello sono state confrontate con le previsioni di altri tre modelli differenti, mostrandosi superiore nel complesso a tutti e tre. Solamente quando l'orizzonte previsionale raggiunge le 5 o 6 ore, il modello di Google risulta qualitativamente meno efficace rispetto ad uno degli altri tre modelli, denominato High Resolution Rapid Refresh che tuttavia ha una latenza computazionale di 1-3 ore, significativamente più lunga del modello di Google.
"Il modello numerico usato in HRRR può fare migliori previsioni di lungo termine in parte perché usa un modello fisico tridimensionale: la formazione delle nuvole è più difficile da osservare in immagini bidimensionali e quindi è più difficile per i metodi di machine learning imparare il processo convettivo. E' possibile combinare i due sistemi per produrre migliori risultati nel complesso" commentano i ricercatori, che si stanno ora adoperando per capire come applicare le tecniche di machine learning direttamente alle osservazioni tridimensionali.
1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoBy(t)e
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".