GPU che progettano GPU grazie all'intelligenza artificiale: lo sta facendo NVIDIA
Il chief scientist di NVIDIA, Bill Dally, ha parlato di come l'azienda sta usando soluzioni di intelligenza artificiale per ottimizzare il progetto delle proprie GPU o, in alcuni casi, progettarne parti da zero. Un enorme risparmio di tempo e personale.
di Manolo De Agostini pubblicata il 20 Aprile 2022, alle 17:41 nel canale Schede VideoNVIDIAGeForce
Bill Dally, chief scientist e vicepresidente senior per la ricerca di NVIDIA, ha illustrato durante la GTC 2022 le soluzioni di intelligenza artificiale che l'azienda sta sviluppando e che usa internamente per migliorare i suoi prodotti. Come riportato da HPC Wire, NVIDIA ha iniziato a usare l'IA per migliorare e velocizzare la progettazione delle proprie GPU.
"È naturale, come esperti di IA, che vorremmo prendere quell'IA e usarla per progettare chip migliori. Lo facciamo in un paio di modi diversi. Il primo e più ovvio è che possiamo prendere i tool CAD che abbiamo e incorporarvi l'IA", spiega Dally. "Ad esempio, ne abbiamo uno che prende una mappa di dove viene utilizzata la potenza nelle nostre GPU e prevede fino a che punto scende la tensione di rete. Farlo con uno strumento CAD tradizionale richiede tre ore", ha osservato Dally.
"Poiché è un processo ripetitivo, diventa molto problematico per noi. Quello che vorremmo fare invece è addestrare un modello di intelligenza artificiale per ottenere gli stessi dati; lo facciamo su un mucchio di progetti, e quindi possiamo sostanzialmente alimentare la mappa della potenza. Il tempo di inferenza risultante è di soli 3 secondi. Naturalmente, si tratta di 18 minuti se includi il tempo per l'estrazione di caratteristiche (feature extraction)".

"Possiamo ottenere risultati molto velocemente. Invece di usare una rete neurale convoluzionale, utilizziamo una rete neurale a grafo per stimare la frequenza con cui commutano diversi nodi nel circuito, e come questo influisce sull'alimentazione dell'esempio precedente. Inoltre, siamo in grado di ottenere stime di potenza davvero accurate molto più rapidamente rispetto agli strumenti convenzionali e in una minuscola frazione di tempo", ha affermato Dally.
Il chieft scientist, ad esempio, sta lavorando per prevedere tramite reti neurali a grafi gli elementi parassiti di un circuito stampato. "In passato la progettazione di un circuito era un processo molto ripetitivo in cui si disegnava uno schema, proprio come questa immagine sopra con i due transistor. Ma non avresti saputo come si sarebbe comportato fino a quando un progettista di layout avrebbe preso quello schema e realizzato il layout, estratto gli elementi parassiti e solo allora potevi eseguire le simulazioni del circuito e scoprire che non stavi soddisfacendo alcune specifiche".
Nel caso peggiore bisognava modificare lo schema molte volte e ripetere il processo, consumando un sacco di tempo e di energia. "Ora quello che possiamo fare è addestrare le reti neurali per prevedere quali saranno gli elementi parassiti senza dover realizzare il layout". NVIDIA è riuscita a ottenere una previsione molto accurata degli elementi parassiti, il che velocizza un passaggio dello sviluppo di una GPU.
Un altro ambito in cui NVIDIA usa l'IA è per impedire la congestione delle piste, ovvero punti in cui "ci sono troppi fili che cercano di passare lungo una determinata area, una sorta di ingorgo per bit. Quello che possiamo fare è […] usare una rete neurale a grafo per prevedere dove si verificherà la congestione in modo abbastanza preciso". Al momento la tecnologia non è perfetta, ma dà un'indicazione di massima su dove bisogna agire.
In casa NVIDIA però non usano l'IA solo per sottoporle un progetto realizzato da umani al fine di ottimizzarlo. Un altro ambito di ricerca è usare l'IA per progettare. Il primo sistema, chiamato NVCell, utilizza una combinazione di ricottura simulata e apprendimento per rinforzo per progettare la libreria di celle che serve, ad esempio, per far passare un progetto dal processo a 7 nanometri a quello a 5 nanometri. "Si tratta di molte migliaia di celle che devono essere riprogettate per il nuovo processo con un insieme molto complesso di regole di progettazione", ha spiegato Dally.

"In pratica lo facciamo usando l'apprendimento per rinforzo per posizionare i transistor. Ma, cosa ancora più importante, dopo che sono stati posizionati, di solito ci sono un sacco di errori nelle regole di progettazione e il tutto diventa quasi come un videogioco, qualcosa in cui l'apprendimento per rinforzo è bravo. […] Correggendo questi errori con l'apprendimento per rinforzo, siamo in grado di completare fondamentalmente la progettazione delle nostre celle standard".
In una prova, la soluzione adottata è stata in grado di realizzare correttamente il 92% della libreria di celle senza regole di progettazione o errori per quanto concerne regole elettriche. "Questo da una parte è un enorme risparmio di manodopera, dall'altra - in molti casi - otteniamo un design migliore". Questo lavoro, svolto da 10 persone, le terrebbe occupate per buona parte dell'anno: "Ora possiamo farlo con un paio di GPU in funzione per alcuni giorni. Gli esseri umani possono lavorare su quell'8% delle celle che non sono state realizzate automaticamente".













HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Il MacBook Pro è sempre più vicino e, grazie a Samsung, potrebbe costare meno (ad Apple)
Il prezzo della Switch 2 potrebbe diventare un problema per Nintendo
TikTok chiarisce il funzionamento della verifica dell'età degli utenti in Europa
Samsung Galaxy A07 5G: il nuovo entry level coreano è ufficiale
Realme 16 in arrivo: un mix tra iPhone Air e Google Pixel per la fascia bassa
Domenica di follia su Amazon: iPhone 17 Pro al minimo, robot top di gamma a metà prezzo e tech imperdibili
Questo portatile HP OMEN con Core Ultra 7 e display 2K 165Hz è una vera macchina da gaming (e lavoro serio) a 300€ in meno
Robot aspirapolvere al prezzo giusto: le migliori offerte Amazon del momento, dai top di gamma ai best buy
Il nuovo M5 Max potrebbe avere una GPU più veloce di M3 Ultra
Pulizie automatiche al top (e a prezzo Black Friday): robot ECOVACS in forte sconto su Amazon
Casa più calda, spese più leggere: Tado X in super sconto su Amazon con tagli fino al 40%
Mini PC mostruoso in offerta nascosta su Amazon: Core i7, 32 GB di RAM e SSD NVMe a prezzo mai visto
Netflix promette 45 giorni di esclusività ai cinema, ma l'acquisizione di Warner Bros. Discovery continua a preoccupare
Gigabyte: un handheld? Sì, ma solo se sarà in grado di distinguersi dagli altri









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoÈ un vecchio film....
#senonèuniphonenonèuniphone
È un vecchio film....
Posso venire con voi?
È un vecchio film....
e poi ci troveremo come le star...
a bere del uisky al roxibbbaaaaarrr
Certi tipi di operazioni di ottimizzazione sono roba puramente "meccanica" e l'IA è certamente una buona soluzione anche solo per scremare buona pate del lavoro basilare.
Si arriverà anche al punto in cui l'IA progetterà SW, ne sono sicuro.
D'altronde con le schifezze che vengono partorite oggi da centinaia di MB solo per aprire una finestra, l'IA non può fare tanto peggio e al massimo, come si è sempre fatto, si passa a una CPU più potente e qualche decina di GB di RAM in più per eseguire il codice risultante.
Con i motori dei giochi che hanno regole ben precise sul come e cosa si può fare, mi aspetto che tra un po' la gestione delle risorse verrà generata da una bella IA ad hoc. Così come i fix nei driver (nella speranza che si smetta di scrivere codice spazzatura che richieda poi centinaia di MB di fix a basso livello per far funzionare tutto adeguatamente).
Il chief scientist di NVIDIA, Bill Dally, ha parlato di come l'azienda sta usando soluzioni di intelligenza artificiale per ottimizzare il progetto delle proprie GPU o, in alcuni casi, progettarne parti da zero. Un enorme risparmio di tempo e personale.
Click sul link per visualizzare la notizia.
Spumeggiante! Bellissimo! Ottimo! Straordinario! Sbalorditivo!..
Ma visto che stanno "risparmiando" in tutti i modi, mi chiedo perchè
non provano ad abbassare il prezzo di queste schede video
E no eh!
Ma visto che stanno "risparmiando" in tutti i modi, mi chiedo perchè
non provano ad abbassare il prezzo di queste schede video
E no eh!
"...che potenza di rendering !!
...e un plauso va fatto anche all'anti aliasing che non mi pento di definire "particolareggiante"
...e sa cosa le dico ? "
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".