Due GeForce GTX 580 in SLI: l'insospettabile base dell'AI che conosciamo oggi
Jensen Huang ha rivelato che lo sviluppo del deep learning moderno risale al 2012 e si deve a un paio di GeForce GTX 580 in SLI utilizzate dai ricercatori dell'Università di Toronto per addestrare AlexNet. Un uso inatteso che spinse NVIDIA a investire pesantemente nell'AI, avviando uno sviluppo che oggi l'ha portata a dominare il mercato.
di Manolo De Agostini pubblicata il 07 Dicembre 2025, alle 16:01 nel canale Schede VideoGeForceNVIDIA
Il deep learning, oggi alla base dell'intera industria dell'intelligenza artificiale, affonda le sue radici in un contesto tecnologico molto lontano dalle piattaforme specializzate attuali. In una recente intervista con Joe Rogan, Jensen Huang ha raccontato come una delle svolte fondamentali dell'AI moderna sia nata utilizzando hardware consumer non progettato per il machine learning: due GeForce GTX 580 da 3 GB collegate in SLI.
Nel 2011, presso l'Università di Toronto, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton stavano cercando un metodo più efficace per il riconoscimento delle immagini. All'epoca, gli approcci tradizionali si affidavano a tecniche manuali per identificare bordi e texture, mentre l'idea di rete neurale profonda era ancora marginale e priva di un ecosistema software maturo.

Fonte immagine: Guru3D
Da questa ricerca nacque AlexNet, un'architettura composta da otto livelli e circa 60 milioni di parametri, considerata il punto di svolta per le reti convoluzionali. Il progetto sfruttò intensivamente il parallelismo delle due GTX 580, ottimizzando lo scambio di dati tra le GPU per contenere i tempi di addestramento. Una soluzione "di fortuna", ma rivelatasi sorprendentemente efficace a dimostrare le potenzialità dei modelli.
L'ironia, sottolinea Huang, è che NVIDIA all'epoca investiva quasi esclusivamente in grafica 3D e gaming. CUDA era già presente, ma non esisteva una strategia esplicita rivolta al machine learning. Eppure, proprio la natura altamente parallela delle GPU si rivelò ideale per le esigenze delle reti neurali profonde.
Secondo Huang, la dimostrazione pratica offerta da AlexNet convinse NVIDIA, nel 2012, a reindirizzare parte sostanziale di ricerca e capitali verso l'hardware per deep learning. Un percorso che portò alla creazione dei server DGX nel 2016, all'introduzione dell'architettura Volta con i primi Tensor Core e, negli anni successivi, a tecnologie come DLSS.
Senza quel primo esperimento basato su due schede gaming, sostiene Huang, oggi NVIDIA si sarebbe potuta trovare a occupare molto diverso nel panorama dell'AI. AlexNet non solo rivelò la direzione giusta, ma trasformò la GPU da strumento per videogiocatori a pilastro dell'ecosistema AI moderno.










HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
La nave elettrica più grande mai progettata è finalmente realtà: iniziati i test in acqua
Spusu lancia il Wi-Fi Calling: come funziona il VoWiFi e quanto costa
Questo robot impara a muovere le labbra semplicemente guardandoti
iPhone 17 annienta la concorrenza in Cina: da solo vende il doppio di tutti i competitor locali
La nuova Xiaomi SU7 batte un record: 4.264 km percorsi in 24 ore (comprese le ricariche)
È possibile copiare i qubit: dei ricercatori scoprono come fare il backup dei dati quantistici
BYD alza ulteriormente l'asticella: batterie garantite per almeno 250.000 km
Il nuovo razzo spaziale riutilizzabile cinese Lunga Marcia 12B è quasi pronto al debutto
L'ex leader di Assassin's Creed porta Ubisoft in tribunale e chiede un risarcimento: non si sono lasciati bene
Il razzo spaziale NASA SLS e la capsula Orion per la missione Artemis II sono al pad di lancio per gli ultimi test
Samsung Galaxy S26 Ultra: quattro colorazioni in arrivo, la versione arancione non ci sarà
AWS investe 1,2 miliardi in Italia. Coinvolte 35 imprese per rafforzare l'ecosistema di data center lombardo
La navicella cinese Shenzhou-20 con il finestrino danneggiato da un detrito è rientrata correttamente
I piani Business ed Education di Google Workspace ottengono Flow: video generati da AI da testo e immagini








4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoOrmai AMD vende solo a chi gioca e non ha soldi...
Solo IBM lavorava seriamente allo sviluppo della IA con il suo hardware.
Vedremo come continuerà questa storia con la fotonica e tecniche alternative basate su memristori.
Certo che Huang ha azzardato la mossa giusta,dobbiamo darne atto,ma d'altra parte non ha avuto gente contro.
Ma infatti
https://edge9.hwupgrade.it/news/dev...-ia_139752.html
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".