|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...le_141607.html
Durante il summit "Winning the AI Race", AMD ha discusso del ruolo crescente dell’intelligenza artificiale nella progettazione dei chip. Lisa Su ha dichiarato che l’AI aiuterà a sviluppare le future GPU più rapidamente Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Member
Iscritto dal: Sep 2006
Messaggi: 203
|
con l'intelligenza artificiale che gira su hardware NVIDIA? :P
|
![]() |
![]() |
![]() |
#3 |
Junior Member
Iscritto dal: Sep 2009
Messaggi: 29
|
schede video che si autoriproducono..
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3810
|
Huh, nel 2025 anche la signora Su ha capito che l'AI ha del potenziale?
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra. Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder. |
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3150
|
Quote:
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090 |
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Aug 2017
Città: sembra talco ma non è, serve a darti l'allegria!
Messaggi: 1240
|
naaa penso sia Liza Sunna di Parma, che produce il prosciutto cotto
__________________
se lo fumi o lo respiri... ti dà subito l'allegria!
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3810
|
Sì, proprio lei che vive solo di CPU e non ha ancora investito un dollaro in altro per poi uscirsene nel 2025 a dire "hey, ma questa AI permette anche di aiutare a progettare!".
Probabilmente in azienda hanno tutti processori EPYC che l'AI la computano esattamente come le CPU del 2015 ma dopo che qualcuno in azienda di nascosto gli ha affiancato una GPU Nvidia è corso da Lisa raccontandole tutto ciò che si sono persi finora. ![]() |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Dec 2020
Messaggi: 3338
|
Penso possa essere possibile
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jan 2002
Città: Firenze, Perugia, Formia(LT)
Messaggi: 9005
|
|
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5315
|
Di IA o computer che aiutano a progettare CPU e GPU,sono in circolazione da tempo,ancora prima delle dichiarazioni di Huang,solo che le potenze in gioco non erano così enormi.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro..... Quindi si,prima di Huang e Nvidia non esisteva niente. |
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3810
|
Quote:
E come confrontare l'aiuto di un correttore di codice mentre programmi rispetto a tool che generano intere funzioni in maniera autonoma. Quindi vero, prima di Nvidia c'erano i tool che aiutavano a progettare, con Nvidia i tool hanno fatto un salto quantico e sono ora ben altra cosa. E' solo Lisa che se ne è accorta nel 2025 inoltrato. E molto probabilmente usando i sistemi Nvidia, visto che suoi suoi si fa fatica solo a mettere un modello generativo semplice come Stable Diffusion. E anche quando dopo peripezie sei riuscito a installarlo le prestazioni sono parecchio meh... ![]() |
|
![]() |
![]() |
![]() |
#12 | |||
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3366
|
Invece Nvidia ci ha preso troppo la mano, e la prossima sarà FP2
![]() Quote:
![]() Quote:
![]() Quote:
![]()
__________________
MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6400 CL32 RIPJAWS X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET Ultima modifica di Max Power : 25-07-2025 alle 23:26. |
|||
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 5513
|
Quote:
Le prime IA sono andate in produzione ( inteso come lavoro effettivo a clienti) prima del 2015 e si sviluppavano ben prima dell'esistenza stessa di Cuda. |
|
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Nov 2019
Messaggi: 3166
|
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4370
|
Quote:
E mi fa abbastanza ridere parlare di inefficienza un'architettura che presentava un modulo (i famosi 2 core) grandi quanto 2 core K10, che sono esattamente la metà dei core SB....ma in più con stadi più corti del 30%, ovvero vcore più bassi a parità di clock....se non è efficienza questa cosa è: a parità di silicio: llano 3GHz Trinity 3,8/4,2GHz per la concorrenza con il capolavoro ingegneristico che era XV Bristol Ridge 4 core 2,7/3,6GHz@15W Sandy Bridge 2 core 1,6/2,7 GHz@17W Ultima modifica di tuttodigitale : 26-07-2025 alle 20:46. |
|
![]() |
![]() |
![]() |
#16 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 5513
|
Quote:
La CU era progettata a mano, mentre cache, fpu e int erano progettati con l'ausilio dell'IA. La serie x3xx ( 8350 a scendere) era efficiente, ma la prima rev ( sia CPU che apu) erano poco efficienti sia lato consumi che frequenze raggiungibili. Eri uno tra i più attivi nel Th di bd, mi meraviglio che non ricordi. All'epoca ero uno di quelli che fece presente la differenza sostanziale di usabilità sotto pesante mt tra Sandy Bridge e Bulldozer e Vishera misurato anche i tempi di esecuzione dei task. Nonostante gli inciampi ( e lag dei comandi utenti e dell'interfaccia) Sandy bridge eseguiva prima i compiti e consumava anche meno. In st bulldozer aveva un IPC inferiore ai phenom II, come pure Vishera, anche se grazie alle frequenze riusciva a mascherarlo. Non ho memoria se il bug TLB dei primi Phenom sia nella parte progettata dai software automatici ( che ancora non possiamo definirli IA) Ultima modifica di Piedone1113 : 26-07-2025 alle 21:31. |
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3150
|
Quote:
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090 |
|
![]() |
![]() |
![]() |
#18 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4370
|
Quote:
In sostanza la differenza è paragonabile tra quella di un linguaggio di programmazione di alto livello (in cui comunque il come e cosa si scrive influisce eccome) e assembly (in cui decido esattamente quale istruzione macchina debba essere seguita). Ma l'efficacia di un algoritmo dipende esclusivamente dall'ingegnere. L'IA invece dovrebbe proprio aiutare a scrivere il codice... PS detto questo è più facile sbagliare con la progettazione a mano che non utilizzando i linguaggi descrittivi... Ultima modifica di tuttodigitale : 27-07-2025 alle 12:08. |
|
![]() |
![]() |
![]() |
#19 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 5513
|
Quote:
L'fx8150 era inferiore al 1090t ( senza scomodare il 1100t) in st ( in praticamente tutti i benchmark) nonostante una frequenza turbo di 4200 vs 3600 mhz) ed in mt era in media il 20% più rapido nonostante il 33% di core in più. L8350 vs 1100t erano praticamente pari in st con +500mhz di frequenza. Riguardo l'IA, uno dei progettisti di BD in un intervista si lamentò proprio del suo uso massivo dovuto alla necessità di contenere i costi a cause dell'enorme crisi economica di AMD. Tra i problemi riportati c'erano tragitti vs la cache non ideali ed un aumento del 10/15% di impiego di transistor rispetto alla corrispettiva opera umana. Nella sua intervista non accusava esplicitamente l'IA, quanto piuttosto l'estrema ristrettezza economica di AMD e relativi poche persone impiegati in progettazione, controllo e revisione del prodotto. BD da simulatore andava di meno di quanto previsto, ma non tanto da giustificarne un rinvio per ottimizzarlo ( rinvio che comunque AMD non avrebbe potuto permettersi). Beninteso io ho sempre considerato BD un'ottima cosa, anche se non implementata al meglio, e che comunque ha permesso ad AMD si sopravvivere con un prodotto estremamente economico fino a Zen. Ultima modifica di Piedone1113 : 27-07-2025 alle 13:10. |
|
![]() |
![]() |
![]() |
#20 | ||||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4370
|
Quote:
stavamo parlando di architetture siamo passati in 95W da phenom x6 2,8/3.3GHz (con tutti i core alimentati ala core max, a llano x4 2,9GHz che in OC non andava neppure nella versione K successiva ad oltre 3,3GHz... ergo, qualsiasi confonto k10 su 32nm (llano) vs bulldozer (Zambesi) su 32nm vede BD molto più avanti proprio nel ST....nel MT invece (a parità di modulo) è indietro nei calcoli FP intensive...gap recuperato con PD (il precedente K10 era assolutamente competitivo a parità di thread con Nehalem/SB per efficienza/Area occupata, quindi il miglioramento più atteso erano le prestazioni nel ST). Se estendiamo il paragone a mobile, utile perché possiamo vedere il silicio al massimo delle potenzialità, si può notare che il più grande miglioramento delle prestazioni rispetto a llano si sono avuti nel ST la prima incarnazione dell'architettura necessitava, a parità di thread, del +40-45% di clock nel MT, e +15% nel ST. per pareggiare le prestazioni con k10. I risultati sotto riportati sono interessanti (le prestazioni sono estrapolate dai dati sopra, che si riferiscono al confronto k10 vs bulldozer zambesi con frequenza bloccata a 4GHz in cinebench) llano A8-3550MX B0 4 2.0 GHz 2.7 GHz 45W lllano A8-3520M B0 4 1.6 GHz 2.5 GHz 35W Trinity A10-4600M B0 4 2.3 GHz 3.2 GHz 35W (+28% fmax turbo, perfomance ST +11%, MT +0%) (sub 35W solo trinity): A10-4655M B0 4 2.0 GHz 2.8 GHz 25W A8-4555M B0 4 1.6 GHz 2.4 GHz 19W praticamente a parità di clock si passa da 45 a 25W....ora ci mancherebbe pure che avessero lo stesso ipc....ma anche così la differenza nel ST è DEVASTANTE e degna di essere menzionata. (ripeto i dati delle prestazioni sono estrapolati da BD, effettivamente le cpu PD rispetto a BD hanno un scaling CMT migliorato, le prestazioni nel ST in CB sono praticamente identiche) e, seppur di poco, superiore all'aumento di ipc avuto tra il passaggio da Nehalem a Sandy Bridge. Se parliamo di architetture, e ci limitiamo solo a quello, NON c'è confronto.. L'affermazione che Zambesi non era ottimizzato, quando con Piledriver non ci sono avuti aumenti di fmax né stock né in OC, semplicemente non sta in piedi Quote:
Quote:
E comunque il 10% in più non cambiava le carte in tavola....il rivale era un SB-E e IB-E. Quote:
il problema l'hanno avuto con i 32nm...llano è stato ritardato di 10 mesi...e dopo tutto sto ritardo hanno portato un cesso di quad core@2,9GHz senza turbo su un processo che avrebbe dovuto essere il no-plus ultra (introduzione del HKMG, che tanto aveva fatto sul bulk Intel) infatti l'IA c'entra molto poco Ultima modifica di tuttodigitale : 28-07-2025 alle 06:23. |
||||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 10:17.