Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-11-2010, 14:14   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwupgrade.it/news/skvideo...lon_34469.html

Nel contesto di un programma sponsorizzato dal DARPA, NVIDIA illustra le caratteristiche di un chip che andrà ad equipaggiare sistemi HPC di classe exaflop

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:32   #2
System Shock
Senior Member
 
L'Avatar di System Shock
 
Iscritto dal: Apr 2008
Città: Bologna
Messaggi: 5804
Nvidia come sempre investe in nuove tecnologie e magari cosi facendo tralascia un po il settore gaming.

Ma credo si la strada giusta non basta migliorare i prodotti che già esistono,bisogna inventare quelli per il futuro.
__________________
CPU: Intel i7 3930K @ 4,50 Ghz * WB: HeatKiller 3.0 360mm * MOBO: ASUS Rampage IV Extreme * VGA:Sapphire Radeon R9 290@X 4 Gb
RAM: DDR3 16 Gb G.Skill Trident-X 2400 Mhz CL 9·11·11 * Masterizzatori: LG BH10LS30 LG GH22NS30 * SSD: Samsung 830 256 Gb
System Shock è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:33   #3
Max_R
Senior Member
 
Iscritto dal: Feb 2006
Messaggi: 16252
Chissà che JC Denton s'incazza
__________________
Echi dal passato
io - com'è questa Geforce 256?
amico - potentissima ma rimpiango i drivers 3Dfx!
Max_R è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:41   #4
Avatar0
Senior Member
 
L'Avatar di Avatar0
 
Iscritto dal: Jan 2002
Città: La Capitale
Messaggi: 3881
Mi sa' tanto che 57 kilowatt andranno stretti ad nvidia , ma d' altra parte questa è una di quelle proposte che "nun ze pò rifiutare" ... chissà i $ in gioco

cmq darpa exascale gpgpu 2018 echelon mit ... 'sti cazzi più che una news sembra una recensione su un film di fantascienza
Avatar0 è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:43   #5
Samoht
Senior Member
 
L'Avatar di Samoht
 
Iscritto dal: Nov 2005
Città: Dresano (MI) Classe: 1977
Messaggi: 5237
Quote:
Il progetto, attualmente conosciuto con il nome di Echelon...
... lo avete detto a Sam Fisher? Grimsdottir lo sa già?? e Redding? cosa dice Redding?
Quote:
...iniziativa sponsorizzata dal DARPA - Defense Advanced Research Project Agency
A quando SkyNet?
__________________
INTEL Corei7 950@4 Ghz / Asus Rampage III Gene / Crossfire 2 x Sapphire HD6870 / Evga Geforce GT620 (PhysX) / 12Gb (3x4Gb) Patriot 1,6 Ghz / 2x500 Gb Seagate Barracuda (raid0) / nb, sb, cpu, vga, mosfets raffreddati a liquido / Phobya DC12-220 / Logitech G15 Gaming Keyboard, Roccat Kova Mouse / Case Fractal Design Arc Mini / Silverstone 850W / Windows 7 Ultimate 64 /...e rimpiango gli anni del Commodore 64!
Samoht è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:44   #6
FroZen
Bannato
 
Iscritto dal: Aug 2001
Città: Bergamooo...
Messaggi: 20089
"La nostra attenzione, in NVIDIA, è per tutti i prodotti sulle performance per watt"

mmmmmmmmmm...........demagogia?
FroZen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 14:49   #7
Perseverance
Senior Member
 
L'Avatar di Perseverance
 
Iscritto dal: Jul 2008
Messaggi: 8155
Il progetto ECHELON
Evidentemente alla NSA sono a corto di potenza di calcolo. Lo chiameranno ECHELON 2, a trenta anni di distanza dalla costruzione del primo. Che bello, saremo tutti ancora più spiati. Curiosamente un po' di tempo fà è andato in onda sul digitale terrestre IRIS un film intitolato "In Ascolto" che è molto realistico....
__________________
System Failure
Perseverance è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 15:45   #8
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Quote:
"La nostra attenzione, in NVIDIA, è per tutti i prodotti sulle performance per watt"

mmmmmmmmmm...........demagogia?
Se guardi al mondo dei videogiochi allora le soluzioni nvidia non sono il max per quanto riguarda performance/watt. D'altronde i loro chip si portano dietro una serie di funzionalità per il GPGPU che per i videogiochi non sono usati ma che comunque consumano (e rendono il loro chip delle mattonelle).
Se guardi invece in campo GPGPU non c'è alcuna soluzione che faccia meglio.
Basta guardare le prestazioni della concorrenza nella applicazioni professionali. Le loro schede consumano di più e vanno meno anche se nell'eseguire i soli compiti grafici sono più efficienti.

Someone è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 16:00   #9
cenit
Member
 
L'Avatar di cenit
 
Iscritto dal: Aug 2005
Messaggi: 78
Quote:
Originariamente inviato da Someone Guarda i messaggi
Se guardi al mondo dei videogiochi allora le soluzioni nvidia non sono il max per quanto riguarda performance/watt. D'altronde i loro chip si portano dietro una serie di funzionalità per il GPGPU che per i videogiochi non sono usati ma che comunque consumano (e rendono il loro chip delle mattonelle).
Se guardi invece in campo GPGPU non c'è alcuna soluzione che faccia meglio.
Basta guardare le prestazioni della concorrenza nella applicazioni professionali. Le loro schede consumano di più e vanno meno anche se nell'eseguire i soli compiti grafici sono più efficienti.
non voglio scatenare flame, ma parli per sentito dire o per conoscenza diretta?
Secondo me parli per sentito dire.

CUDA è un ottimo toolkit che manca alla concorrenza, ma se uno si fa il programma in casa senza bisogno di toolkit (facendo però più fatica) i risultati che si hanno con le schede della concorrenza (leggasi ATi) molte volte sono equiparabili, spesso migliori, solo poche volte sono meno efficienti.

Ah, consumano anche molto meno.
cenit è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 16:48   #10
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Quote:
non voglio scatenare flame, ma parli per sentito dire o per conoscenza diretta?
Nessun flame. Solo questioni di numeri. Vedi i benchmark eseguiti sui programmi professionali che non fanno solo texturing ma implicano l'uso delle capacitò di calcolo per fare qualcosa di più.
Qui trovi qualche test: http://tech.icrontic.com/articles/reviews/back-in-the-big-leagues-the-nvidia-quadro-6000-reviewed/
In conclusione dell'articolo:
The Quadro 6000 managed to score higher than the FirePro V8800 in all of the tests, and in roughly half of the tests on average, it managed to double the performance of the V8800. That is quite the impressive increase. Professionals who work with incredibly intensive projects should take note.

In alcuni test la concorrenza è indietro davvero di tantissimo.

Non è un caso che nvidia abbia il 90% del mercato professionale con le Quadro in un mercato più che maturo e che sa valutare quello che viene offerto.
Le capacità di calcolo delle sue architetture sono oggettivamente superiori. Se poi tu ti fai l'applicazione a casa per calcolarti una specifica cosa è probabile che trovi il modo di sfruttare meglio l'architettura AMD per quella particolare cosa. Ma per il calcolo scientifico, quello generale che implica l'uso di diverse strutture e metodi di calcolo, per ora la concorrenza non c'è.
Someone è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 17:04   #11
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
In OpenCL, che dovrebbe essere il cavallo di battaglia di AMD contro CUDa questi sembrano essere i risultati. Ovviamente stiamo parlando solo di alcuni bench, ma questo è quello che uno si trova davanti quando deve valutare un prodotto:

http://blog.cudachess.org/2010/03/nvidia-gtx-480-first-opencl-benchmark/

http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/6

E ti anticipo con questa nota:
The OpenCL GPGPU benchmark suite forms part of SiSoftware Sandra 2010. AMD believes it is the only company that can provide a complete OpenCL development platform for GPGPUs - essentially a combination of graphics chip and microprocessor.

Ovvero il test di SiSoft Sandra è già ottimizzato per le GPU ATI poichè ci hanno lavorato assieme.

Someone è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2010, 18:12   #12
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Someone Guarda i messaggi
Se guardi al mondo dei videogiochi allora le soluzioni nvidia non sono il max per quanto riguarda performance/watt. D'altronde i loro chip si portano dietro una serie di funzionalità per il GPGPU che per i videogiochi non sono usati ma che comunque consumano (e rendono il loro chip delle mattonelle).
Se guardi invece in campo GPGPU non c'è alcuna soluzione che faccia meglio.
Basta guardare le prestazioni della concorrenza nella applicazioni professionali. Le loro schede consumano di più e vanno meno anche se nell'eseguire i soli compiti grafici sono più efficienti.
che intendi per "applicazioni professionali"? Qui si parla di gpgpu e, in quell'ambito, a fare la differenza è la capacità di calcolo in DP
Qui c'è una comparativa piuttosto esaustiva delle performance nei puri calcoli aritmetici, tra GTX470 e HD5870
Chi volesse leggere tutto l'articolo può andare qui

Qui, invece, c'è una comparativa tra processori della precedente generazione, in relazione alle performance in DP per unità di superficie
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 03:50   #13
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da yossarian Guarda i messaggi
che intendi per "applicazioni professionali"? Qui si parla di gpgpu e, in quell'ambito, a fare la differenza è la capacità di calcolo in DP
Qui c'è una comparativa piuttosto esaustiva delle performance nei puri calcoli aritmetici, tra GTX470 e HD5870
Chi volesse leggere tutto l'articolo può andare qui
Pero' in quel link si parla di schede consumer, sarebbe interessante vedere i numeri per le soluzioni HPC (Tesla ecc.). Ad es. per GF100 le performance in DP di un prodotto Tesla dovrebbero essere quadruple della 470 (il rapporto SPP e' 2:1 invece che 8:1).
Inoltre, quella e' la peak performance, mentre quello che importa e' la performance che il programma riesce davvero ad estrarre. Conosci delle recensioni al riguardo?
Pleg è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 09:11   #14
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Nei grafici linkati manca l'architettura Fermi. Consideriamo che questa è 8 volte più veloce in DP del G200 per un'area più o meno uguale. Ricordo che le Tesla usano memoria ECC che usa più energia della memoria "normale" quindi il punto di efficienza diminuisce leggermente anche per questo.
I bench del secondo link sono interessanti, ma sono specifici per singola operazione. Nei calcoli veri non si esegue la stessa istruzione un milione di volte e basta saturando in maniera artificiale tutti gli SP alla loro massima efficienza. Entrano in gioco molte altre cose, come ad esempio la capacità di passare i risultati da un thread al successivo o di mixare istruzioni diverse.
Nei bench OpenCL, gli unici che permettono di avere un confronto diretto tra le due architetture, si vede che l'architettura Fermi funziona meglio in quasi tutti gli scenari.
Negli algoritmi dove non si fa solo moltiplicazioni di matrici in DP ad hoc per mostrare la massima efficienza dell'architettura, si vede dove le capacità dell'architettura nvidia vs quella AMD prevale.

Quote:
Qui si parla di gpgpu e, in quell'ambito, a fare la differenza è la capacità di calcolo in DP
Nel campo professionale si usano le capacità di calcolo per fare cose che non sono sole ed esclusivamente quello di muovere poligoni sullo schermo come nei videogiochi.
Potresti spiegare altrimenti come è possibile che il Cypress che nel campo videoludico praticamente sta un solo passo dietro al GF100, nel campo professionale sta 5 o 10 passi indietro. E le specifiche delle schede Quadro non sono quelle GeForce. Nelle Quadro si usa il chip della 470 con frequenze inferiori. I bench dei consumi indicano addirittura che queste schede consumano meno delle schede AMD e vanno di più. Una cosa che a guardare i bench dei videogiochi nessuno crederebbe.

Someone è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 09:27   #15
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Pleg Guarda i messaggi
Pero' in quel link si parla di schede consumer, sarebbe interessante vedere i numeri per le soluzioni HPC (Tesla ecc.). Ad es. per GF100 le performance in DP di un prodotto Tesla dovrebbero essere quadruple della 470 (il rapporto SPP e' 2:1 invece che 8:1).
Inoltre, quella e' la peak performance, mentre quello che importa e' la performance che il programma riesce davvero ad estrarre. Conosci delle recensioni al riguardo?
ciao Davide, un chip derivato da gf100 destinato ad equipaggiare una scheda di tipo tesla, ha un numero di alu pari a 448 con frequenza di 1150 MHz e performance di picco pari a 515,2 Gflops in SP e 257,6 in DP per operazioni di tipo scalare. Questi valori calano ad 1/4 per operazioni su vettori mentre restano invariate le prestazioni con funzioni trascendentali rispetto ai chip di tipo consumer. Questo significa che arrivano a pareggiare i conti con la 5870 nelle operazioni scalari e nelle MUL e MAD vettoriali.
Quelli riportati in tabella sono i valori teorici mentre quelli nei grafici sono valori misurati sperimentalmente; infatti quantitativamente si discostano da quelli teorici e, in più di qualche occasione, anche l'andamento qualitativo non si allinea alla teoria. In alcuni casi la cosa è facilmente spiegabile; ad esempio le MAD sono eseguite dai chip nVidia con 2 passaggi anzichè con uno solo perchè non avviene la conversione da MAD in FMA (i chip ATi eseguono entrambi i tipi di calcoli alla stessa velocità mentre quelli nVidia hanno alu in grado di eseguire una FMA in un solo ciclo ma per una MAD hanno bisogno di due cicli).
In ogni caso, la mia risposta era destinata a chi affermava che i chip nVidia hanno un migliora rapporto prestazioni/watt in ambito pro, la qual cosa è palesemente falsa. Una tesla ha prestazioni comparabili, sia in teoria che in pratica, a quelle di una 5870 nell'esecuzione di calcoli matematici ma non ha consumi inferiori.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 09:59   #16
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Someone Guarda i messaggi
Nei grafici linkati manca l'architettura Fermi. Consideriamo che questa è 8 volte più veloce in DP del G200 per un'area più o meno uguale. Ricordo che le Tesla usano memoria ECC che usa più energia della memoria "normale" quindi il punto di efficienza diminuisce leggermente anche per questo.
infatti è specificato che si tratta di processori della precedente generazione (non compare neppure la serie 5xx0 di ATi); inoltre GT200 in DP non fa testo in quanto ha una capacità di calcolo veramente ridotta


Quote:
Originariamente inviato da Someone Guarda i messaggi
I bench del secondo link sono interessanti, ma sono specifici per singola operazione. Nei calcoli veri non si esegue la stessa istruzione un milione di volte e basta saturando in maniera artificiale tutti gli SP alla loro massima efficienza. Entrano in gioco molte altre cose, come ad esempio la capacità di passare i risultati da un thread al successivo o di mixare istruzioni diverse.
Nei bench OpenCL, gli unici che permettono di avere un confronto diretto tra le due architetture, si vede che l'architettura Fermi funziona meglio in quasi tutti gli scenari.
Negli algoritmi dove non si fa solo moltiplicazioni di matrici in DP ad hoc per mostrare la massima efficienza dell'architettura, si vede dove le capacità dell'architettura nvidia vs quella AMD prevale.
nell'esecuzione di calcoli matematici, come quelli utilizzati in ambito GPGPU, i valori misurati sperimentalmente sono molto prossimi a quelli teorici, al contrario di quello che succede in ambito videoludico, proprio perchè non ci sono operazioni ad elevate latenze che possono far stallare la pipeline o rallentare l'elaborazione. I valori teorici di fermi e di cypress li conosciamo e quelle tabelle mostrano quelli sperimentali.

Quote:
Originariamente inviato da Someone Guarda i messaggi

Nel campo professionale si usano le capacità di calcolo per fare cose che non sono sole ed esclusivamente quello di muovere poligoni sullo schermo come nei videogiochi.
Potresti spiegare altrimenti come è possibile che il Cypress che nel campo videoludico praticamente sta un solo passo dietro al GF100, nel campo professionale sta 5 o 10 passi indietro. E le specifiche delle schede Quadro non sono quelle GeForce. Nelle Quadro si usa il chip della 470 con frequenze inferiori. I bench dei consumi indicano addirittura che queste schede consumano meno delle schede AMD e vanno di più. Una cosa che a guardare i bench dei videogiochi nessuno crederebbe.
i test che hai linkato riguardano applicazioni di grafica pro e non GPGPU (li le tesla non c'entrano niente). Per questo ti ho chiesto a quali applicazioni pro fai riferimento. E, nel caso di grafica pro, si tratta sempre di muovere poligoni con annessi e connessi (comprese operazioni di texturing, ad esempio). Inoltre, anche in quei grafici si vedono test in cui le quadro sono avanti, in alcuni anche molto avanti, ma se ne vedono altri in cui sono indietro (a volte anche molto indietro). Inoltre non ho trovato scritto da nessuna parte che le quadro consumino meno delle firegl.
In quanto alle differenze di prestazioni, i grafici presenti nell'articolo che ho linkato possono dare molte risposte, anche per quanto riguarda il campo consumer. Se un SW fa molto uso, ad esempio, di istruzioni di tipo scalare in fp32 o di heavy tessellation (come alcuni bench sintetici) i chip nVidia sono sicuramente avvantaggiati.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 10:29   #17
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Per quanto riguarda i consumi avevo visto un benchmark che mostrava consumi inferiori per schede nvidia con potenza simile a quelle ATI. Probabilmente non è il caso della serie QUadro 6000 che consuma una cinquantina di watt in più.
Però non so come tu faccia a dire che le capacità sono le stesse quando i benchmark su prodotti reali, non benchmark fatti ad hoc per mostrare una particolare ottimizzazione all'esecuzione di una sola istruzione (o tipo di istruzioni) è questa:
http://hothardware.com/Reviews/NVIDIA-Unleashes-Quadro-6000-and-5000-Series-Workstation-GPUs-Review/?page=8

Ed è solo un esempio, tra tutti quelli che sono riportati in quella recensione, che evidenzia in maniera chiara la differenza tra le due architetture e mette in mostra anche la differenza con l'architettura vecchia di nvidia (che spesso sorpassa comunque quella nuova di AMD).
Ora, o i numeri teorici che hai riportato sono appunto solo teorici e molto ma molto distanti poi dalla efficienza vera che si ottiene oppure in AMD hanno una architettura stratosferica (secondo i numeri che hai dato) ma che non sanno sfruttare per via di driver penosi.
Ripeto, non si capisce perchè in campo videoludico il Cypress sarebbe solo leggermente inferiore ad un Fermi, quando invece nel campo professionale, dove entrano in gioco altre caratteristiche, gli stessi piombino dietro addirittura al così tanto bistrattato G200.
Someone è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 10:41   #18
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Oh, mi scuso, ho scritto il commento precedete prima della tua risposta.

Quote:
nell'esecuzione di calcoli matematici, come quelli utilizzati in ambito GPGPU, i valori misurati sperimentalmente sono molto prossimi a quelli teorici
Credo proprio di no. Basta vedere nei super computer di calcolo ibridi quale è il valore teorico di picco e quello realmente ottenuto dai test che danno il punteggio alle capacità di calcolo reali dell'intero sistema. Si arriva anche ad 1/4 della potenza di picco, indice che per calcoli di complessità elevata l'efficienza è nettamente minore di quella che si ottiene con semplici bench.
Se guardi invece il rapporto tra picco teorico e quello reale di architetture basate solo su "normali" CPU vedi che i numeri sono decisamente più grandi (migliore efficienza). E con il Cell questi numeri sono ancora migliori.
Misurare le capacità HPC con un test che calcola la stessa matrice ottimizzata per la cache del particolare processore e ottenere il 95% della capacità di calcolo dello stesso non ha senso quando, come detto, l'efficienza in campo reale è decisamente molto ma molto più bassa, e quindi è più importante riuscire ad aumentarla con sistemi diversi che semplicemente attraverso la presenza di migliaia di ALU che fanno DP in un solo ciclo di clock che vengono saturate solo in condizioni ideali.
Certo aiuta, ma non sembra essere la condizione dominante per avere un sistema che performa meglio di un altro.
Someone è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 12:36   #19
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Someone Guarda i messaggi
Per quanto riguarda i consumi avevo visto un benchmark che mostrava consumi inferiori per schede nvidia con potenza simile a quelle ATI. Probabilmente non è il caso della serie QUadro 6000 che consuma una cinquantina di watt in più.
Però non so come tu faccia a dire che le capacità sono le stesse quando i benchmark su prodotti reali, non benchmark fatti ad hoc per mostrare una particolare ottimizzazione all'esecuzione di una sola istruzione (o tipo di istruzioni) è questa:
http://hothardware.com/Reviews/NVIDI...Review/?page=8

Ed è solo un esempio, tra tutti quelli che sono riportati in quella recensione, che evidenzia in maniera chiara la differenza tra le due architetture e mette in mostra anche la differenza con l'architettura vecchia di nvidia (che spesso sorpassa comunque quella nuova di AMD).
Ora, o i numeri teorici che hai riportato sono appunto solo teorici e molto ma molto distanti poi dalla efficienza vera che si ottiene oppure in AMD hanno una architettura stratosferica (secondo i numeri che hai dato) ma che non sanno sfruttare per via di driver penosi.
Ripeto, non si capisce perchè in campo videoludico il Cypress sarebbe solo leggermente inferiore ad un Fermi, quando invece nel campo professionale, dove entrano in gioco altre caratteristiche, gli stessi piombino dietro addirittura al così tanto bistrattato G200.
quelli che tu definisci esempi "reali" sono solo esempi di SW programmati in modo da favorire, volontariamente o meno, una determinata modalità di esecuzione. Se utilizzi SW che fanno largo uso di istruzioni di tipo vettoriale scopri che i chip ATi diventano molto più veloci della controparte nVidia.
Quelli che tu chiami dati "teorici" sono dati sperimentali sulla capacità di calcolo reale con SW non ottimizzato né per esecuzione seriale né parallela. Infatti mettono in evidenza come i chip nVidia si avvantaggino nel primo caso e quelli ATi nel secondo. Quindi, sono molto più utili a capire le reali capacità di calcolo di una determinata architettura e anche i suoi punti deboli, perchè sono trasparenti alle ottimizzazioni.

Quote:
Originariamente inviato da Someone Guarda i messaggi
Oh, mi scuso, ho scritto il commento precedete prima della tua risposta.


Credo proprio di no. Basta vedere nei super computer di calcolo ibridi quale è il valore teorico di picco e quello realmente ottenuto dai test che danno il punteggio alle capacità di calcolo reali dell'intero sistema. Si arriva anche ad 1/4 della potenza di picco, indice che per calcoli di complessità elevata l'efficienza è nettamente minore di quella che si ottiene con semplici bench.
Se guardi invece il rapporto tra picco teorico e quello reale di architetture basate solo su "normali" CPU vedi che i numeri sono decisamente più grandi (migliore efficienza). E con il Cell questi numeri sono ancora migliori.
Misurare le capacità HPC con un test che calcola la stessa matrice ottimizzata per la cache del particolare processore e ottenere il 95% della capacità di calcolo dello stesso non ha senso quando, come detto, l'efficienza in campo reale è decisamente molto ma molto più bassa, e quindi è più importante riuscire ad aumentarla con sistemi diversi che semplicemente attraverso la presenza di migliaia di ALU che fanno DP in un solo ciclo di clock che vengono saturate solo in condizioni ideali.
Certo aiuta, ma non sembra essere la condizione dominante per avere un sistema che performa meglio di un altro.
Cosa c'entrano i supercomputer? Lo sai che in un elaboratore del genere il collo di bottiglia è, nella stragrande maggioranza dei casi, il bus di connessione tra i vari processori? Qualunque sistema di tipo multiprocessore ha, spesso, nel bus il collo di bottiglia. Persino nel cell, con soli 8 processori, a seconda di come programmi il trasferimento dati da un SPE all'altro, puoi avvicinarti alla potenza di picco teorica o ridurre la capacità di calcolo del chip ad 1/3 di quest'ultima. Ben diverso è quello che avviene all'interno di una gpu. Nel supercomputer cinese di cui ha parlato anche HWU, gran parte dell'incremento della potenza di calcolo è dovuto all'utilizzo di un nuovo tipo di bus che raddoppia la banda a disposizione rispetto a quello utilizzato dal vecchio Tianhe.
Inoltre continui a fare confusione, parlando di GPGPU e tesla e postando test che riguardano le quadro. Sono due ambiti del tutto differenti

Ultima modifica di yossarian : 19-11-2010 alle 13:00.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2010, 13:42   #20
Someone
Bannato
 
Iscritto dal: Jun 2008
Messaggi: 122
Quote:
Cosa c'entrano i supercomputer?
Scusa riassumiamo un attimo.

I bench delle Quadro non vanno bene perchè mostrano che una Quadro Basata su Fermi va il doppio di una basata su Cypress, e non si sa il perchè dato che in ambito videoludico i due chip sono quasi alla pari.

In ambito con i super computer (che sono usati per fare calcoli matematici) i bench non vanno bene perchè i limiti sono della banda.

Siamo sempre ai soliti discorsi di teoria vs pratica. Io vedo dei numeri che dall'altra parte non ci sono. Sarà perché l'architettura AMD non è all'altezza di quella nvidia nell'atto pratico (non teorico dove sfoggia numeri più grandi) o perchè AMD non è in grado di fare driver all'altezza di sfruttare i propri transistor tanto sudatamente progettati. O una combinazione delle due.
Fatto sta che nella pratica, cioè per quello che riguarda l'uso di programmi usati in ambito professionale/HPC non c'è alcun riferimento oggettivo che tutta questa potenza sia espressa. Anzi, mi sembra che proprio non ci sia.

Dimmi in poche parole perché le Quadro fanno quei numeri e perché nei bench OpenCL nvidia surclassa in quasi tutti i bench le schede ATI anche se dai grafici che hai postato tu le schede ATI dovrebbero essere sensibilmente più veloci in linea teorica. Dove sta il problema? Sempre e solo nei driver?
Someone è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
2 minuti: il tempo per scorrere le 25 of...
Mini LED TCL: confronto tra le migliori ...
Robot aspirapolvere: questi sono i più a...
Portatile tuttofare Lenovo Core i5/16GB ...
Scende a 99€ il tablet 11" 2,4K con...
Amiga: quali erano i 10 giochi più belli
Driver più sicuri: Microsoft alza...
Ego Power+ ha la giusta accoppiata per l...
Scompiglio nei listini Amazon: prezzi im...
Sotto i 105€ il robot Lefant che lava, a...
Mini proiettori smart in offerta: uno co...
Smartwatch Amazfit in offerta: Balance o...
Windows XP ritorna: ecco come usarlo sub...
Arrow Lake in saldo: Intel taglia i prez...
LG C4 da 55'' a 899€ è il top per...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 03:09.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1