Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro punta a diventare uno dei riferimenti assoluti nel segmento dei camera phone di fascia alta. Con un teleobiettivo Hasselblad da 200 MP, una batteria al silicio-carbonio da 7500 mAh e un display da 6,78 pollici con cornici ultra ridotte, il nuovo flagship non teme confronti con la concorrenza, e non solo nel comparto fotografico mobile. La dotazione tecnica include il processore MediaTek Dimensity 9500, certificazione IP69 e un sistema di ricarica rapida a 80W
DJI Romo, il robot aspirapolvere tutto trasparente
DJI Romo, il robot aspirapolvere tutto trasparente
Anche DJI entra nel panorama delle aziende che propongono una soluzione per la pulizia di casa, facendo leva sulla propria esperienza legata alla mappatura degli ambienti e all'evitamento di ostacoli maturata nel mondo dei droni. Romo è un robot preciso ed efficace, dal design decisamente originale e unico ma che richiede per questo un costo d'acquisto molto elevato
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
La nuova fotocamera compatta DJI spicca per l'abbinamento ideale tra le dimensioni ridotte e la qualità d'immagine. Può essere installata in punti di ripresa difficilmente utilizzabili con le tipiche action camera, grazie ad una struttura modulare con modulo ripresa e base con schermo che possono essere scollegati tra di loro. Un prodotto ideale per chi fa riprese sportive, da avere sempre tra le mani
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-10-2013, 13:12   #241
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12122
Quote:
Originariamente inviato da yossarian Guarda i messaggi
occhio che gpgpu è una cosa, applicazioni di tipo CAD un'altra. Nel GPGPU, con bench basati su opencl, titan è tutt'altro che un mostro se paragonato alle AMD in alcune applicazioni e alle serie 5x0 di nVidia in altre applicazioni.
hai detto proprio bene, bench di OpenCL.... io parlavo di software GPGPU CUDA veri e funzionanti; di OpenCL nVidia non ha per nulla ottimizzato, se ne è sbattuta allegramente per non intaccare il suo monopolio nel professionale; e dipende sempre da software a software, perchè se prendo Photoscan, che è un software professionale per la ricostruzione 3D mediante fotografie che utilizza OpenCL, le nVidia vanno molto meglio e gli stessi programmatori le consigliano;
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.

( anzi, direi proprio tutti i motori sono CUDA, ad esclusione del solito Lux Render che è un esercizio di stile tipo Blender o Gimp, che viene usato nelle review giusto perchè è free )

Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo cosa cambiera.

Quote:
Originariamente inviato da Ares17 Guarda i messaggi
Ciao Ace, se guardi bene le specifiche della Titan si vede benissimo che è un chip declassato.
Ha si più prestazioni in gpgpu, ma solo con calcoli SP, in DP i moltiplicatori fanno le unità di elaborazioni destinati allo scopo viaggino ad una veloce inferiore di 1/8 rispetto a quelle di k20 (questo è il motivo principale delle frequenze superiori di titan rispetto a k20).
Addirittura con calcoli in DP la gtx580 ha prestazioni leggermente superiori (a default).
Come ho gia scritto è possibile da driver impostare il moltiplicatore delle unità DP al massimo consentito, rendondo il rapporto DP/SP uguale a quello delle K20, ma abbassando le frequenze di funzionamento dell'intero chip a 715mhz,
quello che scrivi è vero, ma io parlavo di Rendering GPGPU, e in questo caso tutti i motori di rendering in commercio effetuano calcoli SP.

Quote:
Originariamente inviato da Ares17 Guarda i messaggi
e spesso in caso di elevato carico GPGPU, sia SP che DP, le frequenze di lavoro scendono anche sotto i 700mhz (rendendo titan sempre più lenta di K20).
nei calcoli DP non saprei, mai usati e non conosco nemmeno software che li utilizzino, nel calcolo SP in full 100% le frequenze non mi pare siano mai scese sotto gli 830 mhz, sua frequenaza base, comunque per essere sicuro lunedi faro una prova con Vray RT, e con GPU Shark controllero le frequenze.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 26-10-2013 alle 13:34.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 13:18   #242
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da sundraw83 Guarda i messaggi
La versione con ventola di fabbrica la trovo a 560 euro. Quelle moddate staranno intorno ai 100 euro in più. Fermi v1 venne molto criticata per temps e consumi. Ora invece è tutto ok.
Diamo un pò di numeri se no qui non si capisce una mazza:
la differenza di prestazioni per watt tra
Titan e R9 290X è del 7,9% a favore di Titan,
GTX780 e R9 290x è del 5,3%

Invece, la HD5870 era più efficiente della GTX480 del 62% . (fonte techpowerup)
lla HD5870 era più efficiente della GTX580 del 23%. In definitiva la seconda reicarnazione di Fermi ha portato ad un aumento dell'efficienza del 32%.


Parliamo di cose molto diverse. E' vero la R9 290x consuma poco meno della GTX480, ma le varie Titan, GTX680, GTX780 consumano molto ma molto di più della HD5870 (80-120W in più, in alcuni casi il doppio quindi)

PS la r9 290x in configurazioni multi-monitor è la più efficiente di tutte, superando la TITAN di un buon 10-15%....

PPS valutare i prezzi di schede video uscite il giorno prima non è corretto. Già dalla prossima settimana vedremo prezzi in alcuni casi già allineati a listino

PPPS a rileggere questi numeri mi è venuta quasi la nostalgia per l'architettura vliw...

Ultima modifica di tuttodigitale : 26-10-2013 alle 16:24.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 13:27   #243
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Maury Guarda i messaggi
Ciao Yoss, questa parte è stupenda, mi hai strappato un sorriso ed una risata eheh

E' un vero piacere rileggerti!!

Yoss in Hawaii AMD ha usato transistor ad alta densità a tuo avviso ?
se li hanno usati, è stato solo per il MC (mi fa pensare il fatto che si sia passati da 384 a 512 bit risparmiando il 20% di spazio). D'accordo le ottimizzazioni ma questa mi pare eccessiva anche perché i 28 nm sono "fuori" da un po' e molte cose sono già state limate in precedenza

Quote:
Originariamente inviato da appleroof Guarda i messaggi
Yossarian intanto ciao...poi volevo farti presente che in game praticamente TUTTE le Titan e le 780 arrivano prossime a 1ghz di frequenza in boost, a dispetto dei dati di targa, e parlo di boost automatico, non overclock applicato dall'utente. Nvidia è stata conservativa nell'indicare i dati di targa delle Geforce che montano gk110, ma ti ripeto che praticamente tutte si approssimano e a volte toccano 1ghz di frequenza senza problemi, nell'uso di tutti i giorni e senza overclock manuale (e quindi pure nelle review).
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz, oppure,s e si vuole andare oltre, aumentare leggermente la tensione (di circa 36-38 mV perché oltre diventa instabile e la protezione tende a riabbassarla automaticamente ai valori di default indipendentemente da quanto è stato impostato) e portare la soglia della temperatura a 94-95°C. In questo modo è possibile raggiungere una frequenza massima di boost attorno ai 1130 MHz (oltre il sistema va in crash e non è possibile compensare aumentano ancora la tensione di alimentazione). Le prestazioni salgono con questi ultimi accorgimenti di circa il 15-20% a seconda dei titoli ma anche i consumi aumentano arrivando a superare quelli di hawaii. Inoltre c'è da considerare che la rilevazione avviene in una arco di tempo tale da non potersi considerare istantanea e con la funzione "boost frequency" i chip nVidia hanno continue oscillazioni della frequenza di funzionamento che non permettono di affermare che il chip lavori "stabile" a una determinata frequenza

Quote:
Originariamente inviato da appleroof Guarda i messaggi
Inoltre, a parità di dissipatore io passando da frequenze default a boost su 1110mhz (e memorie da 6ghz qdr a 6,4ghz che di sicuro ci mettono del loro nelle temp generali) ho visto la temperatura salire di pochi gradi, segno che i consumi non è che salissero in maniera spropositata; nelle recensioni di Hawaii invece in proporzione l'aumento di frequenze porta un aumento di consumi e temperature proporzionalmente maggiore.
a parità di dissipatore dovrebbe valere tra hawaii e titan o 780 GTX. Non credo che il dissipatore di hawaii abbia una qualità eccelsa
Il fatto che le temperature non variassero di molto dipende dal "limitatore" di temperatura impostato sul chip. Però tieni conto che il limitatore funziona in modo tale che se hai impostato di default un valore di 80°C, come la temperatura si avvicina a quel limite la frequenza di funzionamento di abbassa. In questo modo, su scene con carichi elevati hai continui picchi di frequenze in alto e in basso che limitano le temperature ma anche le prestazioni

Quote:
Originariamente inviato da appleroof Guarda i messaggi

Io mi sono persuaso che invece gk110 non è stato progettato per i 20 nm (ed infatti esiste da più di un anno, se ci metti il tapeout esiste da almeno marzo/aprile 2012, troppo presto per progettare un chip per quel pp, anche se fosse stato pronto, il pp a 20nm, per fine di quest'anno come previsto inizialmente) mentre Hawaii si, ed è stato riadattato ai 28nm (forse analogamente a Cayman che era per i 32nm e poi fu fatto per i 40nm)
il fatto che esista da oltre un anno vuol dire poco. GK110 è un chip molto complesso e di enormi dimensioni e ha costretto nVidia, per poter avere un maggior boost di frequenze in game, a disabilitare il DP sulla 780 per abbassare i consumi in caso di aumento delle frequenze. La mia idea è che se ci fossero stati i 20 nm, la 780 non sarebbe uscita affatto perché il vero GK110, di fatto, è titan

Quote:
Originariamente inviato da appleroof Guarda i messaggi

Pare inoltre (ma devo ritrovare la fonte) che su Hawaii Amd abbia usato transistor ad alta densità, se fosse vero questo potrebbe contribuire a spiegare, oltre alle frequenze tirate, i consumi e di conseguenza il calore esagarati di questo chip, non credi?
come ho risposto a Maury, penso che se sia stato fatto uso di transistor ad alta densità questo sia avvenuto solo per il memory controller. I transistor ad alta densità possono causare un aumento della temperatura da smaltire (a causa del fatto che le connessioni sono disposte su tre dimensioni) ma non dei consumi del chip. Quelli sono conseguenza del numero di transitor e di altri fattori legati alle caratteristiche del PP e delle librerie utilizzate

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Beh, hanno messo 12 unità e ne hanno spenta una per aumentare le rese...
A parte il discorso accoppiamento rops ecc, imho era meglio spenderci un pò di più sul chip (parlo di grandezza) e giocarsela meglio dal pdv consumi/calore..no? In fondo Titan è 100mmq più grossa di Hawaii...
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Certo che non potevano prevedere tutto per filo e per segno...(leggasi comsumi esagerati) però fà strano vedere una Titan consumare 50W in meno..... non ti pare?
titan lavora anche a frequenze di molto inferiori

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

E nel caso fosse un'archi nuova, si prospetterebbe la famosa prova del fuoco della doppietta "nuovo PP, archi nuova" di cui hai sempre detto peste e corna.
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Domandona: secondo te, AMD ad oggi è ancora avanti di mezzo nodo nel pp (o in generale nel rapporto con TSMC), oppure a causa del ritardo sui 20nm di TSMC ha perso questo vantaggio?
no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Quì la domanda è se non sai davvero o non vuoi dire... un'idea ce l'avrai di sicuro.
si, un'idea ce l'ho ma, al momento, preferisco tenermela. Comunque non credo sia questione di driver

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Ho visto dai test del fillrate su Hawai.

La gpu di XboxONE e quella di PS4 hanno questo stesso schema secondo te?
si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.

Ultima modifica di yossarian : 26-10-2013 alle 13:33.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 13:30   #244
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire.

Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.

Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.

Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 13:32   #245
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
hai detto proprio bene, bench di OpenCL.... io parlavo di software GPGPU CUDA veri e funzionanti; di OpenCL nVidia non ha per nulla ottimizzato, se ne è sbattuta allegramente per non intaccare il suo monopolio nel professionale; e dipende sempre da software a software, perchè se prendo Photoscan, che è un software professionale per la ricostruzione 3D mediante fotografie che utilizza OpenCL, le nVidia vanno molto meglio e gli stessi programmatori le consigliano;
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.

Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo.
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU

Ultima modifica di yossarian : 26-10-2013 alle 13:35.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 13:49   #246
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12122
Quote:
Originariamente inviato da yossarian Guarda i messaggi
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU
e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:03   #247
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire.

Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.

Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.

Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?


Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
Quote:
The NVIDIA Maxwell GM100 chip would consist of 8 GPCs consisting of 24 SMX modules (3 SMX Per GPC), 384 TMUs, 6144 Cuda Cores, 8 MB of L3 Cache (8 L2 cache’s per GPC), 64 ROPs, a 512-bit interface followed by a VRAM upto 8 GB GDDR5 operation at around 6 GHz. The GM100 is supposed to replace the high-performance GK110 chip so its going to end up in both GeForce parts and Tesla parts. It will probably show up in the Tesla parts first before shipping to consumers.
Clock frequencies would be maintained at different levels for each product tier as listed below:
GeForce GM100: 930 MHz Core / 1 GHz Boost
Tesla GM100: 850 MHz (2.61 TFlops DP)
http://wccftech.com/alleged-nvidia-m...xwell-refresh/

Ultima modifica di PaulGuru : 26-10-2013 alle 14:07.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:08   #248
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.



e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
limitato perché operazioni di raytracing, modellazione 3D o rendering, proprie dei programmi di CAD sono tipiche delle GPU e il fatto che impieghino al 100% la GPU significa solo che tramite CUDA o chi per esso riescono a sfruttare al meglio l'hardware a disposizione. In VRay una TMU svolge il compito per cui è stata progettata. Nelle applicazioni di tipo GPGPU più "estreme" (soli calcoli matematici) ad esempio, le TMU sono utilizzate per "mappare" le istruzioni; un'operazione di memory read si traduce in una di texture fetch e una di memory write in una di pixel filling che coinvolge le RBE. Per questo le tesla non hanno uscite video. Questo senza tener conto che per il rendering non serve la DP

Ultima modifica di yossarian : 26-10-2013 alle 14:16.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:15   #249
<Masquerade>
Bannato
 
Iscritto dal: Dec 2010
Messaggi: 11851
Quote:
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz
Ciao yossarian

Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.

Ultima modifica di <Masquerade> : 26-10-2013 alle 14:17.
<Masquerade> è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:24   #250
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da yossarian Guarda i messaggi
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)
Beh certo.

Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia.
Però con con R580 ha reso... con R600 no... con la serie 4*** e 5*** ha reso abbastanza bene...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire....
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero?

Cmq a me sembra un'altra ATI da quando è tornato Koduri. Menomale.


Quote:
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.
Ok.



Quote:
no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20
Hmm...male per AMD, o sbaglio?



Quote:
si, un'idea ce l'ho ma, al momento, preferisco tenermela. Comunque non credo sia questione di driver
Dimmela in PVT..!!!
Non lo dico a nessuno!!!!!!



Quote:
si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.
Ti devo fare una domanda sull'eSRAM......
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:28   #251
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da <Masquerade> Guarda i messaggi
Ciao yossarian

Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
qui c'è un test su titan fatto da hardocp con frequenze rilevate in game.

http://www.hardocp.com/article/2013/...w#.Umu0IHAYzfU


questa è un'altra review da cui risulta che un boost superiore ad 1 GHz si può raggiungere con un leggero overvolt

http://www.digitalversus.com/graphic...5386/test.html

ora c'è da capire se quella di cui parlate è una frequenza stabile di funzionamento in caso di pieno carico o di picchi più o meno istantanei di frequenza perché, nel secondo caso, fa veramente poco testo a livello di calore e consumi

Ultima modifica di yossarian : 26-10-2013 alle 14:36.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:35   #252
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Beh certo.

Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia.
Però con con R580 ha reso... con R600 no... con la serie 4*** e 5*** ha reso abbastanza bene...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire....
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero?

Cmq a me sembra un'altra ATI da quando è tornato Koduri. Menomale.
è cambiato solo l'approccio in cui sono gestite le unità funzionali: con il vliw era affidato tutto (o quasi, trattandosi di vliw dinamico) al compilatore, con l'approccio attuale hai una serie di unità vettoriali gestito da arbiter. GCN si integra meglio nel progetto fusion di quanto non si potesse fare con la vliw

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi


Hmm...male per AMD, o sbaglio?

nessun problema, ormai la strada è tracciata per entrambe; e, poi, il passaggio da 28 a 20 è un nodo (anche se atipico perché l'half node sarebbe dovuto essere i 22 nm), quindi non ci sarebbe stato, comunque, alcun vantaggio

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi

Dimmela in PVT..!!!
Non lo dico a nessuno!!!!!!
cosa?

Quote:
Originariamente inviato da Free Gordon Guarda i messaggi


Ti devo fare una domanda sull'eSRAM......
non credo di poterti rispondere
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:36   #253
<Masquerade>
Bannato
 
Iscritto dal: Dec 2010
Messaggi: 11851
guarda qui: http://www.anandtech.com/show/6973/n...tx-780-review/

average clock speed, c'è pure un 780 oltre che titan.

io ho avuto un titan che boostava al max @993MHz , un altro a max 967MHz, il 780 a 993MHz come il titan.
ma ci sono delle GTX che vanno pure un poco oltre, ed hanno un boost max di 1006MHz..dipende dalla qualità di queste gpu.


e questo è il picco massimo, poi a seconda del gioco, ci sta quello dove quelle frequenze ti stanno pure fisse (sempre nella condizione ideale)
oppure variano leggermente, ma mediamente si tratta, in caso di oscillazioni, di gpu che cmq lavorano tra i 950-1000mhz
<Masquerade> è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:41   #254
<Masquerade>
Bannato
 
Iscritto dal: Dec 2010
Messaggi: 11851
io le mie GTX "le ho sturbate" , così per esempio il 780 che ho ora,non ha più oscillazioni, niente più frequenza "di media", mi lavora fisso @1254MHz nei giochi, e va come un treno.
<Masquerade> è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:48   #255
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da <Masquerade> Guarda i messaggi
guarda qui: http://www.anandtech.com/show/6973/n...tx-780-review/

average clock speed, c'è pure un 780 oltre che titan.

io ho avuto un titan che boostava al max @993MHz , un altro a max 967MHz, il 780 a 993MHz come il titan.
ma ci sono delle GTX che vanno pure un poco oltre, ed hanno un boost max di 1006MHz..dipende dalla qualità di queste gpu.


e questo è il picco massimo, poi a seconda del gioco, ci sta quello dove quelle frequenze ti stanno pure fisse (sempre nella condizione ideale)
oppure variano leggermente, ma mediamente si tratta, in caso di oscillazioni, di gpu che cmq lavorano tra i 950-1000mhz
dalla tabella di questa pagine (l'ultima) http://www.anandtech.com/show/6973/n...x-780-review/3
si vede che la 780 con Vcore standard (1,1625 V) può raggiungere, con la temperatura minima di esercizio, un boost di 1006 MHz mentre titan si ferma a 992; però, attenzione, perché se guardi la tabella di questa pagina http://www.anandtech.com/show/6973/n...x-780-review/2, vedi che il valore massimo di frequenza lo hai solo alla temperatura minima mentre è sufficiente che questa salga di poco per avere un boost complessivo che cala fino a ridursi al valore della frequenza di default quando la temperatura è prossima agli 80°C. Questo significa che la frequenza di 1006 MHz per la 780 e di 992 MHz per titan è raggiungibile in un range di temperature (e di utilizzo) molto ristretto ed è difficile immaginare che questo possa avvenire con carichi pesanti.
Qui non stavano discutendo sul fatto che titan o la 780 abbiano margini di overclock maggiori di quanto dichiarato ma sul fatto che l'aumento di frequenza provochi anche un innalzamento dei consumi. Ota, i dati sui consumi di titan (e 780) sono stati presi con impostazioni di default. Se aumenti la velocità di rotazione della ventola, potrai tenere frequenza di boost più altre per un tempo più prolungato (ma questo fa aumentare i consumi medi rispetto a quanto rilevato a default); se porti a 94°C il set point per la temperatura, potrai ottenere l'effetto di tenere per più tempo frequenze maggiori rispetto a quella base (ma aumenteranno i consumi rispetto alla situazione a default). Infine, se pratiche un leggero overvolt, potrai anche aumentare il valore massimo del boost raggiungibile (ma anche questo farà aumentare i consumi).

Ultima modifica di yossarian : 26-10-2013 alle 15:24.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 14:55   #256
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?


Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :


http://wccftech.com/alleged-nvidia-m...xwell-refresh/
Se GM100 sarà quello allora penso che te lo puoi scordare di vederlo nel Q1 2014, anzi prima del 2015 in versione GeForce non arriverà! Sarebbe un miracolo lanciare al debutto del nuovo PP un chip del genere!
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 15:08   #257
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3986
Quote:
Originariamente inviato da yossarian Guarda i messaggi
occhio che gpgpu è una cosa, applicazioni di tipo CAD un'altra. Nel GPGPU, con bench basati su opencl, titan è tutt'altro che un mostro se paragonato alle AMD in alcune applicazioni e alle serie 5x0 di nVidia in altre applicazioni.


qual è la fascia di utenza a cui si rivolge la serie 7x0?
qual è la fascia di utenza a cui si rivolge titan?
qual è la fascia di utenza a cui si rivolgono le quadro?
qual è la fascia di utenza a cui si rivolgono le tesla?



facci capire!? AMD è un'associazione benefica? Chi è il CEO, madre teresa di calcutta?



ah, ok, quindi è cambiato il CEO di nVidia; prima era padre pio, adesso è ebenezer scrooge



oppure una AMD e hai sia il DP che la velocità con i giochi? Oppure questa opzione non rientra tra le "papabili" dal tuo punto di vista?



noto una gran confusione. Cosa c'entrano le tesla con le 6x0 e le 7x0? Ops, magari, per sbaglio, hanno disabilitato i circuiti per gpgpu anche sulle tesla?! Cos'è, sono solo su titan? Allora 'ste tesla a cosa servono? Costano tanto e sono del tutto inutili? Avvisa nVidia e, soprattutto, quelli che le stanno comprando non sapendo a cosa andranno incontro


infatti è una geforce; immagino tu sappia leggere. Ora, da bravo, scrivi una bella letterina a nVidia e spiegagli che titan non è una geforce e che hanno sbagliato a classificare la loro scheda. Magari si sono sbagliati sul serio e ti ringraziano pure per la dritta


quindi, se ho capito bene, ricapitolando, hawaii è una punto GT, titan è una porsche e la 780 è una audi GT. Ora, pare (dico pare) che la punto GT sia, al momento, più veloce dell'audi e della porsche e risulti pure più accessoriata dell'audi e con gli stessi accessori della porsche. In più costa pure meno. Ora, conoscendo un pochino le auto, mi risulta difficile credere che una punto sia più accessoriata di un'audi o di una porsche (magari di qualche modello degli anni '70 o '80), per cui i casi sono due: o hai sbagliato paragoni o sulle auto hai le idee parecchio confuse



i benchmark sono lo specchio di quello che accade nel mondo reale (che poi è virtuale); questo tanto in game che nel gpgpu o nel CAD. Ti piaccia o no.



a parte il fatto che GPGPU non è solo DP; a parte il fatto che anche le AMD "regalano" la DP e hanno prestazioni teoriche, sempre in DP, di poco inferiori a quelle di titan (e di molto superiori a quelle delle serie 7x0 e 6x0 di nVidia). Dicevo, a parte questi due trascurabili particolari, ritorno alla domanda iniziale: quali sono le utenze a cui sono destinati determinati prodotti



ti sei scordato clamorosamente le unità di calcolo in DP
Mi inchino al tuo sapere e all'ordine degli altri di ubbidire all'IPSE DIXIT, però mi sembra di aver scritto dei post in italino corretto e le tue risposte poco azzeccano con le mie affermazioni.

Per chiarirci, non è che AMD fa beneficienza (anche se visti i bilanci qualcuno potrebbe credere che sia una società No profit) ma la sua strategia di marketing non prevede di differenziare i costi in base alle funzionalità HW delle sue schede, per cui lascia il DP attivato ovunque è presente. nvidia no, lei il DP lo vende (e visti i profitti che fa alla fine dei trimestri direi anche a buon prezzo). Capito questo caisci perché la Titan costa mille euro e viene con 6GB di RAM.

Punto GT, Audi e Porche... a me non sembra che una macchina che fa 95° e che sia rumorosa come un reattore possa essere confrontata ad un'Audi. Poi ognuno valuta quello che vuole durante gli acquisti, ma la qualità intrinseca dei due prodotti mi sembra che sia evidentemente.
In questo caso, che tu sia Dio o un normale utente di un forum poco cambia. Le valutazioni sono e rimangono personali.

Il ragionamento che fai su OpenCL e CUDA chiarisce il tuo punto di vista. Sei uno di quelli che ancora spera che il GPGPU possa sfondare con qualche applicazione utile nel mondo consumer. Purtroppo sono anni che ormai si è capito che il mondo consumer del GPGPU non se ne fa nulla (neanche di quello SP) e che le applicazioni possono essere scritte in un qualsiasi linguaggio dedicato che tanto si rivolgeranno a HW e situazioni ben delimitate nel mondo professionale.
E comunque, un test sintetico non mette in luce un bel niente. Visto che sei super esperto di GPGPU saprai che scrivere un algoritmo in un modo piuttosto che in un altro cambia radicalmente l'esito del benchmark. E scriverne uno in un linguaggio ad alto livello però sapendo bene quel che gira sotto ancora porta a risultati diversi.

Le funzionalità a disposizione delle Gefroce, Quadro, Tesla definiscono chiaramente quale sia il target di utenza a cui si rivolgono. Per Titan, essendo un ibrido, è molto meno chiara la questione. Ecco perché della discussione. Ma se tu sei convinto che la Titan è una semplice 780 con gli steroidi allora mi inchino e accetto l'ispe dixit, che tanto come detto a me non cambia la vita, né lo cambierà il fatto che il prezzo scenderà o rimarra uguale. Per le mie esigenze mi rivolgo a schede di fascia ben diversa, lasciando queste a chi, secondo te (e molti altri) ha soldi da buttare.

Fine dell'OT, con credo sommo piacere di tutti che ora possono tornare a gridare "W AMD che ha sfornato la più migliore scheda dell'universo".
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 15:13   #258
sundraw83
Senior Member
 
L'Avatar di sundraw83
 
Iscritto dal: Dec 2012
Città: Avellino
Messaggi: 1049
ma quanti di voi compreranno questa scheda? sono curioso.
sundraw83 è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 15:19   #259
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da sundraw83 Guarda i messaggi
ma quanti di voi compreranno questa scheda? sono curioso.
Già ordinate 2, in attesa di provarle e valutare se prenderne ancora 2 per sostituire le 780!

Certo che il rosik di qualcuno qui ha fatto raggiungere picchi di che non si sono mai visti prima.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 15:20   #260
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Quote:
Originariamente inviato da AceGranger Guarda i messaggi


quello che scrivi è vero, ma io parlavo di Rendering GPGPU, e in questo caso tutti i motori di rendering in commercio effetuano calcoli SP.



nei calcoli DP non saprei, mai usati e non conosco nemmeno software che li utilizzino, nel calcolo SP in full 100% le frequenze non mi pare siano mai scese sotto gli 830 mhz, sua frequenaza base, comunque per essere sicuro lunedi faro una prova con Vray RT, e con GPU Shark controllero le frequenze.
Software che usano calcoli in DP ne conosco solo uno proprietario sulla fluidodinamica (e girava su dual xeon w5690 e 4 gtx580, dopodichè tutti gli scenari interessanti venivano ricalcolati su un mainframe in remoto).
Per il resto credo che yossarian ci possa dare ragguagli.
Circa le frequenze di funzionamento di titan, dovresti prima abilitare la massima velocità delle unità di elaborazione DP nei driver, e solo dopo misurare le frequenze di funzionamento, altrimenti testeresti Titan con prestazioni in DP inferiori alla GTX580.
Ares17 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh OPPO Find X9 Pro: il camera phone con teleobiett...
DJI Romo, il robot aspirapolvere tutto trasparente DJI Romo, il robot aspirapolvere tutto trasparen...
DJI Osmo Nano: la piccola fotocamera alla prova sul campo DJI Osmo Nano: la piccola fotocamera alla prova ...
FUJIFILM X-T30 III, la nuova mirrorless compatta FUJIFILM X-T30 III, la nuova mirrorless compatta
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati Oracle AI World 2025: l'IA cambia tutto, a parti...
Dallo spazioporto di Jiuquan decollerann...
Il Giappone un passo più vicino a...
Gli interferometri LIGO, Virgo e KAGRA h...
Kia PV5: è record di autonomia! I...
L'aeroplano supersonico ''silenzioso'' N...
Nissan: le batterie allo stato solido co...
NVIDIA cambia strategia? La GPU Feynman ...
Signal respinge le accuse dopo il down A...
Uragano Melissa in arrivo: la tempesta d...
8K o 4K? Ecco perché il tuo occhi...
Mercato auto europeo in crescita nei pri...
Addio SSD e RAM, benvenuti funghi: dagli...
TCL Q6C: tecnologia e design per un TV c...
Corsair MP700 PRO XT al debutto: un SSD ...
Apple Watch Ultra 2 in titanio con GPS +...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:34.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1