View Full Version : Radeon R9 290X: AMD ridefinisce la scheda top di gamma
yossarian
26-10-2013, 14:28
Ciao yossarian
Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
qui c'è un test su titan fatto da hardocp con frequenze rilevate in game.
http://www.hardocp.com/article/2013/04/29/nvidia_geforce_gtx_titan_overclocking_review#.Umu0IHAYzfU
questa è un'altra review da cui risulta che un boost superiore ad 1 GHz si può raggiungere con un leggero overvolt
http://www.digitalversus.com/graphics-card/nvidia-geforce-gtx-titan-p15386/test.html
ora c'è da capire se quella di cui parlate è una frequenza stabile di funzionamento in caso di pieno carico o di picchi più o meno istantanei di frequenza perché, nel secondo caso, fa veramente poco testo a livello di calore e consumi
yossarian
26-10-2013, 14:35
Beh certo. :)
Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia. :D
Però con con R580 ha reso... con R600 no... :sofico: con la serie 4*** e 5*** ha reso abbastanza bene...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire.... :)
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero? :)
Cmq a me sembra un'altra ATI da quando è tornato Koduri. :D Menomale. :oink:
è cambiato solo l'approccio in cui sono gestite le unità funzionali: con il vliw era affidato tutto (o quasi, trattandosi di vliw dinamico) al compilatore, con l'approccio attuale hai una serie di unità vettoriali gestito da arbiter. GCN si integra meglio nel progetto fusion di quanto non si potesse fare con la vliw
Hmm...male per AMD, o sbaglio?
nessun problema, ormai la strada è tracciata per entrambe; e, poi, il passaggio da 28 a 20 è un nodo (anche se atipico perché l'half node sarebbe dovuto essere i 22 nm), quindi non ci sarebbe stato, comunque, alcun vantaggio
Dimmela in PVT..!!! :sofico:
Non lo dico a nessuno!!!!!! :oink:
cosa? :sofico:
Ti devo fare una domanda sull'eSRAM...... :sofico:
non credo di poterti rispondere
<Masquerade>
26-10-2013, 14:36
guarda qui: http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/
average clock speed, c'è pure un 780 oltre che titan.
io ho avuto un titan che boostava al max @993MHz , un altro a max 967MHz, il 780 a 993MHz come il titan.
ma ci sono delle GTX che vanno pure un poco oltre, ed hanno un boost max di 1006MHz..dipende dalla qualità di queste gpu.
e questo è il picco massimo, poi a seconda del gioco, ci sta quello dove quelle frequenze ti stanno pure fisse (sempre nella condizione ideale)
oppure variano leggermente, ma mediamente si tratta, in caso di oscillazioni, di gpu che cmq lavorano tra i 950-1000mhz
<Masquerade>
26-10-2013, 14:41
io le mie GTX "le ho sturbate" :D , così per esempio il 780 che ho ora,non ha più oscillazioni, niente più frequenza "di media", mi lavora fisso @1254MHz nei giochi, e va come un treno.
yossarian
26-10-2013, 14:48
guarda qui: http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/
average clock speed, c'è pure un 780 oltre che titan.
io ho avuto un titan che boostava al max @993MHz , un altro a max 967MHz, il 780 a 993MHz come il titan.
ma ci sono delle GTX che vanno pure un poco oltre, ed hanno un boost max di 1006MHz..dipende dalla qualità di queste gpu.
e questo è il picco massimo, poi a seconda del gioco, ci sta quello dove quelle frequenze ti stanno pure fisse (sempre nella condizione ideale)
oppure variano leggermente, ma mediamente si tratta, in caso di oscillazioni, di gpu che cmq lavorano tra i 950-1000mhz
dalla tabella di questa pagine (l'ultima) http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/3
si vede che la 780 con Vcore standard (1,1625 V) può raggiungere, con la temperatura minima di esercizio, un boost di 1006 MHz mentre titan si ferma a 992; però, attenzione, perché se guardi la tabella di questa pagina http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/2, vedi che il valore massimo di frequenza lo hai solo alla temperatura minima mentre è sufficiente che questa salga di poco per avere un boost complessivo che cala fino a ridursi al valore della frequenza di default quando la temperatura è prossima agli 80°C. Questo significa che la frequenza di 1006 MHz per la 780 e di 992 MHz per titan è raggiungibile in un range di temperature (e di utilizzo) molto ristretto ed è difficile immaginare che questo possa avvenire con carichi pesanti.
Qui non stavano discutendo sul fatto che titan o la 780 abbiano margini di overclock maggiori di quanto dichiarato ma sul fatto che l'aumento di frequenza provochi anche un innalzamento dei consumi. Ota, i dati sui consumi di titan (e 780) sono stati presi con impostazioni di default. Se aumenti la velocità di rotazione della ventola, potrai tenere frequenza di boost più altre per un tempo più prolungato (ma questo fa aumentare i consumi medi rispetto a quanto rilevato a default); se porti a 94°C il set point per la temperatura, potrai ottenere l'effetto di tenere per più tempo frequenze maggiori rispetto a quella base (ma aumenteranno i consumi rispetto alla situazione a default). Infine, se pratiche un leggero overvolt, potrai anche aumentare il valore massimo del boost raggiungibile (ma anche questo farà aumentare i consumi).
Littlesnitch
26-10-2013, 14:55
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?
Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
http://wccftech.com/alleged-nvidia-maxwell-architectural-specifications-unveiled-project-denver-maxwell-refresh/
Se GM100 sarà quello allora penso che te lo puoi scordare di vederlo nel Q1 2014, anzi prima del 2015 in versione GeForce non arriverà! Sarebbe un miracolo lanciare al debutto del nuovo PP un chip del genere!
CrapaDiLegno
26-10-2013, 15:08
occhio che gpgpu è una cosa, applicazioni di tipo CAD un'altra. Nel GPGPU, con bench basati su opencl, titan è tutt'altro che un mostro se paragonato alle AMD in alcune applicazioni e alle serie 5x0 di nVidia in altre applicazioni. :)
qual è la fascia di utenza a cui si rivolge la serie 7x0?
qual è la fascia di utenza a cui si rivolge titan?
qual è la fascia di utenza a cui si rivolgono le quadro?
qual è la fascia di utenza a cui si rivolgono le tesla?
facci capire!? AMD è un'associazione benefica? Chi è il CEO, madre teresa di calcutta? :rolleyes:
ah, ok, quindi è cambiato il CEO di nVidia; prima era padre pio, adesso è ebenezer scrooge (http://it.wikipedia.org/wiki/Ebenezer_Scrooge) :sofico:
oppure una AMD e hai sia il DP che la velocità con i giochi? Oppure questa opzione non rientra tra le "papabili" dal tuo punto di vista?
noto una gran confusione. Cosa c'entrano le tesla con le 6x0 e le 7x0? Ops, magari, per sbaglio, hanno disabilitato i circuiti per gpgpu anche sulle tesla?! Cos'è, sono solo su titan? Allora 'ste tesla a cosa servono? Costano tanto e sono del tutto inutili? Avvisa nVidia e, soprattutto, quelli che le stanno comprando non sapendo a cosa andranno incontro :ciapet:
infatti è una geforce; immagino tu sappia leggere. Ora, da bravo, scrivi una bella letterina a nVidia e spiegagli che titan non è una geforce e che hanno sbagliato a classificare la loro scheda. Magari si sono sbagliati sul serio e ti ringraziano pure per la dritta
quindi, se ho capito bene, ricapitolando, hawaii è una punto GT, titan è una porsche e la 780 è una audi GT. Ora, pare (dico pare) che la punto GT sia, al momento, più veloce dell'audi e della porsche e risulti pure più accessoriata dell'audi e con gli stessi accessori della porsche. In più costa pure meno. Ora, conoscendo un pochino le auto, mi risulta difficile credere che una punto sia più accessoriata di un'audi o di una porsche (magari di qualche modello degli anni '70 o '80), per cui i casi sono due: o hai sbagliato paragoni o sulle auto hai le idee parecchio confuse :D
i benchmark sono lo specchio di quello che accade nel mondo reale (che poi è virtuale); questo tanto in game che nel gpgpu o nel CAD. Ti piaccia o no.
a parte il fatto che GPGPU non è solo DP; a parte il fatto che anche le AMD "regalano" la DP e hanno prestazioni teoriche, sempre in DP, di poco inferiori a quelle di titan (e di molto superiori a quelle delle serie 7x0 e 6x0 di nVidia). Dicevo, a parte questi due trascurabili particolari, ritorno alla domanda iniziale: quali sono le utenze a cui sono destinati determinati prodotti
ti sei scordato clamorosamente le unità di calcolo in DP :sofico:
Mi inchino al tuo sapere e all'ordine degli altri di ubbidire all'IPSE DIXIT, però mi sembra di aver scritto dei post in italino corretto e le tue risposte poco azzeccano con le mie affermazioni.
Per chiarirci, non è che AMD fa beneficienza (anche se visti i bilanci qualcuno potrebbe credere che sia una società No profit) ma la sua strategia di marketing non prevede di differenziare i costi in base alle funzionalità HW delle sue schede, per cui lascia il DP attivato ovunque è presente. nvidia no, lei il DP lo vende (e visti i profitti che fa alla fine dei trimestri direi anche a buon prezzo). Capito questo caisci perché la Titan costa mille euro e viene con 6GB di RAM.
Punto GT, Audi e Porche... a me non sembra che una macchina che fa 95° e che sia rumorosa come un reattore possa essere confrontata ad un'Audi. Poi ognuno valuta quello che vuole durante gli acquisti, ma la qualità intrinseca dei due prodotti mi sembra che sia evidentemente.
In questo caso, che tu sia Dio o un normale utente di un forum poco cambia. Le valutazioni sono e rimangono personali.
Il ragionamento che fai su OpenCL e CUDA chiarisce il tuo punto di vista. Sei uno di quelli che ancora spera che il GPGPU possa sfondare con qualche applicazione utile nel mondo consumer. Purtroppo sono anni che ormai si è capito che il mondo consumer del GPGPU non se ne fa nulla (neanche di quello SP) e che le applicazioni possono essere scritte in un qualsiasi linguaggio dedicato che tanto si rivolgeranno a HW e situazioni ben delimitate nel mondo professionale.
E comunque, un test sintetico non mette in luce un bel niente. Visto che sei super esperto di GPGPU saprai che scrivere un algoritmo in un modo piuttosto che in un altro cambia radicalmente l'esito del benchmark. E scriverne uno in un linguaggio ad alto livello però sapendo bene quel che gira sotto ancora porta a risultati diversi.
Le funzionalità a disposizione delle Gefroce, Quadro, Tesla definiscono chiaramente quale sia il target di utenza a cui si rivolgono. Per Titan, essendo un ibrido, è molto meno chiara la questione. Ecco perché della discussione. Ma se tu sei convinto che la Titan è una semplice 780 con gli steroidi allora mi inchino e accetto l'ispe dixit, che tanto come detto a me non cambia la vita, né lo cambierà il fatto che il prezzo scenderà o rimarra uguale. Per le mie esigenze mi rivolgo a schede di fascia ben diversa, lasciando queste a chi, secondo te (e molti altri) ha soldi da buttare.
Fine dell'OT, con credo sommo piacere di tutti che ora possono tornare a gridare "W AMD che ha sfornato la più migliore scheda dell'universo".
sundraw83
26-10-2013, 15:13
ma quanti di voi compreranno questa scheda? sono curioso.
Littlesnitch
26-10-2013, 15:19
ma quanti di voi compreranno questa scheda? sono curioso.
Già ordinate 2, in attesa di provarle e valutare se prenderne ancora 2 per sostituire le 780!
Certo che il rosik di qualcuno qui ha fatto raggiungere picchi di :mc: che non si sono mai visti prima.
quello che scrivi è vero, ma io parlavo di Rendering GPGPU, e in questo caso tutti i motori di rendering in commercio effetuano calcoli SP.
nei calcoli DP non saprei, mai usati e non conosco nemmeno software che li utilizzino, nel calcolo SP in full 100% le frequenze non mi pare siano mai scese sotto gli 830 mhz, sua frequenaza base, comunque per essere sicuro lunedi faro una prova con Vray RT, e con GPU Shark controllero le frequenze.
Software che usano calcoli in DP ne conosco solo uno proprietario sulla fluidodinamica (e girava su dual xeon w5690 e 4 gtx580, dopodichè tutti gli scenari interessanti venivano ricalcolati su un mainframe in remoto).
Per il resto credo che yossarian ci possa dare ragguagli.
Circa le frequenze di funzionamento di titan, dovresti prima abilitare la massima velocità delle unità di elaborazione DP nei driver, e solo dopo misurare le frequenze di funzionamento, altrimenti testeresti Titan con prestazioni in DP inferiori alla GTX580.
tuttodigitale
26-10-2013, 15:33
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
le directx sono prestazionalmente parlando pessime proprio perchè sono distanti dall'HW. Se Mantle avrà successo, o meglio se sarà adottato dalla stragrande maggioranza dei titoli AAA con importanti incrementi prestazionali, diciamo almeno del 20%, influenzerà sicuramente l'evoluzione delle schede video di AMD
Potremmo avere a che fare con GCN per altri 7-8 anni..
Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
http://wccftech.com/alleged-nvidia-maxwell-architectural-specifications-unveiled-project-denver-maxwell-refresh/
Questo è un chippone da quasi 600mq, così a naso. Lo vedremo nel 2015 se va bene, considerando che TMSC ha grossi problemi (la produzione in volumi per i 20 nm erano previsti per Q4 2013...)
Il chip di AMD dovrebbe avere 4096sp, e essere grande quanto Cayman.
Beh certo. :)
Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. :
nvidia ha aumentato moltissimo il numero delle ALU passando dall'architettura Fermi a quella Kepler, mentre AMD a parità di transistor ha ridotto il numero delle alu del 30-40%..Diciamo che AMD e nvidia inseguono la stessa strada anche se partono da punti diversi.
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire.... :)
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero? :)
Basta vedere quanto rulla nel GPGPU, dai bench risulta di gran lunga superiore, poi è chiaro che CUDA è l'equivalente di Mantle, tanto che la retrocompatibilità con il codice compilato per le Fermi è solo parziale, persino una dual gpu basata su gk104 resta parecchio distaccata da schede basate su GF110 anche in SP se il software non viene ricompilato con librerie più moderne.
Secondo me è proprio la capacità di masticare con disinvoltura qualsiasi tipo di operazioni fa di GCN la migliore architettura nel GPGPU.
E' curioso che Kepler faccia meglio di GCN solo nei bench dove la vecchia architettura vliw risulta abbastanza competitiva.
Il vliw avrebbe avuto senso al mio modo sulle schede della serie HD7700, magari mantenendo invariato il livello prestazionale per abbattere i consumi. Fattore prioritario per dei chip destinati anche ai portatili. Imho, è stato abbandonato troppo in fretta, considerando che oggi AMD produce ancora sottoforma di APU gpu con architettura vliw4.
Davvero un mezzo Cayman ad un terzo/quarto del consumo avrebbe giovato nella fascia entry-level-
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.
Dubito che Maxwell rispetti quella scadenza...
yossarian
26-10-2013, 15:41
Mi inchino al tuo sapere e all'ordine degli altri di ubbidire all'IPSE DIXIT, però mi sembra di aver scritto dei post in italino corretto e le tue risposte poco azzeccano con le mie affermazioni.
Per chiarirci, non è che AMD fa beneficienza (anche se visti i bilanci qualcuno potrebbe credere che sia una società No profit) ma la sua strategia di marketing non prevede di differenziare i costi in base alle funzionalità HW delle sue schede, per cui lascia il DP attivato ovunque è presente. nvidia no, lei il DP lo vende (e visti i profitti che fa alla fine dei trimestri direi anche a buon prezzo). Capito questo caisci perché la Titan costa mille euro e viene con 6GB di RAM.
il DP non lo regala nessuno; semplicemente lo ricavano in maniera differente: AMD utilizza le unità SP per ottenere il DP, nVidia utilizza circuiti dedicati. Però anche titan, in dp, non ha le stesse prestazioni delle tesla, quindi anche titan, seppure molto meno della 780, risulta castrato sotto questo punto di vista. Inoltre non ha driver certificati. Questo significa che AMD non fa beneficenza e nVidia non è stupida da fare concorrenza a prodotti da diverse migliaia di euro con un altro che, pure se molto costoso, non si avvicina ai prezzi delle tesla. Se titan avesse le stesse prestazioni nel gpgpu (quello dei supercomputer) delle tesla, nessuno comprerebbe più tesla. Titan ha prestazioni in DP di circa il 40% superiori a quelle di tahiti e nel GPGPU non risulta neppure particolarmente brillante al punto da giustificarne il prezzo; inoltre, come ti hanno già detto, esistono anche 7970 con 6 GB di ram ma questo non ne fa schede semipro.
Punto GT, Audi e Porche... a me non sembra che una macchina che fa 95° e che sia rumorosa come un reattore possa essere confrontata ad un'Audi. Poi ognuno valuta quello che vuole durante gli acquisti, ma la qualità intrinseca dei due prodotti mi sembra che sia evidentemente.
In questo caso, che tu sia Dio o un normale utente di un forum poco cambia. Le valutazioni sono e rimangono personali.
cambiando il sistema di raffreddamento le valutazioni non restano le stesse. Sul fatto che siano personali sono d'accordo, ma esistono anche dati oggettivi
Il ragionamento che fai su OpenCL e CUDA chiarisce il tuo punto di vista. Sei uno di quelli che ancora spera che il GPGPU possa sfondare con qualche applicazione utile nel mondo consumer. Purtroppo sono anni che ormai si è capito che il mondo consumer del GPGPU non se ne fa nulla (neanche di quello SP) e che le applicazioni possono essere scritte in un qualsiasi linguaggio dedicato che tanto si rivolgeranno a HW e situazioni ben delimitate nel mondo professionale.
stai contraddicendo l'affermazione secondo cui titan sarebbe stata pensata per un'utenza diversa rispetto a quella della 780. In effetti, è vero che del gpgpu alla stragrande maggioranza dell'utenza domestica non frega niente ed è per questo motivo che titan può avere come target solo qualcuno che usa F&H e simili. Già se si guarda al mondo del CAD, dove si usa la SP, tra titan e 780 cambia poco o nulla. E per il mondo professionale ci sono schede dedicate che no sono né titan né hawaii
E comunque, un test sintetico non mette in luce un bel niente. Visto che sei super esperto di GPGPU saprai che scrivere un algoritmo in un modo piuttosto che in un altro cambia radicalmente l'esito del benchmark. E scriverne uno in un linguaggio ad alto livello però sapendo bene quel che gira sotto ancora porta a risultati diversi.
lo stesso discorso vale anche per qualunque altro SW, giochi compresi. Basta programmare in un certo modo per vedere volare le AMD e inchiodarsi le nVidia o viceversa
Le funzionalità a disposizione delle Gefroce, Quadro, Tesla definiscono chiaramente quale sia il target di utenza a cui si rivolgono. Per Titan, essendo un ibrido, è molto meno chiara la questione. Ecco perché della discussione. Ma se tu sei convinto che la Titan è una semplice 780 con gli steroidi allora mi inchino e accetto l'ispe dixit, che tanto come detto a me non cambia la vita, né lo cambierà il fatto che il prezzo scenderà o rimarra uguale. Per le mie esigenze mi rivolgo a schede di fascia ben diversa, lasciando queste a chi, secondo te (e molti altri) ha soldi da buttare.
Fine dell'OT, con credo sommo piacere di tutti che ora possono tornare a gridare "W AMD che ha sfornato la più migliore scheda dell'universo".
no, titan non è una 780 con gli steroidi; titan è quello che sarebbe dovuto essere il gk110 nella sua declinazione originale. E' la 780 che è un gk110 depotenziato, castrato per poter permettere di salire un po' di più con le frequenze rispetto a titan. Con (lo stesso) V-core standard la 780 ha frequenza base e boost superiori a quelle di titan. Questo perché in titan si devono alimentare anche circuiti che non servono a nulla in game
Il vliw avrebbe avuto senso al mio modo sulle schede della serie HD7700, magari mantenendo invariato il livello prestazionale per abbattere i consumi. Fattore prioritario per dei chip destinati anche ai portatili. Imho, è stato abbandonato troppo in fretta, considerando che oggi AMD produce ancora sottoforma di APU gpu con architettura vliw4.
Davvero un mezzo Cayman ad un terzo/quarto del consumo avrebbe giovato nella fascia entry-level-
Vliw era condannato all'estinzione gia da quando è uscito.
Amd vuole sostituire-integrare le fpu x86 con la parte gpu integrata (che permette teoricamente una densità maggiore ed una efficenza prossima al 5x).
Sempre più software (anche se con minime parti di codice) utilizzano l'accellerazione gpu e GCN permette di avere una compatibilità futura (teorica) del software tale che bisognerebbe al limite adattarlo piuttosto che riscriverlo da zero per ogni nuova implementazione hardware.
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.E invece AMD ha abbandonato la politica del Tick-Tock?
Io mi aspettavo almeno un'architettura nuova con questa serie, dopo quasi due anni di attesa dal lancio della serie HD7*** (si parlava di 1 anno per ciclo, qui siamo già a due anni senza cambiare né pp né architettura, mi sembrano tantini ed ancora dovremo attendere).
E invece AMD ha abbandonato la politica del Tick-Tock?
Io mi aspettavo almeno un'architettura nuova con questa serie, dopo quasi due anni di attesa dal lancio della serie HD7*** (si parlava di 1 anno per ciclo, qui siamo già a due anni senza cambiare né pp né architettura, mi sembrano tantini ed ancora dovremo attendere).
Per il PP AMD non può farci molto, sta alle fonderie.
Per quanto concerne GCN è un'architettura che si è rilevata non solo molto valida ma anche lungimirante, tanto che nel prossimo futoro sarà la base degli engine per PS4 e XBOX One, quindi non penso che nelle intenzioni di AMD ci sia quella di stravolgerla. A mio avviso basterebbe usare Mantle per le conversioni PC per dare a GCN una vita quasi "secolare".
appleroof
26-10-2013, 15:59
dalla tabella di questa pagine (l'ultima) http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/3
si vede che la 780 con Vcore standard (1,1625 V) può raggiungere, con la temperatura minima di esercizio, un boost di 1006 MHz mentre titan si ferma a 992; però, attenzione, perché se guardi la tabella di questa pagina http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review/2, vedi che il valore massimo di frequenza lo hai solo alla temperatura minima mentre è sufficiente che questa salga di poco per avere un boost complessivo che cala fino a ridursi al valore della frequenza di default quando la temperatura è prossima agli 80°C. Questo significa che la frequenza di 1006 MHz per la 780 e di 992 MHz per titan è raggiungibile in un range di temperature (e di utilizzo) molto ristretto ed è difficile immaginare che questo possa avvenire con carichi pesanti.
Qui non stavano discutendo sul fatto che titan o la 780 abbiano margini di overclock maggiori di quanto dichiarato ma sul fatto che l'aumento di frequenza provochi anche un innalzamento dei consumi. Ota, i dati sui consumi di titan (e 780) sono stati presi con impostazioni di default. Se aumenti la velocità di rotazione della ventola, potrai tenere frequenza di boost più altre per un tempo più prolungato (ma questo fa aumentare i consumi medi rispetto a quanto rilevato a default); se porti a 94°C il set point per la temperatura, potrai ottenere l'effetto di tenere per più tempo frequenze maggiori rispetto a quella base (ma aumenteranno i consumi rispetto alla situazione a default). Infine, se pratiche un leggero overvolt, potrai anche aumentare il valore massimo del boost raggiungibile (ma anche questo farà aumentare i consumi).
Yoss guarda, questo con scheda assolutamente default, come mamma nvidia l'ha fatta e uscita dalla scatola (prima riga in alto, in ordine: temp/uso gpu/uso ventola/frequenza gpu/vcore):
inizio gioco
http://i.imgur.com/eBMkMG2l.jpg (http://imgur.com/eBMkMG2)
http://i.imgur.com/tfxEfNFl.jpg (http://imgur.com/tfxEfNF)
dopo circa 5 minuti
http://i.imgur.com/KG5bQIjl.jpg (http://imgur.com/KG5bQIj)
http://i.imgur.com/EXJZ72Gl.jpg (http://imgur.com/EXJZ72G)
dopo circa 10 minuti
http://i.imgur.com/AITqoACl.jpg (http://imgur.com/AITqoAC)
http://i.imgur.com/28RZJ0vl.jpg (http://imgur.com/28RZJ0v)
ho "maxato", compreso physx etc., il gioco per farlo andare a sfruttare la vga al massimo
come vedi "taglia" un'inezia sia come vcore che come frequenza (non penso ci sia un abisso tra 954mhz e 1ghz come consumi); ora se tieni ppresente che spesso durante le review non durano 10 minuti i bench per ovvi motivi di tempo, credo di poter affermare con tranquillità che i consumi in esse riportate si riferiscano alla vga che gira mediamente intorno a 1ghz sul core
tieni inoltre presente, che la mia scheda per sfortuna non è particolarmente ottima perchè ha un asic bassissimo, nel thread ufficiale ci sono vga con gk110 migliori che boostano anche poco sopra 1ghz con temp come e meglio delle mie
infine tieni presente che ho un case mini-itx, nelle review si usano perlopiù banchetti, quindi la vga raramente tocca gli 80°
tutto questo nell'assoluto silenzio, ma attiene alla bontà del dissi
chiudo dicendo che se è vero che tra 780 e Titan hanno disabilitato la DP per consumare meno, dichiarano lo stesso TDP tra le due vga, forse il leggero meno consumo è dato piuttosto dalla disabilitazione di un intero SMX.
tuttodigitale
26-10-2013, 16:06
Diamo un pò di numeri se no qui non si capisce una mazza:
la differenza di prestazioni per watt tra
Titan e R9 290X è del 7,9% a favore di Titan,
GTX780 e R9 290x è del 5,3%
Invece, la HD5870 era più efficiente della GTX480 del 62% . (fonte techpowerup)
lla HD5870 era più efficiente della GTX580 del 23%. In definitiva la seconda reicarnazione di Fermi ha portato ad un aumento dell'efficienza del 32%.
Ritorno a bomba sull'efficienza e vi faccio notare un punto fondamentale.
con il passaggio ai 28nm abbiamo:
nvidia ha incrementato l'efficienza delle sue gpu mediamente del 50%,
AMD solo del 16% . Questo dovrebbe far riflettere quanto GCN sia inefficiente nei giochi o meglio quanto sia ottimo il vliw4..
Nel passaggio da Fermi a Kepler e da vliw-4 a GCN , nvidia ha guadagnato su AMD il 30% in efficienza
Ma per mettere le cose ancora più in prospettiva consideriamo anche il passaggio dai 55 ai 40nm:
AMD +85% (segno che l'architettura doveva ancora migliorare)
nvidia +7% (addirittura se consideriamo la GTX480 'efficienza fa segnare un -18%...peggiore della scheda della passata generazione: IMBARAZZANTE quanto lo è stata la HD2900XT)...
In definitiva da questi numeri, si evince che nvidia non ha migliorato in modo sostanziale l'efficienza dell'architettura (anzi è possibile che questa sia leggermente diminuita) ma è stata AMD, con il passaggio dal vliw al GCN a perdere DRASTICAMENTE in efficienza.
<Masquerade>
26-10-2013, 16:14
Yoss guarda, questo con scheda assolutamente default, come mamma nvidia l'ha fatta e uscita dalla scatola (prima riga in alto, in ordine: temp/uso gpu/uso ventola/frequenza gpu/vcore):
inizio gioco
http://i.imgur.com/eBMkMG2l.jpg (http://imgur.com/eBMkMG2)
http://i.imgur.com/tfxEfNFl.jpg (http://imgur.com/tfxEfNF)
dopo circa 5 minuti
http://i.imgur.com/KG5bQIjl.jpg (http://imgur.com/KG5bQIj)
http://i.imgur.com/EXJZ72Gl.jpg (http://imgur.com/EXJZ72G)
dopo circa 10 minuti
http://i.imgur.com/AITqoACl.jpg (http://imgur.com/AITqoAC)
http://i.imgur.com/28RZJ0vl.jpg (http://imgur.com/28RZJ0v)
ho "maxato", compreso physx etc., il gioco per farlo andare a sfruttare la vga al massimo
come vedi "taglia" un'inezia sia come vcore che come frequenza (non penso ci sia un abisso tra 954mhz e 1ghz come consumi); ora se tieni ppresente che spesso durante le review non durano 10 minuti i bench per ovvi motivi di tempo, credo di poter affermare con tranquillità che i consumi in esse riportate si riferiscano alla vga che gira mediamente intorno a 1ghz sul core
tieni inoltre presente, che la mia scheda per sfortuna non è particolarmente ottima perchè ha un asic bassissimo, nel thread ufficiale ci sono vga con gk110 migliori che boostano anche poco sopra 1ghz con temp come e meglio delle mie
infine tieni presente che ho un case mini-itx, nelle review si usano perlopiù banchetti, quindi la vga raramente tocca gli 80°
tutto questo nell'assoluto silenzio, ma attiene alla bontà del dissi
chiudo dicendo che se è vero che tra 780 e Titan hanno disabilitato la DP per consumare meno, dichiarano lo stesso TDP tra le due vga, forse il leggero meno consumo è dato piuttosto dalla disabilitazione di un intero SMX.
ecco l'esempio...
Cmq Apple il 780 ha 2 SMX disabilitati rispetto al Titan :fagiano: :D
Free Gordon
26-10-2013, 16:16
non credo di poterti rispondere
nel senso che non puoi dirlo :D o perché proprio non l'hai approfondito quel discorso? :p
appleroof
26-10-2013, 16:16
ecco l'esempio...
Cmq Apple il 780 ha 2 SMX disabilitati rispetto al Titan :fagiano: :D
si giusto :p
<Masquerade>
26-10-2013, 16:22
Se aumenti la velocità di rotazione della ventola, potrai tenere frequenza di boost più altre per un tempo più prolungato
Si, però non è necessario metterla al 85% come hai scritto prima , non serve che la scheda diventi un Jet...la situazione non è così disperata in queste gtx...
pensa che io la Titan la tenevo, con il dissi reference, a seconda dei giochi o al 60%- 65% (giochi leggeri medio - leggeri) max 70% (tranne che il terribile Crysis 3, dove mi toccava tenerla più alta e raggiungeva temp parecchio alte),
.
il tutto con pure overvolt + oc @1150/6600MHz
Infine, se pratiche un leggero overvolt, potrai anche aumentare il valore massimo del boost raggiungibile (ma anche questo farà aumentare i consumi).
Certo, e per la precisione ogni step di overvolt corrisponde ad un aumento di 13mhz
così, 1.162mv GTX sta a 1006mhz (oppure 993, o 980, ecc, a seconda della qualità della gpu che ti è capitata), 1.175mv, GTX passa 1019Mhz, 1.187mv e si passa a 1032Mhz, 1.2mv e via con i 1045mhz...
ciaoooooo
PaulGuru
26-10-2013, 16:24
Questo è un chippone da quasi 600mq, così a naso. Lo vedremo nel 2015 se va bene, considerando che TMSC ha grossi problemi (la produzione in volumi per i 20 nm erano previsti per Q4 2013...)
Il chip di AMD dovrebbe avere 4096sp, e essere grande quanto Cayman.
nvidia ha aumentato moltissimo il numero delle ALU passando dall'architettura Fermi a quella Kepler, mentre AMD a parità di transistor ha ridotto il numero delle alu del 30-40%..Diciamo che AMD e nvidia inseguono la stessa strada anche se partono da punti diversi.
Ti ho linkato ciò per farti capire che magari Nvidia ha radicalmente modificato la sua struttura per apparire così e quindi avere cuda cores intesi come elementi totalmente differenti ?
Quindi per 6000 stream non intesi come gli stessi stream di Kepler ma totalmente differenti perchè nemmeno con 20nm si possono triplicare gli stream di una 780.
yossarian
26-10-2013, 16:26
Yoss guarda, questo con scheda assolutamente default, come mamma nvidia l'ha fatta e uscita dalla scatola (prima riga in alto, in ordine: temp/uso gpu/uso ventola/frequenza gpu/vcore):
inizio gioco
dopo circa 5 minuti
ho "maxato", compreso physx etc., il gioco per farlo andare a sfruttare la vga al massimo
come vedi "taglia" un'inezia sia come vcore che come frequenza (non penso ci sia un abisso tra 954mhz e 1ghz come consumi); ora se tieni ppresente che spesso durante le review non durano 10 minuti i bench per ovvi motivi di tempo, credo di poter affermare con tranquillità che i consumi in esse riportate si riferiscano alla vga che gira mediamente intorno a 1ghz sul core
tieni inoltre presente, che la mia scheda per sfortuna non è particolarmente ottima perchè ha un asic bassissimo, nel thread ufficiale ci sono vga con gk110 migliori che boostano anche poco sopra 1ghz con temp come e meglio delle mie
infine tieni presente che ho un case mini-itx, nelle review si usano perlopiù banchetti, quindi la vga raramente tocca gli 80°
tutto questo nell'assoluto silenzio, ma attiene alla bontà del dissi
chiudo dicendo che se è vero che tra 780 e Titan hanno disabilitato la DP per consumare meno, dichiarano lo stesso TDP tra le due vga, forse il leggero meno consumo è dato piuttosto dalla disabilitazione di un intero SMX.
ciao Apple, quanto ho scritto prima riguarda soprattutto titan (di cui ho linkato i test di Hardocp). Non a caso, nVidia tirerà fuori, molto probabilmente, una versione della 780 più spinta (ma non di titan)
Inoltre le mie considerazioni si basano sul fatto che i consumi sono proporzionali al numero di transistor del chip (ovviamente attivi). In titan ci sono circa 7,1 miliardi di transistor, nella 780 molti di meno (attivi), perché non ha la DP e perché ha due SMX disabilitato. Inoltre la 780, a parità di V-core, ha frequenze più alte, di default, sia base che boost, di titan. Così, a occhio, direi che la 780 ha meno transistor (attivi) persino di hawaii e questo giustificherebbe consumi inferiori anche a parità di clock. Tieni presente che le frequenze incidono sui consumi più del numero di unità attive, quindi la 780 ha consumi inferiori (e stesso TDP dichiarato), rispetto a titan, pur avendo frequenze superiori. Questo non può essere effetto solo degli SMX in meno ma anche di altro (DP e ram in più).
yossarian
26-10-2013, 16:29
E invece AMD ha abbandonato la politica del Tick-Tock?
Io mi aspettavo almeno un'architettura nuova con questa serie, dopo quasi due anni di attesa dal lancio della serie HD7*** (si parlava di 1 anno per ciclo, qui siamo già a due anni senza cambiare né pp né architettura, mi sembrano tantini ed ancora dovremo attendere).
nel prossimo futuro non mi aspetto rivoluzioni architetturali da nessuna delle due. Ormai le architetture di base sono quelle. Quello su cui si sta lavorando è l'utilizzo più efficiente della memoria e in futuro le maggiori novità si vedranno proprio in quel settore.
appleroof
26-10-2013, 16:32
ciao Apple, quanto ho scritot prima riguarda soprattutto titan (di cui ho linkato i test di Hardocp).
Inoltre le mie considerazioni si basano sul fatto che i consumi sono proporzionali al numero di transistor del chip (ovviamente attivi). In titan ci sono circa 7,1 miliardi di transistor, nella 780 molti di meno (attivi), perché non ha la DP e perché ha un SMX disabilitato. Inoltre la 780, a parità di V-core, ha frequenze più alte, di default, sia base che boost, di titan. Così, a occhio, direi che la 780 ha meno transistor (attivi) persino di hawaii e questo giustificherebbe consumi inferiori anche a parità di clock. Tieni presente che le frequenze incidono sui consumi più del numero di unità attive, quindi la 780 ha consumi inferiori (e stesso TDP dichiarato), rispetto a titan, pur avendo frequenze superiori. Questo non può essere effetto solo dell'SMX in meno ma anche di altro (DP e ram in più).
si però il mio discorso su frequenze "effettive" oltre i dati di targa vale pure per Titan fidati, almeno dalle testimonianze dei possessori nel TU nell'uso di tutti i giorni...è tanto vero che qualche tifoso di Amd ha sempre tacciato "truccati" i grafici delle review proprio perchè riportavano le frequenze di targa, diciamo quelle che nvidia garantisce al 100%, ma poi nella realtà arrivano sempre su 1ghz di freq.
appleroof
26-10-2013, 16:36
nel prossimo futuro non mi aspetto rivoluzioni architetturali da nessuna delle due. Ormai le architetture di base sono quelle. Quello su cui si sta lavorando è l'utilizzo più efficiente della memoria e in futuro le maggiori novità si vedranno proprio in quel settore.
anche perchè Amd dovrebbe riscrivere tutto Mantle e non garantirne la retrocompatibilità :D
a proposito, qual'è la tua opinione su mantle, Yoss? Io lo giudico potenzialmente molto dannoso per il gaming pc per i suoi effetti indiretti
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl
Boscagoo
26-10-2013, 16:44
Da fan nvidia, un po' mi fa piacere che abbia la concorrenza con AMD: sta mettendo sul mercato sia dei prodotti sulla carta più potenti sia a costi contenuti rispetto alla rivale. Ma però due questioni pendono: consumi e temperatura ed inoltre la scarsa validità dei driver AMD. Purtroppo nvidia è un passo avanti su questi due aspetti.
yossarian
26-10-2013, 16:55
anche perchè Amd dovrebbe riscrivere tutto Mantle e non garantirne la retrocompatibilità :D
a proposito, qual'è la tua opinione su mantle, Yoss? Io lo giudico potenzialmente molto dannoso per il gaming pc per i suoi effetti indiretti
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl
il problema non è solo mantle; sia AMD che nVidia hanno tracciato un percorso che porterà, nel lungo periodo, a convergere verso una fusione tra cpu e gpu; anche nel diverso approccio alle architetture dei chip grafici questo è evidente: nVidia tenta simulare il comportamento di una cpu (le sue gpu sono molto efficienti nell'eseguire più task contemporaneamente, ciascuno con pochi thread); AMD punta sul multithreading più spinto, meglio se con tanti dati da processare in parallelo. Questo perché AMD punta all'integrazione tra cpu e gpu (potendo così utilizzare le unità funzionali della gpu come coprocessore matematico e le capacità nel multitasking delle cpu). Il motivo del'adozione di GCN è essenzialmente questo (checché ne dicano i vertici dell'azienda :D ); il vliw non si adattava a gestire un'integrazione con chip complessi perché rendeva troppo difficoltosa e laboriosa l'ottimizzazione.
Mantle spero che nel lungo termine non diventi quello che tu hai paventato perché, altrimenti, si rischia di tornare alle ottimizzazioni per singolo chip dell'epoca del primo 3d di 3dfx, matrox, powerVR e rendition :D
Battute a parte, alla luce di quello che ho scrito prima, non è un'eventualità così remota che tutt'e due cerchino di forzare la mano verso l'adozione di API proprietarie (ma si deve vedere cosa ne pensano Intel e microsoft al riguardo) o di strumenti atti a otitmizzare al meglio per le proprie architetture, almeno in determinati ambiti
appleroof
26-10-2013, 16:58
il problema non è solo mantle; sia AMD che nVidia hanno tracciato un percorso che porterà, nel lungo periodo, a convergere verso una fusione tra cpu e gpu; anche nel diverso approccio alle architetture dei chip grafici questo è evidente: nVidia tenta simulare il comportamento di una cpu (le sue gpu sono molto efficienti nell'eseguire più task contemporaneamente, ciascuno con pochi thread); AMD punta sul multithreading più spinto, meglio se con tanti dati da processare in parallelo. Questo perché AMD punta all'integrazione tra cpu e gpu (potendo così utilizzare le unità funzionali della gpu come coprocessore matematico e le capacità nel multitasking delle cpu). Il motivo del'adozione di GCN è essenzialmente questo (checché ne dicano i vertici dell'azienda :D ); il vliw non si adattava a gestire un'integrazione con chip complessi perché rendeva troppo difficoltosa e laboriosa l'ottimizzazione.
si poi pare che con Volta voglia integrare una cpu ARM...oppure già con Maxwell e project Denver adesso non ricordo...
Mantle spero che nel lungo termine non diventi quello che tu hai paventato perché, altrimenti, si rischia di tornare alle ottimizzazioni per singolo chip dell'epoca del primo 3d di 3dfx, matrox, powerVR e rendition :D
esatto, è un incubo e spero non si arrivi a questo :sperem:
yossarian
26-10-2013, 17:01
si poi pare che con Volta voglia integrare una cpu ARM...oppure già con Maxwell e project Denver adesso non ricordo...
l'unico inconveniente delle architetture ARM è che hanno una logica in order e quindi non sono il massimo della flessibilità
In riferimento a mantle e alla eventuale risposta di nVidia (e non solo) aggiungo che l'ottimizzazione dell'utilizzo della memoria, soprattutto nei primi tempi, richiederà un livello di conoscenza del chip, per chi programma, molto più a basso livello di quanto non richieda il bilanciamento dinamico dei carichi di lavoro tra unità dello shader core. A buon intenditore...
sundraw83
26-10-2013, 17:09
Già ordinate 2, in attesa di provarle e valutare se prenderne ancora 2 per sostituire le 780!
Certo che il rosik di qualcuno qui ha fatto raggiungere picchi di :mc: che non si sono mai visti prima.
Fare una domanda non significa rosicare. Scrivere come te, significa provocare. Fai benissimo a comprare quelle schede e fai benissimo a credere che le 780 siano da sostituire.
esatto, è un incubo e spero non si arrivi a questo :sperem:Mah, io penso che una strada in questo senso l'avesse già aperta Nvidia con il suo PhysX.
Free Gordon
26-10-2013, 18:11
Questo è un chippone da quasi 600mq, così a naso. Lo vedremo nel 2015 se va bene, considerando che TMSC ha grossi problemi (la produzione in volumi per i 20 nm erano previsti per Q4 2013...)
Quoto.
Il chip di AMD dovrebbe avere 4096sp, e essere grande quanto Cayman.
Dove lo hai letto?
nvidia ha aumentato moltissimo il numero delle ALU passando dall'architettura Fermi a quella Kepler, mentre AMD a parità di transistor ha ridotto il numero delle alu del 30-40%..Diciamo che AMD e nvidia inseguono la stessa strada anche se partono da punti diversi.
A parità di transistor sì, ma perlomeno ora ha più controllo via hw, prima era in gran parte software e nel gpgpu facevano pena...
Secondo me è proprio la capacità di masticare con disinvoltura qualsiasi tipo di operazioni fa di GCN la migliore architettura nel GPGPU.
E' curioso che Kepler faccia meglio di GCN solo nei bench dove la vecchia architettura vliw risulta abbastanza competitiva.
Quoto, ma probabile che vedremo davvero all'opera GCN, solo sulle console per il momento.. ;)
Il vliw avrebbe avuto senso al mio modo sulle schede della serie HD7700, magari mantenendo invariato il livello prestazionale per abbattere i consumi. Fattore prioritario per dei chip destinati anche ai portatili. Imho, è stato abbandonato troppo in fretta, considerando che oggi AMD produce ancora sottoforma di APU gpu con architettura vliw4.
Davvero un mezzo Cayman ad un terzo/quarto del consumo avrebbe giovato nella fascia entry-level-
Vliw, come dice Yoss, è stato abbandonato perché non adatto per Fusion...
Lato gaming avrei preferito una scheda vliw4 al posto di Tahiti, sommato ad un tessellator migliorato e imho ne avremmo viste delle belle perf/watt. ^_^
Free Gordon
26-10-2013, 18:16
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl
la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
PaulGuru
26-10-2013, 19:18
la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
tuttodigitale
26-10-2013, 20:02
Mantle spero che nel lungo termine non diventi quello che tu hai paventato perché, altrimenti, si rischia di tornare alle ottimizzazioni per singolo chip dell'epoca del primo 3d di 3dfx, matrox, powerVR e rendition :D
Francamente non capisco cosa ci sia di male/sbagliato in Mantle, nelle GLIDE o in qualsiasi altra API, incluso CUDA. L'importante che resti sempre la possibilità di fare l'installazione con le API generiche compatibile con tutti gli HW. Odio l'ottimizzazione al rovescio: vedi
l'impossibilità di usufruire dell'AA, tessellation a mille solo per piantare l'HW, e avere la barra più lunga anche a costo di FPS indecenti....
Il rischio, seppur mitigato dal potere e dallo share di nvidia, è quello di avere titoli indecenti sul piano visivo con le DX. A questa eventualità comunque ci credo poco.
l'unico inconveniente delle architetture ARM è che hanno una logica in order.
l'architetturra A15 ha una logica OoO three-issue- In questo senso sono più evoluti dei core Jaguar che hanno una logica dual-issue.
aggiungo che l'ottimizzazione dell'utilizzo della memoria, soprattutto nei primi tempi, richiederà un livello di conoscenza del chip, per chi programma, molto più a basso livello di quanto non richieda il bilanciamento dinamico dei carichi di lavoro tra unità dello shader core. A buon intenditore...
lavoro che dovrebbe essere simile a quello fatto sulle console e con la possibilità di usare gli stessi algoritmi per la programmazione, giusto?
Credo che l'inserimento di GCN nel mercato console sia ottimo ed è forse l'unica soluzione plausibile per avere ottimizzazioni piuttosto spinte a poco prezzo (la stessa AMD afferma che Mantle non sarebbe esistito se le console non adottavano la propria creatura)
E invece AMD ha abbandonato la politica del Tick-Tock?
Io mi aspettavo almeno un'architettura nuova con questa serie, dopo quasi due anni di attesa dal lancio della serie HD7*** (si parlava di 1 anno per ciclo, qui siamo già a due anni senza cambiare né pp né architettura, mi sembrano tantini ed ancora dovremo attendere).
Non capisco perchè tutta questa eccitazione per una nuova architettura... Ogni volta che cambiano, se va bene, sono efficienti come quelle precedenti, se va male, vedi GTX580, i miglioramenti a parità di assorbimento sono minimi nonostante il die shrink, che dovrebbe invece garantire da solo un miglioramento del 60%.
Da un pò di tempo per AMD e nvidia non sono le prestazioni nei giochi a determinare lo sviluppo di una architettura.
In realtà con la r9 290x hanno modificato un poco il silicio per farla rendere ancora meglio nel gpgpu.
Ma i cambiamenti sono avvenuti con Bonaire, che difatti porta con sè tutte le "novità" di Hawaii. (un segno che la gpu Hawaii AMD era già pronta)
AMD Tick tock?
2007 si passa dagli shader dedicati ad un'architettura a shader unificati e si cambia PP. (tick e tock)
Nek 2008 abbiamo avuto le HD3000 che è essenzialmente un die-shrink con modificato al MC non più ad anello. (tick con un leggerissimo tock)
Ancora nel 2008 abbiamo le HD 4000 sempre a 55nm e cambiamenti più o meno importanti sull'architettura vliw-5 (lo classifichiamo come un tock?)
nel 2009 esce la HD4770 a 40nm (tick)
nel 2009 escono le HD5000 a 40nm (cosa sono,,,sono solo HD4000 compatibili con le DX11...leggerissimo tock)
nel 2010 esce Cayman a 40nm che segna il passaggio dal vliw5 al vliw4 (tock, ma Cayman doveva debuttare sui 32nm, quindi era probabile un ennesimo tick tock contemporaneo o il debutto di Evergreen a 32nm)
nel 2012 escon le hd7000, 28nm e GCN. (tick e tock)
nel 2013 escono Bonaire e Hawaii, leggere modifiche all'architettura (leggerissimo TOck),
In ambito video, capita molto di rado che si effettui un semplice die shrink senza introdurre migliorie, piccole o grandi che siano, all'architettura.
Nel 2010
Ti ho linkato ciò per farti capire che magari Nvidia ha radicalmente modificato la sua struttura per apparire così e quindi avere cuda cores intesi come elementi totalmente differenti ?
Quindi per 6000 stream non intesi come gli stessi stream di Kepler ma totalmente differenti perchè nemmeno con 20nm si possono triplicare gli stream di una 780.
Aspetta 6000 cuda-core sono poco più il doppio di 2880...che poi sono quelli contenuti in gk110.
, la sparo li :banned: , nvidia potrebbe fare un chip da 360-420mmq per la fascia alta con poca potenza in DP, perchè ormai è chiaro che la resa dei 20 non sarà ottimale fino al Q3 2014. La super mattonella da 600-620mmq potrebbe far capolino nel mercato server e debuttare in quello consumer un anno dopo sottoforma di Titan e poi di GTX.
In pratica marcare a uomo AMD, copiandone in parte la strategia.
Piccola costatazione, di gk110 ad oggi sono stati venduti pochi a dir poco, certamente meno di quanto nvidia ha pianificato 2 anni fa e quindi il discorso fatto sopra potrebbe aver un senso.:sofico:
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl
Nvidia potrebbe anche rispondere con le proprie API a basso livello, ma dubito che trovi un solo sviluppatore che ha tempo e voglia di scrivere codice ottimizzato (perchè di questo si tratta) per le proprie gpu, se non investendo una quantità ingente di denaro. L'importante che rimangono disponibile una modalità DX-compatibile DECENTE, cosa che non è sempre avvenuta con le API GLIDE.
Con tutti e 2 i competitors che si fanno battaglia con API proprietarie effettivamente il rischio di avere una modalità DX fatta con i piedi sarebbe altissima.
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
NI. Certamente il successo di Mantle potrebbe essere un deterrente per AMD che potrebbe non apportare delle modifiche all'hardware, qualora il guadagno prestazionale (più probabile in ambito gpgpu) fosse tale da non giustificare la perdita della compatibiltà con le API Mantle.
Le architetture odierne si stanno evolvendo verso il compute. Ad ogni generazione aumenta la flessibilità, ma allo stesso tempo per fare cose "semplici" come modificare 2 vertici e le texture chiedono sempre più risorse. Mantle potrebbe frenare solo l'evoluzione del HSA (hai detto poco!), che poi è quella che ha più margini di miglioramento e un futuro tutto da definire sia sul piano Hardware che software. I giochi no.
E' chiaro, finchè le console saranno basate su GCN e i giochi multipiattaforma saranno sviluppati a partire dalle caratteristiche della creatura di AMD, l'architettura di AMD sarà strafavorita.
Finchè la base sarà GCN qualsiasi cosa che si discosti dall'architettura di partenza è praticamente certo che vedrà le risorse a disposizione usate alla meno peggio.
Imho, una volta che Mantle prenderà piede, gli sviluppatori continueranno a supportare l'api proprietaria finchè le console basate su quest'architettura non saranno sul viale del tramonto, anche nel caso in cui AMD decida di cambiare architettura. Ovviamente tutto nelle ipotesi che il passaggio dal codice di basso livello scritto per le console a quello per PC, non sia eccessivamente oneroso.
tuttodigitale
26-10-2013, 20:29
Dove lo hai letto?
rumors di Maggio riportati su TOM's americano che parlavano di una possibile cancellazione della gpu uscita in questi in giorni a favore di una proposta a 20nm.
da prendere quindi non con le molle, ma di più. Queste sono le fantasiose caratteristiche (tra parentesi il mio pensiero):
4096 SP (probabile)
bus 512 bit (estremamente probabile)
64 ROPs (estremamente probabile)
16 core Arm (fantastico se fosse vero, ma poco probabile)
4 ACE (poco probabile, sarebbe un downgrade rispetto ad Hawaii)
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...
A mio avviso adesso AMD tenterà di mettere la zampetta nel Cry Engine e nell'Unreal Engine, anche pagando, come fatto con il Frost.
Non ce lo vedo Mantle fallire, dove non arriva la voglia degli sviluppatori di integrare l'engine arriveranno i soldi di AMD, senza contare che AMD stessa fornsice alle software house un pieno supporto allo sviluppo dello stesso, come detto dai DICE.
Littlesnitch
27-10-2013, 00:36
Fare una domanda non significa rosicare. Scrivere come te, significa provocare. Fai benissimo a comprare quelle schede e fai benissimo a credere che le 780 siano da sostituire.
Guarda che non mi riferivo a te....
Mah, io penso che una strada in questo senso l'avesse già aperta Nvidia con il suo PhysX.
nVidia mica ha inventato il PhysX, ha acquisito l'omonima azienda e poi il PhysX non aggiunge nulla di significativo ad un gioco, Mantle è tutta un'altra cosa.
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
Bhe se quell'architettura ha margini di sviluppo senza entrare in un vicolo cieco e poi è anche alla base delle nuove console perciò ha un ciclo di 7 anni io non vedo problemi.
Ale55andr0
27-10-2013, 01:32
la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
appunto, mantle deve la sua nascita al fatto che è "forte" della base console netx-gen totalmente AMD, che vedrà sviluppare i giochi su GCN sin dalla loro origine, da li' il senso di tentare una simile e sicuramente "audace" mossa. Ad ogni modo si può fare anche senza, vedasi le glide 3dfx, solo che in questo caso si che mi parrebbe un lavoraccio extra per gli sviluppatori in quanto il fulcro di mantle, almeno a sentire amd (e quindi, l'oste) è che si può sfruttare facilmente gran parte del lavoro che gli sviluppatori hanno già svolto sulla versione console dei game multipiatta perchè giocano in pratica "in casa", cosa che non si potrebbe dire, in caso, su eventuali API nvidia. Inoltre non è che le nuove Api AMD le avrà scritte in due mesi e spicci, credo eh....
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
mmm, magari potrebbe anche "evolverla" senza stravolgerla totalmente da capo a piedi, di fatto poi chi glielo farebbe fare una volta che si è aggiudicata l'intera next gen di console? :D in fin dei conti intel è dal 2600k che ripropone la stessa cpu riveduta e corretta sino all'attuale 4770 :asd:
Francamente non capisco cosa ci sia di male/sbagliato in Mantle o nelle GLIDE. L'importante che resti sempre è comunque la possibilità di fare l'installazione con le API generiche.
quoto
ah, ovviamente non solo per "l'installazione", senno è inutile :D
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...
non resta che aspettare, se l'hanno sparata grossa e i miglioramenti saranno risibili prevedo un shitstorm epica :asd:
i titoloni come dici non mancano comunque, fra i quali Mass Effect "xyz" e Dragon Age 3...se riuscissero ad ottenere il supporto anche di crytec...
Ale55andr0
27-10-2013, 01:34
e d i t doppio
nVidia mica ha inventato il PhysX, ha acquisito l'omonima azienda e poi il PhysX non aggiunge nulla di significativo ad un gioco, Mantle è tutta un'altra cosa.
Non mi sembra che cambi qualcosa se lo ha inventato o acquisito.
Per il resto è ovvio che non mi riferivo alla differenza tra un "motore" per la gestione della fisica e delle API, bensì all'utilizzo di sw/hw proprietario, in quel senso il concetto e l'approccio è lo stesso. E se apri una strada è ovvio che altri, appena possono, ne apriranno un'altra, magari più grossa, mica possono lasciarti fare.
yossarian
27-10-2013, 02:00
Francamente non capisco cosa ci sia di male/sbagliato in Mantle, nelle GLIDE o in qualsiasi altra API, incluso CUDA. L'importante che resti sempre la possibilità di fare l'installazione con le API generiche compatibile con tutti gli HW. Odio l'ottimizzazione al rovescio: vedi
l'impossibilità di usufruire dell'AA, tessellation a mille solo per piantare l'HW, e avere la barra più lunga anche a costo di FPS indecenti....
Il rischio, seppur mitigato dal potere e dallo share di nvidia, è quello di avere titoli indecenti sul piano visivo con le DX. A questa eventualità comunque ci credo poco.
però capisci bene che l'ottimizzazione "spinta" ha portato e porterà ancora a situazioni del tipo "mancata implementazione di una feature su un'architettura" o problemi a far girare fluidamente un titolo su un'altra architettura, ecc. Questo vale per i giochi quanto per SW di altro tipo (anche professionale). Al "tempo delle glide" non era solo 3dfx; soprattutto nei primi tempi, prima che si affermassero le DX, c'era una situazione di confusione totale, con titoli che giravano bene solo su una determinata architettura, altri che perdevano feature se non giravano su una particolare architettura, ecc. E oltre alle glide c'erano le ottimizzazioni per la M3D di matrox, per i chip PowerVR, per quelli di rendition. Ogni titolo aveva più "declinazioni" a seconda dell'architettura. Mantle rappresenta, di fatto, lo sviluppo di CTM (che molti pensavano che AMD avesse abbandonato) e che era stato, impropriamente, accostato a CUDA. Cuda è ad un livello di astrazione più alto mentre CTM (e mantle) sono a livello di API, quindi ad un livello appena superiore a quello dei driver e si pone in alternativa e in competizione con DX e OpenGL, sia per i giochi che per la grafica. Ora resta da capire la natura della scommessa di AMD e come reagiranno MS e Intel
l'architetturra A15 ha una logica OoO three-issue- In questo senso sono più evoluti dei core Jaguar che hanno una logica dual-issue.
grazie per le informazioni :)
lavoro che dovrebbe essere simile a quello fatto sulle console e con la possibilità di usare gli stessi algoritmi per la programmazione, giusto?
Credo che l'inserimento di GCN nel mercato console sia ottimo ed è forse l'unica soluzione plausibile per avere ottimizzazioni piuttosto spinte a poco prezzo (la stessa AMD afferma che Mantle non sarebbe esistito se le console non adottavano la propria creatura)
esatto; al pari di quanto avviene per le console che hanno le loro API dedicate, mantle sarà, almeno all'inizio, una API dedicata a GCN e dovrebbe permettere un'ottimizzazione molto più spinta di quanto non si riesca a fare con API "generiche", non cucite addosso ad una determinata architettura, come DX e OpenGL. IMHO, immagino che mantle sarebbe esistito anche senza avere GCN sulle console (CTM per alcune applicazioni pro già c'era) ma non avrebbe sicuramente avuto l'impulso che potrà avere con tutte le console nextgen che utilizzano GCN.
Non capisco perchè tutta questa eccitazione per una nuova architettura... Ogni volta che cambiano, se va bene, sono efficienti come quelle precedenti, se va male, vedi GTX580, i miglioramenti a parità di assorbimento sono minimi nonostante il die shrink, che dovrebbe invece garantire da solo un miglioramento del 60%.
Da un pò di tempo per AMD e nvidia non sono le prestazioni nei giochi a determinare lo sviluppo di una architettura.
la penso esattamente come te, anche perché, dal punto di vista architetturale, le uniche vere novità degli ultimi anni sono state essenzialmente due: l'adozione di shader unificati (novità che ha riguardato le unità funzionali e la loro organizzazione) e l'introduzione dell'architettura Fermi per nVidia e GCN per AMD (anche queste hanno riguardato l'organizzazione delle unità funzionali. Quello che finora non è ancora stato fatto è ottimizzare gli accessi alla memoria. L?approccio "brute force", ormai, paga sempre meno ed è inutile continuare a stivare unità funzionali dentro i chip per sopperire al fatto che ci sono ancora operazioni con latenze altissime, in parte per caratteristiche intrinseche al tipo di operazione ma in parte anche perché gli accessi alla memoria non sono così efficienti come dovrebbero
AceGranger
27-10-2013, 02:20
Però anche titan, in dp, non ha le stesse prestazioni delle tesla, quindi anche titan, seppure molto meno della 780, risulta castrato sotto questo punto di vista.
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?
Già se si guarda al mondo del CAD, dove si usa la SP, tra titan e 780 cambia poco o nulla.
e invece c'è il mare in mezzo; nella maggior parte dei motori di render GPGPU la scena deve essere caricata interamente in ram, e fra 3 e 6 GB la differenza è abissale; se non viene caricata il render non parte.
tralasciando i problemi di gioventu dei motori di rendering GPGPU, credo che la ram on-board rappresenti IL limite principale del GPGPU, e credo che sia anche per questo che nVidia introdurra la memoria virtuale unificata con Maxwell, dove questo limite dovrebbe essere superato.
E per il mondo professionale ci sono schede dedicate che no sono né titan né hawaii
se parli di grafica, frequento svariati forum specifici di grafica, compresi un paio di forum ufficiali dei software che uso, e quelli che ho visto che usano le Tesla li conto sulle dita di una mano, e le hanno prese quando le Titan non esistevano; la norma, sono le GTX.
il motivo è semplice, sono gli stessi programmatori dei motori a testare e consigliare le GTX.
PaulGuru
27-10-2013, 09:41
Piccola costatazione, di gk110 ad oggi sono stati venduti pochi a dir poco, certamente meno di quanto nvidia ha pianificato 2 anni fa e quindi il discorso fatto sopra potrebbe aver un senso.:sofico:
Veramente è andata a ruba la Titan, è abbastanza chiaro che abbia venduto meno come numero rispetto alle soluzioni d'alta distribuzione ma di certo gli appassionati a cui è rivolta non frega na mazza del prezzo / prestazioni.
Anche la 480 ha venduto parecchio quì nel forum nonostante tutto e così sarà sempre.
http://www.tomshw.it/cont/news/geforce-gtx-titan-sta-andando-a-ruba-in-italia-e-nel-mondo/45849/1.html
Comunque sia è impossibile sviluppare anche su 20nm il triple degli stream se l'architettura cambia di poco, GM104 invece è previsto con 3800 stream, quindi a parer tuo se fosse a 20nm sarebbe grosso come Titan, se fosse a 28 sarebbe molto di più senza scomodare GM100.
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...
Non ce lo vedo Mantle fallire, dove non arriva la voglia degli sviluppatori di integrare l'engine arriveranno i soldi di AMD, senza contare che AMD stessa fornsice alle software house un pieno supporto allo sviluppo dello stesso, come detto dai DICE.
Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.
http://www.tomshw.it/files/2013/10/immagini_contenuti/49920/ultra-1920_t.png
mmm, magari potrebbe anche "evolverla" senza stravolgerla totalmente da capo a piedi, di fatto poi chi glielo farebbe fare una volta che si è aggiudicata l'intera next gen di console?
Come fai ad evolverla se le API sono prese dall'architettura SI delle console ? Basta che cambi qualcosina e già diventa differente dalle API delle console, a quel punto perdi tutti gli incentivi contro una possibile risposta da Nvidia che sappiamo tutti a quel punto non ci metterà molto a far prevalere il suo di portafoglio.
yossarian
27-10-2013, 11:39
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?
non si vive di soli shader (non mi ricordo chi lo disse :D ). Battute a parte ti cito tre dei motivi per cui titan non è tesla: dal punto di vista della precisione di calcolo non ha memorie ECC (e quindi non è immune agli errori su singolo bit); dal punto di vista prestazionale non ha il doppio DMA engine per cui le latenze di accesso alla memoria da parte dei cluster di alu, rispetto alla controparte "tesla" è, di fatto quasi raddoppiato; non può utilizzare i driver TCC specifici per il gpgpu (che sono incompatibili con gli adattatori grafici.
e invece c'è il mare in mezzo; nella maggior parte dei motori di render GPGPU la scena deve essere caricata interamente in ram, e fra 3 e 6 GB la differenza è abissale; se non viene caricata il render non parte.
tralasciando i problemi di gioventu dei motori di rendering GPGPU, credo che la ram on-board rappresenti IL limite principale del GPGPU, e credo che sia anche per questo che nVidia introdurra la memoria virtuale unificata con Maxwell, dove questo limite dovrebbe essere superato.
se parli di grafica, frequento svariati forum specifici di grafica, compresi un paio di forum ufficiali dei software che uso, e quelli che ho visto che usano le Tesla li conto sulle dita di una mano, e le hanno prese quando le Titan non esistevano; la norma, sono le GTX.
il motivo è semplice, sono gli stessi programmatori dei motori a testare e consigliare le GTX.
sul fatto che la ram on board e il suo utilizzo sia uno dei limiti principali hai perfettamente ragione. Proprio in quest'ottica, l'assenza del doppio DMA engine su titan (presente, invece, sulle tesla ma anche su hawaii) rappresenta una limitazione non di poco conto per una scheda che dovrebbe essere competitiva nel settore del gpgpu professionale
In quanto alla grafica ma non solo, dai test che si vedono in giro e che riguardano anche SW utilizzati in azienda (solidworks, CATIA, proE per il calcolo, Maya, ecc) non mi pare che titan faccia "la differenza" al punto da giustificare un esborso considerevolmente più alto sia rispetto alle altre vga di fascia alta prodotte da nVidia che rispetto alle AMD, a meno che lo scopo non è primeggiare in unigine
http://www.tomshardware.com/reviews/geforce-gtx-780-performance-review,3516-24.html
http://www.tomshardware.com/reviews/geforce-gtx-titan-opencl-cuda-workstation,3474-5.html
qui parliamo di mondo reale (e non di bench sintetici) e, in molti casi, titan le prende anche dalle "vecchie" 680 e 580
questa è la conclusione di una delle review (quella più completa ed esaustiva)
"Is The GeForce GTX Titan Good For As A Workstation Card? Good question. There's no doubt that the GeForce GTX Titan is a great gaming card, but its price is just too high for the performance it offers in professional applications, added on to the fact that its drivers simply aren't certified for most of the software we tested."
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?
oltre a quello che ti ha espresso più che bene yoss (tranne che per il fatto che le gddr in tesla non sono ecc, ma viene ridotta dal controller ram la quantità di ram utilizzabile perchè una parte viene destinata all ecc in 1/9 del totale) la frequenza base si abbassa come gia ti avevo scritto e le prestazioni sono inferiori al k20 base.
nevets89
27-10-2013, 11:48
Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.
guarda che la patch per mantle deve ancora uscire... quindi aspetta a parlare...
PaulGuru
27-10-2013, 11:51
guarda che la patch per mantle deve ancora uscire... quindi aspetta a parlare...
Ok :)
nevets89
27-10-2013, 12:10
Ok :)
io da quel punto di vista sono fiducioso, voglio proprio vedere cosa riescono a fare.
PaulGuru
27-10-2013, 12:13
io da quel punto di vista sono fiducioso, voglio proprio vedere cosa riescono a fare.
Un altra domanda ma dove è finito il bundle giochi ?
con le 79xx ti davano 4 giochi in regalo ma per queste ultime non ho visto nulla, inoltre la versione BF4 edition addirittura ti devi pagare il gioco che fra l'altro è il titolo di punta.
Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.
http://www.tomshw.it/files/2013/10/immagini_contenuti/49920/ultra-1920_t.png
La patch Mantle arriverà solo a dicembre...
nevets89
27-10-2013, 12:17
Un altra domanda ma dove è finito il bundle giochi ?
con le 79xx ti davano 4 giochi in regalo ma per queste ultime non ho visto nulla, inoltre la versione BF4 edition addirittura ti devi pagare il gioco che fra l'altro è il titolo di punta.
eh me lo sono chiesto pure io...forse lo stanno preparando, o forse, considerando il target, hanno pensato che non servisse.
AceGranger
27-10-2013, 12:27
non si vive di soli shader (non mi ricordo chi lo disse :D ). Battute a parte ti cito tre dei motivi per cui titan non è tesla: dal punto di vista della precisione di calcolo non ha memorie ECC (e quindi non è immune agli errori su singolo bit); dal punto di vista prestazionale non ha il doppio DMA engine per cui le latenze di accesso alla memoria da parte dei cluster di alu, rispetto alla controparte "tesla" è, di fatto quasi raddoppiato; non può utilizzare i driver TCC specifici per il gpgpu (che sono incompatibili con gli adattatori grafici.
ah ! ok, questa parte non la conoscevo, non utilizzando per nulla i calcoli DP non mi ero mai posto nemmeno il problema :)
sul fatto che la ram on board e il suo utilizzo sia uno dei limiti principali hai perfettamente ragione. Proprio in quest'ottica, l'assenza del doppio DMA engine su titan (presente, invece, sulle tesla ma anche su hawaii) rappresenta una limitazione non di poco conto per una scheda che dovrebbe essere competitiva nel settore del gpgpu professionale
In quanto alla grafica ma non solo, dai test che si vedono in giro e che riguardano anche SW utilizzati in azienda (solidworks, CATIA, proE per il calcolo, Maya, ecc) non mi pare che titan faccia "la differenza" al punto da giustificare un esborso considerevolmente più alto sia rispetto alle altre vga di fascia alta prodotte da nVidia che rispetto alle AMD, a meno che lo scopo non è primeggiare in unigine
http://www.tomshardware.com/reviews/geforce-gtx-780-performance-review,3516-24.html
http://www.tomshardware.com/reviews/geforce-gtx-titan-opencl-cuda-workstation,3474-5.html
qui parliamo di mondo reale (e non di bench sintetici) e, in molti casi, titan le prende anche dalle "vecchie" 680 e 580
se io parlo di rendering GPGPU dove la differenza la fa, perchè mi posti bench sulla gestione delle viewport, che sono molto piu driver limited, e dove ho gia scritto che non è un buon acquisto ?
quella che devi guardare è la pagina dopo, dove a seconda del motore di render arriva ad andare anche il doppio e quasi il triplo delle vecchie VGA, mantenendo sempre il vantaggio abissale del quantitativo di ram, che fa la differenza fra il fare o il NON fare un determianto lavoro, perchè come gia detto se perndi la 780 e la tua scena ottimizza è di 3 Gb e 1 byte, tu il render o la preview Real Time non ce l'hai, e tranquillo che 3Gb non sono difficili da riempire.
http://www.tomshardware.com/reviews/geforce-gtx-780-performance-review,3516-26.html
questa è la conclusione di una delle review (quella più completa ed esaustiva)
"Is The GeForce GTX Titan Good For As A Workstation Card? Good question. There's no doubt that the GeForce GTX Titan is a great gaming card, but its price is just too high for the performance it offers in professional applications, added on to the fact that its drivers simply aren't certified for most of the software we tested."
lo ripeto, un conto è la viewport e un conto è il rendering GPGPU, sono 2 cose totalmente diverse, e le conclusioni di quella review sono rivolte all'utilizzo di Titan come VGA principale...
non lo ordina il medico di mettere una sola VGA nel computer :fagiano:, che è il motivo per il quale io ho una Quadro 4000 con i 2 monitor collegati per la gestione delle viewport e una Titan senza monitor per Vray RT e Photoscan, dove la Titan attualmente NON ha rivali, se non 2 Titan :D
se gli stessi programmatori dei motori di rendering GPGPU le consigliano, e se praticamente tutti i grafici che ci lavorano le acquistano, ci sara un motivo... non vedo il perchè di continuare a dire il contrario.
yossarian
27-10-2013, 13:05
se io parlo di rendering GPGPU dove la differenza la fa, perchè mi posti bench sulla gestione delle viewport, che sono molto piu driver limited, e dove ho gia scritto che non è un buon acquisto ?
quella che devi guardare è la pagina dopo, dove a seconda del motore di render arriva ad andare anche il doppio e quasi il triplo delle vecchie VGA, mantenendo sempre il vantaggio abissale del quantitativo di ram, che fa la differenza fra il fare o il NON fare un determianto lavoro.
http://www.tomshardware.com/reviews/geforce-gtx-780-performance-review,3516-26.html
lo ripeto, un conto è la viewport e un conto è il rendering GPGPU, sono 2 cose totalmente diverse, e non te lo ordina il medico di mettere una sola VGA nel computer, che è il motivo per il quale io ho una Quadro 4000 con i 2 monitor colelgati per la gestione delle viewport e una Titan senza monitor per Vray RT e Photoscan, dove la Titan attualmente NON ha rivali.
se gli stessi programmatori dei motori di rendering GPGPU le consigliano, e se praticamente tutti i grafici che ci lavorano le acquistano, ci sara un motivo...
quelle a cui fai riferimento sono applicazioni sviluppate tramite CUDA e ottimizzate sull'architettura dei chip nVidia (e, ovviamente, l'ultimo arrivato deve per forza di cose essere il migliore). Ma, disgraziatamente, non sono le uniche applicazioni di gpgpu rendering del lotto (quello sono applicazioni di CUDA rendering e il gpgpu non è solo CUDA). Chi deve acquistare una vga per applicazioni professionali non lo fa solo in base alle prestazioni sotto CUDA, a meno che no è interessato SOLO a quello. E, poi, parlare di driver limited su applicazioni dove titan le prende dalla 580 e dalla 680 (pur usando gli stessi driver) mi pare alquanto pretestuoso
AceGranger
27-10-2013, 13:33
quelle a cui fai riferimento sono applicazioni sviluppate tramite CUDA e ottimizzate sull'architettura dei chip nVidia (e, ovviamente, l'ultimo arrivato deve per forza di cose essere il migliore). Ma, disgraziatamente, non sono le uniche applicazioni di gpgpu rendering del lotto (quello sono applicazioni di CUDA rendering e il gpgpu non è solo CUDA)
ah no, non sono le uniche ? no scusa quali altri motori di rendering professionali ci sono non CUDA ? non vorrai mica nominarmi Luxrender...
iRay, Vray RT, Octane, Arion, sono i piu diffusi motori di rendering GPGPU che lavorano direttamente dentro ai software come Maya, 3D Max, Cinema 4D etc. etc. e sono tutti CUDA.
Chi deve acquistare una vga per applicazioni professionali non lo fa solo in base alle prestazioni sotto CUDA, a meno che no è interessato SOLO a quello.
io ho sempre parlato di quell'ambito esplicitandolo ogni volta, e fino ad ora in quell'ambito c'è solo CUDA; dopo di che, mi basta prendere in mano i dati di vendita delle VGA professionali per vedere che l'81% del mercato è in mano a CUDA e nVidia, quindi ad oggi, le AMD vanno bene a 19 persone su 100, a cnhe in campo GTX / HD siamo sempre di fronte ad un divario di 60 - 40.
se tolgo i soliti bench OpenCL delle "recensioni", non ne ho visti molti di Software professionali non CUDA, solo OpenCL in cui AMD faccia la differenza, e fino ad ora i dati di vendita credo siano molto piu vicini a quello che dico io, piuttosto che a quello che dici tu.
E, poi, parlare di driver limited su applicazioni dove titan le prende dalla 580 e dalla 680 (pur usando gli stessi driver) mi pare alquanto pretestuoso
i chip non sono gli stessi, ed è chiaro che i driver GTX non vanno ad utilizzare tutti gli SP presenti in piu ( ovviamente parlo di software professionali ) e con driver intendo i "profili" ed aggiustamenti ad hoc che ci sono normalmente all'interno dei pacchetti driver, esattamente come succede con i giochi che con le varie review dei driver vengono aggiunti profili ottimizzati per far andare meglio una specifica VGA o una specifica configurazione tipo doppia VGA.
Se fosse un problema di hardware, la Quadro K6000 non avrebbe mai visto la luce, e invece con i driver ottimizzati per il GK100, abbatteresti tutte le altre VGA, Fra Quadro e GTX, nella gestione delle viewport, non venirmi a raccontare supercazzole su differenze hardware che non esistono, esistono solo i driver; ed è lo stesso motivo per il quale la mia Quadro 4000 va piu veloce della Titan nelle viewport e va tremendamente piu veloce della GTX 480/580 che hanno il doppio degli SP della mia ( entrambe ovviamente con GF100 / GF110 )
il divario sarebbe ancora piu grosso se esistessero ancora i performance driver specifici per le Quadro, che sono stati bloccati dall'autodesk perchè ha iniziato a spingere sui suoi driver Nitruos.
yossarian
27-10-2013, 14:42
ah no, non sono le uniche ? no scusa quali altri motori di rendering professionali ci sono non CUDA ? non vorrai mica nominarmi Luxrender...
iRay, Vray RT, Octane, Arion, sono i piu diffusi motori di rendering GPGPU che lavorano direttamente dentro ai software come Maya, 3D Max, Cinema 4D etc. etc. e sono tutti CUDA.
allora adottiamo una visione CUDOcentrica :D . Dai test che hai linkato sul rendering, solo blender giustifica la differenza di prezzo tra titan e una 780 che va persino meglio in fluidmark. Inoltre, il fatto che i principali programmi di grafica usino motori scritti con CUDA pare non dare alcun vantaggio alle vga con chip nVidia, a giudicare dai test fatti porprio con quegli applicativi e, tanto meno, vantaggi a titan rispetto alle altre gpu nVidia. Quindi, anche adottando una visione CUDOcentrica, mi spieghi perché chi acquista un SW con engone sviluppato in CUDA dovrebbe comprare una vga nVidia? E perché titan e non una con 580 o 780 GTX? E, dal punto di vista di uno sviluppatore, cosa ti dà titan in più rispetto ad una 780 GTX (considerando che in questi engine non sanno cosa farsene della DP)?
io ho sempre parlato di quell'ambito esplicitandolo ogni volta, e fino ad ora in quell'ambito c'è solo CUDA; dopo di che, mi basta prendere in mano i dati di vendita delle VGA professionali per vedere che l'81% del mercato è in mano a CUDA e nVidia, quindi ad oggi, le AMD vanno bene a 19 persone su 100, a cnhe in campo GTX / HD siamo sempre di fronte ad un divario di 60 - 40.
quei dati si riferiscono a tutto il mercato professionale e non a quello dei soli sviluppatori. Messa così e visti i risultati dei bench con programmi di grafica pro, il vantaggio di nVidia, lato vendite, è dovuto solo al fatto che ha iniziato prima e ha spinto molto su CUDA. Inoltre, gran parte di quel mercato, non compra schede consumer (tra cui rientra anche titan)
se tolgo i soliti bench OpenCL delle "recensioni", non ne ho visti molti di Software professionali non CUDA, solo OpenCL in cui AMD faccia la differenza, e fino ad ora i dati di vendita credo siano molto piu vicini a quello che dico io, piuttosto che a quello che dici tu.
a me non sembra di vedere bench né in opencl né con motori CUDA in cui titan faccia la differenza. Ora la questione é: stiamo parlando di vga non professionali, ma una di queste, in particolare, ha un prezzo che la pone "fuori mercato" per questa tipologia
i chip non sono gli stessi, ed è chiaro che i driver GTX non vanno ad utilizzare tutti gli SP presenti in piu ( ovviamente parlo di software professionali ) e con driver intendo i "profili" ed aggiustamenti ad hoc che ci sono normalmente all'interno dei pacchetti driver, esattamente come succede con i giochi che con le varie review dei driver vengono aggiunti profili ottimizzati per far andare meglio una specifica VGA o una specifica configurazione tipo doppia VGA.
Se fosse un problema di hardware, la Quadro K6000 non avrebbe mai visto la luce, e invece con i driver ottimizzati per il GK100, abbatteresti tutte le altre VGA, Fra Quadro e GTX, nella gestione delle viewport, non venirmi a raccontare supercazzole su differenze hardware che non esistono, esistono solo i driver; ed è lo stesso motivo per il quale la mia Quadro 4000 va piu veloce della Titan nelle viewport e va tremendamente piu veloce della GTX 480/580 che hanno il doppio degli SP della mia ( entrambe ovviamente con GF100 / GF110 )
il divario sarebbe ancora piu grosso se esistessero ancora i performance driver specifici per le Quadro, che sono stati bloccati dall'autodesk perchè ha iniziato a spingere sui suoi driver Nitruos.
non esistono driver che disabilitano unità di calcolo. Al massimo possono esistere driver non ottimizzati per una determinata architettura che non la sfruttano a pieno. Ma questo vale per tutte le architetture e non solo per una. Se si tratta di driver generici si presuppone che non abbiano alcun tipo di ottimizzazione per nessuna architettura. Se parliamo di driver specifici per una particolare architettura, allora questi sono scritti dal produttore del chip grafico in questione
AceGranger
27-10-2013, 15:11
allora adottiamo una visione CUDOcentrica :D . Dai test che hai linkato sul rendering, solo blender giustifica la differenza di prezzo tra titan e una 780 che va persino meglio in fluidmark.
in tutti viene giustificato l'acquisto, 3 Gb di ram limitano di molto le scene renderizzabili.
Inoltre, il fatto che i principali programmi di grafica usino motori scritti con CUDA pare non dare alcun vantaggio alle vga con chip nVidia, a giudicare dai test fatti porprio con quegli applicativi e, tanto meno, vantaggi a titan rispetto alle altre gpu nVidia.
no invatti saranno avvantaggiate le AMD che non possono essere utilizzate e diventano ottime come fermaporte.
i vantaggi della Titan ci sono eccome, e basta prendere una scena da 1,6 Gb per far sparire la 580, e caricare una scena da 3,1 Gb per far sparire anche la 780, direi che questo è un vantaggio indiscutibile, che visto che non ci lavori, non cogli nella sua reale importanza.
per Fluidmark, mi sembra chiaro che non funzioni appieno il supporto del programma con il chip, visto che la 680 e Titan condividono la stessa architettura e quest'ultima è palese che non possa andare di meno.... è come prender un software ST e vedere stesse prestazioni fra un core i3 ed uno Xeon E5 12 core.
Messa così e visti i risultati dei bench con programmi di grafica pro, il vantaggio di nVidia, lato vendite, è dovuto solo al fatto che ha iniziato prima e ha spinto molto su CUDA.
se prendo i software professionali OpenCL, dove AMD ha pure investito di piu, non mi pare che le cose migliorino, vedo infiniti motivi in piu per acquistare nVidia piuttosto che AMD. Nella tua visione idealte AMD puo essere migliore quanto ti pare, io mi baso sulla realta dei fatti dove è quasi sempre la scelta peggiore.
a me non sembra di vedere bench né in opencl né con motori CUDA in cui titan faccia la differenza. Ora la questione é: stiamo parlando di vga non professionali, ma una di queste, in particolare, ha un prezzo che la pone "fuori mercato" per questa tipologia
cosa non hai ancora capito sulla parte che senza ram non vai da nessuna parte e che la Titan rappresenta la migliore VGA con un alto quantitativo di ram on-board e potenza superiore ? se facessero una 780 con 6 Gb o una 680 con 8 Gb, ti direi SI, la Titan non ha senso a quel prezzo, ma ops, nVidia ha messo il veto sul quantitativo di ram massimo, quindi se pur fattibile non vedremo mai una 780 con 6 Gb, una Titan con 12 gb o una 680 con 8 Gb, e tranquillo che se fosse stato possibile sicuramente qualche produttore lo avrebbe fatto.
non esistono driver che disabilitano unità di calcolo.
non mi pare di aver mai detto il contrario.
Al massimo possono esistere driver non ottimizzati per una determinata architettura che non la sfruttano a pieno. Ma questo vale per tutte le architetture e non solo per una. Se si tratta di driver generici si presuppone che non abbiano alcun tipo di ottimizzazione per nessuna architettura.
esattamente, e visto che sono sprovvisti di ottimizzazioni è anche molto probabile che l'assenza di tali ottimizzazioni vada ad inficiare molto di piu sulle Titan che richiedono un'ottima parallelizzazione per poter sfruttare appieno il chip, visto che anceh nelel Quadro, all'aumentare del numero di SP non corrispondono aumenti lineari delel prestazioni, eppure hanno driver ultra-ottimizzati.
Se parliamo di driver specifici per una particolare architettura, allora questi sono scritti dal produttore del chip grafico in questione
gia, e visto che stavamo parlando di viewport, secondo te nVidia è cosi scema da inserire i profili dei software pro nei driver delle GTX, cosi da non giustificare piu l'acquisto di una Quadro per le viewport ?
mi spiace, ma in campo rendering GPGPU la situazione è quella ceh ti ho dipinto io, in altri ambiti sara pure come la descrivi tu.
yossarian
27-10-2013, 15:51
in tutti viene giustificato l'acquisto, 3 Gb di ram limitano di molto le scene renderizzabili.
quindi la differenza di prezzo è giustificata solo dai 3 GB di ram in più?
no invatti saranno avvantaggiate le AMD che non possono essere utilizzate e diventano ottime come fermaporte.
dai test di tom non pare siano inutilizzabili, anzi... Cosa non ti è chiaro di quei test (e no parlo di quelli con CUDA, ovviamente)?
i vantaggi della Titan ci sono eccome, e basta prendere una scena da 1,6 Gb per far sparire la 580, e caricare una scena da 3,1 Gb per far sparire anche la 780, direi che questo è un vantaggio indiscutibile, che visto che non ci lavori, non cogli nella sua reale importanza.
torniamo sempre e solo al vantaggio sul quantitativo di ram
per Fluidmark, mi sembra chiaro che non funzioni appieno il supporto del programma con il chip, visto che la 680 e Titan condividono la stessa architettura e quest'ultima è palese che non possa andare di meno.... è come prender un software ST e vedere stesse prestazioni fra un core i3 ed uno Xeon E5 12 core.
stessi driver, stessa architettura, ma solo titan penalizzata? Al massimo dovrebbero andare tutte allo stesso modo (compresa la 780)
se prendo i software professionali OpenCL, dove AMD ha pure investito di piu, non mi pare che le cose migliorino, vedo infiniti motivi in piu per acquistare nVidia piuttosto che AMD. Nella tua visione idealte AMD puo essere migliore quanto ti pare, io mi baso sulla realta dei fatti dove è quasi sempre la scelta peggiore.
sei tu che sostieni che vale la pena di spendere 1000 € piuttosto che 250 per lavorare con un SW che gira allo stesso modo su entrambe le VGA.
cosa non hai ancora capito sulla parte che senza ram non vai da nessuna parte e che la Titan rappresenta la migliore VGA con un alto quantitativo di ram on-board e potenza superiore ? se facessero una 780 con 6 Gb o una 680 con 8 Gb, ti direi SI, la Titan non ha senso a quel prezzo, ma ops, nVidia ha messo il veto sul quantitativo di ram massimo, quindi se pur fattibile non vedremo mai una 780 con 6 Gb, una Titan con 12 gb o una 680 con 8 Gb, e tranquillo che se fosse stato possibile sicuramente qualche produttore lo avrebbe fatto.
ok, abbiamo capito, l'unico vantaggio è la ram e questo giustifica i 1000 €
non mi pare di aver mai detto il contrario.
mi pareva lo avessi scritto nel quote qui sotto
i chip non sono gli stessi, ed è chiaro che i driver GTX non vanno ad utilizzare tutti gli SP presenti in piu
esattamente, e visto che sono sprovvisti di ottimizzazioni è anche molto probabile che l'assenza di tali ottimizzazioni vada ad inficiare molto di piu sulle Titan che richiedono un'ottima parallelizzazione per poter sfruttare appieno il chip, visto che anceh nelel Quadro, all'aumentare del numero di SP non corrispondono aumenti lineari delel prestazioni, eppure hanno driver ultra-ottimizzati.
veramente è GCN che ha bisogno della massima parallelizzazione.
gia, e visto che stavamo parlando di viewport, secondo te nVidia è cosi scema da inserire i profili dei software pro nei driver delle GTX, cosi da non giustificare piu l'acquisto di una Quadro per le viewport ?
quindi titan non un chip professionale e neppure appartiene ad una sua classe a parte. Questo taglia la testa a tutte le chiacchiere sulla sua classificazione
AceGranger
27-10-2013, 16:35
quindi la differenza di prezzo è giustificata solo dai 3 GB di ram in più?
in questo specifico caso si, anche perchè non ci sono alternative; non mi pare di aver mai giustificato la Titan a 360°.
test di tom non pare siano inutilizzabili, anzi... Cosa non ti è chiaro di quei test (e no parlo di quelli con CUDA, ovviamente)?
a me è chiarissimo, tu continui a fare discorsi generali astratti con alla mano solo e soltanto quei bench fini a se stessi e cerchi di applicarlo al mondo reale come se quei bench rispecchiassero la realta in ogni situazione; io ho sempre parlato di un ambito reale specifico, da cui fra l'altro è inizialmente partito il discorso.
non so tu dove vivi, ma OGGI in ambito professionale lavori molto di piu con CUDA, rispetto che con OpenCL, e nei software professionali che uso io AMD non va nemmeno meglio in ambito OpenCL, quindi idelamente sara sicuramente come dici tu, io da utilizzatore finale ho un'altra realta davanti, e me ne sbatto se è perchè una ha iniziato prima, perchè supporta di piu o altre menate di questo tipo; la realta è che OGGI con AMD fai molto meno, domani si vedra.
torniamo sempre e solo al vantaggio sul quantitativo di ram
eh bè, in questi campi è uno dei fattori determinanti.... non mi sembra un vantaggio da poco.
stessi driver, stessa architettura, ma solo titan penalizzata? Al massimo dovrebbero andare tutte allo stesso modo (compresa la 780)
secondo te la K6000 va peggio delle altre Quadro ? no, evidentemente allora c'è qualcosa che non va nei driver/programma, visto che in quei calcoli il chip è identico.
sei tu che sostieni che vale la pena di spendere 1000 € piuttosto che 250 per lavorare con un SW che gira allo stesso modo su entrambe le VGA.
ma cosa stai dicendo ? la maggior parte del software non gira proprio su AMD; io ho solo detto che il mondo della grafica è in mano ad nVidia, perchè permettono di far girare tutto il software in circolazione e attualmente ce ne sono veramente pochi di software professionali di grafica dove AMD valga l'acquisto, visto che le volte che va meglio lo fa in modo risicato, perdendo pero tutta la compatibilita con il grosso dei software.
logica vuole, che utilizzando solo Photoshop è da idioti spendere 1000 euro per una VGA inutile, come lo è spenderli per una AMD da 250, visto che basta l'integrata delle CPU AMD/Intel o una VGA entry lvl; ma se uno vuole una VGA per grafica a 360° non puo prendere una AMD che è limitata, o meglio, se uno vuole una VGA per grafica che non sia solo il pacchetto Adobe deve prendere una nVidia...
ok, abbiamo capito, l'unico vantaggio è la ram e questo giustifica i 1000 €
si, e per la cronaca mediamente ne costa 800 ed è trovabile facilmente a 750 :fagiano: ...
mi pareva lo avessi scritto nel quote qui sotto
non mi pare che il GK104 e il GK110 siano lo stesso chip.
veramente è GCN che ha bisogno della massima parallelizzazione.
fra 1536 e 2688 sp credo ci sia una leggera differenza.
quindi titan non un chip professionale e neppure appartiene ad una sua classe a parte. Questo taglia la testa a tutte le chiacchiere sulla sua classificazione
A questo punto, seriamente, non capisco se fai apposta o cos'altro...
Mi pare di averlo scritto chiaramente piu di una volta, se parli di viewport servono i driver e quindi una Quadro, se parli di rendering GPGPU le GTX sono delle scelte ottime, e non sono io a dirlo, ma gli stessi sviluppatori dei software, che le consigliano al pari delle professionali e, visto che costano meno, rappresentano la migliore soluzione.
Quindi, non capisco perchè continui a mischiarli volontariamente; la classificazione è per i bimbiminkia, il professionista acquista l'hardware migliore per il lavoro che deve fare indipendentemente da quello che ci sia scritto, e la Titan in alcuni ambienti rappresenta quell'hardware; come non è la migliore soluzione ovunque non è nemmeno da scartare a priori come stai facendo tu.
Dell vende workstation con i5 e ram non ECC certificate come quelle superiori con Xeon ed ECC, quindi sono scemi loro e chi le acquista perchè dovrebbero avere scritto Xeon ed ECC ?.
yossarian
27-10-2013, 17:02
a me è chiarissimo, tu continui a fare discorsi generali astratti con alla mano solo e soltanto quei bench fini a se stessi e cerchi di applicarlo al mondo reale come se quei bench rispecchiassero la realta in ogni situazione; io ho sempre parlato di un ambito reale specifico, da cui fra l'altro è inizialmente partito il discorso.
non so tu dove vivi, ma OGGI in ambito professionale lavori molto di piu con CUDA, rispetto che con OpenCL, e nei software professionali che uso io AMD non va nemmeno meglio in ambito OpenCL, quindi idelamente sara sicuramente come dici tu, io da utilizzatore finale ho un'altra realta davanti.
non so dove vivi tu ma "quei bench" sono fatti con applicazioni professionali che, evidentemente, girano anche su amd e non sicuramente peggio di quanto facciano su nVidia; alcune di queste con motori programmati con CUDA (e anche li nessun vantaggio per nVidia)
secondo te la K6000 va peggio delle altre Quadro ? no, evidentemente c'è qualcosa che non va nei driver, visto che in quei calcoli il chip è identico.
secondo te dove titan va peggio della 780 (stesso chip) i driver penalizzano solo la prima? E per quale miracolosa ragione?
ma cosa stai dicendo ? la maggior parte del software non gira proprio su AMD; io ho solo detto che il mondo della grafica è in mano ad nVidia, perchè permettono di far girare tutto il software in circolazione e attualmente non c'è un software professionale di grafica dove dova AMD vada meglio, e in questi software il vantaggio che ha la Titan con le ram e le prestazioni non è eguagliabile da nessun altra VGA.
logica vuole che se uno usa solo Photoshop è da idioti spendere 1000 euro per una VGA inutile, come lo è spenderli per una AMD da 250, visto che basta una persino l'integrata delle CPU AMD/Intel; ma se uno vuole una VGA a 360° non puo prendere una AMD che è limita.
tutti i SW testati da tom, a parte quelli specifici con CUDA (non quelli con engine progettato con CUDA ma i test sintetici in CUDA), girano su AMD e tra quelli non pare ci sia photoshop. E, al contrario di nVidia, AMD non ha posto limiti al quantitativo di ram, per cui ci sono schede con 6 GB di ram (se è quello il problema)
non mi pare che il GK104 e il GK110 siano lo stesso chip.
a me pare che 780 e titan siano lo stesso chip e, forse ti è sfuggito, ma si parlava di fluidmark
fra 1536 e 2688 sp credo ci sia una leggera differenza.
tra 2688 e 2304 la differenza mi pare molto leggera e il chip è lo stesso; ma tu hai detto che titan in fluidmark va peggio per colpa dei driver e hai farneticato di parallelizzazione
a questo punto non capisco se ci fai o ci sei;
e tu?
mi pare di averlo scritto chiaramente piu di una volta, se parli di viewport servono i driver e quindi una Quadro, se parli di rendering GPGPU le GTX sono le scelte migliori, e non sono io a dirlo ma gli stessi sviluppatori dei software le consigliano al pari delle professionali.
quindi non capisco perchè continui a mischiarli volontariamente; il miglior hadrware per un professionista è quello che gli fa svolgere il lavoro che gli serve nel migliore dei modi e spendendo il minimo, e le Titan in quell'ambito specifico non hanno eguali.
gli sviluppatori dicono anche che OPenCL, quando sviluppato a dovere (e adesso lo sta iniziando ad essere, almeno in alcuni ambiti), è meglio di CUDA anche a livello prestazionale
AceGranger
27-10-2013, 17:22
non so dove vivi tu ma "quei bench" sono fatti con applicazioni professionali che, evidentemente, girano anche su amd e non sicuramente peggio di quanto facciano su nVidia; alcune di queste con motori programmati con CUDA (e anche li nessun vantaggio per nVidia)
adesso Folding Home, Bitmining, decrittare le password, Luxrender e le altre minchiatine che girano nelle review sono programmi professionali... devono essere proprio tanti questi software, sara per questo che AMD ha il fantasmagorico 19%.
Il rapporto fra Applicativi CUDA/OpenCL dove vale la pena prendere nVidia, e applicativi OpenCL dove vale prendere AMD, nella migliore delle situazioni sara 5-6 a 1 ma proprio facendo una festa. Persino in campo Supercomputer dove il software è cucito a pennello sul sistema e le tue super AMD sono inesistenti e ci sono solo nVidia.
secondo te dove titan va peggio della 780 (stesso chip) i driver penalizzano solo la prima? E per quale miracolosa ragione?
e secondo te invece perchè va peggio se il chip e i driver sono gli stessi ? mi sembra chiaro che ci sia qualcosa che non va che non è imputabile all'hardware in se;evidentemente quel software ha problemi a riconoscere e sfruttare la Titan.
tutti i SW testati da tom, a parte quelli specifici con CUDA (non quelli con engine progettato con CUDA ma i test sintetici in CUDA), girano su AMD e tra quelli non pare ci sia photoshop.
non in quella, da che ricordi ne ha fatte almeno 3 di recensioni con OpenCL.
a me pare che 780 e titan siano lo stesso chip e, forse ti è sfuggito, ma si parlava di fluidmark
tra 2688 e 2304 la differenza mi pare molto leggera e il chip è lo stesso; ma tu hai detto che titan in fluidmark va peggio per colpa dei driver e hai farneticato di parallelizzazione
citavi anche la 680, ho fatto il confronto anche su quello
gli sviluppatori dicono anche che OPenCL, quando sviluppato a dovere (e adesso lo sta iniziando ad essere, almeno in alcuni ambiti), è meglio di CUDA anche a livello prestazionale
e quando verra quel giorno, se sara la migliore, tornero ad essere un felice possessore di una VGA AMD, fino a quel giorno pero, di un futuro tanto radioso quanto indefinito e nemmeno certo, continueranno a valere la % che valgono oggi.
yossarian
27-10-2013, 17:46
adesso Folding Home, Bitmining, decrittare le password, Luxrender e le altre minchiatine che girano nelle review sono programmi professionali... sara per questo che AMD ha il fantasmagorico 19%
prova con catia, pro-e, ecc, ecc. e vedi se i risultati cambiano; e non venire a raccontare frottole che quei SW non girano su AMD perché è una gran cazzata. Non solo ci girano, nonostante molti abbiano engine programmati con CUDA, ma non fanno affatto peggio delle nVidia, titan compresa.
il rapporto fra Applicativi CUDA/OpenCL dove vale la pena prendere nVidia, e applicativi OpenCL dove vale prendere AMD, nella migliore delle situazioni sara 5-6 a 1. Persino in campo Supercomputer dove il software è cucito a pennello sul sistema e le tue super AMD sono inesistenti.
se parli di ambiente di sviluppo dei motori grafici è un conto, ma il mercato della grafica pro è solo in parte rappresentato da quello; poi c'è chi usa i SW sviluppati con CUDA o OpenCL e quei SW girano tranquillamente anche su AMD, fattene una ragione. Che poi nVidia abbia l'80% di market share può essere motivato da tanti altri fattori: un supporto, al momento, migliore, una miglior pubblicità. Prendendo la tua affermazione e trasportandola altrove sarebbe come affermare che samsung fa i migliori telefoni o hilti gli elettroutensili professionali migliori o canon le migliori macchine fotografiche o MS i migliori OS. Fanno tutte e tre ottimi prodotti ma ci sono altri che fanno prodotti altrettanto validi ma vendono meno per tutta una serie di ragioni diverse dalla qualità assoluta. E questo anche tra i professionisti.
e secondo te invece perchè va peggio se il chip e i driver sono gli stessi ? mi sembra chiaro che ci sia qualcosa che non va che non è imputabile all'hardware in se.
non può essere imputabile sicuramente ai driver: non con gli stessi driver e stessa architettura. Magari sarebbe da andare a vedere qual è il collo di bottiglia con quel SW :rolleyes:
e quando verra quel giorno, se sara la migliore, tornero ad essere un felice possessore di una VGA AMD, fino a quel giorno pero, di un futuro tanto radioso quanto indefinito e nemmeno certo, continueranno a valere la % che valgono oggi.
e perché; se OpenCL dovesse superare CUDA potrai continuare a utilizzare CUDA ma anche OpenCL con VGA nVidia.
AceGranger
27-10-2013, 18:05
prova con catia, pro-e, ecc, ecc. e vedi se i risultati cambiano; e non venire a raccontare frottole che quei SW non girano su AMD perché è una gran cazzata. Non solo ci girano, nonostante molti abbiano angine programmati con CUDA, ma non fanno affatto peggio delle nVidia, titan compresa.
stai continuando a confondere viewport ed engine di GPGPU.... Catia, Pro-E NON hanno engine CUDA e nemmeno OpenCL; TUTTI i software CAD CAM o di Modellaizione usano come engine le DirectX, le OpenGL o, nel caso di 3DMax, anche i Nitruos ( che dovrebbero essere una cosa simile alle DirectX). Quasi tutti gli engine per il rendering di quei programmi sono tutti basati su CPU, i rendering engine GPGPU per quei programmi, per quelli che li hanno, sono delle plugin esterne ma sono praticamente tutti CUDA.
ripeto, viewport ed engine render non sono la stessa cosa ! e stavamo parlando di GPGPU.
e perché; se OpenCL dovesse superare CUDA potrai continuare a utilizzare CUDA ma anche OpenCL con VGA nVidia.
bè chiaro, ma credo che AMD sia piu pronta su OpenCL, quindi spero che cerchi di mantenere questo vantaggio. Se i software che uso andranno meglio su AMD, e se le sue VGA avranno un hardware consono ai miei utilizzi, i miei soldi andranno a lei.
tuttodigitale
27-10-2013, 18:19
adesso Folding Home, Bitmining, decrittare le password, Luxrender e le altre minchiatine che girano nelle review sono programmi professionali... devono essere proprio tanti questi software, sara per questo che AMD ha il fantasmagorico 19.
ma anche no
Il test finale nella nostra suite di benchmark di calcolo è il nostro personalissimo benchmark SystemCompute del Dr. Ian Cutress , che è una raccolta di diversi algoritmi di calcolo fondamentali.
http://images.anandtech.com/graphs/graph6774/53401.png
Sorprendentemente, per tutti i suoi guadagni di prestazioni elativi alla GTX 680, Titan cade ancora alla 7970GE qui. Dato le prestazioni teoriche di Titan e la natura fondamentale di questo test ci saremmo aspettati di fare meglio.
Andrebbe detto per correttezza che queste sono le prestazioni su singola scheda. Con decine di gpu parallele la situazione dovrebbe ribaltarsi, ma non con Titan che è dotato di un gk110 privo del Hyper-Q che stando alle slide permette di ottenere prestazioni triple con 30+ schede.
PS è proprio nei software inutili come la decifratura di password che le kepler, anche il gk104, sono competitive. L'ho detto e lo ripeto: le prestazioni di gkk110 sono mediamente ottime quanto quelle Tahiti in OpenCL, eccellenti quelle di Hawaii, e dal buono al pessimo quelle di gk104.
Sulle indiscutibili qualità dell'architettura GCN nel GPGPU vorrei che non ci fossero dubbi. Semmai è più utile soffermarci con quali software è possibile sfruttare tutta questa potenza di calcolo
AceGranger
27-10-2013, 18:32
PS è proprio nei software inutili come la decifratura di password che le kepler, anche il gk104, sono competitive. L'ho detto e lo ripeto: le prestazioni di gkk110 sono mediamente ottime quanto quelle Tahiti in OpenCL, eccellenti quelle di Hawaii, e dal buono al pessimo quelle di gk104.
forse non ci indendiamo, io non ho mai detto che generalmente AMD in OpenCL non sia prestazionalmente avanti, men che meno che la Titan sia sempre la migliore VGA per il GPGPU e ancora meno che la Titan sia ottima in OpenCL.
Il discorso è nato dutto dalla domanda "dove la Titan sarebbe una VGA adatta ai professionisti" tale da definirla cosi, e io ho semplicemente scritto e parlato praticamente solo di quell'ambito specifico dove lo è.
Non metto assolutamente in dubbio che idealmente le AMD siano superiori alle nVidia in molti frangenti, ok prendo atto che AMD va piu forte in quella suite di algoritmi, ma praticamente, nella realta si dimostra poco.
Per ultimo, non metto nemmeno in dubbio che OpenCL stia avanzando e che esistano software professionali basati su OpenCL dove le AMD vanno meglio delle nVidia, ma praticamente è ancora molto, molto meno diffusa di nVidia & CUDA, e non ho nemmeno disquisito sul perchè la situazione sia quella.
non ho mai scritto AMD sempre male e nVidia sempre bene a 360°, l'ho scritto solo riguardante il mondo della grafica dei renering GPGPU, e non mi sembra di aver scritto cose non vere.
Ale55andr0
27-10-2013, 18:34
Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.
.
:D
la patch esce a dicembre ;)
PaulGuru
27-10-2013, 18:51
Qualcuno sà qualcosa riguardo al pacchetto giochi che dovrebbe regalare AMD assieme a queste schede ? lo hanno tolto ?
Free Gordon
27-10-2013, 23:18
A mio avviso adesso AMD tenterà di mettere la zampetta nel Cry Engine e nell'Unreal Engine, anche pagando, come fatto con il Frost.
Col Cry engine è fattibile (sta sempre sotto EA....quindi ci metteranno poco a portarlo in Mantle) ma con Epic la vedo molto dura........ :D sono verdissimi da sempre là dentro :D
yossarian
28-10-2013, 00:40
Col Cry engine è fattibile (sta sempre sotto EA....quindi ci metteranno poco a portarlo in Mantle) ma con Epic la vedo molto dura........ :D sono verdissimi da sempre là dentro :D
la DP su hawaii l'hanno "castrata" volutamente. In teoria potrebbe arrivare ad 1/2 della capacità di calcolo in SP (rispetto al valore di 1/4 dei chip precedenti), per cui c'è da aspettarsi una firepro da 2800 Gflops
Qualcuno sà qualcosa riguardo al pacchetto giochi che dovrebbe regalare AMD assieme a queste schede ? lo hanno tolto ?
Al momento non e' previsto, lo puoi ancora avere con le schede della serie 7000 acquistando da HRW, Eprice, Monclick, Next.
http://sites.amd.com/PublishingImages/Public/Graphic_Illustrations/PNG/Level-Up-Matrix-968W.png
tuttodigitale
28-10-2013, 10:26
:D
la patch esce a dicembre ;)
chissà le prestazioni: AMD un mese fa disse che in BF4 con la patch mantle la R9 290x "coprirà di ridicolo" la Titan. L'incremento prestazioni ottenubile con questa prima patch segnerà probabilmente il futuro di Mantle, da un buon 10% di vantaggio prestazionale che di primo acchito mi aspetterei, vedendola sotto un altra luce (E' LA patch) direi che Mantle se non farà segnare almeno un +20%, sarà difficile che il supporto per le API di AMD sarà esteso su altri motori grafici..
PaulGuru
28-10-2013, 12:21
chissà le prestazioni: AMD un mese fa disse che in BF4 con la patch mantle la R9 290x "coprirà di ridicolo" la Titan. L'incremento prestazioni ottenubile con questa prima patch segnerà probabilmente il futuro di Mantle, da un buon 10% di vantaggio prestazionale che di primo acchito mi aspetterei, vedendola sotto un altra luce (E' LA patch) direi che Mantle se non farà segnare almeno un +20%, sarà difficile che il supporto per le API di AMD sarà esteso su altri motori grafici..
Io non ho visto alcun demo dimostrativo di questo Mantle e non capisco da dove escono sti numeri, 10, 20, 50, 70, 80 ..... cos'è una pubblicità del Lotto ?
A dire sta cosa è stata AMD e sinceramente io finchè non vedo ci andrei con i piedi di piombo, anche Bulldozer doveva battere Intel secondo loro.
Free Gordon
28-10-2013, 12:58
la DP su hawaii l'hanno "castrata" volutamente. In teoria potrebbe arrivare ad 1/2 della capacità di calcolo in SP (rispetto al valore di 1/4 dei chip precedenti), per cui c'è da aspettarsi una firepro da 2800 Gflops
Ma quindi è a livello di Tahiti? 1/4?
Allora non mi spiego alcuni risultati nei bench..
CrapaDiLegno
28-10-2013, 13:12
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.
Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Se con la Titan faccio cose che con la R9 290X che costa la metà (ma fosse anche la GTX780 super mega hyper clocked da 10W) non posso fare, allora il prezzo diventa quello della finalità della scheda.
Prendi una Mustang da 200 CV da 30K euro. Prendi un trattore da 250CV da 70K euro. Secondo te quei 50CV giustificano la differenza di prezzo?
Il ragionamento da parte di nvidia è semplice: ci puoi fare GPGPU a livello quasi professionale perché te lo sto permettendo (con DP e abbondante RAM)? Allora te la faccio pagare meno di una scheda professionale (che ha ben altre caratteristiche, su questo non c'è dubbio) ma sicuramente di più di una scheda da gioco con cui al massimo ci fai girare stupidissimi benchamark per vantarti con gli amici.
Prendere una 7970 con 12 o anche 24GB di RAM al prezzo di un gelato sarebbe comunuqe inutile, perché gli algoritmi dei SW professionali usano tutti CUDA e dei benchmark Luxrender e di crittografia i loro utilizatori se ne fregano.
Di algoritmi professionali scritti in OpenCL non ce ne sono per ora. Quando (e se) ci saranno, si faranno i dovuti confronti. Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.
Punto, fine della giustificazione.
Il fatto che in alcuni bench la Titan non vada più del GK104 (anzi va proprio uguale), per favore, non farmela passare come un prblema del GK110. E' evidente che il problema è il supporto SW, che siano i driver o l'algoritmo stesso (per quello detto prima, come scrivi l'algoritmo conta).
Se la GTX780 va il 50% di più della Titan, quale può essere il problema se non una mancanza di riconoscimento delle risorse disponibile da parte del programma?
Modificato il componente SW, ecco che la scheda torna a fare quello che si si aspetta quand sfrutta il 180% delle risosrse in più che ha rispetto al GK104, o il 110% rispetto alla più vicina GTX.
Solo che ovviamente la cosa ha valore se
1. nvidia o chi per essa ha interesse a fare in modo che la scheda vada veloce in quel benchmark o in quella particolare applicazione
2. che in tal caso il test sia rifatto
Dai su, non facciamo i bambini che cercano di giustificare in tutti i casi le proprie convinzioni. Abbiamo capito chiaramente che secondo te la CGN è l'architettura "più migliore della galassia", ma non scadere nel ridicolo quando ti si fa presente che nel mondo reale ha i suoi evidenti problemi a farsi apprezzare (e pagare) mentre la "più modesta sennò totalmente innefficiente" architettura nvidia per ora ha dimostrato di funzionare i maniera soddisfacente e per tanto NVIDIA SE LA FA PAGARE.
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe :D
CrapaDiLegno
28-10-2013, 13:46
@PaulGuru
Quindi per 6000 stream non intesi come gli stessi stream di Kepler ma totalmente differenti perchè nemmeno con 20nm si possono triplicare gli stream di una 780.
No, ci sono delle cose che ti sfuggono per affermare questo:
1. gli stream processors non sono il 100% del die della GPU, percui tripicali non vuol dire necessariamente triplicare la superficie.
2. Sembra che con Maxwell nvidia abbia abbandonato le doppie unità di esecuzione SP/DP in favore, come per AMD, di una architettura SP in grado di fare calcoli DP abbinando 2 unita SP " a run time".
Questo vuol dire che le 64 unità DP presenti negli SMX che oggi non sono contati nel totale sono semplicemente "trasformate" in SP. Ammettendo di distribuire il supporto per la funzionalità DP tra tutte le altre unità SP presenti (che dovranno diventare un po' più grandi per poter essere trasformate da 2xSP a 1xDP), si può ipotizzare che la superficie rimanga la stessa.
Il totale comunque sono sempre 256 unità di calcolo per SMX, questa volta omogenee e più flessibili rispetto a prima (192+64).
Non serve quindi triplicare la superficie neanche della sezione degli shader per avere il triplo degli shader in funzione. A occiho quell'area è solo raddoppiata (come è classico ad ogni die shrink) però il rendimento in unità di calcolo è molto più alto del 200%.
E se l'idea è quella di avere una unità DP sommando due unità SP per tutte le unità SP in un SMX, allora si raddoppia anche la capacità di calcolo in DP. Se così funziona direi che nvidia aumenterà ancora di più l'efficienza della sua architettura rispetto a quello che già riesce ad avere oggi riseptto a CGN (che già usa questo tipo di soluzione).
tuttodigitale
28-10-2013, 16:26
forse non ci indendiamo, io non ho mai detto che generalmente AMD in OpenCL non sia prestazionalmente avanti, men che meno che la Titan sia sempre la migliore VGA per il GPGPU e ancora meno che la Titan sia ottima in OpenCL.
Non mi sembra proprio. Infatti ti ho detto che in un benchmark, che dovrebbe essere significativo (se ci fidiamo di Anandtech e dall'università che l'ha prodotto) GK110 esce con le ossa rotte con Tahiti figuriamoci con Hawaii.
E giusto per dover di cronaca, il secondo supercomputer più efficiente al mondo è basato su soluzioni GCN, direi che l'architettura di AMD non faccia poi così schifo (qualcuno in questo thread addirittura aveva detto che NESSUNO usa le Firepro per HPC).
Per il resto condivido il tuo giudizio tecnico sulla questione. Ma se l'acquisto di una Titan ha senso, e lo ha in particolari condizioni di utilizzo, non si può non obiettare chi dice (Crapadilegno) che con Titan nvidia ha definito una nuova fascia, che ha nominato prosumer :muro:
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.
Ora non per difendere yossarian, che forse non conosceva i problemi relativi alla poca dotazione di vram, ha ragione quando dice che questa è una scheda gaming. Che possa essere fatto un uso professionale esattamente come si faceva un paio di anni fa con la GTX580 da 3GB è un altro paio di maniche.
A me sembra di capire che tu ti sia fatto abbindolare dal marketing di nvidia. La realtà è questa: una GTX580 1,5GB sta ad una GTX580 OC da 3GB come una GTX780 sta ad una Titan. Niente di più e niente di meno.
Quello che cambia è:
1) il marchio Titan. (belloooo:ciapet: )
2) potenza piena in DP...che serve come è noto ai professionisti che non possono permettersi scheduzze da poche migliaia di euro, per delle simulazioni che ne valgono milioni.
Queste 2 cose non giustificano il rincavo di nvidia. Da 550 euro di una GTX 3GB si è passati ai 1000 di titan...in 2 anni il raddoppio della ram a parità di costo era lecito attenderselo.
Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Capisco in parte il tuo punto di vista.
Ma non c'è dubbio che dopo ben 2 anni per restare in casa nvidia per avere il raddoppio della vram si deve spendere il doppio. QUesto è il punto.
Domani mattina AMD-nvidia portano il listino della fascia entusiast da 500euro (pardon 1000 per nvidia :eek:, #) a 2000 euro, perchè vietano ai produttori di dotare le loro GPU di fascia inferiore al massimo con 1GB di ram...
@yossarian
Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.
Qui ti volevo...se fai rendering della DP non te fai una cippa, se ti serve forse perchè fai delle simulazioni, e in tal caso il supporto al ECC è necessario.
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe :D
Più che puntoGT, la HD7970/r9 290x sono delle ferrari che devono ancora ottenere l'omologazione su strada. La puntoGT imho, rimangono le schede basate su Gk104,
CrapaDiLegno
28-10-2013, 16:52
Qui ti volevo...se fai rendering della DP non te fai una cippa, se ti serve forse perchè fai delle simulazioni, e in tal caso il supporto al ECC è necessario.
Non te ne fai una pippa, forse. nvidia la fa pagare e quindi se nella Titan c'è paghi. Punto. Se non ti serve, compri una 780/580/7970/290X/
Ci sono 6 GB di RAM con cui fare tutto il GPGPU che il GK110 è in grado di fare (non certificato) e costa 1000 euro. L'alternativa è una Quadro: 4000 euro.
La 7970/290X/780 sono e rimangono Punto GT perché puoi avere tutta la potenza (potenziale) che vuoi ma se alla fine non la puoi usare per fare niente, queste le usi per i benchamrk quelle per fare il ganzo in paese.
Per correre non serve necessariamente una F1, ma almeno una macchina che non fa solo rumore e a 200 all'ora sia a palla con i pistoni che esplodono.
Con tutto rispetto, anche di una suite di bench fatta da una università ci faccio poco. Prova a chiederti perché non ci sono confronti fatti con prodotti professionali. Perché il risultato sarebbe nvidia 100, AMD 0 indipendentemente da quanti GFlops, RAM, GHz o W le scehe AMD siano in grado di offrire.
Semplicemente i benchmark bisogna inventarseli e in questo modo si testta solo un solo caso tra particolare algoritmo usato e dati datogli in pasto.
Gli stesso bench fatti con i programi professionali contano poco se ad esempio non si specifica quanto grande è una scena a renderizzare: una scena da 1,5GB su 580 è diversa da una da 3GB su 580 OC con 3GB di RAM che è a sua volta diversa da una da 6GB che può essere renderizzata SOLO sulla Titan.
Io non mi sono fatto per niente abbindolare dal marketing nvidia. Nè da quello AMD se è per quello. Come già detto uso schede di altro livello (ben inferiore) che bastano e stra avanzano per quello che faccio io.
Perché io so quello che compro. Non compro una Titan pagandola fior fior di quattrini perché così posso fare 10 FPS in più in BF4 e poi mi lamento se esce una 290X che va uguale e costa la metà (o prendo solo in considerazione di fare un confronto tra le due schede).
Io ho capito a cosa serviva la Titan quando è uscita e non mi sono stupito di vedere una 780 che andava poco meno a 400 euro in meno, così come non mi stupisco che tra un po' esce una 780 Ti che costa sempre 350 euro in meno e andrà addirittura di più.
Mi sembra invece che sono coloro che si sono fatti fregare dal marketing nvidia che ancora, un po' dappertutto, continuano con la questione Titan vs 290X-metà-prezzo-stesse prestazioni. Gli nvidiani che si lamentano perché non hanno capito cosa compravano, gli AMDiani che esultano perché non hanno capito che la 290X non ha nessuna pretesa di mettersi in competizione con essa.
E la dimostrazione è questa:
http://www.hwupgrade.it/news/skvideo/nuovi-prezzi-per-le-schede-nvidia-geforce-gtx-780-e-770_49421.html
Della Titan nessuna traccia.
Game over e fine OT
tuttodigitale
28-10-2013, 16:57
A dire sta cosa è stata AMD e sinceramente io finchè non vedo ci andrei con i piedi di piombo, anche Bulldozer doveva battere Intel secondo loro.
AMD è stata condizionata anche da quello che gli riferivano i tecnici di GF, e avevano previsto i 4,5 a default senza nessun tipo di tecnologia risonante.
Anche Ibm ha detto che le sue cpu dovevano viaggiare a 5,5GHz, peccato che si siano fermate a 4,16GHz...
Diciamo che a spararla grossa in quel caso è stata GF/IBM che hanno lavorato sui 32nm. E gli stessi studi IBM riportano che l'ideale per i 32nm era un'architettura FO4 17.
Io non ho visto alcun demo dimostrativo di questo Mantle e non capisco da dove escono sti numeri, 10, 20, 50, 70, 80 ..... cos'è una pubblicità del Lotto ?
La patch è ritenuta da tutti l'unica vera possibilità per Mantle di dimostrare le sue qualità.
In altri termini , o i guadagni prestazionali sono tangibili (imho 10% non lo è) o AMD avrà fatto un buco nell'acqua. Ma un affermazione così forte (la R9 290x non sarà solo più veloce, ma umilierà la Titan) da parte di coloro che stanno contribuendo in parte alla stesura del codice di basso livello fa pensare che le prestazioni con GCN subiranno un'impennata (le patch per le API Glide incrementavano le prestazioni in maniera impressionante)
yossarian
28-10-2013, 17:06
stai continuando a confondere viewport ed engine di GPGPU.... Catia, Pro-E NON hanno engine CUDA e nemmeno OpenCL; TUTTI i software CAD CAM o di Modellaizione usano come engine le DirectX, le OpenGL o, nel caso di 3DMax, anche i Nitruos ( che dovrebbero essere una cosa simile alle DirectX).
dx, opengl, nitruos, sono set di librerie. Le prime due standard la terza proprietaria. Non si tratta di engine ma di API. I motori grafici sono un'altra cosa e possono essere scritti in CUDA, OpenCL o chi per essi (anche dx o opengl). Quello che non mi è chiaro è a cosa ti serve il gpgpu, visto che continui a paragonare titan alla quadro (che non c'entra una mazza col gpgpu). Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
Quasi tutti gli engine per il rendering di quei programmi sono tutti basati su CPU, i rendering engine GPGPU per quei programmi, per quelli che li hanno, sono delle plugin esterne ma sono praticamente tutti CUDA.
vray è anche in opencl, iray è CUDA o CPU come arion. Mental ray è solo cpu; octane è solo CUDA. Gli engine delle suite di adobe (compresi photoshop e premiere) sono anche in OPenCL e sono anche più veloci della controparte CUDA e lo stesso vale per quello di sony vegas. Quindi, dipende da cosa devi programmare; se lavori con octane allora nVidia è la scelta obbligata, s lavori con iray allora è preferibile (meglio su gpu che su cpu); però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
bè chiaro, ma credo che AMD sia piu pronta su OpenCL, quindi spero che cerchi di mantenere questo vantaggio. Se i software che uso andranno meglio su AMD, e se le sue VGA avranno un hardware consono ai miei utilizzi, i miei soldi andranno a lei.
e chi lo ha detto; anche nVidia sta investendo in OpenCL e molti degli engine sviluppati con entrambe le librerie, sono più veloci in OpenCL anche su chip nVidia.
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.
certi mondi rispecchiano le carte molto più di altri. :D
Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Se con la Titan faccio cose che con la R9 290X che costa la metà (ma fosse anche la GTX780 super mega hyper clocked da 10W) non posso fare, allora il prezzo diventa quello della finalità della scheda.
Prendi una Mustang da 200 CV da 30K euro. Prendi un trattore da 250CV da 70K euro. Secondo te quei 50CV giustificano la differenza di prezzo?
il problema è proprio questo; lo stesso AceGranger ha ammesso che una qualunque quadro gestisce le viewport meglio di titan; io aggiungo che una qualsiasi tesla gestisce il gpgpu meglio di titan. Se togli CAD/CAM e GPGPU, restano montaggio video e fotoritocco (che usano anche OpenCL). Poi, i programmi professionali sono finiti e restano i giochi. Ora, titan è una scheda che, in ambito professionale, non eccelle in niente ma si difende in tutti i campi; è, invece, un'eccellente scheda per giocare. Quindi, chi vuole una scheda tutto fare senza spendere un capitale e, ogni tanto, si diletta anche con CUDA, allora titan può essere una buona scelta. Ovvio che se i SW di gpgpu o di cad/cam li usi per lavorare (e produrre), ti serve il massimo dell'affidabilità e della velocità in quei due ambiti (e titan non può garantirti né l'una né l'altra). Di sicuro c'è che non è un prodotto professionale e la stessa nVidia nel presentarla dice che la potenza dei supercomputer è disponibile anche in un prodotto consumer (riferendosi alla sola potenza di calcolo teorica e tralasciando driver ad hoc e doppio dma engine).
Il ragionamento da parte di nvidia è semplice: ci puoi fare GPGPU a livello quasi professionale perché te lo sto permettendo (con DP e abbondante RAM)? Allora te la faccio pagare meno di una scheda professionale (che ha ben altre caratteristiche, su questo non c'è dubbio) ma sicuramente di più di una scheda da gioco con cui al massimo ci fai girare stupidissimi benchamark per vantarti con gli amici.
c'è più differenza, nel gppgu, tra una tesla e titan che non tra titan e una 780 gtx.
Prendere una 7970 con 12 o anche 24GB di RAM al prezzo di un gelato sarebbe comunuqe inutile, perché [b]gli algoritmi dei SW professionali usano tutti CUDA e dei benchmark Luxrender e di crittografia i loro utilizatori se ne fregano.
Di algoritmi professionali scritti in OpenCL non ce ne sono per ora. Quando (e se) ci saranno, si faranno i dovuti confronti.
invece ci sono, leggi sopra l'elenco
Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.
Punto, fine della giustificazione.
se vuoi fare qualcosa che ti renda soldi e ti serve la massima produttività, investi in strumenti professionali. SE sono un fotografo di professione non prendo una d7000 o una d7100 ma una d4 se mi serve la velocità o una d800 se mi serve la risoluzione.
Il fatto che in alcuni bench la Titan non vada più del GK104 (anzi va proprio uguale), per favore, non farmela passare come un prblema del GK110. E' evidente che il problema è il supporto SW, che siano i driver o l'algoritmo stesso (per quello detto prima, come scrivi l'algoritmo conta).
Se la GTX780 va il 50% di più della Titan, quale può essere il problema se non una mancanza di riconoscimento delle risorse disponibile da parte del programma?
infatti non ho mai parlato di gk104 e gk110 ma del fatto che titan non risulti tanto più veloce di una 780 da giustificare la differenza di prezzo neppure nei bench con cuda.
Alla tua domanda, la risposta è no, perché titan non ha risorse in più rispetto alla 780. Quando parlavo di collo di bottiglia mi riferivo ad altro, come, ad esempio, le frequenze di funzionamento (titan e 780 hanno lo stesso numero di RBE ma quelle della 780 lavorano a frequenza più alta e, quindi, la 780 ha un pixel fillrate più elevato di titan)
Modificato il componente SW, ecco che la scheda torna a fare quello che si si aspetta quand sfrutta il 180% delle risosrse in più che ha rispetto al GK104, o il 110% rispetto alla più vicina GTX.
Solo che ovviamente la cosa ha valore se
1. nvidia o chi per essa ha interesse a fare in modo che la scheda vada veloce in quel benchmark o in quella particolare applicazione
2. che in tal caso il test sia rifatto
vale quanto detto sopra
Dai su, non facciamo i bambini che cercano di giustificare in tutti i casi le proprie convinzioni. Abbiamo capito chiaramente che secondo te la CGN è l'architettura "più migliore della galassia", .
dov'è che avrei scritto una cosa del genere? Dai, facci ridere :sofico:
ma non scadere nel ridicolo quando ti si fa presente che nel mondo reale ha i suoi evidenti problemi a farsi apprezzare (e pagare) mentre la "più modesta sennò totalmente innefficiente" architettura nvidia per ora ha dimostrato di funzionare i maniera soddisfacente e per tanto NVIDIA SE LA FA PAGARE.
e tu non scadere nel ridicolo tentando di giustificare l'ingiustificabile. Se ti serve per "produrre" e vuoi CUDA, allora prendi quadro (per CAD) o tesla (per GPGPU), se ti serve per giocare e, saltuariamente, far girare qualche applicazione di gpgpu, allora puoi prendere titan ma anche una più modesta 780 gtx (chi scegli titan al posto di tesla non ha bisogno di tutta questa velocità nei calcoli)
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe :D
no, c'è anche altro :p
appleroof
28-10-2013, 17:25
:D
la patch esce a dicembre ;)
intendeva la patch che è uscita sulla beta
tuttodigitale
28-10-2013, 17:29
una scena da 1,5GB su 580 è diversa da una da 3GB su 580 OC con 3GB di RAM che è a sua volta diversa da una da 6GB che può essere renderizzata SOLO sulla Titan.
Fai finta di non capire.
Ti sembra che io abbia detto che la Titan è inutile?
Ti ho detto solo che la TITAN è l'erede naturale della GTX580 3GB. Peccato che nvidia abbia pensato di far lievitare il prezzo della sua migliore scheda da gioco single gpu.
Forse così è più chiaro:
quasi 3 anni fa uno prendeva la GTX580 3GB per fare rendering.
Oggi con gli stessi soldi non ti compri niente. Decidi di alzare un pochino il budget e scopri che la GTX780 ha solo 3GB di Ram come la tua obsoleta scheda video....chi mastica un pò di informatica sa che ogni 2 anni la dotazione di ram raddoppia e non si aspetterebbe che per avere 6GB (che sono come 3GB di qualche anno fa) deve spendere il doppio...
Praticamente per avere una scheda che ha prestazioni e RAM doppie dopo quasi 3 anni si deve spendere in proporzione.
Il rapporto prezzo/prestazioni è rimasto invariato dopo 30 mesi. C'è qualcosa che non va, è evidente. Questo a casa mia non si chiama progresso.
tutta la generazione a 28nm è caratterizzata da prezzi folli.
schede dotate di chip di fascia medio-alta (tahiti e gk104) venduti a 400-500 euro
una dual gpu a 1000 euro.
una Titan, che poi non sarebbe altro che la GTX 580 3GB dei nostri giorni, a 1000 euro?
Bisogna semplicemente prendere atto che è così. Ma non :mc: per giustificare prezzi che non stanno nè in cielo nè in terra.
Hanno deciso di aumentare i ricavi ma non danno molto di più a parità di costi nel gpgpu, alla faccia dell'obsolescenza precoce.
Te capì?
Giusto per completezza di info riguardo il gpgpu di titan:
ModelloTesla K20 Peak SP3,52 TFlopsPeak DP1,17
Tesla K20X Peak SP TFlops3,95 TFlops DP1,31
GeForce GTX Titan Peak SP TFlops4,5 TFlops DP 0,2TFlops (abilitando la piena velocità delle unita DP ) SP TFlops3,2 DP TFlops 1,05
CrapaDiLegno
28-10-2013, 21:05
Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
Ma la tesla più scarsa costa 3000 euro! Ed è quella basata sul GK104.
Non so come tu possa dire che 400 euro in più per una Titan sia un investimento peggiore di 2400 euro in più di una Tesla. Quest'ultima va 3 volte una Titan? Se faccio un render al giorno dove 4 ore non sono un problema, mentre 12 o + perché non ho abbastanza RAM e devo usare la CPU, se con la Tesla arrivo a 3.5 ore poco mi cambia.
Se non il fatto che ho un botto di soldi in meno in tasca.
Insomma, non c'è solo chi ha un centro di calcolo HPC o ha una render farm attiva e impegnata al 100% 24/24 dove il 10% in più significano tanti soldi e un errore in un render/calcolo significa la catastrofe mondiale o il fallimento.
vray è anche in opencl, iray è CUDA o CPU come arion. Mental ray è solo cpu; octane è solo CUDA. Gli engine delle suite di adobe (compresi photoshop e premiere) sono anche in OPenCL e sono anche più veloci della controparte CUDA e lo stesso vale per quello di sony vegas. Quindi, dipende da cosa devi programmare; se lavori con octane allora nVidia è la scelta obbligata, s lavori con iray allora è preferibile (meglio su gpu che su cpu); però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
Il fatto che non veda bench ch paragonino le velocità tra la versione OpenCL e quella CUDA mi insospettisce non poco. Sarebbe un ottimo test al di fuori delle solite baggianate che normalmente si testano con i bench sintetici che interessano solo al bambino pacioccoso che vuole dimostrare che ce l'ha più lungo del vicino di casa.
certi mondi rispecchiano le carte molto più di altri. :D
Evidentemente il tuo non fa parte di questi :Prrr:
c'è più differenza, nel gppgu, tra una tesla e titan che non tra titan e una 780 gtx.
Solo se mi dimostri che con gli engine di rendering va almeno 2 volte più veloce di una Titan. Altrimenti il gioco non vale la candela. E rimane sempre quel qualcuno a cui il doppio non serve e si accontenta della metà per un terzo del costo.
invece ci sono, leggi sopra l'elenco
Me ne hai detto 1 in OpenCL., di cui però non trovo alcun bench. I test di Adobe sono da ridere dato che tutte le prove che ho visto io sopra il livello computazionale della 660/7850 si livellano, dimostrando che con la GPU accelerano solo una piccola parte di tutto il calcolo e andare oltre fino verso ad una Titan (o persino una Quadro/FirePro) non ha alcun senso.
se vuoi fare qualcosa che ti renda soldi e ti serve la massima produttività, investi in strumenti professionali. SE sono un fotografo di professione non prendo una d7000 o una d7100 ma una d4 se mi serve la velocità o una d800 se mi serve la risoluzione.
Ma anche no. Esistono fior fiore di professionisti fotografi che non vanno in giro né con una D4 né con una 1D-X e altri che schifano pure queste ultime a favore delle medio formato. Hai scelto proprio il prodotto sbagliato per fare un confronto: di tipi di macchine fotografiche ne esistono a centinaia che coprono tutte le necessità e i desideri e definire quale che sia la macchina migliore (come si fa in certe classifiche da Donna Moderna) è praticamente impossibile, perché io fotografo da studio posso avere necessità completamente diverse dalle tue fotografo di avventura o quello da viaggio o quello da macro o quello da street (sì s', vai in giro a fare street con una 1D-X e il 70-200 f2.8.. 2 meravigliosi pezzi di tecnologia inadatte per quello scopo però).
infatti non ho mai parlato di gk104 e gk110 ma del fatto che titan non risulti tanto più veloce di una 780 da giustificare la differenza id prezzo neppure nei bench con cuda.
Alla tua domanda, la risposta è no, perché titan non ha risorse in più rispetto alla 780. Quando parlavo di collo di bottiglia mi riferivo ad altro, come, ad esempio, le frequenze di funzionamento (titan e 780 hanno lo stesso numero di RBE ma quelle della 780 lavorano a frequenza più alta e, quindi, la 780 ha un pixel fillrate più elevato di titan)
In un test c'è la Titan che va come la 680. Direi che il problema non è nessun collo di bottiglia nella Titan che ha in tutto e per tutto il 180% delle risorse del GK104. Il problema è evidentemente solo di tipo SW (o il driver di identificazione della scheda o l'algoritmo).
La Titan ha risorse in più rispetto alla 780. E questo che non vuoi ammettere. La Titan ha 3GB di RAM in più e le unità di calcolo DP. Che ti servano o meno lo decidi tu. Ma non puoi dire che una ha le stesse cose che offre l'altra. E il fatto di poter fare il rendering di scene mediamente complesse con 1000 euro invece di fare solo quelle semplici per 600, per qualcuno vale 400 euro di differenza, ma probabilmente non i duemila e passa per una Tesla. Il cui vantaggio è poi quello di poter essere usato in unità multiple, per cui il vero investimento ha validità se ne compri 2 o 3.
dov'è che avrei scritto una cosa del genere? Dai, facci ridere :sofico:
IL tuo tentativo di cercare di dimostrare la bontà oggettiva dell'architettura CGN mi sembra abbastanza palese. Purtroppo, come ti ho detto, è una architettura buonissima sulla carta. Nel mondo reale si scontra sul fatto che per anni AMD non ha investito uno e un solo dollaro nello sviluppo SW e quindi per quanto buona rimane solo sulla carta per uso professionale.
no, c'è anche altro :p
Per quanto hai detto, no non ce n'è. Non al momento almeno.
La risposta sta tutta nel post di tuttodigitale: Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali. Poi quando AMD arriva con mesi e mesi di ritardo tutti a lamentarsi ed ad accorgersi che qualcosa non va.
Qualcosa non va dal Gennaio 2012. Tra un po' saremo a Gennaio 2014. Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male.
Se AMD non sforna al più presto qualcosa di veramente competitivo
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
gesù in carne e ossa mi sà
nevets89
28-10-2013, 22:11
mah, io trovo la serie hd 7000 tra le più riuscite degli ultimi tempi e di sicuro possono competere con le nvidia (lato gaming, che penso sia pure quello più redditizio)... sinceramente non so cosa vuoi.. io vedo solo ottime schede( ho una 7850) a prezzi onesti che permettono un considerevole boost se confrontate con la serie precedente..
AceGranger
28-10-2013, 22:24
dx, opengl, nitruos, sono set di librerie. Le prime due standard la terza proprietaria. Non si tratta di engine ma di API. I motori grafici sono un'altra cosa e possono essere scritti in CUDA, OpenCL o chi per essi (anche dx o opengl).
la puoi chiamare come ti pare, ma un engine chesi appoggia solo sulel directx sono directX è un engine direct , puo essere riscritto come ti pare, ma fino quando ne usa solo una si puo tranquillamente chiamare coem le api che sfrutta, e gli engine delle viewport sono engine o DirectX, OpenGL o Nitruos.
Quello che non mi è chiaro è a cosa ti serve il gpgpu, visto che continui a paragonare titan alla quadro (che non c'entra una mazza col gpgpu).
che tu non abbia ancora capito come funzionano quei software nella varie parti lo si è capito.
Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
questa è una stupidata che continui a scrivere perchè per l'ennesima volta non sai come funzionano quei particolari software, che del doppio DMA ci si puliscono il fondoschiena, idem dei driver delle quadro, perchè per l'ennesima volta NON si parla di viewport, ma di rendering.
ora, questo video è stato fatto da www.boxxtech.com/ , fanno workstation di alta e altissima gamma specifiche per ogni tipologia di calcolo, e le configurano in tutti i modi possibili con Quadro, Tesla e GTX; il video è stato fatto per rispondere alle varie domande che gli venivano fatte per la configurazione ottimale di una Workstation per GPGPU per rendering.
quello che vedi è la finestra Real Time di Vray RT che NON centra una fava con la viewpoert e i driver, e spero di non doverlo piu ripetere.
https://www.youtube.com/watch?v=mqt3kPc0zik
oh, to guarda, funziona come sto scrivendo da nmila pagine.... nel GPGPU vince la Titan che ha piu SP a maggior frequenza.
NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte.
però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
visto che hai nominato Octane, che funziona esattamente come iRay, Vray RT e Arion, vediamo un po cosa dicono quelli della otoy:
Octane Render can run on all CUDA enabled consumer video cards (Nvidia GeForce 8000 series and up), instead of only on high-end Quadro cards that most other solutions and middleware require, but it is specifically optimized to run on Kepler (GTX 6xx, GTX 7xx, GTX Titan) and Fermi (GTX 4xx, GTX 5xx) GPUs. Kepler GPUs allow a higher texture limit (256 compared to 128 on Fermi) and are also more power efficient and more silent than Fermi cards. GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs. The GeForce GTX 780 and GTX Titan currently offer the best performance to price ratio, but any recent high end Nvidia card will offer great rendering performance with Octane.
http://render.otoy.com/faqs.php
visto che hai nominato anceh Arion, vediamo cosa consigliano i programmatori di RandomControl
http://www.randomcontrol.com/compatibility
oh Titan e GTX consigliate al pari delle Tesla....
yossarian
28-10-2013, 22:26
Ma la tesla più scarsa costa 3000 euro! Ed è quella basata sul GK104.
Non so come tu possa dire che 400 euro in più per una Titan sia un investimento peggiore di 2400 euro in più di una Tesla. Quest'ultima va 3 volte una Titan? Se faccio un render al giorno dove 4 ore non sono un problema, mentre 12 o + perché non ho abbastanza RAM e devo usare la CPU, se con la Tesla arrivo a 3.5 ore poco mi cambia.
Se non il fatto che ho un botto di soldi in meno in tasca.
Insomma, non c'è solo chi ha un centro di calcolo HPC o ha una render farm attiva e impegnata al 100% 24/24 dove il 10% in più significano tanti soldi e un errore in un render/calcolo significa la catastrofe mondiale o il fallimento.
http://www.amazon.com/NVIDIA-Tesla-K20-Accelerator-900-22081-2220-000/dp/B00AA2C1DC
qui leggo gk110. E, in ogni caso, se ti serve la produttività perché ci lavori (e guadagni), allora hai bisogno di stabilità e velocità e, quindi una tesla. Se ci cazzeggi, allora puoi impiegare un po' più di tempo ma tanto vale risparmiare e comprare una 780 gtx.
Evidentemente il tuo non fa parte di questi :Prrr:
:rotfl:
Solo se mi dimostri che con gli engine di rendering va almeno 2 volte più veloce di una Titan. Altrimenti il gioco non vale la candela. E rimane sempre quel qualcuno a cui il doppio non serve e si accontenta della metà per un terzo del costo.
:mc: se non ti serve la velocità, allora ti accontenti di una misera gtx alla metà del costo di titan. :mc:
Me ne hai detto 1 in OpenCL., di cui però non trovo alcun bench. I test di Adobe sono da ridere dato che tutte le prove che ho visto io sopra il livello computazionale della 660/7850 si livellano, dimostrando che con la GPU accelerano solo una piccola parte di tutto il calcolo e andare oltre fino verso ad una Titan (o persino una Quadro/FirePro) non ha alcun senso.
ridi, intanto ci sono sempre più engine che usano opencl e molti di questi vanno meglio in opencl che in CUDA. Se poi guardi i bench, ce ne sono diversi in cui una 780 GTX sta davanti a titan. E gli altri non giustificano la differenza di prezzo :sofico:
Ma anche no. Esistono fior fiore di professionisti fotografi che non vanno in giro né con una D4 né con una 1D-X e altri che schifano pure queste ultime a favore delle medio formato. Hai scelto proprio il prodotto sbagliato per fare un confronto: di tipi di macchine fotografiche ne esistono a centinaia che coprono tutte le necessità e i desideri e definire quale che sia la macchina migliore (come si fa in certe classifiche da Donna Moderna) è praticamente impossibile, perché io fotografo da studio posso avere necessità completamente diverse dalle tue fotografo di avventura o quello da viaggio o quello da macro o quello da street (sì s', vai in giro a fare street con una 1D-X e il 70-200 f2.8.. 2 meravigliosi pezzi di tecnologia inadatte per quello scopo però).
ignorante anche in ambito fotografico? Ho citato di proposito solo nikon ma, volendo estendere ad altri marchi, allora la 1dx fa parte della stessa stessa tipologia di macchine della d4 (o della d3, o della 1d MIV); ho specificato "se mi serve la velocità" e ti sfido a fare foto dove è richiesta rapidità di esecuzione con una medio formato o con una leica a telemetro. L?unica che hai azzeccata è stata quella delle medio formato per gli studi fotografici. Complimenti. Resta il fatto che se mi serve la velocità di scatto, di messa a fuoco e la qualità delle immagini, se sono un professionista, no guardo la d7000 (e neppure le medio formato o le leica a telemetro). E poco mi importa se la d7000 è più veloce della d3100. Seguendo il tuo discorso, invece, il professionista prende la d7000 per ché è più veloce della d3000 ma costa meno della d4. Minchia :ciapet:
In un test c'è la Titan che va come la 680. Direi che il problema non è nessun collo di bottiglia nella Titan che ha in tutto e per tutto il 180% delle risorse del GK104. Il problema è evidentemente solo di tipo SW (o il driver di identificazione della scheda o l'algoritmo).
aridaje con questo gk104. IO ho parlato di un test dove titan sta sotto la 780. Mettitelo una volta per tutte in quella zucca, ammesso che tu ci riesca. E in questo caso non regge nessuna scusa di driver o identificazione del chip o menate del genere
La Titan ha risorse in più rispetto alla 780. E questo che non vuoi ammettere. La Titan ha 3GB di RAM in più
che vanno sfruttati al meglio. Ora, dovresti sapere, prima id parlare che per un memory controller la situazione ideale è gestire 2 chip di ram per ciascun canale, per non aumentare le latenze. Ora, mentre la 780 GTX ha un bus con 6 canali e 12 chip di ram, titan ha un bus con 6 canali e 24 chip di ram, come le tesla ma, a differenza delle tesla che hanno il doppio dma per ciascun cluster di alu per dimezzare le latenze, titan ha un solo dma engine. Ora, visto che il quantitativo di ram on board serve per poter diminuire i tempi di esecuzione (perché la ram di sistema ha latenze ancora più lunghe) allungare le latenze della ram on board, anche se per raddoppiarne in quantitativo, non è la scelta più felice che si possa fare. E, infatti, con i chip professionali, nVidia si è ben guardata dal fare una cosa del genere
e le unità di calcolo DP. Che ti servano o meno lo decidi tu.
le ha anche le 780; di meno ma ce le ha. Inoltre le unità DP per il rendering non ti servono; ti servono per le simulazioni e, ad esempio, per la fuidodinamica, ma li non hai memorie ECC
Ma non puoi dire che una ha le stesse cose che offre l'altra.
non mi pare che abbia qualcosa che l'altra non ha. Magari ci sono cose che trovi sulle tesla ma non sulle geforce
E il fatto di poter fare il rendering di scene mediamente complesse con 1000 euro invece di fare solo quelle semplici per 600, per qualcuno vale 400 euro di differenza, ma probabilmente non i duemila e passa per una Tesla. Il cui vantaggio è poi quello di poter essere usato in unità multiple, per cui il vero investimento ha validità se ne compri 2 o 3.
ma anche no; le tesla hanno altri vantaggi anche su scheda singola rispetto a qualsiasi geforce, che le rendono più veloci nell'esecuzione del gpgpu
La risposta sta tutta nel post di tuttodigitale: Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali. Poi quando AMD arriva con mesi e mesi di ritardo tutti a lamentarsi ed ad accorgersi che qualcosa non va.
Qualcosa non va dal Gennaio 2012. Tra un po' saremo a Gennaio 2014. Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male.
veramente tuttodigitale ha detto, giustamente, che le attuali schede video sono vendute a prezzi folli, tutte e titan non fa eccezione.
AceGranger
28-10-2013, 22:27
dx, opengl, nitruos, sono set di librerie. Le prime due standard la terza proprietaria. Non si tratta di engine ma di API. I motori grafici sono un'altra cosa e possono essere scritti in CUDA, OpenCL o chi per essi (anche dx o opengl).
la puoi chiamare come ti pare, ma un engine che si appoggia solo sulle directx è sempre stato chiamato engine DirectX, e gli engine delle viewport sono o DirectX, OpenGL o Nitruos, non CUDA o OpenCL come hai scritto tu.
Quello che non mi è chiaro è a cosa ti serve il gpgpu, visto che continui a paragonare titan alla quadro (che non c'entra una mazza col gpgpu).
che tu non abbia ancora capito come funzionano quei software nella varie parti lo si è capito.
Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
questa è una stupidata che continui a scrivere perchè per l'ennesima volta non sai come funzionano quei particolari software, che del doppio DMA ci si puliscono il fondoschiena, idem dei driver delle quadro, perchè per l'ennesima volta NON si parla di viewport, ma di rendering.
ora, questo video è stato fatto da www.boxxtech.com/ , fanno workstation di alta e altissima gamma specifiche per ogni tipologia di calcolo, e le configurano in tutti i modi possibili con Quadro, Tesla e GTX; il video è stato fatto per rispondere alle varie domande che gli venivano fatte per la configurazione ottimale di una Workstation per GPGPU per rendering.
quello che vedi è la finestra Real Time di Vray RT che NON centra una fava con la viewpoert e i driver, e spero di non doverlo piu ripetere.
https://www.youtube.com/watch?v=mqt3kPc0zik
oh, to guarda, funziona come sto scrivendo da nmila pagine.... nel GPGPU vince la Titan che ha piu SP a maggior frequenza.
NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte.
però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
visto che hai nominato Octane, che funziona esattamente come iray, Vray RT e Arion, vdiamo un po cosa dicono quelli della otoy:
Octane Render can run on all CUDA enabled consumer video cards (Nvidia GeForce 8000 series and up), instead of only on high-end Quadro cards that most other solutions and middleware require, but it is specifically optimized to run on Kepler (GTX 6xx, GTX 7xx, GTX Titan) and Fermi (GTX 4xx, GTX 5xx) GPUs. Kepler GPUs allow a higher texture limit (256 compared to 128 on Fermi) and are also more power efficient and more silent than Fermi cards. GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs. The GeForce GTX 780 and GTX Titan currently offer the best performance to price ratio, but any recent high end Nvidia card will offer great rendering performance with Octane.
http://render.otoy.com/faqs.php
visto che hai nominato anche Arion, vediamo cosa consigliano i programmatori di RandomControl
http://www.randomcontrol.com/compatibility
oh Titan e GTX consigliate al pari delle Tesla....
ora, io dico che quello che sto scrivendo da 3 pagine sia la realta, e che i programmatori di quei software, e di chi costruisce le workstation, ti smentiscano alla grande. Quindi, io e gli altri grafici che fanno uso di questi software, acquistiamo Titan e NON Tesla, perchè altrimenti sarebbero soldi buttati nel cesso.
yossarian
28-10-2013, 22:28
Ma quindi è a livello di Tahiti? 1/4?
Allora non mi spiego alcuni risultati nei bench..
no, hawaii è 1/8 ma castrato di proposito sul chip della vga per gaming, perché potrebbe arrivare a 1/2
AceGranger
28-10-2013, 22:58
Non mi sembra proprio. Infatti ti ho detto che in un benchmark, che dovrebbe essere significativo (se ci fidiamo di Anandtech e dall'università che l'ha prodotto) GK110 esce con le ossa rotte con Tahiti figuriamoci con Hawaii.
mi sa che ti sei perso una negazione per strada... non ho scritto il contrario di quello che hai ribattuto....
E giusto per dover di cronaca, il secondo supercomputer più efficiente al mondo è basato su soluzioni GCN, direi che l'architettura di AMD non faccia poi così schifo (qualcuno in questo thread addirittura aveva detto che NESSUNO usa le Firepro per HPC).
scusa, ma questa boiata dove l'hai letta ?
http://www.top500.org/statistics/efficiency-power-cores/
il supercomputer con le HD 7970 è al 423 posto come potenza ed ha una efficienza mediocrissima del 47,2 %
il supercomputer con le FirePRO S10000 è al 52 posto come potenza ed ha un altrettanto mediocrissima efficienza del 48,5%
Giusto per rendere l'idea di come è messo il mondo GPGPU dei supercomputer con software piu che ottimizzato.... 39 nVidia - 12 Intel - 2 AMD
15 NVIDIA 2090
10 NVIDIA 2050
04 NVIDIA 2070
04 NVIDIA K20
04 Intel Xeon Phi 5110P
03 NVIDIA K20x
03 Intel Xeon Phi
02 NVIDIA 2075
02 Intel Xeon Phi SE10X
01 AMD Radeon HD 7970
01 K20M/Xeon Phi 5110P
01 Intel Xeon Phi 31S1P
01 Intel Xeon Phi SE10P
01 AMD FirePro S10000
01 Nvidia K20m
fra l'altro HD 7970, per la buona pace di chi dice che le gaming siano il male assoluto per i calcoli professionali :asd:
Per il resto condivido il tuo giudizio tecnico sulla questione. Ma se l'acquisto di una Titan ha senso, e lo ha in particolari condizioni di utilizzo, non si può non obiettare chi dice (Crapadilegno) che con Titan nvidia ha definito una nuova fascia, che ha nominato prosumer :muro:
non per dire, ma Prosumer non lo ha inventato nVidia... cito Wikipedia
"in ambito commerciale si tende a vedere il prosumer (professional–consumer) come un preciso segmento di mercato"
"Prosumer indica anche una nicchia di mercato nel campo della fotografia, del video e della registrazione Hi-Fi, relativa a prodotti in una fascia intermedia tra i modelli professionali e quelli amatoriali."
seguendo quella definizione, che credo che sia quella generalmente riconosciuta, ( che per altro viene usata spesso anche negli articoli sia qui che su Toms per descrivere appunto quel tipo di prodotti ), la Titan, in alcuni ambiti, mi pare abbastanza in linea con quella definizione, vedi post sopra.
tuttodigitale
29-10-2013, 00:57
Mi sembra invece che sono coloro che si sono fatti fregare dal marketing nvidia che ancora, un po' dappertutto, continuano con la questione Titan vs 290X-metà-prezzo-stesse prestazioni. Gli nvidiani che si lamentano perché non hanno capito cosa compravano, gli AMDiani che esultano perché non hanno capito che la 290X non ha nessuna pretesa di mettersi in competizione con essa.
La questione sulle prestazioni GTX780 e Titan è interessante per una semplice ragione.
C'è chi dice che la GTX780 ha vantaggi sulla latenza, ed è indiscutibile
Di certo anche se fosse un -30% rispetto una Tesla k20 sarebbe comunque un risultato positivo/ottimo
C'è chi dice che sono problemi di driver. Il fatto curioso è che le GTX780 e Titan dovrebbero avere il 99% del codice in comune. Ergo se ci sono problemi di driver per la Titan ci dovrebbero essere anche per la GTX780.
Se invece ci sono effettivamente cali di prestazioni dovute ai driver mi chiedo cosa vi faccia pensare che anche le Tesla ne siano affette?
E cosa vi fa pensare che nvidia abbia intenzione di migliore i driver?
scusa, ma questa boiata dove l'hai letta ?.
http://www.green500.org/lists/green201211
http://www.top500.org/statistics/efficiency-power-cores/
parlavo di efficienza energetica: GFLOPS/Watt
il supercomputer con le FirePRO S10000 è al 52 posto come potenza ed ha un altrettanto mediocrissima efficienza del 48,5%
per efficienza energetica questo è il secondo computer al mondo con 2351 GFLOPs/watt. A me non sembra che faccia poi tanto schifo.
PS forse sono gli opteron ad affossare le prestazioni per watt delle Tesla, mentre il supercomputer con GCN usa cpu Intel.
Tantè non mi sembra che io abbia affermato il falso.
fra l'altro HD 7970, per la buona pace di chi dice che le gaming siano il male assoluto per i calcoli professionali :asd:
Mi sembra che nessuno abbia detto questo. Ho parlato di esigenze particolari quali doppia precisione, feature abbastanza inutile per il professionista/amatore comune.
considerando che il Server deve stare acceso giorno e notte al massimo carico, e che i costi di gestione sono comunque molto elevati, mi sembra quanto meno azzardato usare sistemi privi di un banale controllo della parità.
sono curioso di sapere per cosa viene usato questo super(?)computer:confused:
Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali.
Aspetta. Sul piano HW AMD è competitiva. Nel GPGPU se vogliano dirla tutta è stata proprio nvidia ad inseguire AMD con i prodotti consumer: la prima soluzione in grado di rivaleggiare con Tahiti è stata dopo 14 mesi Titan, che con i suoi 6GB di Ram pareggiava il meglio che c'era in commercio a 400/450 euro.
Questo parlando sul piano squisitamente tecnologico.
L'unica ragione per preferire Titan ad una altrettanto prestante HD7970 da 6GB è il supporto software. Poi anche i driver delle schede consumer di AMD sono molto meno limitanti di quelle nvidia, le quali offrono prestazioni inferiori di un fattore 10 rispetto alle professionali di fascia medio-alta nel view-port.
Quindi AMD non deve sfornare assolutamente nulla deve solo dare un appoggio (economico) maggiore agli sviluppatori. Tutto qui.
http://www.randomcontrol.com/compatibility
oh Titan e GTX consigliate al pari delle Tesla....
attenzione....consigliano anche le GTX780 a pari delle TITAN e quindi dai ragione a Yossarian. E comunque mi sembrano votazioni date un pò a c@zzo di cane...cioè una GTX570 ha 2 stelline mentre una GTX580M ne ha 4. Cioè una gpu da notebook con il GF114 pesantemente undercloccato va meglio (molto meglio secondo quel sito) di un GF110 a clock pieno anche se parzialmente disabilitato, mentre la GTZ560Ti che ha lo stesso chip ma a clock pieno a solo 1 stella...
E una GTX680 va quanto una GTX580...e cosa molto simpatica che anche la GTX670 perde due stelline, esattamente come la GTX570. Eppure sul piano HW la gtx 670 differisce di un niente dalla sorella maggiore
Sembra più una pubblicità per spingere le vendite di scheduzze nvidia di fascia più alta-
Ma stiamo scherzando?
yossarian
29-10-2013, 01:03
l
questa è una stupidata che continui a scrivere perchè per l'ennesima volta non sai come funzionano quei particolari software, che del doppio DMA ci si puliscono il fondoschiena,
quindi non hanno necessità di accedere alla ram di sistema?
lidem dei driver delle quadro, perchè per l'ennesima volta NON si parla di viewport, ma di rendering.
i tcc sono driver delle tesla non delle quadro
ora, questo video è stato fatto da www.boxxtech.com/ , fanno workstation di alta e altissima gamma specifiche per ogni tipologia di calcolo, e le configurano in tutti i modi possibili con Quadro, Tesla e GTX; il video è stato fatto per rispondere alle varie domande che gli venivano fatte per la configurazione ottimale di una Workstation per GPGPU per rendering.
quello che vedi è la finestra Real Time di Vray RT che NON centra una fava con la viewpoert e i driver, e spero di non doverlo piu ripetere.
https://www.youtube.com/watch?v=mqt3kPc0zik
oh, to guarda, funziona come sto scrivendo da nmila pagine.... nel GPGPU vince la Titan che ha piu SP a maggior frequenza.
NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte.
http://www.youtube.com/watch?v=yFzxNzTFdK0
questo è un video identico al tuo, dove, oltre alla tesla k20, a titan, alla 780 GTX, c'è la quadro k6000 e, soprpresa, titan vince ancora. Ora, i dati delle gpu sono i seguenti
http://www.tomshw.it/cont/news/nvidia-quadro-k6000-la-gpu-gk110-alla-massima-potenza/47890/1.html
e, altra sorpresa, la k6000 ha più Tflops e il doppio della ram di titan. Quindi i casi sono due: o quei test sono fatti con i piedi, oppure non è vero che contano solo potenza di calcolo e quantitativo di ram per questo genere di applicazioni, Inoltre sarei curioso di sapere qual era la configurazione di quei test, sia hardware che software :rolleyes:
NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte.
visto che hai nominato Octane, che funziona esattamente come iray, Vray RT e Arion, vdiamo un po cosa dicono quelli della otoy:
Octane Render can run on all CUDA enabled consumer video cards (Nvidia GeForce 8000 series and up), instead of only on high-end Quadro cards that most other solutions and middleware require, but it is specifically optimized to run on Kepler (GTX 6xx, GTX 7xx, GTX Titan) and Fermi (GTX 4xx, GTX 5xx) GPUs. Kepler GPUs allow a higher texture limit (256 compared to 128 on Fermi) and are also more power efficient and more silent than Fermi cards. GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs. The GeForce GTX 780 and GTX Titan currently offer the best performance to price ratio, but any recent high end Nvidia card will offer great rendering performance with Octane.
http://render.otoy.com/faqs.php
best performance to price ratio ha un significato decisamente diverso da best performance
visto che hai nominato anche Arion, vediamo cosa consigliano i programmatori di RandomControl
http://www.randomcontrol.com/compatibility
oh Titan e GTX consigliate al pari delle Tesla....
ora, io dico che quello che sto scrivendo da 3 pagine sia la realta, e che i programmatori di quei software, e di chi costruisce le workstation, ti smentiscano alla grande. Quindi, io e gli altri grafici che fanno uso di questi software, acquistiamo Titan e NON Tesla, perchè altrimenti sarebbero soldi buttati nel cesso.
e, guarda caso, titan e 780 gtx sono consigliate nella stessa misura (5 stelle per ciascuna) e, considerato che dai test precedenti (in video) e da quelli visti su anandtech e tom's hardware, anche nel gpgpu rendering tutta questa differenza tra titan e 780 GTX non c'è, e considerato che, anche in quei test, pare che il quantitativo di memoria non sia una discriminante (ma pare che anche la potenza di calcolo non sia un valore assoluto), almeno a giudicare dai risultati, continuo a restare dell'idea che, se come sostieni, i soldi per le tesla sono buttai al cesso, dovendo fare una scelta che vada in direzione del rapporto prezzo /prestazioni, la 780 GTX continua ad essere preferibile, soprattutto alla luce del calo di prezzo e titan non appartiene ad una sua categoria a sé stante, né secondo nVidia né secondo gli sviluppatori che hai citato
AceGranger
29-10-2013, 01:21
parlavo di efficienza energetica: GFLOPS/Watt
e il link che ti ho messo è proprio la classifica UFFICIALE dell'efficienza dei supercomputer con l'efficienza dei vari supercomputer,, ed essendo il VERO sito UFFICIALE è quello che conta.
attenzione....consigliano anche le GTX780 a pari delle TITAN e quindi dai ragione a Yossarian.
se uno le usa per preview di oggetti di desing possono anche essere sufficienti 3 Gb, e in quel caso le 780 rappresentano la scelta migliore come prezzo/prestazioni, dipende da caso a caso.
c@zzo di cane...cioè una GTX570 ha 2 stelline mentre una GTX580M ne ha 4. Cioè una gpu da notebook con il GF114 pesantemente undercloccato va meglio (molto meglio secondo quel sito) di un GF110 a clock pieno anche se parzialmente disabilitato, mentre la GTZ560Ti che ha lo stesso chip ma a clock pieno a solo 1 stella...
dio mio... state iniziando veramente ad aggrapparvi alle peggio minchiate.
secondo te, se uno vuole una preview GPGPU sul portatile cosa fa ? un art attack con una GTX 570 ? non mi sembrava veramente necessario spiegare che le stelle mobile sono "slegate" da quelle desktop.
Ma stiamo scherzando?
bho dimmelo tu, qui vedo gente parlare di software che nemmeno usa e che scopre oggi della loro esistenza che sostengono di sarpere quali siano le VGA migliori per quei software :asd:
CrapaDiLegno
29-10-2013, 01:23
Yoss, stiamo un po' scadendo nel ridicolo..vado per punti.
:mc: se non ti serve la velocità, allora ti accontenti di una misera gtx alla metà del costo di titan. :mc:
Ma anche no, vedi sotto. E ti contraddici pure.
Qui dici che "se non ti serve velocità" e poi mi dici che la 780 in alcuni test è più veloce... è ovvio che la velocità non è il criterio n. 1 dell'utenza che usa la Titan (non solo per videogiocare, si intende).
Perché , per la milionesima volta, ma non smetterò di ripeterlo, con la dotazione Titan puoi fare cose che con la 780 non puoi.
Ne fai meno di quelle che puoi fare con una Tesla? Ovvio. Costa anche moooolto meno. E non ci fai solo calcoli.
ridi, intanto ci sono sempre più engine che usano opencl e molti di questi vanno meglio in opencl che in CUDA. Se poi guardi i bench, ce ne sono diversi in cui una 780 GTX sta davanti a titan. E gli altri non giustificano la differenza di prezzo :sofico:
Se ci fai l'elaborazione delle fotografie non è giustificato nulla che sta sopra una 660/7580. Neanche a livello super Pro. Che tanto più di così non va perché il collo di bottiglai non è la GPU ma l'algoritmo che è accelerato solo per una minima parte. Semplice applicazione pratica della legge di Amdahl.
Intanto ci sono sempre più engine OpenCL.. intanto non li vedo usati da nessuna parte. O non sono nei SW giusti o non sono all'altezza di quelli che ora esistono (e sono scritti per CUDA).
ignorante anche in ambito fotografico? Ho citato di proposito solo nikon ma, volendo estendere ad altri marchi, allora la 1dx fa parte della stessa stessa tipologia di macchine della d4 (o della d3, o della 1d MIV); ho specificato "se mi serve la velocità" e ti sfido a fare foto dove è richiesta rapidità di esecuzione con una medio formato o con una leica a telemetro. L?unica che hai azzeccata è stata quella delle medio formato per gli studi fotografici. Complimenti. Resta il fatto che se mi serve la velocità di scatto, di messa a fuoco e la qualità delle immagini, se sono un professionista, no guardo la d7000 (e neppure le medio formato o le leica a telemetro). E poco mi importa se la d7000 è più veloce della d3100. Seguendo il tuo discorso, invece, il professionista prende la d7000 per ché è più veloce della d3000 ma costa meno della d4. Minchia :ciapet:
Va be', se mi dai dell'ignorante ANCHE in campo fotografico allora siamo tutti a posto.
A parte questo, questa è una delle tue tante risposte non risposte, ovvero una serie di parole che non dimostrano nulla di pratico.
Tanto per dirne una ci sono fior fiore di fotografi che necessitano di velocità ma preferiscono la 7D alla ammiraglia per una serie di motivi. Compreso il fatto che il costo è 1/6.
Se poi per te esiste solo chi fa foto col cellulare e chi fotografa falchi in picchiata da prendere con zoom da 1200mm per ottenere una foto super nitida da vendere al National Geographic, allora è un altro discorso. Ma io ti ho mostrato che esistono tutta una serie di altre categorie dove le vie di mezzo esistono, funzionano e sono apprezzate.
Lo studio architettonico che sta dietro l'angolo non ha necessariamente bisogno di una Tesla per fare i calcoli il 10% più veloci e con l'assoluta certezza che non cia siano pixel spuri nell'immagine. Ovvero una Tesla che costa il triplo ed è certificata non è un assoluto must have. Il risparmio di qualche migliaio di euro sì.
aridaje con questo gk104. [B]IO ho parlato di un test dove titan sta sotto la 780. Mettitelo una volta per tutte in quella zucca, ammesso che tu ci riesca. E in questo caso non regge nessuna scusa di driver o identificazione del chip o menate del genere
[...]
che vanno sfruttati al meglio. Ora, dovresti sapere, prima id parlare che per un memory controller la situazione ideale è gestire 2 chip di ram per ciascun canale, per non aumentare le latenze. Ora, mentre la 780 GTX ha un bus con 6 canali e 12 chip di ram, titan ha un bus con 6 canali e 24 chip di ram, come le tesla ma, a differenza delle tesla che hanno il doppio dma per ciascun cluster di alu per dimezzare le latenze, titan ha un solo dma engine. Ora, visto che il quantitativo di ram on board serve per poter diminuire i tempi di esecuzione (perché la ram di sistema ha latenze ancora più lunghe) allungare le latenze della ram on board, anche se per raddoppiarne in quantitativo, non è la scelta più felice che si possa fare. E, infatti, con i chip professionali, nVidia si è ben guardata dal fare una cosa del genere
E sempre di estrema efficienza parli e non del lavoro pratico che è possibile fare.
Se una Titan va il 20% in meno di una Tesla (e non è così per i calcoli degli engine grafici) ma costa un terzo, e sempre con una Titan posso fare il lavoro che con una 780 non riesco (e non mi sembra sia possibile splittare la scena in più parti con altrettanta efficienza anche rispetto all'uso di un solo DMA) allora con una Titan ho la possibilità di spendere il meno possibile per fare il lavoro! Rapporto tempo/investimento massimizzato. C'è soluzine che va di più? Costa sproporzionatamente di più. C'è soluzione che costa meno? Non ci faccio il lavoro che voglio.
Nell'esempio delle macchine fotografiche, è come necessitare di velocità di raffica, ma non potendo arrivare alla 1D-X uno si prende per forza una 1000D. Ti è già stato dimostrato che ci sono le vie di mezzo. Una 7D che costa di piùà di una 1000D ma molto meno di una 1D-X può fare al cvaso di molti. E non per niente è una delle APS-C più vendute. Sarà un caso che ci sono così tanti "fotografi di mezzo" che non sono né super pro né che si accontentano di una scamorzina come la 1000D (o persino della Nikon 7100 se per questo, visto che questa ha un buffer per la raffica pari a quello del mio cellulare).
veramente tuttodigitale ha detto, giustamente, che le attuali schede video sono vendute a prezzi folli, tutte e titan non fa eccezione.
E nessuno lo ha mai negato. Io è da Marzo 2012 che lo dico ed è da Marzo 2012 che ho previsto che non sarebbe cambiato nulla fino all'arrivo dei 20 nm.
E infatti così è stato. E infatti non ho comprato nulla. E infatti probabilmente non comprerò nulla dato che non sono così sicuro che i prezzi per le fasce inferiori scenderanno come speravo.
Io non sto per nulla dicendo che la Titan è una scheda che vale in assoluto i soldi che vale. Come ha ben esplicitato tuttodigitale la scheda della generazione precedente analoga costava quasi la metà.
Ma così lo erano tutte le schede. La GTX560 che monta un chip più grande del GK104 costava meno della metà.
Ma la questione è questa: quando non c'è di meglio, chi può specula. Lo ha fatto AMD per 3 mesi quando è uscita prima di nvidia con la 7970 a 550 euro e poi l'ha presa in quel posto quando è uscito Kepler per i successivi 18.
La Titan è l'unica scheda che permette di fare certi lavori a prezzi che non sono quelli da rapina delle schede professionali. Sì, certo, fa girare anche BF4 decentemente, ma non è quello il suo ambito.
Tutto quello che tu hai detto riguardo al GPGPU tra Titan e 780 vale per il mondo dei videogiochi: chi si accontenta di qualche frame in meno spende molto meno e vive (molto) felice lo stesso.
Nel GPGPU non è così. Se vuoi i 6GB di RAM e far andare i motori di rendering professionali o prendi la Titan o una Quadro/Tesla. Non c'è alcuna soluzione AMD che faccia da alternativa. Quando i vari motori di rendering saranno in OpenCL e andranno meglio che con CUDA allora vedrai che una futura Titan (se mai ce ne sarà un'altra) non costerà 1000 euro o quasi il doppio rispetto alla sua più vicina scheda solo ed esclusivamente dedicata al gioco.
E, come dimostrazione di tutto questo discorrere, che sta diventando un po' ritrito, è l'annuncio nel mondo reale, non in quello tuo parallelo, che dopo l'uscita della 290X la 780 Ti va a sostituire la 780 che si abbasserà (di brutto) di prezzo, mentre la Titan non è menzionata. nvidia non si preoccupa delle prestazioni in gioco di quella scheda, chissà perché.
Se qualcuno l'ha comprata credendo fosse la scheda da videogioco definitiva, allora ha sbagliato lui, non nvidia che gliela fatta pagare (e continua a farla pagare) un botto.
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
Credo che tu non abbia capito molto dela discussione...
Ha sfornato una scheda che va più della Titan 12 mesi dopo che il GK110 è stato sfornato (e tenuto per qualche mese in serbo per creare una fittizia nuova serie, tanto non c'era nulla che neanche ci si avvicinasse, neppure col binocolo) e con una R9 290X, gran bel pezzo di GPU indubbiamente, ancora però non faccio quello che faccio con la Titan, nemmeno se ci metto 8GB di RAM o triplico le capacità di calcolo SP/DP. L'OT su Titan e comparazioni di fasce di mercato nasce da qui.
Se non hai capito, torna a pagina 1 e ricomincia a leggere lentamente.
Hawaii, purtroppo, non fa concorrenza alla Titan, così come nessun altro prodotto AMD. E non è un problema di HW di oggi o di domani. Se ancora non hai capito, torna a leggere i proclami di AMD del 2007 (piccolo è bello, il VLIW è l'architettura migliore perché più efficiente, 2 GPU is meil che one) mentre nvidia faceva mattonelle non così efficienti e investiva pesantemente nella creazione di strumenti per il GPGPU.
Ora AMD ha più che mezze mattonelle anche lei, ha una architettura che più si avvicina a quella nvidia, molto meno efficiente che il VLIW per i giochi ma che finalmente può fare GPGPU più efficientemente... ma... già, non ci sono strumenti maturi per sfruttarla e quel poco di spazio che c'era (HPC a parte, non è che il GPGPU sia questa cosa che è utile a tutta l'umanità che monta una GPU in casa propria) l'ha prepotentemente occupato nvidia.
Se arrivato a questo punto ancora mi dici "e ma la 290X va di più di Titan costando molto meno" allora vuol dire che è inutile continuare.
Anzi, è inutile comunque. Ci ha già pensato nvidia a dipanare la matassa. Sciocco io che ho cominciato il discorso solo un paio di giorni prima dell'annunci. Però si vede chi, esperto o meno delle architetture, dei bit e dei transistor, ha avuto occhio su quello che è il mondo reale e non si è fatto prendere dalla fanboyaggine né di qui né di là.
IPSE DIXIT.... ma anche no.
anche in quei test, pare che il quantitativo di memoria non sia una discriminante
Ma sta proprio qui il punto! Mondo reale contro mondo sulla carta! La potenza di calcolo SP è la medesima ma se ad un certo punto io devo lavorare e non fare bench e ho una scena complessa (o mi capita di lavorare sempre con scene complesse), la Titan si mangia la 780 a colazione e anche a pranzo. E se hai scene ancora più compesse (ma a questo punto sei su un altro livello di lavoro per il quale forse vale la pena pagare di più) una Quadro con 12GB si mangia la Titan in un sol boccone.
Anche se per renderizzare una scena del menga usata come test tutte e tre ci mettono lo stesso tempo. Non puoi concludere che una Quadro con 12GB per questi lavori è una spesa inutile, meglio una 780 che tanto fa lo stesso lavoro!
Siamo sempre lì, la questione dei benchmark. I test di SiSandra che compiono per milioni di volte la stesso identico insieme di istruzione per vedere chi va più forte. Poi però quando si mette in moto tutta la baracca per davvero e si raggiungono i vari colli di bottiglia tutte le classifiche valgono come 2 di picche. Cacchio ma non aveva un motore da 400CV? Sì certo, ma i freni sono quelli della bicicletta.
E ancora di più il tutto conta nel mondo reale a seconda dell'algoritmo. Il bench che usa poco codice e algoritmi relativamente semplici possono (e sicuramente lo sono) studiati per andare meglio in una o in un altra condizione (più calcoli meno RAM, più uso di memoria globale o di registri, più shader, meno ROP etc..). Un intero motore del mondo reale che fa quello che deve (e si spera nel miglior modo possibile) è l'unico vero test. Io uso questo o quell'HW perché questo è quello che rende di più per fare questo tipo di lavoro. Lavoro, non benchino fatto dal laureando che sta scrivendo una tesi sull'uso del GPGPU per accelerare un algoritmo da 1000 linee d i codice che non produce niente di utile.
Il fatto curioso è che le GTX780 e Titan dovrebbero avere il 99% del codice in comune. Ergo se ci sono problemi di driver per la Titan ci dovrebbero essere anche per la GTX780.
Se invece ci sono effettivamente cali di prestazioni dovute ai driver mi chiedo cosa vi faccia pensare che anche le Tesla ne siano affette?
E cosa vi fa pensare che nvidia abbia intenzione di migliore i driver?
Tutti i programmi che si vogliono accelerare sono profilati tramite driver. E' possibile per mille ragioni, che la profilazione non sia corretta per una scheda piuttosto che per un'altra anche se montano lo stesso identici HW. Magari perché quando è uscita la Titan il programma non sapeva neanche come configurarsi davanti a un GK110 e all'arrivo della 780 invece si è posto rimedio ma il test con la Titan non è stato rifatto.
Per la sicurezza dei problemi di driver con Tesla/Quadro niente è sicuro (tranne la morte). Ma quelli li paghi (caro) e ti viene detto esattamente cosa al momento supportano o meno prima che compri le schede. Se hai problemi con un SW che è detto essere supportato la probabilità che il problema venga risolto è abbastanza elevata.
Per le Titan, così come per le Geforce, invece sta a nvidia decidere se vale o meno la pena si spendere soldi per sistemare le cose, dato che comunque ti offre la soluzione gratis. Se la patch mette a rischio la competizione interna tra Geforce e Quadro/Tesla stai pur sicuro che non la vedrai mai.
considerando che il Server deve stare acceso giorno e notte al massimo carico, e che i costi di gestione sono comunque molto elevati, mi sembra quanto meno azzardato usare sistemi privi di un banale controllo della parità.
sono curioso di sapere per cosa viene usato questo super(?)computer
Effettivamente qui concordo al 100%. Su un server HPC le soluzione da fascia gaming non si possono proprio vedere. Neanche per Gaikai o similia. Forse i cinesi possono fare un server del genere (e in effetti lo fecero al tempo con le 4870) per poi chiaramente scoprire che senza ECC non vai da nessuna parte (e infatti sono passati alle Tesla basate su Fermi prima e Kepler dopo).
Io, non acquisterei mai il tempo di calcolo di un server che non mi offre l'ECC. Forse giusto se fa uso degli engine per il calcolo di ratracing delle scene e con tariffe a prezzi stracciati, ma per tutto il resto, là dove davvero conta la correttezza del risultato dall'ECC non si può prescindere.
Rimane il fatto che se non sbaglio, Tahiti ha il supporto per memorie ECC (non ricordo se SW o HW, ma comunque un supporto minimo per la correzione degli errori ce l'ha).
tuttodigitale
29-10-2013, 01:38
Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male.
Hawaii troppo poco? Un chip da 438mmq che mette i bastoni tra le ruote ad uno da 561mmq, mi sembra un risultato tecnologico notevole: Hawaii offre per il momento prestazioni per mmq superiori del 34% sacrificando un poco l'efficienza energetica ( -7,8% rispetto a Titan)
Sony cosa c'entra? Non mi sembra che sia la proprietaria di un SO chiamato Windows.
tuttodigitale
29-10-2013, 01:59
e il link che ti ho messo è proprio la classifica UFFICIALE dell'efficienza dei supercomputer con l'efficienza dei vari supercomputer,, ed essendo il VERO sito UFFICIALE è quello che conta.
Green 500 è ufficiale quanto top500.
Stai facendo confusione tra efficienza energetica che si misura in GFLOPS/Watt e l'efficienza definita come il rapporto tra i GFLOPs reali e quelli teorici.
Ma tantè qui si continua a scrivere senza riflettere.
secondo te, se uno vuole una preview GPGPU sul portatile cosa fa ? un art attack con una GTX 570 ? non mi sembrava veramente necessario spiegare che le stelle mobile sono "slegate" da quelle desktop.
1) cosa ti fa pensare che il rating assegnato alle schede consumer stia sullo stesso piano di quelle professionali?
2) tra una GTX670 e una GTX680 passa il niente assoluto: la prima prende 2 stelle la seconda 4..e questo vale anche per lla GTX580/570
E le GTX560Ti/660Ti condividono lo stesso destino = 1 stella.
Ti sembra normale?
bho dimmelo tu, qui vedo gente parlare di software che nemmeno usa e che scopre oggi della loro esistenza che sostengono di sarpere quali siano le VGA migliori per quei software :asd:
Aspetta stai seriamente affermando che le Tesla sono inferiori alle TITAN:rolleyes:
AceGranger
29-10-2013, 02:03
quindi non hanno necessità di accedere alla ram di sistema?
dai test, si vede che lo fanno ottimamente cosi come sono.
i tcc sono driver delle tesla non delle quadro
che non vengono usate nelle viewport...
http://www.youtube.com/watch?v=yFzxNzTFdK0
questo è un video identico al tuo, dove, oltre alla tesla k20, a titan, alla 780 GTX, c'è la quadro k6000 e, soprpresa, titan vince ancora. Ora, i dati delle gpu sono i seguenti
http://www.tomshw.it/cont/news/nvidia-quadro-k6000-la-gpu-gk110-alla-massima-potenza/47890/1.html
e, altra sorpresa, la k6000 ha più Tflops e il doppio della ram di titan. Quindi i casi sono due: o quei test sono fatti con i piedi, oppure non è vero che contano solo potenza di calcolo e quantitativo di ram per questo genere di applicazioni, Inoltre sarei curioso di sapere qual era la configurazione di quei test, sia hardware che software :rolleyes:
la spiegazione che mi do io è che la Quadro K6000 monta ram ECC che tendenzialmente hanno latenze superiori; pur avendo il doppio delle ram ( ECC che hanno anceh un TDP superiore rispetto alle classiche ) e il chip GK110 Full, ha un TDP inferiore di 25 Watt rispetto alla Titan; con molta probabilita durante il rendering che impiega il 100% della GPU, la Titan ha piu margine di boost dinamico dato dal TDP, mentre la K6000 meno ( ammesso che ce l'abbia, visto che le Quadro/Tesla sono sempre state meno aggressive rispetto alle GTX )
puoi sempre chiederglielo, mica ti mangiano.
best performance to price ratio ha un significato decisamente diverso da best performance
Guarda caso hai saltato la riga sopra :sofico:
GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs
e, guarda caso, titan e 780 gtx sono consigliate nella stessa misura (5 stelle per ciascuna) e, considerato che dai test precedenti (in video) e da quelli visti su anandtech e tom's hardware, anche nel gpgpu rendering tutta questa differenza tra titan e 780 GTX non c'è, e considerato che, anche in quei test, pare che il quantitativo di memoria non sia una discriminante
:rolleyes: il bench è fatto per poter girare sul piu alto numero di VGA, se ti facessero un bench da 3,1 Gb vedresti solo i risultati della Titan e di altre sole 3 schede, visto che su tutte le altre il bench NON PARTIREBBE
almeno a giudicare dai risultati, continuo a restare dell'idea che, se come sostieni, i soldi per le tesla sono buttai al cesso, dovendo fare una scelta che vada in direzione del rapporto prezzo /prestazioni, la 780 GTX continua ad essere preferibile, soprattutto alla luce del calo di prezzo e titan non appartiene ad una sua categoria a sé stante, né secondo nVidia né secondo gli sviluppatori che hai citato
mi pareva di avertelo gia scritto, ma come al solito hai fatto finta di nulla per poterti arrampicare nuovamente sui vetri e fare nuovamente una magra figura;
Se uno non necessita di 6 Gb di ram perchè le sue scene sono inferiori, perchè per esempio si occupa di design e quindi singoli oggetti è logicamente preferibile spenderli per una o 2 GTX 780, ma se uno lavora con cataloghi di interni, con scene molto piu coplesse o esterni, una GTX 780 sarebbero sono soldi buttati nel cesso perchè non riuscirebbe a caricare nessuna scena.
ma sicuramente, tu che oggi hai scopero questi software oggi, ne sai piu di tutti quelli che ci lavorano da anni e addirittura piu dei programamtori :doh:
2) tra una GTX670 e una GTX680 passa il niente assoluto: la prima prende 2 stelle la seconda 4..e questo vale anche per lla GTX580/570
fra GTX 670 e GTX 680 in rendering c'è un 10% di differenza ( Blender CUDA )
MSI VGA GTX670 2048MB 272
MSI VGA GTX680 TWIN FORZR 2GB 305 euro
il 10% di prestazioni in meno per 30 euro ? la 670 non l'avrei nemmeno messa in elenco se fossi stato in loro.
Aspetta stai seriamente affermando che le Tesla sono inferiori alle TITAN:rolleyes:
io sto affermando che ogni ambito lavorativo la sua VGA best BUY, e NESSUNA VGA sul pianeta puo esserlo per tutti gli ambiti, come non lo è la Titan non lo è la Tesla; siete tu e l'altro che consigliate VGA a membro di segugio guardando il nomignolo e senza nemmeno saper usare i software in questione.
tuttodigitale
29-10-2013, 02:25
Come ha ben esplicitato tuttodigitale la scheda della generazione precedente analoga costava quasi la metà.
Ma così lo erano tutte le schede. La GTX560 che monta un chip più grande del GK104 costava meno della metà.
Ma la questione è questa: quando non c'è di meglio, chi può specula. Lo ha fatto AMD per 3 mesi quando è uscita prima di nvidia con la 7970 a 550 euro e poi l'ha presa in quel posto quando è uscito Kepler per i successivi 18.
Tu sei proprio convinto che AMD l'abbia preso in quel posto?
HD5870 a lancio 349 euro...le HD7970 solo quest'anno sono state commercializzate a questo prezzo
Poi finiamo di dire fesserie. TMSC non era in grado di produrre in volumi chip di quelle dimensioni, punto. Senz'altro il prezzo alto delle TITAN, 8 mesi fa, era dovuto ancora alla scarsa resa di quel chip. E' inutile rimarcare che la fascia dei 1000 euro non è per niente remunativa. Se nvidia potrà abbassare i prezzi lo farà...Non penso proprio che la domanda nel mercato GPU sia così radicalmente cambiata negli ultimi 2 anni da determinare una rivoluzione dei prezzi praticati. Imho il motivo va cercato nella scarsità dell'offerta.
yossarian
29-10-2013, 02:42
Ma anche no, vedi sotto. E ti contraddici pure.
Qui dici che "se non ti serve velocità" e poi mi dici che la 780 in alcuni test è più veloce... è ovvio che la velocità non è il criterio n. 1 dell'utenza che usa la Titan (non solo per videogiocare, si intende).
Perché , per la milionesima volta, ma non smetterò di ripeterlo, [b]con la dotazione Titan puoi fare cose che con la 780 non puoi.
Ne fai meno di quelle che puoi fare con una Tesla? Ovvio. Costa anche moooolto meno. E non ci fai solo calcoli.
infatti, se leggi qualche commento più su, ho scritto che titan, secondo me, è una eccellente vga per giocare ma è anche una scheda all around. Ammetto che possa interessare ad una certa utenza ma quello che non concepisco è la collocazione tra i prodotti professionali (non lo fa neppure nVidia). Sul fatto che la 780 in alcuni test vada più veloce non c'è alcuna contraddizione. L'ho fatto rilevare solo perché, in tutti i test visti finora, solo uno, in realtà, può giustificare la differenza di prezzo. Se, poi, consideri l'ambito specifico del rendering, dove non conta neppure la DP, allora l'unico vantaggio di titan rispetto alla 780 è nel quantitativo di memoria, memoria che, però, gestisce un po' meno bene a causa delle maggiori latenze.
Se ci fai l'elaborazione delle fotografie non è giustificato nulla che sta sopra una 660/7580. Neanche a livello super Pro. Che tanto più di così non va perché il collo di bottiglai non è la GPU ma l'algoritmo che è accelerato solo per una minima parte. Semplice applicazione pratica della legge di Amdahl.
Intanto ci sono sempre più engine OpenCL.. intanto non li vedo usati da nessuna parte. O non sono nei SW giusti o non sono all'altezza di quelli che ora esistono (e sono scritti per CUDA).
c'è anche il montaggio video e i prodotto professionali in quell'ambito si trovano a gestire enormi flussi di dati. E c'è VRAY, che è un motore per plug in di programmi di rendering, scritto anche in opencl
Va be', se mi dai dell'ignorante ANCHE in campo fotografico allora siamo tutti a posto.
A parte questo, questa è una delle tue tante risposte non risposte, ovvero una serie di parole che non dimostrano nulla di pratico.
Tanto per dirne una ci sono fior fiore di fotografi che necessitano di velocità ma preferiscono la 7D alla ammiraglia per una serie di motivi. Compreso il fatto che il costo è 1/6.
visto che ti piace canon allora restiamo in campo canon (che la conosco pure meglio) :D
Gli unici motivi per cui puoi preferire una 7d ad una 1dx (o ad una 5d markIII) sono il costo e il fattore di crop (lo stesso motivo che aveva spinto canon a "inventare" il formato aps-h con la serie 1d mark). Per il resto, non ci sono altri motivi validi: a livello di velocità di raffica e di autofocus, la 1dx è di un altro pianeta mentre la 5d MIII è inferiore solo per la raffica. Ma entrambe hanno il vantaggio, non indifferente, a livello di IQ, di avere un sensore FF. Te lo dice uno che ha la 7d :D
e ritiro "l'ignorante"
Se poi per te esiste solo chi fa foto col cellulare e chi fotografa falchi in picchiata da prendere con zoom da 1200mm per ottenere una foto super nitida da vendere al National Geographic, allora è un altro discorso. Ma io ti ho mostrato che esistono tutta una serie di altre categorie dove le vie di mezzo esistono, funzionano e sono apprezzate.
Lo studio architettonico che sta dietro l'angolo non ha necessariamente bisogno di una Tesla per fare i calcoli il 10% più veloci e con l'assoluta certezza che non ci siano pixel spuri nell'immagine. Ovvero una Tesla che costa il triplo ed è certificata non è un assoluto must have. Il risparmio di qualche migliaio di euro sì.
no, anzi la via di mezzo è quella più frequentata. Ma la via di mezzo non è lastricata di professionisti che rinunciano agli strumenti che garantiscono loro la massima produttività. SE io fossi un fotografo professionista e vivessi di quel mestiere, magari punterei ad una 5d mark III o, meglio ancora, ad una 1dx; questo perché una 7d, per quanto abbia un grande AF (a livello di capacità di inseguimento credo sia il migliore tra le non "top camera"), non è quello dell 1dx e potrebbe farmi perdere proprio quella foto che potrebbe farmi guadagnare un pacco dio soldi o farmi vincere un premio. O, magari, me la fa fare, in condizioni di luce "scarsa" e la qualità non è tale da permettermi di venderla. Ma io non sono un professionista, non vendo foto e, per quanto mi piacerebbe (e potrei anche permettermela), una 1dx sarebbe veramente sprecata
E sempre di estrema efficienza parli e non del lavoro pratico che è possibile fare.
Se una Titan va il 20% in meno di una Tesla (e non è così per i calcoli degli engine grafici) ma costa un terzo, e sempre con una Titan posso fare il lavoro che con una 780 non riesco (e non mi sembra sia possibile splittare la scena in più parti con altrettanta efficienza anche rispetto all'uso di un solo DMA) allora con una Titan ho la possibilità di spendere il meno possibile per fare il lavoro! Rapporto tempo/investimento massimizzato. C'è soluzine che va di più? Costa sproporzionatamente di più. C'è soluzione che costa meno? Non ci faccio il lavoro che voglio.
io credo che la questione vada posta nei termini di "in quanto tempo devo finire il lavoro e perché". Questo perché può esserci una soluzione che va di più costando molto di più e una che va di meno costando di meno (anche la 780 ti permette di terminare il lavoro, usando la ram di sistema più di quanto non sia costretta a fare titan). Certo, l'accesso alla ram di sistema rallenta di molto l'elaborazione (le latenze sono più lunghe), ma d'altra parte non è possibile né avere tutta la ram on chip né tutta on board (o metti chip con capacità elevata e questo crea problemi nella mappatura tra ram e cache interne o metti tanti chip e questo comporta o l'adozione di memory controller a più canali o allunga le latenze). Tutto sta a quantificare l'incidenza di questo rallentamento (dovuto al più frequente ricorso alla ram di sistema) sul lavoro che devi fare e, in particolare, quanto incide economicamente in negativo. Tanti professionisti non esitano ad investire in strumenti più costosi se il loro obiettivo è la produttività
Nell'esempio delle macchine fotografiche, è come necessitare di velocità di raffica, ma non potendo arrivare alla 1D-X uno si prende per forza una 1000D. Ti è già stato dimostrato che ci sono le vie di mezzo. Una 7D che costa di piùà di una 1000D ma molto meno di una 1D-X può fare al cvaso di molti. E non per niente è una delle APS-C più vendute. Sarà un caso che ci sono così tanti "fotografi di mezzo" che non sono né super pro né che si accontentano di una scamorzina come la 1000D (o persino della Nikon 7100 se per questo, visto che questa ha un buffer per la raffica pari a quello del mio cellulare).
la 7d è un'ottima scelta (l'aps-c di livello medio alto in genere) per chi si diletta di fotografia, per chi lavoricchia con la fotografia ma non per il professionista. Chi vive con la fotografia difficilmente si accontenta di una aps-c e come minimo le affianca una FF; l'accoppiata 7d-5d MII, ad esempio, andava molto ma conosco più di qualcuno di questi che sta passando alla 5d mIII. Questo perchè, nello specifico, canon, fino a poco tempo fa, non proponeva una macchina all around (tipo la nikon d700) che non costasse un fottio e ti permettesse di fare tutto abbastanza bene pur senza raggiungere l'eccellenza in nessun settore. Questo obbligava a comprare due macchine per chi voleva differenziare i tipi di fotografia (7d per caccia e sport e 5d per cerimonie, interni e notturne). Tra l'altroì, la 7d è stata usata anche in produzioni cinematografiche serie, in cui ha affiancato vere cineprese per girare alcune scene in posizioni disagevoli (il cigno nero, the avengers) ma, oggettivamente, se tu dovessi girare un corto o decidessi di intraprendere la carriera del cinema, investiresti su una cine reflex a 1000 o 2000 € o, magari, su una vera cinepresa (come la red one che ti permette il 4k, ha una gamma dinamica di molto maggiore, riprende in raw a 16 bit per canale e ti permette di avere un frame rate regolabile a piacere a, pressoché, tutte le risoluzioni), a 4000 €?
Io non sto per nulla dicendo che la Titan è una scheda che vale in assoluto i soldi che vale. Come ha ben esplicitato tuttodigitale la scheda della generazione precedente analoga costava quasi la metà.
Ma così lo erano tutte le schede. La GTX560 che monta un chip più grande del GK104 costava meno della metà.
Ma la questione è questa: quando non c'è di meglio, chi può specula. Lo ha fatto AMD per 3 mesi quando è uscita prima di nvidia con la 7970 a 550 euro e poi l'ha presa in quel posto quando è uscito Kepler per i successivi 18.
La Titan è l'unica scheda che permette di fare certi lavori a prezzi che non sono quelli da rapina delle schede professionali. Sì, certo, fa girare anche BF4 decentemente, ma non è quello il suo ambito.
Tutto quello che tu hai detto riguardo al GPGPU tra Titan e 780 vale per il mondo dei videogiochi: chi si accontenta di qualche frame in meno spende molto meno e vive (molto) felice lo stesso.
Nel GPGPU non è così. Se vuoi i 6GB di RAM e far andare i motori di rendering professionali o prendi la Titan o una Quadro/Tesla. Non c'è alcuna soluzione AMD che faccia da alternativa.
Hai detto bene che le professionali hanno prezzi da rapina (di qualunque marca siano), perché quello che offrono in più non vale quello che costa e non è frutto di ricerche specifiche su quel prodotto ma si tratta di feature che sarebbero presenti anche sui prodotti consumer se non venissero "castrati" di proposito.
Se nVidia non teme la concorrenza interna di titan, c'è da pensare che abbia deciso che le tesla saranno dedicate quasi esclusivamente ai sistema hpc (niente più workstation se non casi particolari) mentre le quadro continueranno ad essere dedicate al CAD (per la gestione delle viewport)
Quando i vari motori di rendering saranno in OpenCL e andranno meglio che con CUDA allora vedrai che una futura Titan (se mai ce ne sarà un'altra) non costerà 1000 euro o quasi il doppio rispetto alla sua più vicina scheda solo ed esclusivamente dedicata al gioco.
oppure troverai una scheda amd "dedicata al gpgpu" che costerà quanto costa oggi titan, e una titan 2 allo stesso prezzo :D
E, come dimostrazione di tutto questo discorrere, che sta diventando un po' ritrito, è l'annuncio nel mondo reale, non in quello tuo parallelo, che dopo l'uscita della 290X la 780 Ti va a sostituire la 780 che si abbasserà (di brutto) di prezzo, mentre la Titan non è menzionata. nvidia non si preoccupa delle prestazioni in gioco di quella scheda, chissà perché.
Se qualcuno l'ha comprata credendo fosse la scheda da videogioco definitiva, allora ha sbagliato lui, non nvidia che gliela fatta pagare (e continua a farla pagare) un botto.
nel mio mondo parallelo circola voce che anche amd abbia "castrato" hawaii nei calcoli in DP rispetto a quello che è il vero potenziale del chip (da 2816 a 704 Gflops). Quindi è evidente che la serie R8/9 è solo dedicata al gaming, motivo per cui va a competere direttamente con le 770/780 e non con titan (almeno non nel gpgpu e non certo nelle intenzioni di amd)
tuttodigitale
29-10-2013, 03:03
la spiegazione che mi do io è che la Quadro K6000 monta ram ECC che tendenzialmente hanno latenze superiori; pur avendo il doppio delle ram ( ECC che hanno anceh un TDP superiore rispetto alle classiche ) e il chip GK110 Full, ha un TDP inferiore di 25 Watt rispetto alla Titan; con molta probabilita durante il rendering che impiega il 100% della GPU, la Titan ha piu margine di boost dinamico dato dal TDP, mentre la K6000 meno ( ammesso che ce l'abbia, visto che le Quadro/Tesla sono sempre state meno aggressive rispetto alle GTX )
La storia del ECC non regge. L'ECC può essere attivato alla bisogna. Di certo fa perdere prestazioni (bandwidth) e quantitativo di ram, ma sarebbe assurdo fare un test comparativo con una scheda consumer con il controllo della parità attivato
fra GTX 670 e GTX 680 in rendering c'è un 10% di differenza ( Blender CUDA )
MSI VGA GTX670 2048MB 272
MSI VGA GTX680 TWIN FORZR 2GB 305 euro
il 10% di prestazioni in meno per 30 euro ? la 670 non l'avrei nemmeno messa in elenco se fossi stato in loro.
Effettivamente sarebbe stato meglio non inserirle (poi in questi casi non sono certo un paio di centoni che fanno la differenza), ma perchè si afferma che la GTX670 va molto peggio della 680?
Boh
io sto affermando che ogni ambito lavorativo la sua VGA best BUY, e NESSUNA VGA sul pianeta puo esserlo per tutti gli ambiti, come non lo è la Titan non lo è la Tesla; siete tu e l'altro che consigliate VGA a membro di segugio guardando il nomignolo e senza nemmeno saper usare i software in questione.
Qui stai farneticando. Vorrei sapere in quale post ho consigliato una scheda video piuttosto che un'altra.
AceGranger
29-10-2013, 08:28
La storia del ECC non regge. L'ECC può essere attivato alla bisogna. Di certo fa perdere prestazioni (bandwidth) e quantitativo di ram, ma sarebbe assurdo fare un test comparativo con una scheda consumer con il controllo della parità.
Le quadro/tesla hanno sempre avuto ram con latenze superiori, indipendentemente dal fatto o meno che il controllo della parità venisse attivato. L'attivazione del controllo di parità introduce ulteriore ritardo e riduce anche la quantita di memoria utilizzbile.
Le quadro/tesla hanno sempre avuto ram con latenze superiori, indipendentemente dal fatto o meno che il controllo della parità venisse attivato. L'attivazione del controllo di parità introduce ulteriore ritardo e riduce anche la quantita di memoria utilizzbile.
Le quadro e le tesla non hanno ram ecc.
L'ecc di dette schede (e non tutte le quadro ce l'hanno) è un algoritmo del controller ram (tutte le celle gddr sono a 8bit e non a 9bit come le dram ecc) che riservano una parte della ram alla correzione d'errore.
El Korki
29-10-2013, 09:16
raga ma quanto siamo ot??
CrapaDiLegno
29-10-2013, 12:50
Tu sei proprio convinto che AMD l'abbia preso in quel posto?
HD5870 a lancio 349 euro...le HD7970 solo quest'anno sono state commercializzate a questo prezzo
Poi finiamo di dire fesserie. TMSC non era in grado di produrre in volumi chip di quelle dimensioni, punto. Senz'altro il prezzo alto delle TITAN, 8 mesi fa, era dovuto ancora alla scarsa resa di quel chip. E' inutile rimarcare che la fascia dei 1000 euro non è per niente remunativa. Se nvidia potrà abbassare i prezzi lo farà...Non penso proprio che la domanda nel mercato GPU sia così radicalmente cambiata negli ultimi 2 anni da determinare una rivoluzione dei prezzi praticati. Imho il motivo va cercato nella scarsità dell'offerta.
Come non l'ha preso in quel posto: chip più grande del GK104 venduto a prezzo sensibilmetne inferiore. In inglese sarebbe un "owned", là dove nella serie precedente con un chip della più o meno stessa dimensione se la vedeva con il peso massimo (e lì erano più cazzi per nidia che guadagnava molto meno).
Hawaii troppo poco? Un chip da 438mmq che mette i bastoni tra le ruote ad uno da 561mmq, mi sembra un risultato tecnologico notevole: Hawaii offre per il momento prestazioni per mmq superiori del 34% sacrificando un poco l'efficienza energetica ( -7,8% rispetto a Titan)
Sony cosa c'entra? Non mi sembra che sia la proprietaria di un SO chiamato Windows.
Hawaii, 12 mesi di ritardo e ancora sta solo nel mercato consumer. I bastoni tra le ruote doveva mettergleli a Marzo 2012 (non dico Gennaio). Avremmo avuto tutto un altra "evoluzione della specie" e sopratutto prezzi ben diversi.
MS = XBox, Sony = PS4, ovvero le due macchine con architettura AMD che conquisteranno il mondo videoludico nei prossimi anni. Se AMD non trova lo spazio di metterci la sua tecnologia là sopra vale quanto un fornitore di viti per armadi: fa il pezzo e poi gli altri lo usano come vogliono tagliandoti fuori da tutti i vantaggi che potresti avere. Mantle su console sarebbe stato un formidabile trampolino di lancio in grado ampiamente di compensare il fatto che AMD su PC è in quota nettamente minoritaria.
c'è anche il montaggio video e i prodotto professionali in quell'ambito si trovano a gestire enormi flussi di dati. E c'è VRAY, che è un motore per plug in di programmi di rendering, scritto anche in opencl
Vorrei vedere qualche test di quresto motore CUDA vs OpenCL. E OpenCL su AMD vs OpenCL su nvidia.
visto che ti piace canon allora restiamo in campo canon (che la conosco pure meglio) :D
Gli unici motivi per cui puoi preferire una 7d ad una 1dx (o ad una 5d markIII) sono il costo e il fattore di crop (lo stesso motivo che aveva spinto canon a "inventare" il formato aps-h con la serie 1d mark). Per il resto, non ci sono altri motivi validi: a livello di velocità di raffica e di autofocus, la 1dx è di un altro pianeta mentre la 5d MIII è inferiore solo per la raffica. Ma entrambe hanno il vantaggio, non indifferente, a livello di IQ, di avere un sensore FF. Te lo dice uno che ha la 7d :D
e ritiro "l'ignorante"
Infatti tu hai parlato di velocità (intesa come raffica), non di formato o di super mega autofocus. E attenzione a dire che la 7D ha un autofocus "scarso" rispetto alle ultime ammiraglia: la macchina ha 4 anni sul gobbone, e infatti la nuova 7D markII ha lo stesso modulo autofocus della 5D Mark III. Per cui a usare una 7D MkII invece che una ammiraglia FF porta solo lo "svantaggio" del formato (con annessi e connessi, incluso l'autofocus a f8 com la D1 permette) ma guadagna nel fattore di crop (che ti permette di usare zoom il 35% più corti, quindi vai più leggero e puoi comunque rimanere luminoso a minor prezzo). Il formato APS-H di Canon come hai ben ricordato è anche quello un compromesso tra velocità, dimensione, luminosità e qualità. Eppure, pur non essendo il massimo del massimo possibile in termini di dimensione del sensore, Canon ci ha costruito intorno una serie 1 che certo non è stata così schifosa mi sembra, no? Oggi con nuova elettronica a nuovi processi produttivi ci si può permettere il FF a prezzi e prestazioni velocistiche simili, per cui sarebbe sciocco usare ancora il formato ridotto sull'ammiraglia.
Come dimostrato non c'è solo il professionista che necessita della 1D-X o della 5D Mark III. C'è indubbiamente a chi queste macchine sono indispensabili per certi usi che garantiscono. Altri ne possono fare a meno. Altri proprio non possono usarle per altri motivi, tipo portarsi in scalata a 6000mt una 1D-X + 70-200 f2.8 per fare le foto a un'alba.. sarebbe bello, ma anche il fotografo più professionista della storia lo troverebbe un po' complicato da realizzare e si troverebbe costretto a ricorrere a qualcosa di più consono alla situazione.
no, anzi la via di mezzo è quella più frequentata. Ma la via di mezzo non è lastricata di professionisti che rinunciano agli strumenti che garantiscono loro la massima produttività. SE io fossi un fotografo professionista e vivessi di quel mestiere, magari punterei ad una 5d mark III o, meglio ancora, ad una 1dx; questo perché una 7d, per quanto abbia un grande AF (a livello di capacità di inseguimento credo sia il migliore tra le non "top camera"), non è quello dell 1dx e potrebbe farmi perdere proprio quella foto che potrebbe farmi guadagnare un pacco dio soldi o farmi vincere un premio. O, magari, me la fa fare, in condizioni di luce "scarsa" e la qualità non è tale da permettermi di venderla. Ma io non sono un professionista, non vendo foto e, per quanto mi piacerebbe (e potrei anche permettermela), una 1dx sarebbe veramente sprecata
Anche a me piacerebbe avere una 1D-X con tutta la serie L di Canon e anche qualcosa di più o di avere nel case una Quadro+Tesla al prezzo di una Geforce GTX680.
Ma nella vita i compromessi sono la normalità, e non nel caso di macchine fotografiche non c'è solo il fattore economico (c'è gente che spende molto di più per macchne con capacità insulse rispetto a una reflex semi-professionale, quindi a rappresentare il fatto che queste non sono la panacea per tutti).
io credo che la questione vada posta nei termini di "in quanto tempo devo finire il lavoro e perché". Questo perché può esserci una soluzione che va di più costando molto di più e una che va di meno costando di meno (anche la 780 ti permette di terminare il lavoro, usando la ram di sistema più di quanto non sia costretta a fare titan). Certo, l'accesso alla ram di sistema rallenta di molto l'elaborazione (le latenze sono più lunghe), ma d'altra parte non è possibile né avere tutta la ram on chip né tutta on board (o metti chip con capacità elevata e questo crea problemi nella mappatura tra ram e cache interne o metti tanti chip e questo comporta o l'adozione di memory controller a più canali o allunga le latenze). Tutto sta a quantificare l'incidenza di questo rallentamento (dovuto al più frequente ricorso alla ram di sistema) sul lavoro che devi fare e, in particolare, quanto incide economicamente in negativo. Tanti professionisti non esitano ad investire in strumenti più costosi se il loro obiettivo è la produttività
Come in tutte le cose i costi non sono lineari e quindi investire il triplo dei soldi di una Titan (o 6 volte quelli di una 780) potrebbe non valere la candela. La Titan si pone esattamente a metà strada. Non garantisce le capacità di una Quadro (e ci mancherebbe, è la strategia nvidia di spremere quanto più possibile dal mercato professionale in tutte le sue forme) ma supera nettamente le capacità di una 780 per il mercato dei renderisti. Secondo me potrebbe farne una tale e quale da 12GB e venderla a 1600 euro e andrebbe a ruba pure quella.
E non perché c'è chi la comprerebbe per giocare a BF4 a 20000x10000 questa volta :D
la 7d è un'ottima scelta (l'aps-c di livello medio alto in genere) per chi si diletta di fotografia, per chi lavoricchia con la fotografia ma non per il professionista. Chi vive con la fotografia difficilmente si accontenta di una aps-c e come minimo le affianca una FF; l'accoppiata 7d-5d MII, ad esempio, andava molto ma conosco più di qualcuno di questi che sta passando alla 5d mIII. Questo perchè, nello specifico, canon, fino a poco tempo fa, non proponeva una macchina all around (tipo la nikon d700) che non costasse un fottio e ti permettesse di fare tutto abbastanza bene pur senza raggiungere l'eccellenza in nessun settore. Questo obbligava a comprare due macchine per chi voleva differenziare i tipi di fotografia (7d per caccia e sport e 5d per cerimonie, interni e notturne). Tra l'altroì, la 7d è stata usata anche in produzioni cinematografiche serie, in cui ha affiancato vere cineprese per girare alcune scene in posizioni disagevoli (il cigno nero, the avengers) ma, oggettivamente, se tu dovessi girare un corto o decidessi di intraprendere la carriera del cinema, investiresti su una cine reflex a 1000 o 2000 € o, magari, su una vera cinepresa (come la red one che ti permette il 4k, ha una gamma dinamica di molto maggiore, riprende in raw a 16 bit per canale e ti permette di avere un frame rate regolabile a piacere a, pressoché, tutte le risoluzioni), a 4000 €?
Se divento Kubrik probabilmente mi farei fare la telecamera come la voglio io (come lui fece per le ottiche). Ma se lavoro filmando le feste di compleanno, il saggio di della figlia o un'attività sportiva tipo paracadutismo, parapendio, deltaplano, bungee jumping etc...) e siano anche i matrimoni, ovviamente non investo in una macchina 4K per quanto sia bella, meravigliosa e nettamente superiore a qualsiasi fotocamera che si può comprare al super mercato. E comunque potrei "essere professionista" anche in quell'ambito con macchine consone alla tipologia di lavoro e ambiente in cui devono operare.
oppure troverai una scheda amd "dedicata al gpgpu" che costerà quanto costa oggi titan, e una titan 2 allo stesso prezzo :D
Dubito. Se c'è equilibrio questo non avviene. Avviene solo se c'è il dominio da parte di un solo soggetto che può permettersi di fare il bello e il cattivo tempo e di creare nuovi mercati dove la concorrenza non riesce ad arrivare.
nel mio mondo parallelo circola voce che anche amd abbia "castrato" hawaii nei calcoli in DP rispetto a quello che è il vero potenziale del chip (da 2816 a 704 Gflops). Quindi è evidente che la serie R8/9 è solo dedicata al gaming, motivo per cui va a competere direttamente con le 770/780 e non con titan (almeno non nel gpgpu e non certo nelle intenzioni di amd)
Il problema è che se anche avesse 10 volte la potenza di calcolo di Kepler senza il supporto SW AMD non va da nessuna parte. E vedo abbastanza difficile lo sviluppo di algoritmi in OpenCL per super computer o per macchine professionali (come quelle biomediche che nessuno conta mai, ma anche in quelle nvidia è presente) dove normalmente si cerca di rendere il tutto più efficiente possibile costruendo l'algoritmo sapendo esattamente la quantità e la disposizione delle risorse a disposizione e quindi l'uso di un sistema Open (immaturo) piuttosto che uno proprietario (e certificato) ha poco senso.
Sulla carta un Hawaii 10x sarebbe una bella dimostrazione di forza, ma nel mondo reale sarebbe un bellissimo fermaporta nelle attività che fanno uso di applicazioni professionali.
Che le unità DP ci siano o meno servono solo per colorare barrette più o meno lunghe.
Credo che tu non abbia capito molto dela discussione...
Ha sfornato una scheda che va più della Titan 12 mesi dopo che il GK110 è stato sfornato (e tenuto per qualche mese in serbo per creare una fittizia nuova serie, tanto non c'era nulla che neanche ci si avvicinasse, neppure col binocolo) e con una R9 290X, gran bel pezzo di GPU indubbiamente, ancora però non faccio quello che faccio con la Titan, nemmeno se ci metto 8GB di RAM o triplico le capacità di calcolo SP/DP. L'OT su Titan e comparazioni di fasce di mercato nasce da qui.
Se non hai capito, torna a pagina 1 e ricomincia a leggere lentamente.
Hawaii, purtroppo, non fa concorrenza alla Titan, così come nessun altro prodotto AMD. E non è un problema di HW di oggi o di domani. Se ancora non hai capito, torna a leggere i proclami di AMD del 2007 (piccolo è bello, il VLIW è l'architettura migliore perché più efficiente, 2 GPU is meil che one) mentre nvidia faceva mattonelle non così efficienti e investiva pesantemente nella creazione di strumenti per il GPGPU.
Ora AMD ha più che mezze mattonelle anche lei, ha una architettura che più si avvicina a quella nvidia, molto meno efficiente che il VLIW per i giochi ma che finalmente può fare GPGPU più efficientemente... ma... già, non ci sono strumenti maturi per sfruttarla e quel poco di spazio che c'era (HPC a parte, non è che il GPGPU sia questa cosa che è utile a tutta l'umanità che monta una GPU in casa propria) l'ha prepotentemente occupato nvidia.
Quando tu dici che se AMD non sforna qualcosa di veramente competitivo ci ritroveremo con un mercato senza competizione e prezzi che salgono alle stelle, mi sa che sei tu a non aver capito.
Non hai capito che AMD ha veramente sfornato qualcosa di veramente competitivo e che ha realmente calmierato i prezzi.
Non hai capito che la maggioranza degli acquirenti di Titan l'ha comprata per giocare, altre utenze si rivolgono ad altri prodotti e AMD se n'è fregata giustamente di competere con Titan per delle prestazioni che interessano ad una nicchia della nicchia del mercato.
Aldilà che Titan è, a mio avviso, un prodotto che si fa pagare troppo delle prestazioni non richieste e non utilizzate dalla maggioranza dei clienti che l'hanno comprata, dire che AMD non ha sfornato un prodotto competitivo significava non sapere fare di conto, sia rapportando il prodotto a Titan che a GTX780, ed il brusco calo dei prezzi adottato per questi ultimi modelli lo dimostra.
E non me ne può fregare di meno che la 290x sia uscita 1 o 10 mesi dopo: se esce un modello che mi offre prestazioni migliori ad un prezzo più basso devo, ragionando al presente, prendere atto che quel prodotto è competitivo. Non è quello che cerchi tu? Benissimo, rivogliti a Titan, ma non pretendere che AMD competa in un settore che reputa poco remunerativo perché, ricordiamolo ancora, chi ha comprato Titan il più delle volte lo ha fatto perché la riteneva la scheda gaming più potente del mercato; così vedrai che adesso difficilmente Titan riuscirà a vendere come prima a quei prezzi, dimostrando che le prestazioni in GPGPU che stai decantando, sfornati da una GPU da gioco, non interessavano poi a molti.
La Titan può anche preparare il caffè, ma è probabile che la gente preferirà scegliere tra la miglior macchina del caffè da una parte e la miglior scheda per giocare, dall'altra.
Il problema è che se anche avesse 10 volte la potenza di calcolo di Kepler senza il supporto SW AMD non va da nessuna parte. E vedo abbastanza difficile lo sviluppo di algoritmi in OpenCL per super computer o per macchine professionali (come quelle biomediche che nessuno conta mai, ma anche in quelle nvidia è presente) dove normalmente si cerca di rendere il tutto più efficiente possibile costruendo l'algoritmo sapendo esattamente la quantità e la disposizione delle risorse a disposizione e quindi l'uso di un sistema Open (immaturo) piuttosto che uno proprietario (e certificato) ha poco senso.
Sulla carta un Hawaii 10x sarebbe una bella dimostrazione di forza, ma nel mondo reale sarebbe un bellissimo fermaporta nelle attività che fanno uso di applicazioni professionali.
Che le unità DP ci siano o meno servono solo per colorare barrette più o meno lunghe.
Mi sa che non hai capito affatto dove vada il mercato.
Titan è uscita solo perchè c'è stata una flessione paurosa delle ws-server-mainframe delle vendite.
A nVidia non interessava affatto avere la Titan come prodotto più potente (gli sarebbe bastata la 780), ma ha fregato 1000€ a scheda a tutti quegli utenti convinti che la titan fosse il non-plus-ultra, ed addirittura additandola a "semiprofessionale".
AceGranger è uno che potrebbe giustificare l'esborso (ma data la sua poca conoscenza della scheda in questione la sopravvaluta), anche se avrebbe avuto sicuramente maggiore potenza in caso di uno sli di 770 ad un costo simile o inferiore (si, i software pro utilizzano anche più schede in parallelo).
I 6 Gb di Ram sono fumo negli occhi, oppure mi direte che 2 anni fa non si lavorava.
Per ultimo ti vorrei far notare che l'unica speranza per gli affezzionati di nVidia di continuare a vedere il loro logo è quella che la sezione pc venga acquisita da Intel, sperando che larabee e phi vengano accantonati.
Amd ha bisogno di questa architettura (dato che era impossibile implementare vliw come coprocessore vettoriale prima e fpu vera e propria in seguito), Intel ha sempre meno liquidità da investire in acquisizioni e nvidia ormai, finita la spinta, cerca di rifilare aggeggi vari da utilizzare con il logo in bella mostra.
Free Gordon
29-10-2013, 16:21
no, hawaii è 1/8 ma castrato di proposito sul chip della vga per gaming, perché potrebbe arrivare a 1/2
ah ok. ;)
grazie
AceGranger
29-10-2013, 16:37
AceGranger è uno che potrebbe giustificare l'esborso (ma data la sua poca conoscenza della scheda in questione la sopravvaluta), anche se avrebbe avuto sicuramente maggiore potenza in caso di uno sli di 770 ad un costo simile o inferiore (si, i software pro utilizzano anche più schede in parallelo).
non sopravvaluto una fava, so benissimo cosa puo e cosa non puo fare una Titan, Quadro o Tesla per il mio ambito lavorativo, e prima di acquistarla ho aspettato bench reali e pareri di altri utenti del settore, non le 4 chiacchere da bar di gente che tali software e schede non le ha viste nemmeno da lontano; sei tu che non hai ancora capito cosa serve a quelli che fanno il mio lavoro, e soprattutto non mi pare che lavori al mio fianco quindi non vedo come tu possa sapere cosa serve a ME.
Con 2 GTX 770 non ci farei nulla, la maggior parte delle mie scene ( e nemmeno la uso in produzione) vanno sopra i 4 Gb, quindi sarebbero 2 splendide fermaporte.
I 6 Gb di Ram sono fumo negli occhi, oppure mi direte che 2 anni fa non si lavorava.
si, esatto, io 2 anni fa pre-visualizzavo e settavo la scena facendo test via CPU, procedimento molto piu lentamente rispetto ad ora; non appena sostituisco una HDRI o sposto una qualsiasi luce mentre navigo nella viewport gestita dalla Quadro, ho un'altra finestra gemella della viewport dove la Titan mi calcola in Real Time la scena, e vedo quasi istantaneamente se la luce fa l'ombra che mi serve e vedo se il il color bleeding che mi da l'HDRI è quello che va bene, tanto per dirne 2, e se modifico qualcosa, ho un feedback istantaneo ed abbatto i tempi di questa fase del lavoro; senza contare che posso pre-visualizzare il modello durante le revisioni in diretta, cosa non da poco, visto che vedere un modello renderizzato piuttosto che nella viewport è tutta un'altra cosa, specialmente quando lo guardano i clienti.
con l'RT verisone CUDA, la Titan è piu veloce dei miei 3 3930K con l'RT settato in CPU e net render.
quindi, parla pure per te, che non ho bisogno ne di te ne di quell'altro, per acuistare quello che realmente mi serve.
CrapaDiLegno
29-10-2013, 17:14
Per ultimo ti vorrei far notare che l'unica speranza per gli affezzionati di nVidia di continuare a vedere il loro logo è quella che la sezione pc venga acquisita da Intel, sperando che larabee e phi vengano accantonati.
Se lo dici tu.. i conti trimestrale parlano diversamente. Che il mercato sia in difficoltà non c'è dubbio, ma non è nvidia che perde il 20% del fatturato ogni trimestre, neanche con la debacle Tegra4.
C'è che dice che un prodotto è competitivo quando non rende nulla e chi dice che è sovraprezzato quando porta utile. Punti di vista.
6GB di RAM sono importantissimi. 2 anni fa chi voleva una Geforce per fare rendering faceva scene complesse la metà o si rivolgeva a una Quadro. Ecco perché la Titan è così appetitosa per i non professionisti. Ma è inutile continuare a discuterne.
E infine, se mi dici che è competizione arrivare sul mercato quando ormai si è a ridosso del nuovo processo produttivo, allora hai problemi a capire il mercato, cioè che per 18 mesi consecutivi nvidia ha fatto utili e AMD ha perso soldi. Comunque io non ho mai detto che la 290X non sia competitiva. Non compete con la Titan per diverso scopo d'uso ma se la batte più che bene con la 780.
P.S: se per nvidia la Titan fosse stato il modello non plus ultra "per abboccaloni" oggi avremmo la Titan Silver che va di più della Titan stessa e della 290X,. Invece questo compito è stato delegato alla miserrima 780 Ti. La Titan continuerà a costare 1000 euro di listino. Fino alla prossima Titan con 12GB di RAM.
non sopravvaluto una fava, so benissimo cosa puo e cosa non puo fare una Titan, Quadro o Tesla per il mio ambito lavorativo, e prima di acquistarla ho aspettato bench reali e pareri di altri utenti del settore, non le 4 chiacchere da bar di gente che tali software e schede non le ha viste nemmeno da lontano; sei tu che non hai ancora capito cosa serve a quelli che fanno il mio lavoro, e soprattutto non mi pare che lavori al mio fianco quindi non vedo come tu possa sapere cosa serve a ME.
Con 2 GTX 770 non ci farei nulla, la maggior parte delle mie scene ( e nemmeno la uso in produzione) vanno sopra i 4 Gb, quindi sarebbero 2 splendide fermaporte.
si, esatto, io 2 anni fa pre-visualizzavo e settavo la scena facendo test via CPU, procedimento molto piu lentamente rispetto ad ora; non appena sostituisco una HDRI o sposto una qualsiasi luce mentre navigo nella viewport gestita dalla Quadro, ho un'altra finestra gemella della viewport dove la Titan mi calcola in Real Time la scena, e vedo quasi istantaneamente se la luce fa l'ombra che mi serve e vedo se il il color bleeding che mi da l'HDRI è quello che va bene, tanto per dirne 2, e se modifico qualcosa, ho un feedback istantaneo ed abbatto i tempi di questa fase del lavoro; senza contare che posso pre-visualizzare il modello durante le revisioni in diretta, cosa non da poco, visto che vedere un modello renderizzato piuttosto che nella viewport è tutta un'altra cosa, specialmente quando lo guardano i clienti.
con l'RT verisone CUDA, la Titan è piu veloce dei miei 3 3930K con l'RT settato in CPU e net render.
quindi, parla pure per te, che non ho bisogno ne di te ne di quell'altro, per acuistare quello che realmente mi serve.
Quindi utilizzi la titan per il preview in real time, ed il rendering finale lo dai in pasto ad un'azienda esterna?
Di conseguenza che risoluzione usi per superare 4gb di ram (calcolando che per visualizzare la preview in Rt utilizzi texture a bassa risoluzione)?
Giusto per curiosità.
AceGranger
29-10-2013, 21:28
Quindi utilizzi la titan per il preview in real time,
si
ed il rendering finale lo dai in pasto ad un'azienda esterna?
no, con 3 x 3930K + 2 x 2600K tutti @ 4 GHz ( e un 4930K in arrivo ) riesco a gestirmi i render di produzione senza affidarmi ad una render farm esterna.
Di conseguenza che risoluzione usi per superare 4gb di ram
la risoluzione della finestra dell'RT non infulisce molto sull'impatto nella ram della VGA, generalmente varia da Full HD a 2400 x 1400.
(calcolando che per visualizzare la preview in Rt utilizzi texture a bassa risoluzione)?
Giusto per curiosità.
molto raramente uso 2 set di texture, anzi quasi mai, perchè dopo andrebbero sotituite tutte, e relinkare 150-200 texture non è il massimo della vita, anche perchè usando gli Xref dovrei pure ricambiare le texture degli Xref...
non c'è un solo fattore, ce ne sono tanti, non ci sono solo le texture, dipende anche dal numero di luci nella scena, dal numero di materiali riflettenti e trasparenti, dal numero di poligoni e dal numero di oggetti etc .etc.
sono tante cose messe insieme non è solo 1.
AceGranger
30-10-2013, 09:28
puoi ottimizzare la produzione quanto vuoi ma l'area occupata del chip sempre 561mm rimane contro i 438 di questo hawaii, per quanto riguarda le percentuali di produzione e vendita non saprei dato che, non so quali siano fra pro e consumer (titan/gtx780)
il punto è proprio questo, amd ha abbassato l'asticella dei prezzi top gamma e, di conseguenza tutto ciò che viene sotto. A questo punto nvidia ha 2 strade da poter prendere la prima e più pericolosa, è quella di tagliare i prezzi per i prodotti di punta al momento in commercio che sono proprio quelli che le garantiscono margini più ampi.
la seconda è quella di sfornare un prodotto nuovo top gamma che garantisca margini prestazionali importanti rispetto a r9 in maniera da riportare il livello "top gamma" ai classici 600/1000 euro
la domanda è: è in grado? le conviene? e tutto il resto?
il gioco di amd ormai l'hanno capito tutti, lavorare sui prezzi bassi, nvidia non può permettersi da sola di fare tutto ciò avendo perso anche tutte le commesse delle console
come volevasi dimostrare, taglio radicale del prezzo della sovraprezzata GTX 780, che gia ora si trova a 400 euro, e taglio di prezzo anche per la 770.
e a quanto pare nuova GTX 780 GHz edition oltre alla GTX 780Ti.
nVidia puo permettersi ampi margini di manovra, visto che AMD con tutte le CPU, tutte le VGA e tutte le console, fattura poco piu di nVidia.
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.