|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#321 | |||
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
|
|||
|
|
|
|
|
#322 | |
|
Senior Member
Iscritto dal: Oct 2008
Città: Bra
Messaggi: 1429
|
Quote:
Codice:
http://sites.amd.com/PublishingImages/Public/Graphic_Illustrations/PNG/Level-Up-Matrix-968W.png
__________________
@Work: Dell 5820 / Xeon W-2235 / Quadro RTX4000 / 2x16gb 2666mhz CL19 ECC / 2x Dell U2720Q @Home: Corsair Carbide 300R / Corsair AX750 / Asus P8C WS / Intel Xeon E3-1240v2 / AMD FirePro V5900 / Kingston 4x4gb 1600mhz CL11 ECC / OCZ Vector / Samsung 24" 1200p |
|
|
|
|
|
|
#323 |
|
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4377
|
chissà le prestazioni: AMD un mese fa disse che in BF4 con la patch mantle la R9 290x "coprirà di ridicolo" la Titan. L'incremento prestazioni ottenubile con questa prima patch segnerà probabilmente il futuro di Mantle, da un buon 10% di vantaggio prestazionale che di primo acchito mi aspetterei, vedendola sotto un altra luce (E' LA patch) direi che Mantle se non farà segnare almeno un +20%, sarà difficile che il supporto per le API di AMD sarà esteso su altri motori grafici..
Ultima modifica di tuttodigitale : 28-10-2013 alle 10:44. |
|
|
|
|
|
#324 | |
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
A dire sta cosa è stata AMD e sinceramente io finchè non vedo ci andrei con i piedi di piombo, anche Bulldozer doveva battere Intel secondo loro. |
|
|
|
|
|
|
#325 | |||
|
Senior Member
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
|
Quote:
Ma quindi è a livello di Tahiti? 1/4? Allora non mi spiego alcuni risultati nei bench..
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX |
|||
|
|
|
|
|
#326 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4006
|
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia. Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD. Se con la Titan faccio cose che con la R9 290X che costa la metà (ma fosse anche la GTX780 super mega hyper clocked da 10W) non posso fare, allora il prezzo diventa quello della finalità della scheda. Prendi una Mustang da 200 CV da 30K euro. Prendi un trattore da 250CV da 70K euro. Secondo te quei 50CV giustificano la differenza di prezzo? Il ragionamento da parte di nvidia è semplice: ci puoi fare GPGPU a livello quasi professionale perché te lo sto permettendo (con DP e abbondante RAM)? Allora te la faccio pagare meno di una scheda professionale (che ha ben altre caratteristiche, su questo non c'è dubbio) ma sicuramente di più di una scheda da gioco con cui al massimo ci fai girare stupidissimi benchamark per vantarti con gli amici. Prendere una 7970 con 12 o anche 24GB di RAM al prezzo di un gelato sarebbe comunuqe inutile, perché gli algoritmi dei SW professionali usano tutti CUDA e dei benchmark Luxrender e di crittografia i loro utilizatori se ne fregano. Di algoritmi professionali scritti in OpenCL non ce ne sono per ora. Quando (e se) ci saranno, si faranno i dovuti confronti. Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro. Punto, fine della giustificazione. Il fatto che in alcuni bench la Titan non vada più del GK104 (anzi va proprio uguale), per favore, non farmela passare come un prblema del GK110. E' evidente che il problema è il supporto SW, che siano i driver o l'algoritmo stesso (per quello detto prima, come scrivi l'algoritmo conta). Se la GTX780 va il 50% di più della Titan, quale può essere il problema se non una mancanza di riconoscimento delle risorse disponibile da parte del programma? Modificato il componente SW, ecco che la scheda torna a fare quello che si si aspetta quand sfrutta il 180% delle risosrse in più che ha rispetto al GK104, o il 110% rispetto alla più vicina GTX. Solo che ovviamente la cosa ha valore se 1. nvidia o chi per essa ha interesse a fare in modo che la scheda vada veloce in quel benchmark o in quella particolare applicazione 2. che in tal caso il test sia rifatto Dai su, non facciamo i bambini che cercano di giustificare in tutti i casi le proprie convinzioni. Abbiamo capito chiaramente che secondo te la CGN è l'architettura "più migliore della galassia", ma non scadere nel ridicolo quando ti si fa presente che nel mondo reale ha i suoi evidenti problemi a farsi apprezzare (e pagare) mentre la "più modesta sennò totalmente innefficiente" architettura nvidia per ora ha dimostrato di funzionare i maniera soddisfacente e per tanto NVIDIA SE LA FA PAGARE. Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso. Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe Ultima modifica di CrapaDiLegno : 28-10-2013 alle 13:20. |
|
|
|
|
|
#327 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4006
|
@PaulGuru
Quote:
1. gli stream processors non sono il 100% del die della GPU, percui tripicali non vuol dire necessariamente triplicare la superficie. 2. Sembra che con Maxwell nvidia abbia abbandonato le doppie unità di esecuzione SP/DP in favore, come per AMD, di una architettura SP in grado di fare calcoli DP abbinando 2 unita SP " a run time". Questo vuol dire che le 64 unità DP presenti negli SMX che oggi non sono contati nel totale sono semplicemente "trasformate" in SP. Ammettendo di distribuire il supporto per la funzionalità DP tra tutte le altre unità SP presenti (che dovranno diventare un po' più grandi per poter essere trasformate da 2xSP a 1xDP), si può ipotizzare che la superficie rimanga la stessa. Il totale comunque sono sempre 256 unità di calcolo per SMX, questa volta omogenee e più flessibili rispetto a prima (192+64). Non serve quindi triplicare la superficie neanche della sezione degli shader per avere il triplo degli shader in funzione. A occiho quell'area è solo raddoppiata (come è classico ad ogni die shrink) però il rendimento in unità di calcolo è molto più alto del 200%. E se l'idea è quella di avere una unità DP sommando due unità SP per tutte le unità SP in un SMX, allora si raddoppia anche la capacità di calcolo in DP. Se così funziona direi che nvidia aumenterà ancora di più l'efficienza della sua architettura rispetto a quello che già riesce ad avere oggi riseptto a CGN (che già usa questo tipo di soluzione). Ultima modifica di CrapaDiLegno : 28-10-2013 alle 13:49. |
|
|
|
|
|
|
#328 | |||||
|
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4377
|
Quote:
E giusto per dover di cronaca, il secondo supercomputer più efficiente al mondo è basato su soluzioni GCN, direi che l'architettura di AMD non faccia poi così schifo (qualcuno in questo thread addirittura aveva detto che NESSUNO usa le Firepro per HPC). Per il resto condivido il tuo giudizio tecnico sulla questione. Ma se l'acquisto di una Titan ha senso, e lo ha in particolari condizioni di utilizzo, non si può non obiettare chi dice (Crapadilegno) che con Titan nvidia ha definito una nuova fascia, che ha nominato prosumer Quote:
A me sembra di capire che tu ti sia fatto abbindolare dal marketing di nvidia. La realtà è questa: una GTX580 1,5GB sta ad una GTX580 OC da 3GB come una GTX780 sta ad una Titan. Niente di più e niente di meno. Quello che cambia è: 1) il marchio Titan. (belloooo )2) potenza piena in DP...che serve come è noto ai professionisti che non possono permettersi scheduzze da poche migliaia di euro, per delle simulazioni che ne valgono milioni. Queste 2 cose non giustificano il rincavo di nvidia. Da 550 euro di una GTX 3GB si è passati ai 1000 di titan...in 2 anni il raddoppio della ram a parità di costo era lecito attenderselo. Quote:
Ma non c'è dubbio che dopo ben 2 anni per restare in casa nvidia per avere il raddoppio della vram si deve spendere il doppio. QUesto è il punto. Domani mattina AMD-nvidia portano il listino della fascia entusiast da 500euro (pardon 1000 per nvidia Quote:
Quote:
Ultima modifica di tuttodigitale : 28-10-2013 alle 18:10. |
|||||
|
|
|
|
|
#329 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4006
|
Quote:
Ci sono 6 GB di RAM con cui fare tutto il GPGPU che il GK110 è in grado di fare (non certificato) e costa 1000 euro. L'alternativa è una Quadro: 4000 euro. La 7970/290X/780 sono e rimangono Punto GT perché puoi avere tutta la potenza (potenziale) che vuoi ma se alla fine non la puoi usare per fare niente, queste le usi per i benchamrk quelle per fare il ganzo in paese. Per correre non serve necessariamente una F1, ma almeno una macchina che non fa solo rumore e a 200 all'ora sia a palla con i pistoni che esplodono. Con tutto rispetto, anche di una suite di bench fatta da una università ci faccio poco. Prova a chiederti perché non ci sono confronti fatti con prodotti professionali. Perché il risultato sarebbe nvidia 100, AMD 0 indipendentemente da quanti GFlops, RAM, GHz o W le scehe AMD siano in grado di offrire. Semplicemente i benchmark bisogna inventarseli e in questo modo si testta solo un solo caso tra particolare algoritmo usato e dati datogli in pasto. Gli stesso bench fatti con i programi professionali contano poco se ad esempio non si specifica quanto grande è una scena a renderizzare: una scena da 1,5GB su 580 è diversa da una da 3GB su 580 OC con 3GB di RAM che è a sua volta diversa da una da 6GB che può essere renderizzata SOLO sulla Titan. Io non mi sono fatto per niente abbindolare dal marketing nvidia. Nè da quello AMD se è per quello. Come già detto uso schede di altro livello (ben inferiore) che bastano e stra avanzano per quello che faccio io. Perché io so quello che compro. Non compro una Titan pagandola fior fior di quattrini perché così posso fare 10 FPS in più in BF4 e poi mi lamento se esce una 290X che va uguale e costa la metà (o prendo solo in considerazione di fare un confronto tra le due schede). Io ho capito a cosa serviva la Titan quando è uscita e non mi sono stupito di vedere una 780 che andava poco meno a 400 euro in meno, così come non mi stupisco che tra un po' esce una 780 Ti che costa sempre 350 euro in meno e andrà addirittura di più. Mi sembra invece che sono coloro che si sono fatti fregare dal marketing nvidia che ancora, un po' dappertutto, continuano con la questione Titan vs 290X-metà-prezzo-stesse prestazioni. Gli nvidiani che si lamentano perché non hanno capito cosa compravano, gli AMDiani che esultano perché non hanno capito che la 290X non ha nessuna pretesa di mettersi in competizione con essa. E la dimostrazione è questa: http://www.hwupgrade.it/news/skvideo/nuovi-prezzi-per-le-schede-nvidia-geforce-gtx-780-e-770_49421.html Della Titan nessuna traccia. Game over e fine OT |
|
|
|
|
|
|
#330 | ||
|
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4377
|
Quote:
Anche Ibm ha detto che le sue cpu dovevano viaggiare a 5,5GHz, peccato che si siano fermate a 4,16GHz... Diciamo che a spararla grossa in quel caso è stata GF/IBM che hanno lavorato sui 32nm. E gli stessi studi IBM riportano che l'ideale per i 32nm era un'architettura FO4 17. Quote:
In altri termini , o i guadagni prestazionali sono tangibili (imho 10% non lo è) o AMD avrà fatto un buco nell'acqua. Ma un affermazione così forte (la R9 290x non sarà solo più veloce, ma umilierà la Titan) da parte di coloro che stanno contribuendo in parte alla stesura del codice di basso livello fa pensare che le prestazioni con GCN subiranno un'impennata (le patch per le API Glide incrementavano le prestazioni in maniera impressionante) |
||
|
|
|
|
|
#331 | |||||||||||||
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Quote:
Quote:
e chi lo ha detto; anche nVidia sta investendo in OpenCL e molti degli engine sviluppati con entrambe le librerie, sono più veloci in OpenCL anche su chip nVidia. Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Alla tua domanda, la risposta è no, perché titan non ha risorse in più rispetto alla 780. Quando parlavo di collo di bottiglia mi riferivo ad altro, come, ad esempio, le frequenze di funzionamento (titan e 780 hanno lo stesso numero di RBE ma quelle della 780 lavorano a frequenza più alta e, quindi, la 780 ha un pixel fillrate più elevato di titan) Quote:
Quote:
Quote:
Quote:
Ultima modifica di yossarian : 28-10-2013 alle 20:29. |
|||||||||||||
|
|
|
|
|
#332 |
|
Senior Member
Iscritto dal: Oct 2005
Messaggi: 38298
|
intendeva la patch che è uscita sulla beta
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48 le vga che ho avuto |
|
|
|
|
|
#333 | |
|
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4377
|
Quote:
Ti sembra che io abbia detto che la Titan è inutile? Ti ho detto solo che la TITAN è l'erede naturale della GTX580 3GB. Peccato che nvidia abbia pensato di far lievitare il prezzo della sua migliore scheda da gioco single gpu. Forse così è più chiaro: quasi 3 anni fa uno prendeva la GTX580 3GB per fare rendering. Oggi con gli stessi soldi non ti compri niente. Decidi di alzare un pochino il budget e scopri che la GTX780 ha solo 3GB di Ram come la tua obsoleta scheda video....chi mastica un pò di informatica sa che ogni 2 anni la dotazione di ram raddoppia e non si aspetterebbe che per avere 6GB (che sono come 3GB di qualche anno fa) deve spendere il doppio... Praticamente per avere una scheda che ha prestazioni e RAM doppie dopo quasi 3 anni si deve spendere in proporzione. Il rapporto prezzo/prestazioni è rimasto invariato dopo 30 mesi. C'è qualcosa che non va, è evidente. Questo a casa mia non si chiama progresso. tutta la generazione a 28nm è caratterizzata da prezzi folli. schede dotate di chip di fascia medio-alta (tahiti e gk104) venduti a 400-500 euro una dual gpu a 1000 euro. una Titan, che poi non sarebbe altro che la GTX 580 3GB dei nostri giorni, a 1000 euro? Bisogna semplicemente prendere atto che è così. Ma non Hanno deciso di aumentare i ricavi ma non danno molto di più a parità di costi nel gpgpu, alla faccia dell'obsolescenza precoce. Te capì? |
|
|
|
|
|
|
#334 |
|
Bannato
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
|
Giusto per completezza di info riguardo il gpgpu di titan:
ModelloTesla K20 Peak SP3,52 TFlopsPeak DP1,17 Tesla K20X Peak SP TFlops3,95 TFlops DP1,31 GeForce GTX Titan Peak SP TFlops4,5 TFlops DP 0,2TFlops (abilitando la piena velocità delle unita DP ) SP TFlops3,2 DP TFlops 1,05 |
|
|
|
|
|
#335 | ||||||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4006
|
Quote:
Non so come tu possa dire che 400 euro in più per una Titan sia un investimento peggiore di 2400 euro in più di una Tesla. Quest'ultima va 3 volte una Titan? Se faccio un render al giorno dove 4 ore non sono un problema, mentre 12 o + perché non ho abbastanza RAM e devo usare la CPU, se con la Tesla arrivo a 3.5 ore poco mi cambia. Se non il fatto che ho un botto di soldi in meno in tasca. Insomma, non c'è solo chi ha un centro di calcolo HPC o ha una render farm attiva e impegnata al 100% 24/24 dove il 10% in più significano tanti soldi e un errore in un render/calcolo significa la catastrofe mondiale o il fallimento. Quote:
Evidentemente il tuo non fa parte di questi Quote:
Me ne hai detto 1 in OpenCL., di cui però non trovo alcun bench. I test di Adobe sono da ridere dato che tutte le prove che ho visto io sopra il livello computazionale della 660/7850 si livellano, dimostrando che con la GPU accelerano solo una piccola parte di tutto il calcolo e andare oltre fino verso ad una Titan (o persino una Quadro/FirePro) non ha alcun senso. Quote:
Quote:
La Titan ha risorse in più rispetto alla 780. E questo che non vuoi ammettere. La Titan ha 3GB di RAM in più e le unità di calcolo DP. Che ti servano o meno lo decidi tu. Ma non puoi dire che una ha le stesse cose che offre l'altra. E il fatto di poter fare il rendering di scene mediamente complesse con 1000 euro invece di fare solo quelle semplici per 600, per qualcuno vale 400 euro di differenza, ma probabilmente non i duemila e passa per una Tesla. Il cui vantaggio è poi quello di poter essere usato in unità multiple, per cui il vero investimento ha validità se ne compri 2 o 3. Quote:
Per quanto hai detto, no non ce n'è. Non al momento almeno. La risposta sta tutta nel post di tuttodigitale: Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali. Poi quando AMD arriva con mesi e mesi di ritardo tutti a lamentarsi ed ad accorgersi che qualcosa non va. Qualcosa non va dal Gennaio 2012. Tra un po' saremo a Gennaio 2014. Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male. |
||||||
|
|
|
|
|
#336 |
|
Senior Member
Iscritto dal: Dec 2001
Messaggi: 8488
|
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5 |
|
|
|
|
|
#337 |
|
Senior Member
Iscritto dal: Aug 2008
Messaggi: 6453
|
gesù in carne e ossa mi sà
__________________
definizione di fanboy lo adoro sto ragazzo epic post: google, applepay, superiorità occidentale, troppa insistenza |
|
|
|
|
|
#338 |
|
Senior Member
Iscritto dal: Sep 2009
Messaggi: 4463
|
mah, io trovo la serie hd 7000 tra le più riuscite degli ultimi tempi e di sicuro possono competere con le nvidia (lato gaming, che penso sia pure quello più redditizio)... sinceramente non so cosa vuoi.. io vedo solo ottime schede( ho una 7850) a prezzi onesti che permettono un considerevole boost se confrontate con la serie precedente..
__________________
CASE: PHANTEKS P500A| MOBO: ROG STRIX Z690-F GAMING WIFI| CPU: i9-12900K| DISSIPATORE: LIQUID FREEZER II 420mm| RAM: TEAMGROUP XTREEM 32GB @6600MHz CL34| STORAGE: vari Nvme| VGA: ZOTAC RTX 3070 Ti| ALI: CORSAIR RM1000X| S.O: WINDOWS 11 PRO X64 |
|
|
|
|
|
#339 | ||||
|
Senior Member
Iscritto dal: May 2005
Messaggi: 12122
|
Quote:
Quote:
Quote:
ora, questo video è stato fatto da www.boxxtech.com/ , fanno workstation di alta e altissima gamma specifiche per ogni tipologia di calcolo, e le configurano in tutti i modi possibili con Quadro, Tesla e GTX; il video è stato fatto per rispondere alle varie domande che gli venivano fatte per la configurazione ottimale di una Workstation per GPGPU per rendering. quello che vedi è la finestra Real Time di Vray RT che NON centra una fava con la viewpoert e i driver, e spero di non doverlo piu ripetere. https://www.youtube.com/watch?v=mqt3kPc0zik oh, to guarda, funziona come sto scrivendo da nmila pagine.... nel GPGPU vince la Titan che ha piu SP a maggior frequenza. NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte. Quote:
Octane Render can run on all CUDA enabled consumer video cards (Nvidia GeForce 8000 series and up), instead of only on high-end Quadro cards that most other solutions and middleware require, but it is specifically optimized to run on Kepler (GTX 6xx, GTX 7xx, GTX Titan) and Fermi (GTX 4xx, GTX 5xx) GPUs. Kepler GPUs allow a higher texture limit (256 compared to 128 on Fermi) and are also more power efficient and more silent than Fermi cards. GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs. The GeForce GTX 780 and GTX Titan currently offer the best performance to price ratio, but any recent high end Nvidia card will offer great rendering performance with Octane. http://render.otoy.com/faqs.php visto che hai nominato anceh Arion, vediamo cosa consigliano i programmatori di RandomControl http://www.randomcontrol.com/compatibility oh Titan e GTX consigliate al pari delle Tesla....
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - No More Render - Leica RTC360 & BLK360
|
||||
|
|
|
|
|
#340 | ||||||||||
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
qui leggo gk110. E, in ogni caso, se ti serve la produttività perché ci lavori (e guadagni), allora hai bisogno di stabilità e velocità e, quindi una tesla. Se ci cazzeggi, allora puoi impiegare un po' più di tempo ma tanto vale risparmiare e comprare una 780 gtx. Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
|
||||||||||
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 02:46.












)








