Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Wind Tre 'accende' il 5G Standalone in Italia: si apre una nuova era basata sui servizi
Wind Tre 'accende' il 5G Standalone in Italia: si apre una nuova era basata sui servizi
Con la prima rete 5G Standalone attiva in Italia, WINDTRE compie un passo decisivo verso un modello di connettività intelligente che abilita scenari avanzati per imprese e pubbliche amministrazioni, trasformando la rete da infrastruttura a piattaforma per servizi a valore aggiunto
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro punta a diventare uno dei riferimenti assoluti nel segmento dei camera phone di fascia alta. Con un teleobiettivo Hasselblad da 200 MP, una batteria al silicio-carbonio da 7500 mAh e un display da 6,78 pollici con cornici ultra ridotte, il nuovo flagship non teme confronti con la concorrenza, e non solo nel comparto fotografico mobile. La dotazione tecnica include il processore MediaTek Dimensity 9500, certificazione IP69 e un sistema di ricarica rapida a 80W
DJI Romo, il robot aspirapolvere tutto trasparente
DJI Romo, il robot aspirapolvere tutto trasparente
Anche DJI entra nel panorama delle aziende che propongono una soluzione per la pulizia di casa, facendo leva sulla propria esperienza legata alla mappatura degli ambienti e all'evitamento di ostacoli maturata nel mondo dei droni. Romo è un robot preciso ed efficace, dal design decisamente originale e unico ma che richiede per questo un costo d'acquisto molto elevato
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 28-10-2013, 00:40   #321
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Col Cry engine è fattibile (sta sempre sotto EA....quindi ci metteranno poco a portarlo in Mantle) ma con Epic la vedo molto dura........ sono verdissimi da sempre là dentro
Spoiler:
la DP su hawaii l'hanno "castrata" volutamente. In teoria potrebbe arrivare ad 1/2 della capacità di calcolo in SP (rispetto al valore di 1/4 dei chip precedenti), per cui c'è da aspettarsi una firepro da 2800 Gflops
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 09:28   #322
esse09
Senior Member
 
L'Avatar di esse09
 
Iscritto dal: Oct 2008
Città: Bra
Messaggi: 1429
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Qualcuno sà qualcosa riguardo al pacchetto giochi che dovrebbe regalare AMD assieme a queste schede ? lo hanno tolto ?
Al momento non e' previsto, lo puoi ancora avere con le schede della serie 7000 acquistando da HRW, Eprice, Monclick, Next.
Codice:
http://sites.amd.com/PublishingImages/Public/Graphic_Illustrations/PNG/Level-Up-Matrix-968W.png
__________________
@Work: Dell 5820 / Xeon W-2235 / Quadro RTX4000 / 2x16gb 2666mhz CL19 ECC / 2x Dell U2720Q
@Home: Corsair Carbide 300R / Corsair AX750 / Asus P8C WS / Intel Xeon E3-1240v2 / AMD FirePro V5900 / Kingston 4x4gb 1600mhz CL11 ECC / OCZ Vector / Samsung 24" 1200p
esse09 è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 10:26   #323
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi


la patch esce a dicembre
chissà le prestazioni: AMD un mese fa disse che in BF4 con la patch mantle la R9 290x "coprirà di ridicolo" la Titan. L'incremento prestazioni ottenubile con questa prima patch segnerà probabilmente il futuro di Mantle, da un buon 10% di vantaggio prestazionale che di primo acchito mi aspetterei, vedendola sotto un altra luce (E' LA patch) direi che Mantle se non farà segnare almeno un +20%, sarà difficile che il supporto per le API di AMD sarà esteso su altri motori grafici..

Ultima modifica di tuttodigitale : 28-10-2013 alle 10:44.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 12:21   #324
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
chissà le prestazioni: AMD un mese fa disse che in BF4 con la patch mantle la R9 290x "coprirà di ridicolo" la Titan. L'incremento prestazioni ottenubile con questa prima patch segnerà probabilmente il futuro di Mantle, da un buon 10% di vantaggio prestazionale che di primo acchito mi aspetterei, vedendola sotto un altra luce (E' LA patch) direi che Mantle se non farà segnare almeno un +20%, sarà difficile che il supporto per le API di AMD sarà esteso su altri motori grafici..
Io non ho visto alcun demo dimostrativo di questo Mantle e non capisco da dove escono sti numeri, 10, 20, 50, 70, 80 ..... cos'è una pubblicità del Lotto ?

A dire sta cosa è stata AMD e sinceramente io finchè non vedo ci andrei con i piedi di piombo, anche Bulldozer doveva battere Intel secondo loro.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 12:58   #325
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Spoiler:
la DP su hawaii l'hanno "castrata" volutamente. In teoria potrebbe arrivare ad 1/2 della capacità di calcolo in SP (rispetto al valore di 1/4 dei chip precedenti), per cui c'è da aspettarsi una firepro da 2800 Gflops

Ma quindi è a livello di Tahiti? 1/4?

Allora non mi spiego alcuni risultati nei bench..
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 13:12   #326
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 4006
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.

Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Se con la Titan faccio cose che con la R9 290X che costa la metà (ma fosse anche la GTX780 super mega hyper clocked da 10W) non posso fare, allora il prezzo diventa quello della finalità della scheda.
Prendi una Mustang da 200 CV da 30K euro. Prendi un trattore da 250CV da 70K euro. Secondo te quei 50CV giustificano la differenza di prezzo?

Il ragionamento da parte di nvidia è semplice: ci puoi fare GPGPU a livello quasi professionale perché te lo sto permettendo (con DP e abbondante RAM)? Allora te la faccio pagare meno di una scheda professionale (che ha ben altre caratteristiche, su questo non c'è dubbio) ma sicuramente di più di una scheda da gioco con cui al massimo ci fai girare stupidissimi benchamark per vantarti con gli amici.
Prendere una 7970 con 12 o anche 24GB di RAM al prezzo di un gelato sarebbe comunuqe inutile, perché gli algoritmi dei SW professionali usano tutti CUDA e dei benchmark Luxrender e di crittografia i loro utilizatori se ne fregano.
Di algoritmi professionali scritti in OpenCL non ce ne sono per ora. Quando (e se) ci saranno, si faranno i dovuti confronti. Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.

Punto, fine della giustificazione.
Il fatto che in alcuni bench la Titan non vada più del GK104 (anzi va proprio uguale), per favore, non farmela passare come un prblema del GK110. E' evidente che il problema è il supporto SW, che siano i driver o l'algoritmo stesso (per quello detto prima, come scrivi l'algoritmo conta).
Se la GTX780 va il 50% di più della Titan, quale può essere il problema se non una mancanza di riconoscimento delle risorse disponibile da parte del programma?
Modificato il componente SW, ecco che la scheda torna a fare quello che si si aspetta quand sfrutta il 180% delle risosrse in più che ha rispetto al GK104, o il 110% rispetto alla più vicina GTX.
Solo che ovviamente la cosa ha valore se
1. nvidia o chi per essa ha interesse a fare in modo che la scheda vada veloce in quel benchmark o in quella particolare applicazione
2. che in tal caso il test sia rifatto

Dai su, non facciamo i bambini che cercano di giustificare in tutti i casi le proprie convinzioni. Abbiamo capito chiaramente che secondo te la CGN è l'architettura "più migliore della galassia", ma non scadere nel ridicolo quando ti si fa presente che nel mondo reale ha i suoi evidenti problemi a farsi apprezzare (e pagare) mentre la "più modesta sennò totalmente innefficiente" architettura nvidia per ora ha dimostrato di funzionare i maniera soddisfacente e per tanto NVIDIA SE LA FA PAGARE.
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe

Ultima modifica di CrapaDiLegno : 28-10-2013 alle 13:20.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 13:46   #327
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 4006
@PaulGuru
Quote:
Quindi per 6000 stream non intesi come gli stessi stream di Kepler ma totalmente differenti perchè nemmeno con 20nm si possono triplicare gli stream di una 780.
No, ci sono delle cose che ti sfuggono per affermare questo:
1. gli stream processors non sono il 100% del die della GPU, percui tripicali non vuol dire necessariamente triplicare la superficie.
2. Sembra che con Maxwell nvidia abbia abbandonato le doppie unità di esecuzione SP/DP in favore, come per AMD, di una architettura SP in grado di fare calcoli DP abbinando 2 unita SP " a run time".
Questo vuol dire che le 64 unità DP presenti negli SMX che oggi non sono contati nel totale sono semplicemente "trasformate" in SP. Ammettendo di distribuire il supporto per la funzionalità DP tra tutte le altre unità SP presenti (che dovranno diventare un po' più grandi per poter essere trasformate da 2xSP a 1xDP), si può ipotizzare che la superficie rimanga la stessa.
Il totale comunque sono sempre 256 unità di calcolo per SMX, questa volta omogenee e più flessibili rispetto a prima (192+64).
Non serve quindi triplicare la superficie neanche della sezione degli shader per avere il triplo degli shader in funzione. A occiho quell'area è solo raddoppiata (come è classico ad ogni die shrink) però il rendimento in unità di calcolo è molto più alto del 200%.
E se l'idea è quella di avere una unità DP sommando due unità SP per tutte le unità SP in un SMX, allora si raddoppia anche la capacità di calcolo in DP. Se così funziona direi che nvidia aumenterà ancora di più l'efficienza della sua architettura rispetto a quello che già riesce ad avere oggi riseptto a CGN (che già usa questo tipo di soluzione).

Ultima modifica di CrapaDiLegno : 28-10-2013 alle 13:49.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 16:26   #328
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
forse non ci indendiamo, io non ho mai detto che generalmente AMD in OpenCL non sia prestazionalmente avanti, men che meno che la Titan sia sempre la migliore VGA per il GPGPU e ancora meno che la Titan sia ottima in OpenCL.
Non mi sembra proprio. Infatti ti ho detto che in un benchmark, che dovrebbe essere significativo (se ci fidiamo di Anandtech e dall'università che l'ha prodotto) GK110 esce con le ossa rotte con Tahiti figuriamoci con Hawaii.
E giusto per dover di cronaca, il secondo supercomputer più efficiente al mondo è basato su soluzioni GCN, direi che l'architettura di AMD non faccia poi così schifo (qualcuno in questo thread addirittura aveva detto che NESSUNO usa le Firepro per HPC).
Per il resto condivido il tuo giudizio tecnico sulla questione. Ma se l'acquisto di una Titan ha senso, e lo ha in particolari condizioni di utilizzo, non si può non obiettare chi dice (Crapadilegno) che con Titan nvidia ha definito una nuova fascia, che ha nominato prosumer

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.
Ora non per difendere yossarian, che forse non conosceva i problemi relativi alla poca dotazione di vram, ha ragione quando dice che questa è una scheda gaming. Che possa essere fatto un uso professionale esattamente come si faceva un paio di anni fa con la GTX580 da 3GB è un altro paio di maniche.
A me sembra di capire che tu ti sia fatto abbindolare dal marketing di nvidia. La realtà è questa: una GTX580 1,5GB sta ad una GTX580 OC da 3GB come una GTX780 sta ad una Titan. Niente di più e niente di meno.
Quello che cambia è:
1) il marchio Titan. (belloooo )
2) potenza piena in DP...che serve come è noto ai professionisti che non possono permettersi scheduzze da poche migliaia di euro, per delle simulazioni che ne valgono milioni.

Queste 2 cose non giustificano il rincavo di nvidia. Da 550 euro di una GTX 3GB si è passati ai 1000 di titan...in 2 anni il raddoppio della ram a parità di costo era lecito attenderselo.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Capisco in parte il tuo punto di vista.
Ma non c'è dubbio che dopo ben 2 anni per restare in casa nvidia per avere il raddoppio della vram si deve spendere il doppio. QUesto è il punto.
Domani mattina AMD-nvidia portano il listino della fascia entusiast da 500euro (pardon 1000 per nvidia , #) a 2000 euro, perchè vietano ai produttori di dotare le loro GPU di fascia inferiore al massimo con 1GB di ram...

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
@yossarian
Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.
Qui ti volevo...se fai rendering della DP non te fai una cippa, se ti serve forse perchè fai delle simulazioni, e in tal caso il supporto al ECC è necessario.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe
Più che puntoGT, la HD7970/r9 290x sono delle ferrari che devono ancora ottenere l'omologazione su strada. La puntoGT imho, rimangono le schede basate su Gk104,

Ultima modifica di tuttodigitale : 28-10-2013 alle 18:10.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 16:52   #329
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 4006
Quote:
Qui ti volevo...se fai rendering della DP non te fai una cippa, se ti serve forse perchè fai delle simulazioni, e in tal caso il supporto al ECC è necessario.
Non te ne fai una pippa, forse. nvidia la fa pagare e quindi se nella Titan c'è paghi. Punto. Se non ti serve, compri una 780/580/7970/290X/
Ci sono 6 GB di RAM con cui fare tutto il GPGPU che il GK110 è in grado di fare (non certificato) e costa 1000 euro. L'alternativa è una Quadro: 4000 euro.
La 7970/290X/780 sono e rimangono Punto GT perché puoi avere tutta la potenza (potenziale) che vuoi ma se alla fine non la puoi usare per fare niente, queste le usi per i benchamrk quelle per fare il ganzo in paese.
Per correre non serve necessariamente una F1, ma almeno una macchina che non fa solo rumore e a 200 all'ora sia a palla con i pistoni che esplodono.
Con tutto rispetto, anche di una suite di bench fatta da una università ci faccio poco. Prova a chiederti perché non ci sono confronti fatti con prodotti professionali. Perché il risultato sarebbe nvidia 100, AMD 0 indipendentemente da quanti GFlops, RAM, GHz o W le scehe AMD siano in grado di offrire.
Semplicemente i benchmark bisogna inventarseli e in questo modo si testta solo un solo caso tra particolare algoritmo usato e dati datogli in pasto.
Gli stesso bench fatti con i programi professionali contano poco se ad esempio non si specifica quanto grande è una scena a renderizzare: una scena da 1,5GB su 580 è diversa da una da 3GB su 580 OC con 3GB di RAM che è a sua volta diversa da una da 6GB che può essere renderizzata SOLO sulla Titan.

Io non mi sono fatto per niente abbindolare dal marketing nvidia. Nè da quello AMD se è per quello. Come già detto uso schede di altro livello (ben inferiore) che bastano e stra avanzano per quello che faccio io.
Perché io so quello che compro. Non compro una Titan pagandola fior fior di quattrini perché così posso fare 10 FPS in più in BF4 e poi mi lamento se esce una 290X che va uguale e costa la metà (o prendo solo in considerazione di fare un confronto tra le due schede).
Io ho capito a cosa serviva la Titan quando è uscita e non mi sono stupito di vedere una 780 che andava poco meno a 400 euro in meno, così come non mi stupisco che tra un po' esce una 780 Ti che costa sempre 350 euro in meno e andrà addirittura di più.

Mi sembra invece che sono coloro che si sono fatti fregare dal marketing nvidia che ancora, un po' dappertutto, continuano con la questione Titan vs 290X-metà-prezzo-stesse prestazioni. Gli nvidiani che si lamentano perché non hanno capito cosa compravano, gli AMDiani che esultano perché non hanno capito che la 290X non ha nessuna pretesa di mettersi in competizione con essa.

E la dimostrazione è questa:
http://www.hwupgrade.it/news/skvideo/nuovi-prezzi-per-le-schede-nvidia-geforce-gtx-780-e-770_49421.html

Della Titan nessuna traccia.

Game over e fine OT
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 16:57   #330
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
A dire sta cosa è stata AMD e sinceramente io finchè non vedo ci andrei con i piedi di piombo, anche Bulldozer doveva battere Intel secondo loro.
AMD è stata condizionata anche da quello che gli riferivano i tecnici di GF, e avevano previsto i 4,5 a default senza nessun tipo di tecnologia risonante.
Anche Ibm ha detto che le sue cpu dovevano viaggiare a 5,5GHz, peccato che si siano fermate a 4,16GHz...
Diciamo che a spararla grossa in quel caso è stata GF/IBM che hanno lavorato sui 32nm. E gli stessi studi IBM riportano che l'ideale per i 32nm era un'architettura FO4 17.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Io non ho visto alcun demo dimostrativo di questo Mantle e non capisco da dove escono sti numeri, 10, 20, 50, 70, 80 ..... cos'è una pubblicità del Lotto ?
La patch è ritenuta da tutti l'unica vera possibilità per Mantle di dimostrare le sue qualità.
In altri termini , o i guadagni prestazionali sono tangibili (imho 10% non lo è) o AMD avrà fatto un buco nell'acqua. Ma un affermazione così forte (la R9 290x non sarà solo più veloce, ma umilierà la Titan) da parte di coloro che stanno contribuendo in parte alla stesura del codice di basso livello fa pensare che le prestazioni con GCN subiranno un'impennata (le patch per le API Glide incrementavano le prestazioni in maniera impressionante)
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 17:06   #331
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
stai continuando a confondere viewport ed engine di GPGPU.... Catia, Pro-E NON hanno engine CUDA e nemmeno OpenCL; TUTTI i software CAD CAM o di Modellaizione usano come engine le DirectX, le OpenGL o, nel caso di 3DMax, anche i Nitruos ( che dovrebbero essere una cosa simile alle DirectX).
dx, opengl, nitruos, sono set di librerie. Le prime due standard la terza proprietaria. Non si tratta di engine ma di API. I motori grafici sono un'altra cosa e possono essere scritti in CUDA, OpenCL o chi per essi (anche dx o opengl). Quello che non mi è chiaro è a cosa ti serve il gpgpu, visto che continui a paragonare titan alla quadro (che non c'entra una mazza col gpgpu). Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).

Quote:
Originariamente inviato da AceGranger Guarda i messaggi
[b]Quasi tutti gli engine per il rendering di quei programmi sono tutti basati su CPU, i rendering engine GPGPU per quei programmi, per quelli che li hanno, sono delle plugin esterne ma sono praticamente tutti CUDA.
vray è anche in opencl, iray è CUDA o CPU come arion. Mental ray è solo cpu; octane è solo CUDA. Gli engine delle suite di adobe (compresi photoshop e premiere) sono anche in OPenCL e sono anche più veloci della controparte CUDA e lo stesso vale per quello di sony vegas. Quindi, dipende da cosa devi programmare; se lavori con octane allora nVidia è la scelta obbligata, s lavori con iray allora è preferibile (meglio su gpu che su cpu); però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.

Quote:
Originariamente inviato da AceGranger Guarda i messaggi

bè chiaro, ma credo che AMD sia piu pronta su OpenCL, quindi spero che cerchi di mantenere questo vantaggio. Se i software che uso andranno meglio su AMD, e se le sue VGA avranno un hardware consono ai miei utilizzi, i miei soldi andranno a lei.

e chi lo ha detto; anche nVidia sta investendo in OpenCL e molti degli engine sviluppati con entrambe le librerie, sono più veloci in OpenCL anche su chip nVidia.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
@yossarian
Con tutto il rispetto per le tue conoscenze in ambito GPU e non solo, mi sembra che hai parecchi problemi a comprendere il significato delle parole (e delle intenzioni) della gente comune, quasi vivessi un po' fuori dal mondo reale. Succede quando si crede (o si vorrebbe) che il mondo funzionasse come sulla carta che si studia.
certi mondi rispecchiano le carte molto più di altri.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il discorso sulla giustificazione del costo della Titan lo devi fare in base agli usi che tale scheda permette di fare. E lo devi fare a partire dalla sterategia nvidia, non quella AMD.
Se con la Titan faccio cose che con la R9 290X che costa la metà (ma fosse anche la GTX780 super mega hyper clocked da 10W) non posso fare, allora il prezzo diventa quello della finalità della scheda.
Prendi una Mustang da 200 CV da 30K euro. Prendi un trattore da 250CV da 70K euro. Secondo te quei 50CV giustificano la differenza di prezzo?
il problema è proprio questo; lo stesso AceGranger ha ammesso che una qualunque quadro gestisce le viewport meglio di titan; io aggiungo che una qualsiasi tesla gestisce il gpgpu meglio di titan. Se togli CAD/CAM e GPGPU, restano montaggio video e fotoritocco (che usano anche OpenCL). Poi, i programmi professionali sono finiti e restano i giochi. Ora, titan è una scheda che, in ambito professionale, non eccelle in niente ma si difende in tutti i campi; è, invece, un'eccellente scheda per giocare. Quindi, chi vuole una scheda tutto fare senza spendere un capitale e, ogni tanto, si diletta anche con CUDA, allora titan può essere una buona scelta. Ovvio che se i SW di gpgpu o di cad/cam li usi per lavorare (e produrre), ti serve il massimo dell'affidabilità e della velocità in quei due ambiti (e titan non può garantirti né l'una né l'altra). Di sicuro c'è che non è un prodotto professionale e la stessa nVidia nel presentarla dice che la potenza dei supercomputer è disponibile anche in un prodotto consumer (riferendosi alla sola potenza di calcolo teorica e tralasciando driver ad hoc e doppio dma engine).

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Il ragionamento da parte di nvidia è semplice: ci puoi fare GPGPU a livello quasi professionale perché te lo sto permettendo (con DP e abbondante RAM)? Allora te la faccio pagare meno di una scheda professionale (che ha ben altre caratteristiche, su questo non c'è dubbio) ma sicuramente di più di una scheda da gioco con cui al massimo ci fai girare stupidissimi benchamark per vantarti con gli amici.
c'è più differenza, nel gppgu, tra una tesla e titan che non tra titan e una 780 gtx.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Prendere una 7970 con 12 o anche 24GB di RAM al prezzo di un gelato sarebbe comunuqe inutile, perché gli algoritmi dei SW professionali usano tutti CUDA e dei benchmark Luxrender e di crittografia i loro utilizatori se ne fregano.
Di algoritmi professionali scritti in OpenCL non ce ne sono per ora. Quando (e se) ci saranno, si faranno i dovuti confronti.
invece ci sono, leggi sopra l'elenco

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Per ora il verdetto è che se vuoi fare qualcosa "che ti renda soldi" perché sei uno studio professionale a cui non serve la ECC (se il rendering va storto, va be', lo rifai il giorno dopo, mica costruisci un reattore nucleare buggato o una medicina basata su una molecola non efficiente) allora paghi per la Titan, la cui unica alternativa è una Tesla o una Quadro.

Punto, fine della giustificazione.
se vuoi fare qualcosa che ti renda soldi e ti serve la massima produttività, investi in strumenti professionali. SE sono un fotografo di professione non prendo una d7000 o una d7100 ma una d4 se mi serve la velocità o una d800 se mi serve la risoluzione.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Il fatto che in alcuni bench la Titan non vada più del GK104 (anzi va proprio uguale), per favore, non farmela passare come un prblema del GK110. E' evidente che il problema è il supporto SW, che siano i driver o l'algoritmo stesso (per quello detto prima, come scrivi l'algoritmo conta).
Se la GTX780 va il 50% di più della Titan, quale può essere il problema se non una mancanza di riconoscimento delle risorse disponibile da parte del programma?
infatti non ho mai parlato di gk104 e gk110 ma del fatto che titan non risulti tanto più veloce di una 780 da giustificare la differenza di prezzo neppure nei bench con cuda.
Alla tua domanda, la risposta è no, perché titan non ha risorse in più rispetto alla 780. Quando parlavo di collo di bottiglia mi riferivo ad altro, come, ad esempio, le frequenze di funzionamento (titan e 780 hanno lo stesso numero di RBE ma quelle della 780 lavorano a frequenza più alta e, quindi, la 780 ha un pixel fillrate più elevato di titan)

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Modificato il componente SW, ecco che la scheda torna a fare quello che si si aspetta quand sfrutta il 180% delle risosrse in più che ha rispetto al GK104, o il 110% rispetto alla più vicina GTX.
Solo che ovviamente la cosa ha valore se
1. nvidia o chi per essa ha interesse a fare in modo che la scheda vada veloce in quel benchmark o in quella particolare applicazione
2. che in tal caso il test sia rifatto
vale quanto detto sopra

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Dai su, non facciamo i bambini che cercano di giustificare in tutti i casi le proprie convinzioni. Abbiamo capito chiaramente che secondo te la CGN è l'architettura "più migliore della galassia",
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
.
dov'è che avrei scritto una cosa del genere? Dai, facci ridere

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
ma non scadere nel ridicolo quando ti si fa presente che nel mondo reale ha i suoi evidenti problemi a farsi apprezzare (e pagare) mentre la "più modesta sennò totalmente innefficiente" architettura nvidia per ora ha dimostrato di funzionare i maniera soddisfacente e per tanto NVIDIA SE LA FA PAGARE.
e tu non scadere nel ridicolo tentando di giustificare l'ingiustificabile. Se ti serve per "produrre" e vuoi CUDA, allora prendi quadro (per CAD) o tesla (per GPGPU), se ti serve per giocare e, saltuariamente, far girare qualche applicazione di gpgpu, allora puoi prendere titan ma anche una più modesta 780 gtx (chi scegli titan al posto di tesla non ha bisogno di tutta questa velocità nei calcoli)

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Che sia per 3GB di RAM, una manciata di unità DP abilitate o semplicemente perché fa 5FPS in più. Se li vuoi paghi. Altrimenti, come ampiamente detto, si passa alle PuntoGT che costando la metà fanno 10 FPS in più nei giochi e poi però finiscono lì le proprie possibilità d'uso.
Ah, no, ci sono anche i benchmark OpenCL in cui far vedere le barrette più o meno lunghe
no, c'è anche altro

Ultima modifica di yossarian : 28-10-2013 alle 20:29.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 17:25   #332
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi


la patch esce a dicembre
intendeva la patch che è uscita sulla beta
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 17:29   #333
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
una scena da 1,5GB su 580 è diversa da una da 3GB su 580 OC con 3GB di RAM che è a sua volta diversa da una da 6GB che può essere renderizzata SOLO sulla Titan.
Fai finta di non capire.
Ti sembra che io abbia detto che la Titan è inutile?
Ti ho detto solo che la TITAN è l'erede naturale della GTX580 3GB. Peccato che nvidia abbia pensato di far lievitare il prezzo della sua migliore scheda da gioco single gpu.

Forse così è più chiaro:
quasi 3 anni fa uno prendeva la GTX580 3GB per fare rendering.
Oggi con gli stessi soldi non ti compri niente. Decidi di alzare un pochino il budget e scopri che la GTX780 ha solo 3GB di Ram come la tua obsoleta scheda video....chi mastica un pò di informatica sa che ogni 2 anni la dotazione di ram raddoppia e non si aspetterebbe che per avere 6GB (che sono come 3GB di qualche anno fa) deve spendere il doppio...
Praticamente per avere una scheda che ha prestazioni e RAM doppie dopo quasi 3 anni si deve spendere in proporzione.
Il rapporto prezzo/prestazioni è rimasto invariato dopo 30 mesi. C'è qualcosa che non va, è evidente. Questo a casa mia non si chiama progresso.

tutta la generazione a 28nm è caratterizzata da prezzi folli.
schede dotate di chip di fascia medio-alta (tahiti e gk104) venduti a 400-500 euro
una dual gpu a 1000 euro.
una Titan, che poi non sarebbe altro che la GTX 580 3GB dei nostri giorni, a 1000 euro?
Bisogna semplicemente prendere atto che è così. Ma non per giustificare prezzi che non stanno nè in cielo nè in terra.
Hanno deciso di aumentare i ricavi ma non danno molto di più a parità di costi nel gpgpu, alla faccia dell'obsolescenza precoce.

Te capì?
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 18:14   #334
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Giusto per completezza di info riguardo il gpgpu di titan:
ModelloTesla K20 Peak SP3,52 TFlopsPeak DP1,17
Tesla K20X Peak SP TFlops3,95 TFlops DP1,31
GeForce GTX Titan Peak SP TFlops4,5 TFlops DP 0,2TFlops (abilitando la piena velocità delle unita DP ) SP TFlops3,2 DP TFlops 1,05
Ares17 è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 21:05   #335
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 4006
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
Ma la tesla più scarsa costa 3000 euro! Ed è quella basata sul GK104.
Non so come tu possa dire che 400 euro in più per una Titan sia un investimento peggiore di 2400 euro in più di una Tesla. Quest'ultima va 3 volte una Titan? Se faccio un render al giorno dove 4 ore non sono un problema, mentre 12 o + perché non ho abbastanza RAM e devo usare la CPU, se con la Tesla arrivo a 3.5 ore poco mi cambia.
Se non il fatto che ho un botto di soldi in meno in tasca.
Insomma, non c'è solo chi ha un centro di calcolo HPC o ha una render farm attiva e impegnata al 100% 24/24 dove il 10% in più significano tanti soldi e un errore in un render/calcolo significa la catastrofe mondiale o il fallimento.


Quote:
Originariamente inviato da yossarian Guarda i messaggi
vray è anche in opencl, iray è CUDA o CPU come arion. Mental ray è solo cpu; octane è solo CUDA. Gli engine delle suite di adobe (compresi photoshop e premiere) sono anche in OPenCL e sono anche più veloci della controparte CUDA e lo stesso vale per quello di sony vegas. Quindi, dipende da cosa devi programmare; se lavori con octane allora nVidia è la scelta obbligata, s lavori con iray allora è preferibile (meglio su gpu che su cpu); però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
Il fatto che non veda bench ch paragonino le velocità tra la versione OpenCL e quella CUDA mi insospettisce non poco. Sarebbe un ottimo test al di fuori delle solite baggianate che normalmente si testano con i bench sintetici che interessano solo al bambino pacioccoso che vuole dimostrare che ce l'ha più lungo del vicino di casa.


Quote:
Originariamente inviato da yossarian Guarda i messaggi
certi mondi rispecchiano le carte molto più di altri.
Evidentemente il tuo non fa parte di questi


Quote:
Originariamente inviato da yossarian Guarda i messaggi
c'è più differenza, nel gppgu, tra una tesla e titan che non tra titan e una 780 gtx.
Solo se mi dimostri che con gli engine di rendering va almeno 2 volte più veloce di una Titan. Altrimenti il gioco non vale la candela. E rimane sempre quel qualcuno a cui il doppio non serve e si accontenta della metà per un terzo del costo.



Quote:
Originariamente inviato da yossarian Guarda i messaggi
invece ci sono, leggi sopra l'elenco
Me ne hai detto 1 in OpenCL., di cui però non trovo alcun bench. I test di Adobe sono da ridere dato che tutte le prove che ho visto io sopra il livello computazionale della 660/7850 si livellano, dimostrando che con la GPU accelerano solo una piccola parte di tutto il calcolo e andare oltre fino verso ad una Titan (o persino una Quadro/FirePro) non ha alcun senso.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
se vuoi fare qualcosa che ti renda soldi e ti serve la massima produttività, investi in strumenti professionali. SE sono un fotografo di professione non prendo una d7000 o una d7100 ma una d4 se mi serve la velocità o una d800 se mi serve la risoluzione.
Ma anche no. Esistono fior fiore di professionisti fotografi che non vanno in giro né con una D4 né con una 1D-X e altri che schifano pure queste ultime a favore delle medio formato. Hai scelto proprio il prodotto sbagliato per fare un confronto: di tipi di macchine fotografiche ne esistono a centinaia che coprono tutte le necessità e i desideri e definire quale che sia la macchina migliore (come si fa in certe classifiche da Donna Moderna) è praticamente impossibile, perché io fotografo da studio posso avere necessità completamente diverse dalle tue fotografo di avventura o quello da viaggio o quello da macro o quello da street (sì s', vai in giro a fare street con una 1D-X e il 70-200 f2.8.. 2 meravigliosi pezzi di tecnologia inadatte per quello scopo però).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
infatti non ho mai parlato di gk104 e gk110 ma del fatto che titan non risulti tanto più veloce di una 780 da giustificare la differenza id prezzo neppure nei bench con cuda.
Alla tua domanda, la risposta è no, perché titan non ha risorse in più rispetto alla 780. Quando parlavo di collo di bottiglia mi riferivo ad altro, come, ad esempio, le frequenze di funzionamento (titan e 780 hanno lo stesso numero di RBE ma quelle della 780 lavorano a frequenza più alta e, quindi, la 780 ha un pixel fillrate più elevato di titan)
In un test c'è la Titan che va come la 680. Direi che il problema non è nessun collo di bottiglia nella Titan che ha in tutto e per tutto il 180% delle risorse del GK104. Il problema è evidentemente solo di tipo SW (o il driver di identificazione della scheda o l'algoritmo).
La Titan ha risorse in più rispetto alla 780. E questo che non vuoi ammettere. La Titan ha 3GB di RAM in più e le unità di calcolo DP. Che ti servano o meno lo decidi tu. Ma non puoi dire che una ha le stesse cose che offre l'altra. E il fatto di poter fare il rendering di scene mediamente complesse con 1000 euro invece di fare solo quelle semplici per 600, per qualcuno vale 400 euro di differenza, ma probabilmente non i duemila e passa per una Tesla. Il cui vantaggio è poi quello di poter essere usato in unità multiple, per cui il vero investimento ha validità se ne compri 2 o 3.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
dov'è che avrei scritto una cosa del genere? Dai, facci ridere
IL tuo tentativo di cercare di dimostrare la bontà oggettiva dell'architettura CGN mi sembra abbastanza palese. Purtroppo, come ti ho detto, è una architettura buonissima sulla carta. Nel mondo reale si scontra sul fatto che per anni AMD non ha investito uno e un solo dollaro nello sviluppo SW e quindi per quanto buona rimane solo sulla carta per uso professionale.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
no, c'è anche altro
Per quanto hai detto, no non ce n'è. Non al momento almeno.

La risposta sta tutta nel post di tuttodigitale: Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali. Poi quando AMD arriva con mesi e mesi di ritardo tutti a lamentarsi ed ad accorgersi che qualcosa non va.
Qualcosa non va dal Gennaio 2012. Tra un po' saremo a Gennaio 2014. Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 21:30   #336
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8488
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Se AMD non sforna al più presto qualcosa di veramente competitivo
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 22:02   #337
qboy
Senior Member
 
L'Avatar di qboy
 
Iscritto dal: Aug 2008
Messaggi: 6453
Quote:
Originariamente inviato da DukeIT Guarda i messaggi
Ti ha sfornato una GPU che va più veloce di Titan e costa la metà, cosa dovrebbe proporti per farti contento?
gesù in carne e ossa mi sà
qboy è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 22:11   #338
nevets89
Senior Member
 
L'Avatar di nevets89
 
Iscritto dal: Sep 2009
Messaggi: 4463
mah, io trovo la serie hd 7000 tra le più riuscite degli ultimi tempi e di sicuro possono competere con le nvidia (lato gaming, che penso sia pure quello più redditizio)... sinceramente non so cosa vuoi.. io vedo solo ottime schede( ho una 7850) a prezzi onesti che permettono un considerevole boost se confrontate con la serie precedente..
__________________
CASE: PHANTEKS P500A| MOBO: ROG STRIX Z690-F GAMING WIFI| CPU: i9-12900K| DISSIPATORE: LIQUID FREEZER II 420mm| RAM: TEAMGROUP XTREEM 32GB @6600MHz CL34| STORAGE: vari Nvme| VGA: ZOTAC RTX 3070 Ti| ALI: CORSAIR RM1000X| S.O: WINDOWS 11 PRO X64
nevets89 è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 22:24   #339
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12122
Quote:
Originariamente inviato da yossarian Guarda i messaggi
dx, opengl, nitruos, sono set di librerie. Le prime due standard la terza proprietaria. Non si tratta di engine ma di API. I motori grafici sono un'altra cosa e possono essere scritti in CUDA, OpenCL o chi per essi (anche dx o opengl).
la puoi chiamare come ti pare, ma un engine chesi appoggia solo sulel directx sono directX è un engine direct , puo essere riscritto come ti pare, ma fino quando ne usa solo una si puo tranquillamente chiamare coem le api che sfrutta, e gli engine delle viewport sono engine o DirectX, OpenGL o Nitruos.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Quello che non mi è chiaro è a cosa ti serve il gpgpu, visto che continui a paragonare titan alla quadro (che non c'entra una mazza col gpgpu).
che tu non abbia ancora capito come funzionano quei software nella varie parti lo si è capito.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Se ti serve una scheda veloce per il gpgpu e deve essere nVidia perché usi iray o octane, allora dovresti prendere una tesla; costa di più ma va anche molto più veloce di titan, sia per i driver certificati che per il doppio dma (latenze dimezzate negli accessi alla ram). Titan non è il top neppure in quell'ambito (ovvero gpgpu con CUDA).
questa è una stupidata che continui a scrivere perchè per l'ennesima volta non sai come funzionano quei particolari software, che del doppio DMA ci si puliscono il fondoschiena, idem dei driver delle quadro, perchè per l'ennesima volta NON si parla di viewport, ma di rendering.

ora, questo video è stato fatto da www.boxxtech.com/ ‎, fanno workstation di alta e altissima gamma specifiche per ogni tipologia di calcolo, e le configurano in tutti i modi possibili con Quadro, Tesla e GTX; il video è stato fatto per rispondere alle varie domande che gli venivano fatte per la configurazione ottimale di una Workstation per GPGPU per rendering.
quello che vedi è la finestra Real Time di Vray RT che NON centra una fava con la viewpoert e i driver, e spero di non doverlo piu ripetere.

https://www.youtube.com/watch?v=mqt3kPc0zik

oh, to guarda, funziona come sto scrivendo da nmila pagine.... nel GPGPU vince la Titan che ha piu SP a maggior frequenza.



NON FUNZIONA COME DICI TU, ora hai anche un video per capirlo, mettiti l'anima in pace, la Titan per questi ambiti è la soluzione migliore, speriamo che basti per fartelo capire una volta per tutte.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
però, se ti servono prestazioni elevate, ripeto, c' molta più differenza tra una tesla e titan che tra questa e una 780 gtx.
visto che hai nominato Octane, che funziona esattamente come iRay, Vray RT e Arion, vediamo un po cosa dicono quelli della otoy:

Octane Render can run on all CUDA enabled consumer video cards (Nvidia GeForce 8000 series and up), instead of only on high-end Quadro cards that most other solutions and middleware require, but it is specifically optimized to run on Kepler (GTX 6xx, GTX 7xx, GTX Titan) and Fermi (GTX 4xx, GTX 5xx) GPUs. Kepler GPUs allow a higher texture limit (256 compared to 128 on Fermi) and are also more power efficient and more silent than Fermi cards. GPUs from the GeForce line are usually higher clocked and render faster than the more expensive Quadro and Tesla GPUs. The GeForce GTX 780 and GTX Titan currently offer the best performance to price ratio, but any recent high end Nvidia card will offer great rendering performance with Octane.

http://render.otoy.com/faqs.php


visto che hai nominato anceh Arion, vediamo cosa consigliano i programmatori di RandomControl

http://www.randomcontrol.com/compatibility


oh Titan e GTX consigliate al pari delle Tesla....
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 28-10-2013, 22:26   #340
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma la tesla più scarsa costa 3000 euro! Ed è quella basata sul GK104.
Non so come tu possa dire che 400 euro in più per una Titan sia un investimento peggiore di 2400 euro in più di una Tesla. Quest'ultima va 3 volte una Titan? Se faccio un render al giorno dove 4 ore non sono un problema, mentre 12 o + perché non ho abbastanza RAM e devo usare la CPU, se con la Tesla arrivo a 3.5 ore poco mi cambia.
Se non il fatto che ho un botto di soldi in meno in tasca.
Insomma, non c'è solo chi ha un centro di calcolo HPC o ha una render farm attiva e impegnata al 100% 24/24 dove il 10% in più significano tanti soldi e un errore in un render/calcolo significa la catastrofe mondiale o il fallimento.
http://www.amazon.com/NVIDIA-Tesla-K.../dp/B00AA2C1DC

qui leggo gk110. E, in ogni caso, se ti serve la produttività perché ci lavori (e guadagni), allora hai bisogno di stabilità e velocità e, quindi una tesla. Se ci cazzeggi, allora puoi impiegare un po' più di tempo ma tanto vale risparmiare e comprare una 780 gtx.


Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Evidentemente il tuo non fa parte di questi


Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Solo se mi dimostri che con gli engine di rendering va almeno 2 volte più veloce di una Titan. Altrimenti il gioco non vale la candela. E rimane sempre quel qualcuno a cui il doppio non serve e si accontenta della metà per un terzo del costo.
se non ti serve la velocità, allora ti accontenti di una misera gtx alla metà del costo di titan.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Me ne hai detto 1 in OpenCL., di cui però non trovo alcun bench. I test di Adobe sono da ridere dato che tutte le prove che ho visto io sopra il livello computazionale della 660/7850 si livellano, dimostrando che con la GPU accelerano solo una piccola parte di tutto il calcolo e andare oltre fino verso ad una Titan (o persino una Quadro/FirePro) non ha alcun senso.
ridi, intanto ci sono sempre più engine che usano opencl e molti di questi vanno meglio in opencl che in CUDA. Se poi guardi i bench, ce ne sono diversi in cui una 780 GTX sta davanti a titan. E gli altri non giustificano la differenza di prezzo

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Ma anche no. Esistono fior fiore di professionisti fotografi che non vanno in giro né con una D4 né con una 1D-X e altri che schifano pure queste ultime a favore delle medio formato. Hai scelto proprio il prodotto sbagliato per fare un confronto: di tipi di macchine fotografiche ne esistono a centinaia che coprono tutte le necessità e i desideri e definire quale che sia la macchina migliore (come si fa in certe classifiche da Donna Moderna) è praticamente impossibile, perché io fotografo da studio posso avere necessità completamente diverse dalle tue fotografo di avventura o quello da viaggio o quello da macro o quello da street (sì s', vai in giro a fare street con una 1D-X e il 70-200 f2.8.. 2 meravigliosi pezzi di tecnologia inadatte per quello scopo però).
ignorante anche in ambito fotografico? Ho citato di proposito solo nikon ma, volendo estendere ad altri marchi, allora la 1dx fa parte della stessa stessa tipologia di macchine della d4 (o della d3, o della 1d MIV); ho specificato "se mi serve la velocità" e ti sfido a fare foto dove è richiesta rapidità di esecuzione con una medio formato o con una leica a telemetro. L?unica che hai azzeccata è stata quella delle medio formato per gli studi fotografici. Complimenti. Resta il fatto che se mi serve la velocità di scatto, di messa a fuoco e la qualità delle immagini, se sono un professionista, no guardo la d7000 (e neppure le medio formato o le leica a telemetro). E poco mi importa se la d7000 è più veloce della d3100. Seguendo il tuo discorso, invece, il professionista prende la d7000 per ché è più veloce della d3000 ma costa meno della d4. Minchia

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

In un test c'è la Titan che va come la 680. Direi che il problema non è nessun collo di bottiglia nella Titan che ha in tutto e per tutto il 180% delle risorse del GK104. Il problema è evidentemente solo di tipo SW (o il driver di identificazione della scheda o l'algoritmo).
aridaje con questo gk104. IO ho parlato di un test dove titan sta sotto la 780. Mettitelo una volta per tutte in quella zucca, ammesso che tu ci riesca. E in questo caso non regge nessuna scusa di driver o identificazione del chip o menate del genere

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
La Titan ha risorse in più rispetto alla 780. E questo che non vuoi ammettere. La Titan ha 3GB di RAM in più
che vanno sfruttati al meglio. Ora, dovresti sapere, prima id parlare che per un memory controller la situazione ideale è gestire 2 chip di ram per ciascun canale, per non aumentare le latenze. Ora, mentre la 780 GTX ha un bus con 6 canali e 12 chip di ram, titan ha un bus con 6 canali e 24 chip di ram, come le tesla ma, a differenza delle tesla che hanno il doppio dma per ciascun cluster di alu per dimezzare le latenze, titan ha un solo dma engine. Ora, visto che il quantitativo di ram on board serve per poter diminuire i tempi di esecuzione (perché la ram di sistema ha latenze ancora più lunghe) allungare le latenze della ram on board, anche se per raddoppiarne in quantitativo, non è la scelta più felice che si possa fare. E, infatti, con i chip professionali, nVidia si è ben guardata dal fare una cosa del genere

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
e le unità di calcolo DP. Che ti servano o meno lo decidi tu.
le ha anche le 780; di meno ma ce le ha. Inoltre le unità DP per il rendering non ti servono; ti servono per le simulazioni e, ad esempio, per la fuidodinamica, ma li non hai memorie ECC

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma non puoi dire che una ha le stesse cose che offre l'altra.
non mi pare che abbia qualcosa che l'altra non ha. Magari ci sono cose che trovi sulle tesla ma non sulle geforce

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
E il fatto di poter fare il rendering di scene mediamente complesse con 1000 euro invece di fare solo quelle semplici per 600, per qualcuno vale 400 euro di differenza, ma probabilmente non i duemila e passa per una Tesla. Il cui vantaggio è poi quello di poter essere usato in unità multiple, per cui il vero investimento ha validità se ne compri 2 o 3.
ma anche no; le tesla hanno altri vantaggi anche su scheda singola rispetto a qualsiasi geforce, che le rendono più veloci nell'esecuzione del gpgpu

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

La risposta sta tutta nel post di tuttodigitale: Titan costa un botto perché è o così o niente. Dove non c'è competizione vale che chi è in vantaggio fa quello che vuole. Se AMD non sforna al più presto qualcosa di veramente competitivo tra un po' si riprende con la storia mini GPU vendute a prezzo stellare e quelle decenti a prezzo galattico e costi universali per quanto riguarda le schede professionali. Poi quando AMD arriva con mesi e mesi di ritardo tutti a lamentarsi ed ad accorgersi che qualcosa non va.
Qualcosa non va dal Gennaio 2012. Tra un po' saremo a Gennaio 2014. Mi sembra che Hawaii sia un po' poco e se tutto il futuro di AMD è scommesso sulla presa di Mantle (che Microsoft non vuole e la Sony forse neppure a favore delle loro librerie e tool di sviluppo interni)... mi sa che siamo un po' messi male.
veramente tuttodigitale ha detto, giustamente, che le attuali schede video sono vendute a prezzi folli, tutte e titan non fa eccezione.
yossarian è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Wind Tre 'accende' il 5G Standalone in Italia: si apre una nuova era basata sui servizi Wind Tre 'accende' il 5G Standalone in Italia: s...
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh OPPO Find X9 Pro: il camera phone con teleobiett...
DJI Romo, il robot aspirapolvere tutto trasparente DJI Romo, il robot aspirapolvere tutto trasparen...
DJI Osmo Nano: la piccola fotocamera alla prova sul campo DJI Osmo Nano: la piccola fotocamera alla prova ...
FUJIFILM X-T30 III, la nuova mirrorless compatta FUJIFILM X-T30 III, la nuova mirrorless compatta
Google Maps avrà una modalit&agra...
HONOR sta lavorando a uno smartphone con...
Thermaltake MAGFloe 360 Ultra ARGB Sync:...
Xiaomi 15T ora in super offerta su Amazo...
Si stringe il cerchio attorno a TP-Link ...
Amazon cambia i prezzi ancora una volta:...
Imperdibili i Google Pixel 10 a questi p...
Dyson OnTrac in super offerta su Amazon:...
Amazon: la nuova ondata di licenziamenti...
Questo portatile è un mostro: MSI...
Apple Watch Series 11 GPS + Cellular cro...
JBL Clip 5 in forte sconto su Amazon: lo...
Il nuovo top di gamma compatto di OnePlu...
Cresce il divario tra dispositivi elettr...
La missione con equipaggio Shenzhou-21 h...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 02:46.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1