|
|
|
![]() |
|
Strumenti |
![]() |
#21 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
La nuova GPU di nvidia sarà molto probabilmente un G117 a 16nm per testare il nuovo PP seguita dalla mattonella da oltre 500mm^2 che potrebbe essere oltre 2 volte più veloce del GM204. E sarebbe la GPU per le nuove Quadro/Tesla. E' contro questa che AMD deve progettare una nuova GPU, e un semplice raddoppio di prestazioni dovute al nuovo PP potrebbe non bastare. Cosa aspettarsi da AMD? Prima di tutto dubito assai in qualsiasi cosa che non sia a 28nm. I famigerati 20nm semplicemente non possono essere usati per le GPU. Forse per qualcosa di piccolo nel mondo mobile, ma dubito che l'investimento sia positivo in termini economici. Rumors indicano che AMD sta preparando una GPU grande quasi quanto il GK110. Che a quel punto potrebbe superare in prestazioni il GM204. Però, e questo è il problema per AMD, sarebbe decisamente più costso di questo e non sarebbe appetibile per via di consumi non proprio contenuti (i prototipi dei dissipatori non fanno ben sperare sotto questo punto di vista). La risposta di nvidia prima dell'arrivo del nuovo PP sarà sicuramente una dual GPU, che visti i consumi ridotti che permette Maxwell, potrebbe rimanere la scheda più veloce sul mercato per molto, molto tempo e due di queste potrebbero garantire la possibilità di giocare a 4K in maniera decente. |
|
![]() |
![]() |
![]() |
#22 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Stai guardando i valori di consumo di una scheda (la 970 custom) che è impostata per consumare 250W, no il TDP reference. Ovvio che sfora il TDP base. Guarda invece la 980 reference. Consuma quello che deve perché è impostata per consumare fino al TDP reference. Il problema non è quindi quanto consuma Maxwell, ma quanto poco consuma e il fatto quindi che lo si possa portare a livelli delle schede AMD ottenendo prestazioni ancora più alte. La mattonella da 3200SP, o quel che sarà, sarà realizzata a 16nm, per cui trovo difficile fare una comparazione con il Maxwell che abbiamo oggi. Potrebbe essere migliore se il PP mantiene le promesse, oppure peggiore se (come è probabile) all'inizio non sarà perfetto. La comparazione la devi fare tra il Maxwell di oggi e le GPU che hai oggi sul mercato o quelle che AMD produrrà a breve sempre con lo stesso PP. A oggi Maxwell con consumi decisamente inferiori, nel GPGPU batte anche Hawaii che sembrava irraggiungibile nei pochi (inutili) test OpenCL che abbiamo visto fino a ieri. Anche in questo campo quindi AMD deve fare molti progressi perché un Hawaii o un Tahiti ingrassato a 16nm non saranno in grado di battere la futura mattonella nvidia. Sicuramente non in efficienza, che è quello che conta di più nel campo GPGPU. |
|
![]() |
![]() |
![]() |
#23 | |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Quote:
Su Maxwell è stato fatto un lavoro sull'efficenza quasi incredibile e questo si vede nel gaming, nel GPGPU a quelle prestazioni ad oggi equivalgono circa 300W di assorbimento, purtroppo questo è quello che abbiamo e nono è che ci puoi fare molto se il PP a parte intel nessuno è in grado di farli progredire. Giustamente dici che AMD risponderà a 28nm e giustamente non ci sarà alcun mostro a 28nm visti i consumi nel GPGPU di GM204. Sulle prestazioni credo che avremo un chip AMD che sostanzialmente pareggia o supera di qualcosa (un 10% non di più) GM204, ma siccome è chiaro oramai che sarà un evoluzione di Hawaii i consumi saranno il vero problema. Per i consumi gaming di maxwell c'è un ipotesi che gira nella quale si dice che il lavoro svolto da nVidia consiste nel non far "girare" e quindi consumare le parti del chip che non vengono sfruttate, ecco questo sarebbe un mezzo uovo di colombo, perché è quello che cercano da un pezzo ma nessuno ci era mai riuscito prima. Quindi se questa ipotesi fosse vera avremmo la certezza che i giochi sono scritti con il ![]() Oserei presumere che in game un GM204 (ma anche un Hawaii e GK110) sfruttato al 100% potrebbe benissimo gestire qualsiasi titolo a 1440p con GPU singola, anzi saremmo quasi a prestazioni da 4K. Ma finchè le SH hanno chi gli da 70€ in preorder per ricicli dei ricicli chi caxxo glielo fa fare di programmare come si deve. |
|
![]() |
![]() |
![]() |
#24 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Anandtech che ha provato una versione reference mostra chiaramente quali sono i numeriche riesce a fare la scheda rispetto alla 780Ti nel GPGPU. Con il link procedente vedi i consumi nel GPGPU della scheda reference, anche se non si hanno i risultati dei test computazionali delle schede OC. Bisogna un po' incrociare i dati per avere una idea delle cose. Ma guardare le schede OC che hanno TDP posto a 250-280W (giusto per ribadire qual è il potenziale di Maxwell rispetto a quale potrà essere una soluzione antagonista di AMD che deve essere davvero buona e non già tirata al limite come lo era Hawaii) e poi le accusi di consumare troppo non ha alcun senso. Ragiona sulle reference e vedi che i numeri tornano. Perché d'altronde, se è vero che nvidia è riuscita a spegnere tutto quello che non è in uso, durante il GPGPU c'è molta più roba da spegnere che durante l'esecuzione di un rendering 3D (dai polymoprh engine, alle TMU). Ovviamente memorie, cache e i circuiti di supporto all'esecuzione ottimizzata dei thread di calcolo sono invece stressati maggiormente. E' quindi possibile che anche durante i calcoli GPGPU l'architettura sia enormemente ottimizzata dal punto di vista del consumo energetico e non si capisce quindi il perché i consumi debbano esplodere nel modo che hai detto. |
|
![]() |
![]() |
![]() |
#25 | |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Quote:
Ci sono i grafici delle 980 reference che consuma 285W. Da dove tiri fuori che sia una scheda con TDP di 250W? Le conslusioni del recensore mi pare siano molto chiare. http://www.tomshw.it/cont/articolo/g.../59235/16.html Ultima modifica di Littlesnitch : 25-09-2014 alle 20:14. |
|
![]() |
![]() |
![]() |
#26 |
Senior Member
Iscritto dal: Mar 2009
Messaggi: 678
|
Il problema di fondo per AMD è il rapporto prestazioni per watt!! Sia in ambito CPU che in ambito GPU stanno avendo acqua da tutte le parti...sono un sostenitore della vecchia ATI e ho sempre avuto vga ati e AMD, ma ora tocchiamo il fondo.
Una politica disgustosa fatta solo di aumenti di frequenze e architettura vecchia, NVIDIA con 980 e 970 hanno dato una bella botta di novità, appena ho visto i consumi ho fatto subito un pauso alla casa verde! Una ipotetica 960 andrà da dio in full hd consumando na cippa..e amd? DORME. Non condivido più la loro politica, la mia prossima gpu sarà al 99% una nvidia 900, almeno ho driver aggiornati, temp non da "uova fritte" e consumi finalmente da terzo millennio. Binomio INTEL-NVIDIA, questa è roba NEXT-GEN! |
![]() |
![]() |
![]() |
#27 | |
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3017
|
Quote:
__________________
Trattative positive nel forum : molte! ![]() |
|
![]() |
![]() |
![]() |
#28 |
Senior Member
Iscritto dal: Jun 2005
Città: SO
Messaggi: 4747
|
Phenom III..
![]() |
![]() |
![]() |
![]() |
#29 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Comunque se così è nvidia avrà difficoltà a piazzare questa GPU nel GPGPU perché sembra avere meno efficienza (o pari) di GK110. Solo che quest'ultimo ha capacità di calcolo che per algoritmi complessi dovrebbero renderlo migliore (oltre alla capacità DP decisamente migliore). Inoltre c'è il problema che questa energia eccessiva va dissipata e se i costruttori ci mettono dei dissipatori per 180-200W la scheda va in throttling subito e non raggiunge le prestazioni che si vorrebbe. Vedremo se e come nvidia darà una giustificazione a questo comportamento delle sue GPU. |
|
![]() |
![]() |
![]() |
#30 | |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Quote:
Io ho solo voluto far notare il comportamento senza dire che è un'fail o altro. Solo che si discuteva sul possibile GM200 a 28nm e ho voluto far notare questo fatto. |
|
![]() |
![]() |
![]() |
#31 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
|
|
![]() |
![]() |
![]() |
#32 | |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Quote:
http://wccftech.com/nvidia-geforce-g...itan-x-coming/ Io sono molto scettico, perché sarebbe un'assurdità a livello manageriale lanciarlo tra 2 mesi. A meno che il nuovo PP nono sia ritardato di altri 15-18 mesi e allora un senso l'avrebbe eccome. |
|
![]() |
![]() |
![]() |
#33 | |
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
E devi ammettere che i 28nm oramai è un PP vecchio e quindi anche piuttosto economico e più collaudato rispetto ad uno nuovo, quindi probabilmente a livello di costi e di rese produttive permette di smaltire parte dei costi. Ultima modifica di PaulGuru : 26-09-2014 alle 13:45. |
|
![]() |
![]() |
![]() |
#34 |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Se il nuovo PP sarà disponibile solo per fine 2015 allora qualcosa di più grosso uscirà sicuramente, ma se invece sarà disponibile nei primi mesi del 2015 non uscirà nulla perché semplicemente non avrebbe senso.
|
![]() |
![]() |
![]() |
#35 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Come detto questo 'fantomatico' GM200 non è il GM200 che ci si aspetta (o almeno, che mi aspettavo). E' appunto come avevo detto, un rifacimento del GK110 con base Maxwell. Stessi shader, stesso bus, stessa dimensione sullo stesso PP. A questo punto mi viene il dubbio che nvidia farà 2 serie dell'architettura Maxwell. Una a 28nm e una a 16nm con il doppio delle unità di calcolo della prima versione (e magari qualche lifting qui o là). E questo indica che il processo a 16nm è abbastanza distante nel tempo, altrimenti non avrebbe senso fare il padellone e sperare di ammortizazarne gli enormi costi se i tempi di vendita fossero brevi. Va buò, ci accontenteremo di questo GM200 a 28nm con tutti gli annessi e connessi ![]() Comunque non è una assurdità manageriale lanciarlo 2 mesi dopo (o anche 1 settimana dopo o anche prima come aveva fatto con le generazioni precedenti, tipo con Fermi). E' una GPU differente, con costi e capacità differenti che permette di fare prodotti differenti (più costosi). Una ipotetica GTX980Ti costerebbe dalle 700 euro in su. Che sono comunque molti più soldi di una GTX980. e oltre il doppio di una già ottima GTX970. E comunque ad nvidia serve anche soddisfare il mercato professionale. Prima lo mette sul mercato prima può vendere nuove Quadro/Tesla a prezzi da strozzino. D'altronde non c'è alternativa alle loro schede professionali (tranne la serie Xeon Phi di Intel per i server HPC). Poi arriveranno i 16nm e quindi, via, un altro giro, altra corsa. Sotto il punto di vista dei tempi direi che nvidia è messa molto bene. Con questi GMx00 ha circa un anno di tempo per venderne a vagonate. Sempre che AMD non se ne esca con qualcosa di altrettanto valido. |
|
![]() |
![]() |
![]() |
#36 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Il prossimo PP comunque è il 16nm, non il 20nm.
|
![]() |
![]() |
![]() |
#37 |
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3180
|
Dopo aver comprato una 280x e vedendo i giochi in uscita nei prossimi mesi/anni, mi chiedo più che altro a che cazzo servano ste nuove schede Nvidia.
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090 |
![]() |
![]() |
![]() |
#38 | |
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
The Witcher 3 ? Gli UE4 based ? Il nuovo COD ? The Division ? Sicuramente con una 280x in alcuni di questi titoli probabilmente i 60 fissi non li vedrai e anche con titoli come PCars e AC al massimo dei dettagli non ce la si fà. Senza contare che oramai il 1080p comincia a da 1440p la cosa cambia radicalmente. Ultima modifica di PaulGuru : 26-09-2014 alle 16:35. |
|
![]() |
![]() |
![]() |
#39 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3877
|
Quote:
Non è che le nuove schede sono solo per chi prima aveva una 780/Ti. Ci sono anche quelli che fanno l'upgrade oggi da schede obsolete di 2, 3, 4 o più anni fa. Meglio queste nuove 970/980 o le vecchie 780/780Ti? Per l'azienda che le produce fare schede con le stesse prestazioni di quelle vecchie (se non un pelo meglio) che le costano molto meno. E poi, io ho una 660Ti che va ben oltre a quello che in relatà riesco a sfruttare, pure su un monitor 2520x1440. Devo chiedermi a cosa servano le schede più veloci della mia? ![]() |
|
![]() |
![]() |
![]() |
#40 |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Sembra che AMD non stia proprio dormendo.
http://wccftech.com/amd-20nm-r9-390x...er-than-gddr5/ Certo perdersi la stagione natalizia non è un bene, ma le premesse per la prosecuzione del duopolio ci sono tutte. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 20:47.