Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
NUC 15 Pro e NUC 15 Pro+ sono i due nuovi mini-PC di casa ASUS pensati per uffici e piccole medie imprese. Compatti, potenti e pieni di porte per la massima flessibilità, le due proposte rispondono in pieno alle esigenze attuali e future grazie a una CPU con grafica integrata, accompagnata da una NPU per la gestione di alcuni compiti AI in locale.
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Dal palco di Proofpoint Protect 2025 emerge la strategia per estendere la protezione dagli utenti agli agenti IA con il lancio di Satori Agents, nuove soluzioni di governance dei dati e partnership rafforzate che ridisegnano il panorama della cybersecurity
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Dopo alcuni anni di assenza dai cataloghi dei suoi televisori, Hisense riporta sul mercato una proposta OLED che punta tutto sul rapporto qualità prezzo. Hisense 55A85N è un televisore completo e versatile che riesce a convincere anche senza raggiungere le vette di televisori di altra fascia (e altro prezzo)
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 25-09-2014, 12:56   #21
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da batou83 Guarda i messaggi
Sarà anche interessante sapere se Nvidia ha già pronta una contromossa nel caso uscissero nuove gpu amd dall'ottimo rapporto prezzo-prestazioni. Visti i bassi consumi delle gpu maxwell, credo che nvidia possa tranquillamente produrre una ipotetica gtx 990 a 384 bit e 6GB di ram con consumi inferiori ai 300 watt.
La realizzazione di un chip di questo genere richiede circa 12-18 mesi. Cioè se oggi dici facciamolo, lo vedrai sugli scaffali a Natale 2015. Se va tutto bene. I costi associati sono a 8 zeri, per cui sarebbe il caso che prima di avviarti con la progettazione facessi anche i calcoli di quanti ne devi vendere per almeno andare in pari. Quindi devi portarti a Natale 2015 e chiederti cosa ci sarà a disposizione in quel periodo.

La nuova GPU di nvidia sarà molto probabilmente un G117 a 16nm per testare il nuovo PP seguita dalla mattonella da oltre 500mm^2 che potrebbe essere oltre 2 volte più veloce del GM204. E sarebbe la GPU per le nuove Quadro/Tesla. E' contro questa che AMD deve progettare una nuova GPU, e un semplice raddoppio di prestazioni dovute al nuovo PP potrebbe non bastare.

Cosa aspettarsi da AMD?
Prima di tutto dubito assai in qualsiasi cosa che non sia a 28nm. I famigerati 20nm semplicemente non possono essere usati per le GPU. Forse per qualcosa di piccolo nel mondo mobile, ma dubito che l'investimento sia positivo in termini economici.
Rumors indicano che AMD sta preparando una GPU grande quasi quanto il GK110. Che a quel punto potrebbe superare in prestazioni il GM204. Però, e questo è il problema per AMD, sarebbe decisamente più costso di questo e non sarebbe appetibile per via di consumi non proprio contenuti (i prototipi dei dissipatori non fanno ben sperare sotto questo punto di vista).
La risposta di nvidia prima dell'arrivo del nuovo PP sarà sicuramente una dual GPU, che visti i consumi ridotti che permette Maxwell, potrebbe rimanere la scheda più veloce sul mercato per molto, molto tempo e due di queste potrebbero garantire la possibilità di giocare a 4K in maniera decente.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 13:14   #22
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Ma perché non vai a trollare da un'altra parte?
Quello è un test in GPGPU ambito a cui è dedicato il chip GM210, quindi quello è un fattore di primaria importanza in questo caso.
Quindi un Maxwell con 3200SP a 28nm è improponibile e nVidia non lo farà visto che è già a posto così finché non ci sarà il nuovo PP.
Prima di intervenire magari leggi un po di recensioni e di thread visto che sei piuttosto mal informato.
Mmmm... però guardi un po' quello che vuoi di quella tabella.
Stai guardando i valori di consumo di una scheda (la 970 custom) che è impostata per consumare 250W, no il TDP reference. Ovvio che sfora il TDP base.
Guarda invece la 980 reference. Consuma quello che deve perché è impostata per consumare fino al TDP reference.
Il problema non è quindi quanto consuma Maxwell, ma quanto poco consuma e il fatto quindi che lo si possa portare a livelli delle schede AMD ottenendo prestazioni ancora più alte.

La mattonella da 3200SP, o quel che sarà, sarà realizzata a 16nm, per cui trovo difficile fare una comparazione con il Maxwell che abbiamo oggi. Potrebbe essere migliore se il PP mantiene le promesse, oppure peggiore se (come è probabile) all'inizio non sarà perfetto.

La comparazione la devi fare tra il Maxwell di oggi e le GPU che hai oggi sul mercato o quelle che AMD produrrà a breve sempre con lo stesso PP.
A oggi Maxwell con consumi decisamente inferiori, nel GPGPU batte anche Hawaii che sembrava irraggiungibile nei pochi (inutili) test OpenCL che abbiamo visto fino a ieri.
Anche in questo campo quindi AMD deve fare molti progressi perché un Hawaii o un Tahiti ingrassato a 16nm non saranno in grado di battere la futura mattonella nvidia. Sicuramente non in efficienza, che è quello che conta di più nel campo GPGPU.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 14:19   #23
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Mmmm... però guardi un po' quello che vuoi di quella tabella.
Stai guardando i valori di consumo di una scheda (la 970 custom) che è impostata per consumare 250W, no il TDP reference. Ovvio che sfora il TDP base.
Guarda invece la 980 reference. Consuma quello che deve perché è impostata per consumare fino al TDP reference.
Il problema non è quindi quanto consuma Maxwell, ma quanto poco consuma e il fatto quindi che lo si possa portare a livelli delle schede AMD ottenendo prestazioni ancora più alte.

La mattonella da 3200SP, o quel che sarà, sarà realizzata a 16nm, per cui trovo difficile fare una comparazione con il Maxwell che abbiamo oggi. Potrebbe essere migliore se il PP mantiene le promesse, oppure peggiore se (come è probabile) all'inizio non sarà perfetto.

La comparazione la devi fare tra il Maxwell di oggi e le GPU che hai oggi sul mercato o quelle che AMD produrrà a breve sempre con lo stesso PP.
A oggi Maxwell con consumi decisamente inferiori, nel GPGPU batte anche Hawaii che sembrava irraggiungibile nei pochi (inutili) test OpenCL che abbiamo visto fino a ieri.
Anche in questo campo quindi AMD deve fare molti progressi perché un Hawaii o un Tahiti ingrassato a 16nm non saranno in grado di battere la futura mattonella nvidia. Sicuramente non in efficienza, che è quello che conta di più nel campo GPGPU.
Guarda stranamente siamo quasi d'accordo su qualcosa, ma se guardi la tabella riportata da tuttodigitale vedi che la reference consuma anche qualcosina in più e siamo a valori molto simili a Hawaii.
Su Maxwell è stato fatto un lavoro sull'efficenza quasi incredibile e questo si vede nel gaming, nel GPGPU a quelle prestazioni ad oggi equivalgono circa 300W di assorbimento, purtroppo questo è quello che abbiamo e nono è che ci puoi fare molto se il PP a parte intel nessuno è in grado di farli progredire.
Giustamente dici che AMD risponderà a 28nm e giustamente non ci sarà alcun mostro a 28nm visti i consumi nel GPGPU di GM204.
Sulle prestazioni credo che avremo un chip AMD che sostanzialmente pareggia o supera di qualcosa (un 10% non di più) GM204, ma siccome è chiaro oramai che sarà un evoluzione di Hawaii i consumi saranno il vero problema.
Per i consumi gaming di maxwell c'è un ipotesi che gira nella quale si dice che il lavoro svolto da nVidia consiste nel non far "girare" e quindi consumare le parti del chip che non vengono sfruttate, ecco questo sarebbe un mezzo uovo di colombo, perché è quello che cercano da un pezzo ma nessuno ci era mai riuscito prima.
Quindi se questa ipotesi fosse vera avremmo la certezza che i giochi sono scritti con il e che sfruttano il potenziale delle GPU al 60%. Quindi fino ad oggi avevamo schede che bruciavano un 40% di potenza per nulla.
Oserei presumere che in game un GM204 (ma anche un Hawaii e GK110) sfruttato al 100% potrebbe benissimo gestire qualsiasi titolo a 1440p con GPU singola, anzi saremmo quasi a prestazioni da 4K.
Ma finchè le SH hanno chi gli da 70€ in preorder per ricicli dei ricicli chi caxxo glielo fa fare di programmare come si deve.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 19:52   #24
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Guarda stranamente siamo quasi d'accordo su qualcosa, ma se guardi la tabella riportata da tuttodigitale vedi che la reference consuma anche qualcosina in più e siamo a valori molto simili a Hawaii.
Su Maxwell è stato fatto un lavoro sull'efficenza quasi incredibile e questo si vede nel gaming, nel GPGPU a quelle prestazioni ad oggi equivalgono circa 300W di assorbimento, purtroppo questo è quello che abbiamo e nono è che ci puoi fare molto se il PP a parte intel nessuno è in grado di farli progredire.
Giustamente dici che AMD risponderà a 28nm e giustamente non ci sarà alcun mostro a 28nm visti i consumi nel GPGPU di GM204.
Sulle prestazioni credo che avremo un chip AMD che sostanzialmente pareggia o supera di qualcosa (un 10% non di più) GM204, ma siccome è chiaro oramai che sarà un evoluzione di Hawaii i consumi saranno il vero problema.
Per i consumi gaming di maxwell c'è un ipotesi che gira nella quale si dice che il lavoro svolto da nVidia consiste nel non far "girare" e quindi consumare le parti del chip che non vengono sfruttate, ecco questo sarebbe un mezzo uovo di colombo, perché è quello che cercano da un pezzo ma nessuno ci era mai riuscito prima.
Quindi se questa ipotesi fosse vera avremmo la certezza che i giochi sono scritti con il e che sfruttano il potenziale delle GPU al 60%. Quindi fino ad oggi avevamo schede che bruciavano un 40% di potenza per nulla.
Oserei presumere che in game un GM204 (ma anche un Hawaii e GK110) sfruttato al 100% potrebbe benissimo gestire qualsiasi titolo a 1440p con GPU singola, anzi saremmo quasi a prestazioni da 4K.
Ma finchè le SH hanno chi gli da 70€ in preorder per ricicli dei ricicli chi caxxo glielo fa fare di programmare come si deve.
Il TDP della GTX980 Reference è 165W e sebbene è un po' ottimistico, nvidia non vieta ai propri partner di fare schede con TDP maggiore (e raffreddamento migliore). Comunque sia non consuma 300W nei calcoli GPGPU. Guarda bene i grafici. Quello che vedi tu è sempre una GTX980 OC che ha un TDP massimo maggiore (probabilmente molto vicino ai 300W che dici tu). Consuma una ventina di W in più rispetto al TDP target che è comunque sempre meno 70W in meno della GTX780Ti.
Anandtech che ha provato una versione reference mostra chiaramente quali sono i numeriche riesce a fare la scheda rispetto alla 780Ti nel GPGPU. Con il link procedente vedi i consumi nel GPGPU della scheda reference, anche se non si hanno i risultati dei test computazionali delle schede OC. Bisogna un po' incrociare i dati per avere una idea delle cose.
Ma guardare le schede OC che hanno TDP posto a 250-280W (giusto per ribadire qual è il potenziale di Maxwell rispetto a quale potrà essere una soluzione antagonista di AMD che deve essere davvero buona e non già tirata al limite come lo era Hawaii) e poi le accusi di consumare troppo non ha alcun senso. Ragiona sulle reference e vedi che i numeri tornano.
Perché d'altronde, se è vero che nvidia è riuscita a spegnere tutto quello che non è in uso, durante il GPGPU c'è molta più roba da spegnere che durante l'esecuzione di un rendering 3D (dai polymoprh engine, alle TMU). Ovviamente memorie, cache e i circuiti di supporto all'esecuzione ottimizzata dei thread di calcolo sono invece stressati maggiormente. E' quindi possibile che anche durante i calcoli GPGPU l'architettura sia enormemente ottimizzata dal punto di vista del consumo energetico e non si capisce quindi il perché i consumi debbano esplodere nel modo che hai detto.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 20:08   #25
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il TDP della GTX980 Reference è 165W e sebbene è un po' ottimistico, nvidia non vieta ai propri partner di fare schede con TDP maggiore (e raffreddamento migliore). Comunque sia non consuma 300W nei calcoli GPGPU. Guarda bene i grafici. Quello che vedi tu è sempre una GTX980 OC che ha un TDP massimo maggiore (probabilmente molto vicino ai 300W che dici tu). Consuma una ventina di W in più rispetto al TDP target che è comunque sempre meno 70W in meno della GTX780Ti.
Anandtech che ha provato una versione reference mostra chiaramente quali sono i numeriche riesce a fare la scheda rispetto alla 780Ti nel GPGPU. Con il link procedente vedi i consumi nel GPGPU della scheda reference, anche se non si hanno i risultati dei test computazionali delle schede OC. Bisogna un po' incrociare i dati per avere una idea delle cose.
Ma guardare le schede OC che hanno TDP posto a 250-280W (giusto per ribadire qual è il potenziale di Maxwell rispetto a quale potrà essere una soluzione antagonista di AMD che deve essere davvero buona e non già tirata al limite come lo era Hawaii) e poi le accusi di consumare troppo non ha alcun senso. Ragiona sulle reference e vedi che i numeri tornano.
Perché d'altronde, se è vero che nvidia è riuscita a spegnere tutto quello che non è in uso, durante il GPGPU c'è molta più roba da spegnere che durante l'esecuzione di un rendering 3D (dai polymoprh engine, alle TMU). Ovviamente memorie, cache e i circuiti di supporto all'esecuzione ottimizzata dei thread di calcolo sono invece stressati maggiormente. E' quindi possibile che anche durante i calcoli GPGPU l'architettura sia enormemente ottimizzata dal punto di vista del consumo energetico e non si capisce quindi il perché i consumi debbano esplodere nel modo che hai detto.
Ecco mi pareva strano!
Ci sono i grafici delle 980 reference che consuma 285W. Da dove tiri fuori che sia una scheda con TDP di 250W?
Le conslusioni del recensore mi pare siano molto chiare.
http://www.tomshw.it/cont/articolo/g.../59235/16.html

Ultima modifica di Littlesnitch : 25-09-2014 alle 20:14.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 21:57   #26
giovy89
Senior Member
 
L'Avatar di giovy89
 
Iscritto dal: Mar 2009
Messaggi: 678
Il problema di fondo per AMD è il rapporto prestazioni per watt!! Sia in ambito CPU che in ambito GPU stanno avendo acqua da tutte le parti...sono un sostenitore della vecchia ATI e ho sempre avuto vga ati e AMD, ma ora tocchiamo il fondo.
Una politica disgustosa fatta solo di aumenti di frequenze e architettura vecchia, NVIDIA con 980 e 970 hanno dato una bella botta di novità, appena ho visto i consumi ho fatto subito un pauso alla casa verde! Una ipotetica 960 andrà da dio in full hd consumando na cippa..e amd? DORME. Non condivido più la loro politica, la mia prossima gpu sarà al 99% una nvidia 900, almeno ho driver aggiornati, temp non da "uova fritte" e consumi finalmente da terzo millennio. Binomio INTEL-NVIDIA, questa è roba NEXT-GEN!
giovy89 è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 22:26   #27
batou83
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 3017
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Ecco mi pareva strano!
Ci sono i grafici delle 980 reference che consuma 285W. Da dove tiri fuori che sia una scheda con TDP di 250W?
Le conslusioni del recensore mi pare siano molto chiare.
http://www.tomshw.it/cont/articolo/g.../59235/16.html
Eh no, così non vale, i tdp indicati da nvidia sono una vera truffa, diciamo le cose come stanno. E poi anche nel gaming i consumi possono essere potenzialmente uguali o vicini a quelli della fase di computing (vedi Witcher2 con ubersampling).
__________________
Trattative positive nel forum : molte!
batou83 è offline   Rispondi citando il messaggio o parte di esso
Old 25-09-2014, 22:56   #28
kean3d
Senior Member
 
L'Avatar di kean3d
 
Iscritto dal: Jun 2005
Città: SO
Messaggi: 4747
Phenom III..
kean3d è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 12:29   #29
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Ecco mi pareva strano!
Ci sono i grafici delle 980 reference che consuma 285W. Da dove tiri fuori che sia una scheda con TDP di 250W?
Le conslusioni del recensore mi pare siano molto chiare.
http://www.tomshw.it/cont/articolo/g.../59235/16.html
Ieri sera dovevo essere particolarmente ubriaco perché ho visto grafici completamente diversi. Mi ricordo per esempio una barretta rossa con scritto 177W che oggi non vedo neanche più in nessuno dei grafici.

Comunque se così è nvidia avrà difficoltà a piazzare questa GPU nel GPGPU perché sembra avere meno efficienza (o pari) di GK110. Solo che quest'ultimo ha capacità di calcolo che per algoritmi complessi dovrebbero renderlo migliore (oltre alla capacità DP decisamente migliore).

Inoltre c'è il problema che questa energia eccessiva va dissipata e se i costruttori ci mettono dei dissipatori per 180-200W la scheda va in throttling subito e non raggiunge le prestazioni che si vorrebbe.

Vedremo se e come nvidia darà una giustificazione a questo comportamento delle sue GPU.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 12:58   #30
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ieri sera dovevo essere particolarmente ubriaco perché ho visto grafici completamente diversi. Mi ricordo per esempio una barretta rossa con scritto 177W che oggi non vedo neanche più in nessuno dei grafici.

Comunque se così è nvidia avrà difficoltà a piazzare questa GPU nel GPGPU perché sembra avere meno efficienza (o pari) di GK110. Solo che quest'ultimo ha capacità di calcolo che per algoritmi complessi dovrebbero renderlo migliore (oltre alla capacità DP decisamente migliore).

Inoltre c'è il problema che questa energia eccessiva va dissipata e se i costruttori ci mettono dei dissipatori per 180-200W la scheda va in throttling subito e non raggiunge le prestazioni che si vorrebbe.

Vedremo se e come nvidia darà una giustificazione a questo comportamento delle sue GPU.
Potrebbe anche essere un problema driver per quel che ne sappiamo. Potrebbero aver fatto tutte le ottimizzazioni per i giochi al lancio e poi risolveranno magari nelle seguenti release.
Io ho solo voluto far notare il comportamento senza dire che è un'fail o altro.
Solo che si discuteva sul possibile GM200 a 28nm e ho voluto far notare questo fatto.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 13:26   #31
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Potrebbe anche essere un problema driver per quel che ne sappiamo. Potrebbero aver fatto tutte le ottimizzazioni per i giochi al lancio e poi risolveranno magari nelle seguenti release.
Io ho solo voluto far notare il comportamento senza dire che è un'fail o altro.
Solo che si discuteva sul possibile GM200 a 28nm e ho voluto far notare questo fatto.
Il GM200 a 28nm credo non lo vedremo mai. Sarebbe troppo grande e quindi costoso. Se proprio nvidia potrebbe avere in progetto un'altra GPU da 550mm^2 a 28nm con base Maxwell invece di Kepler come via di mezzo tra questo GM204 e il futuro vero GM200 a 16nm. Ma non credo. Come detto i costi di sviluppo e produzione di una GPU sono enormi. Se nvidia la farà sarà il segno che i 16nm non sono così vicini.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 13:36   #32
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il GM200 a 28nm credo non lo vedremo mai. Sarebbe troppo grande e quindi costoso. Se proprio nvidia potrebbe avere in progetto un'altra GPU da 550mm^2 a 28nm con base Maxwell invece di Kepler come via di mezzo tra questo GM204 e il futuro vero GM200 a 16nm. Ma non credo. Come detto i costi di sviluppo e produzione di una GPU sono enormi. Se nvidia la farà sarà il segno che i 16nm non sono così vicini.
Si ma qua si parla di un lancio entro 2 mesi del GM200 a 28nm
http://wccftech.com/nvidia-geforce-g...itan-x-coming/
Io sono molto scettico, perché sarebbe un'assurdità a livello manageriale lanciarlo tra 2 mesi.
A meno che il nuovo PP nono sia ritardato di altri 15-18 mesi e allora un senso l'avrebbe eccome.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 13:41   #33
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Si ma qua si parla di un lancio entro 2 mesi del GM200 a 28nm
http://wccftech.com/nvidia-geforce-g...itan-x-coming/
Io sono molto scettico, perché sarebbe un'assurdità a livello manageriale lanciarlo tra 2 mesi.
A meno che il nuovo PP nono sia ritardato di altri 15-18 mesi e allora un senso l'avrebbe eccome.
Infatti il prossimo PP originariamente a 20nm è saltato.

E devi ammettere che i 28nm oramai è un PP vecchio e quindi anche piuttosto economico e più collaudato rispetto ad uno nuovo, quindi probabilmente a livello di costi e di rese produttive permette di smaltire parte dei costi.

Ultima modifica di PaulGuru : 26-09-2014 alle 13:45.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 13:44   #34
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Infatti il prossimo PP originariamente a 20nm è saltato.
Se il nuovo PP sarà disponibile solo per fine 2015 allora qualcosa di più grosso uscirà sicuramente, ma se invece sarà disponibile nei primi mesi del 2015 non uscirà nulla perché semplicemente non avrebbe senso.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 16:13   #35
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Si ma qua si parla di un lancio entro 2 mesi del GM200 a 28nm
http://wccftech.com/nvidia-geforce-g...itan-x-coming/
Io sono molto scettico, perché sarebbe un'assurdità a livello manageriale lanciarlo tra 2 mesi.
A meno che il nuovo PP nono sia ritardato di altri 15-18 mesi e allora un senso l'avrebbe eccome.
Leggo ora quello che dice il link che hai postato.
Come detto questo 'fantomatico' GM200 non è il GM200 che ci si aspetta (o almeno, che mi aspettavo).
E' appunto come avevo detto, un rifacimento del GK110 con base Maxwell. Stessi shader, stesso bus, stessa dimensione sullo stesso PP.
A questo punto mi viene il dubbio che nvidia farà 2 serie dell'architettura Maxwell. Una a 28nm e una a 16nm con il doppio delle unità di calcolo della prima versione (e magari qualche lifting qui o là).
E questo indica che il processo a 16nm è abbastanza distante nel tempo, altrimenti non avrebbe senso fare il padellone e sperare di ammortizazarne gli enormi costi se i tempi di vendita fossero brevi.
Va buò, ci accontenteremo di questo GM200 a 28nm con tutti gli annessi e connessi
Comunque non è una assurdità manageriale lanciarlo 2 mesi dopo (o anche 1 settimana dopo o anche prima come aveva fatto con le generazioni precedenti, tipo con Fermi). E' una GPU differente, con costi e capacità differenti che permette di fare prodotti differenti (più costosi).
Una ipotetica GTX980Ti costerebbe dalle 700 euro in su. Che sono comunque molti più soldi di una GTX980. e oltre il doppio di una già ottima GTX970.
E comunque ad nvidia serve anche soddisfare il mercato professionale. Prima lo mette sul mercato prima può vendere nuove Quadro/Tesla a prezzi da strozzino. D'altronde non c'è alternativa alle loro schede professionali (tranne la serie Xeon Phi di Intel per i server HPC).
Poi arriveranno i 16nm e quindi, via, un altro giro, altra corsa.
Sotto il punto di vista dei tempi direi che nvidia è messa molto bene. Con questi GMx00 ha circa un anno di tempo per venderne a vagonate. Sempre che AMD non se ne esca con qualcosa di altrettanto valido.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 16:14   #36
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Se il nuovo PP sarà disponibile solo per fine 2015 allora qualcosa di più grosso uscirà sicuramente, ma se invece sarà disponibile nei primi mesi del 2015 non uscirà nulla perché semplicemente non avrebbe senso.
Il prossimo PP comunque è il 16nm, non il 20nm.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 16:26   #37
Alodesign
Senior Member
 
Iscritto dal: Sep 2008
Messaggi: 3180
Dopo aver comprato una 280x e vedendo i giochi in uscita nei prossimi mesi/anni, mi chiedo più che altro a che cazzo servano ste nuove schede Nvidia.
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090
Alodesign è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 16:33   #38
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Alodesign Guarda i messaggi
Dopo aver comprato una 280x e vedendo i giochi in uscita nei prossimi mesi/anni, mi chiedo più che altro a che cazzo servano ste nuove schede Nvidia.
I giochi in uscita nei prossimi anni ?

The Witcher 3 ?
Gli UE4 based ?
Il nuovo COD ?
The Division ?

Sicuramente con una 280x in alcuni di questi titoli probabilmente i 60 fissi non li vedrai e anche con titoli come PCars e AC al massimo dei dettagli non ce la si fà.

Senza contare che oramai il 1080p comincia a da 1440p la cosa cambia radicalmente.

Ultima modifica di PaulGuru : 26-09-2014 alle 16:35.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2014, 17:29   #39
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da Alodesign Guarda i messaggi
Dopo aver comprato una 280x e vedendo i giochi in uscita nei prossimi mesi/anni, mi chiedo più che altro a che cazzo servano ste nuove schede Nvidia.
Per l'utente magari ad andare uguale e consumare meno?
Non è che le nuove schede sono solo per chi prima aveva una 780/Ti. Ci sono anche quelli che fanno l'upgrade oggi da schede obsolete di 2, 3, 4 o più anni fa. Meglio queste nuove 970/980 o le vecchie 780/780Ti?

Per l'azienda che le produce fare schede con le stesse prestazioni di quelle vecchie (se non un pelo meglio) che le costano molto meno.

E poi, io ho una 660Ti che va ben oltre a quello che in relatà riesco a sfruttare, pure su un monitor 2520x1440. Devo chiedermi a cosa servano le schede più veloci della mia?
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 02-10-2014, 10:08   #40
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Sembra che AMD non stia proprio dormendo.
http://wccftech.com/amd-20nm-r9-390x...er-than-gddr5/

Certo perdersi la stagione natalizia non è un bene, ma le premesse per la prosecuzione del duopolio ci sono tutte.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondo...
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint Cybersecurity: email, utenti e agenti IA, la nuo...
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti Hisense A85N: il ritorno all’OLED è convi...
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento Acer TravelMate P6 14 AI: il Copilot+ PC sotto i...
Recensione Borderlands 4, tra divertimento e problemi tecnici Recensione Borderlands 4, tra divertimento e pro...
Xbox Game Pass cambia: nuovi piani e pre...
Intel produrrà chip per AMD? L'in...
Ecco il nuovo Amazon Luna: videogiochi p...
ISRO: prosegue lo sviluppo della navicel...
CoD Black Ops 7 offrirà la beta p...
Il telescopio spaziale James Webb sta ai...
Crucial spinge sui moduli LPCAMM2: fino ...
Imgur blocca gli utenti del Regno Unito:...
ROG Xbox Ally già in consegna: qu...
Ubisoft annuncia Vantage Studios: Assass...
Il solare diventa la prima fonte di elet...
Google Home si rinnova completamente: ar...
Dense Geometry Format (DGF): novit&agrav...
Gemini for Home arriva a ottobre sui dis...
Amazon Smart Air Quality Monitor: a soli...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 20:47.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1