PDA

View Full Version : NVIDIA GeForce GTX 980: efficienza al primo posto


Pagine : [1] 2

Redazione di Hardware Upg
19-09-2014, 05:39
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4147/nvidia-geforce-gtx-980-efficienza-al-primo-posto_index.html

Un mix ideale tra prestazioni e consumi? E' questo l'obiettivo dichiarato dell'architettura Maxwell di NVIDIA, adottata per la GPU GM204 che equipaggia le schede video GeForce GTX 980 e GeForce GTX 970 al debutto quest'oggi sul mercato. Una nuova architettura top di gamma che sorprende per le prestazioni, ma più di tutto ricorda come per andare forte non serva sempre consumare tanto

Click sul link per visualizzare l'articolo.

emix84
19-09-2014, 07:41
mi spiegate perchè questa scheda video che è il top al momento costa la metà di una gtx 690 che ancora oggi costa sui 1000 euro?!?

sergiochu
19-09-2014, 07:47
Mi sono stressato a leggere questo articolo... anzi... non l'ho letto neanche tutto, perche la pubblicità me l'ha impedito...
Banner che si aprono da solo sull'articolo, video-pubblicità che partono senza nessuna interazione...
Il vostro è un sito di serio o un immondezzaio di pubblicità...
Inoltre... che cazzo ce la matteta a fare la "X" per chiudere la pubblicità se invece di chiudersi si apre un'altra schermata di quella pubblicità...
State facendo sempre più schifo...

trapanator
19-09-2014, 08:09
mi piacerebbe che metteste nei vostri test anche quelli di folding@home...

Paolo Corsini
19-09-2014, 08:15
mi spiegate perchè questa scheda video che è il top al momento costa la metà di una gtx 690 che ancora oggi costa sui 1000 euro?!?
La domanda è mal posta; bisognerebbe domandarsi perché una GTX 690 costa quella cifra al momento e la risposta è semplice. La GTX 690 è, fatta eccezione per GeForce GTX Titan-Z, la scheda NVIDIA a singolo slot più veloce in commercio e questo è ottenuto abbinando due chip video su un singolo PCB.
Schede come GeForce GTX 980 utilizzano invece un singolo chip su singolo PCB, come del resto la stragrande maggioranza delle soluzioni in commercio. I 1.000€ richiesti per GTX 690 sono il suo prezzo "storico" che risale al debutto sul mercato; nel frattempo la scheda è stata di fatto tolta dal commercio da NVIDIA e i sample in vendita sono modelli rimasti in circolazione da un po'.

Goofy Goober
19-09-2014, 08:19
Nzomma alla fine tra tutti i leak e cazz e mazz usciti che la davano come una gpu sotto la 780Ti, come al solito, anche se di uno sputo di FPS, la nuova gpu va più veloce di tutte le precedenti :D

Littlesnitch
19-09-2014, 08:25
Ora voglio vedere cosa diranno quelli che 2 mesi fa mi hanno apostrofato in tutti i modi quando avevo previsto pressoché questi risultati. :D
Ora vado a ricercare le perle di saggezza :D

Goofy Goober
19-09-2014, 08:35
Ora voglio vedere cosa diranno quelli che 2 mesi fa mi hanno apostrofato in tutti i modi quando avevo previsto pressoché questi risultati. :D
Ora vado a ricercare le perle di saggezza :D

Vabbè dai ma prima del lancio di una serie/gpu si delira sempre, tanti non capiscono più nulla e se ne dicono di tutti i colori, è la norma :O

.338 lapua magnum
19-09-2014, 08:38
Nzomma alla fine tra tutti i leak e cazz e mazz usciti che la davano come una gpu sotto la 780Ti, come al solito, anche se di uno sputo di FPS, la nuova gpu va più veloce di tutte le precedenti :D
Il divario di frequenza nei test é piuttosto importante.
Peccato l'assenza di un clock to clock

Paolo Corsini
19-09-2014, 08:50
Il divario di frequenza nei test é piuttosto importante.
Peccato l'assenza di un clock to clock
Un confronto clock to clock ha senso fino a un certo punto: è ok se vuoi studiare l'architettura, ma oltre al clock ci sono moltissime altre variabili che subentrano.
I test vanno fatti usando il prodotto così come il produttore lo propone sul mercato; Maxwell e Kepler sono architetture differenti e la prima, a parità di tecnologia produttiva utilizzata, riesce per le proprie caratteristiche ad assicurare una frequenza di clock superiore.

Goofy Goober
19-09-2014, 08:52
Il divario di frequenza nei test é piuttosto importante.
Peccato l'assenza di un clock to clock

Per me invece i test in overclock sono solo parzialmente indicativi in quanto l'OC non è una scienza esatta e non esistono margini garantiti ne minimi ne massimi.

Gli unici test "in OC" che sono utili riguardano i modelli con OC di fabbrica, visto che quello è garantito, ma non mi sembrerebbe giusto confrontare gpu reference con gpu custom, non almeno in senso assoluto, ma solo a titolo informativo.

Cmq ad ogni nuovo chip i discorsi sul "se overclocco il vecchio il divario diminuisce" ci son sempre stati... Qui con l'OC il vecchio chip supera il nuovo, ma il punto è lo stesso, e tra l'altro stiamo confrontando un chip vecchio "full" contro un chip nuovo "mid", e, soprattutto, su stesso processo produttivo... Risultato niente male tenendo in conto questi punti. Chissà il nuovo chippone che monster sarà.

arwar
19-09-2014, 08:54
Mi sono stressato a leggere questo articolo... anzi... non l'ho letto neanche tutto, perche la pubblicità me l'ha impedito...
Banner che si aprono da solo sull'articolo, video-pubblicità che partono senza nessuna interazione...
Il vostro è un sito di serio o un immondezzaio di pubblicità...
Inoltre... che cazzo ce la matteta a fare la "X" per chiudere la pubblicità se invece di chiudersi si apre un'altra schermata di quella pubblicità...
State facendo sempre più schifo...

C'è ancora chi non usa ad block? Provalo e non tornerai mai più indietro ;).

Comunque bella scheda, anche se 560€ per la 980 a mio avviso sono veramente assurdi.

s12a
19-09-2014, 08:58
Da altre recensioni sembra essere anche un portento nel GPGPU, dove le AMD prevalevano.
Personalmente sono curioso per la prossima GTX960 in ogni caso.

Littlesnitch
19-09-2014, 09:01
Un confronto clock to clock ha senso fino a un certo punto: è ok se vuoi studiare l'architettura, ma oltre al clock ci sono moltissime altre variabili che subentrano.
I test vanno fatti usando il prodotto così come il produttore lo propone sul mercato; Maxwell e Kepler sono architetture differenti e la prima, a parità di tecnologia produttiva utilizzata, riesce per le proprie caratteristiche ad assicurare una frequenza di clock superiore.

Paolo permettimi di dissentire su questo punto.
Questo GM204 è un po come il GK104, cioè lanciato già con freq OC di fabbrica per gettare fumo negli occhi e farlo andare un pochino sopra la 780Ti.
Nella tua recensione (a ragione) tu utilizzi una 780Ti reference a 928Mhz (che sono nella realtà circa 1Ghz) ma io non ho trovato nemmeno una 780Ti che non arrivi almeno a 1250Mhz anche con dissi stock, mentre avrei molti dubbi su quanto possa salire questo GM204.
Se fosse possibile per te integrare il tutto anche con una 780Ti Ghz edition sarebbe molto utile.

Paolo Corsini
19-09-2014, 09:09
Paolo permettimi di dissentire su questo punto.
Questo GM204 è un po come il GK104, cioè lanciato già con freq OC di fabbrica per gettare fumo negli occhi e farlo andare un pochino sopra la 780Ti.
Nella tua recensione (a ragione) tu utilizzi una 780Ti reference a 928Mhz (che sono nella realtà circa 1Ghz) ma io non ho trovato nemmeno una 780Ti che non arrivi almeno a 1250Mhz anche con dissi stock, mentre avrei molti dubbi su quanto possa salire questo GM204.
Se fosse possibile per te integrare il tutto anche con una 780Ti Ghz edition sarebbe molto utile.
Ciao

ho solo una GeForce GTX 780Ti reference in redazione al momento. GK204 non è overcloccato di fabbrica, e per spiegare questo basta vederne i livelli di consumo.
Circa l'overclock di 780Ti a 1.250 MHz, questo dato è quanto rilevi in una misurazione in 2D oppure una frequenza mantenuta stabilmente durante l'esecuzione di benchmark 3D? Basta tracciare con GPU-Z i dati di hardware monitoring in background mentre fai stress test e vedi subito se quella frequenza è mantenuta o se questa viene diminuita automaticamente dalla GPU durante l'esecuzione per mantenere consumi e temperature entro limiti adeguati

Littlesnitch
19-09-2014, 09:10
Da altre recensioni sembra essere anche un portento nel GPGPU, dove le AMD prevalevano.
Personalmente sono curioso per la prossima GTX960 in ogni caso.

Su Anandtech se la gioca con Hawaii ma sono il SP, nel DP invece come previsto è sotto anche a GF110. La parte DP come su GK104 è stata tagliata.

Jones D. Daemon
19-09-2014, 09:12
Paolo permettimi di dissentire su questo punto.
Questo GM204 è un po come il GK104, cioè lanciato già con freq OC di fabbrica per gettare fumo negli occhi e farlo andare un pochino sopra la 780Ti.
Nella tua recensione (a ragione) tu utilizzi una 780Ti reference a 928Mhz (che sono nella realtà circa 1Ghz) ma io non ho trovato nemmeno una 780Ti che non arrivi almeno a 1250Mhz anche con dissi stock, mentre avrei molti dubbi su quanto possa salire questo GM204.
Se fosse possibile per te integrare il tutto anche con una 780Ti Ghz edition sarebbe molto utile.

Quoto, posseggo una 780Ti Asus DCII e nonostante la frequenza base della GPU non sia di quelle più alte disponibili in vendita, può lavorare tranquillamente a 1280 in daily. Rispetto alla frequenza impostata da Nvidia per il chip che monta si parla di un incremento della frequenza di circa il 28% (prendendo in considerazione 1ghz per la stock). Se si riuscisse anche solo a pareggiare il limite di incremento del 28% sulla 980 Si arriverebbe a 1450 mhz, una cosa mostruosa. Quindi i casi sono 2: o Nvidia ha rilasciato una GPU OC di fabbrica come diceva giustamente Littlesnitch per non farla andare meno della precedente oppure Maxwell in OC (e sopratutto il futuro chippone) avranno una potenza e margini di OC terrificanti.

EDIT: i 1280 sono stabili in Valley/Heaven/3DMARK.

Littlesnitch
19-09-2014, 09:15
Ciao

ho solo una GeForce GTX 780Ti reference in redazione al momento. GK204 non è overcloccato di fabbrica, e per spiegare questo basta vederne i livelli di consumo.
Circa l'overclock di 780Ti a 1.250 MHz, questo dato è quanto rilevi in una misurazione in 2D oppure una frequenza mantenuta stabilmente durante l'esecuzione di benchmark 3D? Basta tracciare con GPU-Z i dati di hardware monitoring in background mentre fai stress test e vedi subito se quella frequenza è mantenuta o se questa viene diminuita automaticamente dalla GPU durante l'esecuzione per mantenere consumi e temperature entro limiti adeguati

No i 1250Mhz sono freq stabili in game anche per ore che una 780Ti mantiene, quelle custom si avvicinano anche ai 1400Mhz. Le mie 780Lightning a 1.161v (standard) girano 1350Mhz in turbo senza mai andare in throttling.
Per i consumi del GM204, è pressochè identico a quello del GK104 (che in turbo a default girava attorno a 1100Mhz) a parità di dimensioni, ma ci sono anche 3 anni di affinamento del PP.
Hai fatto prove di OC con la 980? O aspetterai qualche versione custom?

demon77
19-09-2014, 09:16
Un aumento di prestazioni certamente moderato.
Ma in compenso tanta ottimizzazione volta ad ottenere qualità mantenendo da una parte le prestazioni e dall'altra riducendo i consumi.

Mi piace!

.338 lapua magnum
19-09-2014, 09:16
Per me invece i test in overclock sono solo parzialmente indicativi in quanto l'OC non è una scienza esatta e non esistono margini garantiti ne minimi ne massimi.

Gli unici test "in OC" che sono utili riguardano i modelli con OC di fabbrica, visto che quello è garantito, ma non mi sembrerebbe giusto confrontare gpu reference con gpu custom, non almeno in senso assoluto, ma solo a titolo informativo.

Cmq ad ogni nuovo chip i discorsi sul "se overclocco il vecchio il divario diminuisce" ci son sempre stati... Qui con l'OC il vecchio chip supera il nuovo, ma il punto è lo stesso, e tra l'altro stiamo confrontando un chip vecchio "full" contro un chip nuovo "mid", e, soprattutto, su stesso processo produttivo... Risultato niente male tenendo in conto questi punti. Chissà il nuovo chippone che monster sarà.
Non é detto che sia lo stesso pp, sempre 28 nani sono, ma tsmc ha introdotto l' HPC (high performance compact) , che a dire di tsmc equivale ad un nodo 20 nani.
Non é chiaro (almeno per me) se si produce con questo nodo anche GPU o solo chip arm e se nVidia ha usato tale nodo per gli ultimi prodotti.

HEYDOL
19-09-2014, 09:21
Intanto complimenti per l'articolo !, era dal G80 che non leggevo un articolo cosi ben fatto e particolareggiato, poi complimenti anche alla scheda che dimezzando il bus e tdp rispetto alla 780ti riesce a tenere prestazioni mediamente superiori grazie alla nuova architettura .

Goofy Goober
19-09-2014, 09:23
Non é detto che sia lo stesso pp, sempre 28 nani sono, ma tsmc ha introdotto l' HPC (high performance compact) , che a dire di tsmc equivale ad un nodo 20 nani.
Non é chiaro (almeno per me) se si produce con questo nodo anche GPU o solo chip arm e se nVidia ha usato tale nodo per gli ultimi prodotti.

Ottima osservazione, sarebbe interessante sapere se l'hpc è stato effettivamente impiegato o no.

Littlesnitch
19-09-2014, 09:25
Un aumento di prestazioni certamente moderato.
Ma in compenso tanta ottimizzazione volta ad ottenere qualità mantenendo da una parte le prestazioni e dall'altra riducendo i consumi.

Mi piace!

Si il lavoro di ottimizzazione è notevole, anche dettato dal fatto che il nuovo PP è in un non ben precisato ritardo. nVidia non poteva far altro che giocarsela così come ha giustamente fatto. Sicuramente sono schede da saltare a pie pari per chi ha un GK110.

Littlesnitch
19-09-2014, 09:29
Comunque ragazzi sembra che anche in OC salgano bene
http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_g1_gaming_review,26.html
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/67445-nvidia-geforce-gtx-980-performance-review-13.html
Si ha un altro 15% di boost.
Ottimo lavoro da parte di nVidia. 1500Mhz a 20nm sono un ottimo lavoro.
La scimmia per il 20nm oramai è incontenibile!!! :sofico:

gd350turbo
19-09-2014, 09:31
Mi unisco anch'io nel fare i complimenti per l'articolo, con le ultime perle su apple si era completamente perso il concetto di buon articolo !

Del resto, prestazioni molto interessanti se consideriamo che questa è una versione di maxwell alquanto primitiva, quando arriveranno le ver. 2.0, eh per i concorrenti, ci sarà da preoccuparsi !

gd350turbo
19-09-2014, 09:33
...La scimmia per il 20nm oramai è incontenibile!!! :sofico:

Nahhh...
Aspetto il gm110 b1 !
Quello si che andrà di brutto !

Littlesnitch
19-09-2014, 09:36
Mi unisco anch'io nel fare i complimenti per l'articolo, con le ultime perle su apple si era completamente perso il concetto di buon articolo !

Del resto, prestazioni molto interessanti se consideriamo che questa è una versione di maxwell alquanto primitiva, quando arriveranno le ver. 2.0, eh per i concorrenti, ci sarà da preoccuparsi !

Beh anche AMD ha avuto tutto il tempo per rispondere. Questa va un 20% in più di una 290X, quindi credo che verrà sostanzialmente pareggiata dalle prossime AMD a 28nm. Per il prossimo PP... beh li vedremo chi ha lavorato meglio.

Paolo Corsini
19-09-2014, 09:38
No i 1250Mhz sono freq stabili in game anche per ore che una 780Ti mantiene, quelle custom si avvicinano anche ai 1400Mhz. Le mie 780Lightning a 1.161v (standard) girano 1350Mhz in turbo senza mai andare in throttling.
Per i consumi del GM204, è pressochè identico a quello del GK104 (che in turbo a default girava attorno a 1100Mhz) a parità di dimensioni, ma ci sono anche 3 anni di affinamento del PP.
Hai fatto prove di OC con la 980? O aspetterai qualche versione custom?
Ciao
non ho una di queste schede, quindi non posso provare. Se mi fai avere un log di GPU-Z me lo studio. Se hai Metro: last Light imposta il benchmark in loop per diciamo 10 run, bastano sicuramente per stabilizzare la temperatura e le frequenze di clock.

Test in overclock: ho finito l'editing dell'articolo a mezzanotte e mezza, sono state giornate un po' impegnative queste ultime per riuscire a stare dentro i tempi dell'embargo. L'overclock non sono riuscito a vederlo; vedo se riesco a fare qualcosa stamattina altrimenti rimando al pezzo sulla GTX 970 che uscirà settimana prossima

Goofy Goober
19-09-2014, 09:39
Nahhh...
Aspetto il gm110 b1 !
Quello si che andrà di brutto !

1.000 NEURI :asd:

Littlesnitch
19-09-2014, 09:40
Ciao
non ho una di queste schede, quindi non posso provare. Se mi fai avere un log di GPU-Z me lo studio. Se hai Metro: last Light imposta il benchmark in loop per diciamo 10 run, bastano sicuramente per stabilizzare la temperatura e le frequenze di clock.

Test in overclock: ho finito l'editing dell'articolo a mezzanotte e mezza, sono state giornate un po' impegnative queste ultime per riuscire a stare dentro i tempi dell'embargo. L'overclock non sono riuscito a vederlo; vedo se riesco a fare qualcosa stamattina altrimenti rimando al pezzo sulla GTX 970 che uscirà settimana prossima

Grazie mille per la risposta. Metro non ce l'ho ma non è un problema, stasera o domani se riesco ti faccio quello che hai chiesto.

Littlesnitch
19-09-2014, 09:41
1.000 NEURI :asd:

Importa zero, se queste sono le premesse anche 2000€.
E permettimi una cosa.... ma da che pulpito!!!! :D

gd350turbo
19-09-2014, 09:42
1.000 NEURI :asd:

Eh...
Tu sai bene quanta gente ha appoggiato sul bancone >1000 euro per una titan vero ?

gd350turbo
19-09-2014, 09:45
Beh anche AMD ha avuto tutto il tempo per rispondere. Questa va un 20% in più di una 290X, quindi credo che verrà sostanzialmente pareggiata dalle prossime AMD a 28nm. Per il prossimo PP... beh li vedremo chi ha lavorato meglio.

Eh ma deve fare o qualcosa di estremamente economico, e allora le gente la prende perchè costa poco, o di estremamente potente, allora la gente la prende perchè va forte !

Goofy Goober
19-09-2014, 09:46
Importa zero, se queste sono le premesse anche 2000€.
E permettimi una cosa.... ma da che pulpito!!!! :D

Mica son contento di spendere un botto se si può spendere di meno (quando mi son titanizzato alternative non ne avevo)...

2.000 sberle altro che importa zero :asd:

I videogiochi di oggi (parlando strettamente di intrattenimento quindi) non valgono manco una gpu da 500€ tra un po'... E me ne sono reso conto solo dopo essermi brasato il portafogli con le Titan, purtroppo...

Eh...
Tu sai bene quanta gente ha appoggiato sul bancone >1000 euro per una titan vero ?

Non sai con chi stai parlando :asd:

Paolo Corsini
19-09-2014, 09:47
Grazie mille per la risposta. Metro non ce l'ho ma non è un problema, stasera o domani se riesco ti faccio quello che hai chiesto.

Se mi mandi tutto via mail mi fai una cortesia: [email protected]

Grazie ;)

gd350turbo
19-09-2014, 09:48
Non sai con chi stai parlando :asd:

Lo so lo so...

L'ho detto apposta !

AceGranger
19-09-2014, 09:51
Su Anandtech se la gioca con Hawaii ma sono il SP, nel DP invece come previsto è sotto anche a GF110. La parte DP come su GK104 è stata tagliata.

Si ma i software DP sono ben pochi e ulta-specialistici.

Comunque efficienza sbalorditiva e la 970 ha pure un prezzo ottimo.

Praticamente nVidia ha tagliato le gambe ad AMD, la GTX 970 va come una 290X e arrivera a costare meno di una 290 consumando nettamente meno.

http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/25.html
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/26.html
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/27.html

Littlesnitch
19-09-2014, 10:00
Se mi mandi tutto via mail mi fai una cortesia: [email protected]

Grazie ;)

Si Metro l'ho appena comprato, quindi stasera lo scarico e poi ti faccio il log.

Si ma i software DP sono ben pochi e ulta-specialistici.

Comunque efficienza sbalorditiva e la 970 ha pure un prezzo ottimo.

Praticamente nVidia ha tagliato le gambe ad AMD, la GTX 970 va come una 290X e arrivera a costare meno di una 290 consumando nettamente meno.

http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/25.html
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/26.html
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/27.html

Si ma anche AMD deve ancora rispondere e credo lo faccia a breve. MA se le premesse sono queste la prossima Titan sarà un mostro!

AceGranger
19-09-2014, 10:05
Si ma anche AMD deve ancora rispondere e credo lo faccia a breve. MA se le premesse sono queste la prossima Titan sarà un mostro!

e pensa quello che avrebbe fatto a 20/14 nm :eek:

Lino P
19-09-2014, 10:06
"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena avremo potuto mettere le mani su un sample"

da editare in..

"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena ci si accorda commercialmente col produttore per recensirla..." :asd:

Paolo Corsini
19-09-2014, 10:13
"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena avremo potuto mettere le mani su un sample"

da editare in..

"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena ci si accorda commercialmente col produttore per recensirla..." :asd:
Se devo commentare questa tua ti prego di indicarmi cosa dovrei scrivere; resto sempre basito dalla facilità con la quale dietro ad un monitor e "nascosti" da un nickname si possa denigrare la professionalità di una persona.
Se hai piacere vieni pure a trovarci in redazione, sei mio ospite: almeno potrai vedere con i tuoi occhi che quello che ti immagini, e che con tanta facilità spiattelli in una discussione, è opposto alla realtà. Aspetto una tua mail, grazie.

Paolo Corsini
19-09-2014, 10:16
Mi sono stressato a leggere questo articolo... anzi... non l'ho letto neanche tutto, perche la pubblicità me l'ha impedito...
Banner che si aprono da solo sull'articolo, video-pubblicità che partono senza nessuna interazione...
Il vostro è un sito di serio o un immondezzaio di pubblicità...
Inoltre... che cazzo ce la matteta a fare la "X" per chiudere la pubblicità se invece di chiudersi si apre un'altra schermata di quella pubblicità...
State facendo sempre più schifo...

Per la cronaca: ho ricevuto dall'utente le schermate di come visualizza con il suo browser l'articolo. Ha ragione, sono piene di banner in overlayer. Peccato che questi non siano banner nostri ma provenienti da una estensione di Chrome che è stata installata e che "simpaticamente" si mette a sparare banner in overlayer quando vengono aperte pagine con contenuti IT.
Morale della favola: conviene fare qualche verifica prima di sparare a zero, perché non è detto che quello che si verifichi abbia come spiegazione l'unica che ci si è dati.

Neos7
19-09-2014, 10:20
NVIDIA <3

gd350turbo
19-09-2014, 10:24
Se devo commentare questa tua ti prego di indicarmi cosa dovrei scrivere; resto sempre basito dalla facilità con la quale dietro ad un monitor e "nascosti" da un nickname si possa denigrare la professionalità di una persona.
Se hai piacere vieni pure a trovarci in redazione, sei mio ospite: almeno potrai vedere con i tuoi occhi che quello che ti immagini, e che con tanta facilità spiattelli in una discussione, è opposto alla realtà. Aspetto una tua mail, grazie.

Io non denigro la professionalità di nessuno, ma se per caso mi trovo dalle vostre parti posso passare a trovarvi ugualmente ? :)

Littlesnitch
19-09-2014, 10:26
Io non denigro la professionalità di nessuno, ma se per caso mi trovo dalle vostre parti posso passare a trovarvi ugualmente ? :)

Se ci vai ,mi raccomando,salutaci !fazz :D :D :D

tony73
19-09-2014, 10:28
Bella GPU, dal canto mio aspetto la sua naturale evoluzione e poi valuterò. A sto giro mi piacerebbe una dual gpu così da sostituire le mie 2 780.

AnthonyTex
19-09-2014, 10:30
Complimenti alla redazione per l'articolo: ottimo lavoro. :) Per quanto riguarda le schede invece, non vedo l'ora di vedere qualche video dimostrativo che sfrutti le nuove soluzioni per l'illuminazione.

gd350turbo
19-09-2014, 10:31
Se ci vai ,mi raccomando,salutaci !fazz :D :D :D

:ave: :ave: :ave:

Paolo Corsini
19-09-2014, 10:38
Io non denigro la professionalità di nessuno, ma se per caso mi trovo dalle vostre parti posso passare a trovarvi ugualmente ? :)
Una cosa che da anni voglio organizzare, e poi mannaggia al tempo e alle troppe cose da fare posticipo sempre, è "una giornata di redazione" aperta ad un gruppo di 10-12 utenti.
Vediamo se questo thread è lo stimolo giusto per organizzare finalmente questa cosa

gd350turbo
19-09-2014, 10:45
Una cosa che da anni voglio organizzare, e poi mannaggia al tempo e alle troppe cose da fare posticipo sempre, è "una giornata di redazione" aperta ad un gruppo di 10-12 utenti.
Vediamo se questo thread è lo stimolo giusto per organizzare finalmente questa cosa

Eh sono 11 anni che vi leggo/scrivo...
Un giretto per vedere che faccia avete lo farei volentieri !

calabar
19-09-2014, 10:46
Buon articolo e bella scheda, sono riusciti sullo stesso nodo produttivo a raggiungere e superare le prestazioni del GK110 con un chip che ha le caratteristiche (area, bus, consumi) del GK104 e che di fatto ne è l'erede.

Tra l'altro notevole l'aumento della frequenza di base, a cui ovviamente è dovuta buona parte del recupero del gap prestazionale.
Anche io sono un po' curioso di vedere se questo comporterà un minore aumento di prestazioni in overclock, spero in qualche aggiunta a breve per questo articolo.

Ho un piccolo dubbio:
Ma le innovazioni relative a Maxell che si leggono in questo articolo sono proprie di questa architettura o solo di questa scheda?
Per capirci... nelle Geforce 750 ritrovo tutte le tecnologie che sono state mostrate nell'articolo?

DjLode
19-09-2014, 10:49
Una cosa che da anni voglio organizzare, e poi mannaggia al tempo e alle troppe cose da fare posticipo sempre, è "una giornata di redazione" aperta ad un gruppo di 10-12 utenti.
Vediamo se questo thread è lo stimolo giusto per organizzare finalmente questa cosa


Bell'idea, potreste fare come fa Radio Deejay. Ha battezzato un giorno alla settimana (venerdì) in cui gli ascoltatori possono mandare la richiesta per essere presenti in radio al programma scelto.
Si chiama Follow Deejay, potreste fare una cosa simile per la vostra redazione, magari anche una volta al mese.

Goofy Goober
19-09-2014, 10:55
Si chiama Follow Deejay, potreste fare una cosa simile per la vostra redazione, magari anche una volta al mese.


E poi diventano un centro di recupero per nerdastri attempati :asd:

Notturnia
19-09-2014, 11:00
favolosa.. consuma "poco" e rende un botto..
inoltre non cosa uno sproposito e gestisce 4 monitor..
direi ottima per me

iorfader
19-09-2014, 11:04
che bello siete stati i primi in italia, così si fa!!! comunque ho visto delle differenze di prestazione tra la vostra recensione e quella di guru3d, fatta con i7 4960x non capisco adesso se può essere per questo o per cosa, ma la 780ti stava sempre sotto la 980...saranno i driver? o quelli si sono venduti? fatemi sapere!!! ad ogni modo mi faccio il primo sli di sicuro con ste 980 a gennaio, specialmente la gigabyte g1 è spettacolare e fresca

Paolo Corsini
19-09-2014, 11:09
che bello siete stati i primi in italia, così si fa!!! comunque ho visto delle differenze di prestazione tra la vostra recensione e quella di guru3d, fatta con i7 4960x non capisco adesso se può essere per questo o per cosa, ma la 780ti stava sempre sotto la 980...saranno i driver? o quelli si sono venduti? fatemi sapere!!! ad ogni modo mi faccio il primo sli di sicuro con ste 980 a gennaio, specialmente la gigabyte g1 è spettacolare e fresca
Escluderei la componente CPU, e pure che qualcuno sia venduto (ma bisogna sempre a priori pensar male?).
Semplicemente le due schede sono molto vicine: il vantaggio di una o dell'altra può dipendere dal tipo di benchmark che viene eseguito. Mai confrontare direttamente test eseguiti con configurazioni differenti, da persone diverse, con titoli che non necessariamente sono gli stessi e soprattutto con mappe, impostazioni qualitative e benchmark differenti

Ale55andr0
19-09-2014, 11:12
Il divario di frequenza nei test é piuttosto importante.
Peccato l'assenza di un clock to clock

vero, ma le prestazioni effettive e i consumi sono quelli che contano, e sono strabilianti le une in relazione agli altri. Ottimo anche il DSR. Il tutto a un prezzo allineato a quello che era della 780ti
Sto Maxwell è un p-o-r-t-e-n-t-o, non oso immaginare cosa possa fare a 20nm e con 3000sp o giu di li :eek:
AMD, dove sei?

Littlesnitch
19-09-2014, 11:14
Buon articolo e bella scheda, sono riusciti sullo stesso nodo produttivo a raggiungere e superare le prestazioni del GK110 con un chip che ha le caratteristiche (area, bus, consumi) del GK104 e che di fatto ne è l'erede.

Tra l'altro notevole l'aumento della frequenza di base, a cui ovviamente è dovuta buona parte del recupero del gap prestazionale.
Anche io sono un po' curioso di vedere se questo comporterà un minore aumento di prestazioni in overclock, spero in qualche aggiunta a breve per questo articolo.

Ho un piccolo dubbio:
Ma le innovazioni relative a Maxell che si leggono in questo articolo sono proprie di questa architettura o solo di questa scheda?
Per capirci... nelle Geforce 750 ritrovo tutte le tecnologie che sono state mostrate nell'articolo?

Ho postato sopra le prestazioni in OC ;)
Risultati molto confortanti, hanno lavorato molto bene sul PP e ottimizzazioni, anche per costrizione visto che il nuovo PP ancora nessuno sa se e quando sarà disponibile.

Jena73
19-09-2014, 11:18
complimenti davvero un ottimo articolo in stile "hwupgrade old school"...
e anche ottima scheda... mi sa che a sto giro scatta l'upgrade e pensiono la mia 680 "evergreen" :D :D

noiman
19-09-2014, 11:22
Volevo fare una domanda alla redazione...ho letto l'articolo e vi pongo un mio quesito...Avete consigliato a chi ha una 780 ,780 ti, ecc che non conviene fare l'upgrade... ora per chi ha già una di queste soluzioni ,e vorrebbe fare uno sli per un monitor 2k o 4k ...consigliate:

1) una nuova 780 o780 ti
2)Uno sli di 980 visto consumi e calore..
3)oppure di aspettare l'anno prossimo per la nuova nvidia che dovrebbe portare risultati incredibili,visto il probabile cambio di architettura...

Ringrazio in anticipo la redazione e chiunque voglia rispondere ai quesiti...

Ale55andr0
19-09-2014, 11:31
3)oppure di aspettare l'anno prossimo per la nuova nvidia che dovrebbe portare risultati incredibili,visto il probabile cambio di architettura...

...

cambio di pp semmai, maxwell è appena uscito che già lo vuoi pensionare? :D

io, da appassionato, aspettere, perchè la mega gpu maxwell a 20/16nm se tanto mi da tanto sarà micidiale!

Lino P
19-09-2014, 11:38
Se devo commentare questa tua ti prego di indicarmi cosa dovrei scrivere; resto sempre basito dalla facilità con la quale dietro ad un monitor e "nascosti" da un nickname si possa denigrare la professionalità di una persona.
Se hai piacere vieni pure a trovarci in redazione, sei mio ospite: almeno potrai vedere con i tuoi occhi che quello che ti immagini, e che con tanta facilità spiattelli in una discussione, è opposto alla realtà. Aspetto una tua mail, grazie.

mi sa che hai frainteso.
Non ho denigrato la professionalità di nessuno.
Il fatto è che molti sul foro credono che i redattori, in senso lato, vivano di aria fritta, e che operino per il solo piacere di tenerli informati.
L'editoria vive di ben altro, e ribadirlo pubblicamente non credo sia un reato.
Poi se hwupgrade è una onlus e non opera perseguendo fnalità di lucro (come è giusto che un'azienda faccia) il discorso cambia, ma non credo sia questo il caso.

Resto basito io dalla facilità con cui si accusa una persona di nascondersi dietro un monitor o dietro un nick, solo perchè ha ribadito pubblicamente come funzionano certe cose.
Poi se recensite senza alcun accordo di natura commerciale o regalate inserzioni pubblicitarie tra le vostre pagine chiedo venia, sono stato io a fraintendere.
Cordiali saluti

Pasquale Pancione.

iorfader
19-09-2014, 11:49
Escluderei la componente CPU, e pure che qualcuno sia venduto (ma bisogna sempre a priori pensar male?).
Semplicemente le due schede sono molto vicine: il vantaggio di una o dell'altra può dipendere dal tipo di benchmark che viene eseguito. Mai confrontare direttamente test eseguiti con configurazioni differenti, da persone diverse, con titoli che non necessariamente sono gli stessi e soprattutto con mappe, impostazioni qualitative e benchmark differenti

mmmm va bene, ne approfitto per chiedere se avete fatto la recensione del 5960x...e se no, perfavore se usate anche world of warcraft come metodo di paragone nei test, specificate dove avete fatto il bench, possibilmente fatelo a stormwind o ad orgrimmar, perchè essedo le città + grandi gli fps scendono di molto anche con pc mostruosi... se invece l'avete fatta, datemi il link che l'ho pers a :D

Littlesnitch
19-09-2014, 11:58
Volevo fare una domanda alla redazione...ho letto l'articolo e vi pongo un mio quesito...Avete consigliato a chi ha una 780 ,780 ti, ecc che non conviene fare l'upgrade... ora per chi ha già una di queste soluzioni ,e vorrebbe fare uno sli per un monitor 2k o 4k ...consigliate:

1) una nuova 780 o780 ti
2)Uno sli di 980 visto consumi e calore..
3)oppure di aspettare l'anno prossimo per la nuova nvidia che dovrebbe portare risultati incredibili,visto il probabile cambio di architettura...

Ringrazio in anticipo la redazione e chiunque voglia rispondere ai quesiti...

Beh se vuoi passare subito al 4K allora se hai già una 780 puoi prenderne un'altra ma credo che dovrai comunque scendere a compromessi.
Quindi per quelle risoluzioni io aspetterei il chippone a 20nm.

mmmm va bene, ne approfitto per chiedere se avete fatto la recensione del 5960x...e se no, perfavore se usate anche world of warcraft come metodo di paragone nei test, specificate dove avete fatto il bench, possibilmente fatelo a stormwind o ad orgrimmar, perchè essedo le città + grandi gli fps scendono di molto anche con pc mostruosi... se invece l'avete fatta, datemi il link che l'ho pers a :D

http://www.hwupgrade.it/articoli/cpu/4128/intel-core-i7-5960x-la-cpu-enthusiast-a-8-core_index.html

Paolo Corsini
19-09-2014, 12:04
mi sa che hai frainteso.
Non ho denigrato la professionalità di nessuno.
Il fatto è che molti sul foro credono che i redattori, in senso lato, vivano di aria fritta, e che operino per il solo piacere di tenerli informati.
L'editoria vive di ben altro, e ribadirlo pubblicamente non credo sia un reato.
Poi se hwupgrade è una onlus e non opera perseguendo fnalità di lucro (come è giusto che un'azienda faccia) il discorso cambia, ma non credo sia questo il caso.

Resto basito io dalla facilità con cui si accusa una persona di nascondersi dietro un monitor o dietro un nick, solo perchè ha ribadito pubblicamente come funzionano certe cose.
Poi se recensite senza alcun accordo di natura commerciale o regalate inserzioni pubblicitarie tra le vostre pagine chiedo venia, sono stato io a fraintendere.
Cordiali saluti

Pasquale Pancione.

Ppartiamo da un po' di dati oggettivi, tutti del resto facilmente identificabili con un poco di ricerca.
Hardware Upgrade, il sito, è edito da Hardware Upgrade SRL che è una società che vede Paolo Corsini, cioè chi scrive, quale amministratore delegato oltre che socio di maggioranza (80%, per la cronaca).
In Hardware Upgrade SRL lavorano varie persone; la nostra attività è di tipo editoriale puro, quindi quello che generiamo come fatturato viene dal lavoro svolto sul sito.

Cosa fatturiamo? Pubblicità agli inserzionisti.

Hai scritto

"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena avremo potuto mettere le mani su un sample"

da editare in..

"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena ci si accorda commercialmente col produttore per recensirla..." :asd:

Quanto hai scritto implica che prima di provare un prodotto la redazione si accordi con il produttore per pubblicare un articolo; non lo scrivi direttamente ma questo, e lo smile in fondo la dice lunga, implica che per provare un prodotto su queste pagine un produttore debba pagare.
Spiacente, ma non è così. Che l'editoria possa vivere in tante sue forme di questo è verissimo; che questo sia di conseguenza l'approccio che tutti utilizzano è una tua conclusione, errata quando si riferisce a noi.
E trovo che questo sia denigratorio in quanto, nella logica che esponi, accordarsi per una recensione implica il dare un taglio sempre e comunque positivo all'informazione così da strizzare l'occhio al committente, cioè l'azienda che pagherebbe per questo servizio.

Quello che tu indichi ha tecnicamente un nome e si chiama contenuto publiredazionale, cioè un testo editoriale che viene scritto dalla redazione con il coinvolgimento diretto dell'azienda che viene trattata. In questo caso ci sono un paio di norme deontologiche che guidano a fare un lavoro "per bene" nell'interesse di chi lo commissiona (azienda) e di chi lo legge (lettore), a partire dal fatto che è chiaramente indicato che quel contenuto è un messaggio publiredazionale.

Mi piace sempre raccontare che in Hardware Upgrade ci sono due distinte realtà: la prima, che chiamo Stato, è la parte commerciale e marketing che si occupa di raccogliere la parte pubblicitaria e di sviluppare iniziative speciali. La seconda si chiama Chiesa, ed è la redazione che scrive i contenuti. Queste due anime lavorano assieme ogni giorno negli stessi uffici: si confrontano e lavorano assieme ma tenendo ben separati i compiti di ciascuna così che una non influenzi l'altra e viceversa.

Pertanto, per riprendere l'ultima cosa che hai scritto, la parte pubblicitaria è una cosa e la struttura editoriale è altra. Ci sono aziende che trattiamo molto spesso su queste pagine che in 17 anni non hanno mai investito pubblicitariamente un Euro in Hardware Upgrade; ne parliamo perché crediamo che i loro prodotti siano interessanti. Altre che investono da noi pubblicitariamente perché reputano che questa sia una importante vetrina per i propri prodotti, e che noi editorialmente seguiamo solo marginalmente (e di certo non con la copertura che abbiamo per altre aziende che magari mai hanno acquistato adv da noi).

Proprio per questo motivo quando leggo battutine come il tuo post precedente mi domando per quale motivo sia così facile denigrare il lavoro degli altri dietro uno schermo, tanto poi "se mi sono sbagliato chiedo venia, sono stato io a fraintendere". Se tu vedi una mia recensione come legata ad un accordo commerciale spiacente ma prendi una cantonata e denigri la mia professionalità.

Paolo Corsini
19-09-2014, 12:05
Volevo fare una domanda alla redazione...ho letto l'articolo e vi pongo un mio quesito...Avete consigliato a chi ha una 780 ,780 ti, ecc che non conviene fare l'upgrade... ora per chi ha già una di queste soluzioni ,e vorrebbe fare uno sli per un monitor 2k o 4k ...consigliate:

1) una nuova 780 o780 ti
2)Uno sli di 980 visto consumi e calore..
3)oppure di aspettare l'anno prossimo per la nuova nvidia che dovrebbe portare risultati incredibili,visto il probabile cambio di architettura...

Ringrazio in anticipo la redazione e chiunque voglia rispondere ai quesiti...
Avendo già una 780 - 780Ti consiglierei di acquistarne una seconda, magari cercando qualche buona occasione nel mercato dell'usato, e fare un SLI in quel modo. Se si partisse da zero direi due 980, ma in questo caso propenderei per l'upgrade

iorfader
19-09-2014, 12:10
Ppartiamo da un po' di dati oggettivi, tutti del resto facilmente identificabili con un poco di ricerca.
Hardware Upgrade, il sito, è edito da Hardware Upgrade SRL che è una società che vede Paolo Corsini, cioè chi scrive, quale amministratore delegato oltre che socio di maggioranza (80%, per la cronaca).
In Hardware Upgrade SRL lavorano varie persone; la nostra attività è di tipo editoriale puro, quindi quello che generiamo come fatturato viene dal lavoro svolto sul sito.

Cosa fatturiamo? Pubblicità agli inserzionisti.

Hai scritto



Quanto hai scritto implica che prima di provare un prodotto la redazione si accordi con il produttore per pubblicare un articolo; non lo scrivi direttamente ma questo, e lo smile in fondo la dice lunga, implica che per provare un prodotto su queste pagine un produttore debba pagare.
Spiacente, ma non è così. Che l'editoria possa vivere in tante sue forme di questo è verissimo; che questo sia di conseguenza l'approccio che tutti utilizzano è una tua conclusione, errata quando si riferisce a noi.
E trovo che questo sia denigratorio in quanto, nella logica che esponi, accordarsi per una recensione implica il dare un taglio sempre e comunque positivo all'informazione così da strizzare l'occhio al committente, cioè l'azienda che pagherebbe per questo servizio.

Quello che tu indichi ha tecnicamente un nome e si chiama contenuto publiredazionale, cioè un testo editoriale che viene scritto dalla redazione con il coinvolgimento diretto dell'azienda che viene trattata. In questo caso ci sono un paio di norme deontologiche che guidano a fare un lavoro "per bene" nell'interesse di chi lo commissiona (azienda) e di chi lo legge (lettore), a partire dal fatto che è chiaramente indicato che quel contenuto è un messaggio publiredazionale.

Mi piace sempre raccontare che in Hardware Upgrade ci sono due distinte realtà: la prima, che chiamo Stato, è la parte commerciale e marketing che si occupa di raccogliere la parte pubblicitaria e di sviluppare iniziative speciali. La seconda si chiama Chiesa, ed è la redazione che scrive i contenuti. Queste due anime lavorano assieme ogni giorno negli stessi uffici: si confrontano e lavorano assieme ma tenendo ben separati i compiti di ciascuna così che una non influenzi l'altra e viceversa.

Pertanto, per riprendere l'ultima cosa che hai scritto, la parte pubblicitaria è una cosa e la struttura editoriale è altra. Ci sono aziende che trattiamo molto spesso su queste pagine che in 17 anni non hanno mai investito pubblicitariamente un Euro in Hardware Upgrade; ne parliamo perché crediamo che i loro prodotti siano interessanti. Altre che investono da noi pubblicitariamente perché reputano che questa sia una importante vetrina per i propri prodotti, e che noi editorialmente seguiamo solo marginalmente (e di certo non con la copertura che abbiamo per altre aziende che magari mai hanno acquistato adv da noi).

Proprio per questo motivo quando leggo battutine come il tuo post precedente mi domando per quale motivo sia così facile denigrare il lavoro degli altri dietro uno schermo, tanto poi "se mi sono sbagliato chiedo venia, sono stato io a fraintendere". Se tu vedi una mia recensione come legata ad un accordo commerciale spiacente ma prendi una cantonata e denigri la mia professionalità.
perchè l'invidia, in un periodo di magra come questo, è una facile soluzione

Darrosquall
19-09-2014, 12:12
sono due schede incredibili. Come mi ha fatto notare un amico, Nvidia ha ucciso non solo amd, ma anche le sue 780 e 780ti. E' veramente una roba incredibile sui 28nm.

Queste gpu saranno le nuove 8800gtx.

s12a
19-09-2014, 12:15
[...]
Ho un piccolo dubbio:
Ma le innovazioni relative a Maxell che si leggono in questo articolo sono proprie di questa architettura o solo di questa scheda?
Per capirci... nelle Geforce 750 ritrovo tutte le tecnologie che sono state mostrate nell'articolo?

La 750 ad esempio non ha HDMI 2.0, può essere una limitazione con i monitor 4k visto che si è limitati a 30 Hz con i colori in formato RGB non compresso (lo standard per i PC). Magari conta relativamente in gaming con la 750 visto che giocarci sarà di fatto impossibile, ma può dare fastidio per altri usi (desktop, ecc).

Spider-Mans
19-09-2014, 12:16
scheda spettacolare per prestazioni e consumi e sembra avere anche ampi margini di overclock

la nvidia ha stravinto

il mio pc nuovo incombe e la 980 è la ciliegina che attendevo

aleyx
19-09-2014, 12:19
Chiedo gentilmemte se sia possibile fare un test di Benchmark che analizzi le prestazioni Cuda, molto utile per chi usa la scheda in programmi di grafica..
Il più indicativo è questo:
http://www.randomcontrol.com/arionbench

Grazie

carlottoIIx6
19-09-2014, 12:21
scheda spettacolare per prestazioni e consumi e sembra avere anche ampi margini di overclock

la nvidia ha stravinto

il mio pc nuovo incombe e la 980 è la ciliegina che attendevo

potrebbe dopo un po' trovarsi allo stesso prezzo delle 290x? mi aspetto il calo di prezzo di quest'ultime ;)

MiKeLezZ
19-09-2014, 12:22
Mi è venuto duro, finalmente la scheda che si aspettava da NVIDIA

Però la recensione, per quanto più o meno valida, mi ha lasciato con MOLTO amaro in bocca:

1) Perchè non è stato inserito anche GM107 nella comparazione delle specifiche? Non dico nei benchmark, ma mi sembra il minimo no, visto parliamo sempre di Maxwell!

2) Perchè è stato utilizzato MSAA 4x invece del nuovo fighissimo MFAA? Se da il 30% di boost appare chiaro come tutti i benchmark siano sfalsatissimi!

3) Perchè si è testato a 2560 invece di 1920? E' la seconda che è la risoluzione più usata nel mondo!!!

4) Dove sono i benchmark con la nuova, fighissima, DSR? (peraltro mi ricordo ancora discussioni di 4 anni fa in cui prevedevo questo futuro, alla faccia degli "espertoni"). Questo è il vero uomo di Colombo! Uno si prende un display 1080p e questa VGA e sta a posto!

5) Quindi Maxwell supporterà al 100% le DX12? Sicuro al cioccolato?

Per fortuna il capitolo finale con la comparazione di 3 diverse generazioni di schede video mi ha ridato un po' di felicità!

carlottoIIx6
19-09-2014, 12:27
solidarietà alla redazione. sebbene sono sempre dell'idea che gli utenti facciano bene a dire la loro, perché se ascoltati bene, anche i peggiori commenti, il fatto migliora il servizio, quando si dicono cose insensate, si va sul trollaggio puro.
la necessità di fare cassa con la pubblicità è dominante in internet, nessuno si lamenta di google, che tra l'altro vende i nostri dati?
salut

MiKeLezZ
19-09-2014, 12:29
Una cosa che da anni voglio organizzare, e poi mannaggia al tempo e alle troppe cose da fare posticipo sempre, è "una giornata di redazione" aperta ad un gruppo di 10-12 utenti.
Vediamo se questo thread è lo stimolo giusto per organizzare finalmente questa cosaPotreste fare una specie di lotteria tipo "fabbrica di cioccolato"... sono sempre fighe queste "visite guidate" e sopratutto tornano molto bene come pubblicità (vedi Valve che invitò i denigratori di Left for Dead 2 e dopo la visita questi si sono messi a parlarne bene!) :D

Littlesnitch
19-09-2014, 12:33
scheda spettacolare per prestazioni e consumi e sembra avere anche ampi margini di overclock

la nvidia ha stravinto

il mio pc nuovo incombe e la 980 è la ciliegina che attendevo

Ma ha stravinto cosa? Manca ancora il termine di paragone.....

CrapaDiLegno
19-09-2014, 12:34
Se Kepler è stato 2 passi in avanti rispetto a Fermi, questo Maxwell è 2 passi avanti rispetto a Kepler.
Visto che AMD da VLIW a GCN ha fatto solo un passo in avanti per recuperare questo giro deve fare 3 passi.
Le prestazioni di questo "chippetto" sono sconcertanti. L'efficienza è quasi doppia rispetto a GCN.
Nel GPGPU è impressionante (vedere i test di Anandtech).

Forse è anche per questo che AMD ha in progetto un nuovo chippozzo da oltre 500mm^2. Piccolo e snello.. sìsì..

In attesa del mostro a 16nm...

Lino P
19-09-2014, 12:38
Ppartiamo da un po' di dati oggettivi, tutti del resto facilmente identificabili con un poco di ricerca.
Hardware Upgrade, il sito, è edito da Hardware Upgrade SRL che è una società che vede Paolo Corsini, cioè chi scrive, quale amministratore delegato oltre che socio di maggioranza (80%, per la cronaca).
In Hardware Upgrade SRL lavorano varie persone; la nostra attività è di tipo editoriale puro, quindi quello che generiamo come fatturato viene dal lavoro svolto sul sito.

Cosa fatturiamo? Pubblicità agli inserzionisti.

Hai scritto



Quanto hai scritto implica che prima di provare un prodotto la redazione si accordi con il produttore per pubblicare un articolo; non lo scrivi direttamente ma questo, e lo smile in fondo la dice lunga, implica che per provare un prodotto su queste pagine un produttore debba pagare.
Spiacente, ma non è così. Che l'editoria possa vivere in tante sue forme di questo è verissimo; che questo sia di conseguenza l'approccio che tutti utilizzano è una tua conclusione, errata quando si riferisce a noi.
E trovo che questo sia denigratorio in quanto, nella logica che esponi, accordarsi per una recensione implica il dare un taglio sempre e comunque positivo all'informazione così da strizzare l'occhio al committente, cioè l'azienda che pagherebbe per questo servizio.

Quello che tu indichi ha tecnicamente un nome e si chiama contenuto publiredazionale, cioè un testo editoriale che viene scritto dalla redazione con il coinvolgimento diretto dell'azienda che viene trattata. In questo caso ci sono un paio di norme deontologiche che guidano a fare un lavoro "per bene" nell'interesse di chi lo commissiona (azienda) e di chi lo legge (lettore), a partire dal fatto che è chiaramente indicato che quel contenuto è un messaggio publiredazionale.

Mi piace sempre raccontare che in Hardware Upgrade ci sono due distinte realtà: la prima, che chiamo Stato, è la parte commerciale e marketing che si occupa di raccogliere la parte pubblicitaria e di sviluppare iniziative speciali. La seconda si chiama Chiesa, ed è la redazione che scrive i contenuti. Queste due anime lavorano assieme ogni giorno negli stessi uffici: si confrontano e lavorano assieme ma tenendo ben separati i compiti di ciascuna così che una non influenzi l'altra e viceversa.

Pertanto, per riprendere l'ultima cosa che hai scritto, la parte pubblicitaria è una cosa e la struttura editoriale è altra. Ci sono aziende che trattiamo molto spesso su queste pagine che in 17 anni non hanno mai investito pubblicitariamente un Euro in Hardware Upgrade; ne parliamo perché crediamo che i loro prodotti siano interessanti. Altre che investono da noi pubblicitariamente perché reputano che questa sia una importante vetrina per i propri prodotti, e che noi editorialmente seguiamo solo marginalmente (e di certo non con la copertura che abbiamo per altre aziende che magari mai hanno acquistato adv da noi).

Proprio per questo motivo quando leggo battutine come il tuo post precedente mi domando per quale motivo sia così facile denigrare il lavoro degli altri dietro uno schermo, tanto poi "se mi sono sbagliato chiedo venia, sono stato io a fraintendere". Se tu vedi una mia recensione come legata ad un accordo commerciale spiacente ma prendi una cantonata e denigri la mia professionalità.

stai andando oltre. Accordarsi non significa concordare una rece manovrata, ma semplicemente organizzarsi per far si che il prodotto giunga in redazione e sia buttato giù un articolo.
Da oggi abbiamo scoperto che tutti possono avvalersi della vetrina "hwupgrade" per far si che si parli dei propri prodotti, perchè tale opportunità è concessa in modo totalmente gratuito.
Buono a sapersi.

gd350turbo
19-09-2014, 12:38
Ma ha stravinto cosa? Manca ancora il termine di paragone.....

Per ora è segata di brutto, poi se farà una chip ancora più stratosferico, bè tanto di cappello e di rispetto !

Littlesnitch
19-09-2014, 12:44
Per ora è segata di brutto, poi se farà una chip ancora più stratosferico, bè tanto di cappello e di rispetto !

E un ragionamento un po del piffero, costa 100 e più € in meno e va mediamente un 15% in meno facendo una media tra le recensioni, quindi segata di brutto non mi pare e non mi pare un gap insormontabile da colmare.
Saranno da vedere i consumi anche perché la strategia AMD non credo sia quella di fare un chip con la parte DP segata, quindi il chip sarà per forza di cose più grosso.

Ale55andr0
19-09-2014, 12:45
sono due schede incredibili. Come mi ha fatto notare un amico, Nvidia ha ucciso non solo amd, ma anche le sue 780 e 780ti. E' veramente una roba incredibile sui 28nm.

Queste gpu saranno le nuove 8800gtx.

no, quelle erano forni e consumavano un fottio.
Io le vedo come la rinascita in chiave maxwell della 680

carlottoIIx6
19-09-2014, 12:45
Se Kepler è stato 2 passi in avanti rispetto a Fermi, questo Maxwell è 2 passi avanti rispetto a Kepler.
Visto che AMD da VLIW a GCN ha fatto solo un passo in avanti per recuperare questo giro deve fare 3 passi.
Le prestazioni di questo "chippetto" sono sconcertanti. L'efficienza è quasi doppia rispetto a GCN.
Nel GPGPU è impressionante (vedere i test di Anandtech).

Forse è anche per questo che AMD ha in progetto un nuovo chippozzo da oltre 500mm^2. Piccolo e snello.. sìsì..

In attesa del mostro a 16nm...

ti sconcerti facilmente. ho visto i dati di anandtech e da punto di vista del calcolo puro, le prende anche spesso! mi sembra un ottimo aggiornamento, considerato che a 28nm non si può fare meglio sopratutto per il miglioramento delle performance per watt, che non sono di certo il doppio ma notevoli :) lol. nessuna rivoluzione.
Per la cronaca anche amd sta lavorando alle nuove schede.

Ale55andr0
19-09-2014, 12:48
Ma ha stravinto cosa? Manca ancora il termine di paragone.....

vero

MA

ti pare che AMD sia in grado a pari pp di tirar fuori dal cappello dall'oggi al domani una architettura nuova più potente ed efficiente che non sia una GCN?

Littlesnitch
19-09-2014, 12:48
no, quelle erano forni e consumavano un fottio.
Io le vedo come la rinascita in chiave maxwell della 680

Si ma G80 massacrava tutto quello che c'era intorno, e anche per un bel pezzo.

Littlesnitch
19-09-2014, 12:50
vero

MA

ti pare che AMD sia in grado a pari pp di tirar fuori dal cappello dall'oggi al domani una architettura nuova più potente ed efficiente che non sia una GCN?

A me pare che AMD farà lo stesso lavoro svolto da nVidia, affinamento sul PP per i consumi e affinamento dell'architettura per le prestazioni. Non è che la 980 doppi una 290X.
Come prestazioni non ho dubbi che saranno similari, sono i consumi che mi lasciano qualche dubbio.

gd350turbo
19-09-2014, 12:53
E un ragionamento un po del piffero, costa 100 e più € in meno e va mediamente un 15% in meno facendo una media tra le recensioni, quindi segata di brutto non mi pare e non mi pare un gap insormontabile da colmare.

Tieni conto che questa è una prima release, e con driver/processo produttivo sicuramente da affinare...

Saranno da vedere i consumi anche perché la strategia AMD non credo sia quella di fare un chip con la parte DP segata, quindi il chip sarà per forza di cose più grosso.

Consumi e conseguente generazione di calore/rumore...

Certo se amd uscisse subito con un prodotto 16/20 nm eh potrebbe essere un osso duro, ma allo stato attuale non mi pare possibile

roccia1234
19-09-2014, 12:57
Beh, prestazioni leggermente superiori a 780Ti, ma consumi non di poco inferiori.

In pratica un 780Ti ottimizzata! Ottimo lavoro!

Littlesnitch
19-09-2014, 12:58
Tieni conto che questa è una prima release, e con driver/processo produttivo sicuramente da affinare...


Consumi e conseguente generazione di calore/rumore...

Certo se amd uscisse subito con un prodotto 16/20 nm eh potrebbe essere un osso duro, ma allo stato attuale non mi pare possibile

Si sui driver qualcosa possono fare, sul processo produttivo credo che oramai i 28nm abbiano dato anche più di quello che era lecito attendersi anche nelle più rosee previsioni.
AMD che esce a 16/20nm mi pare fantascienza allo stato attuale delle cose anche perché deve per forza uscire sul mercato prima di natale per non lasciare campo libero, visto che tempo 1-2 mesi queste 980 si troveranno a 450€ o anche meno.
Per il calore era sottinteso.

Ale55andr0
19-09-2014, 13:04
A me pare che AMD farà lo stesso lavoro svolto da nVidia, affinamento sul PP per i consumi e affinamento dell'architettura per le prestazioni. Non è che la 980 doppi una 290X.
Come prestazioni non ho dubbi che saranno similari, sono i consumi che mi lasciano qualche dubbio.

io tengo presente di tutto, anche il fatto che la 980 gioca molto sulla frequenza (a pari clock sia la 780ti che la 290x recupererebbero molto margine...) ma il risultato finale e cio che conta, e fra prestazioni assolute e consumi a mio personalissimo parere (posso sbagliare eh ;)) AMD dovrà fare veramente gli straordinari per recuperare, perchè se si parla sempre di affinare GCN famo domani...quell'architettura è inefficiente in relazione a quanto disponibile oggi, fine, ci vuole qualcosa di totalmente nuovo... e lo sviluppo di una nuova architettura si dirama in un periodo di anni, non di mesi, quindi o AMD ci sta lavorando da un pezzo all'erede di GCN e ancora non ha voluto mostrarlo (perchè? sta lasciando un'autostrada a nvidia...ci credo poco) o, sempliciemtne, non ha niente di nuovo da proporre in grado di ribattere a tono. E le immagini del dissipatore a liquido mostrate in questi giorni a me fanno presagire chiaramente che non c'è aria di rivoluzione in casa AMD. Ah, tutto sto discorso lo faccio sempre in merito alle prestazioni, i consumi li sottolineo perchè lasciano margine ad un megachip dalle prestazioni spaventevoli (ed quello che mi interesserebbe realmente, in caso, non la 980)

Ale55andr0
19-09-2014, 13:05
Certo se amd uscisse subito con un prodotto 16/20 nm eh potrebbe essere un osso duro, ma allo stato attuale non mi pare possibile


se AMD uscisse a 20/16nm lo farebbe anche nvidia perchè vorrebbe dire che ci stanno le fonderie pronte al passaggio al nuovo pp, e non cambiarebbe una mazza, se non l'uscita di una ipotetica 985/990 che va quanto uno sli di 780 a momenti consumando meno

Ale55andr0
19-09-2014, 13:07
Beh, prestazioni leggermente superiori a 780Ti, ma consumi non di poco inferiori.

In pratica un 780Ti ottimizzata! Ottimo lavoro!

dai un occhiata ai minimi ;)

e tutto cio a 1440p con una bandwidht di "soli" 224gb/s

Littlesnitch
19-09-2014, 13:09
io tengo presente di tutto, anche il fatto che la 980 gioca molto sulla frequenza (a pari clock sia la 780ti che la 290x recupererebbero molto margine...) ma il risultato finale e cio che conta, e fra prestaizoni asoslute e consumi a mio personalissimo parere (posso sbagliare eh ;) AMD dovrà fare veramente gli straordinari per recuperare, perchè se si parla sempre di affinare GCN famo domani...quell'architettura è inefficiente in relazione a quanto disponibile oggi, fine, ci vuole qualcosa di totalmente nuovo... e lo sviluppo di una nuova architettura si dirama in un periodo di anni, non di mesi, quindi o AMD ci sta lavorando da un pezzo all'erede di GCN e ancora non ha voluto mostrarlo (perchè? sta lasciando un'autostrada a nvidia...ci credo poco) o, smpliciemtne, non ha niente di nuovo da proporre in grado di ribattere a tono. E le immagini del disispatore a liquido mostrate in questi giorni a me fanno presagire chiaramente che non c'è aria di rivoluzione in casa AMD. Ah, tutto sto discorso lo faccio sempre in merito alle prestazioni, i consumi li sottolineo perchè lasciano margine ad un megachip dalle prestazioni spaventevoli (ed quello che mi interesserebbe realmente, in caso, non la 980)

Beh, ma almeno sul fronte GPU negli ultimi anni non ha mai deluso, non credo si siano fermati dopo il lancio di Tahiti, Hawaii ne è una semplice evoluzione che non ha portato via troppe risorse, quindi anche loro sono almeno 36 mesi che ci lavorano. Almeno lo spero. Perché se dopo le CPU anche nelle VGA perdiamo la concorrenza siamo fregati.
E il fatto che questa scheda sia stata lanciata a 500$ invece dei 700$ della 780Ti pur andando più veloce.... beh mi fa pensare che nVidia sa qualcosa che noi non sappiamo su AMD. IMHO.

Darrosquall
19-09-2014, 13:11
comunque complimenti ad alessandro che si sta dimostrando oggettivo nelle valutazioni :D

in ogni caso, nvidia smetterà di produrre 780,780ti e 770, come da pronostico, schede che non hanno più senso di esistere...

Io sto guardando i prezzi dell'usato per la 670, ma siamo bassi mi sa, se posso fare il "cambio" con la 970 sui 100 120 euro, ci penso, ma credo sia impossibile.

Littlesnitch
19-09-2014, 13:14
comunque complimenti ad alessandro che si sta dimostrando oggettivo nelle valutazioni :D

in ogni caso, nvidia smetterà di produrre 780,780ti e 770, come da pronostico, schede che non hanno più senso di esistere...

Io sto guardando i prezzi dell'usato per la 670, ma siamo bassi mi sa, se posso fare il "cambio" con la 970 sui 100 120 euro, ci penso, ma credo sia impossibile.

Fossi in te mi prenderei una 780 lisci o Ti dal mercatino, tempo un paio di giorni e ne troverai parecchie in svendita da chi non è riuscito a impallinare il gorilla

Spider-Mans
19-09-2014, 13:14
A me pare che AMD farà lo stesso lavoro svolto da nVidia, affinamento sul PP per i consumi e affinamento dell'architettura per le prestazioni. Non è che la 980 doppi una 290X.
Come prestazioni non ho dubbi che saranno similari, sono i consumi che mi lasciano qualche dubbio.

con i se e i ma si puo dire e ipotizzare tutto
la realtà vede che la 980 ha prestazioni da primato su singola gpu e ocnsumi nettamente inferiori alla concorrenza (parlerei di differenze abissali xD)

se questo non è stravincere...ad oggi..non so cosa lo sia

capisco che si debba attendere la risposta di ati..ma non vorrei che si sia troppo "distratta" a monetizzare sulle console e cmq dubito fortemente che possa reggere il confronto sui consumi....visto le sue recenti vga
grazie a nvidia che è rimasta focalizzata su pc..e si vedono i risultati

Free Gordon
19-09-2014, 13:16
comunque complimenti ad alessandro che si sta dimostrando oggettivo nelle valutazioni :D

in ogni caso, nvidia smetterà di produrre 780,780ti e 770, come da pronostico, schede che non hanno più senso di esistere...

Io sto guardando i prezzi dell'usato per la 670, ma siamo bassi mi sa, se posso fare il "cambio" con la 970 sui 100 120 euro, ci penso, ma credo sia impossibile.


Brice sono gatto :D

prendila la 970* ;) da invidioso non ne resterai deluso.. ;)

Non credo che i 20nm arriveranno presto e a prezzi accessibili... ;)


*ovviamente a quel prezzo, ai prezzi attuali a te non conviene, imho.

Free Gordon
19-09-2014, 13:20
io tengo presente di tutto, anche il fatto che la 980 gioca molto sulla frequenza (a pari clock sia la 780ti che la 290x recupererebbero molto margine...) ma il risultato finale e cio che conta, e fra prestazioni assolute e consumi a mio personalissimo parere (posso sbagliare eh ;)) AMD dovrà fare veramente gli straordinari per recuperare, perchè se si parla sempre di affinare GCN famo domani...quell'architettura è inefficiente in relazione a quanto disponibile oggi, fine, ci vuole qualcosa di totalmente nuovo... e lo sviluppo di una nuova architettura si dirama in un periodo di anni, non di mesi, quindi o AMD ci sta lavorando da un pezzo all'erede di GCN e ancora non ha voluto mostrarlo (perchè? sta lasciando un'autostrada a nvidia...ci credo poco) o, sempliciemtne, non ha niente di nuovo da proporre in grado di ribattere a tono. E le immagini del dissipatore a liquido mostrate in questi giorni a me fanno presagire chiaramente che non c'è aria di rivoluzione in casa AMD. Ah, tutto sto discorso lo faccio sempre in merito alle prestazioni, i consumi li sottolineo perchè lasciano margine ad un megachip dalle prestazioni spaventevoli (ed quello che mi interesserebbe realmente, in caso, non la 980)


Credo anche io sarà difficile per AMD arrivare a questa performance/watt. GCN non è adatta...

Certo che se facessero un chip "solo-gaming" :D con base Wliv4 con qualche tweak, potrebbero fare una bella schedina... :D ma dovrebbero portare avanti due linee di driver e non la vedo per niente semplice come cosa...

Ale55andr0
19-09-2014, 13:21
. Almeno lo spero. Perché se dopo le CPU anche nelle VGA perdiamo la concorrenza siamo fregati.
O.

sul settore cpu non direi, un 5820 che è realmente una cpu eccellente viene via a meno di 400 euro e sei a posto da qui a non so nemmeno quando...
non credo che in caso nvidia trasformi la fascia dei 500 a quella dei mille, possono fare le titan una tantum, non farlo divenire uno standard commerciale, sarebbe un suicidio a quei prezzi

Littlesnitch
19-09-2014, 13:23
Credo anche io sarà difficile per AMD arrivare a questa performance/watt. GCN non è adatta...

Certo che se facessero un chip "solo-gaming" :D con base Wliv4 con qualche tweak, potrebbero fare una bella schedina... :D ma dovrebbero portare avanti due linee di driver e non la vedo per niente semplice come cosa...

Tenderei ad escludere categoricamente una cosa del genere.
Tanto io ho tempo di aspettare nella mia situazione. MA credo che dovrò aspettare il nuovo PP per cambiare.

Darrosquall
19-09-2014, 13:27
va beh, io mi sono calmato intanto, per dota 2 la 670 basta e avanza :asd: :asd: alla fine i veri giochi next gen arriveranno con the witcher 3, a febbraio, ma è uno, se devo abbassare qualche dettaglio pazienza. Vedremo poi a fine anno. Certo chi doveva rifarsi il PC, questa scheda è una manna dal cielo.

Ale55andr0
19-09-2014, 13:30
Beh, ma almeno sul fronte GPU negli ultimi anni non ha mai deluso, non credo si siano fermati dopo il lancio di Tahiti,

io non sto dicendo che ha deluso, la 7970 è stato uno degli acquisti migliori in vita mia, idem la 290trix oc in relazione al suo periodo di uscita (prestazioni di classe titan, 4gb di ram, ottimo dissi, a 370 euro!), però adesso che dovrebbe essere il periodo dei "leaked bench" (fasulli :asd:), delle slide, del mostrare almeno un pezzo di cartone (:asd:) per cercare di arginare le vendite di nvidia, AMD che fa? nulla (in B4 domani annunciano nuova rivoluzionaria architettura facendomi fare una figuraccia :asd: ...ma anche no, nel mondo reale :stordita: )

Ale55andr0
19-09-2014, 13:37
va beh, io mi sono calmato intanto, per dota 2 la 670 basta e avanza :asd: :asd: alla fine i veri giochi next gen arriveranno con the witcher 3, a febbraio, ma è uno, se devo abbassare qualche dettaglio pazienza. Vedremo poi a fine anno. Certo chi doveva rifarsi il PC, questa scheda è una manna dal cielo.

no, dovessi rifarlo io aspetterei eccome, perchè è troppo allettante il megachip maxwell per rifarsi il pc ora, che fretta c'è? :asd: tanto ancora TW3 e altri titolni attesi manco sono usciti, con la 980 quando i nuovi pp saranno disponibili entro tempi non biblici si rischia di fare la fine di chi ha speso 500 euro per la 680 pagando di fatto a pieno prezzo una gpu "media" in un certo senso

Littlesnitch
19-09-2014, 13:40
io non sto dicendo che ha deluso, la 7970 è stato uno degli acquisti migliori in vita mia, idem la 290trix oc in relazione al suo periodo di uscita (prestazioni di classe titan, 4gb di ram, ottimo dissi, a 370 euro!), però adesso che dovrebbe essere il periodo dei "leaked bench" (fasulli :asd:), delle slide, del mostrare almeno un pezzo di cartone (:asd:) per cercare di arginare le vendite di nvidia, AMD che fa? nulla (in B4 domani annunciano nuova rivoluzionaria architettura facendomi fare una figuraccia :asd: ...ma anche no, nel mondo reale :stordita: )

Beh storicamente AMD è sempre stata avara in questo senso.
Ti ricordi il lancio quasi in sordina delle 5870? Anche se effettivamente ad oggi non si sa proprio nulla su quando verrà presentato qualcosa...

CrapaDiLegno
19-09-2014, 13:52
E un ragionamento un po del piffero, costa 100 e più € in meno e va mediamente un 15% in meno facendo una media tra le recensioni, quindi segata di brutto non mi pare e non mi pare un gap insormontabile da colmare.
Saranno da vedere i consumi anche perché la strategia AMD non credo sia quella di fare un chip con la parte DP segata, quindi il chip sarà per forza di cose più grosso.
Il prezzo lo fa il mercato. Se AMD regala le sue VGA nelle patatine alla fine troverà sicuramente qualcuno che le usa. Certo che alla fine dell'anno però i conti non tornano e per poter andare avanti servono i soldi.
Il "nuovo" chip di AMD, Tonga, è segato nei calcoli DP come lo sono le GPU di nvidia che non siano la mattonella da mezzo metro quadro e uno stipendio.
Fai il paragone tra Tonga e questo GM204. La dimensione è più o meno la stessa, il bus pure, purtroppo consuma di più e va molto meno.

ti sconcerti facilmente. ho visto i dati di anandtech e da punto di vista del calcolo puro, le prende anche spesso! mi sembra un ottimo aggiornamento, considerato che a 28nm non si può fare meglio sopratutto per il miglioramento delle performance per watt, che non sono di certo il doppio ma notevoli :) lol. nessuna rivoluzione.
Per la cronaca anche amd sta lavorando alle nuove schede.
In calcolo SP non c'è alcun confronto neanche con Hawaii che sulla carta ha mille mila TFlops e consuma 100W in più.
In DP non c'è confronto perché le GPU di nvidia di questa fascia non sono pensate per fare calcoli scientifici di quel tipo.
Si ritorna alla questione "successo di Tahiti vs GK104".

La nuova scheda di AMD, secondo i rumors, avrà un chip grande quanto il GK110. Se realizzato a 28nm (come sembra dato che altrimenti uscirà nel 2016) vedremo come e quanto andrà di più di questo GM204 che è 400mm^2 e rende più dello stesso GK110. E vedremo quanto consuma, dato che già Hawaii ha i suoi problemi.
Il nuovo problema di AMD, per quel che valgono quel tipo di schede, è nelle dual GPU. Si è ribaltato il discorso "piccolo e snello" per avere prestazioni con più GPU insieme. nvidia con questo GM204 potrà proporre una dua GPU che straccia qualsiasi cosa sul mercato. Dubito che AMD potrà fare una dual con il futuro chippozzo da 500 e rotti mm^2. Già con Hawaii non ce la fa a meno di non mettere tutto a liquido con un alimentatore da 1000W.

Non mi risulta che AMD abbia qualcosa d'altro in preparazione all'infuori di queste due GPU (Tonga già uscito e la futura mattonella).
Se ne riparlerà a 16nm, ma si parla di diversi mesi da oggi.

Free Gordon
19-09-2014, 14:36
Con una GCN tweakata AMD non potrà pareggiare Nvidia perf/watt...

GM204 è 400mmq, riesce ad andare come il vecchio GK110 grazie all'incremento di clock pur consumando la metà....

I casi sono 2:

o Nvidia ha usato un nuovo pp (che Tonga non usa) e che permette clock molto più alti (perchè 1350mhz con consumi del genere una 770 se li sogna...ed è un chip più piccolo. Oltretutto in OC queste schede arrivano a 1500mhz ad aria... :eek: )

o Nvidia ha fatto un miracolo... :sofico:

Quale delle 2 è la verità? :D

Sicuramente Maxwell ha dei meriti ma quì gli incrementi sono troppo alti per essere sullo stesso identico pp.....

Saranno sempre 28nm... ma probabilmente è cambiato qualcosa nel pp di TSMC.

Tutto imho eh.. :)

calabar
19-09-2014, 14:41
AMD dovrà fare veramente gli straordinari per recuperare, perchè se si parla sempre di affinare GCN famo domani...
E perchè mai? Credi forse che Maxwell sia un'architettura del tutto nuova? É anche lei un affinamento della precedente. Un GNCv3 potrebbe fare lo stesso.
Dato che l'architettura AMD è comunque pensata nell'ottica del calcolo eterogeneo, dubito che raggiungano questo rapporto prestazioni/consumi, ma ciò non significa che non possano ottenere comunque buoni risultati e un'architettura competitiva.

se AMD uscisse a 20/16nm lo farebbe anche nvidia perchè vorrebbe dire che ci stanno le fonderie pronte al passaggio al nuovo pp
La storia delle schede video ti smentisce. In diverse occasioni AMD ha utilizzato un processo produttivo più affinato prima di Nvidia.
Ci sono molti fattori che influiscono sulla scelta.

Littlesnitch
19-09-2014, 14:48
Con una GCN tweakata AMD non potrà pareggiare Nvidia perf/watt...

GM204 è 400mmq, riesce ad andare come il vecchio GK110 grazie all'incremento di clock pur consumando la metà....

I casi sono 2:

o Nvidia ha usato un nuovo pp (che Tonga non usa) e che permette clock molto più alti (perchè 1350mhz con consumi del genere una 770 se li sogna...ed è un chip più piccolo. Oltretutto in OC queste schede arrivano a 1500mhz ad aria... :eek: )

o Nvidia ha fatto un miracolo... :sofico:

Quale delle 2 è la verità? :D

Sicuramente Maxwell ha dei meriti ma quì gli incrementi sono troppo alti per essere sullo stesso identico pp.....

Saranno sempre 28nm... ma probabilmente è cambiato qualcosa nel pp di TSMC.

Tutto imho eh.. :)

Tendendo ad escludere i miracoli visto com'è finito chi ha provato a farli, direi che nel tuo ragionamento qualcosa di vero c'è sicuramente. Un architettura per quanto efficiente non può consumare la metà di un'altra dalla quale discende a pari PP. Poi considerando che la 980 lavora a 1.22v evidentemente c'è qualcosa che non conosciamo ancora.

Soulbringer
19-09-2014, 14:48
Ragazzi che bestia di scheda! Mai avrei creduto di trovarmi di fronte a un prodotto così ottimizzato...complimenti ad NVIDIA!

Mi rode un poco di aver preso una 290 Tri-X a febbraio vedendo ora questa GPU...non tanto per le prestazioni ma soprattutto in ottica consumi, veramente eccezionali!

Detto questo spero VIVAMENTE che AMD riesca, con le sue prossime GPU, a pareggiare o, perché no, anche a superare, queste nuove schede, altrimenti sarà molto dura rimanere nel mercato...soprattutto considerato che il segmento CPU ormai è perso da anni.

AceGranger
19-09-2014, 14:55
Con una GCN tweakata AMD non potrà pareggiare Nvidia perf/watt...

GM204 è 400mmq, riesce ad andare come il vecchio GK110 grazie all'incremento di clock pur consumando la metà....

I casi sono 2:

o Nvidia ha usato un nuovo pp (che Tonga non usa) e che permette clock molto più alti (perchè 1350mhz con consumi del genere una 770 se li sogna...ed è un chip più piccolo. Oltretutto in OC queste schede arrivano a 1500mhz ad aria... :eek: )

o Nvidia ha fatto un miracolo... :sofico:

Quale delle 2 è la verità? :D

Sicuramente Maxwell ha dei meriti ma quì gli incrementi sono troppo alti per essere sullo stesso identico pp.....

Saranno sempre 28nm... ma probabilmente è cambiato qualcosa nel pp di TSMC.

Tutto imho eh.. :)

le migliorie si erano gia viste con la 750Ti che è uscita a Febbraio; la 280X, 270X e 260X sono uscite a Settembre, AMD aveva tutto il tempo di utilizzare questo nuovo pp ( se esiste veramente ); nVidia non ha sue fonderie quindi non è un suo processo, e di certo, piangina come è AMD, se si fosse fatta fare un processo solo per lei, si sarebbe sicuramente lamentata a 360°.

quindi se esiste perchè non lo ha usato ?

gildo88
19-09-2014, 15:09
Intanto complimenti per l'articolo, è stato un piacere leggerlo sopratutto la parte sulle nuove interessantissime tecnologie nvidia e permettetemi di dire che erano anni che non vedevo cosi tante nuove tecnologie interessanti proposte.
Devo dire che questa volta più che sulla effettiva velocità, che non sembra molto più elevata rispetto alla generazione precedente (difatti chi possiede le schede top gamma singole precedenti può dormire sonni tranquilli) si è posta più attenzione sull'architettura interna, i consumi e le nuove tecnologie.
Devo dire a malincuore però, che chissà quando le vedremo adoperate queste nuove tecnologie visto che le console frenano abbastanza lo sviluppo, nonostante il mercato pc sia molto più vivo che in passato. Comunque vedremo come si evolverà la questione.
Ora l'interesse si sposta sulla GTX 970 e sulla GTX 960. Se la prima avrà prestazioni simili alla GTX 780 ti sarà una offerta interessante secondo me.

carlottoIIx6
19-09-2014, 15:11
cut

La nuova scheda di AMD, secondo i rumors, avrà un chip grande quanto il GK110. Se realizzato a 28nm (come sembra dato che altrimenti uscirà nel 2016) vedremo come e quanto andrà di più di questo GM204 che è 400mm^2 e rende più dello stesso GK110. E vedremo quanto consuma, dato che già Hawaii ha i suoi problemi.
Il nuovo problema di AMD, per quel che valgono quel tipo di schede, è nelle dual GPU. Si è ribaltato il discorso "piccolo e snello" per avere prestazioni con più GPU insieme. nvidia con questo GM204 potrà proporre una dua GPU che straccia qualsiasi cosa sul mercato. Dubito che AMD potrà fare una dual con il futuro chippozzo da 500 e rotti mm^2. Già con Hawaii non ce la fa a meno di non mettere tutto a liquido con un alimentatore da 1000W.

Non mi risulta che AMD abbia qualcosa d'altro in preparazione all'infuori di queste due GPU (Tonga già uscito e la futura mattonella).
Se ne riparlerà a 16nm, ma si parla di diversi mesi da oggi.
la 390x dovrebbe essere più del 30% più veloce della 290x mantenendo i consumi uguali.

Ale55andr0
19-09-2014, 15:35
La storia delle schede video ti smentisce. In diverse occasioni AMD ha utilizzato un processo produttivo più affinato prima di Nvidia.

si, di un paio di mesi, capirari...a proposito, proprio con GCN AMD ERA in vantaggio sul pp...nel tempo nvidia ha recuperato ed ora addirittura ha buttato fuori un'architettura mostruosamente efficiente sullo stesso pp...poi se proprio vogliamo raccontarcela e farci i pippotti sul futuro, i se e i ma basanti sul niente, è altro discorso

Ale55andr0
19-09-2014, 15:36
la 390x dovrebbe essere più del 30% più veloce della 290x mantenendo i consumi uguali.

se tale dichiarazione è vera come -60w di tonga (che non ho visto in nessun caso)...:stordita:

D4N!3L3
19-09-2014, 15:37
Ma perché hanno saltato il numero 8?

Littlesnitch
19-09-2014, 15:39
le migliorie si erano gia viste con la 750Ti che è uscita a Febbraio; la 280X, 270X e 260X sono uscite a Settembre, AMD aveva tutto il tempo di utilizzare questo nuovo pp ( se esiste veramente ); nVidia non ha sue fonderie quindi non è un suo processo, e di certo, piangina come è AMD, se si fosse fatta fare un processo solo per lei, si sarebbe sicuramente lamentata a 360°.

quindi se esiste perchè non lo ha usato ?

Si ma non ci può essere un calo di consumi con aumento del voltaggio e 300mhz di Freq in più se non è cambiato qualcosa del PP;) Le schede presentate da AMD sono dei semplici update, ma credo che nel nuovo chip, se questo PP esiste come sembra, verrà sicuramente utilizzato.
Se lo confrontiamo al GK104 c'è un sostanziale pareggio dei consumi con un aumento di oltre il 20% delle freq per un 35% di prestazioni in più.
Boh vediamo se qualcuno riesce a far luce in merito, se il PP fosse lo stesso chapeau.

AceGranger
19-09-2014, 15:41
Ma perché hanno saltato il numero 8?

perchè c'erano gia le GPU per il mobile 8xx, quindi sono passati direttamente a 9xx riallineando desktop e mobile.

Soulbringer
19-09-2014, 15:42
Ma perché hanno saltato il numero 8?

Giusto, bella domanda...

EDIT: visto dopo la risposta di Ace.
Capito, soliti casini con i nomi delle schede, tipica di NVIDIA! :D (senza nessuna polemica eh!)

AceGranger
19-09-2014, 15:44
Si ma non ci può essere un calo di consumi con aumento del voltaggio e 300mhz di Freq in più se non è cambiato qualcosa del PP;) Le schede presentate da AMD sono dei semplici update, ma credo che nel nuovo chip, se questo PP esiste come sembra, verrà sicuramente utilizzato.
Se lo confrontiamo al GK104 c'è un sostanziale pareggio dei consumi con un aumento di oltre il 20% delle freq per un 35% di prestazioni in più.
Boh vediamo se qualcuno riesce a far luce in merito, se il PP fosse lo stesso chapeau.

bho ma anche se fosse lo stesso processo produttivo AMD in questi mesi non avra dormito, quindi presumo che la nuova architettura in uscita avra guadagni simili a quelli di nVidia.

chissa, magari è un po come Intel che ha buttato 18 core dove prima ce ne faceva stare 12 :asd:

Einhander
19-09-2014, 15:46
Il prezzo lo fa il mercato. Se AMD regala le sue VGA nelle patatine alla fine troverà sicuramente qualcuno che le usa. Certo che alla fine dell'anno però i conti non tornano e per poter andare avanti servono i soldi.
Il "nuovo" chip di AMD, Tonga, è segato nei calcoli DP come lo sono le GPU di nvidia che non siano la mattonella da mezzo metro quadro e uno stipendio.
Fai il paragone tra Tonga e questo GM204. La dimensione è più o meno la stessa, il bus pure, purtroppo consuma di più e va molto meno.


In calcolo SP non c'è alcun confronto neanche con Hawaii che sulla carta ha mille mila TFlops e consuma 100W in più.
In DP non c'è confronto perché le GPU di nvidia di questa fascia non sono pensate per fare calcoli scientifici di quel tipo.
Si ritorna alla questione "successo di Tahiti vs GK104".

La nuova scheda di AMD, secondo i rumors, avrà un chip grande quanto il GK110. Se realizzato a 28nm (come sembra dato che altrimenti uscirà nel 2016) vedremo come e quanto andrà di più di questo GM204 che è 400mm^2 e rende più dello stesso GK110. E vedremo quanto consuma, dato che già Hawaii ha i suoi problemi.
Il nuovo problema di AMD, per quel che valgono quel tipo di schede, è nelle dual GPU. Si è ribaltato il discorso "piccolo e snello" per avere prestazioni con più GPU insieme. nvidia con questo GM204 potrà proporre una dua GPU che straccia qualsiasi cosa sul mercato. Dubito che AMD potrà fare una dual con il futuro chippozzo da 500 e rotti mm^2. Già con Hawaii non ce la fa a meno di non mettere tutto a liquido con un alimentatore da 1000W.

Non mi risulta che AMD abbia qualcosa d'altro in preparazione all'infuori di queste due GPU (Tonga già uscito e la futura mattonella).
Se ne riparlerà a 16nm, ma si parla di diversi mesi da oggi.

Fantastici questi ipotetici confronti che ti inventi, sopratutto con la generazione passata, forse dimentichi che quando e' uscita la 290x c'erano schede insulse e da strozzini chiamate TITAN con cui nvidia aveva giocato a celolunghismo per poi farsi umiliare da una scheda che costava la meta' e andava di piu' in tutto...ma vabbeh sta storia non la racconta mai nessuno, guarda caso : D

Cmq che tu dica che il confronto lo si fa sul prezzo e' ok, e infatti la serie r9 290\x nn mi pare sia stata svenduta anzi eppure quando e' uscita ha reso improvvisamente insulse molte delle proposte nvidia perche' come dire se consumi a nastro anche che ne so' 160 watts in piu' come scheda, sappi che a fine anno ammontano a si e' no 48 euro in piu' in bolletta :°D..i quali sono alquanto inferiori come spesa rispetto alla differenza di prezzo tra una 290x e una titan o delle 780 che era inferiore in tutto...certo consuma di piu', ma offriva anche molto di piu', ovvero potenza gpgpu molto superiore potenza in opencl manco paragonabili per quanto immensamente superiore, mantle, un giga di vram in piu', e l'offertuccia del never settle..eh si il tuo ragionamente non fa proprio una piega guarda :°D

Magari un po' meno fanatici che ne dici eh? giusto cosi' per dire..

Chiaro che vedendo la situazione oggi ad un anno quasi dal lancio e con una nuova architettura alle porte e' facile, ma in fin dei conti, nella fascia alta come questa, cosa vuoi me ne freghi di 60-80 watt in meno se con una scheda video posso andare di piu' e pagarla meno e avere una vagonata di giochi gratis?

Siamo nel mobile? no.
Siamo in un sito green? no.
Quando giochi ti diverti con il dissipatore o con il gioco e i frames che esso genera? direi che se ora nella fascia alta le prestazioni cedono ai consumi come importaza, beh siamo messi proprio male, soprattutto quando sulla bolletta impattano ZERO.

Credi che tale 980 sia difficile da raggiungere per amd a livello di prestazioni?
Direi proprio di no, guarda, proprio no...il distacco e' alto a livello di consumi, ma sicuramente non a livello di prestazioni e quando qualcuno dice che la superficie in mm2 e' inferiore e' vero ma c'e' anche la complessita' di un chip non solo le dimensioni e da li anche la resa a livello di fonderie, cose che non possiamo sapere, ma se adesso bisogna dare amd per spacciata quando mi pare proprio che a livello di prestazioni\costo (che e' l'unica cosa che conta in fascia alta) ha sempre avuto il rapporto di gran lunga migliore direi che siamo all'assurdo.

Detto questo complimenti ad nvidia per aver ottimizzato cosi' tanto, ma a lviello di prestazioni in termini assoluti non mi pare sia stato un miracolo, anzi, il miracolo e' stato a livello di ottimizzazione, ma alla fine con l'ottimizzazione mentre giochi non ci fai nulla, perche' quello che serve e' la potenza e secondo quando spendi per averla e al momento la scheda video piu' veloce di nvidia in commercio a 580 euro dichiarati va si e no un 20% in piu' in media della radeon 290x di un anno fa..

Perche' credi, per assurdo che amd non possa potenziare la sua top single gpu di almeno un 20%??? e proporla and un prezzo adeguato?

Chiaramente sui consumi la cosa e' piu' ardua ed e' li che nvidia ha investito e non certo per il desktop, quanto per il mobile..

Ma va da se che in questa fascia come ho detto quello che conta sono le prestazioni, poi il costo a cui le ottieni e poi, forse, il consumo -tralasciando gpgpu, openclo, SP, DP e menate varie che pero' alla fine aggiungono features che male non fatto (come ci hanno insegnato i curiosi casi di minatori virtuali xD)..

diverso sarebbe in ambito mobile e server chiaramente (ah e cmq spesso una radeon 290 o le vecchie vliw ancora oggi hanno molto da dire anche in relazione a quadro e tesla varie in termini di resa per euro).

batou83
19-09-2014, 15:46
Bella bestiolina questa 970, peccato che ormai tutte le gpu di fascia alta hanno il brutto vizio di essere chilometriche e quindi non entrano in tutti i case :(

ThorII
19-09-2014, 15:52
Scusate,spero di nn essere linciato:stordita: ,bella scheda,bellissima rece,ottimi gli interventi degli utenti per carità ......ma.....queste nuove schede video,avranno un buon mercato?Mi spiego meglio,non tanto per le loro caratteristiche o per il loro prezzo ma per il mercato videoludico del Pc in netto calo rispetto a quelle delle console.Essere febbricitanti per un nuovo modello di scheda video,ora come ora che i videogiochi per pc sono semplici porting,fatti male e per di più castrati per non fare sfigurare le console,la vedo come una cosa deleteria.....secondo voi queste schede saranno ben sfruttate con i nuovi giochi che usciranno?Tipo Witcher,Far Cry4.....o saranno sprecate?

Soulbringer
19-09-2014, 15:58
Scusate,spero di nn essere linciato:stordita: ,bella scheda,bellissima rece,ottimi gli interventi degli utenti per carità ......ma.....queste nuove schede video,avranno un buon mercato?Mi spiego meglio,non tanto per le loro caratteristiche o per il loro prezzo ma per il mercato videoludico del Pc in netto calo rispetto a quelle delle console.Essere febbricitanti per un nuovo modello di scheda video,ora come ora che i videogiochi per pc sono semplici porting,fatti male e per di più castrati per non fare sfigurare le console,la vedo come una cosa deleteria.....secondo voi queste schede saranno ben sfruttate con i nuovi giochi che usciranno?Tipo Witcher,Far Cry4.....o saranno sprecate?

Veramente se leggi l'articolo, subito all'inizio parla di un mercato PC in forte crescita... :)
Dal mio punto di vista, le schede vengono comunque sfruttate, magari non al 100%, per quello bisognerà aspettare la vera next-gen che partirà, a quanto ho capito, con The Witcher 3. Ma poi durano anche molto di più di quanto duravano un tempo...con una scheda del genere ci fai tranquillamente 4 anni senza problemi.

Einhander
19-09-2014, 15:59
se tale dichiarazione è vera come -60w di tonga (che non ho visto in nessun caso)...:stordita:

Come detto da te con i se e i ma non ci facciamo nulla, infatti per ora le prestazioni della top nvidia sono queste -in media un 20% in piu' prendendo anche i risultati visti su guru3d con una versione occata-
niente di irraggiungibile, ANZI...

Mentre sui consumi e' dura, parecchio dura, ma non e' in questa fascia che mi preoccupano perche' anche fossero molto piu' alti e' irrisorio, mentre nelle fasce medio e medio basse e per portatili potrebbe essere si una bella batosta se amd non trova il modo di rendere le sue gpu meno assetate, ma adesso pensare che per amd sia impossibile aumentare la potenza della propria top di gamma di almeno un 20% direi che siamo messi male, ma per la concorrenza e i prezzi che ne conseguono non per altro..

ma gia' facendo una versione tonga non castrata in nulla (della r9 290x) e solo con il memory controller aggiornato basterebbe per prendere la 980 o quasi soprattutto ad alte risoluzioni.

gd350turbo
19-09-2014, 16:00
Fantastici questi ipotetici confronti che ti inventi, sopratutto con la generazione passata, forse dimentichi che quando e' uscita la 290x c'erano schede insulse e da strozzini chiamate TITAN con cui nvidia aveva giocato a celolunghismo per poi farsi umiliare da una scheda che costava la meta' e andava di piu' in tutto...ma vabbeh sta storia non la racconta mai nessuno, guarda caso : D

e quante ne ha vendute !!!
( Non a me... )


Cmq che tu dica che il confronto lo si fa sul prezzo e' ok, e infatti la serie r9 290\x nn mi pare sia stata svenduta anzi eppure quando e' uscita ha reso improvvisamente insulse molte delle proposte nvidia perche' come dire se consumi a nastro anche che ne so' 160 watts in piu' come scheda, sappi che a fine anno ammontano a si e' no 48 euro in piu' in bolletta

160 watt in più sono 160 watt in più di calore generato che la scheda deve smaltire !
Per questo serve avere una scheda che consuma poco, non per risparmiare sulla bolletta !
Anni fa avevo un Q9550+580, ebbene d'estate, non potevo quasi giocare, il computer diventava una stufetta rendendo rovente la camera !
Ora, ci gioco perfettamente ed in silenzio !


Perche' credi, per assurdo che amd non possa potenziare la sua top single gpu di almeno un 20%??? e proporla and un prezzo adeguato?


Più potenziata di così ?
Tutto è possibile, ma la vedo una cosa di non facile realizzazione !

michael1one
19-09-2014, 16:51
Che bella bestiolina...

Curioso di vedere come va anche la 970

!fazz
19-09-2014, 16:56
Mi sono stressato a leggere questo articolo... anzi... non l'ho letto neanche tutto, perche la pubblicità me l'ha impedito...
Banner che si aprono da solo sull'articolo, video-pubblicità che partono senza nessuna interazione...
Il vostro è un sito di serio o un immondezzaio di pubblicità...
Inoltre... che cazzo ce la matteta a fare la "X" per chiudere la pubblicità se invece di chiudersi si apre un'altra schermata di quella pubblicità...
State facendo sempre più schifo...

Se il forum non ti soddisfa posso aiutarti a non frequentarlo più

Littlesnitch
19-09-2014, 17:01
Veramente se leggi l'articolo, subito all'inizio parla di un mercato PC in forte crescita... :)
Dal mio punto di vista, le schede vengono comunque sfruttate, magari non al 100%, per quello bisognerà aspettare la vera next-gen che partirà, a quanto ho capito, con The Witcher 3. Ma poi durano anche molto di più di quanto duravano un tempo...con una scheda del genere ci fai tranquillamente 4 anni senza problemi.

Si il buon senso direbbe questo, ma siccome nel 99% dei casi finiscono in mano a casi clinici come me che le cambiano ogni 12 mesi :D
Nonostante quello che scrivo mi rendo conto di scrivere cazzate da stamattina perché nonostante l'Usag caricato a frag bullet e una decina di caricatori già vuoti quel stramaledetto king kong è ancora vivo e vegeto :ciapet:

Littlesnitch
19-09-2014, 17:04
e quante ne ha vendute !!!
( Non a me... )


160 watt in più sono 160 watt in più di calore generato che la scheda deve smaltire !
Per questo serve avere una scheda che consuma poco, non per risparmiare sulla bolletta !
Anni fa avevo un Q9550+580, ebbene d'estate, non potevo quasi giocare, il computer diventava una stufetta rendendo rovente la camera !
Ora, ci gioco perfettamente ed in silenzio !



Più potenziata di così ?
Tutto è possibile, ma la vedo una cosa di non facile realizzazione !

Dai su non trollare, :) AMD sono 3 anni che sta studiando il nuovo chip, e Hawaii è solo una versione pompata di Tahiti. Quel 20% è il minimo problema per AMD. Ripeto vediamo il calore!

calabar
19-09-2014, 17:05
si, di un paio di mesi, capirari... a proposito, proprio con GCN AMD ERA in vantaggio sul pp...nel tempo nvidia ha recuperato ed ora addirittura ha buttato fuori un'architettura mostruosamente efficiente sullo stesso pp...poi se proprio vogliamo raccontarcela e farci i pippotti sul futuro, i se e i ma basanti sul niente, è altro discorso
A me pare che i pippotti se li stia facendo qualcun altro con queste schede! ;)

La mia era una semplice contestazione a quanto hai affermato in precedenza: non basta che un processo produttivo sia disponibile perchè tutti lo adottino, ci sono diverse considerazioni da fare riguardo a resa, ottimizzazione, rischio, lavoro fatto sul processo precedente, ecc...

Devo dire a malincuore però, che chissà quando le vedremo adoperate queste nuove tecnologie visto che le console frenano abbastanza lo sviluppo, nonostante il mercato pc sia molto più vivo che in passato. Comunque vedremo come si evolverà la questione.
Le consolle sono appena uscite e non sono ancora tecnologicamente obsolete, difficile che frenino qualcosa. Escludendo ovviamente quei casi in cui il freno lo si tira deliberatamente come nel caso di Ubisoft, ma se il mercato PC continua a crescere dovranno adattarsi anche loro.

Littlesnitch
19-09-2014, 17:06
Che bella bestiolina...

Curioso di vedere come va anche la 970

Ci sono già le recensioni in giro. Ma ti riassumo tutto in breve :D
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/25.html
Circa un 10% scarso sotto alla 980.

Soulbringer
19-09-2014, 17:15
Si il buon senso direbbe questo, ma siccome nel 99% dei casi finiscono in mano a casi clinici come me che le cambiano ogni 12 mesi :D
Nonostante quello che scrivo mi rendo conto di scrivere cazzate da stamattina perché nonostante l'Usag caricato a frag bullet e una decina di caricatori già vuoti quel stramaledetto king kong è ancora vivo e vegeto :ciapet:

LOL, fatti vedere! :D

Anche io, da fanatico di hardware, cambierei scheda ogni anno, ma alla fin fine il buonsenso riesce (quasi) sempre a prevalere e finisce che in media una GPU mi dura 3/4 anni, come la mia vecchia e valorosa 5870.

roccia1234
19-09-2014, 17:42
LOL, fatti vedere! :D

Anche io, da fanatico di hardware, cambierei scheda ogni anno, ma alla fin fine il buonsenso riesce (quasi) sempre a prevalere e finisce che in media una GPU mi dura 3/4 anni, come la mia vecchia e valorosa 5870.

Idem.
Prima della R9 280X 3GB avevo una Hd4870 da 512 mb... i giochi li faceva ancora girare molto bene per l'età che aveva... ma i 512mb di vram erano limitanti in parecchie occasioni, inoltre anche in idle consumava come una petroliera.
Cambiata solo perchè ha deciso di non funzionare più (o meglio, funzionava, ma non reggeva più le frequenze di default nè i contenuti con accelerazione hardware (video e flash) senza artefatti, blocchi e crash dei driver. Inoltre non gestiva più le ventole, nel senso che erano sempre ferme e per un periodo ho dovuto collegarle ad un rheobus.

Ora questa mi DEVE durare MINIMO 4 anni, insieme al phenom X6 1090T.

michael1one
19-09-2014, 17:46
Ci sono già le recensioni in giro. Ma ti riassumo tutto in breve :D
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/25.html
Circa un 10% scarso sotto alla 980.

:eek:

Fra un'po il mio pc andrà in pensione :asd:

Einhander
19-09-2014, 18:09
e quante ne ha vendute !!!
( Non a me... )


160 watt in più sono 160 watt in più di calore generato che la scheda deve smaltire !
Per questo serve avere una scheda che consuma poco, non per risparmiare sulla bolletta !
Anni fa avevo un Q9550+580, ebbene d'estate, non potevo quasi giocare, il computer diventava una stufetta rendendo rovente la camera !
Ora, ci gioco perfettamente ed in silenzio !



Più potenziata di così ?
Tutto è possibile, ma la vedo una cosa di non facile realizzazione !

vabbeh dai 160 era per dire...mica perche' ci devono essere 160 watt di differenza e cmq si se scalda meno e' sicuramente piu' facile da gestire ma e' anche vero che nel caso delle r9 290\x a fare schifo era il sistema di dissipazione fatto da amd perche' tutti quelli after market hanno poi avuto prestazioni piu' che buone..

Vedremo

Littlesnitch
19-09-2014, 18:10
LOL, fatti vedere! :D

Anche io, da fanatico di hardware, cambierei scheda ogni anno, ma alla fin fine il buonsenso riesce (quasi) sempre a prevalere e finisce che in media una GPU mi dura 3/4 anni, come la mia vecchia e valorosa 5870.

Idem.
Prima della R9 280X 3GB avevo una Hd4870 da 512 mb... i giochi li faceva ancora girare molto bene per l'età che aveva... ma i 512mb di vram erano limitanti in parecchie occasioni, inoltre anche in idle consumava come una petroliera.
Cambiata solo perchè ha deciso di non funzionare più (o meglio, funzionava, ma non reggeva più le frequenze di default nè i contenuti con accelerazione hardware (video e flash) senza artefatti, blocchi e crash dei driver. Inoltre non gestiva più le ventole, nel senso che erano sempre ferme e per un periodo ho dovuto collegarle ad un rheobus.

Ora questa mi DEVE durare MINIMO 4 anni, insieme al phenom X6 1090T.

Mandatemi in PVT il contenuto della sacca delle vostre flebo :sofico:

!fazz
19-09-2014, 18:18
Mandatemi in PVT il contenuto della sacca delle vostre flebo :sofico:

basta una scelta oculata, un carico di dardi e questo

http://www.catturaanimaliroma.it/images/FUCILElanciasiringhe.jpg

personalmente io compro sempre una serie indietro si risparmia tantissimo e le prestazioni sono più che buone (non sono un gran giocatore ma il mio fisso è vecchio, avrà ormai 6 anni e mi basta ancora, ho sostituito la vga solamente perchè mi serviva un ricambio urgente ) complice anche lo schermo hd ready

Cicciuzzone
19-09-2014, 18:23
Devo ammettere che mi stuzzicano parecchio queste nuove schede.. Sarei interessato alla GTX 970 però, DirectCut II..

janfry66
19-09-2014, 19:42
Vendo la mia titan e mi tengo uno sli 580 GTX asus direct II...:D :D :D o compro la nuova GTX 980? :fuck: :fuck: :fuck:

Grey 7
19-09-2014, 20:24
bella scheda, c'è poco da dire. Consumi ottimi e features interessanti, il nuovo filtro in particolare mi ha impressionato. Sulle dx12 ancora non mi esprimo, credo sia tutto fumo al momento, se ne riparlerà quando i giochi le supporteranno a dovere. Peccato solo non aver visto nella recensione dei test in fullhd ma d'altronde una scheda così va utilizzata a ben altre risoluzioni..

omihalcon
19-09-2014, 20:54
Chiedo gentilmente a Corsini se può fare una pagina anche per la gtx 970 con un dual monitor collegati con display port. Sono interessato a questa soluzione per collegare due dell u2414. Il motivo della richiesta è dovuta perché leggo che questa funzionalità non è supportata dalle attuali schede nvidia in quanto non riescono a gestire i due pannelli come uno unico.

Nel caso sarebbe interessante anche vedere come si comportano le nuove schede con una configurazione triple monitor usufruendo della funzione surround di nvidia 5940x1080, risoluzioni particolarmente indicate nei giochi di guida con visuali in-car

Grazie

pff
19-09-2014, 21:52
precedentemente si parlava di amd che forse si dovrebbe preoccupare della fascia mobile per i consumi ecc , ma io di amd nei notebook non ne ho ancora visto, quindi direi che può anche concedersi il lusso di guardare alle prestazioni pure, avendo già le console che la finanziano. certo nell'ultimo caso può svendere le 290x a 200$ e ammazza nvidia in quella fascia :D

Paolo Corsini
19-09-2014, 21:57
stai andando oltre. Accordarsi non significa concordare una rece manovrata, ma semplicemente organizzarsi per far si che il prodotto giunga in redazione e sia buttato giù un articolo.

Ciao,
no, non sto andando oltre considerando che quanto hai scritto è:

"Per GeForce GTX 970 rimandiamo il nostro giudizio di alcuni giorni, non appena ci si accorda commercialmente col produttore per recensirla..."

è quel "commercialmente" che manda un senso molto chiaro alla tua frase; non l'avessi scritto non sarei intervenuto.
Per la cronaca: la scheda è arrivata in redazione oggi poco dopo pranzo, ma io mi sono preso mezza giornata di ferie per passare il fine settimana fuori con la famiglia.

Da oggi abbiamo scoperto che tutti possono avvalersi della vetrina "hwupgrade" per far si che si parli dei propri prodotti, perchè tale opportunità è concessa in modo totalmente gratuito.
Buono a sapersi.
Esattamente, in modo gratuito ed è sempre stato così. Però ti sfugge un particolare: chi decide cosa viene analizzato e quindi pubblicato e cosa non lo sia lo decide il direttore assieme alla sua redazione. Detto in altro modo: se mi sottopongono un prodotto che non reputo interessante analizzare per i miei lettori (e questo avviene più volte ogni giorno) ringrazio e dico di non essere interessato.
In altri casi prodotti che ci interessano e che non otteniamo li ricuperiamo anche senza l'interesse diretto del produttore, sino al limite di comperarceli.

Ora, vuoi essere così gentile da spiegarmi quale sia il tuo significato di "accordarsi commercialmente"?

Paolo Corsini
19-09-2014, 22:00
Chiedo gentilmente a Corsini se può fare una pagina anche per la gtx 970 con un dual monitor collegati con display port. Sono interessato a questa soluzione per collegare due dell u2414. Il motivo della richiesta è dovuta perché leggo che questa funzionalità non è supportata dalle attuali schede nvidia in quanto non riescono a gestire i due pannelli come uno unico.
Ciao
la GTX970 è in redazione che mi aspetta; da Lunedì mattina ci metto mano.
Circa il supporto ai due display non ci sono prolemi

tuttodigitale
19-09-2014, 22:13
scheda interessante, ma il tdp è un pò troppo ottimistico
Il consumo di energia pur essendo innegabilmente più basso delle top di gamma di questa generazione, sono più alti di quelli fatti registrare dalla gtx680, che ha un tdp di 195W e nel gpgpu la scheda consuma praticamente quanto una r9 290x: 280-285W in media a fronte di un tdp di soli 165W...

marchigiano
19-09-2014, 22:41
160 watt in più sono 160 watt in più di calore generato che la scheda deve smaltire !
Per questo serve avere una scheda che consuma poco, non per risparmiare sulla bolletta !

quoto, vedi quello che ho in firma, non è tanto il consumo visto che quel pc sta anche 20gg spento, ma quando gioco, col dissi standard arrivavo a 95° in pochi minuti e poi la frequenza scendeva a 700-800... con la ventola a palla rumorosissima. ci è voluto un dissi aftermarket per poter stare a 1ghz fisso con temperature basse e ventola silenziosa... rimangono ovviamente consumi e calore elevati, pazienza ora è inverno risparmierò sul metano...

gran belle schede però queste nvidia, sopratutto in ambito htpc da mettere in piccoli case

omihalcon
19-09-2014, 22:58
Ciao
la GTX970 è in redazione che mi aspetta; da Lunedì mattina ci metto mano.
Circa il supporto ai due display non ci sono prolemi

Grazie in particolare chiedevo se c' è tempo di approfondire se era supportata finalmente la possibilità dell' utilizzo del displayport chain (MST).
Purtroppo non riesco a trovare la pagina dove si spiegava che le schede nvidia che supportano 2 monitor come unico pannello collegate in displayport sono le quadro.

in compenso ho trovato questa discussione sul forum nvidia:
https://forums.geforce.com/default/topic/539645/nvidia-surround/2-monitor-gaming-/17/

workaround for dell U2414h in Daisy chain MST (http://en.community.dell.com/support-forums/peripherals/f/3529/t/19580375)

Faccio i complimenti per questa recensione di ottimo livello.

Darrosquall
19-09-2014, 23:00
domanda: quando tornerete a fare test a 1080p, la risoluzione che usa praticamente tutto il mondo conosciuto?grazie. :fagiano:

omihalcon
19-09-2014, 23:10
Se va come un treno a 2560x1440 cosa vuoi che sia una risoluzione standard a 1920x1080 per queste VGA? Ha più senso per schede più economiche e meno potenti, qui vedremmo solo numeri a tre cifre.

ilario3
20-09-2014, 00:00
Che dire la 980 é una bomba.

Utilizzo schede Amd da molti anni, ma mi ha colpito molto leggendo le recensioni e bench in inglese ed in tedesco la 970, straordinaria, va via alla R9 290 e 290X in quasi tutti i bench consumando molto meno. Ormai é da anni che non guardo più il marchio ma solo il rapporto qualitá/prezzo/prestazioni/consumo.
Inizialmente volevo fare un cf comprando un altra 280X poi ho cambiato idea e stavo guardando i prezzi della R9 290 , alla luce di questo opto per la 970.
Dopo molti anni torno ad Nvidia.
Complimenti Nvidia per questi 2 gioiellini;)

aleyx
20-09-2014, 00:09
Ciao
la GTX970 è in redazione che mi aspetta; da Lunedì mattina ci metto mano.
Circa il supporto ai due display non ci sono prolemi

Visto che ci sei puoi fare un semplice test per testare l'efficenza dei Cuda?
Il benchmark piú indicativo é questo:
http://www.randomcontrol.com/arionbench
Test molto utile per tutti quei motori di render che usano i Cuda (Octane Render, Redshift, Arion Render, Cycle, ecc..)
Grazie..

Eroes78
20-09-2014, 00:16
Splendido articolo: era tempo che non venivo catturato così tanto dalla recensione di un pezzo hw ;)

E congratulazioni anche agli ingegneri Nvidia, che hanno tirato fuori un gioiellino le cui performance per watt sono un nuovo termine di paragone.

Spero che la 970 abbia un prezzo abbordabile e mantenga questo livello qualitativo.

pff
20-09-2014, 02:03
mi accodo anche io a coloro che vorrebbero i 1080p testati perchè se bisogna testare il top del top perchè non passare addirittura oltre?
Che dire la 980 é una bomba.
Utilizzo schede Amd da molti anni, ma mi ha colpito molto leggendo le recensioni e bench in inglese ed in tedesco la 970, straordinaria, va via alla R9 290 e 290X in quasi tutti i bench consumando molto meno. Ormai é da anni che non guardo più il marchio ma solo il rapporto qualitá/prezzo/prestazioni/consumo.
Inizialmente volevo fare un cf comprando un altra 280X poi ho cambiato idea e stavo guardando i prezzi della R9 290 , alla luce di questo opto per la 970.
Dopo molti anni torno ad Nvidia.
Complimenti Nvidia per questi 2 gioiellini;)

a parte pochi fanatici penso tutti lo facciamo ormai, anche perchè non devi per forza rimanere nvidia com'era una volta con i chipset nforce quindi hai più spazio. sicuramente fare un crossfire ORA non conviene, ma chi ha speso 3 anni fa sui 750€ (come il sottoscritto :D )rimane a posto. consiglio solo di aspettare anche la risposta amd

Littlesnitch
20-09-2014, 08:45
mi accodo anche io a coloro che vorrebbero i 1080p testati perchè se bisogna testare il top del top perchè non passare addirittura oltre?


a parte pochi fanatici penso tutti lo facciamo ormai, anche perchè non devi per forza rimanere nvidia com'era una volta con i chipset nforce quindi hai più spazio. sicuramente fare un crossfire ORA non conviene, ma chi ha speso 3 anni fa sui 750€ (come il sottoscritto :D )rimane a posto. consiglio solo di aspettare anche la risposta amd

Anch'io! Se non altro perché anche il prezzo di queste 9xx si stabilizzerà.

Ale55andr0
20-09-2014, 09:29
consiglio solo di aspettare anche la risposta amd


il che vuol dire fare le ragnatele

Littlesnitch
20-09-2014, 09:45
il che vuol dire fare le ragnatele

Io non credo. AMD deve per forza rispondere in tempi brevi a meno di non calare di altri 50€ il prezzo delle 290.

thedoctor1968
20-09-2014, 10:01
La mia gtx 680 è ancora validissima nel playing full hd, per almeno un'altro paio d'anni la terrò, comunque notevolissimi i progressi envidia e sopratutto notevoli nel senso giusto ovvero quello dei consumi con praticamente raddoppio delle prestazioni, la gtx 980 ha un frame rate alle alte risoluzioni quasi doppio rispetto alla mia 680 che già è una bomba!

omihalcon
20-09-2014, 10:41
Visto che ci sei puoi fare un semplice test per testare l'efficenza dei Cuda?
Il benchmark piú indicativo é questo:
http://www.randomcontrol.com/arionbench
Test molto utile per tutti quei motori di render che usano i Cuda (Octane Render, Redshift, Arion Render, Cycle, ecc..)
Grazie..

Mancano le GTX 770 nella lista.... come mai? :confused:

AceGranger
20-09-2014, 11:08
il che vuol dire fare le ragnatele

ma i rumors non parlavano mica di 3-5 mesi ?

Darrosquall
20-09-2014, 11:27
Io non credo. AMD deve per forza rispondere in tempi brevi a meno di non calare di altri 50€ il prezzo delle 290.

ma una volta che è dentro il case, la gpu non la vedi più, cosa ti disturba a quel punto? :asd:

pff
20-09-2014, 12:11
il che vuol dire fare le ragnatele
certamente entro un tempo ragionevole, siamo al 20 di settembre, 3 mesi e poi si compra, non penso che sia un'infinità. poi non voglio fare i conti in tasca a lui però era per non fargli rimpiangere

sundraw83
20-09-2014, 12:39
Dopo aver mandato in rma (una settimana di vita) una msi 280x gaming volevo chiedervi un consiglio: sli di 770 4gb o singola 970/980? Ho sempre avuto schede nvidia (solo della serie 6 ad esempio ho avuto prima la 690 poi lo sli di 660ti da 3gb) e questa prova con amd mi ha mandato al manicomio..ma ovviamente è di sicuro un caso su mille... :stordita:

pff
20-09-2014, 12:52
Dopo aver mandato in rma (una settimana di vita) una msi 280x gaming volevo chiedervi un consiglio: sli di 770 4gb o singola 970/980? Ho sempre avuto schede nvidia (solo della serie 6 ad esempio ho avuto prima la 690 poi lo sli di 660ti da 3gb) e questa prova con amd mi ha mandato al manicomio..ma ovviamente è di sicuro un caso su mille... :stordita:

per il tuo caso dipende molto da msi o altri dettagli che non conosco ma può capitare a tutti, anche a chi arriva con DOA ma non bisogna farne di tutta l'erba un fascio. ti conviene prendere la 970 se puoi ancora meglio la 980

Ale55andr0
20-09-2014, 13:04
ma i rumors non parlavano mica di 3-5 mesi ?

se non sono ragnatele quelle...:asd:

AMD doveva quantomeno rispondere a lviello di marketing come fece nvidia all'epoca della 7970, come a dire "aspetteta ci sono anch'io sto lavorando a questo prodotto che bla bla"
Se non lo fanno vuol dire solo che non hanno niente di valido in mano, specialmente se saranno tanto cocciuti nell'insistere con GCN "ritoccato":muro: , che resta quello che è in termini di efficienza e calore prodotto. Han tenuto botta sino ad ora prestazionalmente ma con una architettura veramente al limite del pp (sacrificando calore e consumi) e dell'intrinseco ciclo vitale, mo ora basta però, ci vuole aria nuova. E comunque non capirò mai perchè AMD ha voluto un chip molto performante nel calcolo gpgpu quando comunque nel pro non se la fila nessuno. Che facciano schede da game che è quello che si aspettano gli acquirenti tipo di tali prodotti

ilario3
20-09-2014, 13:08
mi accodo anche io a coloro che vorrebbero i 1080p testati perchè se bisogna testare il top del top perchè non passare addirittura oltre?


a parte pochi fanatici penso tutti lo facciamo ormai, anche perchè non devi per forza rimanere nvidia com'era una volta con i chipset nforce quindi hai più spazio. sicuramente fare un crossfire ORA non conviene, ma chi ha speso 3 anni fa sui 750€ (come il sottoscritto :D )rimane a posto. consiglio solo di aspettare anche la risposta amd

Secondo me al momento non ci sarà alcune risposta Amd, sono piu' probabile 2 scenari, che esca la 960 per sostituire per 770, in quel caso non ci sarà una riduzione dei prezzi immediata delle 970 e 980, oppure come scrive la redazione, avendo un bus a 256bit la possibilità che sfornino altri 2 mostri con bus a 384, in quel caso o le schede nuove avranno costi proibitivi oppure terranno le fasce di costo delle 2 nuovi attuali e la 980 e 970 calerà di prezzo (mi auguro il scenario n.2).
Penso che ci sarà un calo dei prezzi di AMD, ma anche in quel caso personalmente prenderei la 970

Ale55andr0
20-09-2014, 13:09
certamente entro un tempo ragionevole, siamo al 20 di settembre, 3 mesi e poi si compra, non penso che sia un'infinità. poi non voglio fare i conti in tasca a lui però era per non fargli rimpiangere

e chi lo ha detto che fra 3 mesi spaccati escono le nuove vga AMD se manco loro si sperticano a dir nulla lasciando campo a nvidia con le schede che vanno già a ruba nei negozi? Quale masochistica scelta è quella di non far nemmeno un minimo di rumore per mettersi in evidenza proprio per cercare di far aspettare gli appassionati prima di buttatrsi sulle nuove verdi? E, più importante, chi lo dice che saranno all'altezza se finora l'unica cosa che si è vista è un (preoccupante) dissipatore a liquido per una scheda reference, cosa che mostra indirettamente che di nuovo, in concreto, non ci sta nulla se si deve ricorrere a tanto :doh:

Littlesnitch
20-09-2014, 13:24
certamente entro un tempo ragionevole, siamo al 20 di settembre, 3 mesi e poi si compra, non penso che sia un'infinità. poi non voglio fare i conti in tasca a lui però era per non fargli rimpiangere

Non è un problema di costi ;) Comunque ho almeno 2 PC da mantenere quindi farò come sempre 2 AMD e 2 Nvidia. E adesso che sono in una situazione strana con 4 nVidia. Alla fine credo che cederò e mi faccio 2 980 e poi 2 AMD quando saranno uscite. E magari ci scappa anche il monitor 4K viste le prestazioni. Per settimana prossima potrei averne 2 a 580$ ciascuna, considerando che ho già chi mi prende le lightning a 300 l'una....
Anche se preferirei aspettare le lightning in versione 980 perché sono delle bombe le schede di questa serie.
Boh vediamo come finisce il death match con King Kong, quel bastardo in questi 2 giorni ha incrementato la sua agilità e velocità in maniera esponenziale :sofico:

Free Gordon
20-09-2014, 13:28
le migliorie si erano gia viste con la 750Ti che è uscita a Febbraio; la 280X, 270X e 260X sono uscite a Settembre, AMD aveva tutto il tempo di utilizzare questo nuovo pp ( se esiste veramente ); nVidia non ha sue fonderie quindi non è un suo processo, e di certo, piangina come è AMD, se si fosse fatta fare un processo solo per lei, si sarebbe sicuramente lamentata a 360°.


quindi se esiste perchè non lo ha usato ?

E' uscita solo la 285 per ora, che mi pare un ibrido buttato fuori giusto per ridurre le spese legate a Tahiti ma non credo siano le gpu che AMD ha pensato vs la serie 900 di Nvidia.

Anche perchè se è così, sono messi molto male perf/watt....

Free Gordon
20-09-2014, 13:36
scheda impressive, niente da aggiungere. Riesce in full a dare anche 100w di differenza alla 290x con prestazioni superiori alla 780ti.

Per amd questa volta è dura, deve tirare una scheda che non consumi oltre i 50w in più, con prestazioni nei paraggi e categoricamente ad aria, costando di meno, se vuole rimanere in carreggiata.

sta volta io, da appassionato amd non ci credo, ma vedremo.


A meno di news impreviste, la vedo dura anche io...

Le prestazioni le prenderanno...(perlomeno su fascia media vs GM204... ma calore/consumi saranno molto a vantaggio di Nvidia mi sa...

GCN non la vedo adatta a fare un salto del genere..

di@!
20-09-2014, 13:36
mi tengo stretta la mia GTX770, per giocare va benissimo....per alzare i punteggi dei benchmark un po meno, è vero :D

Einhander
20-09-2014, 13:40
se non sono ragnatele quelle...:asd:

AMD doveva quantomeno rispondere a lviello di marketing come fece nvidia all'epoca della 7970, come a dire "aspetteta ci sono anch'io sto lavorando a questo prodotto che bla bla"
Se non lo fanno vuol dire solo che non hanno niente di valido in mano, specialmente se saranno tanto cocciuti nell'insistere con GCN "ritoccato":muro: , che resta quello che è in termini di efficienza e calore prodotto. Han tenuto botta sino ad ora prestazionalmente ma con una architettura veramente al limite del pp (sacrificando calore e consumi) e dell'intrinseco ciclo vitale, mo ora basta però, ci vuole aria nuova. E comunque non capirò mai perchè AMD ha voluto un chip molto performante nel calcolo gpgpu quando comunque nel pro non se la fila nessuno. Che facciano schede da game che è quello che si aspettano gli acquirenti tipo di tali prodotti

madonna ma sempre sta storia? cioe' da quando accade che una scheda esce 3-4 mesi prima della concorrente? una volta nvidia, una volta amd, stavolta tocca ad nvidia, che per carita' ha fatto una signora scheda, ma per quanto sia notevole dal punto di vista dei consumi, va cmq in media un venti per cento in piu' della r9 290x -un livello di prestazioni assolutamente alla portata di amd- e siccome si parla di schede top di gamma i consumi si contano ma mooolto dopo le prestazioni ed il prezzo, senza contare che il problemi principali di calore delle amd furono in relazione al pessimo dissipatore stock che avevano le r9 290-290x all'uscita...che praticamente e fortunatamente risulta estinto ad oggi ^^

Il motivo per cui amd ha uan scheda completa rispetto ad nvidia e' che semplicemente e' in grado di farlo, punto.
SE ci pensi bene con una top di gamma, hai prestazioni (all'epoca superiori alla concorrenza e a quelle ladrate come titan et simila), memoria vram in piu', pacchetto giochi never settle, potenza gpgpu molto buona e in alcuni casi terrificante rispetto alla concorrenza che costando di piu' andava spesso meno della meta', e prezzo piu' basso....si i consumi erano piu' alti -a prescindere dal calore o rumore del dissi standard e solo quello per fortuna- ma come dire, chissenefrega? se spendi 500 e passa euro e poi ti preoccupi di 20 euro all'anno di corrente ignorando quello che ho scritto sopra, forse sei un po' fuorviato dal reparto marketing...

Considera che pagando in media una scheda nvidia 50 o 70 euro in piu' -adesso sicuramente non quando e' uscita la r9 290\x- in realta' hai gia' dato soldi per la differenza in bolletta anche per tipo 3 anni di gioco forsennato :°°°°D..

Quando era nvidia che faceva mostri sul gpgpu e che scaldavano era ok, ora che li fa amd, ma che costano molto di meno, vanno di piu' anche in proporzione nel calcolo general purpose, ti ci mettono i giochi, piu' memoria ecc, non va bene perche' nvidia dice che e' meglio avere consumi piu' bassi ma intanto si fa pagare le titan 1000 euro o 800 ANDANDO MENO IN TUTTO, e 50-70 euro le sue gtx andando meno ugualmente e con un offerta giochi ridicola, ma per favore :rolleyes:

Cos'e' adesso e' meglio avere meno pagando di piu'??? :°°D per 70 watt di differenza che con un uso forsennato sono si e no 20-25 euro l'anno di corrente e con i nuovi dissipatori, manco il calore e il rumore e' piu' un problema?

Senza contare, come diceva tuttodigitale, che queste nuove nei calcoli paralleli curiosamente consumano molto, ma molto di piu' che in game, arrivando alle soglie delle 290 ma STRANAMENTE nvidia dichiara solo 180 watt di tdp -per carita' diverso il tdp dalla corrente assorbita, pero' come dire potrebbe risultare un po' fuor viante..-

Che queste siano buone schede e' ok, ma ricordiamoci che sono un architettura nuova e pur consumando meno, alla fine a livello prestazionale sono ESTREMAMENTE raggiungibili o superabili, persino da un aggiornamento delle r9 290 -senza contare che a risoluzione alte il divario anche in questo caso si riduce e in molti casi diventa quasi nullo-..

Io dico che il vero colpo di nvidia non e' in queste due schede che vanno un'inezia di piu' della precedente generazione, ma nella fascia media quando verranno presentate le 960 ecc, li si che i consumi faranno la parte del leone ma sicuramente non in una fascia come quella della 980 che e' appunto, ad oggi, la top di gamma e costa sui 550 e passa euro.

Puoi andare di piu' e' ci sta, ma fidati che i consumi glieli hai pagati in anticipo e in contanti per almeno 3 anni al momento dell'acquisto :°°°D..

Free Gordon
20-09-2014, 13:41
Che facciano schede da game che è quello che si aspettano gli acquirenti tipo di tali prodotti

GCN esiste per le APU.
Quella è la principale ragione di esistere...sennò sarebbero ancora su Vliw4 imho.. ;) o cmq su un'architettura MOOOOLTO più gaming-oriented...

ilario3
20-09-2014, 14:31
madonna ma sempre sta storia? cioe' da quando accade che una scheda esce 3-4 mesi prima della concorrente? una volta nvidia, una volta amd, stavolta tocca ad nvidia, che per carita' ha fatto una signora scheda, ma per quanto sia notevole dal punto di vista dei consumi, va cmq in media un venti per cento in piu' della r9 290x -un livello di prestazioni assolutamente alla portata di amd- e siccome si parla di schede top di gamma i consumi si contano ma mooolto dopo le prestazioni ed il prezzo, senza contare che il problemi principali di calore delle amd furono in relazione al pessimo dissipatore stock che avevano le r9 290-290x all'uscita...che praticamente e fortunatamente risulta estinto ad oggi ^^

Il motivo per cui amd ha uan scheda completa rispetto ad nvidia e' che semplicemente e' in grado di farlo, punto.
SE ci pensi bene con una top di gamma, hai prestazioni (all'epoca superiori alla concorrenza e a quelle ladrate come titan et simila), memoria vram in piu', pacchetto giochi never settle, potenza gpgpu molto buona e in alcuni casi terrificante rispetto alla concorrenza che costando di piu' andava spesso meno della meta', e prezzo piu' basso....si i consumi erano piu' alti -a prescindere dal calore o rumore del dissi standard e solo quello per fortuna- ma come dire, chissenefrega? se spendi 500 e passa euro e poi ti preoccupi di 20 euro all'anno di corrente ignorando quello che ho scritto sopra, forse sei un po' fuorviato dal reparto marketing...

Considera che pagando in media una scheda nvidia 50 o 70 euro in piu' -adesso sicuramente non quando e' uscita la r9 290\x- in realta' hai gia' dato soldi per la differenza in bolletta anche per tipo 3 anni di gioco forsennato :°°°°D..

Quando era nvidia che faceva mostri sul gpgpu e che scaldavano era ok, ora che li fa amd, ma che costano molto di meno, vanno di piu' anche in proporzione nel calcolo general purpose, ti ci mettono i giochi, piu' memoria ecc, non va bene perche' nvidia dice che e' meglio avere consumi piu' bassi ma intanto si fa pagare le titan 1000 euro o 800 ANDANDO MENO IN TUTTO, e 50-70 euro le sue gtx andando meno ugualmente e con un offerta giochi ridicola, ma per favore :rolleyes:

Cos'e' adesso e' meglio avere meno pagando di piu'??? :°°D per 70 watt di differenza che con un uso forsennato sono si e no 20-25 euro l'anno di corrente e con i nuovi dissipatori, manco il calore e il rumore e' piu' un problema?

Senza contare, come diceva tuttodigitale, che queste nuove nei calcoli paralleli curiosamente consumano molto, ma molto di piu' che in game, arrivando alle soglie delle 290 ma STRANAMENTE nvidia dichiara solo 180 watt di tdp -per carita' diverso il tdp dalla corrente assorbita, pero' come dire potrebbe risultare un po' fuor viante..-

Che queste siano buone schede e' ok, ma ricordiamoci che sono un architettura nuova e pur consumando meno, alla fine a livello prestazionale sono ESTREMAMENTE raggiungibili o superabili, persino da un aggiornamento delle r9 290 -senza contare che a risoluzione alte il divario anche in questo caso si riduce e in molti casi diventa quasi nullo-..

Io dico che il vero colpo di nvidia non e' in queste due schede che vanno un'inezia di piu' della precedente generazione, ma nella fascia media quando verranno presentate le 960 ecc, li si che i consumi faranno la parte del leone ma sicuramente non in una fascia come quella della 980 che e' appunto, ad oggi, la top di gamma e costa sui 550 e passa euro.

Puoi andare di piu' e' ci sta, ma fidati che i consumi glieli hai pagati in anticipo e in contanti per almeno 3 anni al momento dell'acquisto :°°°D..

Qui non stiamo facendo i fanboy, restando nel top di gamma, prima, amd se la giocava molto bene con la 290 e 290x Vs la 780Ti e 780, costava meno avendo le stesse prestazioni, qui ora le cose cambiano, la 980 va via alla 290x, e come scriveva qyualcuno, piu che il consumo, si parla anche di smaltire il calore generato. Stiamo ragionando ora su singola scheda, prova a pensare di mettere 2 R9 290 in cf, e prova a mettere 2 gtx 970 in sli, su lato consumi inizi a vedere una bella differenza, ma anche sul lato calore generato, poi ovvio, finche' le bollette le pagano mamma e papà.... :blah: :blah: :blah:

Littlesnitch
20-09-2014, 14:33
Qui non stiamo facendo i fanboy, restando nel top di gamma, prima, amd se la giocava molto bene con la 290 e 290x Vs la 780Ti e 780, costava meno avendo le stesse prestazioni, qui ora le cose cambiano, la 980 va via alla 290x, e come scriveva qyualcuno, piu che il consumo, si parla anche di smaltire il calore generato. Stiamo ragionando ora su singola scheda, prova a pensare di mettere 2 R9 290 in cf, e prova a mettere 2 gtx 970 in sli, su lato consumi inizi a vedere una bella differenza, ma anche sul lato calore generato, poi ovvio, finche' le bollette le pagano mamma e papà.... :blah: :blah: :blah:

Forse ti sfugge che non è la 290X che deve giocarsela con la 980, o la 290 con la 970.

ilario3
20-09-2014, 14:37
Forse ti sfugge che non è la 290X che deve giocarsela con la 980, o la 290 con la 970.

Io sto ragionando da utente che oggi 20 settembre vuole farsi una config nuova con una buona scheda, e guardo si Amd che Nvidia.

Cosa dovrei prendere come sample di paragone??

pff
20-09-2014, 14:48
e chi lo ha detto che fra 3 mesi spaccati escono le nuove vga AMD se manco loro si sperticano a dir nulla lasciando campo a nvidia con le schede che vanno già a ruba nei negozi? Quale masochistica scelta è quella di non far nemmeno un minimo di rumore per mettersi in evidenza proprio per cercare di far aspettare gli appassionati prima di buttatrsi sulle nuove verdi? E, più importante, chi lo dice che saranno all'altezza se finora l'unica cosa che si è vista è un (preoccupante) dissipatore a liquido per una scheda reference, cosa che mostra indirettamente che di nuovo, in concreto, non ci sta nulla se si deve ricorrere a tanto :doh:
non fraintendermi (nuovamente :( ) ho detto , alla luce di quanto abbiamo visto da parte di nvidia, a meno di urgenze o fanboy o scimmia che ti uccide, sarebbe ragionevole aspettare un 3 mesi cioè fino a natale o giù di lì, essendo un periodo di compere, per vedere se amd si da una mossa a presentare qualcosa e non si fa sfuggire il periodo migliore dell'anno. detto questo, AMD non è mai stata un portento nel marketing quindi anche avesse in cantina un mostro di scheda che va il 300% della 980, ne venderebbe poche lo stesso :D
Boh vediamo come finisce il death match con King Kong, quel bastardo in questi 2 giorni ha incrementato la sua agilità e velocità in maniera esponenziale :sofico:
:asd: ah sta scimmia
Qui non stiamo facendo i fanboy, restando nel top di gamma, prima, amd se la giocava molto bene con la 290 e 290x Vs la 780Ti e 780, costava meno avendo le stesse prestazioni, qui ora le cose cambiano, la 980 va via alla 290x, e come scriveva qyualcuno, piu che il consumo, si parla anche di smaltire il calore generato. Stiamo ragionando ora su singola scheda, prova a pensare di mettere 2 R9 290 in cf, e prova a mettere 2 gtx 970 in sli, su lato consumi inizi a vedere una bella differenza, ma anche sul lato calore generato, poi ovvio, finche' le bollette le pagano mamma e papà.... :blah: :blah: :blah:

:confused: la 290/x se la vedeva con le 780/ti , per tanto così facciamo il confronto 7970 con un nvidia gtx480 se fa tutto brodo. per ora la 980 non ha rivali, letteralmente.

BrodoDiGhiande
20-09-2014, 15:07
Qui non stiamo facendo i fanboy, restando nel top di gamma, prima, amd se la giocava molto bene con la 290 e 290x Vs la 780Ti e 780, costava meno avendo le stesse prestazioni, qui ora le cose cambiano, la 980 va via alla 290x, e come scriveva qyualcuno, piu che il consumo, si parla anche di smaltire il calore generato. Stiamo ragionando ora su singola scheda, prova a pensare di mettere 2 R9 290 in cf, e prova a mettere 2 gtx 970 in sli, su lato consumi inizi a vedere una bella differenza, ma anche sul lato calore generato, poi ovvio, finche' le bollette le pagano mamma e papà.... :blah: :blah: :blah:

Ma una volta che spendete tanto in schede video, investite qualche soldino in una ventola in più e il gioco è fatto. In un case dove è più difficile gestire il flusso d'aria, una scheda che riscalda di meno mostra i suoi vantaggi.

ROBHANAMICI
20-09-2014, 18:57
interessato alla 970 gtx. Quanto richiede, che voi sappiate, di amperaggio sulla linea a 12v? (come wattaggio di ci sono). Grazie.

Littlesnitch
20-09-2014, 19:00
interessato alla 970 gtx. Quanto richiede, che voi sappiate, di amperaggio sulla linea a 12v? (come wattaggio di ci sono). Grazie.

Boh, di preciso non ho trovato nulla, ma con 30-32A dovresti andare benissimo.

ROBHANAMICI
20-09-2014, 20:03
uao, ottimo, mi hai dato proprio una bella notizia, grazie mille.

UnicoPCMaster
20-09-2014, 21:00
Mi sa che è troppo per le mie tasche. :asd:

massimo79m
21-09-2014, 12:26
Mi sono stressato a leggere questo articolo... anzi... non l'ho letto neanche tutto, perche la pubblicità me l'ha impedito...
Banner che si aprono da solo sull'articolo, video-pubblicità che partono senza nessuna interazione...
Il vostro è un sito di serio o un immondezzaio di pubblicità...
Inoltre... che cazzo ce la matteta a fare la "X" per chiudere la pubblicità se invece di chiudersi si apre un'altra schermata di quella pubblicità...
State facendo sempre più schifo...

Stra-stra-stra quoto.
sotto il banner della asus, spesso quando c'e' il banner della fiera della casa in qualunque punto dello schermo si clicca si apre quella pubblicita'.
e non ho estensioni particolari, e la stessa cosa si vede con firefox su slackware, debian con il suo browser, windows xp con firefox. imho state mettendo troppa pubblicita' e troppo invasiva.

Italia 1
21-09-2014, 12:36
https://adblockplus.org/

Questo risolve SEMPRE. Io non vedo pubblicità da anni, nemmeno i video pubblicitari su youtube. Impostatelo TOGLIENDO la spunta su "Permetti alcune pubblicità non inopportune" e non avrete piu problemi.

Per quanto riguarda la 980, io che sono di preferenza AMD e che ho 2 290x, posso solo dire una cosa: F A N T A S T I C A.

massimo79m
21-09-2014, 13:13
https://adblockplus.org/

grazie per l'info, l'ho installato.
io pero' avrei voluto avere un modus vivendi con le pubblicita', visto che hwupgrade e altri ci campano, pero' non essere schiacciato.

Italia 1
21-09-2014, 14:51
Tranquillo che campano tutti senza problemi; e' pure normale che quando si esagera si prendano le decisioni piu dure. Prima di adblock le pubblicità erano diventate decisamente troppo invasive, banner dappertutto, clicca qui, clicca di là... avevo smesso di navigare o comunque cercavo siti puliti.

aleyx
21-09-2014, 18:44
Mancano le GTX 770 nella lista.... come mai? :confused:

Si, ho notato..
Comunque in uno dei miei computer la Gtx 770 realizza 1250 punti..:)

CrapaDiLegno
21-09-2014, 22:35
madonna ma sempre sta storia? cioe' da quando accade che una scheda esce 3-4 mesi prima della concorrente? una volta nvidia, una volta amd, stavolta tocca ad nvidia, che per carita' ha fatto una signora scheda, ma per quanto sia notevole dal punto di vista dei consumi, va cmq in media un venti per cento in piu' della r9 290x -un livello di prestazioni assolutamente alla portata di amd- e siccome si parla di schede top di gamma i consumi si contano ma mooolto dopo le prestazioni ed il prezzo, senza contare che il problemi principali di calore delle amd furono in relazione al pessimo dissipatore stock che avevano le r9 290-290x all'uscita...che praticamente e fortunatamente risulta estinto ad oggi ^^

Il motivo per cui amd ha uan scheda completa rispetto ad nvidia e' che semplicemente e' in grado di farlo, punto.
SE ci pensi bene con una top di gamma, hai prestazioni (all'epoca superiori alla concorrenza e a quelle ladrate come titan et simila), memoria vram in piu', pacchetto giochi never settle, potenza gpgpu molto buona e in alcuni casi terrificante rispetto alla concorrenza che costando di piu' andava spesso meno della meta', e prezzo piu' basso....si i consumi erano piu' alti -a prescindere dal calore o rumore del dissi standard e solo quello per fortuna- ma come dire, chissenefrega? se spendi 500 e passa euro e poi ti preoccupi di 20 euro all'anno di corrente ignorando quello che ho scritto sopra, forse sei un po' fuorviato dal reparto marketing...

Considera che pagando in media una scheda nvidia 50 o 70 euro in piu' -adesso sicuramente non quando e' uscita la r9 290\x- in realta' hai gia' dato soldi per la differenza in bolletta anche per tipo 3 anni di gioco forsennato :°°°°D..

Quando era nvidia che faceva mostri sul gpgpu e che scaldavano era ok, ora che li fa amd, ma che costano molto di meno, vanno di piu' anche in proporzione nel calcolo general purpose, ti ci mettono i giochi, piu' memoria ecc, non va bene perche' nvidia dice che e' meglio avere consumi piu' bassi ma intanto si fa pagare le titan 1000 euro o 800 ANDANDO MENO IN TUTTO, e 50-70 euro le sue gtx andando meno ugualmente e con un offerta giochi ridicola, ma per favore :rolleyes:

Cos'e' adesso e' meglio avere meno pagando di piu'??? :°°D per 70 watt di differenza che con un uso forsennato sono si e no 20-25 euro l'anno di corrente e con i nuovi dissipatori, manco il calore e il rumore e' piu' un problema?

Senza contare, come diceva tuttodigitale, che queste nuove nei calcoli paralleli curiosamente consumano molto, ma molto di piu' che in game, arrivando alle soglie delle 290 ma STRANAMENTE nvidia dichiara solo 180 watt di tdp -per carita' diverso il tdp dalla corrente assorbita, pero' come dire potrebbe risultare un po' fuor viante..-

Che queste siano buone schede e' ok, ma ricordiamoci che sono un architettura nuova e pur consumando meno, alla fine a livello prestazionale sono ESTREMAMENTE raggiungibili o superabili, persino da un aggiornamento delle r9 290 -senza contare che a risoluzione alte il divario anche in questo caso si riduce e in molti casi diventa quasi nullo-..

Io dico che il vero colpo di nvidia non e' in queste due schede che vanno un'inezia di piu' della precedente generazione, ma nella fascia media quando verranno presentate le 960 ecc, li si che i consumi faranno la parte del leone ma sicuramente non in una fascia come quella della 980 che e' appunto, ad oggi, la top di gamma e costa sui 550 e passa euro.

Puoi andare di piu' e' ci sta, ma fidati che i consumi glieli hai pagati in anticipo e in contanti per almeno 3 anni al momento dell'acquisto :°°°D..
:mc: :mc: :mc: :mc:

Qualche numero:
GPU: die size - prestazioni - consumi
Hawaii: 438mm^2 - 100 - 150%
GM204: 400mm^2 - 115 - 100%
Tonga: 366mm^2 - 65% - 100% (* misure non precise)

Questo significa in parole povere che AMD con le sue ultime 2 soluzioni riesce (quasi) a pareggiare le prestazioni usando molta più corrente o a consumare uguale avendo molte meno prestazioni.
Stiamo parlando sopratutto di Tonga, uscito l'altro ieri con die simile o comunque della stessa fascia di questo GM204 e con le prestazioni (e consumi) che tutti abbiamo visto.
Qualcuno crede che AMD dopo aver rilasciato Tonga (che è il rimpiazzo low cost di Tahiti con tutte le ottimizzazioni finora elaborate su GCN) sta ancora lavorando ad un'altra GPU di dimensioni simili sempre a 28nm da rilasciare in 3-4 o anche 6 mesi? Il tempo delle fiabe dovrebbe essere finito se scrivete su questo forum... a Babbo Natale non dovreste più credere, spero.
La risposta di AMD sarà, a quanto sembra, un chippozzo enorme per pareggiare o addirittura superare le prestazioni di nvidia. Non sappiamo se sarà un chippozzo full featured (capace di grandi numeri DP ) o una versione "game only".
In entrambi i casi il chippozzo, visti anche le preview dei modelli di dissipatori che sono circolati, consumerà un botto.
D'altronde l'architettura AMD è quella. Se con l'ultima revisione (Tonga) i risultati sono stati quelli, che non migliorano di molto lo svantaggio di AMD rispetto a nvidia, per una GPU veramente concorrenziale anche dal punto di vista consumi serve un doppio miracolo.
Se volete aspettate la risposta di AMD, ma io non tratterei il fiato Né vi porrei troppe speranze. La delusione potrebbe essere enorme. Ma potrei sbagliarmi, ovviamente, e AMD potrebbe estrarre tra qualche mese una nuova GPU da 400mm^2, quindi il 10% più piccolo di Hawaii, con il 15% in più delle sue prestazioni e consumi quasi dimezzati per arrivare là dove oggi arriva il GM204.

Per quanto riguarda la questione prezzi (ladrati) delle Titan vs Tahiti o Hawaii qualcuno non ha capito una ciolla di cosa fossero le Titan ai tempi e peggio ancora non lo ha ancora compreso o fa finta di non sapere o vedere: le Titan non sono schede per il videogiocatore. Punto. Se poi uno spende un botto in queste schede per avere 2fps in più e poi piange i santi perché poi escono schede più veloci a prezzi inferiori, beh, si chiama selezione naturale. Grazie per sovvenzionare queste aziende che poi usano i vostri soldi per produrre quello che serve a me a prezzi inferiori. Non spendo una parola di più a convincervi che non sia vero. Andrei contro i miei stessi interessi.

Ma la storia del prezzo ha un po' rotto i maroni. Inutile continuare a dire che AMD fa prodotti concorrenziali. La risposta reale, quello che indicano i numeri non la fantasia, speranza, volontà propria, è che alla fine dell'anno nvinda fa un fatturato che la divisione grafica (oggi mischiata con altre nuove divisioni giusto per sporcare di molto l'acqua e non far vedere esattamente quanto costa questa politica suicida che AMD perpetua da anni) non ha mai visto neanche ai tempi di ATI. Per guadagni intendo i ricavi netti che nvidia intasca, non il fatturato (che è tanto quanto AMD riesce a fare con tute le sue divisioni messe insieme).
E' per via delle prestazioni dei suoi prodotti che AMD deve svendere le sue GPU più grandi di quelle nvidia per pareggiare le prestazioni. E poi neghiamo il fatto che fino a Fermi GPU di dimensioni simili erano vendute a 150 euro o poco più (GF460/GF560) e ora con il "glorioso, efficiente e di successo" GCN a competere tali GPU sono balzate oltre ai prezzi delle vecchie enthusiast.
Se AMD non si dà una sveglia mi sa che queste nuove GPU di nvidia batteranno il rapporto di euro per mm^2.
Con grande piacere di noi consumatori. Ma la colpa è della cattiva nvidia, già, è lei la tiranna del mercato. Non il fatto che la concorrenza negli ultimi anni non esiste (pur sfornando per qualcuno "prodotti di successo").
Lo dissi nel Marzo 2012 alla presentazione del GK104 che la concorrenza sarebbe stata nulla per i due anni successivi (con prezzi fuori da ogni immaginazione) e così è stato. Anzi persino oltre le mie più oscure previsioni. Alle Titan proprio non ci pensavo, ma nvidia è riuscita a farle e venderle.
Lo dico ancora ora. Se la futura mattonella di AMD avrà la stessa efficienza dell'architettura di Tahiti o Tonga (o peggio quella di Hawaii) un nuovo periodo di monopolio nvidia si aprirà fino all'arrivo dei 16nm, dove nuove incognite potrebbero scombussolare i risultati (è noto che nvidia con i PP nuovi spesso non ci azzecchi, ma se lo fa, ciao ciao AMD!).

demon77
21-09-2014, 23:16
Una cosa che da anni voglio organizzare, e poi mannaggia al tempo e alle troppe cose da fare posticipo sempre, è "una giornata di redazione" aperta ad un gruppo di 10-12 utenti.
Vediamo se questo thread è lo stimolo giusto per organizzare finalmente questa cosa

No vabbeh.. come 10-12 utenti? Eccheccacchio siamo metà di mille! Oltretutto in buona percentuale siamo pure residenti non lontano dalla redazione!

Visto che Luino è pure un posto piuttosto bello... con la prossima bella stagione non è che si può organizzare col supporto del Comune una bella sagra con birra e salsiccia??? :D :D :D
Facciamo un bel mega nerd-party con tutta la redazione!! :read: :read:

pff
22-09-2014, 06:30
le Titan era Nvidia che lo diceva per i gamers mica noi :mbe:
poi parli tanto di prestazioni ma questa volta la 980 eguaglia la 780ti quindi dov'è il problema? se guardi molto ai consumi di certo non prendi il top di gamma che da sempre sono quelle che consumano tanto. poi parli tanto che AMD svende, ma non mi pare che con la 5870 ci sia stato chissa che cambiamento con i pressi passati o sbaglio? eppure all'uscita e anche dopo bastonava di brutto Nvidia, e sopratutto proveniva da un periodo di gpu motlto affamate di watt, la seria 48xx, quindi di cambiamenti grossi ce ne possono essere ancora. e mi pare pure che scordi la seria nvidia gtx 4xx, di quella non ne parli? e li sarebbe davvero da vergognarsi visti i compromessi raggiunti. dai dillo, un po fan di nvidia lo sei :p cut.

Littlesnitch
22-09-2014, 08:25
le Titan era Nvidia che lo diceva per i gamers mica noi :mbe:
poi parli tanto di prestazioni ma questa volta la 980 eguaglia la 780ti quindi dov'è il problema? se guardi molto ai consumi di certo non prendi il top di gamma che da sempre sono quelle che consumano tanto. poi parli tanto che AMD svende, ma non mi pare che con la 5870 ci sia stato chissa che cambiamento con i pressi passati o sbaglio? eppure all'uscita e anche dopo bastonava di brutto Nvidia, e sopratutto proveniva da un periodo di gpu motlto affamate di watt, la seria 48xx, quindi di cambiamenti grossi ce ne possono essere ancora. e mi pare pure che scordi la seria nvidia gtx 4xx, di quella non ne parli? e li sarebbe davvero da vergognarsi visti i compromessi raggiunti. dai dillo, un po fan di nvidia lo sei :p

Don't feed....

gd350turbo
22-09-2014, 08:45
...In entrambi i casi il chippozzo, visti anche le preview dei modelli di dissipatori che sono circolati, consumerà un botto...

E sarà perdente in partenza...

Basta avere un pò di conoscenze di elettrotecnica generica e non solo di informatica per capire che il dato più importante è appunto il consumo !

Un chip che consuma poco, permette di avere un sistema di dimensioni più compatte, permette un minore uso di sistemi di raffreddamento con conseguente minore emissione di rumore e di calore, e consente l'uso di sezioni di alimentazione di dimensioni ridotte, inoltre un chip che funziona a 60° avrà a parità di condizioni, una vita sicuramente più lunga di uno che funziona a 90° ed una maggiore overcloccabilità / stabilità / affidabilità !

E sto tralasciando, volutamente, in quanto sicuramente non di interesse al gamer medio, l'aspetto ecologico di un chip a basso consumo !

Nvidia e Intel, lo hanno capito e stanno portando i loro prodotti su questa linea, amd, ancora non ci è arrivata !

Littlesnitch
22-09-2014, 09:05
E sarà perdente in partenza...

Basta avere un pò di conoscenze di elettrotecnica generica e non solo di informatica per capire che il dato più importante è appunto il consumo !

Un chip che consuma poco, permette di avere un sistema di dimensioni più compatte, permette un minore uso di sistemi di raffreddamento con conseguente minore emissione di rumore e di calore, e consente l'uso di sezioni di alimentazione di dimensioni ridotte, inoltre un chip che funziona a 60° avrà a parità di condizioni, una vita sicuramente più lunga di uno che funziona a 90° ed una maggiore overcloccabilità / stabilità / affidabilità !

E sto tralasciando, volutamente, in quanto sicuramente non di interesse al gamer medio, l'aspetto ecologico di un chip a basso consumo !

Nvidia e Intel, lo hanno capito e stanno portando i loro prodotti su questa linea, amd, ancora non ci è arrivata !

Io capisco il campanilismo, ma certe cose non si possono sentire.
Hawaii con dissipatore custom uguale a quello del GK110 scalda uguale e consuma lo stesso andando grosso modo come il GK110. Quindi da dove saltano fuori certe teorie?
In OC i risultati di GK110 e Hawaii sono anche qui simili.
E a meno che tu non faccia parte della board AMD non sai cosa hanno in progetto esattamente come tutti noi.
HD5870 docet.
Quindi aspetterei a fare proclami del genere.
Poi che tu comprerai nVidia indipendentemente da cosa presenterà AMD è cosa nota, ma scredita la tua obiettività.

gd350turbo
22-09-2014, 09:21
Io capisco il campanilismo, ma certe cose non si possono sentire.
Hawaii con dissipatore custom uguale a quello del GK110 scalda uguale e consuma lo stesso andando grosso modo come il GK110. Quindi da dove saltano fuori certe teorie?
In OC i risultati di GK110 e Hawaii sono anche qui simili.
E a meno che tu non faccia parte della board AMD non sai cosa hanno in progetto esattamente come tutti noi.
HD5870 docet.
Quindi aspetterei a fare proclami del genere.
Poi che tu comprerai nVidia indipendentemente da cosa presenterà AMD è cosa nota, ma scredita la tua obiettività.

Non è ne campanilismo, ne fanboysmo, ne altro...

E non centrano dissipatori custom o altro, curve ventole aggressive o tranquille !

Cosa farà amd in futuro, non ne ho la più pallida idea, ma osservando i prodotti attuali, non pare molto interessata al primo posto in fatto di consumo, e ti assicuro che tra due chip di pari potenza computazionale, quello con il minore consumo è vincente in partenza... E' fisica !

Amd sarà in grado di produrre un chip che andrà più forte del gm110 ?
e nel contempo consumerà meno e costerà meno ?
Allora sarà sicuramente mio !

AceGranger
22-09-2014, 09:23
le Titan era Nvidia che lo diceva per i gamers mica noi :mbe:


Ma anche no; lo si sente sempre e solo dire da gente che una GPU l'ha sempre usata per giocare e nulla di piu.... nVidia ha pubblicizzato le Titan anche per il mercato Professionale / R&D.
Questa è una slide ufficiale mostrata alla conferenza durante il lancio della Titan Z.

http://semiaccurate.com/assets/uploads/2014/05/nvidia-geforce-gtx-titan-z-the-ultimate-cuda-development-platform.png


mi sembra abbastanza chiarificatrice.

pff
22-09-2014, 09:59
Ma anche no; lo si sente sempre e solo dire da gente che una GPU l'ha sempre usata per giocare e nulla di piu.... nVidia ha pubblicizzato le Titan anche per il mercato Professionale / R&D.
Questa è una slide ufficiale mostrata alla conferenza durante il lancio della Titan Z.

mi sembra abbastanza chiarificatrice.

hai detto bene, ANCHE, ti linko due cose:
http://www.nvidia.com/gtx-700-graphics-cards/gtx-titan-black/
il primo paragrafo dice: THE NEXT EVOLUTION
Introducing GeForce® GTX™ TITAN Black.
TITAN Black is a masterpiece of design and engineering. Evolved from the award-winning GTX TITAN, the Black edition gives you the added horsepower to drive your most graphics-intensive games while still maintaining whisper-quiet acoustics and cool thermals.
http://www.nvidia.com/gtx-700-graphics-cards/gtx-titan-z/
e qui per la seconda schedozza: ULTIMATE POWER. THE NEW GEFORCE® GTX™ TITAN Z.
GeForce® GTX™ TITAN Z is a gaming monster, the fastest card we’ve ever built to power the most extreme PC gaming rigs on the planet. Stacked with 5760 cores and 12 GB of memory, this dual GPU gives you the power to drive even the most insane multi-monitor displays and 4K hyper PC machines

di cosa parliamo? del fatto che anche una fiat punto è utile all'industria aeronautica per far arrivare l'ingegnere sul posto di lavoro? dai su va

gd350turbo
22-09-2014, 10:05
...GeForce® GTX™ TITAN Z is a gaming monster, the fastest card we’ve ever built to power the most extreme PC gaming rigs on the planet. Stacked with 5760 cores and 12 GB of memory, this dual GPU gives you the power to drive even the most insane multi-monitor displays and 4K hyper PC machines...


Cosa cè di strano ?

Buttano un amo nel lago dei gamer inscimmiati duri, per vedere se riescono a pescarne qualcuno !

Se qualcuno ha 3000$ da spendere per una scheda video, loro lo pescano, chiamali stupidi !

AceGranger
22-09-2014, 10:18
hai detto bene, ANCHE

lo so, ho detto bene; è una GPU che tiene il piede in 2 scarpe, è una GPU sia da gaming e sia da lavoro, il dire che è solo una GPU da gaming non è corretto.

HEYDOL
22-09-2014, 10:26
Mm quanto mi garba la gtx 970 Jetstream di Palit aspetto 2 mesetti che si assestino i prezzi poi un bel thandem 970 - i7 5820K ci tiro avanti fino alla fine dei giorni considerando l'avanzamento grafico negli ultimi anni ..

pff
22-09-2014, 11:10
lo so, ho detto bene; è una GPU che tiene il piede in 2 scarpe, è una GPU sia da gaming e sia da lavoro, il dire che è solo una GPU da gaming non è corretto.

Certamente hai ragione se non fosse che lo hai detto tu. anche le amd si possono usare in molti altri campi ma non per questo vuol dire che sono professionali. se metto 2 titan black in sli mi ci riscaldo d'inverno ma non vedo come possa cambiare la sua natura per cui è stata creata, il gaming.

CrapaDiLegno
22-09-2014, 11:17
hai detto bene, ANCHE, ti linko due cose:
http://www.nvidia.com/gtx-700-graphics-cards/gtx-titan-black/
il primo paragrafo dice: THE NEXT EVOLUTION
Introducing GeForce® GTX™ TITAN Black.
TITAN Black is a masterpiece of design and engineering. Evolved from the award-winning GTX TITAN, the Black edition gives you the added horsepower to drive your most graphics-intensive games while still maintaining whisper-quiet acoustics and cool thermals.
http://www.nvidia.com/gtx-700-graphics-cards/gtx-titan-z/
e qui per la seconda schedozza: ULTIMATE POWER. THE NEW GEFORCE® GTX™ TITAN Z.
GeForce® GTX™ TITAN Z is a gaming monster, the fastest card we’ve ever built to power the most extreme PC gaming rigs on the planet. Stacked with 5760 cores and 12 GB of memory, this dual GPU gives you the power to drive even the most insane multi-monitor displays and 4K hyper PC machines

di cosa parliamo? del fatto che anche una fiat punto è utile all'industria aeronautica per far arrivare l'ingegnere sul posto di lavoro? dai su va

Stiamo parlando del fatto che nvidia fa il suo lavoro di marketing molto bene perché ci sono gli allocchi che ci cascano.
Quando sono uscite le Titan erano il top ma era evidente che il loro costo non era giustificato dalle prestazioni nei giochi. DP e RAM erano il motivo e non erano indirizzati ai giocatori. Infatti l'incetta più rande è stata fatta da chi con queste schede fa rendering video.

Una scheda con capacità DP completamente sbloccata e 12GB di RAM mi spieghi a che serve a chi gioca a BF4, fosse anche a 5800x1440?
Le Titan sono schede pensate per tutt'altro. Infatti per i giocatori è poi uscita la 780Ti che va di più e costa meno. Ma non ha 12GB di RAM né le funzionalità DP sbloccate.
Il tuo neurone non si è posto la domanda "ma perché"?

Per la questione GF100 nessuno nega che era una pippa di efficienza. L'ho detto che nvidia ogni tanto con i nuovi PP non ci azzecca (ma leggete sempre e solo quello che volete? Chi è il fanboy?)
Progetto nato male per problemi di fabbricazione. Non di architettura. Infatti 6 mesi dopo hanno recuperato con il GF110 che architetturalmente è lo stesso ma che consumava molto meno. Il GF104 (montato sulle GTX460) non aveva alcun problema di consumi così elevati e una sua raffinazione l'ha portato ad essere ancora migliore (GTX560). Ma il problema lì era il processo produttivo nuovo che nvidia no ha saputo sfruttare al primo giro.
Rimane il fatto è che per sistemare il la prima serie GF1xx nvidia ha speso un botto mettendoci relativamente poco (6 mesi se si guarda le date di lancio delle schede ma probabilmente un anno di sviluppo partito subito dopo che avevano già visto che l'efficienza (e molto probabilmente le rese) del GF100 non erano quelli sperati).
AMD non credo abbia intenzione (o la capacità) di spendere quanto fece nvidia per presentarsi con qualcosa di rinnovato in così poco tempo.
I fatti ci mostrano che Tonga è la nuova revisione di GCN e vediamo tutti che efficienza ha. Il futuro chippone probabilmente sarà basata sulla stessa revisione. Non è che si fa (più) una revisione o architettura ogni 6 mesi. I costi e/o tempi sono ben diversi rispetto ai primi anni 2000.

IL dubbio quindi che fino ai 16nm, dove bisogna rivedere tutto e c'è la possibilità di fare profondi cambiamenti da parte di AMD che finora ha solo raffinato GCN, non l'ha cambiato quanto nvidia ha cambiato Kepler rispetto a Fermi o Maxwell rispetto a Kepler, non ci sarà alcun "miracolo" che porti AMD all'efficienza di Maxwell. E gli indizi sui dissipatori futuri un po' supportano questa ipotesi.
Credere e sperare non costa nulla, ma collegarsi ogni tanto alla realtà potrebbe essere utile.

tuttodigitale
22-09-2014, 11:19
:mc: :mc: :mc: :mc:

Qualche numero:
GPU: die size - prestazioni - consumi
Hawaii: 438mm^2 - 100 - 150%
GM204: 400mm^2 - 115 - 100%
Tonga: 366mm^2 - 65% - 100% (* misure non precise)

Tonga misura 359mmq vs 365mmq di Tahiti (dati forniti da AMD), 5 miliardi di transistor contro 4,2. E'chiaro che la gpu Tonga non è al suo massimo nelle schede proposte oggi da AMD.
Detto questo come si fai a paragonare il die size di Tonga e le sue prestazioni quando si sa che la versione attualmente in commercio è castrata, e probabilmente ha ancora il bus da 384fili come tahiti originale?


Questo significa in parole povere che AMD con le sue ultime 2 soluzioni riesce (quasi) a pareggiare le prestazioni usando molta più corrente o a consumare uguale avendo molte meno prestazioni.
Stiamo parlando sopratutto di Tonga, uscito l'altro ieri con die simile o comunque della stessa fascia di questo GM204 e con le prestazioni (e consumi) che tutti abbiamo visto.
scusami ma su questo ho qualche dubbio...
gm104 è più grande del 11% (15% se prendiamo quello che ha misurato effettivamente techreport), e Tonga è abilitato, e 2048sp sono il 14% in più di 1792, e siamo a +27% (o + 32%) per la superficie utile per infilare gli shader.
Ma attenzione! tonga nelle r9 285 dovrebbe avere due memory controller da 64bit disabilitati, quindi la superficie utile sarebbe persino inferiore.
E non tiriamo in ballo che i confronti vanno fatti a parità di bus..le memorie a 7GHz della gtx sono il meglio della produzione e da sole garantiscono un aumento della bandwidth quasi del 30% in confronto alle soluzioni mainstream adottate da AMD.
Tonga in definitiva è la soluzione più raffinata che AMD ha da offrire. E' sufficiente? Direi di no, ma non sappiamo quanto un aumento della bandwidth reale che potrebbe arrivare al 90%, insieme all'aumento della potenza computazionale del 25-35% si tradurranno in termini di frame.

Ho il vago sospetto che Tonga XT renderà hawaii un inutile doppione. Ricordiamoci che hawaii non è altro che un chip Bonaire cresciuto di dimensioni, nulla di più. Se come dici le prestazione dell'attuale soluzione Tonga sono pari al 65% di quello di Hawaii XT, un ipotetico +40% porterebbe schede basate su Tonga a competere con le r9 290...
Quindi grossomodo già oggi AMD può pareggiare le prestazioni per mmq di kepler, il problema, che poi è la vera novità delle gtx 900 sono i consumi.
nvidia ha trovato il modo di ridurli in maniera efficace durante le sessioni di giochi, ma non siamo certo a livello 165W vs 300W come sembrano dipingere le slide, ma più ad un 225W vs 300W (che rimane un bella differenza) e solo in gaming.
nel compute consuma 300W, quanto le hawaii, alla faccia del TDP di 165W, andando abbondantemente e pericolosamente fuori specifica, vista la presenza di 2 connettori a 6 pin.

E' praticamente certo che entro 3-4 mesi (ti è sfuggito il fatto che Hawaii è uscito 10 mesi fa), AMD farà un nuovo chip di fascia alta, e non è detto:
1) che sia a 28nm
2) enorme. Lo spazio per gli sp potrebbe recuperarlo grazie alla riduzione dei memory controller da 8 a 6. Fermo restando che i 438mmq sono cosa assai differente dai 561mmq di Gk110

tuttodigitale
22-09-2014, 12:10
Stiamo parlando del fatto che nvidia fa il suo lavoro di marketing molto bene perché ci sono gli allocchi che ci cascano.
Quando sono uscite le Titan erano il top ma era evidente che il loro costo non era giustificato dalle prestazioni nei giochi. DP e RAM erano il motivo e non erano indirizzati ai giocatori. Infatti l'incetta più rande è stata fatta da chi con queste schede fa rendering video.

Una scheda con capacità DP completamente sbloccata e 12GB di RAM mi spieghi a che serve a chi gioca a BF4, fosse anche a 5800x1440?
Le Titan sono schede pensate per tutt'altro. Infatti per i giocatori è poi uscita la 780Ti che va di più e costa meno. Ma non ha 12GB di RAM né le funzionalità DP sbloccate.
Il tuo neurone non si è posto la domanda "ma perché"?

Ancora con questa stronzat@ delle prestazioni in doppia precisione.
La doppia precisione serve per sua natura a operazioni mission critical, cosa che vedrei abbastanza azzardato fare con un sistema casalingo.
Il fatto che tu ci sia cascato significa che il marketing nvidia ha fatto il suo lavoro.
La titan ha avuto un buon successo perchè dopo 15-16 mesi dal debutto della hd7970 si è visto qualcosa di significativamente più veloce, certamente non pareggiabile con un semplice overclock.
Solo dopo 3 mesi è uscita l'alternativa e comunque la Titan aveva il 17% di sp in più, che si traducono in prestazioni proporzionalmente più elevati, anche in overclock. E comunque la gtx780 costava comunque tanto e a certe cifre non sono certo 250-300 euro a fermare l'acquisto, chi magari per il resto del PC ne aveva speso più di 2000. Se ci pensi erano 350 gli euro che separavano il costo della gtx 780 e la hd7970 ghz, e la differenza di prestazioni era risibile, meno di una Titan di pari clock.
Quindi la scelta intelligente era la gtx770, 7970GHz o passare direttamente a Titan. imho.

Sulle dimensioni della ram, c'è gente che valuta una vga in base al quantitativo di vram presente. Quindi è innanzitutto una astuta mossa di marketing.
O vuoi un banalissimo esempio come le r7 240 con 2gb di vram

pff
22-09-2014, 12:24
La titan ha avuto un buon successo perchè dopo 15-16 mesi dal debutto della hd7970 si è visto qualcosa di significativamente più veloce, certamente non pareggiabile con un semplice overclock.

:ave: :ave:

Free Gordon
22-09-2014, 13:30
Ho trovato interessante questo post:

http://forum.beyond3d.com/showpost.php?p=1875488&postcount=2263

Così è già più comprensibile il divario di consumi che ha settato Maxwell...

Se si parla di 1 e 7%, sullo stesso silicio, si può parlare di ottimizzazione/evoluzione, da come appare nel gaming invece sembrerebbe più "rivoluzione" :D

Probabilmente, tutte e due le architetture (sia AMD che Nvidia, anche se la prima è ancora più spinta nella direzione del computing), hanno grosse richieste energetiche quando vanno a far fungere tutti i circuiti...

Nvidia pare che con questo Maxwell abbia trovato il modo di far funzionare solo ciò che serve, quando serve. Ottimo!

Ora tutto mi pare un pò più chiaro, però. :)

AceGranger
22-09-2014, 14:43
Certamente hai ragione se non fosse che lo hai detto tu. anche le amd si possono usare in molti altri campi ma non per questo vuol dire che sono professionali. se metto 2 titan black in sli mi ci riscaldo d'inverno ma non vedo come possa cambiare la sua natura per cui è stata creata, il gaming.

le AMD sono anchesse castrate dei calcoli DP come tutte le GTX sotto le Titan.

Comunque dipende dal software; Nel GPGPU dove non sono richiesti driver particolari sono professionali tanto quanto le Quadro/Tesla; ci sono software house che implementano CUDA che certificano le GTX al pari delle Quadro/Tesla.


non so se è piu marketing quello fatto sulle Titan o l'alone di misticismo creatosi attorno alle Quadro :asd:

pff
22-09-2014, 14:52
non so se è piu marketing quello fatto sulle Titan o l'alone di misticismo creatosi attorno alle Quadro :asd:

il martketing :O chi ne fa troppo:read: e chi ne fa troppo poco :doh:

Littlesnitch
22-09-2014, 14:54
Ho trovato interessante questo post:

http://forum.beyond3d.com/showpost.php?p=1875488&postcount=2263

Così è già più comprensibile il divario di consumi che ha settato Maxwell...

Se si parla di 1 e 7%, sullo stesso silicio, si può parlare di ottimizzazione/evoluzione, da come appare nel gaming invece sembrerebbe più "rivoluzione" :D

Probabilmente, tutte e due le architetture (sia AMD che Nvidia, anche se la prima è ancora più spinta nella direzione del computing), hanno grosse richieste energetiche quando vanno a far fungere tutti i circuiti...

Nvidia pare che con questo Maxwell abbia trovato il modo di far funzionare solo ciò che serve, quando serve. Ottimo!

Ora tutto mi pare un pò più chiaro, però. :)

Beh se ci sono riusciti è un merito che gli va riconosciuto! Certamente visto i ritardo del PP era l'unica cosa su cui potevano spingere. E hanno lavorato benissimo!

CrapaDiLegno
22-09-2014, 15:10
Tonga misura 359mmq vs 365mmq di Tahiti (dati forniti da AMD), 5 miliardi di transistor contro 4,2. E'chiaro che la gpu Tonga non è al suo massimo nelle schede proposte oggi da AMD.
Detto questo come si fai a paragonare il die size di Tonga e le sue prestazioni quando si sa che la versione attualmente in commercio è castrata, e probabilmente ha ancora il bus da 384fili come tahiti originale?


scusami ma su questo ho qualche dubbio...
GM204 è più grande del 11% (15% se prendiamo quello che ha misurato effettivamente techreport), e Tonga è abilitato, e 2048sp sono il 14% in più di 1792, e siamo a +27% (o + 32%) per la superficie utile per infilare gli shader.
Ma attenzione! tonga nelle r9 285 dovrebbe avere due memory controller da 64bit disabilitati, quindi la superficie utile sarebbe persino inferiore.
E non tiriamo in ballo che i confronti vanno fatti a parità di bus..le memorie a 7GHz della gtx sono il meglio della produzione e da sole garantiscono un aumento della bandwidth quasi del 30% in confronto alle soluzioni mainstream adottate da AMD.
Tonga in definitiva è la soluzione più raffinata che AMD ha da offrire. E' sufficiente? Direi di no, ma non sappiamo quanto un aumento della bandwidth reale che potrebbe arrivare al 90%, insieme all'aumento della potenza computazionale del 25-35% si tradurranno in termini di frame.

Ho il vago sospetto che Tonga XT renderà hawaii un inutile doppione. Ricordiamoci che hawaii non è altro che un chip Bonaire cresciuto di dimensioni, nulla di più. Se come dici le prestazione dell'attuale soluzione Tonga sono pari al 65% di quello di Hawaii XT, un ipotetico +40% porterebbe schede basate su Tonga a competere con le r9 290...
Quindi grossomodo già oggi AMD può pareggiare le prestazioni per mmq di kepler, il problema, che poi è la vera novità delle gtx 900 sono i consumi.
nvidia ha trovato il modo di ridurli in maniera efficace durante le sessioni di giochi, ma non siamo certo a livello 165W vs 300W come sembrano dipingere le slide, ma più ad un 225W vs 300W (che rimane un bella differenza) e solo in gaming.
nel compute consuma 300W, quanto le hawaii, alla faccia del TDP di 165W, andando abbondantemente e pericolosamente fuori specifica, vista la presenza di 2 connettori a 6 pin.

E' praticamente certo che entro 3-4 mesi (ti è sfuggito il fatto che Hawaii è uscito 10 mesi fa), AMD farà un nuovo chip di fascia alta, e non è detto:
1) che sia a 28nm
2) enorme. Lo spazio per gli sp potrebbe recuperarlo grazie alla riduzione dei memory controller da 8 a 6. Fermo restando che i 438mmq sono cosa assai differente dai 561mmq di Gk110

Farneticazione a parte stai supponendo che:
1. Tonga abbia un bus a 384bit (possibile ma ancora da verificare)
2. La futura mattonella di AMD sia realizzata con un processo non ancora disponibile

Nel primo caso conta poco. Tonga (quello castrato) oggi consuma quanto Tahiti avendo le stesse prestazioni. Se fosse anche vero che ha altre risorse sbloccabili significa che andrebbe di più ma consumerebbe anche di più. L'efficienza è quella e quella rimane (se non peggiorare perché i circuiti attivi in più consumano anche se non li usi al 100%).

Io i confronti non li faccio a parità di nulla se non di presunto costo all'origine del chip, quindi per mm^2. Che poi abbia 512bit o 128, vada a mille gigahertz contro uno gnomo che corre, abbia settordicimila shader/TMU/ROps vs 2 minions che si scambiano i foglietti di carta non mi importa. I consumi sono secondari ma danno grandi indicazioni: quanto è "tirata" l'architettura (o la capacità progettuale) e soprattutto indicano come e se vi saranno dual GPU o come si posizioneranno nel mercato mobile. E ricordiamoci che costi di corrente a parte (che tutti qui dicono essere trascurabili) avere un elicottero (o due) in un case non fa piacere a molti.
Se una soluzione fa 100 e consuma 100 e la seconda fa 80 e consuma 120, vuol dire che la prima funziona meglio della seconda. E, parlando di "funziona meglio" in un determinato contesto, bisogna valutare che la nuova GPU nvidia si comporta meglio della GPU AMD anche ad alte risoluzioni, ovvero dove la banda conta di più e nvidia sulla carta ne ha di meno. Quindi neanche nel campo dove AMD avrebbe vantaggi questa primeggia.
Ovviamente non faccio la comparazione tra GM107 e Hawaii o tra Pitcairn e GK110 perché hanno costi (e destinazione d'uso) diversi.

Tonga è la nuova GPU presentata da AMD che ha lo stesso PP di GK104 e GM204 e dimensioni comparabili a questi. Deve fare meglio di questi in qualsiasi configurazione tu lo consideri. Metti anche che la versione con tutti gli shader attivi vada il 20% in più rispetto a quella castrata il GM204 sta ancora qualche chilometro avanti.

Recuperare lo spazio del memory controller per altri shader etc.. significa progettare una ulteriore nuova GPU, e come ho già detto prima, ho seri dubbi che AMD progetti ancora una quarta GPU nella stessa fascia di Tahiti, Hawaii e Tonga a 28nm. Se l'intenzione è soppiantare Tahiti e Hawaii, Tonga è la GPU che deve fare quello. Non ce ne sarà un'ennesima nella stessa fascia. Ci sarà probabilmente quella più grande per andare ad acchiappare e superare il GK110 (e il nuovo GM204). Da vedere sempre quanto sarà grande, costosa e quanto consumerà.

Da considerare il "chaos" di progettazioni fatte da AMD con questa generazione. Tante GPU rifatte (probabilmente per tagliare i costi di produzione insostenibili con i prezzi che si riducono sempre di più) e ancora non abbiamo finito. Nonostante questo l'efficienza di GCN è rimasta invariata tra una revisione e la successiva.
nvidia ne ha fatte 4 con Kepler coprendo tutte le fasce e quelle sono rimaste. E ora è già alla generazione successiva e con una efficienza molto maggiore rispetto alla precedente non sembra che necessiterà alcun rifacimento fino all'arrivo dei 16nm. Che è probabilmente una data distante da oggi. Con queste GPU AMD non ha molto da offrire se non il solito taglio di prezzi, perché se prima faceva fatica a stare dietro alle GPU nvidia (quantomeno faceva GPU più piccole con prestazioni simili, Hawaii vs GK110, i consumi e il rumore delle ventole come detto è a carico dell'utente, i mm^2 quadri invece di AMD) ora con il GM204 è in vera difficoltà e la guerra dei prezzi non è a suo favore, tanto che nvidia ha già cominciato con una "batostina" piazzando la GTX970 sotto il prezzo dell'ammiraglia AMD.

Ripeto ancora, bello sognare, ma se poi ci svegliamo non dobbiamo rimanere delusi o inventarci nuove pippe sul ma, se, perché, quando, forse, farà, domani farà, sarebbe, aspettiamo (all'infinito). Alla luce di quanto fatto da nvidia con questo GM204 l'ultima mossa valida per l'anno prossimo (quello dei 28nm) AMD la deve fare presto e senza sbagliare o dovrà svendere e parecchio con la speranza posticipata (nuovamente) ai 16nm. Speranza che deve vedere combinati i seguenti fatti:
1. architetttura GCN pesantemente rivista per renderla più efficiente
2. nvidia che sbaglia come con Fermi (e non ha soldi/intenzione di recuperare allo stesso modo)

Se funziona solo una delle 2 al più AMD è al pari di nvidia, il che vuol dire ancora un anno a guadagni zero per AMD e tanti soldi per nvidia.
I fatti, per conto mio sono questi. Il resto è solo legittima speranza di voi fanboy che state fantasticando da 180 commenti sul fatto che nel cilindro del mago ci sia un coniglio rosso.

gd350turbo
22-09-2014, 15:16
Farneticazione a parte stai supponendo che:
1. Tonga abbia un bus a 384bit (possibile ma ancora da verificare)
2. La futura mattonella di AMD sia realizzata con un processo non ancora disponibile

Nel primo caso conta poco. Tonga (quello castrato) oggi consuma quanto Tahiti avendo le stesse prestazioni. Se fosse anche vero che ha altre risorse sbloccabili significa che andrebbe di più ma consumerebbe anche di più. L'efficienza è quella e quella rimane (se non peggiorare perché i circuiti attivi in più consumano anche se non li usi al 100%).

Io i confronti non li faccio a parità di nulla se non di presunto costo all'origine del chip, quindi per mm^2. Che poi abbia 512bit o 128, vada a mille gigahertz contro uno gnomo che corre, abbia settordicimila shader/TMU/ROps vs 2 minions che si scambiano i foglietti di carta non mi importa. I consumi sono secondari ma danno grandi indicazioni: quanto è "tirata" l'architettura (o la capacità progettuale) e soprattutto indicano come e se vi saranno dual GPU o come si posizioneranno nel mercato mobile. E ricordiamoci che costi di corrente a parte (che tutti qui dicono essere trascurabili) avere un elicottero (o due) in un case non fa piacere a molti.
Se una soluzione fa 100 e consuma 100 e la seconda fa 80 e consuma 120, vuol dire che la prima funziona meglio della seconda. E, parlando di "funziona meglio" in un determinato contesto, bisogna valutare che la nuova GPU nvidia si comporta meglio della GPU AMD anche ad alte risoluzioni, ovvero dove la banda conta di più e nvidia sulla carta ne ha di meno. Quindi neanche nel campo dove AMD avrebbe vantaggi questa primeggia.
Ovviamente non faccio la comparazione tra GM107 e Hawaii o tra Pitcairn e GK110 perché hanno costi (e destinazione d'uso) diversi.

Tonga è la nuova GPU presentata da AMD che ha lo stesso PP di GK104 e GM204 e dimensioni comparabili a questi. Deve fare meglio di questi in qualsiasi configurazione tu lo consideri. Metti anche che la versione con tutti gli shader attivi vada il 20% in più rispetto a quella castrata il GM204 sta ancora qualche chilometro avanti.

Recuperare lo spazio del memory controller per altri shader etc.. significa progettare una ulteriore nuova GPU, e come ho già detto prima, ho seri dubbi che AMD progetti ancora una quarta GPU nella stessa fascia di Tahiti, Hawaii e Tonga a 28nm. Se l'intenzione è soppiantare Tahiti e Hawaii, Tonga è la GPU che deve fare quello. Non ce ne sarà un'ennesima nella stessa fascia. Ci sarà probabilmente quella più grande per andare ad acchiappare e superare il GK110 (e il nuovo GM204). Da vedere sempre quanto sarà grande, costosa e quanto consumerà.

Da considerare il "chaos" di progettazioni fatte da AMD con questa generazione. Tante GPU rifatte (probabilmente per tagliare i costi di produzione insostenibili con i prezzi che si riducono sempre di più) e ancora non abbiamo finito. Nonostante questo l'efficienza di GCN è rimasta invariata tra una revisione e la successiva.
nvidia ne ha fatte 4 con Kepler coprendo tutte le fasce e quelle sono rimaste. E ora è già alla generazione successiva e con una efficienza molto maggiore rispetto alla precedente non sembra che necessiterà alcun rifacimento fino all'arrivo dei 16nm. Che è probabilmente una data distante da oggi. Con queste GPU AMD non ha molto da offrire se non il solito taglio di prezzi, perché se prima faceva fatica a stare dietro alle GPU nvidia (quantomeno faceva GPU più piccole con prestazioni simili, Hawaii vs GK110, i consumi e il rumore delle ventole come detto è a carico dell'utente, i mm^2 quadri invece di AMD) ora con il GM204 è in vera difficoltà e la guerra dei prezzi non è a suo favore, tanto che nvidia ha già cominciato con una "batostina" piazzando la GTX970 sotto il prezzo dell'ammiraglia AMD.

Ripeto ancora, bello sognare, ma se poi ci svegliamo non dobbiamo rimanere delusi o inventarci nuove pippe sul ma, se, perché, quando, forse, farà, domani farà, sarebbe, aspettiamo (all'infinito). Alla luce di quanto fatto da nvidia con questo GM204 l'ultima mossa valida per l'anno prossimo (quello dei 28nm) AMD la deve fare presto e senza sbagliare o dovrà svendere e parecchio con la speranza posticipata (nuovamente) ai 16nm. Speranza che deve vedere combinati i seguenti fatti:
1. architetttura GCN pesantemente rivista per renderla più efficiente
2. nvidia che sbaglia come con Fermi (e non ha soldi/intenzione di recuperare allo stesso modo)

Se funziona solo una delle 2 al più AMD è al pari di nvidia, il che vuol dire ancora un anno a guadagni zero per AMD e tanti soldi per nvidia.
I fatti, per conto mio sono questi. Il resto è solo legittima speranza di voi fanboy che state fantasticando da 180 commenti sul fatto che nel cilindro del mago ci sia un coniglio rosso.

:ave: :ave: :ave: :ave: :ave:

pff
22-09-2014, 15:17
posso dire ora che non è così come sembra, nvidia è stata brava ad OTTIMIZZARE ma non ha fatto miracoli in altro. detto questo anche amd DEVE farlo

Littlesnitch
22-09-2014, 15:37
Come al solito thread in vacca a causa dei soliti funboy e che gli da spago.

gd350turbo
22-09-2014, 15:41
Non è per niente in vacca !

Si sta discutendo di una cosa, di cui non si hanno notizie certe, quindi ognuno posta le sue personali e altrettanto discutibili opinioni in merito...

Poi sarà il tempo e l'evolversi degli eventi, a stabilire chi aveva visto giusto e chi no !

CrapaDiLegno
22-09-2014, 15:43
Ancora con questa stronzat@ delle prestazioni in doppia precisione.
La doppia precisione serve per sua natura a operazioni mission critical, cosa che vedrei abbastanza azzardato fare con un sistema casalingo.
Il fatto che tu ci sia cascato significa che il marketing nvidia ha fatto il suo lavoro.
[...]


Allora facciamo il punto. I calcoli DP servono nel mercato casalingo o no?
Se no, mi chiedo perché:
1. si dice sempre che le GPU AMD sono migliori perché non sono "castrate" in DP e che la politica nvidia è una "ladrata"
2. perché mai AMD ha una tale capacità di calcolo DP su una GPU che vende solo nel mercato consumer (non c'è una sola Tahiti/Hawaii montata s un server HPC).
Se sì
1. perché facevano (prima del GM204) le barrette più lunghe in LuxMark
2. perché esistono le Quadro e le Tesla che hanno capacità DP che non sono vedute in "operazioni mission critical" (qualsiasi cosa tu intendessi con queste parole). Non tutte le Tesla finiscono in server HPC e le Quadro non sono neanche pensate per quello. Mission critical per me vuol dire risultato sicuro (non necessariamente super preciso) e per questo conta solo l'uso dell'ECC, non la precisione del risultato.
3. perché nvidia vende così tante GPU che sono castrate nei conti a 64-bit

I 64 bit hanno una utilità relativa pressocché dal valore nulle per gli utenti casalinghi che giocano. Infatti tutte le schede da gioco di nvidia sono vendute senza tale funzionalità o meglio, con funzionalità super ridotta). AMD c'è arrivata dopo ma alla fine anche lei ha tagliato le inutili capacità DP delle proprie GPU inferiori. Ma le schede professionali ce l'hanno.
E' chiaro che chi usa applicazioni che sfuttano i 64 bit, appena esce una scheda che non costa come una Quadro/Tesla si fionda a pesce ed è disposto a pagarla 1000 euro.
Non ti sei chiesto perché dopo il lancio delle 780Ti (non 780 lisce, le Ti) che andavano di più, le Titan non hanno subito un taglio di prezzo? Secondo te il mercato delle delle due schede è lo stesso? nvidia si è rimbambita è si è mangiata da sola il mercato delle schede da 1000 euro presentandone una che costava 350 euro in meno con prestazioni superiori (nei giochi)?

Dai, facciamo i seri.
Inutile che vi sbattete a fare convoluzioni mentali su cosa e come AMD si inventerà per uscire dal pozzo in cui è finita se non capite che le manovre di nvidia si estendono in mercati dove AMD non esiste (sìsì OpenCL, utile per creare barrette colorate).

Littlesnitch
22-09-2014, 15:45
Non è per niente in vacca !

Si sta discutendo di una cosa, di cui non si hanno notizie certe, quindi ognuno posta le sue personali e altrettanto discutibili opinioni in merito...

Poi sarà il tempo e l'evolversi degli eventi, a stabilire chi aveva visto giusto e chi no !

Beh se tu ti inchini di fronte alla propaganda e alle scemenze come quelle sopra....
Per dire secondo lui GM204 doveva avere sicuramente oltre 3000SP e andare 35% più veloce di GK110. Dopo l'ho messo in ignore e vedo solo se lo quotate.

CrapaDiLegno
22-09-2014, 15:49
posso dire ora che non è così come sembra, nvidia è stata brava ad OTTIMIZZARE ma non ha fatto miracoli in altro. detto questo anche amd DEVE farlo
Hai detto giusto.
Se quello fatto da nvidia non è un miracolo AMD deve farlo pure lei.
Sembra che per Tonga non sia riuscito a farlo.
L'unica speranza rimasta è che riesca a farlo per la prossima mattonella, altrimenti indipendentemente da quanto miracolo vero è stato quello di nvidia, la maggiore efficienza è comunque qualcosa di importante che le darà un vantaggio non indifferente fino ai 16nm.
E i prezzi... iuuuhuuu... sempre più in alto!

gd350turbo
22-09-2014, 15:53
Beh se tu ti inchini di fronte alla propaganda e alle scemenze come quelle sopra....
Per dire secondo lui GM204 doveva avere sicuramente oltre 3000SP e andare 35% più veloce di GK110. Dopo l'ho messo in ignore e vedo solo se lo quotate.

Come ti dissi poc'anzi, se sarà o no una scemenza, lo impareremo nel tempo...
Attualmente è una mera ipotesi, condivisibile o meno, ma quella è !

tuttodigitale
22-09-2014, 16:43
Farneticazione a parte stai supponendo che:
1. Tonga abbia un bus a 384bit (possibile ma ancora da verificare)
2. La futura mattonella di AMD sia realizzata con un processo non ancora disponibile

quoto questo, ma rispondo per intero al tuo post.
1. si.
2. no. ho detto che potrebbe anche non essere più grande di 450mmq: la prossima gpu di fascia alta debutterà entro 3-4 mesi (gennaio 2015, non domani eh) per i seguenti motivi:
a) Hawaii, dopo 14-15 mesi può essere pensionato
b) i miglioramenti di Tonga permettono di integrare 3096sp e un bus da 384bit, con un aumento virtuale della bandwidth, al contempo senza aumento il die size.
c) Tonga per come è stato progettato, chip da 359mmq può sostituire sia Tahiti che fare le veci di Hawaii Pro. Se ci pensi l'unico motivo che ha avuto AMD per non proporre soluzioni tonga xt è proprio quello di non ostacolare le vendite del prodotto di fascia superiore.

Tonga XT se davvero ha un bus da 384bit potrebbe andare anche il 30-45% in più di tonga pro. Questo certamente non basta per raggiungere la gtx980, soprattutto lato prestazioni per watt

Poi non è proprio vero che AMD ha fatto molte gpu, ma a ben guardare:
gcn 1.0 Tahiti (2011)
gcn 1.1 pit-cairn/cape verde (2012)
gcn 1.1 bonaire / hawaii(2013)
gcn1.2 Tonga (2014)
hawaii è grosso-modo un pit-cairn, gpu del febbraio 2012, proposta nel novembre 2013 con più unità, ben 22mesi dopo...
Visto che nel 2011 nvidia stava ancora con le Fermi, è bene sottolineare il fatto che nel periodo 2012-2014, abbiamo avuto

cape verde-gk107
bonaire-gk106
pit-cairn-gk104
hawaii-gk110

VUOTO - gm107
Tonga (castrato)- VUOTO
VUOTO- gm104

cioè AMD sta sostituendo il chip di fascia media, mentre nvidia ha sostituito il chip di fascia bassa e ha affiancato quello di fascia alta un altro chip.
A ben vedere è nvidia che ha fatto più cambiamenti

Littlesnitch
22-09-2014, 16:46
Come ti dissi poc'anzi, se sarà o no una scemenza, lo impareremo nel tempo...
Attualmente è una mera ipotesi, condivisibile o meno, ma quella è !

Beh se dovesse avverarsi quello di cui sopra AMD può tranquillamente chiudere e vorrebbe dire che sono tutti scemi e che gli asini volano.
Se ti va di prenderla come ipotesi plausibile fai pure. Io lascio qui.

tuttodigitale
22-09-2014, 16:47
2. perché esistono le Quadro e le Tesla che hanno capacità DP che non sono vedute in "operazioni mission critical" (qualsiasi cosa tu intendessi con queste parole). Non tutte le Tesla finiscono in server HPC e le Quadro non sono neanche pensate per quello. Mission critical per me vuol dire risultato sicuro (non necessariamente super preciso) e per questo conta solo l'uso dell'ECC, non la precisione del risultato.
.
Scusami, dire che le condizioni che richiedono la piena potenza sui calcoli in DP il più delle volte (trovami l'eccezione) sono mission critical e quindi richiedono l'uso dell'ECC, è cosa ben diversa nel dire che mission critical richiede i 64bit o addirittura che solo perchè la gpu non è castrata devono usare la DP.
Quindi a cosa ti riferisci?

CrapaDiLegno
22-09-2014, 18:12
Beh se tu ti inchini di fronte alla propaganda e alle scemenze come quelle sopra....
Per dire secondo lui GM204 doveva avere sicuramente oltre 3000SP e andare 35% più veloce di GK110. Dopo l'ho messo in ignore e vedo solo se lo quotate.
Caro Troll che non porta mai nulla alla discussione ma solo critiche a chi commenta, trova e quota un solo messaggio dove dico che il GM204 doveva avere 3000SP e andare il 35% in più del GK110.
Non ho mai affermato una cosa del genere.

Già sei senza argomenti e quindi inutile al forum e alle discussion iin generale, se poi ti azzardi anche a dire scemenze come quelle non puoi che essere definito Troll a tutti gli effetti. Mi chiedo perché si bannino quelli che fanno anche battute simpatiche ma che qualcuno ritiene provocatrici di flame e invece tu sei ancora qui a dire nulla su tutto.

CrapaDiLegno
22-09-2014, 18:18
Scusami, dire che le condizioni che richiedono la piena potenza sui calcoli in DP il più delle volte (trovami l'eccezione) sono mission critical e quindi richiedono l'uso dell'ECC, è cosa ben diversa nel dire che mission critical richiede i 64bit o addirittura che solo perchè la gpu non è castrata devono usare la DP.
Quindi a cosa ti riferisci?
Il rendering video non richiede l'ECC (se dbagli non perdi milioni di euro, non rischi di buttare mesi di studi o di far saltatre per aria una centrale nucleare) e vi sono motori che usano i calcoli DP.

Ti ripeto le Titan sono state create con anche una quantità di memoria abbondante per loro non per chi gioca a BF4 o Crysis 3.
Che poi in nerd di turno per farsi vedere dall'amico abbia comprato uno SLI sono un po' affari suoi. Potresti benissimo comprarti 4 Quadro e giocarci. Funzionano benissimo anche loro. Però il se il nerd dice all'amico che ha 4 Quadro quell'altro gli guarda addosso e gli chiede "Hai solo 4 quadri a casa tua?". Se invece gli dice "Hey, ho 2 Titan in SLI" allora certamente l'impressione cambia.

tuttodigitale
22-09-2014, 20:03
Il rendering video non richiede l'ECC (se dbagli non perdi milioni di euro, non rischi di buttare mesi di studi o di far saltatre per aria una centrale nucleare) e vi sono motori che usano i calcoli DP.
Non capisco cosa c'entrano i milioni di euro, quando le quadro costano solo poche migliaia. Cifre ridicole se pensiamo gli eventuali ritardi e perdita di clienti che spesso il fatturato di aziende piccole (10-15 dipendenti) sono intorno ai 10 milioni di euro e ci sono micro imprese che fatturano un milione di euro...

Questo per dire quanto nella realtà il risparmio per l'acquisto di una Titan, o di una soluzione assemblata sia minimo in termini percentuali.


Ti ripeto le Titan sono state create con anche una quantità di memoria abbondante per loro non per chi gioca a BF4 o Crysis 3.
Che poi in nerd di turno per farsi vedere dall'amico abbia comprato uno SLI sono un po' affari suoi. Potresti benissimo comprarti 4 Quadro e giocarci. Funzionano benissimo anche loro. Però il se il nerd dice all'amico che ha 4 Quadro quell'altro gli guarda addosso e gli chiede "Hai solo 4 quadri a casa tua?". Se invece gli dice "Hey, ho 2 Titan in SLI" allora certamente l'impressione cambia.
Che il maggior quantitativo di ram abbia un senso non ho nessun dubbio, ma permettimi di dubitare quando dici che Titan non è destinato prevalentemente ai giocatori.
Le soluzione da mille euro sono vendute da anni ai videogiocatori facoltosi, e non erano altro che soluzioni overcloccate di fabbrica con un pcb diverso. Titan ha attirato la folla perchè quelle prestazioni non potevi certo ricavarle da una 7970, anche moddata a liquido.
Infatti, una volta che è uscita la 780ti, la titan anche in versione black ( a proposito non eri tu quello che dicevi che le Titan avevano frequenze più basse delle altre gtx per un fattore di stabilità che da sempre contraddistingue una professionale?) ha perso gran parte del suo l'appeal, raso a suolo dalla presenza della gtx 780 da 6gb..

CrapaDiLegno
22-09-2014, 20:57
Non capisco cosa c'entrano i milioni di euro, quando le quadro costano solo poche migliaia. Cifre ridicole se pensiamo gli eventuali ritardi e perdita di clienti che spesso il fatturato di aziende piccole (10-15 dipendenti) sono intorno ai 10 milioni di euro e ci sono micro imprese che fatturano un milione di euro...

Questo per dire quanto nella realtà il risparmio per l'acquisto di una Titan, o di una soluzione assemblata sia minimo in termini percentuali.
Infatti parlavo del lavoro. Le ECC si usano là dove non puoi sbagliare perché rischi danni di qualsiasi tipo, sia nel prodotto che vai a simulare che nei tempi necessari per rifare tutto se capisci di aver toppato.

Uno studio artistico/di modellazione/presentazione di una sola persona preferisce indubbiamente 2 Titan a una singola Quadro. Stesso costo, metà del tempo di rendering (o puoi farne di più o puoi fare più prove nello stesso tempo).
Se un pixel dell'immagine viene sbagliato non se ne accorge nessuno o se proprio rifai la tua ora di rendering o prendi photoshop e voilà, il pixel brutto non c'è più. Non ti servono neanche i driver super galattici certificati che vengono con le Quadro. Ti prendi una Quadro scrausa per la viewport così modelli a velocità stratosferica e poi una o due Titan per far loro macinare i conti.


Che il maggior quantitativo di ram abbia un senso non ho nessun dubbio, ma permettimi di dubitare quando dici che Titan non è destinato prevalentemente ai giocatori.
Le soluzione da mille euro sono vendute da anni ai videogiocatori facoltosi, e non erano altro che soluzioni overcloccate di fabbrica con un pcb diverso. Titan ha attirato la folla perchè quelle prestazioni non potevi certo ricavarle da una 7970, anche moddata a liquido.
Infatti, una volta che è uscita la 780ti, la titan anche in versione black ( a proposito non eri tu quello che dicevi che le Titan avevano frequenze più basse delle altre gtx per un fattore di stabilità che da sempre contraddistingue una professionale?) ha perso gran parte del suo l'appeal, raso a suolo dalla presenza della gtx 780 da 6gb..
In verità le uniche soluzioni da mille neuro che mi vengono in mente prima delle Titan erano le dual GPU. E per giunta solo quelle dell'ultima generazione dove le singole hanno sfiorato prezzi ridicoli. Per il resto, neanche la gloriosa 8800GTX Ultra era arrivata a tanto.
Ma sì, oggi abbiamo GCN che fa concorrenza. Niente di migliore poteva accadere (a nvidia, non certo a noi consumatori).
L'uscita della 780Ti ha smorzato (e dire anche spezzato qualcuna) le ali a tutti coloro che credevano che le Titan fossero le schede da gioco a cui affidarsi per i mesi a venire.
Tutti quelli che (me compreso) dissero al tempo del lancio della Titan che erano schede destinate ad altro furono presi come dei pazzi: "queste sono le schede definitive" "queste schede saranno il top per il prossimi 2 anni" "niente di meglio per giocare anche ai titoli del 2018 con tutta questa RAM" e sciocchezze varie che i vari enthusiast si inventavano per dimostrare che i 1000 euro erano stato spesi bene.
L'uscita della 780Ti, più veloce e meno costosa ha decisamente dimostrato chi aveva ragione.

E comunque non so se ero io a dire che le frequenze minori della Titan sono perché garantiscono stabilità, ma condivido il pensiero e aggiungo anche che con le unità a 64bit attive e funzionanti le frequenze non le puoi pompare troppo se vuoi mantenere i consumi decenti dove non serve il liquido (ogni riferimento a situazioni attuali e future sono solo casuali).

E siamo sempre al punto in cui non date mai una risposta alle semplici domande che vi vengono poste: se la Titan era la scheda da gioco definitiva di nvidia, perché ha lanciato la 780Ti (di cui già si conosceva l'esistenza al lancio della Titan) poche settimane dopo e poi non ne ha ritoccato il prezzo?
Sarebbe una mossa suicida in qualsiasi altro caso dove un prodotto che costa meno va di più e sei tu stesso a lanciarlo subito dopo quello che costa un botto e rende meno. Masochismo? Follia? Mania di grandezza della serie perdiamo qualche vagonata di milioni di euro ma facciamo vedere che noi siamo i più furbi, oppsss, intendevo i migliori?

O semplicemente hanno lanciato per prima una scheda che faceva gola a due mercati (accatta l'allocco, vai vai!) e poi hanno dato al secondo mercato quello che in verità è poi stato il vero prodotto top gamma?
Lo sgonfiaggio c'è stato solo da chi ha dato del "pirla" a chi diceva loro che non era una scheda da gioco. Per il resto la Titan ha fatto quello che doveva, ovvero essere l'anteprima di schede semi-pro che poi sono culminate con l'ancora più assurda Titan-Z a 3000 euro. Dimmi che i 3000 euro della Titan-Z sono per giocare meglio a BF4 che ho già il numero della neuro pronto.

E in tutto questo a molti è sfuggito che nvidia ha fatto quel tipo di schede perché ha un mercato che va oltre i benchmark OpenCL, mentre AMD con i suoi 2 e rotti TFlops DP non è andata oltre a far girare Metro: LastLight e a fare la barretta più lunga nel benchmark LuxMark.
Perché se bastava mettere 6GB o più di RAM ad una scheda video e avere i calcoli DP attivi per giustificare 1000 euro, anche AMD avrebbe potuto fare la stessa identica cosa molto prima dell'arrivo del GK110, non credi?

pff
22-09-2014, 22:24
Ma sì, oggi abbiamo GCN che fa concorrenza. Niente di migliore poteva accadere (a nvidia, non certo a noi consumatori).
L'uscita della 780Ti ha smorzato (e dire anche spezzato qualcuna) le ali a tutti coloro che credevano che le Titan fossero le schede da gioco a cui affidarsi per i mesi a venire.
Tutti quelli che (me compreso) dissero al tempo del lancio della Titan che erano schede destinate ad altro furono presi come dei pazzi: "queste sono le schede definitive" "queste schede saranno il top per il prossimi 2 anni" "niente di meglio per giocare anche ai titoli del 2018 con tutta questa RAM" e sciocchezze varie che i vari enthusiast si inventavano per dimostrare che i 1000 euro erano stato spesi bene.
L'uscita della 780Ti, più veloce e meno costosa ha decisamente dimostrato chi aveva ragione.

E siamo sempre al punto in cui non date mai una risposta alle semplici domande che vi vengono poste: se la Titan era la scheda da gioco definitiva di nvidia, perché ha lanciato la 780Ti (di cui già si conosceva l'esistenza al lancio della Titan) poche settimane dopo e poi non ne ha ritoccato il prezzo?
Sarebbe una mossa suicida in qualsiasi altro caso dove un prodotto che costa meno va di più e sei tu stesso a lanciarlo subito dopo quello che costa un botto e rende meno. Masochismo? Follia? Mania di grandezza della serie perdiamo qualche vagonata di milioni di euro ma facciamo vedere che noi siamo i più furbi, oppsss, intendevo i migliori?

O semplicemente hanno lanciato per prima una scheda che faceva gola a due mercati (accatta l'allocco, vai vai!) e poi hanno dato al secondo mercato quello che in verità è poi stato il vero prodotto top gamma?
Lo sgonfiaggio c'è stato solo da chi ha dato del "pirla" a chi diceva loro che non era una scheda da gioco. Per il resto la Titan ha fatto quello che doveva, ovvero essere l'anteprima di schede semi-pro che poi sono culminate con l'ancora più assurda Titan-Z a 3000 euro. Dimmi che i 3000 euro della Titan-Z sono per giocare meglio a BF4 che ho già il numero della neuro pronto.

Perché se bastava mettere 6GB o più di RAM ad una scheda video e avere i calcoli DP attivi per giustificare 1000 euro, anche AMD avrebbe potuto fare la stessa identica cosa molto prima dell'arrivo del GK110, non credi?
veramente anche con le 5870 senza tirare in ballo le schede più recenti, nvidia ha tenuto i prezzi SEMPRE più alti della concorrenza, cosa ti stupisce nel fatto che abbia messo le titan per i gamers a migliaia di euro? se cè il pirla che paga sempre e comunque un centinaio di € anche quando la concorrenza fa di meglio che pretendi? ah e ripeto nuovamente, è nvidia che lo dice che le titan sono per giocare ai più alti livelli, ho messo i link qualche pagina addietro del sito ufficiale. poi strano che non hai MAI CITATO il caso Fermi e il GF100 :p mi sa che non ti conviene vero?

CrapaDiLegno
23-09-2014, 12:16
veramente anche con le 5870 senza tirare in ballo le schede più recenti, nvidia ha tenuto i prezzi SEMPRE più alti della concorrenza, cosa ti stupisce nel fatto che abbia messo le titan per i gamers a migliaia di euro? se cè il pirla che paga sempre e comunque un centinaio di € anche quando la concorrenza fa di meglio che pretendi? ah e ripeto nuovamente, è nvidia che lo dice che le titan sono per giocare ai più alti livelli, ho messo i link qualche pagina addietro del sito ufficiale. poi strano che non hai MAI CITATO il caso Fermi e il GF100 :p mi sa che non ti conviene vero?


Vuoi fare polemica gratuita ho hai qualche argomento da discutere?
Che c'entra Fermi? A parte che se sapessi leggere vedresti che l'ho nominato più volte (devo auto quotarmi o sei in grado di tornare indietro e leggere meglio?). E quindi? Che valore porta parlare di Fermi in questa discussione?
Vuoi forse suggerire che oggi siamo nello stesso caso ma invertito? Con AMD che ha un Fermi prima generazione rispetto alla architettura efficiente di Maxwell?
Ti faccio solo presente che nvidia il GF100, quello incriminato di efficienza pessima, se n'è liberata il prima possibile. Pagando caro l'errore economicamente (vatti a vedere il bilancio di quel trimestre). Non se l'è portato dietro per 3 anni.

nvidia storicamente ha sempre avuto prezzi più alti di AMD. O, viceversa, AMD ha dovuto sempre (s)vendere i propri prodotti per riuscire a venderli rispetto a quelli nvidia. Con i risultati che vediamo alla fine di ogni trimestre. E allora? Merito di nvidia che sa vendere i propri prodotti o della concorrenza che non ci riesce? E se non ci riesce, perché?
Non capisco questa voglia di fare inutile polemica giusto per trovare qualche cosa che sia negativo da parte di nvidia in questa fase in cui è evidente che ha messo il turbo rispetto alla concorrenza. Se le cose stanno così nel mobile non ci sarà più nessuna scheda discreta AMD. Venderà solo APU. Forse. Perché l'efficienza combinata Intel + Maxwell potrebbe anche portare a qualche sorpresa.

nvidia ha usato la tattica "attira polli" al lancio della Titan. Perché avendo fatto la scheda più veloce (e non di poco) del momento ha ben pensato di mangiarci il più possibile. Come hai detto tu ci sono sempre i furboni che vogliono il meglio subito a qualsiasi costo. Ma hai perso la seconda parte: perché ha lanciato anche la 780Ti a prezzo inferiore e prestazioni superiori se l'intenzione era spolpare l'utenza enthusiast fino al midollo? Se proprio proprio al lancio di Hawaii poteva abbassare il prezzo della Titan, come è sempre stato fatto con le altre schede, (vedi il ribasso della 7970 al lancio della GTX680 o comunque di qualsiasi scheda nella stessa fascia di una nuova appena immessa a prezzo inferiore)?
E invece, guarda un po', ha lanciato una scheda da gioco nuova, migliore della precedente, a prezzo inferiore e non ha toccato il prezzo della Titan.
Ti sembra che sia una mossa normale se Titan e 780Ti fossero destinate allo stesso segmento di utenza? Secondo te, chi è quel "pirla" che si sarebbe comprato la Titan a prezzo pieno dopo il lancio della 780Ti?
nvidia non sa fare i conti? Non capisce una mazza di mercato? Ha sbagliato a concepire le Titan?
O siete voi che non capite una mazza e parlate di Fermi, 5870, Tahiti come "successo indiscusso", mentre lei fa soldi a palate sfruttando tutto quello che ha messo in piedi negli ultimi anni, cioè CUDA e mercato professionale? Dove hai mai visto una scheda da gioco che giustifichi 3000 euro? Quanti pensi che ne possa vendere ai giocatori enthusiast? quanti invece a chi ne sfrutta i 6GB per GPU e la capacità di calcolo non castrata?
Ah, no, ma Fermi era, il VLIW faceva... sveglia! Guardate oggi e quello che sarà il domani, che se le cose stanno così le prossime schede costeranno come uno stipendio grazie alla concorrenza che è tre passi indietro ora. E la previsione è che ci rimarrà per tutto il prossimo anno fino all'arrivo dei 16nm. Non mi sembra un bello scenario.
E' la stessa cosa quando è uscito il GK104. Chi ha visto subito (me incluso) che nvidia avrebbe fatto il bello e il cattivo tempo per i due anni successivi ha sbagliato: lo ha fatto per tre. E sembra che non sia finita.
Parlate continuamente di concorrenza, di non fanboysmo, che AMD può fare, potrebbe realizzare, se, ma... cercare giustificazioni anche quando è evidente il problema è davvero segno di incapacità di analisi obiettiva.
AMD con quello che ha fatto fino ad oggi non è concorrenziale con quello proposto da nvidia. Punto. Potrà giusto abbassare i prezzi al limite per avere un nuovo buco di bilancio alla fine dell'anno prossimo. Ma non è così che si fa concorrenza. Si arriverà alla stessa situazione delle CPU, dove qualsiasi cosa faccia in quel campo non influenza quello che può Intel. Anche se AMD regalasse le sue CPU Intel non ne risentirebbe.
Il bicchiere mezzo pieno (quando faceva concorrenza mezzo passo indietro con però maggiore efficienza e minori costi vista la dimensione ridotta delle proprie GPU) è ora mezzo vuoto (non raggiunge le prestazioni della concorrenza, non è egualmente efficiente e non ha più GPU così piccole e quindi con costi da sostenere sia per realizzarle che progettarle molto più alti di un tempo).
Chi fa finta che questo non sia vero poi non si stupisca che tra un po' nvidia piazzerà schede da gioco vere (quindi castrate in tutto) a 1000 euro.
Speriamo che non sia vero e se proprio la prossima mattonella di AMD dovesse essere davvero un semplice ingrandimento delle GPU finora fatte (con tutti i consumi annessi), speriamo almeno che con i 16nm si decida a rivedere profondamente GCN e non a fare micro modifiche come ha fatto dal suo lancio a oggi.
Vuoi continuare a parlare del fallimento del GF100 o hai qualcosa di più interessante da portare sul tavolo della discussione?

pff
23-09-2014, 14:13
Vuoi fare polemica gratuita ho hai qualche argomento da discutere?
Che c'entra Fermi? A parte che se sapessi leggere vedresti che l'ho nominato più volte (devo auto quotarmi o sei in grado di tornare indietro e leggere meglio?). E quindi? Che valore porta parlare di Fermi in questa discussione?
Vuoi forse suggerire che oggi siamo nello stesso caso ma invertito? Con AMD che ha un Fermi prima generazione rispetto alla architettura efficiente di Maxwell?
Ti faccio solo presente che nvidia il GF100, quello incriminato di efficienza pessima, se n'è liberata il prima possibile. Pagando caro l'errore economicamente (vatti a vedere il bilancio di quel trimestre). Non se l'è portato dietro per 3 anni.

nvidia storicamente ha sempre avuto prezzi più alti di AMD. O, viceversa, AMD ha dovuto sempre (s)vendere i propri prodotti per riuscire a venderli rispetto a quelli nvidia. Con i risultati che vediamo alla fine di ogni trimestre. E allora? Merito di nvidia che sa vendere i propri prodotti o della concorrenza che non ci riesce? E se non ci riesce, perché?
Non capisco questa voglia di fare inutile polemica giusto per trovare qualche cosa che sia negativo da parte di nvidia in questa fase in cui è evidente che ha messo il turbo rispetto alla concorrenza. Se le cose stanno così nel mobile non ci sarà più nessuna scheda discreta AMD. Venderà solo APU. Forse. Perché l'efficienza combinata Intel + Maxwell potrebbe anche portare a qualche sorpresa.

nvidia ha usato la tattica "attira polli" al lancio della Titan. Perché avendo fatto la scheda più veloce (e non di poco) del momento ha ben pensato di mangiarci il più possibile. Come hai detto tu ci sono sempre i furboni che vogliono il meglio subito a qualsiasi costo. Ma hai perso la seconda parte: perché ha lanciato anche la 780Ti a prezzo inferiore e prestazioni superiori se l'intenzione era spolpare l'utenza enthusiast fino al midollo? Se proprio proprio al lancio di Hawaii poteva abbassare il prezzo della Titan, come è sempre stato fatto con le altre schede, (vedi il ribasso della 7970 al lancio della GTX680 o comunque di qualsiasi scheda nella stessa fascia di una nuova appena immessa a prezzo inferiore)?
E invece, guarda un po', ha lanciato una scheda da gioco nuova, migliore della precedente, a prezzo inferiore e non ha toccato il prezzo della Titan.
Ti sembra che sia una mossa normale se Titan e 780Ti fossero destinate allo stesso segmento di utenza? Secondo te, chi è quel "pirla" che si sarebbe comprato la Titan a prezzo pieno dopo il lancio della 780Ti?
nvidia non sa fare i conti? Non capisce una mazza di mercato? Ha sbagliato a concepire le Titan?
O siete voi che non capite una mazza e parlate di Fermi, 5870, Tahiti come "successo indiscusso", mentre lei fa soldi a palate sfruttando tutto quello che ha messo in piedi negli ultimi anni, cioè CUDA e mercato professionale? Dove hai mai visto una scheda da gioco che giustifichi 3000 euro? Quanti pensi che ne possa vendere ai giocatori enthusiast? quanti invece a chi ne sfrutta i 6GB per GPU e la capacità di calcolo non castrata?
Ah, no, ma Fermi era, il VLIW faceva... sveglia! Guardate oggi e quello che sarà il domani, che se le cose stanno così le prossime schede costeranno come uno stipendio grazie alla concorrenza che è tre passi indietro ora. E la previsione è che ci rimarrà per tutto il prossimo anno fino all'arrivo dei 16nm. Non mi sembra un bello scenario.
E' la stessa cosa quando è uscito il GK104. Chi ha visto subito (me incluso) che nvidia avrebbe fatto il bello e il cattivo tempo per i due anni successivi ha sbagliato: lo ha fatto per tre. E sembra che non sia finita.
Parlate continuamente di concorrenza, di non fanboysmo, che AMD può fare, potrebbe realizzare, se, ma... cercare giustificazioni anche quando è evidente il problema è davvero segno di incapacità di analisi obiettiva.
AMD con quello che ha fatto fino ad oggi non è concorrenziale con quello proposto da nvidia. Punto. Potrà giusto abbassare i prezzi al limite per avere un nuovo buco di bilancio alla fine dell'anno prossimo. Ma non è così che si fa concorrenza. Si arriverà alla stessa situazione delle CPU, dove qualsiasi cosa faccia in quel campo non influenza quello che può Intel. Anche se AMD regalasse le sue CPU Intel non ne risentirebbe.
Il bicchiere mezzo pieno (quando faceva concorrenza mezzo passo indietro con però maggiore efficienza e minori costi vista la dimensione ridotta delle proprie GPU) è ora mezzo vuoto (non raggiunge le prestazioni della concorrenza, non è egualmente efficiente e non ha più GPU così piccole e quindi con costi da sostenere sia per realizzarle che progettarle molto più alti di un tempo).
Chi fa finta che questo non sia vero poi non si stupisca che tra un po' nvidia piazzerà schede da gioco vere (quindi castrate in tutto) a 1000 euro.
Speriamo che non sia vero e se proprio la prossima mattonella di AMD dovesse essere davvero un semplice ingrandimento delle GPU finora fatte (con tutti i consumi annessi), speriamo almeno che con i 16nm si decida a rivedere profondamente GCN e non a fare micro modifiche come ha fatto dal suo lancio a oggi.
Vuoi continuare a parlare del fallimento del GF100 o hai qualcosa di più interessante da portare sul tavolo della discussione?

1) amd non ha dovuto svendere un bel niente, visto che il reparto gpu è quello che tiene a galla quasi tutta l'azienda , percui NO, non le svende

2)cosa centra tirare in ballo fermi? ma allora parli solo di quello che ti conviene o sbaglio?

3)"Non capisco questa voglia di fare inutile polemica giusto per trovare qualche cosa che sia negativo da parte di nvidia in questa fase in cui è evidente che ha messo il turbo rispetto alla concorrenza" :p il turbo in cosa? non è mica la nuova 8800 :doh:

4) la 780ti a prezzo inferiore? :muro: costava 700$ contro i 550$ della 290x :muro: :muro: se per te è prezzo inferiore :rolleyes:

5)"Dove hai mai visto una scheda da gioco che giustifichi 3000 euro?" e perchè 1000€ sono giustificati?

6)"grazie alla concorrenza che è tre passi indietro ora." ma tu dove vivi scusami? forse sei tu 3 anni indietro col mondo, nvidia non ha fatto NIENTE di che se non ottimizzare, tantè che la sua cara 980 si fa concorrenza con la 780ti.. dove lo vedi il passo in avanti? ah aspetta, adesso tirerai in ballo i consumi, quindi tu spendi 560€ di scheda grafica, minimo 350€ di cpu per non castrarla e poi ti preoccupi di 70 watt in meno? cioè una ventina di euro all'anno? hmmm siamo messi bene allora :doh:

7)"AMD con quello che ha fatto fino ad oggi non è concorrenziale con quello proposto da nvidia. Punto." qui non meriti neanche una risposta, spero almeno ti paghino bene nvidia

8)"speriamo almeno che con i 16nm si decida a rivedere profondamente GCN e non a fare micro modifiche come ha fatto dal suo lancio a oggi." si si infatti la storia parla da se, quando nvidia ha sfornato qualcosa di veramente nuovo e spiazzante te l'ha venduto per 6 anni, 8800 ti dice qualcosa? ha avuto minimo un 6 o 7 nomi

gd350turbo
23-09-2014, 14:30
quindi tu spendi 560€ di scheda grafica, minimo 350€ di cpu per non castrarla e poi ti preoccupi di 70 watt in meno? cioè una ventina di euro all'anno? hmmm siamo messi bene allora :doh:

Siamo messi malissimo !

Dato che i maggiori consumi vengono calcolati solo come un costo in più...:doh: :doh: :doh:

Tralasciano l'aspetto fondamentale, ovvero che questi 70watt, prima di essere pagati, molto prima, devono essere dissipati dal sistema !

AceGranger
23-09-2014, 14:31
tralasciaando la lotta AMD vs nVidia


6)"grazie alla concorrenza che è tre passi indietro ora." ma tu dove vivi scusami? forse sei tu 3 anni indietro col mondo, nvidia non ha fatto NIENTE di che se non ottimizzare, tantè che la sua cara 980 si fa concorrenza con la 780ti..


si con il piccolo particolare che la 980 monta il chip della fascia media mentre la 780Ti monta il chip top gamma...

alla faccia dell'ottimizzazione... se queste sono le premesse il GM200 aprira come un uovo l'attuale GK110.

CrapaDiLegno
23-09-2014, 15:15
1) amd non ha dovuto svendere un bel niente, visto che il reparto gpu è quello che tiene a galla quasi tutta l'azienda , percui NO, non le svende

2)cosa centra tirare in ballo fermi? ma allora parli solo di quello che ti conviene o sbaglio?

3)"Non capisco questa voglia di fare inutile polemica giusto per trovare qualche cosa che sia negativo da parte di nvidia in questa fase in cui è evidente che ha messo il turbo rispetto alla concorrenza" :p il turbo in cosa? non è mica la nuova 8800 :doh:

4) la 780ti a prezzo inferiore? :muro: costava 700$ contro i 550$ della 290x :muro: :muro: se per te è prezzo inferiore :rolleyes:

5)"Dove hai mai visto una scheda da gioco che giustifichi 3000 euro?" e perchè 1000€ sono giustificati?

6)"grazie alla concorrenza che è tre passi indietro ora." ma tu dove vivi scusami? forse sei tu 3 anni indietro col mondo, nvidia non ha fatto NIENTE di che se non ottimizzare, tantè che la sua cara 980 si fa concorrenza con la 780ti.. dove lo vedi il passo in avanti? ah aspetta, adesso tirerai in ballo i consumi, quindi tu spendi 560€ di scheda grafica, minimo 350€ di cpu per non castrarla e poi ti preoccupi di 70 watt in meno? cioè una ventina di euro all'anno? hmmm siamo messi bene allora :doh:

7)"AMD con quello che ha fatto fino ad oggi non è concorrenziale con quello proposto da nvidia. Punto." qui non meriti neanche una risposta, spero almeno ti paghino bene nvidia

8)"speriamo almeno che con i 16nm si decida a rivedere profondamente GCN e non a fare micro modifiche come ha fatto dal suo lancio a oggi." si si infatti la storia parla da se, quando nvidia ha sfornato qualcosa di veramente nuovo e spiazzante te l'ha venduto per 6 anni, 8800 ti dice qualcosa? ha avuto minimo un 6 o 7 nomi

E' chiaro da quste risposte che sto discutendo con uno che non ha la minima idea di quello di cui si parla ma dice cose per sentito dire.
Ti consiglio di finire le scuole e poi tornare a fare discussioni sensate.
Comunque io sono paziente e ti do le chiare e semplici risposte che finora non hai mai capito.

1. Scommetto una settimana di ferie che tu un bilancio di AMD non l'hai nemmeno visto di sfuggita, vero? Il reparto GPU mantiene tutta la baracca?
Rispondi a queste domande e vediamo se veramente sai di quel che parli:
1. Quanto fattura AMD come azienda
2. Quanto fattura(va) il reparto grafico di AMD. Nell'ultimo trimestre è stato mescolato (o nascosto) ad altro, ma in quelli precedenti si sa perfettamente.
3. Quanto è l'utile di AMD
4. Quanto è il contributo all'utile della sezione grafica
Dammi le risposte e vediamo se è utile continuare a discutere

2. Cosa c'entra Fermi è una domanda legittima. A parte che ti ho già detto che ne ho parlato (ma sai leggere o non hai ancora finito le elementari?), ma poi una volta che parliamo di Fermi (di quale? Del GF100 o del GF110 e della serie 5xx che ha mazzuolato nuovamente AMD?) cosa si dà in più a questa discussione che parla dell'efficienza mostruosa raggiunta da Maxwell? Su dai, parla tu di Fermi e dicci un po' cosa ha a che fare con la situazione di oggi.

3. Non consideri il fatto che Maxwell abbia dato il turbo ad nvidia? Cioè vuoi dire che il GM204 non è nulla di che contro Hawaii/Tonga? Mah.. obiettività, questa sconosciuta.

4. Che caxxo di confronti fai? Prezzo inferiore alla Titan! Te lo spiego facile facile così ci arrivi anche tu: Titan con prestazioni pari a 100 a 1000 euro, 780Ti con prestazioni pari a 110 costo 700 euro. Quale scheda secondo te un giocatore comprerebbe? Bravo, 7+. E perché dunque la Titan non è scesa di prezzo? Silenzio... mi spiace, torni a Settembre. Non stiamo parlando di Marte e formaggio, stiamo parlando di due schede legate profondamente nel loro posizionamento sul mercato. Almeno due eventi così strettamente legati dovresti riuscire ad analizzarli e metterli in correlazione se vuoi proseguire una discussione seria.
Poi puoi sempre trovare un'altra giustificazione più o meno plausibile alla cosa, e sarei tremendamente curioso si saperla, ma non averla capita o fare finta che non sia esistita non è utile.

5. No, infatti, è dal lancio della Titan che dico che non è una scheda da gioco, ma voi ne siete convinti ma non sapete dare una spiegazione al perché il prezzo è quello anche dopo l'uscita della 780Ti. E perché dopo sia stata lanciata addirittura una da 3000 euro. Che come dici tu non ha giustificazione in campo gaming. Ma fa niente. Forse un giorno riuscirai a connettere tutti i puntini.

6. Non hai idea di cosa significhi "ottimizzare" e realizzare una GPU che con 150mm^2 in meno di quella precedente, sullo stesso PP, va di più. nvidia non fa nessuna concorrenza a nessuna delle sue 780/780Ti, tanto è che ha smesso di produrle. Vuol dire che più o meno a metà del costo del GK110 vende una scheda che costa sì meno (quindi ne venderà di più, semplice legge del mercato) ma le farà guadagnare uguale o di più per singola scheda. Vuol dire più guadagno totale. Neanche le regole base dell'economia...

7. Be', scusa hai ragione. La prossima mossa concorrenziale di AMD sarà abbassare di almeno 50 euro le proprie soluzioni. Ottimo modo di allaragare il buco alla fine del trimestre... ah, no, scusa, è i reparto grafico a mantenere in piedi tutta la baracca, che sciocco che sono.

8. Non so cosa volevi dire con il tuo commento ma hai esattamente esposto il problema: quando la concorrenza arranca chi guida fa un po' quello che vuole e siccome l'obiettivo di ogni azienda è fare più soldi possibile, ti ricicla anche quello che ha prodotto 3 anni prima se funziona meglio di quello che la concorrenza produce oggi. Altra semplice e basilare regola del mercato. Infatti nvidia per 2 anni e mezzo ha venduto una GPU di classe maintream come fosse una enthusiast. E probabilmente continuerà a venderla in varie serie inferiori per i prossimi mesi, fino ai 16nm. Cosa volevi evidenziare dunque con il tuo commento? Che AMD con GCN ha fatto una buona concorrenza ad nvidia?

pff
23-09-2014, 16:19
cut

vero :p

Littlesnitch
23-09-2014, 16:25
tralasciaando la lotta AMD vs nVidia



si con il piccolo particolare che la 980 monta il chip della fascia media mentre la 780Ti monta il chip top gamma...

alla faccia dell'ottimizzazione... se queste sono le premesse il GM200 aprira come un uovo l'attuale GK110.

Attento, che con le stesse premesse anche un GK110 dovrebbe aprire come un uovo il GK104, ma non è proprio così. E il Gk104 andava anche più del GF110.
Come vedi anche tra 980 e 970 c'è un 10% scarso, ma gli SP sono molti in meno sulla 970, quindi anche avere 3200SP non ti garantisce prestazioni del 50% superiori. Poi devi anche metterci tutta la parte DP da aggiungere.
E aggiungiamoci che la 980 gira a 1.2Ghz, per l'esattezza in media si attesta sui 1210Mhz con dissipatore stock.
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/30.html
Certo il nuovo PP potrebbe aprire di più la forbice, ma sarà sempre il 30% massimo in media, mentre nel calcolo GPGPU l'incremento potrebbe essere decisamente superiore, anche un raddoppio delle prestazioni da quel che si vede.
Aggiungiamo pure che il nuovo PP con tutto il travaglio che sta avendo non è escluso che sia affetto da problemi.... beh io credo che la revision 2 del GM210 sarò sicuramente una bomba, sulla prima vediamo visto che non dipende solo da nVidia.

gd350turbo
23-09-2014, 16:27
...beh io credo che la revision 2 del GM210 sarò sicuramente una bomba, sulla prima vediamo visto che non dipende solo da nVidia.

E su questo sono perfettamente d'accordo con te, ed infatti è quello che sto aspettando !

Littlesnitch
23-09-2014, 16:53
E su questo sono perfettamente d'accordo con te, ed infatti è quello che sto aspettando !

A quanto sale la tua 780Ti a vcore stock? Le mie 780 arrivano a 1250Mhz con vcore 1.121

gd350turbo
23-09-2014, 17:21
A quanto sale la tua 780Ti a vcore stock? Le mie 780 arrivano a 1250Mhz con vcore 1.121

Più o meno è sul quel valore...
Con alcune app, più tolleranti verso l'overclock, arrivo a 1300, ma il valore medio è di appunto 1250

Poi è uscito un nuovo bios, che se riesco questa sera voglio provare...

batou83
23-09-2014, 17:45
Nel calcolo cuda la 980 supera la 780ti

http://www.sweclockers.com/recension/19332-nvidia-geforce-gtx-980-och-gtx-970/16#pagehead

Leon™
23-09-2014, 21:17
bella scheda, ma secondo me rappresente semplicemente l'intermezzo fra il passaggio dai 28 ai 20 nm

Littlesnitch
24-09-2014, 06:43
Più o meno è sul quel valore...
Con alcune app, più tolleranti verso l'overclock, arrivo a 1300, ma il valore medio è di appunto 1250

Poi è uscito un nuovo bios, che se riesco questa sera voglio provare...

Grazie! Allora le mie prove fatte mesi fa erano attendibili.

gd350turbo
24-09-2014, 08:30
Grazie! Allora le mie prove fatte mesi fa erano attendibili.

Si 3dmark provato ieri sera con bios skyn3t supporta 1320mhz, 1315 con il suo originale, ma è il bench meno sensibile al overclock, quindi non è indicativo, nei game la tengo appunto a 1250.

Littlesnitch
24-09-2014, 08:34
Si 3dmark provato ieri sera con bios skyn3t supporta 1320mhz, 1315 con il suo originale, ma è il bench meno sensibile al overclock, quindi non è indicativo, nei game la tengo appunto a 1250.

Si, anche la mia sale altri 60-70Mhz in 3dMark e Unigine.
Come test Paolo mi ha chiesto Metro Last Light e con le stesse impostazioni la VGA gira 20 Mhz in meno rispetto a BF3 o WoT.
A che vcore sei?

gd350turbo
24-09-2014, 08:37
Si, anche la mia sale altri 60-70Mhz in 3dMark e Unigine.
Come test Paolo mi ha chiesto Metro Last Light e con le stesse impostazioni la VGA gira 20 Mhz in meno rispetto a BF3 o WoT.
A che vcore sei?

Il massimo consentito 1,121v

Littlesnitch
24-09-2014, 08:47
Il massimo consentito 1,121v

Veramente puoi arrivare a 1.23-1.25 con il tuo dissipatore in OC, ma non guadagni molto in frequenza visto dove sei già a vcore stock.

gd350turbo
24-09-2014, 08:49
Veramente puoi arrivare a 1.23-1.25 con il tuo dissipatore in OC, ma non guadagni molto in frequenza visto dove sei già a vcore stock.

Si, ho letto, ma preferisco fermarmi a 1.212 v, non ho in previsione di cambiarla a breve !

Littlesnitch
24-09-2014, 08:54
Si, ho letto, ma preferisco fermarmi a 1.212 v, non ho in previsione di cambiarla a breve !

Scusa mi sono perso... sei a 1.21 o 1.12 :D
Le mie stanno a 1.121v

gd350turbo
24-09-2014, 08:58
Scusa mi sono perso... sei a 1.21 o 1.12 :D
Le mie stanno a 1.121v

Si, ovviamente anche la mia, ho invertito gli 1 con i 2 :doh:

Littlesnitch
24-09-2014, 09:04
Si, ovviamente anche la mia, ho invertito gli 1 con i 2 :doh:

Mentre queste 980 girano a 1.25v.
Eh una volta c'era yossarian a spiegare queste differenze tra i vari chip :( adesso ci tocca analizzarle da profani.

gd350turbo
24-09-2014, 09:08
Mentre queste 980 girano a 1.25v.
Eh una volta c'era yossarian a spiegare queste differenze tra i vari chip :( adesso ci tocca analizzarle da profani.

eh, vero, sono sempre i migliori che se ne vanno !

Littlesnitch
24-09-2014, 09:10
eh, vero, sono sempre i migliori che se ne vanno !

Il problema maggiore è da chi vengono rimpiazzati :sofico:

gd350turbo
24-09-2014, 09:12
Il problema maggiore è da chi vengono rimpiazzati :sofico:

Si, da noi... :sofico: :sofico:

natalinoleo91
24-09-2014, 11:08
prestazioni elevate e prezzo nella norma, forse è giunto il tempo dell'upgrade!!!!

tuttodigitale
24-09-2014, 11:30
crapa ti invito a fare questi confronti tra gcn1.1 e kepler nella fattispecie tra pit-cairn e gk106 che sono chip con dimensioni estremamente simili: 213 vs 221mmq, ovvero tra la hd7870 e la gtx 660 liscia.
Vedrai che consumi e prestazioni sono estremamente simili (a dire il vero fa poco meglio la proposta di AMD).
Ora Hawaii condividendo la stessa architettura di pit-cairn, e quindi offrendo praticamente le stesse prestazioni per watt di kepler, sulla carta l'unica maniera per rivaleggiare con chip kepler da oltre 550mmq con un chip basato su gcn 1.1 da "soli" 438 mmq. è quello di aumentare la frequenza.
con +27% di superficie in più, gf110 può permettersi di consumare meno energia.

per il resto schede da 800-1000 euro sono esistite anche prima che il gpgpu prendesse piede, vedi zotac 8800 ultra superoverclocked. Se le fanno effettivamente è perchè le vendono.

Poi sullo scenario apocalittico nel caso in cui AMD decida di aspettare gennaio 2015 non lo capisco proprio:
Ricordo che AMD nel 2012, per 5 mesi (ripeto 5) era l'unica in grado di vendere soluzioni a 28nm anche di fascia media e bassa.

Non capisco come un chip da 400mmq possa essere considerato di fascia media, quando la fascia media è coperta dalle r9 280x che hanno un chip grande la metà.
E' un chip di fascia alta, come lo è stato gf104 e parzialmente gk104. o davvero credete che il primo chip a 16-20nm destinato ai consumatori sarà una mattonella da 550-600mmq?

E' curioso che anzichè lodare il lavoro di nvidia per maxwell si denigri gcn 1.1 (e per quanto detto sopra implicitamente tutte le soluzioni esistenti compreso gk104/gf110)

cdimauro
24-09-2014, 22:57
Ancora con questa stronzat@ delle prestazioni in doppia precisione.
La doppia precisione serve per sua natura a operazioni mission critical, cosa che vedrei abbastanza azzardato fare con un sistema casalingo.
Diciamo che sono molto usate in ambito mission critical, ma anche in quello domestico trovano la loro applicazione. Ecco qui (http://msdn.microsoft.com/en-us/library/aa970268(v=vs.110).aspx#Graphics):

"The WPF coordinate system is measured with double-precision floating-point numbers rather than single-precision. Transformations and opacity values are also expressed as double-precision."

Ed è soltanto un esempio.

Il problema della precisione singola è che, per l'appunto, offre poca precisione per i calcoli. Va bene in tanti casi, ed è per questo che è diffusa (e perché economica da implementare), ma non puoi usarla ovunque. Con 24 bit di mantissa hai all'incirca 6-7 cifre decimali a disposizione, che sono veramente poche se ci pensi bene.

Ribadisco: in buona parte dei casi è sufficiente, ma a seconda del problema può non esserlo e generare addirittura risultati del tutto sballati.

Non è per puro esercizio di stile che sia Intel con l'8086 sia Motorola col 68881 supportano persino la precisione estesa nei calcoli (80 bit, di cui ben 64 di mantissa) fin dal principio, e che ancora oggi coprocessori / unità floating point del genere vengano usate nonostante l'introduzione di unità SIMD macinanumeri.

Peraltro già da tempo esistono processori per ambiti altamente specializzati che mettono a disposizione float a 128 bit, e non è affatto escluso che prima o poi tale formato arriverà anche in ambito desktop, considerato che lo spettro delle applicazioni domestiche si sta allargando sempre di più. Ci vorranno ancora un po' di anni, ma sono convinto che arriverà anche questa precisione elevatissima in ambito consumer.
Allora facciamo il punto. I calcoli DP servono nel mercato casalingo o no?
Se no, mi chiedo perché:
2. perché esistono le Quadro e le Tesla che hanno capacità DP che non sono vedute in "operazioni mission critical" (qualsiasi cosa tu intendessi con queste parole). Non tutte le Tesla finiscono in server HPC e le Quadro non sono neanche pensate per quello. Mission critical per me vuol dire risultato sicuro (non necessariamente super preciso) e per questo conta solo l'uso dell'ECC, non la precisione del risultato.
Vedi sopra: a seconda dell'ambito, serve anche la precisione. Anzi, proprio in ambito mission critical si usano spesso algoritmi che richiedono elevata precisione, proprio perché è importante non soltanto la qualità (buona approssimazione) dei risultati, ma perché da ciò può dipendere il fallimento o il successo.
I 64 bit hanno una utilità relativa pressocché dal valore nulle per gli utenti casalinghi che giocano. Infatti tutte le schede da gioco di nvidia sono vendute senza tale funzionalità o meglio, con funzionalità super ridotta). AMD c'è arrivata dopo ma alla fine anche lei ha tagliato le inutili capacità DP delle proprie GPU inferiori. Ma le schede professionali ce l'hanno.
Attualmente è così, ma fra qualche anno penso sarà naturale passare alla precisione doppia anche in ambito gaming.

L'utilizzo di float a 32-bit per memorizzare il valore di ogni componente cromatica unito al sempre più elevato numero di poligoni, dimensione dello spazio virtuale, e l'introduzione di tecniche di ray tracing (o addirittura radiosity) generauna quantità molto elevata di calcoli che comporta la perdita di tanta informazione "per strada".

Basti pensare al calcolo matriciale che c'è dietro (specialmente per il radiosity, che comporta la risoluzione di un sistema di equazione differenziali con tante variabili), e si capisce subito a cosa si va incontro (specialmente per chi ha avuto modo di studiare Calcolo Numerico all'università).
Il rendering video non richiede l'ECC (se dbagli non perdi milioni di euro, non rischi di buttare mesi di studi o di far saltatre per aria una centrale nucleare) e vi sono motori che usano i calcoli DP.
In genere per la modellazione non serve arrivare a usare ECC né doppia precisione. Ma per l'elaborazione finale è molto meglio avere entrambi a disposizione.