PDA

View Full Version : AMD conferma: il debutto delle schede video della serie 300 è vicino


Redazione di Hardware Upg
06-02-2015, 09:01
Link alla notizia: http://www.hwupgrade.it/news/skvideo/amd-conferma-il-debutto-delle-schede-video-della-serie-300-e-vicino_55952.html

Una serie di risposte ad un utente pubblicate sulla propria pagina Facebook conferma come AMD sia al lavoro al debutto delle schede video della famiglia 300, attese presumibilmente a partire dal secondo trimestre

Click sul link per visualizzare la notizia.

iorfader
06-02-2015, 09:20
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...

MiKeLezZ
06-02-2015, 09:38
Ma a una twittata del genere il reparto social marketing cosa mai avrebbe dovuto rispondere?
Tranquillo comprati la 980, siamo in alto mare e comunque anche quando usciranno le schede non saranno allo stesso livello.
EDDAIIIIIIIIIIIIIIIIIIIIIIII

Enriko81
06-02-2015, 10:03
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...


infatti ,con la mia 970gtx ho tutto maxato a qlunque titolo, non fa casino ed è fresca. basterà per i prox 3 anni anche se dovrò scendere a dettaglio medio-alto (hahahah capirai :Prrr: )

amd sempre indietro, con i suoi fornelletti da campeggio.

iorfader
06-02-2015, 10:06
infatti ,con la mia 970gtx ho tutto maxato a qlunque titolo, non fa casino ed è fresca. basterà per i prox 3 anni anche se dovrò scendere a dettaglio medio-alto (hahahah capirai :Prrr: )

amd sempre indietro, con i suoi fornelletti da campeggio.

ma a te crysis 3 come và? è l'unico gioco che non rispetta i benche che ho visto, in pratica nei benche con una 970 strix appunto a stock faceva quasi i 60 ad ultra 1080p, io ne faccio una 40ina...mah forse il bench che ho visto era fatto in una specifica mappa:cry:

alebrescia
06-02-2015, 10:52
Cari ragazzi... ma avete visto i probabili score della 380x ??? danno via alle attuali 980.... amd avrà molti difetti dal punto di vista dei consumi e del calore... ma sti score leaked promettono davvero tanto!
cmq io una 970 msi Gaming l' ho avuta e l' ho rivenduta al volo... buona per giochi di fascia alta e ootimizzati... una cagata in giochi più vecchi e che dovrebbero volare con quella scheda! Insurgency (motore di CS:GO) aveva dei drop fps a 40 e una media di 80-90 .... con la 660 facevopiù di 100fps di media!

fukka75
06-02-2015, 10:58
Beh bello sforzo, dopo 6/7 mesi (almeno,se sarà confermata la data del Q2) dall'uscita della 980, ci macanva pure che andava peggio :D:D

nardustyle
06-02-2015, 11:03
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...

Utonni ....

:D

si si prova ad aumentare la risoluzione ùùùùùù


https://forums.geforce.com/default/topic/808842/geforce-900-series/gtx-970-why-frame-time-analysis-is-important/1/

http://i.imgur.com/p0oDb0Q.png

5 blocchi su un minuto ......

al di là dei frame medi , QUELLO CHE NON DICONO I BENCH MARCHETTARI LO DICONO GLI UTENTI DI UNA CERTA ESPERIENZA


che poi in full hd il problema non si presenti non significa che non esista

Titanox2
06-02-2015, 11:21
Beh bello sforzo, dopo 6/7 mesi (almeno,se sarà confermata la data del Q2) dall'uscita della 980, ci macanva pure che andava peggio :D:D

solita strategia amd

nessuno29
06-02-2015, 11:22
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...
Cosa vuoi che importi a noi se stai per comprare un altra gtx 970?

Per quanto riguarda la news i bench leaked sono eccezionali,+45% rispetto a R9290x,stesso consumo e 73° in Full.Vedremo a livello prestazionale nei giochi e non nei bench quanto riuscirà a primeggiare!

FroZen
06-02-2015, 11:41
solita strategia amd

Le 7970 uscirono due mesi prima delle 680.... Oggi è pieno il forum e vanno ancora alla grande, le 680 sono sparite....

CrapaDiLegno
06-02-2015, 11:41
al di là dei frame medi , QUELLO CHE NON DICONO I BENCH MARCHETTARI LO DICONO GLI UTENTI DI UNA CERTA ESPERIENZA
che poi in full hd il problema non si presenti non significa che non esista
Già, di una certa esperienza.
Quelli che compravano le vecchie schede AMD che stutteravano e non dicevano nulla in merito? Anzi, no, esaltavano le caratteristche tecniche (quelle stesse specifiche scritte saulla carta) e poi non si accorgevano che giocavano di m...a?

1. Se il problema non si vede, è un problema teorico e quindi non esiste. Questo mi pare lapalissiano.
2. Se il problema devi andarlo a cercare con il lanternino è un problema insignificante
3. Se il problema appare in situazioni al limite in cui già la scheda ha problemi di suo (se il framerate ti cala a 15FPS quando la scheda normalmente fa i 25) il problema è irrilevante
4. Se il problema appare quando la scheda è arrivata al limite delle sue capacità, il problema non è della scheda (mi sembra ovvio). Se il problema abbassa la soglia delle capacità massime della scheda, la gravità del problema è proporzionale al quanto il limite si è spostato.
5. Se il problema appare in quasi tutte le situazioni, anche in quelle di uso "normale" allora il problema esiste ed è grave.

In quale dei precendenti punti cade il problema della 970?

MiKeLezZ
06-02-2015, 11:43
Utonni ....

:D

si si prova ad aumentare la risoluzione ùùùùùù


https://forums.geforce.com/default/topic/808842/geforce-900-series/gtx-970-why-frame-time-analysis-is-important/1/

http://i.imgur.com/p0oDb0Q.png

5 blocchi su un minuto ......

al di là dei frame medi , QUELLO CHE NON DICONO I BENCH MARCHETTARI LO DICONO GLI UTENTI DI UNA CERTA ESPERIENZA


che poi in full hd il problema non si presenti non significa che non esista8xMSAA con il FHD? Perché mai? Ma con queste schede ci giocate anche oppure vi fate solo le pippe coi benchmark?

FroZen
06-02-2015, 11:45
infatti ,con la mia 970gtx ho tutto maxato a qlunque titolo, non fa casino ed è fresca. basterà per i prox 3 anni anche se dovrò scendere a dettaglio medio-alto (hahahah capirai :Prrr: )

amd sempre indietro, con i suoi fornelletti da campeggio.

Eh gia non so come faccia la mia 290 pagsta 100 euro in meno di una 970 a stare a 72c e con i vrm a poco meno non sentendola per giunta..ah gia per certi esistono solo le reference su amd, mentre di maxwell reference non se ne vedono....looool

FroZen
06-02-2015, 11:47
Sara interessante capire se le 390 avranno anch esse le stacked cone suppongo e spero e non solo le top....

FroZen
06-02-2015, 11:49
In quale dei precendenti punti cade il problema della 970?[/QUOTE]

In questo: " non prendere una 780 , con la 970 hai un gb in piu di ram che non fa male"

AceGranger
06-02-2015, 11:49
Utonni ....

:D

si si prova ad aumentare la risoluzione ùùùùùù


https://forums.geforce.com/default/topic/808842/geforce-900-series/gtx-970-why-frame-time-analysis-is-important/1/

http://i.imgur.com/p0oDb0Q.png

5 blocchi su un minuto ......

al di là dei frame medi , QUELLO CHE NON DICONO I BENCH MARCHETTARI LO DICONO GLI UTENTI DI UNA CERTA ESPERIENZA


che poi in full hd il problema non si presenti non significa che non esista

si ma se per farlo presentare devi giocare a risoluzioni abnormi e sparare inutilmente l'AA e avere 10 fps, lo stuttering è l'ultimo dei problemi...

che sia stata una carognata credo sia lampante a tutti, ma a conti fatti a livello pratico si riduce ad una questione di principio e un non-problema per praticamente tutti i possessori della GTX970.

Mparlav
06-02-2015, 12:05
Non sarebbe un problema per una scheda di fascia medio-bassa, ma per una di fascia alta da 300 e passa euro che si presta allo Sli, imho, lo è.

Tornando IT, non mi dispiacerebbe che il dissipatore reference delle nuove Amd venisse sostituito con l'AIO della R9 295 X2, visto il target d'utenza.

Per il resto, bastano i dissy custom dei partner, magari abbreviando i tempi tra debutto della scheda reference e quella dei partner.

CrapaDiLegno
06-02-2015, 12:21
si ma se per farlo presentare devi giocare a risoluzioni abnormi e sparare inutilmente l'AA e avere 10 fps, lo stuttering è l'ultimo dei problemi...

che sia stata una carognata credo sia lampante a tutti, ma a conti fatti a livello pratico si riduce ad una questione di principio e un non-problema per praticamente tutti i possessori della GTX970.

E' ovvio che il problema prestazioni in sè non sussiste ma è solo una questione di principio. Ed è una cosa cavalcata dagli hater perché hanno trovato qualcosa a cui aggrapparsi per spalare cacca (erano anni che non avevano nulla da dire).
Nessuno dice qualcosa riguardo al fatto che le schede AMD stutteravano a tutte le risoluzioni e senza andare neanche vicino ai limiti della scheda.
Il problema sono quindi le prestazioni o che nvidia ha nascosto il barbatrucco con la memoria?

non prendere una 780 , con la 970 hai un gb in piu di ram che non fa male
Che non vuol dire un cazzo (scusa il francesismo). Vendono anche le 660 con 4GB di RAM. Vuol dire che vanno meglio di queste che hanno 3.5GB di RAM realmente sfruttabili? Ci sono anche le OEM nei portatili da 8GB. Pensa quanto vanno quelle.
La quantità di memoria non vuol dire nulla se la scheda non è in grado di processare tutte le informazioni che la riempirebbero. Dai test fatti con la 970Ti è chiaro che ad alte risoluzioni non ce la fa, indipendentemente se hai superato o meno i 3.5GB di RAM occupata. Quindi quando fai i 20FPS a 4K con tutto attivo, giusto per dire "io può", non ha alcuna importanza che il framerate cali a saltuariamente a 10FPS quando hai messo anche l'opzione "ancora di più". Va male comunuqe. Se la potenza di calcolo basta, mezzo giga in meno significa che non puoi mettere qualcuna di quelle spunte, tipo AA a mille mila che tanto non serve a nulla soprtattutto a 4K, ma ti permette solo di dire "io può".

Legolas84
06-02-2015, 12:33
Dai AMD.... tira fuori ste schede.....

Io voglio vedere il Full Maxwell e finchè tu non ti dai una mossa non uscirà mai.... :fagiano:


PS

Per quanto riguarda la 970 è stato dimostrato già da un casino di tempo e da test di siti autorevoli, che non ci sono veri e propri problemi nei giochi. Il fatto è che oramai si è fatta la nomea e se la porterà nella tomba, perchè a molti conviene così ;)

Consiglio di leggere l'articolo di anandtech per chi tiene all'onestà intellettuale.

Italia 1
06-02-2015, 12:35
Ehm... il titolo parla del debutto delle 3xx, non del problema delle 970 (inesistente per la stragrande maggioranza dei possessori). Oppure alcuni di voi hanno fatto l'accoppiata 970 + monitor 4k e sono rimasti delusi ? Eventualmente, lo sbaglio è stato l'acquisto della 970 invece dell'eventuale 980, oppure prendere la 970 ma monitor 1440p max, non 4k.

FroZen
06-02-2015, 12:42
Il problema frametime c era è vero e ormai da due anni ed è stato risolto nessuno è qui a negarlo.... Ribaltando il tuo discorso allora perche non hanno fatto le 970 a 1gb? Prendi la 680.... Andrebbe ancora benissimo ma i 2gb la limitano troppo mentre le 7970 sono ancora attualissime.. Questo è future proof... Portavo la testimonianza di persone che consigliavano le 970 sulle 780 e ti per via del giga in piu....poi si è scoperto invece che...non è una tragedia ma é un bello smacco...

nardustyle
06-02-2015, 12:54
Già, di una certa esperienza.
Quelli che compravano le vecchie schede AMD che stutteravano e non dicevano nulla in merito? Anzi, no, esaltavano le caratteristche tecniche (quelle stesse specifiche scritte saulla carta) e poi non si accorgevano che giocavano di m...a? what ??? :mbe:

1. Se il problema non si vede, è un problema teorico e quindi non esiste. Questo mi pare lapalissiano.

se un qualsiasi gioco si blocca 5 volte su un minuto si vede
2. Se il problema devi andarlo a cercare con il lanternino è un problema insignificante
chiunque abbia uno schermo piu grande del fhd , che poi una 970 su un 1080 px è sprecata
3. Se il problema appare in situazioni al limite in cui già la scheda ha problemi di suo (se il framerate ti cala a 15FPS quando la scheda normalmente fa i 25) il problema è irrilevante
io gioco a svariati titoli con la 290x a 2560x1600 attorno ai 30fps (coh 2 , tomb rider) con 5 stop al minuto sarebbero ingiocabili
4. Se il problema appare quando la scheda è arrivata al limite delle sue capacità, il problema non è della scheda (mi sembra ovvio). Se il problema abbassa la soglia delle capacità massime della scheda, la gravità del problema è proporzionale al quanto il limite si è spostato.
la ram ad alte risoluzioni si satura subito , solo cs go dei giochi che ho ne prene poca
5. Se il problema appare in quasi tutte le situazioni, anche in quelle di uso "normale" allora il problema esiste ed è grave.
una 970 usata in full hd e in situazioni normali come dici tu è già una cavolata di per se visto che non è per quella fascia di utilizzo
In quale dei precendenti punti cade il problema della 970?
tipo in tutti??
in grassetto

Legolas84
06-02-2015, 13:04
Il problema frametime c era è vero e ormai da due anni ed è stato risolto nessuno è qui a negarlo....

Veniva negato prima che uscissero i test FCAT.... :asd:

Ora chissà cos'altro viene negato, oddio in verità non viene neanche negato così bene a parte qui, perchè basta farsi un giro nei forum soprattutto esteri per vedere comè la situazione riguardo le problematiche delle rosse.

Riguardo la 970 invito di nuovo a leggersi l'articolo di anandtech e non a prendere per oro colato un grafico appiccicato qua e la o il commento di questo o quell'utente..... ;)

Alkadia2977
06-02-2015, 13:18
"Che non vuol dire un cazzo (scusa il francesismo). Vendono anche le 660 con 4GB di RAM. Vuol dire che vanno meglio di queste che hanno 3.5GB di RAM realmente sfruttabili? Ci sono anche le OEM nei portatili da 8GB. Pensa quanto vanno quelle."


Se sulla scatola c'è scritto 4gb, io voglio 4gb.Che sia una geforce 2 o una gtx970 è irrilevante. Non esiste che io ne abbia solo 3,5 quando c'è scritto 4. PUNTO. Che poi il problema non si presenti oggi è un discorso, ma visto i porting futuri e il fatto che si dovrà venire a patti con il fatto che le console hanno la memoria condivisa beh, è un handicap non da poco.

Legolas84
06-02-2015, 13:51
Pietà..... leggi l'articolo di anand altro che toms.... qui si continua a postare a convenienza alimentando i "miti" senza portare nulla di concreto.

Leggetevi questo articolo OBBIETTIVO di un sito autorevole:


http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation

FroZen
06-02-2015, 13:57
Non voglio convincere nessuno ma mettere solo ordine nelle questioni... Chi dice che le r9 sono dei fornetti con consumi esorbitanti non fa un piacere alla verita, punto, cosi come dire che le 970 sono dei cessi, lì è una questione di principio e correttezza....sui forum esteri ci vado pure io e se ne sentono di belle anche sulle "driver perfetti nvidia" ;) ora magari tirniamo a parlare di r300 magari...

Legolas84
06-02-2015, 14:04
Non voglio convincere nessuno ma mettere solo ordine nelle questioni... Chi dice che le r9 sono dei fornetti con consumi esorbitanti non fa un piacere alla verita, punto, cosi come dire che le 970 sono dei cessi, lì è una questione di principio e correttezza....sui forum esteri ci vado pure io e se ne sentono di belle anche sulle "driver perfetti nvidia" ;) ora magari tirniamo a parlare di r300 magari...

Prima dei test Fcat tu dicevi che le radeon stutteravano o che andavano bene? ;) Io dicevo che stutteravano. I problemi ci sono anche nei driver verdi sebbene molti meno e di minor gravità... la differenza è nel supporto, dove lato verde è migliore e più vicina all'utenza tramite forum.

GTKM
06-02-2015, 14:24
Io non capirò mai perché, nei commenti ad un articolo riguardo un prodotto di una determinata azienda, si debba parlare di altro. Ognuno acquista quello che ritiene più adeguato alle proprie esigenze (o ciò che gli piace di più, se fa del tifo), questo non significa che la controparte debba far schifo a priori.

nardustyle
06-02-2015, 14:26
Prima dei test Fcat tu dicevi che le radeon stutteravano o che andavano bene? ;) Io dicevo che stutteravano. I problemi ci sono anche nei driver verdi sebbene molti meno e di minor gravità... la differenza è nel supporto, dove lato verde è migliore e più vicina all'utenza tramite forum.

io ho abbandonato la 560ti proprio per il mancato supporto dai driver 300.00 (unici compatibili con win 8) vai vedere tutte le bestemmie che ho tirato nel thread ufficiale:eek: :eek: :sofico: :sofico: :sofico:

e prima ho avuto nvidia 8800 e prima nemmeno mi ricordo

oltre che io dopo un anno e passa dall' uscita i driver nuovi facevano rallentare le schede (8800 e ghotic 3 per esempio partiro da 40fps e dopo 2 anni diventati 30 solo per gli aggiornamenti driver)

tutti i lati fanno le stesse porcate ...

stessa cosa con la 290x che dopo un anno intero i driver hanno sistemato il black screen

roccia1234
06-02-2015, 14:34
in grassetto

Lascia perdere, non ne vale la pena.

È nvidia, va difesa sempre e comunque a prescindere da tutto, perchè è buona e coccolosa.

AMD invece è brutta e cattiva, quindi va spalata M a prescindere. E le sue schede fanno schifo.

:doh:

dado1979
06-02-2015, 14:47
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...
Aldilà del fatto che sono d'accordo sulla GTX 970 che rimane cmq un best buy... ma questo NON è il momento per comprare alcuna vga. E se fra due mesi escono le nuove AMD e hanno prestazioni superiori alle attuali Nvidia e costano meno???

fukka75
06-02-2015, 15:06
Ma perchè la 980 che va più della 290 non è uscita mesi dopo :confused:

Mi diverto troppo a leggere ste cretinate quando ci sono le vga wars :rotfl:

divertiti pure quanto vuoi, ma a me frega niente della vga wars :asd::asd:

Indovina un po'? qualche mese dopo la 300X, nVidia tirerà fuori il megachippone maxwell, che magari andrà meglio di R300
Se ti fa piacere scriverò anche lì "bello sforzo, è uscita mesi dopo R300", così forse ti strapperò un altra risata :asd::asd:
"andasse", e poi dove sta la notizia? e fece lo stesso nvidia con la 680... ma va beh, l'importante è usare i polpastrelli a caso sulla tastiera :fagiano: scusi, esimio membro dell'accademia della crusca, se ho usato un gergo troppo colloquiale per le sue raffinate orecchie (anzi, occhi, visto che qui si legge): la prossima volta farò più attenzione, e ci penserò non una, ma due volte, prima di spngere qualche tasto a caso sulla tastiera :fagiano::fagiano:

Legolas84
06-02-2015, 15:29
io ho abbandonato la 560ti proprio per il mancato supporto dai driver 300.00 (unici compatibili con win 8) vai vedere tutte le bestemmie che ho tirato nel thread ufficiale:eek: :eek: :sofico: :sofico: :sofico:

e prima ho avuto nvidia 8800 e prima nemmeno mi ricordo

oltre che io dopo un anno e passa dall' uscita i driver nuovi facevano rallentare le schede (8800 e ghotic 3 per esempio partiro da 40fps e dopo 2 anni diventati 30 solo per gli aggiornamenti driver)

tutti i lati fanno le stesse porcate ...

stessa cosa con la 290x che dopo un anno intero i driver hanno sistemato il black screen

Pensa invece che io ho giocato per lungo tempo a NWN online.... gioco del 2002 scritto in openGL.

Un bel giorno lo standard openGL si aggiorna.... era forse il 2010... i driver video sia AMD che nVIDIA per adeguarsi ai nuovi standard vengono pesantemente modificati nel comparto openGL.

Risultato? NWN perdeva la disponibilità di diversi effetti grafici e almeno perdeva un 60% di performance.... inoltre non si poteva tornare indietro con i driver perchè i vecchi driver non supportavano le nuove VGA.... quindi tutto il popolo di videogiocatori online a NWN si vide devastato da questo aggiornamento.

Io a quel punto non accettando la cosa aprii un thread sul forum di supporto nVIDIA..... un moderatore mi aprì un canale di supporto con l'assistenza tecnica nVIDIA la quale mi passo ai responsabili dei driver. Dopo qualche giorno i responsabili della qualità dei driver mi risposero che la correzione richiedeva la creazione di un profilo OpenGL con istruzioni personalizzate per NWN (gioco del 2002, quindi 8 anni prima). I tecnici ci si sarebbero subito messi al lavoro ma non mi garantivano la disponibilità del fix sulla prossima relase. Infatti dovetti aspettare due relase di driver BETA (circa due settimane).... ma alla seconda nVIDIA aveva inserito il profilo NWN con istruzioni personalizzate, e le performance tornarono ottime (potevo di nuovo usare filtri e ombre in multiplayer), e tornarono disponibili gli effetti grafici personalizzati.

Questo è un esempio del supporto di cui parlo e che ho provato sulla mia pelle. Il problema è che molti neanche sanno di avere questa possibilità e l'attenzione che nVIDIA da ai suoi forum.

bonomork
06-02-2015, 15:53
l'articolo riguarda la nuova generazione di schede video AMD. non ce ne frega nulla delle vs. 970.

Therinai
06-02-2015, 15:53
Io spero in una svolta nella fascia media (200€), ma ora che ci arriviamo con amd si arriva al 2016 temo :muro:
ps: svolta = fascia media con bus maggiore di 128 e memoria maggiore di 2gb :muro:

Legolas84
06-02-2015, 15:54
l'ho letto e quindi? dice chiaramente che ci sono problemi dopo i 3.5 gb






ma dai lol.... dice chiaramente che non è così :eek:

FireFox152
06-02-2015, 16:26
Io parlo da assoluto inesperto e non voglio mettermi sopra nessuno ma non ho mai visto tanta ignoranza in una sola pagina di commenti... (mi riferisco alla prima ovviamente).

Ricordo che tra la 780Ti (se guardate nel profilo noterete che parlo per esperienza diretta) e la 290X (schede all'incirca della stessa età e prestazioni) corrono 25W di differenza in full load in favore della nVidia, praticamente una lampadina a basso consumo non un forno a gas. Come se chi compra Ferrari o Porsche o quello che volete guardasse quella che fa quei 2,5km/l i più. Inoltre AMD non è che si è messa d'accordo con SK Hynix per equipaggiare le GPU di stacked ram solo quando ha visto i bench della 980. Alla fine (follie a parte come la mia che essendo la prima scheda nVidia volevo fosse LA scheda) un utente oculato guarda qual'è quella con il miglior rapporto prezzo/prestazioni, non quella che costa un terzo in più per fare 5/6 fps in più o quella che ti fa risparmiare quei 5 euro ogni 3 anni di bolletta.

CrapaDiLegno
06-02-2015, 16:43
Io spero in una svolta nella fascia media (200€), ma ora che ci arriviamo con amd si arriva al 2016 temo :muro:
ps: svolta = fascia media con bus maggiore di 128 e memoria maggiore di 2gb :muro:
Vada per la quantità di memoria che è assoluta eindica quindi quanta roba ci puoi mettere dentro, ma questa cosa di andare a sindacare sui numeri di ROPs/TMUs/cache/bus etc.. dichiarati dal produttore proprio non la capisco.

Ora, se domani esce una scheda che ha 64bit di bus e 1GB/s di banda passante ma mi fa 500FPS a Crisys3/BF4/FC4/Watch Dogs e mettiamoci pure AC:Unity, non la compri perché ha i "numeri piccoli"?
Se nvidia/AMD ti dice che ha 4 ROPS invece di 64/128/millemila ma fa pixel filling in grado di reggere gli 8K a 60FPS, che fai? Ti inorridisci del misero numero?
Se ti dice che dentro ci sono 10 shader invece di 4096 ma esegue 50TFlops in DP e 100TFlops on SP, che fai? Non la usi per fare i calcoli perché il numero di unità di calcolo è ridicolo?

Questa cosa di estrapolare le prestazioni dai numeri sulla carta è veramente ridicola. Ci si crede tutti degli esperti (quando invece non sappiamo niente di quel che c'è dentro il pezzo di plastica che compriamo e ci dobbiamo affidare per tutto a quello che ci dice quello che lo crea): ah, sì, con 256bit di bus andrà sicuramente a sufficienza per fare questo e quello, 128 invece non basteranno, 32ROPs non bastano per questo e quello, se non ci sono almeno 10000 shader quell'effetto è impossibile da sostenere, com 128TMU sarò future proof per i prossimi 10 anni!
Quando invece immancabilmente è dimostrato che i numeri non vogliono dire proprio nulla:
AMD R600 con bus a 512bit: abbiamo visto come è finita
nvidia con bus a 256bit vs AMD a 384 (GK204 vs Tahiti) e abbiamo visto come è andata (la frequenza della memoria conta)
e ancora nvidia con bus a 256bit per i mercato enthusiast e vediamo come vanno.
Oppure AMD con CGN e un numero di core dichiarati uguale a 1/4 di quelli di VLIW (core non alu, mi raccomando). Come se in numero da solo facesse le prestazioni.
O il fatto che con 2000 shader/200+GB/s di banda le schede stutterassero in condizioni normali (eppure pagate tutte come buone).
E c'è ancora gente che leggendo "4096 bit di bus di memoria" già pensa ai mille mila frames che sarà possibile generare, come se la banda di memoria da sola fosse sufficiente a fare una GPU potente.
Poi scopre che i bit non sono 4096, ma è il numero riportato come equivalenza rispetto ai controller "canonici" e allora si incazza e fa RMA perché è stato truffato, fa niente che la banda passante sia quella dicharata e gli FPS siano quelli riportati dalle recensioni.
Quasi quasi riporto indietro la mia GPU (e anche la CPU va, che così mi faccio il sistema nuovo di pacca) perché sicuramente qualche transistor dentro non funziona come dovrebbe e quelli disabilitati diminuiscono il numero di transistor dichiarati dal produttore.

Fa bene Apple a non pubblicare alcuna specifica dei suoi prodotti. Per loro parlano le prestazioni. 1, 2, 4, 10 core/GHz/canali/banda o scribi non cambiano le prestazioni registrate e pubblicate.

AceGranger
06-02-2015, 16:44
Le 7970 uscirono due mesi prima delle 680.... Oggi è pieno il forum e vanno ancora alla grande, le 680 sono sparite....

bè, guardando i dati di Steam:

GTX 770 2.37%
GTX 970 1.80%
HD 7970 1.37%
GTX 780 1.05%
R9 200 Series 0.83%
R7 200 Series 0.78%
GTX 680 0.73%

in 3 mesi e mezzo nVidia ha DOPPIATO le vendite di tutta la serie R9 200 fuori da un anno....

mi sembra chiaro dove siano andati i vecchi possessori delle 680, come è altrettanto chiara la toppata della serie R9 da parte di AMD.


Siamo in 2 :)

non credo che volesse dire nulla di che, se non rispondere all'utente sopra che dal post sembrava stupito dai bench presunti che vedevano la nuova GPU in vantaggio

CrapaDiLegno
06-02-2015, 16:57
1. Se il problema non si vede, è un problema teorico e quindi non esiste. Questo mi pare lapalissiano.

se un qualsiasi gioco si blocca 5 volte su un minuto si vede
Allora lo vedi e quindi esiste. Mi sembra che nessuna recensione abbia riportato questi problemi e che per oltre 4 mesi il problema non sia sollevato.

2. Se il problema devi andarlo a cercare con il lanternino è un problema insignificante
chiunque abbia uno schermo piu grande del fhd , che poi una 970 su un 1080 px è sprecata
Con uno schermo più grande di 1080 non riempi comunuqe la memoria a oltre 3.5GB.

3. Se il problema appare in situazioni al limite in cui già la scheda ha problemi di suo (se il framerate ti cala a 15FPS quando la scheda normalmente fa i 25) il problema è irrilevante
io gioco a svariati titoli con la 290x a 2560x1600 attorno ai 30fps (coh 2 , tomb rider) con 5 stop al minuto sarebbero ingiocabili
Non mi sembra il caso che hai mostrato tu. Se scendi troppo di frame, togli un effetto e torni a volare come prima.
4. Se il problema appare quando la scheda è arrivata al limite delle sue capacità, il problema non è della scheda (mi sembra ovvio). Se il problema abbassa la soglia delle capacità massime della scheda, la gravità del problema è proporzionale al quanto il limite si è spostato.
la ram ad alte risoluzioni si satura subito , solo cs go dei giochi che ho ne prene poca
Ad alta risoluzione quando? Non mi sembra che prima dei 4GB non si potesse giocare oltre al FullHD.
5. Se il problema appare in quasi tutte le situazioni, anche in quelle di uso "normale" allora il problema esiste ed è grave.
una 970 usata in full hd e in situazioni normali come dici tu è già una cavolata di per se visto che non è per quella fascia di utilizzo
Una 970 usata per giocare a 4K è una vaccata, ma ognuno è libero di spendere i soldi come vuole.
Comunque non hai risposto alla domanda: se la 970 è uno scandalo perché si è scoperto che oltre ai 3.5GB stuttera (quindi a 4K), cosa hai pensato quando a stutterare anche in FullHD erano le shede AMD vendute a specifiche piene e prezzo pieno? Non ho letto commenti così acidi in quel periodo. Anzi, ovviamente la copla del tutto era di FCAT fatto da nvidia apposta per mostrare che le schede AMD avevano problemi.

In quale dei precendenti punti cade il problema della 970?
tipo in tutti??
Be', sì certo se scrivi altre vaccate che non rispondono alle domande poste il problema può ricadere anche sulla fame del mondo e la guerra in Ukraina.
Ovviamente non può ricadere in tutti i punto e se la tua conclusione è quella vuol dire che non hai capito un ca..o e stai solamente parlando perché vuoi spalare merda gratuitamente.

CrapaDiLegno
06-02-2015, 17:09
Le 7970 uscirono due mesi prima delle 680.... Oggi è pieno il forum e vanno ancora alla grande, le 680 sono sparite....
Forse perché nel frattempo nvidia ha immesso sul mercato altre schede migliori in termini d guadagno per lei (non di svendita per te) dopo la 680. Le 7970/7970GHz edition/280/280X sono la stessa minestra riscaldata che ha fatto parecchia fatica (nonostante i 2000+ shader, 384bit bus e una dimensione del die piuttosto abbondante) a tenere testa al "tirato al limite" chip di nvidia (chip di fascia media vs top... che festa in nvidia!).
Se questo per te è essere "fieri" di un prodotto che ha floppato di bestia nel rilanciare le velleità nel mercato grafico dell'azienda, hai qualche problema.
Certo se domani AMD svende ancora un po' i suoi prodotti (che vuoi che siano 400 milioni di deficit invece che 300), forse riesce a piazzarne ancora un po' e a far numero. Intanto nvidia fa un po' quel che vuole. Col freno a mano tirato :rolleyes:

CrapaDiLegno
06-02-2015, 17:19
Io parlo da assoluto inesperto e non voglio mettermi sopra nessuno ma non ho mai visto tanta ignoranza in una sola pagina di commenti... (mi riferisco alla prima ovviamente).

Ricordo che tra la 780Ti (se guardate nel profilo noterete che parlo per esperienza diretta) e la 290X (schede all'incirca della stessa età e prestazioni) corrono 25W di differenza in full load in favore della nVidia, praticamente una lampadina a basso consumo non un forno a gas. Come se chi compra Ferrari o Porsche o quello che volete guardasse quella che fa quei 2,5km/l i più. Inoltre AMD non è che si è messa d'accordo con SK Hynix per equipaggiare le GPU di stacked ram solo quando ha visto i bench della 980. Alla fine (follie a parte come la mia che essendo la prima scheda nVidia volevo fosse LA scheda) un utente oculato guarda qual'è quella con il miglior rapporto prezzo/prestazioni, non quella che costa un terzo in più per fare 5/6 fps in più o quella che ti fa risparmiare quei 5 euro ogni 3 anni di bolletta.
Vedremo quanto sarà disposta la gente a spendere per le prestazioni che darà la nuova GPU di AMD.
Gli enthusiast (o quelli che hanno soldi da buttare, non ho ancora capito la differenza) non guardano alcun test prezzo/prestazioni, solo la barra delle prestazioni e se qualcosa va più di quello che hanno comprato solo qualche mese prima devono cambiarlo a qualsiasi costo. Letteralmente.
Vedi serie Titan comprata dai furboni perché faceva 5 frame in più della 780 prima di capire che non era una scheda da gioco.
Ed è quindi giusto che le case produttrici vendano al prezzo che ritengono migliore per loro (per quanto troppo alto la gente "normale" lo cosideri).

Therinai
06-02-2015, 17:24
Vada per la quantità di memoria che è assoluta eindica quindi quanta roba ci puoi mettere dentro, ma questa cosa di andare a sindacare sui numeri di ROPs/TMUs/cache/bus etc.. dichiarati dal produttore proprio non la capisco.

Ora, se domani esce una scheda che ha 64bit di bus e 1GB/s di banda passante ma mi fa 500FPS a Crisys3/BF4/FC4/Watch Dogs e mettiamoci pure AC:Unity, non la compri perché ha i "numeri piccoli"?
Se nvidia/AMD ti dice che ha 4 ROPS invece di 64/128/millemila ma fa pixel filling in grado di reggere gli 8K a 60FPS, che fai? Ti inorridisci del misero numero?
Se ti dice che dentro ci sono 10 shader invece di 4096 ma esegue 50TFlops in DP e 100TFlops on SP, che fai? Non la usi per fare i calcoli perché il numero di unità di calcolo è ridicolo?

Questa cosa di estrapolare le prestazioni dai numeri sulla carta è veramente ridicola. Ci si crede tutti degli esperti (quando invece non sappiamo niente di quel che c'è dentro il pezzo di plastica che compriamo e ci dobbiamo affidare per tutto a quello che ci dice quello che lo crea): ah, sì, con 256bit di bus andrà sicuramente a sufficienza per fare questo e quello, 128 invece non basteranno, 32ROPs non bastano per questo e quello, se non ci sono almeno 10000 shader quell'effetto è impossibile da sostenere, com 128TMU sarò future proof per i prossimi 10 anni!
Quando invece immancabilmente è dimostrato che i numeri non vogliono dire proprio nulla:
AMD R600 con bus a 512bit: abbiamo visto come è finita
nvidia con bus a 256bit vs AMD a 384 (GK204 vs Tahiti) e abbiamo visto come è andata (la frequenza della memoria conta)
e ancora nvidia con bus a 256bit per i mercato enthusiast e vediamo come vanno.
Oppure AMD con CGN e un numero di core dichiarati uguale a 1/4 di quelli di VLIW (core non alu, mi raccomando). Come se in numero da solo facesse le prestazioni.
O il fatto che con 2000 shader/200+GB/s di banda le schede stutterassero in condizioni normali (eppure pagate tutte come buone).
E c'è ancora gente che leggendo "4096 bit di bus di memoria" già pensa ai mille mila frames che sarà possibile generare, come se la banda di memoria da sola fosse sufficiente a fare una GPU potente.
Poi scopre che i bit non sono 4096, ma è il numero riportato come equivalenza rispetto ai controller "canonici" e allora si incazza e fa RMA perché è stato truffato, fa niente che la banda passante sia quella dicharata e gli FPS siano quelli riportati dalle recensioni.
Quasi quasi riporto indietro la mia GPU (e anche la CPU va, che così mi faccio il sistema nuovo di pacca) perché sicuramente qualche transistor dentro non funziona come dovrebbe e quelli disabilitati diminuiscono il numero di transistor dichiarati dal produttore.

Fa bene Apple a non pubblicare alcuna specifica dei suoi prodotti. Per loro parlano le prestazioni. 1, 2, 4, 10 core/GHz/canali/banda o scribi non cambiano le prestazioni registrate e pubblicate.
Per quanto mi riguarda possono fare schede a 1 bit :p Basta che poi non devo patire tremoni del tipo "eh ma con 200 euro cosa ti aspettavi? Ad assassin crin ci giochi a 640x480" :asd:
Comuque la questione numeri è stata sollevata n.mila volte e la risposta è sempre la stesa: banda passante insufficiente, poi di moduli di memoria in teoria ne possono mettere quanti ne vogliono, ma se i dati devono aspettare per arrivarci non serve a una mazza.

wolverine
06-02-2015, 19:11
AMD fa uscire la serie 3xx, poi nVidia farà uscire una super maxwell, poi AMD.. poi nVidia.. poi AMD e poi nVidia.. :fagiano:

Ma che è la solita gara a chi ce l'ha più lungo?! :doh:

tuttodigitale
06-02-2015, 19:37
Beh bello sforzo, dopo 6/7 mesi (almeno,se sarà confermata la data del Q2) dall'uscita della 980, ci macanva pure che andava peggio :D:D

Se non cado in errore la Hd7970 è uscita 4 mesi prima (le prime gtx 680 in vendita si sono viste a Maggio), e tecnicamente era (ed è) superiore. Driver prestanti sono usciti solo a Giugno (ma sono migliorati di un altro bel pò a fine anno)

Già, di una certa esperienza.
Quelli che compravano le vecchie schede AMD che stutteravano e non dicevano nulla in merito? Anzi, no, esaltavano le caratteristche tecniche (quelle stesse specifiche scritte saulla carta) e poi non si accorgevano che giocavano di m...a?
Quale scheda AMD stuttera? Il problema era solo del crossfire, ma nessuno si è preso la briga di vedere retrospettivamente la situazione prima che nvidia prendesse posizione in merito. Quindi imho, è stata una semplice mossa di marketing.
Per inciso i problemi di stuttering in modalità dx10, sono stati risolti anche sulle soluzioni precedenti, a detta dei maggiori redattori al mondo, senza compromettere gli fps medi.
PS comunque la miglior tecnologia multi-gpu al momento è di AMD grazie alle librerie Mantle.

8xMSAA con il FHD? Perché mai? Ma con queste schede ci giocate anche oppure vi fate solo le pippe coi benchmark?
A parte 8xMSAA in FHD la hd4850 faceva girare alla grande tutti i giochi (meno uno).
Poi mi chiedo se non si attivano i filtri a palla cosa si compra a fare queste schede da 300 e rotti euro?
TAnto più che sono pubblicizzate per il 4k (praticamente un full hd con SuperSampling)

Legolas84
06-02-2015, 19:41
bè, guardando i dati di Steam:

GTX 770 2.37%
GTX 970 1.80%
HD 7970 1.37%
GTX 780 1.05%
R9 200 Series 0.83%
R7 200 Series 0.78%
GTX 680 0.73%

in 3 mesi e mezzo nVidia ha DOPPIATO le vendite di tutta la serie R9 200 fuori da un anno....

mi sembra chiaro dove siano andati i vecchi possessori delle 680, come è altrettanto chiara la toppata della serie R9 da parte di AMD.




non credo che volesse dire nulla di che, se non rispondere all'utente sopra che dal post sembrava stupito dai bench presunti che vedevano la nuova GPU in vantaggio



Tra l'altro poco più del 50% degli utenti steam usa una nVIDIA (che fa solo schede discrete).... poco meno del 30% una AMD (discrete + integrate) e il resto Intel (integrate).....

Legolas84
06-02-2015, 19:44
Quale scheda AMD stuttera? Il problema era solo del crossfire, ma nessuno si è preso la briga di vedere retrospettivamente la situazione prima che nvidia prendesse posizione in merito. Quindi imho, è stata una semplice mossa di marketing.
Per inciso i problemi di stuttering in modalità dx10, sono stati risolti anche sulle soluzioni precedenti, a detta dei maggiori redattori al mondo, senza compromettere gli fps medi.
PS comunque la miglior tecnologia multi-gpu al momento è di AMD grazie alle librerie Mantle.




Le AMD a scheda singola prima che uscisse il polverone dei test Fcat stutteravano come se non ci fosse un domani.... tanto che AMD dichiarò subito che avrebbe corretto i driver il prima possibile visto che ora c'era un modo per misurare questo tipo di problemi.

Poi va be se secondo te funziona meglio il Crossfire dello SLI siamo apposto.... :asd:

CrapaDiLegno
06-02-2015, 20:41
Se non cado in errore la Hd7970 è uscita 4 mesi prima (le prime gtx 680 in vendita si sono viste a Maggio), e tecnicamente era (ed è) superiore. Driver prestanti sono usciti solo a Giugno (ma sono migliorati di un altro bel pò a fine anno)
Sarà superiore ma nvidia ha venduto molte più 680 a prezzo superiore e con costo (alla produzione) inferiore. Si vede che questo "tecnicamente" superiore non lo hanno visto in molti.

Quale scheda AMD stuttera? Il problema era solo del crossfire, ma nessuno si è preso la briga di vedere retrospettivamente la situazione prima che nvidia prendesse posizione in merito. Quindi imho, è stata una semplice mossa di marketing.
Per inciso i problemi di stuttering in modalità dx10, sono stati risolti anche sulle soluzioni precedenti, a detta dei maggiori redattori al mondo, senza compromettere gli fps medi.
PS comunque la miglior tecnologia multi-gpu al momento è di AMD grazie alle librerie Mantle.
La "bufera" sullo stuttering della schede AMD è nata per il fatto che lo facessero a scheda singola. A scheda doppia erano già diverse generazioni che facevano schifo e solo un cieco non si sarebbe accorto della cosa. Non serviva FCAT. E non invertire la questione: la discussione non è nata DOPO FCAT, ma FCAT è nato dopo che il problema è stato sollevato e c'erano ancora dei furboni (perché incompetenti o in malafede) che negavano la cosa.
Ovviamente nvidia non aspettava altro e non si è fatta pregare per realizzare tutto l'ambaradan, così come oggi AMD le sa provando tute per uscire dalla palta dove era finita e lancia tutti i messaggi promozionali che può per dire: hei, esisto anche io, tra pochissimo uscirò con qualcosa di strabiliante che vi farà dimenticare queste schede schifezza mezze castrate.
Le librerie Mantle meglio in Crossfire? Proprio loro che mostrano di non scalare nella maggior parte dei giochi e di non funzionare se hai meno di 2GB di RAM? Mah, se lo dici tu che AMD è messa meglio mi immagino quanta pena è lo SLI di nvidia.

A parte 8xMSAA in FHD la hd4850 faceva girare alla grande tutti i giochi (meno uno).
Poi mi chiedo se non si attivano i filtri a palla cosa si compra a fare queste schede da 300 e rotti euro?
Tanto più che sono pubblicizzate per il 4k (praticamente un full hd con SuperSampling)
Mi meraviglio di te. Davvero. Non puoi uscirtene con "ma la mia 4850 faceva girare tutto in FullHD". Ci stai prendendo in giro, vero? Non stai mettendo sullo stesso piano i giochi e i motori di 4 anni fa con quelli di oggi, vero? Non stai dicendo che la tua 4850 oggi fa girare BF4 o FC4 a 60FPS, vero? No perché negli ultimi benchmark che ho visto alcune schede che vanno il doppio o il triplo rispetto alla 4850 proprio non entrano neanche al fondo della classifica a 1080p.
Una scheda del genere serve per abilitare i nuovi effetti più realistici che permettono i motori recenti, non solo per aver un inutile AA 1000x a iper risoluzioni (qualcuno non deve aver capito a cosa serve l'AA e mette il massimo solo perché è presente e poter dire "io può"" a quanto pare).
Magari vuole attivare il DOF, l'SSAO, modelli più complessi ed effetti particellari, riflessi più realistici.. non necessariamente l'effetto che usa tutta la memoria e la banda passante ma che non gli rende nulla in qualità di immagine. Per poi magari lamentarsi che gli effetti che nvidia ha aggiunto tramite Gameworks sono inutili perché non danno nulla in più.. l'AA a 1000x invece.. o certo, quello sì che aiuta il realismo su un monitor 4K.

Comunque uno guarda qui:
http://www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_5.html
e poi qui:
http://www.tomshw.it/cont/articolo/prestazioni-far-cry-4-schede-video-e-cpu-a-confronto-risultati-1440p-4k-e-cpu/61794/4.html
e poi qui:
http://www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_5.html
e vede che la 970 è una signora scheda.

Non capisco questa voglia di affermare a tutti i costi che appena si supera il FullHD la scheda diventa inutilizzabile perché si sfora necessariamente i 3.5GB di RAM (ma la 4850 quanta memoria aveva? E ce la faceva a raggiungere il fullHD? :Prrr:)

CrapaDiLegno
06-02-2015, 21:00
Infine c'è questa che mostra che i frame minimi (oltre a quelli massimi) della 970 (misurati con FCAT, per chi dice che i risultati non ci sono) sono praticamente uguali a quelli della 290X (la versione ICS, quella con 384bit di bus, mille milioni di shader, un settiliardi di GHz e altrettanti di Watt ciucciati e nessuna caratteristica castrata! TRUFAAA!!!)
http://www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_14.html
Si vede che in 4K e dettagli minimi la scheda è al limite del giocabile (tranne in GRID dove va bene) e se uno ha due neuroni invece che uno non pensa proprio che la scheda sia in grado di gestire le varie mod (o "patch ufficiali") che permettono di installare texture e modelli super mega hi res. Nemmeno avesse 4, 8 o 16GB di RAM lo si può pensare, semplicemente è già al limite così.
Non averlo capito, o voler mostrare che con tali pacchetti la scheda non va come uno si aspetta è volere davvero essere malevoli. Per esser buonisti. A non esserlo uno semplicemente dice che là fuori c'è un sacco di gente che non capisce davvero un ca..o.
Non mi sembra che nessuno si sia mai lamentato perché la sua scheda mobile da 8GB di RAM non sia in grado di fare andare questi titoli a 4K.. eppure con 8GB... TRUFFAA!!!!!!

Poliacido
06-02-2015, 21:33
ok, è tempo di prendermi un altra 970 strix. non capisco tutti sti utonni che se le vendono... ma prima di comprare non hanno guardato i bench? a me avendo le stesse performnce dei bench visti online non mi lamento...

Nvidia andrebbe boicottata a prescindere dopo lo tsunami di figura di m***a che gli è arrivato addosso dopo lo scandalo dei 3.5gb
Hanno venduto schede con specifiche inferiori a quelle ufficiali per poi affermare che forse erano state "ritoccate"..... che venditori di fumo. Gli sta bene che migliaia di utenti vogliono il refund delle schede LOL
Per altro una 290 di 15 mesi fa ha quasi uguali prestazioni... con prezzi nettamente inferiori, non parliamo della 290X

MiKeLezZ
07-02-2015, 00:47
A parte 8xMSAA in FHD la hd4850 faceva girare alla grande tutti i giochi (meno uno).
Poi mi chiedo se non si attivano i filtri a palla cosa si compra a fare queste schede da 300 e rotti euro?
TAnto più che sono pubblicizzate per il 4k (praticamente un full hd con SuperSampling)Faceva girare alla grande i giochetti di 6 anni fa con tre poligoni in croce e non certo in full hd.

I filtri non sono altro che artifizi per compensare gli artefatti grafici (seghettature) delle basse risoluzioni (più qualche finezza tipo transparent bitmap, etc).

Più sali di risoluzione meno sono utili, a full hd già oltre il 4x è sprecato.

Non solo, vecchi filtri come il MSAA spesso creano un'immagine senza seghettature, ma mancante di nitidezza e con la perdita dei dettagli più fini.

Per questo si sono introdotti nuovi filtri più efficienti e in grado di garantire miglior qualità come il MFAA (che a sua volta sostituisce il TXAA)... usare il MSAA 8x a 1080p, farci dei test sopra per discuterci, è semplicemente ridicolo... perché è semplicemente meglio usare un 4xMFAA che ha un performance hit di un 2xMSAA (ovvero quasi nullo!).

UchihaShisui88
07-02-2015, 01:29
la concorrenza tra consumatori.. Mah io dico che i bench contano fino a un certo punto. Ho 2 r9-290 liquidate e gioco a crysis 3 in 4k con textures massime, specifiche di sistema elevata, fxaa e sincronia verticale attivata. L'esperienza di gioco ė strabiliante e fluida. Ovviamente ci sono delle scene dove si nota qualche calo di frame ma é sporadico. Se dovevo dare retta ai bench non dovevo installarlo proprio Le ho prese a 400 euro entrambe e non mi lamento. Poi vi state scannando su cose che ancora non esistono ma capite dove sta il problema? É l'ottimizzazione che manca , ma non ho certo scoperto l'America. Finché ci saranno le console non si faranno (Sony e Microsoft contro nvidia e amo) una guerra per 4 accaniti nerd che vogliono parlare di chi ce l'ha più lungo o dire il mondo è bello perché verde o rosso. Concordo con altri che già hanno detto che il rapporto prezzo / prestazioni é quello che conta, non la bandiera, in modo ancora più significato per chi gioca al pc. Per il fullhd sono sprecate le top di gamma, e non credo che tutti i commentatori siano muniti di schermi 4k

tuttodigitale
07-02-2015, 05:03
edit.doppio post

tuttodigitale
07-02-2015, 05:11
LA HD7970 era tecnicamente superiore se non altro per quei 2GB di VRAM che facevano pietà su una top di gamma da 500 euro (e a maggior ragione sulla gtx690 da 1000 euro) prestazioni nel gpgpu pesantemente compromesse, prestazioni per la prima volta non garantite (il gap prestazionali tra una gtx680 fortunata e una sfigata raggiunge il 15%). La vera nota positiva per la gtx680 erano le prestazioni con i giochi con motore grafico FrostBite2 (ma ad una analisi un pochino più accurata bastava vedere quanto la gtx580 era incomprensibilmente competitiva nei confronti della hd7970)
Sul costo di produzione ridotto vedo che c’è gente che ha fonti certe. Si vede che lavorano sia con l’una e l’altra azienda… Atteniamoci ai fatti: AMD ha fatto il suo paper launch a Dicembre con disponibilità a Gennaio e nvidia a Marzo con disponibilità nella 2-3 settimana di Maggio, la prima sembrerebbe aver avuto minor problemi o comunque maggior tempo per aumentare le rese.
Sul market share dico solo che anche la serie FX è stato un successo commerciale, e stiamo parlando delle peggiori schede degli anni 2000. Sfacciate dx9 quando con l’uso di queste librerie si assisteva ad un calo di prestazioni grottesco rispetto alla concorrenza (meno della metà degli fps) e praticamente nessun gioco dx9 based è compatibile con quelle MERDE, che hanno venduto comunque più delle schede basate sul rivoluzionario R300. Salvo techreport, nessuna redazione ha messo in guardia sulle prestazioni compromesse nei giochi next-gen, che sarebbero usciti 6 mesi dopo nel caso specifico della 5900xt.

http://www.anandtech.com/show/1545/4

Se vogliamo essere precisi, la risoluzione dei problemi di stuttering ha comportato un’ impennata delle prestazioni (un ulteriore +15% in BF3), quindi è stato più un problema sottovalutato da AMD, che un compromesso per aumentare la lunghezza delle barre.

La stessa nvidia ha dichiarato che da 2 anni prima dell’introduzione di FCAT, hanno pensato al frame-time visto che lo stuttering è stata una componente costante della prima generazione di gpu FERMI. FCAT è stata una astuta mossa di marketing, lanciata proprio al debutto della hd7990, seppur sia stata una piacevole introduzione


L’unica soluzione al problema per quanto se ne dica è il V-sync unito ad una sovrabbondante potenza di calcolo. G-sync e free-sync non sono utili, anche se la stampa continua a ripetere la cantilena.



Faceva girare alla grande i giochetti di 6 anni fa con tre poligoni in croce e non certo in full hd.

I filtri non sono altro che artifizi per compensare gli artefatti grafici (seghettature) delle basse risoluzioni (più qualche finezza tipo transparent bitmap, etc).

Più sali di risoluzione meno sono utili, a full hd già oltre il 4x è sprecato.

Non solo, vecchi filtri come il MSAA spesso creano un'immagine senza seghettature, ma mancante di nitidezza e con la perdita dei dettagli più fini.

Per questo si sono introdotti nuovi filtri più efficienti e in grado di garantire miglior qualità come il MFAA (che a sua volta sostituisce il TXAA)... usare il MSAA 8x a 1080p, farci dei test sopra per discuterci, è semplicemente ridicolo... perché è semplicemente meglio usare un 4xMFAA che ha un performance hit di un 2xMSAA (ovvero quasi nullo!).

Fra tutti quelli che hai citato è proprio il MSAA ad avere il minor blur ….. ho il sospetto che ti confondi con il SMAA. Infatti il MFAA non è altro che un temporal MSAA, con l'aggiunto di un filtro (che introdurrà inevitabilmente una sfocatura)

Legolas84
07-02-2015, 11:03
LA HD7970 era tecnicamente superiore se non altro per quei 2GB di VRAM che facevano pietà su una top di gamma da 500 euro (e a maggior ragione sulla gtx690 da 1000 euro) prestazioni nel gpgpu pesantemente compromesse, prestazioni per la prima volta non garantite (il gap prestazionali tra una gtx680 fortunata e una sfigata raggiunge il 15%). La vera nota positiva per la gtx680 erano le prestazioni con i giochi con motore grafico FrostBite2 (ma ad una analisi un pochino più accurata bastava vedere quanto la gtx580 era incomprensibilmente competitiva nei confronti della hd7970)
Sul costo di produzione ridotto vedo che c’è gente che ha fonti certe. Si vede che lavorano sia con l’una e l’altra azienda… Atteniamoci ai fatti: AMD ha fatto il suo paper launch a Dicembre con disponibilità a Gennaio e nvidia a Marzo con disponibilità nella 2-3 settimana di Maggio, la prima sembrerebbe aver avuto minor problemi o comunque maggior tempo per aumentare le rese.
Sul market share dico solo che anche la serie FX è stato un successo commerciale, e stiamo parlando delle peggiori schede degli anni 2000. Sfacciate dx9 quando con l’uso di queste librerie si assisteva ad un calo di prestazioni grottesco rispetto alla concorrenza (meno della metà degli fps) e praticamente nessun gioco dx9 based è compatibile con quelle MERDE, che hanno venduto comunque più delle schede basate sul rivoluzionario R300. Salvo techreport, nessuna redazione ha messo in guardia sulle prestazioni compromesse nei giochi next-gen, che sarebbero usciti 6 mesi dopo nel caso specifico della 5900xt.

http://www.anandtech.com/show/1545/4

Se vogliamo essere precisi, la risoluzione dei problemi di stuttering ha comportato un’ impennata delle prestazioni (un ulteriore +15% in BF3), quindi è stato più un problema sottovalutato da AMD, che un compromesso per aumentare la lunghezza delle barre.

La stessa nvidia ha dichiarato che da 2 anni prima dell’introduzione di FCAT, hanno pensato al frame-time visto che lo stuttering è stata una componente costante della prima generazione di gpu FERMI. FCAT è stata una astuta mossa di marketing, lanciata proprio al debutto della hd7990, seppur sia stata una piacevole introduzione


L’unica soluzione al problema per quanto se ne dica è il V-sync unito ad una sovrabbondante potenza di calcolo. G-sync e free-sync non sono utili, anche se la stampa continua a ripetere la cantilena.





Fra tutti quelli che hai citato è proprio il MSAA ad avere il minor blur ….. ho il sospetto che ti confondi con il SMAA. Infatti il MFAA non è altro che un temporal MSAA, con l'aggiunto di un filtro (che introdurrà inevitabilmente una sfocatura)



La GTX 680 è stata una grandissima VGA.... consumi ridotti e elevate prestazioni sempre, e con la sua Ram ha sempre fatto il suo sporco lavoro alla grande per il periodo in cui è uscita. Infatti a quel tempo venne accolta con grande entusiasmo da tutti. Chi vuole seriamente il gpgpu va su altre schede. Inutile attaccarla adesso nel 2015 :asd:
Inoltre in Full-HD (risoluzione di riferimento per il tempo come ora il 2K) distacca nettamente la 7970:

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perfrel_1920.gif

Tanto che anche li è dovuta uscira la Ghz edition per pareggiare i conti e aumentare i consumi ovviamente....


La serie FX è stata l'unica serie azzoppata su questo dubbi non ce ne sono, anche se già con NV35 si misero le pezze dove si poteva.... Ma anche ATi ha avuto le sue grandi occasioni di fare delle schede zoppe alla grande.... parliamo della HD 2900XT? Subito dopo ATi ha venduto tutta la baracca ad AMD o sbaglio? :asd:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_index.html


In ogni caso il market share delle discrete è sempre stato pesantemente a favore di nVIDIA.


Hai un link riguardo allo stuttering di Fermi dichiarato da nVIDIA? No perchè ne stai sparando talmente tante a caso senza mai mettere un link che oramai non si capisce dove stiamo andando a parare, ognuno scrive quello che vuole spacciandolo per vero e senza mai mettere un link (cosa che invece io faccio mi pare).

Poi quando dici che il V-sync è l'unica soluzione allo stuttering, e il g-sync o adaptive sync non servono a nulla, fai capire il valore di tutto quello che hai scritto fino ad ora. Un'accozzaglia di inesattezze derivanti da personali convinzioni.

Vedo che sei iscritto dal 2010.... il mio consiglio è di spendere un pò di tempo a documentarti ed informarti in modo adeguato e poi scrivere sui forum ;)

Legolas84
07-02-2015, 11:53
"In any case, the one bit of good news here is that for gaming running out of VRAM is generally rather obvious. Running out of VRAM, be it under normal circumstances or going over the GTX 970’s 3.5GB segment, results in some very obvious stuttering and very poor minimum framerates. So if it does happen then it will be easy to spot. Running out of (fast) VRAM isn’t something that can easily be hidden if the VRAM is truly needed."




ma cosa c'entra l'anno di iscrizione? ad esempio sono iscritto da gennaio 2012 io, ma mica seguo il settore dal 2011...
:doh:



Non quotare solo quello che ti viene bene nell'articolo.... ;)

Se leggi tutte le considerazioni finali viene esplicitamente detto che l'euristica del driver fa un buon lavoro allocando i dati che non hanno bisogno di banda nella parte lenta della ram e il resto in quella veloce.... solo ovviamente se si superano i 3,5GB di ram usata.

Quello che tu quoti facendone il tuo personale cavallo di battaglia dice semplicemente che nel caso venissero allocati dati importanti nella parte lenta della ram non sarebbe difficile accorgersene visto la differenza di velocità dei due segmenti.

Non puoi ridurre un articolo di quella portata quotandomi 5 righe estrapolate dalle conclusioni che portate fuori dal contesto hanno un differente significato.

Questo vuol dire malafede ;)

Tanto è vero che:

If NVIDIA’s heuristics and driver team do their job correctly, then the performance impact versus a theoretical single-segment 4GB card should only be a few percent. Even in cases where the entire 4GB space is filled with in-use resources, picking resources that don’t need to be accessed frequently can sufficiently hide the lack of bandwidth from the 512MB segment. This is after all just a permutation on basic caching principles.

But so far with this new information we have been unable to break the GTX 970, which means NVIDIA is likely on the right track and the GTX 970 should still be considered as great a card now as it was at launch. In which case what has ultimately changed today is not the GTX 970, but rather our perception of it.

Ti invito inoltre a visualizzare i test fatti a pagina 758 del thread della GTX 970.... cosa che conferma quanto detto da Anandtech.


Riguardo l'anno di iscrizione.... be si conta molto quando uno scrive cose come:

- Il Crossfire va meglio dello SLI grazie a Mantle :eek:

- Il V-sync è la soluzione allo stuttering al contrario dell'adaptive Sync :eek:

Significa che non hai chiare le basi.

Zappa1981
07-02-2015, 12:58
Da possessore di schede ati dall infanzia posso dire che nvidia è molti passi avanti ad amd/ati da sempre, lo si vede con le nuove nate e lo si è sempre visto in passato. Devo dire che scelgo ati/amd in primis per questione di costi, in soldoni mi costano meno e ovviamente vanno meno ma non di moltissimo e queste mi bastano personalmente per giocare, inoltre ho sempre dato fiducia a questa azienda (lo so sembro un fanboy) e ho sempre creduto in un futuro più roseo dove schede potenti avranno prezzi abordabili e vedo che questo momento sta per arrivare. La questione mantle non può che farmi piacere per il semplice fatto che ho potuto palpare con mano i risultati di queste nuove api dove con la mia 7970 non ho nessun problema di fps di sorta e con mantle ho recuperato 20fps in media su titoli di cui faccio uso. La cosa delle ram di nvidia...beh se scrivo 4 deve averne 4gb non può assolutamente usarne 3.5 e mettere del restante cose che non vengono usate, mi sembra un pò come arrampicarsi sugli specchi...

UchihaShisui88
07-02-2015, 13:28
ma che coraggio a scrivere edit post doppio. vatti a leggere quello che ho scritto e poi leggi i commenti di tutti gli altri esperti caro "tuttodigitale" collega la lingua al cervello e agli occhi

CrapaDiLegno
07-02-2015, 14:28
LA HD7970 era tecnicamente superiore se non altro per quei 2GB di VRAM che facevano pietà su una top di gamma da 500 euro (e a maggior ragione sulla gtx690 da 1000 euro) prestazioni nel gpgpu pesantemente compromesse, prestazioni per la prima volta non garantite (il gap prestazionali tra una gtx680 fortunata e una sfigata raggiunge il 15%).
E siamo sempre lì.. tanti numeri, tante specs, io so che questo deve essere migliore di quello, 1GHz meglio di 800MHz, 3GB meglio di 2, 384bit meglio di 256, il GPGPU (che non è calcolo DP e basta) meglio averlo che no (per farci cosa poi), 389mm^2 meglio di 294mm^2... poi invece nella realtà tante bastonate e svendite per rendere la TOP appetibile rispetto alla media.
Forse non ti è ancora chiaro cosa è successo con in passaggio tra VLIW e CGN e cosa invece tra Fermi e Kelper.
Vedi di riguardarti per bene cosa c'era prima e cosa c'è stato dopo. Dovresti essere in grado di farlo.

Sul costo di produzione ridotto vedo che c’è gente che ha fonti certe. Si vede che lavorano sia con l’una e l’altra azienda… Atteniamoci ai fatti: AMD ha fatto il suo paper launch a Dicembre con disponibilità a Gennaio e nvidia a Marzo con disponibilità nella 2-3 settimana di Maggio, la prima sembrerebbe aver avuto minor problemi o comunque maggior tempo per aumentare le rese.
Le rese.. queste sconosciute... peccato che Tahiti fosse più grande del GK104. A parità di resa (cosa che dubito visto le basilari leggi che regolano la resa, oltre che al fatto che è evidente dai voltaggi applicati che AMD avesse qualche problema... forse ha voluto anticipare troppo la produzione), Tahiti costa di più per il semplice fatto che ce ne stanno molti meno su un wafer.
Tahiti è stato così convincente che all'uscita della GTX680 c'è stato l'assalto e questa non è stata disponibile per lungo tempo. E amd ha dovuto calare il prezzo di brutto e inventarsi una GHz edition che ha permesso di scoprire tutti i limiti di quella GPU (forno forno forno non diverso da Fermi v1).
Un successo infinito. Sicuro.

Sul market share...
Sul market share non ce ne sbatte una beata mazza. Se il prodotto è valido vende, se non lo è svende. AMD ha svenduto (e tanto) la sua top gamma. Le è andata molto meglio con le mainstream, ma comunque ha toppato alla grande a realizzare (o per design o per implementazione) una architettura che scalasse in maniera decente. Top dei top la presentazione di Hawaii che s'è frantumato come la Concordia contro lo scoglio GK110. E abbiamo visto cosa è successo ai prezzi e con la presentazione delle Titan.
Per non parlare di quel successone di Tonga che tutti rumoreggiavano essere qualcosa che in realtà non è (c'è chi spergiurava che avesse 384 bit di bus, chi avesse altri nmila shader per qualche oscuro motivo disabilitati... dove sono finiti tutti quei sapientoni?). Nessuno ha capito che Tonga è stato il fallimentare tentativo di contenere i costi di Tahiti che non potevano reggere il confronto con il GK104.
Se poi tu credi che CGN sia un successo per AMD, prova a chiederti allora cosa sarebbe avvenuto se AMD avesse solo fatto un mezzo passo falso... avremmo avuto Tahiti che competeva con il GK106?

Se vogliamo essere precisi, la risoluzione dei problemi di stuttering ha comportato un’ impennata delle prestazioni (un ulteriore +15% in BF3), quindi è stato più un problema sottovalutato da AMD, che un compromesso per aumentare la lunghezza delle barre.
Stai dicendo quello che vuoi per dimostrare cose che non sono vere. L'aumento delle prestazioni ce le ha avute anche nvidia. Essendo il gioco benchmark di riferimento è ovvio che entrambe le case si siano concentrate per tentare di avere la barretta sempre più lunga. Ma il problema stuttering in condizioni di uso normale è rimasto a lungo. E ancora oggi, se hai la decenza di guardare i grafici vedi le le barre di variabilità delle schede AMD sono di gran lunga maggiori di quelle nvidia.

La stessa nvidia ha dichiarato che da 2 anni prima dell’introduzione di FCAT, hanno pensato al frame-time visto che lo stuttering è stata una componente costante della prima generazione di gpu FERMI. FCAT è stata una astuta mossa di marketing, lanciata proprio al debutto della hd7990, seppur sia stata una piacevole introduzione
A parte che di stuttering con Fermi proprio non se ne è mai parlato (fonti?).
Hai appena dimostrato che la qualità di una scheda non è solo numeri più grandi e tanti transistor buttati in una superficie di silicio, ma è anche capacità di saperli sfruttare a dovere. Inutile che mi dai GHz, MB/s, Rops e TMU a volontà a poi ho una esperienza peggiore che con una scheda che ha meno numeri sulla carta ma sulla quale è stato investito ANCHE sulla qualità. Che sono poi la differenza di prezzo tra le schede AMD e quelle nvidia a parità di fascia. Ovviamente, come sempre, AMD arriva dopo a investire là dove nvidia ci ha già pensato da diverso tempo. Che non è un male in assoluto (anche s ela dice lunga sulle capacità di visione futura di una azienda quella di rimanere sempre a rimorchio). Il suo problema è che anche arrivandoci dopo non lo fa con una qualità del risultato migliore.

L’unica soluzione al problema per quanto se ne dica è il V-sync unito ad una sovrabbondante potenza di calcolo. G-sync e free-sync non sono utili, anche se la stampa continua a ripetere la cantilena.
E qui ti metti da solo la pietra tombale, dimostrando di non aver sapere nulla su cosa sia lo stuttering e come va risolto e cosa ha detto la stampa riguardo alle due tecnologie che hai nominato. :mc:
Fai un ripassino, poi torna a parlare di GPU e delle loro caratteristiche.

CrapaDiLegno
07-02-2015, 14:46
"In any case, the one bit of good news here is that for gaming running out of VRAM is generally rather obvious. Running out of VRAM, be it under normal circumstances or going over the GTX 970’s 3.5GB segment, results in some very obvious stuttering and very poor minimum framerates. So if it does happen then it will be easy to spot. Running out of (fast) VRAM isn’t something that can easily be hidden if the VRAM is truly needed."

La tua malafede è evidente.
Non c'è un benchmark in condizioni di uso normali che fa decadere le prestazioni della GTX970. Vedi tutti i link riportati prima che prevedono anche test fatti a 2K e 4K.
L'unico modo di metterla in ginocchio è inventarsi impostazioni assurde che farebbero girare il gioco di me...a anche se avesse 8GB diRAM a banda piena.
Però questo non lo si evidenzia. Si evidenzia solo che il limiti della scheda arrivano mezzo GB prima. Utile come dimostrare che una scheda mobile da 8GB non è in grado di far girare decentemente un gioco a 2K (neanche 4K).
E si grida allo scandalo. Anzi, lo si inventa. Quando nei test normali, cioè con le impostazioni che permettono di giocare, la GTX970 fa gli stessi identici numero della 290X. Anzi, ha variabilità di frame rat e inferiore(!!!). La 290X è nata per ben altri target ma che si trova a competere con una architettura adattata a questo processo produttivo, con costo inferiore, consumi inferiori (che non è solo bolletta, ma anche comfort d'uso)... un successone!
Che richiede di inventarsi uno scandalo "prestazionale" (quando basterebbe quello della malafede di nvidia) per cercare di risollevarne le ormai segnate sorti. Purtroppo la dura realtà è che o AMD tira fuori il coniglio dal cilindro con questa benedetta 380X e i suoi numeri mostruosi (sempre sulla carta), oppure diciamo addio alla concorrenza anche in campo grafico. Ricordiamoci che questa nuova GPU andrà a scontrarsi con big Maxwell non con il "misero GM204"... quindi speriamo che sia davvero decente!

nessuno29
07-02-2015, 16:49
Bla,bla,bla,bla

Ma quanta presunzione?Un modo di scrivere saccente che infastidisce.In tutte queste righe ho letto cose giuste(ed altre meno)ma il tono non permette un quote costruttivo.

Quando si scrive non bisogna pensare per forza di cose di essere l'oracolo della verità e delle ragioni perdute.

CrapaDiLegno
07-02-2015, 17:03
Ma quanta presunzione?Un modo di scrivere saccente che infastidisce.In tutte queste righe ho letto cose giuste(ed altre meno)ma il tono non permette un quote costruttivo.

Quando si scrive non bisogna pensare per forza di cose di essere l'oracolo della verità e delle ragioni perdute.

Venire, fare accuse e scrivere a vanvera per cercare di confondere le idee non è altrettanto corretto. Dopo mille post in vari thread e link che dimostrano che la scheda a 4K funziona e neanche male (rispetto alla concorrenza, in termini assoluti fanno tutte pena) quando uno chiede una spiegazione e non gli viene data vuol dire che dall'altra parte non c'è argomentazione valida.
Scrivere tanto per è una cosa che mi infastidisce di più rispetto a chi usa toni poco garbati ma è in grado di sostenere una conversazione.

Hai sempre la libertà di mostrare quali sono le cose che tu non ritieni essere giuste.

Legolas84
07-02-2015, 18:09
Sono daccordo su tutta la linea CrapaDiLegno.

Purtroppo i toni diventano questi quando si viene presi per i fondelli da alcuni utenti che sparano assurdità.... altrimenti la linea rimarrebbe ovviamente pacifica e costruttiva :) ;)

Legolas84
07-02-2015, 20:27
Ecco finiti gli argomenti, di fronte all'evidenza ;)

davo30
07-02-2015, 22:01
ok va bene continuate voi ad essere presi per i fondelli da aziende come nvidia che per me ha abbondantemente superato intel in quale a disonestà...
- compratevi le vostre GEFFO con specifiche tarocche per motivi di marketing e pubblicità contro il concorrente (CHE OVVIAMENTE NON E' PERFETTO E NON E' UNA ONLUS) , giusto per riciclare chip, cosa che fanno tutti, ma per lo meno in maniera TRASPARENTE...
- compratevi i vostri monitor GISSINK dove in realtà è un DRM e non fa altro che utilizzare la stessa tecnica free ma in base a quale gpu montate
- compratevi il tegra x1 da 1 Teraflops in mezza precisione e paragonatelo ai computer superscalari critical missions del 98 in doppia precisione ... tutte cose da "tom'snovella2000"...
- continuate a dire che i driver dei verdi sono perfetti come le schede passate, come la restituzione dei colori...
- continuate a difendere il gamesporks e TWIMTB"PIRLA", il Psysx e al fatto che pur di far apparire meglio le maxwell castrano le loro stesse schede video da over 999$, quali 780/ti titan 690...
ecc, ecc, ecc

io avevo una 8800 gt 512mb e me ne sono vantato a lungo, non sul forum ovviamente...

POI IN MALA FEDE SONO IO.

è stato un piacere, anzi no...

Quoto ogni singola parola.
A casa mia vendere una cosa per un'altra si chiama TRUFFA, qui abbiamo chi la difende, anzi, dopo essere stato preso in giro gli regala pure dei soldi per prendere la 980.... :doh:
Per non parlare del DRM G-SYNC e quella MERDA di Gameworks....

Sto trollando? No sono serissimo.... E' ora di smetterla di fare i fanboy (da una e dall'altra parte) e credere alle favole dei driver, dei consumi e cagate varie. Penso che NVIDIA abbia superato il limite della decenza, e sia da boicottare in tutti i sensi.
Pero finche avremo FANBOY che cambiano la 970 e si prendono una 980 NVIDIA ha tutte le ragioni di continuare a comportarsi in questo modo....

Dimonios
07-02-2015, 22:06
Ed ho detto tutto. :cool:

https://www.youtube.com/watch?v=spZJrsssPA0

Legolas84
07-02-2015, 23:30
Ottimi commenti, pieni di spunti tecnici per un forum tecnico :asd:

Non c'è molto da aggiungere :asd:

Therinai
07-02-2015, 23:38
Che nvidia sia un covo di furfanti non lo mette in dubbio nessuno, la questione G-sync è ormai sotto gli occhi di tutti, ma magari qualche mese fa non era così evidente. Ma anche considerati i modi truffaldini di nvidia non si può negare che la 970 vale 300€ al momento :Prrr:

Max_R
08-02-2015, 00:40
Io ho avuto un po di tutto tra ATI, NVidia ed altri brand ed ho sempre preferito le rosse alle verdi trovando che la ditta fosse più aperta, corretta e che avesse un occhio di riguardo ai giusti equilibri che vanno al di la della potenza bruta. Questo è un parere puramente personale. Detto questo, non trovo corretto dire che NVidia è sempre avanti, inquanto c'è stata spesso un'alternanza di generazioni buone e generazioni meno buone, anche senza tirare in ballo la fury maxx, la 2900 XT/XTX, Fermi e quelle schede che sono state più un azzardo che altro. Attualmente le NVidia sembrano avere equilibri migliori, ragione appunto per la quale ho mediamente preferito spesso ATI/AMD e la soluzione 970 mi attrae molto, al di la dell'inganno relativo a qualita e quantità di memoria onboard. Rimangono schede eccelse e probabilmente superiori alla concorrenza del momento.
Tutto questo per dire cosa? Spero che AMD torni a trovare i giusti equilibri e riprenda a sfornare schede prestanti anche senza essere tirate all'inverosimile. Nel frattempo mi faccio bastare quel che ho, senza puntare alla fascia alta finchè non ne varrà veramente la pena, finchè non tireranno fuori qualcosa di realmente innovativo. I bei tempi nei quali mi procuravo le Toxic anche più difficili da reperire sono passati ma per il momento non li rimpiango.

Pier2204
08-02-2015, 07:21
La GTX 680 è stata una grandissima VGA.... consumi ridotti e elevate prestazioni sempre, e con la sua Ram ha sempre fatto il suo sporco lavoro alla grande per il periodo in cui è uscita. Infatti a quel tempo venne accolta con grande entusiasmo da tutti. Chi vuole seriamente il gpgpu va su altre schede. Inutile attaccarla adesso nel 2015 :asd:
Inoltre in Full-HD (risoluzione di riferimento per il tempo come ora il 2K) distacca nettamente la 7970:

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perfrel_1920.gif

Tanto che anche li è dovuta uscira la Ghz edition per pareggiare i conti e aumentare i consumi ovviamente....


La serie FX è stata l'unica serie azzoppata su questo dubbi non ce ne sono, anche se già con NV35 si misero le pezze dove si poteva.... Ma anche ATi ha avuto le sue grandi occasioni di fare delle schede zoppe alla grande.... parliamo della HD 2900XT? Subito dopo ATi ha venduto tutta la baracca ad AMD o sbaglio? :asd:

http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_index.html


In ogni caso il market share delle discrete è sempre stato pesantemente a favore di nVIDIA.


Non per fare polemica ma giusto per dovere di cronaca...
Nel periodo che acquistai la mia ancora attuale e fenomenale HD5870, Nvidia era in un mare di guai con le prime Fermi, (mi ricordo le famose tre schede sli in prova) in quel periodo AMD sorpassò il market share di Nvidia, e se non fosse stato per il nome che nvidia si portava dietro dalla 8800 il colpo sarebbe stato persino più duro.
Quindi affermare che il market share sia stato sempre "Pesantemente" a favore di Nvidia non è corretto, e cosa più importante questo thread si parla di AMD

Legolas84
08-02-2015, 10:17
Sempre per dovere di cronaca:

http://img.techpowerup.org/130220/Discrete%20graphics%20market%20share%202003-2012.jpg

Fonte techpowerup.

Se vuoi poi mettiamo anche i dati di Steam :asd:

PS
I problemi di Fermi erano le temperature e l'assorbimento energetico, non certo le prestazioni che erano di riferimento quando è uscito (gpu più potente sul mercato), e lo SLI che già allora andava alla grande.

Max_R
08-02-2015, 10:34
Fermi è stato un azzardo: tanti l'hanno comprata e tanti se ne sono pentiti. Questo il grafico non lo dice ma, Di fatto, quella generazione AMD era più equilibrata. Poi il colpo di NVidia è stato riparato. Purtroppo oggi è l'inverso.
La serie HD 3xxx di AMD non era male, la serie 4xxx era meglio, la serie 5xxx ancora un po meglio, poi la serie 6 e 7xxx ancora in crescere anche qualitativamente parlando e da affezionato AMD non posso certo lamentarmi. Anche queste R9 non sono male al di la dei consumi (vicini a 580 e 780 comunque, il che è tutto dire e se poi dite che Titan era lecita..), ma appunto la serie 9xx di NVidia è al momento più equilibrata ed anche per me più appetibile. Vediamo che ci aspetta.

Legolas84
08-02-2015, 10:54
Fermi è stato un azzardo: tanti l'hanno comprata e tanti se ne sono pentiti. Questo il grafico non lo dice ma, Di fatto, quella generazione AMD era più equilibrata. Poi il colpo di NVidia è stato riparato. Purtroppo oggi è l'inverso.
La serie HD 3xxx di AMD non era male, la serie 4xxx era meglio, la serie 5xxx ancora un po meglio, poi la serie 6 e 7xxx ancora in crescere anche qualitativamente parlando e da affezionato AMD non posso certo lamentarmi. Anche queste R9 non sono male al di la dei consumi (vicini a 580 e 780 comunque, il che è tutto dire e se poi dite che Titan era lecita..), ma appunto la serie 9xx di NVidia è al momento più equilibrata ed anche per me più appetibile. Vediamo che ci aspetta.

Fermi era un chip mal ottimizzato, non ci sono dubbi... scaldava e consumava decisamente troppo... da quel punto di vista nVIDIA con quella serie era nella stessa situazione di AMD ora (solo da quel punto di vista eh).....

A livello prestazionale però era la VGA più potente sul mercato quando è uscita. E non aveva alcun tipo di problema. La Titan non la considero in competizione perchè prezzata una follia... ;)

Legolas84
08-02-2015, 11:06
eh su, presunto GURU solo perché è iscritto dal 2002 ed ha migliaia di messaggi alle spalle, argomentaci gli spunti tecnici tanto citati presi solo da Anandtech, ne saremo felici, peccato comunque che siamo in un topic che non c'entra assolutamente nulla con questa storia! vai a leggerti anche però le altre notizie a riguardo in altri portali di settore...

IO non sono nessuno, ma mi baso sui FATTI, ed i FATTI dicono che ci sono migliaia di utenti che hanno provato con mano quello che stiamo dicendo, e per l'appunto non parlo solo del caso 970, ma dei casi serie 7 che si livellano misteriosamente alle 290, g-sync supercazzola, al bidone gameworks, ecc, ecc, ecc.
FATTI che dimostrano come il forum ufficiale nvidia sia intasato di messaggi di lamentela, no ma ovviamente sono tutti AVVOLTOI che vogliono approfittarsene della situazione.
FATTI che dimostrano come nvidia faccia da scarica barile col rivenditore e vicerversa, e c'è chi scrive che in pochi cambiano la scheda, E TE CREDO, NON PUOI!

Va bene crediamo alla FAVOLA che dopo MESI nvidia si sia accorta che le specifiche della scheda fossero errate... :mbe: ma come, non te ne accorgi subito al lancio???
eh no, te ne accorgi solo quando diversi utenti iniziano a lamentarsi del fatto che i giochi in certe situazioni iniziano a "balbettare".

"eh ma che vuoi usare una 970 oltre il FullHD e con filtri a palla, ma sei matto?", eh già allora tutti quelli che volevano farsi uno SLI di 970 ed utilizzarlo per quelle risoluzioni o filtri sono tutti C*GLIONI?

Lo sai vero cosa comportò per certe riviste di settore dichiarare che FERMI era un Chip "mediocre" ed i problemi che ne portava?
che entrarono nella BLACKLIST di nvidia per le future recensioni.

Come mai FCAT è sparito dalla quasi totalità delle recensioni???




Anandtech è riconosciuto essere un'autorità tra i siti tecnici del settore, mi spiace tu non lo sapessi ma se ti fai un giro sui forum esteri vedrai che pochi si avvicinano alla sua obbiettività e alla sua competenza tecnica.

Basati sui fatti.... non riporti fonti, non riporti link, non ti documenti, interpreti le frasi degli articoli come ti viene bene per avvalorare le tue ipotesi (su un articolo di 5 pagine estrapoli 2 righe dandogli un senso che non hanno e completamente contraddittorio con le conclusioni dello stesso = sei un grande, ma in malafede ;) ).

I forum sono intasati soprattutto da gente che è incazzata per la diffusione di specifiche errate, cosa che ci può anche stare ci mancherebbe! Ma la scheda è comprovato che funziona come dovrebbe, inutile continuare a parlare di aria fritta come stai facendo solo perchè ti viene comodo ;)

Questione G-Sync... per ora sono tutti rumor, non ci sono ancora driver mod completamente funzionanti (se fossi una persona che si informa lo sapresti). Inoltre sulla questione IO STESSO ho aperto un thread sul forum nVIDIA per chiedere spiegazioni (ma guarda un pò).... proprio perchè sono una persona che si documenta e vuole conoscere, non sparare a caso o per sentito dire, o perchè fa comodo. In ogni caso il G-Sync attualmente funziona alla grande e migliora tangibilmente l'esperienza di gioco.... vedremo il futuro cosa ci riserverà riguardo il modulo. Questo è sicuramente un argomento più fumoso e poco chiaro rispetto alla 970.... e non è assolutamente il caso di sbilanciarsi a riguardo fino a che non si sarà arrivati in fondo alla questione.

Gameworks non è un bidone, è un set di strumenti, che purtroppo Ubisoft per ora ha usato molto male, questo è lampante, vedremo il futuro.

Per dovere di cronaca, visto che insisti sulla 970 senza probabilmente averla mai vista in cartolina... funziona alla grande in 2K con filtri.... arranca in 4k (Ma va? :asd: ). Piantala di sparare cose a caso come il tuo compare dai....

Aspetto i link alle rece che condannarono Fermi come gpu fallimentare (io ne ho postati parecchi di link.... dai su mettine qualcuno anche tu :asd: )

Fcat c'è in tutte le ultime rece.... non lo vedi o non sai cosè?

Dai su basta ;)

Pier2204
08-02-2015, 11:58
Sempre per dovere di cronaca:

http://img.techpowerup.org/130220/Discrete%20graphics%20market%20share%202003-2012.jpg

Fonte techpowerup.

Se vuoi poi mettiamo anche i dati di Steam :asd:

PS
I problemi di Fermi erano le temperature e l'assorbimento energetico, non certo le prestazioni che erano di riferimento quando è uscito (gpu più potente sul mercato), e lo SLI che già allora andava alla grande.

Mi sembra che quel grafico mi da ragione o sbaglio? ...il grafico dimostra che dal 2004 al 2005 AMD avesse superato Nvidia nelle discrete...
Ergo, la tua affermazione "Sempre e Pesantemente" non è corretta...
PS: da felice possessore di una GTX 8800 prima e di una HD5870 adesso...

arturobelo
08-02-2015, 12:05
Ma queste saranno dx12? Devo cambiare la mia vecchia e vorrei prenderne una che mi duri altri 2 o 3 anni.

Legolas84
08-02-2015, 12:22
Mi sembra che quel grafico mi da ragione o sbaglio? ...il grafico dimostra che dal 2004 al 2005 AMD avesse superato Nvidia nelle discrete...
Ergo, la tua affermazione "Sempre e Pesantemente" non è corretta...
PS: da felice possessore di una GTX 8800 prima e di una HD5870 adesso...


Si sbagli perchè non è nel recente periodo di Fermi, ma si parla di ben 10 anni fa quando ATi (e non AMD) ha superato nVIDIA di qualche punto percentuale per un breve periodo.

Dopo il mercato è sempre stato saldamente in mano a nVIDIA (e non di pochi punti).

AMD invece nel settore discreto è sempre stata pesantemente dietro.

davo30
08-02-2015, 13:35
Anandtech è riconosciuto essere un'autorità tra i siti tecnici del settore, mi spiace tu non lo sapessi ma se ti fai un giro sui forum esteri vedrai che pochi si avvicinano alla sua obbiettività e alla sua competenza tecnica.

Basati sui fatti.... non riporti fonti, non riporti link, non ti documenti, interpreti le frasi degli articoli come ti viene bene per avvalorare le tue ipotesi (su un articolo di 5 pagine estrapoli 2 righe dandogli un senso che non hanno e completamente contraddittorio con le conclusioni dello stesso = sei un grande, ma in malafede ;) ).

I forum sono intasati soprattutto da gente che è incazzata per la diffusione di specifiche errate, cosa che ci può anche stare ci mancherebbe! Ma la scheda è comprovato che funziona come dovrebbe, inutile continuare a parlare di aria fritta come stai facendo solo perchè ti viene comodo ;)

Questione G-Sync... per ora sono tutti rumor, non ci sono ancora driver mod completamente funzionanti (se fossi una persona che si informa lo sapresti). Inoltre sulla questione IO STESSO ho aperto un thread sul forum nVIDIA per chiedere spiegazioni (ma guarda un pò).... proprio perchè sono una persona che si documenta e vuole conoscere, non sparare a caso o per sentito dire, o perchè fa comodo. In ogni caso il G-Sync attualmente funziona alla grande e migliora tangibilmente l'esperienza di gioco.... vedremo il futuro cosa ci riserverà riguardo il modulo. Questo è sicuramente un argomento più fumoso e poco chiaro rispetto alla 970.... e non è assolutamente il caso di sbilanciarsi a riguardo fino a che non si sarà arrivati in fondo alla questione.

Gameworks non è un bidone, è un set di strumenti, che purtroppo Ubisoft per ora ha usato molto male, questo è lampante, vedremo il futuro.

Per dovere di cronaca, visto che insisti sulla 970 senza probabilmente averla mai vista in cartolina... funziona alla grande in 2K con filtri.... arranca in 4k (Ma va? :asd: ). Piantala di sparare cose a caso come il tuo compare dai....

Aspetto i link alle rece che condannarono Fermi come gpu fallimentare (io ne ho postati parecchi di link.... dai su mettine qualcuno anche tu :asd: )

Fcat c'è in tutte le ultime rece.... non lo vedi o non sai cosè?

Dai su basta ;)

Guarda, Anand ERA un ottimo sito, ma dopo essere stato acquistato da Purch comincio ad avere i miei dubbi (Purch detiene anche Tom'snovella2000).
Fatti un giro su entrambi i siti che riportano la notizia e vedrai come sono content gli utenti, sia dell'uno che dell'altro.
http://www.tomshw.it/cont/news/tom-s-e-anandtech-assieme-la-famiglia-purch-si-allarga/61442/1.html

G-SYNC è un DRM, non aggiunge nessuna funzionalità se non l'inghippo di dover funzionare con NVIDIA. Se poi dopo essere stati pinzati lo modificano è un'altro discorso.
http://videocardz.com/54826/pcperspective-mobile-g-sync-confirmed-g-sync-module-unneeded

Gamework AD ADESSO non è solo stato sfruttato male da Rubisoft, ma qualsiasi gioco Gamework demolisce le schede AMD, senza pero portare giovamenti alle NVIDIA, anzi....
http://www.bitsandchips.it/8-gaming/5190-dying-light-un-altro-titolo-gameworks-che-mortifica-le-schede-amd

Legolas84
08-02-2015, 13:49
Guarda, Anand ERA un ottimo sito, ma dopo essere stato acquistato da Purch comincio ad avere i miei dubbi (Purch detiene anche Tom'snovella2000).
Fatti un giro su entrambi i siti che riportano la notizia e vedrai come sono content gli utenti, sia dell'uno che dell'altro.
http://www.tomshw.it/cont/news/tom-s-e-anandtech-assieme-la-famiglia-purch-si-allarga/61442/1.html

G-SYNC è un DRM, non aggiunge nessuna funzionalità se non l'inghippo di dover funzionare con NVIDIA. Se poi dopo essere stati pinzati lo modificano è un'altro discorso.
http://videocardz.com/54826/pcperspective-mobile-g-sync-confirmed-g-sync-module-unneeded

Gamework AD ADESSO non è solo stato sfruttato male da Rubisoft, ma qualsiasi gioco Gamework demolisce le schede AMD, senza pero portare giovamenti alle NVIDIA, anzi....
http://www.bitsandchips.it/8-gaming/5190-dying-light-un-altro-titolo-gameworks-che-mortifica-le-schede-amd



Il livello tecnico di chi scrive su anand non si è modificato. Non per nulla non ho trovato nessun altro sito che abbia affrontato in modo così approfondito la tecnologia che sta dietro al funzionamento della memoria della 970 ;) Sebbene vi fossero altri articoli interessanti (guru3d) ma non così tecnici.

G-Sync non è un DRM, o meglio... non è chiaro come funzioni per ora.... ma come riporta il tuo link se non lo hai:

This technology is not fully working yet, there’s a blinking screen issue and low framerate.

cosa che significa che il modulo potrebbe anche fare qualcosa di importante. Quel che è certo è che il modulo serviva per forza sui monitor usciti fino ad ora... non è chiaro se servirà ancora su quelli futuri che forse implementeranno il lavoro che fa il G-Sync già direttamente nel loro scaler:

This obviously leads us to the discussion of the need for a dedicated G-Sync module on current monitors. In order to get shipping variable refresh monitors in the market last year, NVIDIA had no choice but to create a module to replace the scalar in modern displays. No monitors existed then with embedded DisplayPort interfaces and the standard had not been created for Adaptive Sync. But as the release of AMD FreeSync displays nears, we have to ask: will a dedicated module be required for G-Sync on future products? Interestingly, NVIDIA says that the answer hasn’t been 100% decided yet – the future could include this same module, a new module or perhaps even no module at all. There are features and technologies in the G-Sync module that haven’t been revealed, at least according to NVIDIA, and with that line of thinking I don’t see a time when NVIDIA relieves the desktop market of that requirement in the near term.


Quindi che sia solo un semplice DRM è stata una trollata del blog che ha originato il tutto.

Che poi non sia chiaro se sarà necessario sul futuro, su questo ti do ragione, sarà tutto da verificare.


Riguardo a Gameworks, è una suite di tool di sviluppo. Sta a chi fa i giochi decidere se usarla o meno, ovviamente essendo creata per GeForce gira meglio su queste schede e ci mancherebbe. Porta miglioramenti nella resa grafica se implementato in modo corretto. Il problema dei giochi ubisoft usciti male non è stato tanto GameWorks quanto la necessità di uscire entro una certa data... cosa che ha portato a rilasciare delle BETA. In pratica anche senza GameWorks inizialmente sarebbero state comunque delle chiaviche. Ora infatti FarCry 4 con gli aggiornamenti funziona già molto meglio eppure usa GameWorks.

Una volta quando ancora c'era 3dfx esistevano le GLIDE che erano API proprietarie che quando erano supportate dai giochi rendevano l'esperienza SOLO su 3dfx nettamente migliore rispetto alle altre VGA.... Queste sono tutte cose positive per i videogiocatori non negative ;)

Insomma meglio averle che non. Il livello di obbiettività del sito da cui hai preso la notizia tra l'altro lo trovo molto basso.... e non solo l'obbiettività. Ma questa è una personale sensazione.

davo30
08-02-2015, 14:20
Il livello tecnico di chi scrive su anand non si è modificato. Non per nulla non ho trovato nessun altro sito che abbia affrontato in modo così approfondito la tecnologia che sta dietro al funzionamento della memoria della 970 ;) Sebbene vi fossero altri articoli interessanti (guru3d) ma non così tecnici.

G-Sync non è un DRM, o meglio... non è chiaro come funzioni per ora.... ma come riporta il tuo link se non lo hai:

This technology is not fully working yet, there’s a blinking screen issue and low framerate.

cosa che significa che il modulo potrebbe anche fare qualcosa di importante. Quel che è certo è che il modulo serviva per forza sui monitor usciti fino ad ora... non è chiaro se servirà ancora su quelli futuri che forse implementeranno il lavoro che fa il G-Sync già direttamente nel loro scaler:

This obviously leads us to the discussion of the need for a dedicated G-Sync module on current monitors. In order to get shipping variable refresh monitors in the market last year, NVIDIA had no choice but to create a module to replace the scalar in modern displays. No monitors existed then with embedded DisplayPort interfaces and the standard had not been created for Adaptive Sync. But as the release of AMD FreeSync displays nears, we have to ask: will a dedicated module be required for G-Sync on future products? Interestingly, NVIDIA says that the answer hasn’t been 100% decided yet – the future could include this same module, a new module or perhaps even no module at all. There are features and technologies in the G-Sync module that haven’t been revealed, at least according to NVIDIA, and with that line of thinking I don’t see a time when NVIDIA relieves the desktop market of that requirement in the near term.


Quindi che sia solo un semplice DRM è stata una trollata del blog che ha originato il tutto.

Che poi non sia chiaro se sarà necessario sul futuro, su questo ti do ragione, sarà tutto da verificare.


Riguardo a Gameworks, è una suite di tool di sviluppo. Sta a chi fa i giochi decidere se usarla o meno, ovviamente essendo creata per GeForce gira meglio su queste schede e ci mancherebbe. Porta miglioramenti nella resa grafica se implementato in modo corretto. Il problema dei giochi ubisoft usciti male non è stato tanto GameWorks quanto la necessità di uscire entro una certa data... cosa che ha portato a rilasciare delle BETA. In pratica anche senza GameWorks inizialmente sarebbero state comunque delle chiaviche. Ora infatti FarCry 4 con gli aggiornamenti funziona già molto meglio eppure usa GameWorks.

Una volta quando ancora c'era 3dfx esistevano le GLIDE che erano API proprietarie che quando erano supportate dai giochi rendevano l'esperienza SOLO su 3dfx nettamente migliore rispetto alle altre VGA.... Queste sono tutte cose positive per i videogiocatori non negative ;)

Insomma meglio averle che non. Il livello di obbiettività del sito da cui hai preso la notizia tra l'altro lo trovo molto basso.... e non solo l'obbiettività. Ma questa è una personale sensazione.

Purtoppo a me sta cosa del G-SYNC puzza da morire, e trollata o meno, la sua utilità continua ad essere dubbia (del modulo).

Anche GW, continua a mettermi dei dubbi. Lo stesso Mantle (o il Physx per par condicio) non hanno mai portato alla demolizione delle prestazioni della controparte.
Mantle tende a migliorare le prestazioni sulle AMD, ma allo stesso tempo non rende ingiocabile il titolo se usato con NVIDIA/DirectX.
http://gamegpu.ru/action-/-fps-/-tps/thief-mantle-vs-directx-11-test-gpu.html
Stessa cosa il Physx. Una feature Nvidia che però non rende ingiocabili i titoli su AMD.
Il problema è che i titoli Gameworks NON rendono un'esperienza migliore ai possessori di NVIDIA, anzi....

Sul sito ti posso dire che attualmente lo ritengo il migliore nel panorama italiano, oltre a questo forum. Inoltre hanno riportato dati di test effettuati da Gamegpu. E le conclusioni mi sembra siano abbastanza palesi alla luce di quei grafici....

Legolas84
08-02-2015, 15:15
Purtoppo a me sta cosa del G-SYNC puzza da morire, e trollata o meno, la sua utilità continua ad essere dubbia (del modulo).

Anche GW, continua a mettermi dei dubbi. Lo stesso Mantle (o il Physx per par condicio) non hanno mai portato alla demolizione delle prestazioni della controparte.
Mantle tende a migliorare le prestazioni sulle AMD, ma allo stesso tempo non rende ingiocabile il titolo se usato con NVIDIA/DirectX.
http://gamegpu.ru/action-/-fps-/-tps/thief-mantle-vs-directx-11-test-gpu.html
Stessa cosa il Physx. Una feature Nvidia che però non rende ingiocabili i titoli su AMD.
Il problema è che i titoli Gameworks NON rendono un'esperienza migliore ai possessori di NVIDIA, anzi....

Sul sito ti posso dire che attualmente lo ritengo il migliore nel panorama italiano, oltre a questo forum. Inoltre hanno riportato dati di test effettuati da Gamegpu. E le conclusioni mi sembra siano abbastanza palesi alla luce di quei grafici....

Più che altro per quanto riguarda il G-Sync ad essere dubbia è la sua utilità nei monitor del futuro.... Ad oggi è sicuro che serva proprio perchè senza:

This technology is not fully working yet, there’s a blinking screen issue and low framerate.

L'interrogativo è nel futuro.... vedremo ;) Sinceramente anche io spero di ottenere risultati uguali a quelli del G-Sync senza moduli aggiuntivi.... anche perchè una volta che lo provi questo G-Sync, non torni più indietro.

GW probabilmente soffre il problema di non essere pienamente supportato dalle vecchie architetture, ma ripeto rimane una grande opportunità da seguire con attenzione ;) Poi che faccia girare male i giochi su AMD mi spiace, ma sono dell'idea che anche AMD dovrebbe lavorare a delle ottimizzazioni sui giochi che sfruttano GW così come nVIDIA fa con i giochi AMD like.... ;) Piuttosto che rilasciare interviste dove si lamentano e basta forse sarebbe meglio per gli utenti.

Riguardo il sito, in tutti gli articoli che ho letto l'ho trovato troppo schierato verso alcuni marchi, e quindi a me proprio non va a genio. Imho.

In Italia ritengo il più affidabile proprio hwupgrade.

CrapaDiLegno
08-02-2015, 16:36
Mi sembra che quel grafico mi da ragione o sbaglio? ...il grafico dimostra che dal 2004 al 2005 AMD avesse superato Nvidia nelle discrete...
Ergo, la tua affermazione "Sempre e Pesantemente" non è corretta...
PS: da felice possessore di una GTX 8800 prima e di una HD5870 adesso...
Ma Santo Cielo, qui si c'è gente che vuole provare teorie analizzando specifiche HW di livello complessissimo (cache L2, memory controller, ROPs, banda passante etc...) e poi quando gli si mostra un grafico con due linee che si incrociano non lo sa comprendere???
AMD che supera il market share di nvidia al lancio di Fermi? Mi sa che ti sei bevuto l'articolo postato su Tom'sella 2000 dove l'autore sparava nel titolo stupidaggini perché neanche lui aveva capito un ciospo di niente (e bannava gli utenti che gli facevano notare che aveva scritto una cazzat@ immensa, dimostrando il livello giornalistico del sito... infatti oggi più che scrivere stupide classifiche sulle 10 stupidaggini più grandi del mondo non sanno fare. Gli articoli seri sono tutte (mal)traduzioni dalle sezioni estere).
La vera notizia era che il market share di AMD era salito un pochino (del 5%) al lancio della sua serie 5xxx che era la prima a supportare le DX11. Share sceso poi nuovamente la lancio della GTX460 e della GTX580.

Fermi non è stato un'architettura fallimentare, solo che il GF100 è stato realizzato malissimo. Il GF110 montato nelle GTX580 l'ha dimostrato chiaramente. Dopo Fermi infatti nvidia ha cambiato la sequenza con cui realizza i chip. Prima quelli piccoli e solo poi, quando il processo produttivo è maturato un pochino e le magagne con esso sono sistemate, la mattonella. Motivo per il quale nvidia sarebbe stata davvero messa alle corde se AMD con CGN avesse tirato fuori qualcosa di veramente decente. Fortuna per nvidia (e sfortuna per noi utenti) è che è bastato il GK104 per tirare comodamente fino all'uscita di big Kepler.

ok va bene continuate voi ad essere presi per i fondelli da aziende come nvidia che per me ha abbondantemente superato intel in quale a disonestà...
- compratevi le vostre GEFFO con specifiche tarocche per motivi di marketing e pubblicità contro il concorrente (CHE OVVIAMENTE NON E' PERFETTO E NON E' UNA ONLUS) , giusto per riciclare chip, cosa che fanno tutti, ma per lo meno in maniera TRASPARENTE...
- compratevi i vostri monitor GISSINK dove in realtà è un DRM e non fa altro che utilizzare la stessa tecnica free ma in base a quale gpu montate
- compratevi il tegra x1 da 1 Teraflops in mezza precisione e paragonatelo ai computer superscalari critical missions del 98 in doppia precisione ... tutte cose da "tom'snovella2000"...
- continuate a dire che i driver dei verdi sono perfetti come le schede passate, come la restituzione dei colori...
- continuate a difendere il gamesporks e TWIMTB"PIRLA", il Psysx e al fatto che pur di far apparire meglio le maxwell castrano le loro stesse schede video da over 999$, quali 780/ti titan 690...
ecc, ecc, ecc

io avevo una 8800 gt 512mb e me ne sono vantato a lungo, non sul forum ovviamente...

POI IN MALA FEDE SONO IO.

è stato un piacere, anzi no...

Guarda, ognuno può avere le proprie idee e convinzioni sulle politiche aziendali e non mi permetto di giudicarle. Benché mostri che hai un astio atavico nei confronti di nvidia, ciò non giustifica te (come diversi altri) nel tentare di mettere in piedi un caso là dove in realtà non è sostenibile.
Inutile poi dire che la discussione degenera con toni non proprio amichevoli.
Ci sono numeri e test che dimostrano che la GTX970 va benissimo in 1K, 2K e se la cava (male) come tutte le altre in 4K. Quando va in crisi è perché si è cercato di andare oltre il possibile. Perché il limite non è la memoria, ma la potenza computazionale.
Chi si fa uno SLI con la 970 per giocare a 4K dovrà mettersi l'animo in pace e mettere un AA a 4x invece che 8x per non avere stuttering. Tanto a 60FPS non ci arriva comunque.
Ora però voglio sapere chi ha comprato 2 970 per giocare in 4K e pensava di poter abilitare tutti gli effetti possibili (anche quelli inutili). La mossa di nvidia, brutta e deplorevole, lo costringe a disabilitarne uno in più dei 10 che già non poteva permettersi. Brutto, bruttissimo, ma da qui a voler imbastire un caso in cui si portano le prove che la scheda non fa quello che deve, mi pare davvero eccessivo.
Lo dico per voi. A chi sa fare 2+2 sembrate davvero degli invasati che non sanno ragionare.
Guardatevi quei benedetti test fatti (ve ne ho postati di 3 siti). I risultati di FCAT ci sono (leggete il testo oltre che a guardare le figurine con le barrette colorate). E guardatevi le impostazioni necessarie per mettere la scheda in ginocchio. E poi traete le vostre conclusioni.
In malafede è chi vuole portare come dimostrazione di una teoria qualcosa che non la avvalora. Ma vuole convincere gli altri che sia corretta. E per le ragioni che tu stesso hai elencato qui sopra, pare chiaro che non c'è razionalità in quello che stai tentando di fare.

Per quanto riguarda G-Sync, anche qui. 2 neuroni ce li avete, accendeteli.
E' ovvio che il modulo contenga un DRM per evitare che funzioni con altre schede non nvidia. Questa non è una ONLUS e ha investito soldi per realizzare il modulo che implementa funzionalità che i monitor di oggi non sono in grado di fare.
Con FreeSync inserito come feature standard nei monitor futuri è probabile che il modulo G-Sync non servirà ad un tubo. Ma ti sembra che se oggi i monitor fossero capaci di supportare le feature di G-Sync/FreeSync AMD avrebbe mai chiesto che fosse una funzione da implementare in un uno standard futuro, che questa richieda il cambio della specifiche della porta di connessione e sopratutto che AMD non lo avrebbe già supportato????
Dai ragazzi...2 neuroni sui miliardi che avete... il primo per leggere la notizia e il secondo per capirla al di fuori degli stupidi commenti che i mono-neuronali sparano. Se siete appassionati lasciate che quei commenti siano esclusivi alle Novelle2000 che parlano anche di tecnologia.
Essere hater può avere un perché. Scrivere boiate o attaccarsi a pseudo complotti per dimostrare qualcosa è davvero indigesto anche per chi vorrebbe condividere parte del vostro malumore.

Pier2204
08-02-2015, 16:58
Ma Santo Cielo, qui si c'è gente che vuole provare teorie analizzando specifiche HW di livello complessissimo (cache L2, memory controller, ROPs, banda passante etc...) e poi quando gli si mostra un grafico con due linee che si incrociano non lo sa comprendere???
.

Mi scuso se ho osato mettere in discussione la costante supremazia di Nvidia, quindi mi ritiro da questa discussione esageratamente complessa e vi lascio alla vostra diatriba.
Resta il fatto che i 2 semplici grafici dimostrano che nel periodo 2004 e 2005 ATI era avanti :asd:
Buona serata ;)

Legolas84
08-02-2015, 17:04
Mi scuso se ho osato mettere in discussione la costante supremazia di Nvidia, quindi mi ritiro da questa discussione esageratamente complessa e vi lascio alla vostra diatriba.
Resta il fatto che i 2 semplici grafici dimostrano che nel periodo 2004 e 2005 ATI era avanti :asd:
Buona serata ;)

Quindi:

1 ATi, non AMD.

2 Non quando hai detto tu, sparando a caso e sperando di prenderci

Poi anche tu finisci ovviamente gli argomenti con cui portare avanti una discussione insostenibile e chiudi così.

:asd:

WarDuck
08-02-2015, 17:12
AMD (ATi) e nVidia si sono sempre alternate lo scettro di migliori GPU, quindi non capisco dove sia il problema di alcuni.

Dopodiché per me vince sempre chi riesce a mettere sul piatto una scheda con il miglior rapporto prestazioni/consumi/costo.

All'epoca ero indeciso tra GTX460 e 6850 (1 solo connettore 6 pin) e scelsi quest'ultima.

Oggi come oggi probabilmente prenderei una GeForce 960 (1 solo connettore 6 pin).

Bisogna sempre sperare che ci sia concorrenza, perché è solo così che si possono avere nuove generazioni di hardware a prezzi competitivi.

AceGranger
08-02-2015, 17:15
ok va bene continuate voi ad essere presi per i fondelli da aziende come nvidia che per me ha abbondantemente superato intel in quale a disonestà...
- compratevi le vostre GEFFO con specifiche tarocche per motivi di marketing e pubblicità contro il concorrente (CHE OVVIAMENTE NON E' PERFETTO E NON E' UNA ONLUS) , giusto per riciclare chip, cosa che fanno tutti, ma per lo meno in maniera TRASPARENTE...
- compratevi i vostri monitor GISSINK dove in realtà è un DRM e non fa altro che utilizzare la stessa tecnica free ma in base a quale gpu montate
- compratevi il tegra x1 da 1 Teraflops in mezza precisione e paragonatelo ai computer superscalari critical missions del 98 in doppia precisione ... tutte cose da "tom'snovella2000"...
- continuate a dire che i driver dei verdi sono perfetti come le schede passate, come la restituzione dei colori...
- continuate a difendere il gamesporks e TWIMTB"PIRLA", il Psysx e al fatto che pur di far apparire meglio le maxwell castrano le loro stesse schede video da over 999$, quali 780/ti titan 690...
ecc, ecc, ecc

io avevo una 8800 gt 512mb e me ne sono vantato a lungo, non sul forum ovviamente...

POI IN MALA FEDE SONO IO.

è stato un piacere, anzi no...

ah bè perchè invece AMD è una santa amica dei consumatori... solo per le c@zzate sparate con gli FX dovrebbe stare in cima alla lista dei supercazzolari. Non esistono SPA buone e cattive, sono tutte uguali, TUTTE.

Dimonios
08-02-2015, 17:30
Riguardo il sito, in tutti gli articoli che ho letto l'ho trovato troppo schierato verso alcuni marchi, e quindi a me proprio non va a genio. Imho.

In Italia ritengo il più affidabile proprio hwupgrade.

Certo, proprio schierato. :mc:

In queste due recensioni hanno distrutto sia il 860K sia il sempron 3850. Fortuna che sono pagati da AMD, secondo te. :asd:

http://www.bitsandchips.it/recensioni/9-hardware/5027-athlon-x4-860k-versus-pentium-g3258
http://www.bitsandchips.it/chi-scrive-per-bits-and-chips/9-hardware/4548-round-up-cpu-e-apu-da-35-euro-processori-per-htpc?font-size=larger

Legolas84
08-02-2015, 18:05
Non è che potesse fare molto diverso con quelle due cpu :asd:

Ma in altri articoli mi è parso di parte, cosa che non vuol dire essere pagati per forza eh....

Dimonios
08-02-2015, 18:07
Non è che potesse fare molto diverso con quelle due cpu :asd:

Ma in altri articoli mi è parso di parte, cosa che non vuol dire essere pagati per forza eh....

Insomma, come la giri la giri, hai ragione tu. Adoro discutere con i fanboy nvidia/intel. :D

Legolas84
08-02-2015, 18:11
Mi spiace ma non sono per nulla un fanboy...

Ho adorato gli athlonxp e gli athlon64 con chipset nForce

Ho adorato le varie schede Voodoo che ho avuto

Purtroppo non posso dire lo stesso delle Ati ma ho provato anche quelle.

Per me i marchi sono tutti uguali... Però prendo sempre solo il meglio disponibile.

davo30
08-02-2015, 18:19
Non è che potesse fare molto diverso con quelle due cpu :asd:

Ma in altri articoli mi è parso di parte, cosa che non vuol dire essere pagati per forza eh....

Ma guarda, a dirla tutta secondo me l'Athlon invece è un sig. procio.
In goni caso basta che leggi qualche commento sotto in qualsiasi articolo e vedi come AMD è presa per i fondelli, specie su alcune sue recenti infelici uscite del reparto marketing. Comunque non sono qui per difendere B&C, ne mi interessa il market share delle 2 aziende. Se uno guardasse il Market share delle CPU nessuno comprerebbe AMD, anche se da quel lato se lo merita tutto di essere presa a schiaffi...
Detto questo possiamo scontrarci quanto vogliamo su benchmark, su come deve essere usata la 970, se per l'HD o il 4k, ecc.
Per me sono fregnacce, sulla scatola c'è scritto 4gb ma 4gb non sono, poi giratela come volete, che cio non impatta nelle prestazioni, che non cambia una fava ecc.
La 970 è un'ottima scheda, nessuno lo mette in dubbio, sta di fatto che ha specifiche DIVERSE da quelle dichiarate, punto.

Legolas84
08-02-2015, 18:25
I commenti sono diversi da quello che leggi negli articoli. I 4gb ci sono tutti il problema è che non ci sono le rops e la cache che avevano dichiarato.... Il problema questo è. Non la ram ;)

Dimonios
08-02-2015, 18:58
I commenti sono diversi da quello che leggi negli articoli. I 4gb ci sono tutti il problema è che non ci sono le rops e la cache che avevano dichiarato.... Il problema questo è. Non la ram ;)

Hai ragione, non è la ram il problema. :oink:
https://forums.geforce.com/default/topic/809697/geforce-900-series/comparison-between-670-4gb-and-970-4gb-when-using-more-than-3-5gb-vram-in-som-/

Pier2204
08-02-2015, 19:00
Quindi:

1 ATi, non AMD.

2 Non quando hai detto tu, sparando a caso e sperando di prenderci

Poi anche tu finisci ovviamente gli argomenti con cui portare avanti una discussione insostenibile e chiudi così.

:asd:

Quindi cosa? senza offesa ma ti ricordi cosa hai dichiarato tu e non io?
Piccolo ricordino...



In ogni caso il market share delle discrete è sempre stato pesantemente a favore di nVIDIA.


)

Sempre per me ha un significato preciso...e pesantemente anche...
Poi ti stai aggrappando al periodo storico...
La sostanza che non è come HAI DICHIARATO tu... continua pure...

Legolas84
08-02-2015, 19:16
Io mi riferivo ad AMD e nvidia.... Tu sempre in questo contesto hai dichiarato che AMD era avanti ai tempi di fermi... Ovvero hai detto una baggianata sparando a caso senza sapere nemmeno di cosa parli.

Poi io, con i dati alla mano ti ho dimostrato che nvidia ha sempre tenuto in mano il mercato nei confronti di AMD.

Poi che ai tempi di Ati ci sia stato un periodo in cui è stata leggermente sopra è un altro discorso.... Anche ai tempi di 3dfx è stata avanti....

Il punto è che rispetto ad AMD è sempre stata pesantemente avanti.

Max_R
08-02-2015, 19:54
Io mi riferivo ad AMD e nvidia.... Tu sempre in questo contesto hai dichiarato che AMD era avanti ai tempi di fermi... Ovvero hai detto una baggianata sparando a caso senza sapere nemmeno di cosa parli.

Poi io, con i dati alla mano ti ho dimostrato che nvidia ha sempre tenuto in mano il mercato nei confronti di AMD.

Poi che ai tempi di Ati ci sia stato un periodo in cui è stata leggermente sopra è un altro discorso.... Anche ai tempi di 3dfx è stata avanti....

Il punto è che rispetto ad AMD è sempre stata pesantemente avanti.

Questo non è obiettivo.

Legolas84
08-02-2015, 20:01
Mah.... D'accordo io non ho problemi a specificarlo allora. È solo che prima si parlava di nvidia e AMD non di Ati....

Nvidia ha sempre tenuto più marketshare di AMD.

Ati a suo tempo ha tenuto per un periodo più market share di nvidia...

L'ho postato io quel grafico... L'avrò saputo? In ogni caso non è questione di obiettività ma di dati reali alla mano.

Invece dimmi allora, cosa ne pensi della sparata sul market share ai tempi di fermi dell'utente pier2204.... Malafede volontaria? ;)

Max_R
08-02-2015, 20:20
Se i più preferiscono NVidia e comprano NVidia e poi si pentono per la 480 e la 970, ma continuano a preferire e quindi comprare NVidia, questo non fa testo. Dire che AMD è perennemente dietro non è corretto: Le Radeon hanno avuto molti momenti di gloria e sono state più volte superiori alle Geforce, poi subito dopo usciva una Geforce che spodestava la Radeon e così via. Poi ci sono i casi di schede patacche come la serie FX di NVidia, la 2900 XT / XTX (che forse è l'esempio più pietoso), poi Fermi. Io di mio non metterei una 290 o una 290x trai fail solo perchè le Geforce 9xx sono più equilibrate (tanto di cappello) ma fate pure. Certo questa storia dei 3.5GB nelle 970 la trovo tutto fuorchè corretta e nonostante le prestazioni e la tecnologia e tutto quanto, ancora una volta in qualche modo, la politica NVidia delude.

Legolas84
08-02-2015, 20:32
Ora si parlava di dati di market share non di tecnologia... Mi spiace comunque che consideriate tutti fermi un fail perché così non è stato affatto... Come invece lo sono stati nv30 ed r600.

Comunque dispiace vedere la malafede di molti utenti solo per difendere il proprio marchio del cuore. E in questo caso non ce l'ho con te max che hai postato tue personali opinioni (cosa del tutto accettabile) ma con tutti gli utenti che hanno sparato dati a caso, detto di proposito inesattezze catastrofiche senza dare spiegazioni in merito ecc....

Max_R
08-02-2015, 20:58
Ora si parlava di dati di market share non di tecnologia... Mi spiace comunque che consideriate tutti fermi un fail perché così non è stato affatto... Come invece lo sono stati nv30 ed r600.

Comunque dispiace vedere la malafede di molti utenti solo per difendere il proprio marchio del cuore. E in questo caso non ce l'ho con te max che hai postato tue personali opinioni (cosa del tutto accettabile) ma con tutti gli utenti che hanno sparato dati a caso, detto di proposito inesattezze catastrofiche senza dare spiegazioni in merito ecc....

Si ma appunto io stavo dicendo che secondo me è assurdo stare a vedere solo quello che compra la gente quando poi la stessa si pente ma si ostina. Tanti prendono l'informatica e la tecnologia come fosse un ristorante ed ordinano il piatto del giorno a scatola chiusa, invece le attuali AMD sono molto buone, anche se non quanto le NVidia (eccetto che per questo scherzetto con la memoria, anche a vedere il discorso file di paging). Ma è sempre stato così che qualitativamente si sono alternate abbastanza.
ps
http://8.t.imgbox.com/saMMEGaL.jpg (http://imgbox.com/saMMEGaL)

Legolas84
08-02-2015, 21:06
Si ma appunto io stavo dicendo che secondo me è assurdo stare a vedere solo quello che compra la gente quando poi la stessa si pente ma si ostina. Tanti prendono l'informatica e la tecnologia come fosse un ristorante ed ordinano il piatto del giorno a scatola chiusa, invece le attuali AMD sono molto buone, anche se non quanto le NVidia (eccetto che per questo scherzetto con la memoria, anche a vedere il discorso file di paging). Ma è sempre stato così che qualitativamente si sono alternate abbastanza.
ps
http://8.t.imgbox.com/saMMEGaL.jpg (http://imgbox.com/saMMEGaL)

Quella scheda per certi versi è stata una scommessa andata male.

Colpa delle texture quadratiche (che sulla carta non erano male) quando ormai però tutto andava verso i triangoli....

Max_R
08-02-2015, 21:11
Quella scheda per certi versi è stata una scommessa andata male.

Colpa delle texture quadratiche (che sulla carta non erano male) quando ormai però tutto andava verso i triangoli....

No no la mia non era una critica all'NV1 a me piacciono gli esperimenti, altrimenti non l'avrei! In realtà fa bene ciò per cui è nata inizialmente, riuscendo a riprodurre i giochi del Saturn. E' stata la seguente implementazione delle DirectX che è andata male. E' una delle tre schede video del passato che integrano un comparto audio ed una delle due che permette di connettere dei Joypad (del saturn appunto).

Legolas84
08-02-2015, 21:18
SiSi l'avevo capito che non era una critica ;)

È una gloriosa vga così come la Voodoo graphics che però non ho più :D

davo30
08-02-2015, 23:20
Il punto è che rispetto ad AMD è sempre stata pesantemente avanti.

Pesantemente non direi, si è sempre rimasti su un 60/40 a favore di Nvidia (con picchi favorevoli a una o all'altra). E tutto sommato un 60/40 indica un buon livello di concorrenza
Vorrei che questo "pesantemente" fosse riflesso anche nel mercato CPU, ma purtroppo non è cosi per molti motivi....

CrapaDiLegno
08-02-2015, 23:36
Mi scuso se ho osato mettere in discussione la costante supremazia di Nvidia, quindi mi ritiro da questa discussione esageratamente complessa e vi lascio alla vostra diatriba.
Resta il fatto che i 2 semplici grafici dimostrano che nel periodo 2004 e 2005 ATI era avanti :asd:
Buona serata ;)
Ma ti rendo conto di come tenti di sostenere una discussione?
Hai fatto un'affermazione precisa ma falsa, ti è stato postato un grafico che un bambino saprebbe leggere per fartelo notare e hai sbagliato a leggerlo, poi hai ripiegato in corner dicendo "e ma sì, quando c'erano i dinosauri un'altra azienda era davanti" (e forse non sai che prima dei dinosauri ce n'erano molte altre).
:mc:

Hai ragione, non è la ram il problema. :oink:
https://forums.geforce.com/default/topic/809697/geforce-900-series/comparison-between-670-4gb-and-970-4gb-when-using-more-than-3-5gb-vram-in-som-/
No, infatti il problema non è la memoria come quantità ( i 4GB ci sono tutti).
Mi sa che nessuno di voi ha capito qual è stata la modifica al memori controller ma continua a postare commenti di altri senza capirne il significato.
Se sapete l'inglese leggetevi l'articolo su Anadthech che vi spiega tutto per filo e per segno. Se non lo sapete, mi piacerebbe sapere da dove avere appreso le vostre informazioni, dato che nessun sito italiano ha trattato l'argomento così approfonditamente.

Ora si parlava di dati di market share non di tecnologia... Mi spiace comunque che consideriate tutti fermi un fail perché così non è stato affatto... Come invece lo sono stati nv30 ed r600.

Comunque dispiace vedere la malafede di molti utenti solo per difendere il proprio marchio del cuore. E in questo caso non ce l'ho con te max che hai postato tue personali opinioni (cosa del tutto accettabile) ma con tutti gli utenti che hanno sparato dati a caso, detto di proposito inesattezze catastrofiche senza dare spiegazioni in merito ecc....
A parte il fatto che del market share ce ne sbatte poco o nulla, dato che ci sono mille modi di sostenerlo e di perdere miliardi alla fine dell'anno (Intel docet). Tanto è valso il numero di schede che vendeva ATI in quel periodo che è praticamente fallita acquisita da AMD per una cifra fuori di melone.
Comunque è dimostrato che Fermi v1, il GF100, per nvidia è stata una tragedia più che un semplice fail. Se vai a vedere cosa è avvenuto al budget di nvidia nel primo trimestre del 2010 ti spaventi per il tonfo che ha fatto.
Il GF100 è stato economicamente un disastro. Costava davvero troppo è non sono riusciti a produrne nemmeno 1 funzionante da vendere (o ne uscivano così pochi che non erano sufficienti a giustificare una nuova scheda full featured né consumer né professionale). Oltre ad aver avuto la necessità di accavallare lo sviluppo del fix che è uscito appena 6 mesi dopo, tempo insufficiente a iniziare una produzione di massa partendo solo dal tapeout se ipotizziamo che questo sia uscito a marzo. Quindi nvidia già sapeva che il GF100 non era sostenibile. E con uno sforzo economico immane con "soli" 6 mesi di ritardo (e un trimestre da dimenticare) ha sistemato la questione.
Anche AMD si è accorta che Tahiti non era sostenibile contro il GK104 e come soluzione ha presentato Tonga 2 anni dopo :rolleyes: Ora se le va bene ha 6 mesi di ritardo sulla concorrenza. Ricordo che ne ha avuti più di tre quando ha cominciato con i 28nm. Ha perso 9 mesi in 2 anni.
C'è poco da commentare su questa cosa. Il market share non serve proprio a dimostrare nulla né da una parte, né dall'altra.

Pier2204
09-02-2015, 07:29
Ma ti rendo conto di come tenti di sostenere una discussione?
Hai fatto un'affermazione precisa ma falsa, ti è stato postato un grafico che un bambino saprebbe leggere per fartelo notare e hai sbagliato a leggerlo, poi hai ripiegato in corner dicendo "e ma sì, quando c'erano i dinosauri un'altra azienda era davanti" (e forse non sai che prima dei dinosauri ce n'erano molte altre).
:mc:



Vabbè la finisco qui se non si finisce mai.

IL grafico mette in evidenza una linea rossa e una verde, chissà perché, e in quel periodo non cerano dinosauri ma ATI e Nvidia, di quelle si parla.
A me non frega un bel nulla di chi era davanti, ho solo voluto far precisare che quel pesantemente e sempre non era così.
Chiudo la questione..
Io invece ho la sensazione che quelle dichiarazioni non nascono per un dato di fatto ma solo per ribadire la superiorità di Nvidia rispetto la rivale, ..mia sensazione eh..

CrapaDiLegno
09-02-2015, 08:45
hai davvero un livello di saccenza che non dovrebbe far parte di un thread pubblico, ma chi ti credi di essere? porta rispetto per chi non conosci e a cui ti rivolgi in un forum, a prescindere dalle idee.
TU sei venuto qui con la saccenza di quello che sapeva tutto riguardo al problema e ha sbraitato cose che altri ti hanno fatto notare non essere proprio vere.
Poi te ne sei uscito come giustificazione con una serie di questioni che non riguardano questo problema ma la tua visione su nvidia e la sua strategia nel passato(opinione rispettabile, ma ripeto che non riguarda questo problema) e pretendi che ti si consideri capace di sostenere una discussione seria di tipi tecnico??? Perché di presunto problema tecnico qui si parla. Problema che esiste e ha certi aspetti che non sono quelli che TU sei venuto qui a sbandierare come un invasato.
Quel che compri e perchè, sinceramente poco interessa a me, e credo, anche agli altri.

AceGranger
09-02-2015, 09:08
Ma infatti non ha alcun senso farlo, dirlo o pensarlo, 290 e 290X sono uscite a prezzi ultracompetitivi e disintegravano l'offerta orribilmente overpriced di Nvidia. La 290 era più veloce della 780 e disintegrava la 770, la 290X non ne parliamo, tanto che Nvidia ha dovuto far uscire l'ennesima GPU super-overpriced per batterla (780 ti) la quale comunque le prendeva dalla "massima" scheda AMD, la 295X2, che a sua volta distruggeva anche la Titan Z a metà del prezzo (seppur a consumi insostenibili). Semmai il fail quindi era proprio la serie GTX 700 e Maxwell è ancora peggio considerando il bump ridicolo che offre rispetto alla generazione passata, i prezzi assurdi (specie della 980, quello della 970 è più un problema di reseller che intendono lucrarci sopra per via della domanda) e il false advertising da class action per la 970.

la 290 e 290X sono inizialmente uscite a prezzi senza senso e con i dissipatori delle reference ridicoli, tantè che hanno venduto ben poco e si è dovuti aspettare il taglio di prezzi e le versioni Custom; prestazionalmente se la giocavano con la serie 700 ma a consumi nettamente superiori; le % delle GPU parlano da sole.

la 980 è la solita overpriced perchè non ha concorrenza, la 970 è attualmente la miglior scheda prezzo/prestazioni per quella fascia. Fra un paio di mesi con l'arrivo della serie 300X avremo probabilmente un taglio di prezzo della 980 e una GPU AMD piu conveniente della 970, a meno che nVidia non pratichi un taglio anche li.

gd350turbo
09-02-2015, 09:15
Non voglio convincere nessuno ma mettere solo ordine nelle questioni... Chi dice che le r9 sono dei fornetti con consumi esorbitanti non fa un piacere alla verita, punto, cosi come dire che le 970 sono dei cessi, lì è una questione di principio e correttezza....sui forum esteri ci vado pure io e se ne sentono di belle anche sulle "driver perfetti nvidia" ;) ora magari tirniamo a parlare di r300 magari...

http://www.guru3d.com/news-story/amd-r3xx-benchmarks.html

Ha il 50% in più di performance in gaming di una 980, scalda 10 gradi di meno pur consumando 110 watt in più...

Della serie:
Quando si fanno le sparate, meglio farle grosse !

Jeetkundo
09-02-2015, 09:26
http://www.guru3d.com/news-story/amd-r3xx-benchmarks.html

Ha il 50% in più di performance in gaming di una 980, scalda 10 gradi di meno pur consumando 110 watt in più...

Della serie:
Quando si fanno le sparate, meglio farle grosse !

Magari fosse vero! Sono pronto a vendere la 780 :D

gd350turbo
09-02-2015, 09:30
Magari fosse vero! Sono pronto a vendere la 780 :D

Idem...
Ma neanche nei sogni più bagnati sarebbe possibile !

Max_R
09-02-2015, 09:52
Chissà che sistema di raffreddamento hanno adoperato e comunque sia, stando ai presunti dati, consumano troppo. Questo obbliga l'utenza a scendere a compromessi: preferisco una scheda un po meno veloce ma più equilibrata. Stiamo a vedere in ogni caso.

Legolas84
09-02-2015, 10:19
Vabbè la finisco qui se non si finisce mai.

IL grafico mette in evidenza una linea rossa e una verde, chissà perché, e in quel periodo non cerano dinosauri ma ATI e Nvidia, di quelle si parla.
A me non frega un bel nulla di chi era davanti, ho solo voluto far precisare che quel pesantemente e sempre non era così.
Chiudo la questione..
Io invece ho la sensazione che quelle dichiarazioni non nascono per un dato di fatto ma solo per ribadire la superiorità di Nvidia rispetto la rivale, ..mia sensazione eh..

Per me era già finita quando hai detto che ai tempi di fermi, AMD era avanti con il market share ;)

Ciao :)

Legolas84
09-02-2015, 10:22
http://www.guru3d.com/news-story/amd-r3xx-benchmarks.html

Ha il 50% in più di performance in gaming di una 980, scalda 10 gradi di meno pur consumando 110 watt in più...

Della serie:
Quando si fanno le sparate, meglio farle grosse !

Speriamo!!! Dopo la 980 che è quasi un side upgrade (solo poco più del 10% di prestazioni di una 780Ti) ci vuole un bel salto!

Spero che anche bigMaxwell stacchi di un netto 50% la 980..... :)

davo30
09-02-2015, 10:22
la 290 e 290X sono inizialmente uscite a prezzi senza senso e con i dissipatori delle reference ridicoli, tantè che hanno venduto ben poco e si è dovuti aspettare il taglio di prezzi e le versioni Custom; prestazionalmente se la giocavano con la serie 700 ma a consumi nettamente superiori; le % delle GPU parlano da sole.

la 980 è la solita overpriced perchè non ha concorrenza, la 970 è attualmente la miglior scheda prezzo/prestazioni per quella fascia. Fra un paio di mesi con l'arrivo della serie 300X avremo probabilmente un taglio di prezzo della 980 e una GPU AMD piu conveniente della 970, a meno che nVidia non pratichi un taglio anche li.

Perche, quale dissipatore reference non fa schifo?

http://www.guru3d.com/news-story/amd-r3xx-benchmarks.html

Ha il 50% in più di performance in gaming di una 980, scalda 10 gradi di meno pur consumando 110 watt in più...

Della serie:
Quando si fanno le sparate, meglio farle grosse !

SHHHHH che poi partono i deliri del "consuma troppo"
Vuoi mettere, risparmiare 3 euro all'anno, sarai mica pazzo! INQUINATORE :doh:

gd350turbo
09-02-2015, 10:37
SHHHHH che poi partono i deliri del "consuma troppo"
Vuoi mettere, risparmiare 3 euro all'anno, sarai mica pazzo! INQUINATORE :doh:

Non è questione di costi, ma di temperature...

110 watt in più non incidono sulla bolletta in maniera significativa, ma vanno smaltiti sotto forma di calore generato !

gd350turbo
09-02-2015, 10:39
Spero che anche bigMaxwell stacchi di un netto 50% la 980..... :)

Se hai tempo di aspettare l'uscita del gm200 a 16nm, sicuramente !

AceGranger
09-02-2015, 10:41
Perche, quale dissipatore reference non fa schifo?


quello delle GTX

http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/19

CrapaDiLegno
11-02-2015, 09:23
Chissà che sistema di raffreddamento hanno adoperato e comunque sia, stando ai presunti dati, consumano troppo. Questo obbliga l'utenza a scendere a compromessi: preferisco una scheda un po meno veloce ma più equilibrata. Stiamo a vedere in ogni caso.

Si parla di raffreddamento a liquido per queste R300.

CrapaDiLegno
11-02-2015, 09:31
http://www.guru3d.com/news-story/amd-r3xx-benchmarks.html

Ha il 50% in più di performance in gaming di una 980, scalda 10 gradi di meno pur consumando 110 watt in più...

Della serie:
Quando si fanno le sparate, meglio farle grosse !

Ma, guarda, può essere anche tutto vero. Il raffreddamento dovrebbe esseer a liquido, per cui le temperature basse sono possiibli. Le prestazioni sono a scelta: il chip potrebbe essere una mattonella peggiore (per dimensioni) di quelle mai prodotte da nvidia e potrebbe andare a 10Ghz (i consumi suggeriscono più o meno questo).

Il problema vero sarà il prezzo. Siccome AMD non può permetersi di scendere ancora con i prezzi delle altre schede di fascia inferiore (Thaiti e Tonga oggi se la battono con il mini chip GM106!) questa scheda non andrà di certo a sostituire Hawaii, ma si posizionerà un pezzo sopra.
Praticamente una Titan con le prestazioni da vera enthusiast. Non plus ultra. Con tutti i pro e contro che questa cosa comporta. Ne venderà 10 in tutto il mondo, ma riuscirà forse a dimostrare che ha la GPU più veloce per qualche mese (o settimana? Non si sa nulla riguardo a Big Maxwell).
Secondo me è solo un chip di prova. Su un PP non adeguato alle caratteristiche che vorrebbe avere. Una sorta di Tock su cui AMD è disposta a perdere qualche soldo per poi produrne una versione definitivae molto più competitiva a 16nm (Tick) .

Max_R
11-02-2015, 10:18
:doh: ripetono l'esperienza HD 2900 XT/XTX.. Forse a loro è piaciuta.. I gusti..

PaulGuru
11-02-2015, 10:53
Le prime schede con cui si potrà giocare a 1440p in modo perfetto ? Bene

Si sente già la pressione di TW3

PaulGuru
11-02-2015, 10:55
i reference AMD generalmente sono pessimi, ma alla fine ciò che conta tra reference o custom è il prezzo finale, e quindi anche se il reference nvidia è migliore ma costa come un custom o di più di un reference AMD che senso ha?

E se uno vuole una reference ?
E se uno non vuole dissipatori radiali nel case ?
Il dissipatore reference DEVE essere sufficiente almeno con freq stock, altrimenti è un difetto e non ci giriamo attorno.

WarDuck
11-02-2015, 13:26
E se uno vuole una reference ?
E se uno non vuole dissipatori radiali nel case ?
Il dissipatore reference DEVE essere sufficiente almeno con freq stock, altrimenti è un difetto e non ci giriamo attorno.

Boh secondo me questo è un discorso senza via d'uscita...

Se il chip è progettato per reggere chessò, 120°, stare a 80° in full load rientra nei margini, anche se nessuno di noi "smanettoni" vorrebbe una cosa del genere.

Quindi che non basta chi lo dice?

Nota: cmq ho visto il link sulla serie 300, non dice nulla, quindi inutile fare troppe illazioni quando non si sa ancora niente.

PaulGuru
11-02-2015, 13:45
Boh secondo me questo è un discorso senza via d'uscita...

Se il chip è progettato per reggere chessò, 120°, stare a 80° in full load rientra nei margini, anche se nessuno di noi "smanettoni" vorrebbe una cosa del genere.

Quindi che non basta chi lo dice?

Nota: cmq ho visto il link sulla serie 300, non dice nulla, quindi inutile fare troppe illazioni quando non si sa ancora niente.

non è un discorso di sole temp, ma di trottling, ovviamente con il reference la scheda non dovrebbe andare in trottling a meno che non vivo sulla fascia dell'equatore con 50° di Tamb.

Max_R
11-02-2015, 13:51
Secondo me non è manco una questione di throttling, del resto ci sta anche che una scheda molto spinta in full load posso arrivarci con il dissi reference.
Il problema è quando il dissi reference spinto al massimo sembra un F35 in fase di decollo e la scheda è comunque in throttling :muro:

P.s: questo discorso potrebbe valere anche per il macpro :asd:

Se si arriva a questo tutta la componentistica è soggetta ad uno stress non indifferente, con conseguenze piuttosto ovvie.

gd350turbo
11-02-2015, 14:02
Ma, guarda, può essere anche tutto vero. Il raffreddamento dovrebbe esseer a liquido, per cui le temperature basse sono possiibli. Le prestazioni sono a scelta: il chip potrebbe essere una mattonella peggiore (per dimensioni) di quelle mai prodotte da nvidia e potrebbe andare a 10Ghz (i consumi suggeriscono più o meno questo).

Il problema vero sarà il prezzo. Siccome AMD non può permetersi di scendere ancora con i prezzi delle altre schede di fascia inferiore (Thaiti e Tonga oggi se la battono con il mini chip GM106!) questa scheda non andrà di certo a sostituire Hawaii, ma si posizionerà un pezzo sopra.
Praticamente una Titan con le prestazioni da vera enthusiast. Non plus ultra. Con tutti i pro e contro che questa cosa comporta. Ne venderà 10 in tutto il mondo, ma riuscirà forse a dimostrare che ha la GPU più veloce per qualche mese (o settimana? Non si sa nulla riguardo a Big Maxwell).
Secondo me è solo un chip di prova. Su un PP non adeguato alle caratteristiche che vorrebbe avere. Una sorta di Tock su cui AMD è disposta a perdere qualche soldo per poi produrne una versione definitivae molto più competitiva a 16nm (Tick) .

Ah si tecnicamente parlando e senza limitazioni di budget, lo possono fare, possono fare una specie di titan z by amd, che comporterà un investimento non indifferente per amd, con la possibilità tutt'altro che remota, di non rientrare nelle spese, e non mi pare che questo sia un buon momento per amd per buttare soldi in un progetto del genere...

Quindi propendo per la teoria della sparata, una grossa sparata !