PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 [69] 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

aaasssdddfffggg
19-01-2010, 17:30
perdonami ma ne abbiamo parlato per tre pagine.
;)

non le ho lette tutte.;)

Fantomatico
19-01-2010, 17:31
Ragazzi scusate se faccio una domanda sciocca, ma seguo ogni tanto il thread quindi nn sono informato come voi...
Vedo che è stato preso in considerazione Far Cry 2 per eseguire dei benchmarks, come mai proprio quel titolo? Spreme per bene le schede a qualità massima?

aaasssdddfffggg
19-01-2010, 17:32
Ragazzi scusate se faccio una domanda sciocca, ma seguo ogni tanto il thread quindi nn sono informato come voi...
Vedo che è stato preso in considerazione Far Cry 2 per eseguire dei benchmarks, come mai proprio quel titolo? Spreme per bene le schede a qualità massima?

edit

gianni1879
19-01-2010, 17:32
eccomi di ritorno, ho visto che c'è stata qualche risposta di Corsini, aspettiamo la modifica dei vari test

aaasssdddfffggg
19-01-2010, 17:33
Ragazzi scusate se faccio una domanda sciocca, ma seguo ogni tanto il thread quindi nn sono informato come voi...
Vedo che è stato preso in considerazione Far Cry 2 per eseguire dei benchmarks, come mai proprio quel titolo? Spreme per bene le schede a qualità massima?

mai come lo screen del tuo AVATAR.;)

sommo89
19-01-2010, 17:36
nemesis hai messo 2 volte lo stesso messaggio ;)
Grazie HAL per le informazioni....ora si può solo sperare che escano più informaioni...a riguardo...

halduemilauno
19-01-2010, 17:36
eccomi di ritorno, ho visto che c'è stata qualche risposta di Corsini, aspettiamo la modifica dei vari test

gia detto e modificata la prima pagina in attesa di modificarla ulteriormente.

Fantomatico
19-01-2010, 17:37
mai come lo screen del tuo AVATAR.;)

Ehehe immagino...

cmq sto guardando dei benchmark su FC2, pare veramente bello esigente a qualità massima...è stato convertito proprio bene su PC allora.

aaasssdddfffggg
19-01-2010, 17:38
nemesis hai messo 2 volte lo stesso messaggio ;)
Grazie HAL per le informazioni....ora si può solo sperare che escano più informaioni...a riguardo...

visto.Grazie per avermelo fatto notare.;)

aaasssdddfffggg
19-01-2010, 17:39
Ehehe immagino...

cmq sto guardando dei benchmark su FC2, pare veramente bello esigente a qualità massima...è stato convertito proprio bene su PC allora.

usa il DUNIA engine di proprietà UBISOFT Montreal ed è fatto bene ma non ai livelli del CRYENGINE 2.Non ce ancora nulla al momento come l'engine usato da CRYTEK.;)

sommo89
19-01-2010, 17:41
usa il DUNIA engine di proprietà UBISOFT Montreal ed è fatto bene ma non ai livelli del CRYENGINE 2.Non ce ancora nulla al momento come l'engine usato da CRYTEK.;)

per fortuna....se no ci vorrebbero 2000 euro per giocare decentemente al massimo...

gianni1879
19-01-2010, 17:46
gia detto e modificata la prima pagina in attesa di modificarla ulteriormente.

si parlavo in generale, avendo visto adesso gli interventi di Corsini.

appleroof
19-01-2010, 18:09
le 16 unità a cui fa riferimento il documento sono disposte una per SP, il che significa che ne hai una ogni 32 alu. Nel caso in cui siano tutte attive, potrebbe verificarsi che almeno 16 alu di uno SP lavorino sulle operazioni di tessellazione (o al massimo tutte e 32). Quindi la potenza impiegata potrebbe essere del 50% o anche superiore.

Considera una serie di cose: ogni SP può gestire due thread in parallelo (quindi un cluster di 16 alu può lavorare su uno ed un altro sull'altro). Uno di questi thread potrebbe essere un'operazioni di tessellation (ma se coinvolge solo 16 alu vuol dire che solo una delle 16 unità di tessellation è attiva).
Comunque, l'esempio fatto per uno SP si può estendere agli altri. Supponiamo che un gruppo di 16 alu di uno SP faccia tessellation; in tal caso e 16 alu fungeranno da hull shader prima, quindi, dopo le operazioni di tessellation, da domain shader. Le operazioni dei domain shader sono sempre successive a quelle degli hull shader e non è possibile che le prime possano avvenire prima delle seconde (esiste sempre una dipendenza).

giro a te la domanda...ma come la vedi che dai test interni Nvidia, Unigine gira più veloce su Fermi che su 5870? Eppure Unigine è un test pesante anche per il rendering, oltre che per la tassellazione...

1) Coi TDP che girano continuo ad avere dubbi sulla Dual-GPU

2) Sarebbe enormemente positivo se fosse vicino il lancio delle altre fasce di schede.

quoto tutto.

usa il DUNIA engine di proprietà UBISOFT Montreal ed è fatto bene ma non ai livelli del CRYENGINE 2.Non ce ancora nulla al momento come l'engine usato da CRYTEK.;)

ed infatti è meno bello ma anche molto meno pesante :D

appleroof
19-01-2010, 18:25
non so se old

http://www.tgdaily.com/hardware-brief/45520-nvidia-details-fermi-based-gf100-specs

yossarian
19-01-2010, 18:33
giro a te la domanda...ma come la vedi che dai test interni Nvidia, Unigine gira più veloce su Fermi che su 5870? Eppure Unigine è un test pesante anche per il rendering, oltre che per la tassellazione...



quei test sono riferiti alla sola operazione di tessellation e potrebbero riguardare la parte in cui si vedono le immagini in wireframe.
Non do alcun peso a test di cui vengono mostrate solo le slide con i presunti risultati finali. Già si è visto quanto poco attendibili siano quelli di FC2.
La stessa nVIDIA potrebbe avre presentato dei risultati in cui la 285 viene addirittura penalizzata per enfatizzare le prestazioni di fermi (non sarebbe la prima volta ceh si ricorre a pratiche del genere). Avendo come riferimento anche utenti che hanno fatto test con la 5870, con piattaforme simili o addirittura inferiori a quella che nVIDIA ha dichiarato di aver utilizzato, abbiamo visto come il divario crolli a meno del 15%.
L'unica cosa importante, tra le tante voci o presunte notizie circolate in questi giorni sono, secondo me, i nuovi dettagli emersi sull'architettura.

halduemilauno
19-01-2010, 18:35
la nuova slide...
http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

Ripetiamo per completezza di informazione che i parametri di funzionamento della scheda video GeForce GF100 impiegata non sono in nostro possesso, così come la versione driver. NVIDIA ha eseguito sotto regime controllato i test con la nuova scheda sviluppata su architettura GF100 e messa a confronto con una normale GeForce GTX 285: i risultati per le schede NVIDIA sono quelli registrati in tale sessione.Abbiamo verificato i risultati della scheda GeForce GTX 285 replicandoli con la nostra piattaforma di test: la differenza registrata è abbondantemente all'interno del margine d'errore proprio di ogni benchmark. Nel caso dei test eseguiti con Radeon HD 5870 e Radeon HD 5850, portati avanti nel nostro laboratorio, i driver utilizzati sono stati i Catalyst 9.12.

I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco.

Aggiornamento del 19 Gennaio: abbiamo rieseguito i test con le schede Radeon, evidenziando un problema nel primo run di test con la nostra piattaforma di test che ci aveva condotto a risultati più bassi. Quanto riportato nel grafico si riferisce quindi ai valori aggiornati. Ci scusiamo per il disguido che questo possa aver generato.


;)


ps aggiornata la prima pagina.

appleroof
19-01-2010, 18:37
quei test sono riferiti alla sola operazione di tessellation e potrebbero riguardare la parte in cui si vedono le immagini in wireframe.
Non do alcun peso a test di cui vengono mostrate solo le slide con i presunti risultati finali. Già si è visto quanto poco attendibili siano quelli di FC2.
La stessa nVIDIA potrebbe avre presentato dei risultati in cui la 285 viene addirittura penalizzata per enfatizzare le prestazioni di fermi (non sarebbe la prima volta ceh si ricorre a pratiche del genere). Avendo come riferimento anche utenti che hanno fatto test con la 5870, con piattaforme simili o addirittura inferiori a quella che nVIDIA ha dichiarato di aver utilizzato, abbiamo visto come il divario crolli a meno del 15%.
L'unica cosa importante, tra le tante voci o presunte notizie circolate in questi giorni sono, secondo me, i nuovi dettagli emersi sull'architettura.

sono d'accordo che sono le cose più importanti, il ressto era per lo più curiosità....giustamente non ho considerato le variabili che dici (primo grassetto) e sì che conosco il test....certo che tendi a vedere il bicchiere mezzo vuoto, diciamo così :D (ad ogni modo quello che dici varrebbe pure per la 5870)

cmq aspettiamo e vediamo, come dico sempre, delle nuove vga dx11, Ati o Nvidia è l'aspetto che più mi intriga, anche perchè imho è un aspetto sul quale si punterà molto nei game dei prossimi anni (e dico pure finalmente, che delle dx9 non se ne può più :D )

luX0r.reload
19-01-2010, 18:47
se ti accontenti della grafica di stalker ...contento tu.;)
Sai cosa hanno detto gli sviluppatori?"L'X-Ray engine è l'ultima volta che lo usiamo in questo episodio di STALKER.E' ora che va in pensione.":p
Metro 2033 ha un motore grafico nuovo di zecca scritto da zero.:D
Già... e sfrutterà la Physx su gpu :D

aaasssdddfffggg
19-01-2010, 18:47
la nuova slide...
http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

Ripetiamo per completezza di informazione che i parametri di funzionamento della scheda video GeForce GF100 impiegata non sono in nostro possesso, così come la versione driver. NVIDIA ha eseguito sotto regime controllato i test con la nuova scheda sviluppata su architettura GF100 e messa a confronto con una normale GeForce GTX 285: i risultati per le schede NVIDIA sono quelli registrati in tale sessione.Abbiamo verificato i risultati della scheda GeForce GTX 285 replicandoli con la nostra piattaforma di test: la differenza registrata è abbondantemente all'interno del margine d'errore proprio di ogni benchmark. Nel caso dei test eseguiti con Radeon HD 5870 e Radeon HD 5850, portati avanti nel nostro laboratorio, i driver utilizzati sono stati i Catalyst 9.12.

I valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco.

Aggiornamento del 19 Gennaio: abbiamo rieseguito i test con le schede Radeon, evidenziando un problema nel primo run di test con la nostra piattaforma di test che ci aveva condotto a risultati più bassi. Quanto riportato nel grafico si riferisce quindi ai valori aggiornati. Ci scusiamo per il disguido che questo possa aver generato.


;)


ps aggiornata la prima pagina.

18 frame circa di differenza sui minimi (per i medi anche 20)rispetto alla 5870 è un dato soddisfacente.Mi soddisfa.:D

scorpion73
19-01-2010, 18:52
la nuova slide...
[/B]


mi sbaglio o è ancora quella vecchia? dei 57 frames su Radeon?

luX0r.reload
19-01-2010, 18:54
dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.


a parte che si parla di architetture diverse.

Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%

Ovviamente in attesa di test un pò più seri.
... non so se conta, ma a quel bench i frames minimi di fermi e 5870 erano molto differenti...

halduemilauno
19-01-2010, 18:56
18 frame circa di differenza sui minimi (per i medi anche 20)rispetto alla 5870 è un dato soddisfacente.Mi soddisfa.:D

cmq in linea con quanto gia si era visto...
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-42.jpg
ma ribadisco tocca vedere rece esaustive.
;)

halduemilauno
19-01-2010, 18:57
mi sbaglio o è ancora quella vecchia? dei 57 frames su Radeon?

no sostituita. per la cronaca fa 64,65.
;)

Kharonte85
19-01-2010, 19:00
18 frame circa di differenza sui minimi (per i medi anche 20)rispetto alla 5870 è un dato soddisfacente.Mi soddisfa.:D
Io ve lo dicevo che il dato del sito del castoro era affidabile...infatti adesso è stato replicato ;)

aaasssdddfffggg
19-01-2010, 19:00
cmq in linea con quanto gia si era visto...

ma ribadisco tocca vedere rece esaustive.
;)

perlomeno ci siamo messi in linea e questo avvalora di più quel test.;)

aaasssdddfffggg
19-01-2010, 19:02
Io ve lo dicevo che il dato del sito del castoro era affidabile...infatti adesso è stato replicato ;)

io sono il primo della lista dei fiduciosi su fermi (e non mi sono mai nascosto qui dentro su questo aspetto).Mai avuto dubbi che sarà una gran bella gpu quando arriverà sul mercato.E non mi sbaglierò.:p

St. Jimmy
19-01-2010, 19:04
se il tutto fosse confermato non sarebbe affatto male come risultato...considerando che i driver nvidia sono ancora (molto) acerbi mentre quelli ATI sono ormai testati (inerente alle schede in questione).

TheDarkAngel
19-01-2010, 19:05
se il tutto fosse confermato non sarebbe affatto male come risultato...considerando che i driver nvidia sono ancora (molto) acerbi mentre quelli ATI sono ormai testati (inerente alle schede in questione).

beh ma in 6 mesi di ritardo almeno i driver saranno stati fatti :asd: ?

halduemilauno
19-01-2010, 19:06
Io ve lo dicevo che il dato del sito del castoro era affidabile...infatti adesso è stato replicato ;)

giusto e infatti lo avevamo gia detto.

;)

St. Jimmy
19-01-2010, 19:08
beh ma in 6 mesi di ritardo almeno i driver saranno stati fatti :asd: ?

non ci metterei la mano sul fuoco :asd:
non per criticare il lavoro svolto da nvidia ma in questi 6 mesi credo (e spero) si siano dedicati ad altro piuttosto che ai driver

halduemilauno
19-01-2010, 19:08
se il tutto fosse confermato non sarebbe affatto male come risultato...considerando che i driver nvidia sono ancora (molto) acerbi mentre quelli ATI sono ormai testati (inerente alle schede in questione).

credo che i driver nvidia in questa fase non siano acerbi, ma embrionali.
;)

luX0r.reload
19-01-2010, 19:10
beh ma in 6 mesi di ritardo almeno i driver saranno stati fatti :asd: ?
... l'ottimizzazione dei drivers è l'ultima cosa. Poi se consideri che ci sono state (e forse ancora ci saranno?) diverse revision del chippone! :D

Ragazzi che voi sappiate ci sono state anche ottimizzazioni per Physx?

Andrea deluxe
19-01-2010, 19:14
ho visto una tabella dietro.....


come mai 448 shader....?


la top avra' 512 giusto?

yossarian
19-01-2010, 19:14
sono d'accordo che sono le cose più importanti, il ressto era per lo più curiosità....giustamente non ho considerato le variabili che dici (primo grassetto) e sì che conosco il test....certo che tendi a vedere il bicchiere mezzo vuoto, diciamo così :D (ad ogni modo quello che dici varrebbe pure per la 5870)

cmq aspettiamo e vediamo, come dico sempre, delle nuove vga dx11, Ati o Nvidia è l'aspetto che più mi intriga, anche perchè imho è un aspetto sul quale si punterà molto nei game dei prossimi anni (e dico pure finalmente, che delle dx9 non se ne può più :D )

Diciamo che tendo ad essere concreto ed a valutare tutti gli aspetti (anche se a volte qualcuno sfugge :D ).
Finora di concreto ci sono dettagli di un'architettura sicuramente interessante in prospettiva; ma emergono anche ancora tanti problemi da risolvere
In quanto ai bench diffusi da nVIDIA mi sono bastati quelli dei tempi di NV30 (2,5 volte più veloce in quake 3 e 3 volte più veloce nel 3dmark2001 rispetto ad una ti4600), risultati ampiamente smentiti dai fatti

Orkozzio
19-01-2010, 19:15
C'è un'osservazione da fare, alla fine tra l'uscita di ati e nvidia ci stanno quasi 6 mesi e dunque secondo me non sono paragonabili come schede appartenenti alla stessa generazione.
Che poi le si confrontino perchè vanno a coprire fasce simili di mercato questa è un'altra storia.
Quello che voglio dire è che in ambito informatico 6 mesi sono un'eternità e nel frattempo ati di certo non sarà rimasta con le mani in mano e avrà di certo in mano la carta della contromossa.
Per quanto riguarda i test "puramente informativi" la cosa che più mi ha lasciato di sasso (il 20 e rotti % in più ci può anche stare sulle prestazioni pure) è il grafico delle performance della tassellazione... se veramente fosse così nvidia avrebbe l'uovo di colombo in casa!!:eek:
Però... una scheda video di successo ha tante caratteristiche che devono essere ben bilancate tra di loro... e cioè avere delle buone prestazioni, consumando il giusto ad un prezzo concorrenziale; ogni variazione al di fuori di queste tre regole è si possibile ma secondo me poco conveniente per chi vuole vendere oggi una scheda su di un mercato sempre in evoluzione!!

luX0r.reload
19-01-2010, 19:17
No, avrà PhysX su CPU, così come dichiarato da nVidia stessa sul proprio sito.
E' inutile che ti avveleni ogni volta che si cita Physx (su gpu)... è il futuro, e prima o poi cederai al lato oscuro (o meglio verde) della forza mio caro Padawan :asd:

http://www.rabittooth.com/taijinncalvin.jpg

halduemilauno
19-01-2010, 19:19
ho visto una tabella dietro.....


come mai 448 shader....?


la top avra' 512 giusto?

che tabella? cmq si 512.

Alekos Panagulis
19-01-2010, 19:20
E' inutile che ti avveleni ogni volta che si cita Physx (su gpu)... è il futuro, e prima o poi cederai al lato oscuro (o meglio verde) della forza mio caro Padawan :asd:

Questa è bella. :asd::rotfl:

halduemilauno
19-01-2010, 19:24
C'è un'osservazione da fare, alla fine tra l'uscita di ati e nvidia ci stanno quasi 6 mesi e dunque secondo me non sono paragonabili come schede appartenenti alla stessa generazione.
Che poi le si confrontino perchè vanno a coprire fasce simili di mercato questa è un'altra storia.
Quello che voglio dire è che in ambito informatico 6 mesi sono un'eternità e nel frattempo ati di certo non sarà rimasta con le mani in mano e avrà di certo in mano la carta della contromossa.
Per quanto riguarda i test "puramente informativi" la cosa che più mi ha lasciato di sasso (il 20 e rotti % in più ci può anche stare sulle prestazioni pure) è il grafico delle performance della tassellazione... se veramente fosse così nvidia avrebbe l'uovo di colombo in casa!!:eek:
Però... una scheda video di successo ha tante caratteristiche che devono essere ben bilancate tra di loro... e cioè avere delle buone prestazioni, consumando il giusto ad un prezzo concorrenziale; ogni variazione al di fuori di queste tre regole è si possibile ma secondo me poco conveniente per chi vuole vendere oggi una scheda su di un mercato sempre in evoluzione!!

ambedue appartengono alla stessa generazione. ambedue sono la prima risposta alle nuove api dx11. poi che una sia uscita un mese prima mentre l'altra un 4 mesi dopo significa solo che una era avvantaggiata perchè ha fatto derivare il tutto da una architettura gia esistente mentre l'altra da una architettura nuova. gia accaduto che le due case non siano uscite insieme per affrontare le nuove api.
tutto qui.

luX0r.reload
19-01-2010, 19:25
Che sia il futuro oggi ne parleremo in futuro :asd:

Sul fatto che io mi avveleni, tu non tirarlo in ballo a sproposito e io non avrò niente da dire ;)
Dai, stavo un po' ironizzando sulla tua antipatia per Physx... anche se per me rimane un valore aggiunto, e neanche tanto piccolo. Comunque, opinione personale... in futuro si vedrà. Ora Bookmarkami :D

Orkozzio
19-01-2010, 19:29
La regola è sempre e solo una, in ogni dato momento puoi valutare il mercato per quello che è allora. Ad oggi il mercato non ha niente da offrire lato nVidia. Quando uscirà Fermi vedremo come il mercato si sarà evoluto e lo valuteremo come sarà in quel momento, se due giorni dopo esce una nuova AMD lo rivaluteremo nuovamente. Focalizzarsi sulle "generazioni" di fatto è inutile :)

Si, ma quello che volgio dire io è che in questi 6 mesi (anche se di ritardo da parte di nvidia) la tecnologia è andata avanti e questo balzello avvantaggia chi ritarda... fino a quando arriverà ancora ati e così via.
LA cosa interessante era vedere due schede nuove presentate in simultanea appartenti alla stessa categoria, li si che il confronto pieno ci poteva stare.
Ora, io da "consumatore" di hardware scelgo in base alle varie prove e alle mie idee cosa è meglio per me con forse l'unica certezza che tra una generazione e quella successiva le prestazioni saranno cmq migliorate(se non quasi raddoppiate) e che cmq per una scheda da "giocatore" oggi la massima prospettiva di vita non va oltre l'anno e mezzo... forse due al max!!!:)

aaasssdddfffggg
19-01-2010, 19:34
C'è un'osservazione da fare, alla fine tra l'uscita di ati e nvidia ci stanno quasi 6 mesi e dunque secondo me non sono paragonabili come schede appartenenti alla stessa generazione.
Che poi le si confrontino perchè vanno a coprire fasce simili di mercato questa è un'altra storia.
Quello che voglio dire è che in ambito informatico 6 mesi sono un'eternità e nel frattempo ati di certo non sarà rimasta con le mani in mano e avrà di certo in mano la carta della contromossa.
Per quanto riguarda i test "puramente informativi" la cosa che più mi ha lasciato di sasso (il 20 e rotti % in più ci può anche stare sulle prestazioni pure) è il grafico delle performance della tassellazione... se veramente fosse così nvidia avrebbe l'uovo di colombo in casa!!:eek:
Però... una scheda video di successo ha tante caratteristiche che devono essere ben bilancate tra di loro... e cioè avere delle buone prestazioni, consumando il giusto ad un prezzo concorrenziale; ogni variazione al di fuori di queste tre regole è si possibile ma secondo me poco conveniente per chi vuole vendere oggi una scheda su di un mercato sempre in evoluzione!!

quello che sto sostenendo da qualche giorno.Saranno proprio le prestazioni del tessellatore l'asso nella manica di FERMI.:)

aaasssdddfffggg
19-01-2010, 19:35
C'è un'osservazione da fare, alla fine tra l'uscita di ati e nvidia ci stanno quasi 6 mesi e dunque secondo me non sono paragonabili come schede appartenenti alla stessa generazione.
Che poi le si confrontino perchè vanno a coprire fasce simili di mercato questa è un'altra storia.
Quello che voglio dire è che in ambito informatico 6 mesi sono un'eternità e nel frattempo ati di certo non sarà rimasta con le mani in mano e avrà di certo in mano la carta della contromossa.
Per quanto riguarda i test "puramente informativi" la cosa che più mi ha lasciato di sasso (il 20 e rotti % in più ci può anche stare sulle prestazioni pure) è il grafico delle performance della tassellazione... se veramente fosse così nvidia avrebbe l'uovo di colombo in casa!!:eek:
Però... una scheda video di successo ha tante caratteristiche che devono essere ben bilancate tra di loro... e cioè avere delle buone prestazioni, consumando il giusto ad un prezzo concorrenziale; ogni variazione al di fuori di queste tre regole è si possibile ma secondo me poco conveniente per chi vuole vendere oggi una scheda su di un mercato sempre in evoluzione!!

quello che sto sostenendo...Saranno proprio le prestazioni del tessellatore l'asso nella manica di FERMI.:)

luX0r.reload
19-01-2010, 19:37
Se mi salvo i bookmark di tutti quelli che prevedono mirabilie per PhysX su GPU quando apro FF mi trovo con tutti e 4 i GB di RAM pieni :asd:

Mi accontenterò dell'evidenza. Per curiosità per "futuro" cosa intendi, perché ad oggi dalle liste ufficiali dei rispettivi siti abbiamo 16 giochi con PhysX su GPU, 198 con PhysX su CPU e 196 con Havok. Quando prevedi che questo rapporto di 25:1 nei confronti di PhysX on GPU diventerà meno umiliante? ;)

(magari questa risposta la bookmarko però)
Era una provocazione... mi accontenterei di qualche titolo tripla A che faccia uso di physx su gpu.
Anche se già Batman, dopo averlo giocato, potrebbe esserlo.

A proposito... giocato e finito con Physx su HIGH con la configurazione in sign, ed era giocabilissimo. 44fps di media a 1680x1050 tutto su alto, aa2x e af16x.
Certo se fosse stato un fps, 44fps di media forse non mi sarebbero bastati... ma per la tipologia di gioco a cui appartiene Batman vanno più che bene!

Scusate l'off topic.

Chiudo qui :)

Pihippo
19-01-2010, 19:39
Ciao
Cut
Come architettura pare veramente interessante. Il fatto che si sia sforato il muro di un triangolo\clock che ripercussioni potrebbe avere sui giochi futuri?
Magari vedremmo giochini con un numero spaventoso di poligoni.
Una cosa che non riesco a capire come mai per questo balzo nel numero dei triangoli, ovvero la potenza del setup, si sia aspettato tanto, ovvero, siamo rimasti a cira 1 triangolo per ciclo clock da un bel pò di tempo, mentre la velocità delle alu è cresciuta a dismisura cosi come la loro flessibilià.
Qualcuno mi potrebbe passare qualche link per approfondire?

Mi auto quoto. :D
Qualcuno ha voglia di approfondire?
Ringrazio per eventuale risposta :)

Orkozzio
19-01-2010, 19:40
quello che sto sostenendo da qualche giorno.Saranno proprio le prestazioni del tessellatore l'asso nella manica di FERMI.:)

Si, ma a che prezzo?!
Nel senso può essere performante quanto vuoi ma non deve avere un prezzo fuori mercato!;)
Ora, questa opzione della tassellazione quanto verrà usata!? potrà essere attivata su bassa media o alta o si attiva e basta?!
Analizzando quel grafico (preso sempre col beneficio del dubbio :sofico: ) la differenza è marcatissima ma se i vari giochi non ne faranno suo massiccio sarà potenza sprecata.. se invece sarà il nuovo cardine delle dx11 ati avrà solo da rimboccarsi le maniche.

Adone_1985
19-01-2010, 19:48
Si, ma a che prezzo?!
Nel senso può essere performante quanto vuoi ma non deve avere un prezzo fuori mercato!;)
Ora, questa opzione della tassellazione quanto verrà usata!? potrà essere attivata su bassa media o alta o si attiva e basta?!
Analizzando quel grafico (preso sempre col beneficio del dubbio :sofico: ) la differenza è marcatissima ma se i vari giochi non ne faranno suo massiccio sarà potenza sprecata.. se invece sarà il nuovo cardine delle dx11 ati avrà solo da rimboccarsi le maniche.

Ci sono tante cose che hanno un prezzo fuori mercato...basta guardare il mondo degli audiofili...ci sono impianti che hanno dei prezzi davvero spropositati...altro che 400-500 euro di VGA eppure mi sembra che vendono e venderanno sempre, perchè le nuove tecnologie passano sempre per le fasce alte...

la qualità si paga...questo è un campo molto esoso...se non ti garbano i prezzi..ridimensiona le tue aspettative e quindi anche la spesa...e hai ATI nel PC....

Però adesso se noi "Fanboy Nvidia" vogliamo spendere 800euro per uno SLI non ci stressate la vita...
Grazie;)

luX0r.reload
19-01-2010, 19:51
Batman non è male, forse un po' ripetitivo ma come gioco non mi è dispiaciuto.

Il mio dubbio è cosa ti cambi se va su GPU o CPU, l'importante è che funzioni bene, ma un tripla AAA di solito ha anche una grafica notevole, e questo implica che la GPU avrebbe altro da fare che non la fisica, e in Batman questo è evidente.
A me non cambia niente, ma se si vuole simulare il più possibile la realtà, gli effetti particellari, calcolati in realtime, portano via parecchi cicli di calcolo.
Per questo tipo di simulazione, le cpu odierne non vanno bene perchè sono di molto più lente rispetto anche ad una gpu di fascia media. Questo è l'"andazzo" che vedo... poi se ste cose le si faranno tramite openCL, beh tanto di guadagnato per noi utenti! Fermo restando che secondo me il calcolo della fisica su gpu per i videogiochi avrà un boom incredibile.

Adone_1985
19-01-2010, 19:57
...e hai ATI nel PC....??
Tu vuoi proprio creare flame!:muro:

Perchè scusa vorresti dire che non è vero che Ati è ottima proprio per la sua caratteristica del rapporto qualità/prezzo? questa è la sua filosofia...la filosofia di nvidia è prestazioni massime a qualunque costo e poi ATI è l'unica concorrente quindi se non scegli nvidia cosa prenderesti?;)

RaZoR93
19-01-2010, 19:59
Perchè scusa vorresti dire che non è vero che Ati è ottima proprio per la sua caratteristica del rapporto qualità/prezzo? questa è la sua filosofia...la filosofia di nvidia è prestazioni massime a qualunque costo e poi ATI è l'unica concorrente quindi se non scegli nvidia cosa prenderesti?;)A me risulta che sia ATI ad avere le schede più costose e dalle prestazioni più alte sul mercato, così come ai tempi della 9700 o della serie 1900XTX. :) Che poi mantenga comunque un buon rapporto qualità/prezzo anche oggi è un'altra storia.

yossarian
19-01-2010, 20:04
Mi auto quoto. :D
Qualcuno ha voglia di approfondire?
Ringrazio per eventuale risposta :)

Originariamente inviato da Pihippo Guarda i messaggi
Ciao
Cut
Come architettura pare veramente interessante. Il fatto che si sia sforato il muro di un triangolo\clock che ripercussioni potrebbe avere sui giochi futuri?
Magari vedremmo giochini con un numero spaventoso di poligoni.
Una cosa che non riesco a capire come mai per questo balzo nel numero dei triangoli, ovvero la potenza del setup, si sia aspettato tanto, ovvero, siamo rimasti a cira 1 triangolo per ciclo clock da un bel pò di tempo, mentre la velocità delle alu è cresciuta a dismisura cosi come la loro flessibilià.
Qualcuno mi potrebbe passare qualche link per approfondire?

piuttosto difficile che avvenga; il carico è distribuito, comunque, al 30% circa sulle operazioni geometriche e di rasterizzazione ed al 70% su quelle di pixel shading per una serie di ragioni, prima tra tutte quella che queste ultime presentano operazioni ad elevate latenze, per nascondere le quali si ha bisogno di avere un gran numero di thread in circolazione.

Orkozzio
19-01-2010, 20:15
Ci sono tante cose che hanno un prezzo fuori mercato...basta guardare il mondo degli audiofili...ci sono impianti che hanno dei prezzi davvero spropositati...altro che 400-500 euro di VGA eppure mi sembra che vendono e venderanno sempre, perchè le nuove tecnologie passano sempre per le fasce alte...

la qualità si paga...questo è un campo molto esoso...se non ti garbano i prezzi..ridimensiona le tue aspettative e quindi anche la spesa...e hai ATI nel PC....

Però adesso se noi "Fanboy Nvidia" vogliamo spendere 800euro per uno SLI non ci stressate la vita...
Grazie;)

Magari la vita te la stressi da solo... io non ci penso nemmeno :D cmq, parlando dell'utente medio che quarda si il nome la qualità ecc. ma alla fine se il prezzo è fuori mercato il venduto rimane esiguo malgrado gli "affezzionati".




la qualità si paga...questo è un campo molto esoso...se non ti garbano i prezzi..ridimensiona le tue aspettative e quindi anche la spesa...e hai ATI nel PC....



Non capisco il perchè di questo attacco senza motivo e forse no lo capirò mai visto che da questa frase deduco che per te ati=serie b e nvidia=oro colato!!
Resta con le tue convinzioni e spendi i soldi come meglio credi ma non permetterti di dirmi di ridimensionarmi.
Questo sia chiaro.

Pihippo
19-01-2010, 20:36
piuttosto difficile che avvenga; il carico è distribuito, comunque, al 30% circa sulle operazioni geometriche e di rasterizzazione ed al 70% su quelle di pixel shading per una serie di ragioni, prima tra tutte quella che queste ultime presentano operazioni ad elevate latenze, per nascondere le quali si ha bisogno di avere un gran numero di thread in circolazione.

Ciao
Ti ringrazio per la risposta, precisa e comprensibile per chi non ne capisce nulla come me.
Ma dunque come mai gli ingegneri anno devoluto una parte di silicio, che da quello che ne capisco, non è proprio indifferente a potenziare il setup rate di fermi? Ovvero 4 triangoli per ciclo se non sbaglio e 4 rasterizzatori, letto su b3d,
se alla fine dei conti il 70% della latenza che una gpu si trova a fronteggiare passa per le operazioni di shading, texturing ed immagino nel fetch degli operandi dalla memoria? Non sarebbe stato più semplice cercare qualche trucco per abbassare le latenze ad esempio nei trasferimenti da e verso la ram?
Approfitto della tua disponibilità a farti un ulteriore domanda. La cpu nell'eseguire un giochini che compito ha? Leggendo per la rete, ammeno di non averci capito una mazza, mi ero fatto l'idea che la cpu spenda una buona maggioranza dei suoi cicli a caricare i dati di tipo geometrico ad esempio vertici alla gpu e quindi per la maggioranza dei cicli combatta tra load(lettura) e store verso e da la ram. Non c'ho capito un caiser?
Ti ringrazio per un eventuale risposta.

Rhadamanthis
19-01-2010, 20:40
si si ati top:D :D :D e ati ha gia paura che rimanda la 5830 x far entrare la 5890???????

ati trema, fermi ti fermerà per sempre :=:D

mapoetti
19-01-2010, 20:40
:ot:

davide155
19-01-2010, 20:50
parlando dell'utente medio che quarda si il nome la qualità ecc. ma alla fine se il prezzo è fuori mercato il venduto rimane esiguo malgrado gli "affezzionati".


E' questo quello che parecchi non vogliono capire.

E' inutile avere la vga più veloce al mondo che costa 800€, consuma 800watt e fa 800mila punti al 3dmark vantage quando la compreranno solo 10 persone.

Ora come ora io prenderei una Ati 5870 che costa 340€ ed ha delle prestazioni ottime pure con crysis con AA attivo. Però il sempre più odiato lato driver di Ati mi frena e la qualità del software Nvidia che riscontro tutt'ora mi fa propendere più per aspettare.

Quando uscirà Fermi la 5870 se la batterà con la Gtx360 e li ci saranno scintille tra i negozianti a chi le vende di meno e sarà quel momento, il migliore per scegliere la vga.


Ho fatto anche posto nel case spostando gli HD per ospitare una nuova vga bella lunga :sofico: Ma non ce la faccio più a resistere :cry:

halduemilauno
19-01-2010, 20:57
E' questo quello che parecchi non vogliono capire.

E' inutile avere la vga più veloce al mondo che costa 800€, consuma 800watt e fa 800mila punti al 3dmark vantage quando la compreranno solo 10 persone.

Ora come ora io prenderei una Ati 5870 che costa 340€ ed ha delle prestazioni ottime pure con crysis con AA attivo. Però il sempre più odiato lato driver di Ati mi frena e la qualità del software Nvidia che riscontro tutt'ora mi fa propendere più per aspettare.

Quando uscirà Fermi la 5870 se la batterà con la Gtx360 e li ci saranno scintille tra i negozianti a chi le vende di meno e sarà quel momento, il migliore per scegliere la vga.


Ho fatto anche posto nel case spostando gli HD per ospitare una nuova vga bella lunga :sofico: Ma non ce la faccio più a resistere :cry:

ma se tu stai pensando a una scheda da 340€ che + o - tu hai individuato nella 5870 ma sei frenato etc, etc, etc, ma perchè non aspetti la gtx360??? quindi perchè continui e ti ostini a citare sempre la scheda top de top da tutto quello che hai detto te ovviamente esagerando?

Orkozzio
19-01-2010, 21:02
E' questo quello che parecchi non vogliono capire.

E' inutile avere la vga più veloce al mondo che costa 800€, consuma 800watt e fa 800mila punti al 3dmark vantage quando la compreranno solo 10 persone.

Ora come ora io prenderei una Ati 5870 che costa 340€ ed ha delle prestazioni ottime pure con crysis con AA attivo. Però il sempre più odiato lato driver di Ati mi frena e la qualità del software Nvidia che riscontro tutt'ora mi fa propendere più per aspettare.

Quando uscirà Fermi la 5870 se la batterà con la Gtx360 e li ci saranno scintille tra i negozianti a chi le vende di meno e sarà quel momento, il migliore per scegliere la vga.


Ho fatto anche posto nel case spostando gli HD per ospitare una nuova vga bella lunga :sofico: Ma non ce la faccio più a resistere :cry:


Ci siamo capiti al volo!;)
Anche io sono in aria di sostituzione vga (più per sfizio che per necessità reale.. ma la scimmi un pò sale!) e so già che mi porterò a casa a casa una fiammante 5870 vapor-x (ormai sono un affezzionato :D ) ma questo mio non aver fretta (scimmia a parte) mi permette di decidere sia di aspettare o se mi gira 5 minuti di ordinare la nuova scheda video che sò già che soddisferà le mie esigenze sebbene la reputi ad oggi ancora un "filino" cara (meledetta non concorrenza).
Se poi nvidia se ne uscirà con un'ottima scheda sarò contento pure io dei miglioramenti ma di certo non sostituirò la mia nuova scheda video nel tentativo di rincorrere sempre l'ultima arrivata!!;)

nik89
19-01-2010, 21:09
Ma qualcuno si è degnato di guardare nel benchmark di far cry 2 i frames minimi ?

Nvidia ha già detto più volte che in quel test il core i7 960 usato era limited, anche considerando i dati postati dagli utenti e non quelli falsi :

avg 75
min 52

la Nvidia ha fatto :

avg 84
min 65

fra 84 e 75 non entusiasma ma guardando i frames minimi fra 52 e 65 c\'è il 25% e passa di vantaggio per Nvidia, con alpha test driver e frequenze probabilmente inferiori alle versioni commerciali. :O
Persino con ATi un core i7 a quelle frequenze sembrerebbe al limite, con oltre 10 frames e passa sembrerebbe che Nvidia abbia ragione, effettivamente sembra CPU limited.

davide155
19-01-2010, 21:10
ma se tu stai pensando a una scheda da 340€ che + o - tu hai individuato nella 5870 ma sei frenato etc, etc, etc, ma perchè non aspetti la gtx360??? quindi perchè continui e ti ostini a citare sempre la scheda top de top da tutto quello che hai detto te ovviamente esagerando?
Quel discorso della top delle top era legato alla risposta di Orkozzio ad un altro utente.

Poi ho detto che molto probabilmente aspetterò Fermi......ho aspettato fin'ora ormai manca poco più di 2 mesi.......semmai mi prenderanno pure a me i 5 minuti c'è caso che cambi scheda, ma la curiosità di vedere Fermi in azione ed a quale prezzo è più alta della voglia di comprare la 5870.

Ci siamo capiti al volo!;)
Anche io sono in aria di sostituzione vga (più per sfizio che per necessità reale.. ma la scimmi un pò sale!) e so già che mi porterò a casa a casa una fiammante 5870 vapor-x (ormai sono un affezzionato :D ) ma questo mio non aver fretta (scimmia a parte) mi permette di decidere sia di aspettare o se mi gira 5 minuti di ordinare la nuova scheda video che sò già che soddisferà le mie esigenze sebbene la reputi ad oggi ancora un "filino" cara (meledetta non concorrenza).
Se poi nvidia se ne uscirà con un'ottima scheda sarò contento pure io dei miglioramenti ma di certo non sostituirò la mia nuova scheda video nel tentativo di rincorrere sempre l'ultima arrivata!!;)
Esatto.

Però io se aspetto aspetto...........se compro non aspetto e non la cambio.

tigershark
19-01-2010, 21:11
Fermi...sto arrivando!!!!! :D :D :sofico:

Comunque spero che il nome non stia ad indicare quel che ci vuole per alimentare questa belva....:mc: Centrali atomiche in casa mia non ne voglio :D

gianni1879
19-01-2010, 21:20
si si ati top:D :D :D e ati ha gia paura che rimanda la 5830 x far entrare la 5890???????

ati trema, fermi ti fermerà per sempre :=:D

3gg di sospensione...

gianni1879
19-01-2010, 21:23
Ci sono tante cose che hanno un prezzo fuori mercato...basta guardare il mondo degli audiofili...ci sono impianti che hanno dei prezzi davvero spropositati...altro che 400-500 euro di VGA eppure mi sembra che vendono e venderanno sempre, perchè le nuove tecnologie passano sempre per le fasce alte...

la qualità si paga...questo è un campo molto esoso...se non ti garbano i prezzi..ridimensiona le tue aspettative e quindi anche la spesa...e hai ATI nel PC....

Però adesso se noi "Fanboy Nvidia" vogliamo spendere 800euro per uno SLI non ci stressate la vita...
Grazie;)

altri 3gg anche a te

yossarian
19-01-2010, 21:23
Ciao
Ti ringrazio per la risposta, precisa e comprensibile per chi non ne capisce nulla come me.
Ma dunque come mai gli ingegneri anno devoluto una parte di silicio, che da quello che ne capisco, non è proprio indifferente a potenziare il setup rate di fermi? Ovvero 4 triangoli per ciclo se non sbaglio e 4 rasterizzatori, letto su b3d,


non so cosa tu abbia letto su B3D; ma il dato di 1 triangolo per ciclo mi pare bassino. Già i chip dx9 caricavano 16 vertici per ciclo e quelli dx10.1 sono arrivati a 32. In quanto allo sprecare silicio, al contrario, in Fermi parte del tessellator e, nello specifico, la sua parte programmabile (hull e domain shader) non sono in hardware ma emulati attraverso i vertex e i geometry shader; quindi, in questo caso, si tratta di silicio che ci sarebbe stato comunque.
La suddìvisione del raster engine in 4 e del polymorph engine (il tessellator) in 16 parti, serve a cercare di accordare la disponibilità di potenza con le richieste del software, modulando, di fatto, le risorse disponibili. Cioè, invece di avere un tessellator che funziona sempre al massimo, ne ha uno che è in grado di erogare potenza quando serve. Il vantaggio è che risparmi risorse hardware e puoi avere, in teoria, tutta la gpu a disposizione per le operazioni di tessellatin. Lo svantaggio è che quello che deichi alla tessellation lo sottrai ad altro (avendo solo parte dele unità dedicate). In più, scalando verso il basso, (ossia con chip di fascia inferiore) anche le unità di tessellazione (i polymorph engine) diminuiscono di numero (ad esempio disabilitando un SP da 32 alu disabiliti anche uno dei 16 tessellator).

Ciao
se alla fine dei conti il 70% della latenza che una gpu si trova a fronteggiare passa per le operazioni di shading, texturing ed immagino nel fetch degli operandi dalla memoria? Non sarebbe stato più semplice cercare qualche trucco per abbassare le latenze ad esempio nei trasferimenti da e verso la ram?


si è fatto anche quello; ATi sin da RV670 ha introdotto una ram locale per permettere ai cluster lo scambio dei thread; si tratta di una ram di sola lettura che in RV870 è diventata una vera a propria ram. Da RV770 ha una cache L2 parzialmente coerente in cui immagazzinare i dati e le istruzioni di uso pri frequente. nVIDIA ha fatto lo stesso con Fermi che è dotato, addirittura, di 2 livelli di cache (le cache di GT200 e G80 erano solo per le texture ela L2 di sola lettura). Ciò non toglie che il problema del load/store dei dati in vram continua a restare tale (l'accesso alla vram prevede latenze di un ordine di grandezza superiore rispetto a quelli dia ccesso ad una cache o ad una ram interna, per non parlare dei registri).
Comunque, il modello di programmazione delle gpu è fatto per sopportare latenze lunghe: non a caso è previsto un uso massiccio del multithreading (migliaia di thread in circolazione nello stesso tempo e continue operazioni di thread switching). In questo, differisce molto come modello da quello delle cpu.

Ciao

Approfitto della tua disponibilità a farti un ulteriore domanda. La cpu nell'eseguire un giochini che compito ha? Leggendo per la rete, ammeno di non averci capito una mazza, mi ero fatto l'idea che la cpu spenda una buona maggioranza dei suoi cicli a caricare i dati di tipo geometrico ad esempio vertici alla gpu e quindi per la maggioranza dei cicli combatta tra load(lettura) e store verso e da la ram. Non c'ho capito un caiser?
Ti ringrazio per un eventuale risposta.

la cpu, prima del lancio dell'applicazione si occupa di caricare il driver della gpu e di eseguire le ottimizzazioni previste per quella specifica applicazione, che possano essere eseguite at compile time. Poi, carica i dati necessari nella vrma; una volta lanciata l'applicazione, si limita a inviare i dati sulle posizioni iniziali dei vertici e ad eseguire calcoli su IA e fisica.

Pihippo
19-01-2010, 21:37
non so cosa tu abbia letto su B3D; ma il dato di 1 triangolo per ciclo mi pare bassino. Già i chip dx9 caricavano 16 vertici per ciclo e quelli dx10.1 sono arrivati a 32. In quanto allo sprecare silicio, al contrario, in Fermi parte del tessellator e, nello specifico, la sua parte programmabile (hull e domain shader) non sono in hardware ma emulati attraverso i vertex e i geometry shader; quindi, in questo caso, si tratta di silicio che ci sarebbe stato comunque.
La suddìvisione del raster engine in 4 e del polymorph engine (il tessellator) in 16 parti, serve a cercare di accordare la disponibilità di potenza con le richieste del software, modulando, di fatto, le risorse disponibili. Cioè, invece di avere un tessellator che funziona sempre al massimo, ne ha uno che è in grado di erogare potenza quando serve. Il vantaggio è che risparmi risorse hardware e puoi avere, in teoria, tutta la gpu a disposizione per le operazioni di tessellatin. Lo svantaggio è che quello che deichi alla tessellation lo sottrai ad altro (avendo solo parte dele unità dedicate). In più, scalando verso il basso, (ossia con chip di fascia inferiore) anche le unità di tessellazione (i polymorph engine) diminuiscono di numero (ad esempio disabilitando un SP da 32 alu disabiliti anche uno dei 16 tessellator).



si è fatto anche quello; ATi sin da RV670 ha introdotto una ram locale per permettere ai cluster lo scambio dei thread; si tratta di una ram di sola lettura che in RV870 è diventata una vera a propria ram. Da RV770 ha una cache L2 parzialmente coerente in cui immagazzinare i dati e le istruzioni di uso pri frequente. nVIDIA ha fatto lo stesso con Fermi che è dotato, addirittura, di 2 livelli di cache (le cache di GT200 e G80 erano solo per le texture ela L2 di sola lettura). Ciò non toglie che il problema del load/store dei dati in vram continua a restare tale (l'accesso alla vram prevede latenze di un ordine di grandezza superiore rispetto a quelli dia ccesso ad una cache o ad una ram interna, per non parlare dei registri).
Comunque, il modello di programmazione delle gpu è fatto per sopportare latenze lunghe: non a caso è previsto un uso massiccio del multithreading (migliaia di thread in circolazione nello stesso tempo e continue operazioni di thread switching). In questo, differisce molto come modello da quello delle cpu.



la cpu, prima del lancio dell'applicazione si occupa di caricare il driver della gpu e di eseguire le ottimizzazioni previste per quella specifica applicazione, che possano essere eseguite at compile time. Poi, carica i dati necessari nella vrma; una volta lanciata l'applicazione, si limita a inviare i dati sulle posizioni iniziali dei vertici e ad eseguire calcoli su IA e fisica.

Ciao
Ti ringrazio per la spiegazione esauriente.
Esattamente mi ricordo di aver letto che una hd4870 riesce a generare 750 milioni di triangoli al secondo, quindi mi sa che ho estrapolato male il numero di triangoli per ciclo.
Quindi tecnicamente parlando una gpu è più orientata al throughput mentre una cpu essenzialemte può fare molte cose ma poche per ciclo quindi è limitata dalla latenza
Da quello che hai detto tu sul ruolo di una cpu nell'eseguire un giochino, mi sono fatto un idea, probabilmente sbagliata, che lavorando principalmente con la memoria, caricamento di dati nella vram ed aggiornamento delle posizioni dei vertici, oltre a lavorare con la fisica e con l'ia , che suppungo si tratti sempre di operazioni di tipo intero e comunque con parecchie istruzioni che lavorano con la memoria , ad ex Eax, mov ecc ecc, non si potrebbero migliorare le performance ad esempio vettorizzando tutti questi accessi verso e da la memoria, ad esempio utilizzando le istruzioni simd?
Che ne pensi?

mapoetti
19-01-2010, 21:40
mio dio come fate a sapere tutte queste cose.....complimenti ragazzi!

yossarian
19-01-2010, 21:47
Ciao
Ti ringrazio per la spiegazione esauriente.
Esattamente mi ricordo di aver letto che una hd4870 riesce a generare 750 milioni di triangoli al secondo, quindi mi sa che ho estrapolato male il numero di triangoli per ciclo.
Quindi tecnicamente parlando una gpu è più orientata al throughput mentre una cpu essenzialemte può fare molte cose ma poche per ciclo quindi è limitata dalla latenza
Da quello che hai detto tu sul ruolo di una cpu nell'eseguire un giochino, mi sono fatto un idea, probabilmente sbagliata, che lavorando principalmente con la memoria, caricamento di dati nella vram ed aggiornamento delle posizioni dei vertici, oltre a lavorare con la fisica e con l'ia , che suppungo si tratti sempre di operazioni di tipo intero e comunque con parecchie istruzioni che lavorano con la memoria , ad ex Eax, mov ecc ecc, non si potrebbero migliorare le performance ad esempio vettorizzando tutti questi accessi verso e da la memoria, ad esempio utilizzando le istruzioni simd?
Che ne pensi?

se intendi migliorare il trasferimento verso la vram, di fatto già avviene; i dati sono traferiti in batch da migliaia di vertici, ad esempio; lo stesso si fa per le texture. Anche nelle operazioni di load da parte della gpu avviene la stessa cosa; ci sono istruzioni come texture array a cube map array che prevedono il trasferimento di un'intera matrice di texture 2D o di cube map con un'unica istruzione. Insomma, si sta tentando di risolvere sia il problema del traferimento dati dalla cpu alla vram sia quello dalla vram alla gpu.

Defragg
19-01-2010, 21:57
Secondo i dati forniti da NVIDIA, le prestazioni geometriche che le nuove schede video GeForce GF100 sono in grado di garantire rispetto a quelle di GeForce GTX 285 sono circa di 8 volte superiori: è un incremento di fondamentale importanza, estremamente significativo se pensiamo che nel passaggio da NV30 a GT200 la potenza di elaborazione in termini di shader è aumentata di 150 volte, mentre quella poligonale solo di 3 volte.

Quindi da NV30 a GF100 la potenza di elaborazione poligonale è aumentata di 24 volte? Se non sbaglio a calcolare :stordita:
Mentre da R580 a RV870?

gianni1879
19-01-2010, 21:59
cut.

ma dico non ti stanchi mai???
cmq bannato

eXeS
19-01-2010, 22:14
Il vantaggio è che risparmi risorse hardware e puoi avere, in teoria, tutta la gpu a disposizione per le operazioni di tessellatin. Lo svantaggio è che quello che deichi alla tessellation lo sottrai ad altro (avendo solo parte dele unità dedicate)
Non capisco, questa è la pipeline direct3d http://msdn.microsoft.com/en-us/library/dd835170.aspx

Credo che il termine pipeline derivi appunto dal fatto che le varie operazioni vengono eseguite in modo seriale, e sono dipendenti le successive dalle precedenti.

In sintesi abbiamo

- Lettura vertici
- Vertex shading -> unità shader
- Hull shading -> unità shader
- Tessellature -> polimorph engine
- Domain shading -> unità shader
ecc
- Pixel shading -> unità shader
ecc
- Render Target
- E si ritorna a Lettura vertici

Tutte le operazioni di shading possono essere parallelizzate (nell'ambito dello stesso blocco), in fermi anche quelle di tessellation quelle sulle geometrie ecc... ma il punto è: quando la scheda deve renderizzare un fotogramma, può eseguire contemporaneamente operazioni di shading sui vertici, o sui pixel, o di hull shading ?

E come potrebbe farlo, visto che ad esempio lo shading sui pixel lo fai dopo aver rasterizzato le geometrie, e la geometria è rasterizzabile dopo che è stata modificata da vertex shading->tessellation->geometry shading ?

Quindi la domanda è: è corretto parlare di risorse sottratte durante lo hull/domain shading se in quell'istante, in virtù delle dipendenze fra i vari stage, gli shader possono fare solo quello ?

appleroof
19-01-2010, 22:27
E' inutile che ti avveleni ogni volta che si cita Physx (su gpu)... è il futuro, e prima o poi cederai al lato oscuro (o meglio verde) della forza mio caro Padawan :asd:

http://www.rabittooth.com/taijinncalvin.jpg

:D

Diciamo che tendo ad essere concreto ed a valutare tutti gli aspetti (anche se a volte qualcuno sfugge :D ).
Finora di concreto ci sono dettagli di un'architettura sicuramente interessante in prospettiva; ma emergono anche ancora tanti problemi da risolvere
In quanto ai bench diffusi da nVIDIA mi sono bastati quelli dei tempi di NV30 (2,5 volte più veloce in quake 3 e 3 volte più veloce nel 3dmark2001 rispetto ad una ti4600), risultati ampiamente smentiti dai fatti

In effetti hai ragione, bisognerebbe prenderli con le pinze i bench pre-lancio

http://img10.imageshack.us/img10/7900/r600.png (http://img10.imageshack.us/i/r600.png/)
http://www.amdplanet.it/tag/amd/news/17261/amd-ati-r600-primi-bench-e-indiscrezioni.html

cmq mi sono affrettato subito a sottolineare sempre "test interni ad Nvidia" in ogni post, sò bene che vanno presi con le pinze a dir poco, solo volevo l'opinione di un tecnico esperto come te sulla base dei dati esposti da Nvidia

ok lo ripeto: aspettiamo e vediamo :)

yossarian
19-01-2010, 22:40
Non capisco, questa è la pipeline direct3d http://msdn.microsoft.com/en-us/library/dd835170.aspx

Credo che il termine pipeline derivi appunto dal fatto che le varie operazioni vengono eseguite in modo seriale, e sono dipendenti le successive dalle precedenti.

In sintesi abbiamo

- Lettura vertici
- Vertex shading -> unità shader
- Hull shading -> unità shader
- Tessellature -> polimorph engine
- Domain shading -> unità shader
ecc
- Pixel shading -> unità shader
ecc
- Render Target
- E si ritorna a Lettura vertici

Tutte le operazioni di shading possono essere parallelizzate (nell'ambito dello stesso blocco), in fermi anche quelle di tessellation quelle sulle geometrie ecc... ma il punto è: quando la scheda deve renderizzare un fotogramma, può eseguire contemporaneamente operazioni di shading sui vertici, o sui pixel, o di hull shading ?



si, succedeva anche con gli shader dedicati


E come potrebbe farlo, visto che ad esempio lo shading sui pixel lo fai dopo aver rasterizzato le geometrie, e la geometria è rasterizzabile dopo che è stata modificata da vertex shading->tessellation->geometry shading ?



lo shading sui pixel che derivano da quei determinati vertici lo puoi fare solo dopo aver effettuato le operazioni geometriche su quei vertici. Però puoi fare operazioni su pixel derivati da altri vertici che non hanno alcuna correlazione o dipendenza con quelli che stai elaborando. In più lo stesso vale per le operazioni geometriche, che siano hull o domain shader, geometry shader o vertex shader. Ovvio che se fa una non fa l'altra :D



Quindi la domanda è: è corretto parlare di risorse sottratte durante lo hull/domain shading se in quell'istante, in virtù delle dipendenze fra i vari stage, gli shader possono fare solo quello ?

si, è corretto, come è corretto parlare di risorse sottratte quando si usa physx su gpu.

xage
19-01-2010, 22:52
mio dio come fate a sapere tutte queste cose.....complimenti ragazzi!

opz

Kharonte85
19-01-2010, 23:09
:D



In effetti hai ragione, bisognerebbe prenderli con le pinze i bench pre-lancio

http://img10.imageshack.us/img10/7900/r600.png (http://img10.imageshack.us/i/r600.png/)
http://www.amdplanet.it/tag/amd/news/17261/amd-ati-r600-primi-bench-e-indiscrezioni.html

cmq mi sono affrettato subito a sottolineare sempre "test interni ad Nvidia" in ogni post, sò bene che vanno presi con le pinze a dir poco, solo volevo l'opinione di un tecnico esperto come te sulla base dei dati esposti da Nvidia

ok lo ripeto: aspettiamo e vediamo :)
Pero' al 3d mark 05 in effetti la scheda andava meglio di G80...:asd:

http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_3dmark2005.jpg

Peccato che nel resto non proprio...:D

FC2 non è un benchmark asettico è un gioco...oltretutto è un test che solitamente "rispetta" le medie finali prestazionali delle schede e non porta a strani stravolgimenti come si puo' notare:

http://www.hwupgrade.it/articoli/skvideo/2326/fc2_1680.png

qualcosa in più secondo me potrebbe valere...come vale il fatto che esiste un filmato che dimostra che il test è stato eseguito per davvero, cosa non scontata nella maggior parte dei test preliminari.

Certo Nvidia aveva tutte le variabili da poter controllare e questo dovrebbe portare automaticamente a prendere i risultati con la dovuta cautela (cosa che faccio).

D'altra parte pero' non possiamo dare per scontato che Nvidia ci abbia "imbrogliati"...in altre parole: fidarsi dell'oste che ti dice che il suo vino è buono puo' essere avventato ma non è detto che alla fine il vino sia cattivo...soprattutto dopo che ho visto le sue cantine.

Afferata la metafora? ;) Cantine=Architettura (e che tettura :oink: ) :D

mapoetti
19-01-2010, 23:10
non sò se posso postare mi è appena arrivato per posta le news solite di hardware upgrade

http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_index.html

Greifi Grishnackh
19-01-2010, 23:13
azz stare appresso a questo 3d è diventata una cosa impossibile lol

sia sa qualcosa di cosa accadrà nei prossimi giorni? si prevede che ci saranno un po di informazioni in piu?? oppure nuovamente tutto tace fino a marzo?

Kharonte85
19-01-2010, 23:18
non sò se posso postare mi è appena arrivato per posta le news solite di hardware upgrade

http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_index.html
Postarlo puoi postarlo...solo che è un filino :old: ne parliamo da 2gg :fagiano:
azz stare appresso a questo 3d è diventata una cosa impossibile lol

sia sa qualcosa di cosa accadrà nei prossimi giorni? si prevede che ci saranno un po di informazioni in piu?? oppure nuovamente tutto tace fino a marzo?
:boh: Vallo a sapere...qualcosa forse trapelerà, di solito un mesetto prima le specifiche si sanno per vie non ufficiali.

luX0r.reload
19-01-2010, 23:19
azz stare appresso a questo 3d è diventata una cosa impossibile lol

sia sa qualcosa di cosa accadrà nei prossimi giorni? si prevede che ci saranno un po di informazioni in piu?? oppure nuovamente tutto tace fino a marzo?
Per Marzo spero abbiano anche sistemato un po' i consumi... così sarebbe perfetta! Già me la immagino la 360 che ruggisce dentro il mio case mentre mi sparo qualche oretta di Alien Vs Predator :sofico:

luX0r.reload
19-01-2010, 23:22
Ma non era già in produzione durante il CES? Come fanno a sistemare i consumi su un chip in produzione? :Perfido:
:rolleyes:

eXeS
19-01-2010, 23:23
Un baco nei nuovi WHQL, in pratica non si riesce più ad occare con rivatuner e derivati, potrebbe suggerire la presenza di più clock domain in GF100
http://forums.guru3d.com/showpost.php?p=3427808&postcount=7

Greifi Grishnackh
19-01-2010, 23:28
Tutto tace no, a marzo, alla presentazione, ci saranno già altre 100 pagine di thread.
io ne prevedo almeno 200...sono un ottimista :D :D
Per Marzo spero abbiano anche sistemato un po' i consumi... così sarebbe perfetta! Già me la immagino la 360 che ruggisce dentro il mio case mentre mi sparo qualche oretta di Alien Vs Predator :sofico:
a chi lo dici...

EDIT:
Un baco nei nuovi WHQL, in pratica non si riesce più ad occare con rivatuner e derivati, potrebbe suggerire la presenza di più clock domain in GF100
http://forums.guru3d.com/showpost.php?p=3427808&postcount=7
azz è vero li ho installati questo pomeriggio e ora provando con evga precision non occa piu :incazzed:
non legge lo shader clock

aaasssdddfffggg
19-01-2010, 23:31
io ne prevedo almeno 200...sono un ottimista :D :D

a chi lo dici...

EDIT:

azz è vero li ho installati questo pomeriggio e ora provando con evga precision non occa piu :incazzed:
non legge lo shader clock

l'unico programma a leggere correttamente lo shader clock è il FIRESTORM DI ZOTAC (funziona anche con altre marche a patto ti tener premuto il tasto shift quando lo si avvia)....ma comunque non si puo' overcloccare al momento.In attesa di un fix.;)

yossarian
19-01-2010, 23:39
Un baco nei nuovi WHQL, in pratica non si riesce più ad occare con rivatuner e derivati, potrebbe suggerire la presenza di più clock domain in GF100
http://forums.guru3d.com/showpost.php?p=3427808&postcount=7

ci saranno di sicuro se è vero che si parla, ad esempio, di "sole" 64 tmu.

Foglia Morta
19-01-2010, 23:44
ci saranno di sicuro se è vero che si parla, ad esempio, di "sole" 64 tmu.

La frequenza delle tmu è la metà di quella delle alu quindi era lecito aspettarsi un clock molto elevato per quest'ultime ( come ipotizzava Rys ), dopo che è scaduto l' nda sul forum di b3d ha detto che non è più dell' opinione di mesi fa e secondo lui non raggiungeranno le frequenze sperate.

yossarian
19-01-2010, 23:50
La frequenza delle tmu è la metà di quella delle alu quindi era lecito aspettarsi un clock molto elevato per quest'ultime ( come ipotizzava Rys ), dopo che è scaduto l' nda sul forum di b3d ha detto che non è più dell' opinione di mesi fa e secondo lui non raggiungeranno le frequenze sperate.

che non avrebbero raggiunto le frequenze sperate non l'ho mai messo in dubbio (se le frequenze sperate erano 1700, 1800 MHz per lo shader core). Che le tmu viaggino a frequenze pari a metà di quelle dello shader core non ne sarei così sicuro, ormai, Con lo shader core a 1400-1500 MHz (tanto per fare un esempio), la capacità di fare texture sampling di gf100 sarebbe inferiore a quella di GT200.

Molto più probabile che impostino un clock per lo shader core, uno per il resto del chip ed uno per le tmu (il più alto possibile) che rischiano di diventare uno dei colli di bottiglia del sistema.

Foglia Morta
19-01-2010, 23:58
che non avrebbero raggiunto le frequenze sperate non l'ho mai messo in dubbio (se le frequenze sperate erano 1700, 1800 MHz per lo shader core). Che le tmu viaggino a freuquenze pari a metà di quelle dello shader core non ne sarei così sicuro, ormai, Con lo shader core a 1400-1500 MHz (tanto per fare un esempio), la capacità di fare texture sampling di gf100 sarebbe inferiore a quella di GT200.

Molto più probabile che impostino un clock per lo shader core, uno per il resto del chip ed uno per le tmu (il più alto possibile) che rischiano di diventare uno dei colli di bottiglia del sistema.

Penso siano le informazioni date da nVidia:

http://www.anandtech.com/video/showdoc.aspx?i=3721&p=2

Speaking of performance, we’ll get to that in a bit, but for now we’ll finish our discussion of GF100’s graphics units. Each SM has 4 texture units, which have changes somewhat from the GT200. In GT200, the texture units were at the TPC level; here they are per SM. The texture units are also affected by the cache reorganization of GF100; for L1 cache they still have the same 12KB of texture cache per set of 4 texture units, while they all share GF100’s 768KB L2 cache, which is now used by all execution units and not just textures. Each unit can compute 1 texture address and fetch 4 texture samples per clock, a significantly higher texture fetch rate than on the GT200. Furthermore in conjunction with DX11, NVIDIA’s texture units now support DX11’s new compressed texture formats. Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.

Caterpillar86
20-01-2010, 00:07
Funzionerà su schede madri con pci express 1.0?

yossarian
20-01-2010, 00:18
Penso siano le informazioni date da nVidia:

http://www.anandtech.com/video/showdoc.aspx?i=3721&p=2

Speaking of performance, we’ll get to that in a bit, but for now we’ll finish our discussion of GF100’s graphics units. Each SM has 4 texture units, which have changes somewhat from the GT200. In GT200, the texture units were at the TPC level; here they are per SM. The texture units are also affected by the cache reorganization of GF100; for L1 cache they still have the same 12KB of texture cache per set of 4 texture units, while they all share GF100’s 768KB L2 cache, which is now used by all execution units and not just textures. Each unit can compute 1 texture address and fetch 4 texture samples per clock, a significantly higher texture fetch rate than on the GT200. Furthermore in conjunction with DX11, NVIDIA’s texture units now support DX11’s new compressed texture formats. Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.

ok, quindi hanno abbandonato lo schema tipico delle tmu nVIDIA e hanno adottato quello visto sui chip ATi a partire da R600, con un 1 TAU e 4 TSU per TMU. E l'operazione di interpolazione affidata allo shader core (come su rv870).

Iantikas
20-01-2010, 00:21
non sò se posso postare mi è appena arrivato per posta le news solite di hardware upgrade

http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_index.html

ma quest'articolo cambia sempre?...


...ieri dicevano di prendere con le pinze i risultati perchè internamente la GTX285 aveva fatto registrare di meno...


....ora invece dice che la GTX285 internamente ha fatto segnare risultati in linea con quelli di nvidia...


...e poi c'è la svista del test sulle ati...


boh

Penso siano le informazioni date da nVidia:

http://www.anandtech.com/video/showdoc.aspx?i=3721&p=2

Speaking of performance, we’ll get to that in a bit, but for now we’ll finish our discussion of GF100’s graphics units. Each SM has 4 texture units, which have changes somewhat from the GT200. In GT200, the texture units were at the TPC level; here they are per SM. The texture units are also affected by the cache reorganization of GF100; for L1 cache they still have the same 12KB of texture cache per set of 4 texture units, while they all share GF100’s 768KB L2 cache, which is now used by all execution units and not just textures. Each unit can compute 1 texture address and fetch 4 texture samples per clock, a significantly higher texture fetch rate than on the GT200. Furthermore in conjunction with DX11, NVIDIA’s texture units now support DX11’s new compressed texture formats. Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.

ma magari quei clock così impostati son nel caso tutto vada liscio come nvidia ha inizilamente progettato...


...se però non riescono a clocckare gli shader intorno ai 1700mhz ma dovranno inzialmente tenerli intorno ai 1400mhz magari i componenti che girano al "GPC clock" possono viaggiare più veloci e li terrano a più della metà del clock degli shader...


...ciao

eXeS
20-01-2010, 00:28
si, succedeva anche con gli shader dedicati

Quindi in questa pipeline http://msdn.microsoft.com/en-us/library/dd835170.aspx internamente alla gpu, tutta la parte tra Vertex Shader e Pixel Shader è parallelizzata, e questo spiega perchè gli shader possono agire sui vertici e pixel contemporaneamente, purchè i secondi non derivino dai primi, che figata :D

Però in tal caso e tornando al tessellator, potendo avere flussi paralleli di vertici che richiedono vertex shading->(hull->tessellation->domain)->geometry shading, se abbiamo una sola unità che fa da hull->tessellation->domain, questa rischia di bloccare l'elaborazione di altri vertici che richiedono la tessellatura, quindi, è vero che hull e domain impegnano shader, ma è anche vero che se la durata della sola tessellatura è predominante rispetto all'hull e domain, la soluzione implementata in fermi potrebbe essere vincente.

Vabbè, solo i primi giochi che useranno la tessellation, ci potranno dare qualche indicazione in più :)

yossarian
20-01-2010, 00:47
Quindi in questa pipeline http://msdn.microsoft.com/en-us/library/dd835170.aspx internamente alla gpu, tutta la parte tra Vertex Shader e Pixel Shader è parallelizzata, e questo spiega perchè gli shader possono agire sui vertici e pixel contemporaneamente, purchè i secondi non derivino dai primi, che figata :D

Però in tal caso e tornando al tessellator, potendo avere flussi paralleli di vertici che richiedono vertex shading->(hull->tessellation->domain)->geometry shading, se abbiamo una sola unità che fa da hull->tessellation->domain, questa rischia di bloccare l'elaborazione di altri vertici che richiedono la tessellatura, quindi, è vero che hull e domain impegnano shader, ma è anche vero che se la durata della sola tessellatura è predominante rispetto all'hull e domain, la soluzione implementata in fermi potrebbe essere vincente.

Vabbè, solo i primi giochi che useranno la tessellation, ci potranno dare qualche indicazione in più :)

le operazioni di hull e domain shader richiederanno più tempo della tessellatin vera e propria; la tessellation è affidata a fixed function dedicate mentre hull e domain shader sono emulati via vertex e geometry shader (come avviene in RV770). Le differenze nei due approcci sono sostanzialemte che da un lato hai un HW dedicato alle sole operazioni di tessellation (compresi hull e domain shader) che non sottraggono risorse ad altri tipi di elaborazione ma sono, comunque, circuiti che, quando non si fa tessellation restano inutilizzati. Dall'altra si ha un approccio che dedica solo una parte di spazio alle operazioni di tessellation preferendo utilizzare pr la parte rpogrammabile unità che pososno emulare quelle restanti. Questo secondo approccio prevede, tra l'altro, un continuo flusso di dati tra polymorph engine e cluster di fpu, in quanto, nell'ordine, hai vertex fetch (lo fa il primo) hull shading (il secondo) tessellation (il primo) domain shading (il secondo) triangle setup (il primo). Quindi sarà da vedere anche come hanno dimensionato il bus tra i due blocchi funzionali.
Insomma, è troppo presto per dire quale approccio sarà migliore e non è detto che non se ne esca con un "no contest".

Defragg
20-01-2010, 00:57
Secondo i dati forniti da NVIDIA, le prestazioni geometriche che le nuove schede video GeForce GF100 sono in grado di garantire rispetto a quelle di GeForce GTX 285 sono circa di 8 volte superiori: è un incremento di fondamentale importanza, estremamente significativo se pensiamo che nel passaggio da NV30 a GT200 la potenza di elaborazione in termini di shader è aumentata di 150 volte, mentre quella poligonale solo di 3 volte.

Quindi da NV30 a GF100 la potenza di elaborazione poligonale è aumentata di 24 volte? Se non sbaglio a calcolare :stordita:
Mentre da R580 a RV870?

Up :stordita:

Pihippo
20-01-2010, 01:33
se intendi migliorare il trasferimento verso la vram, di fatto già avviene; i dati sono traferiti in batch da migliaia di vertici, ad esempio; lo stesso si fa per le texture. Anche nelle operazioni di load da parte della gpu avviene la stessa cosa; ci sono istruzioni come texture array a cube map array che prevedono il trasferimento di un'intera matrice di texture 2D o di cube map con un'unica istruzione. Insomma, si sta tentando di risolvere sia il problema del traferimento dati dalla cpu alla vram sia quello dalla vram alla gpu.

Ciao
Grazie per la risposta, chiaro come sempre.

A quando prevedi che usciranno gpu che si auto-feddano, cioè si vanno a caricare direttamente loro stesse vertici e geometrie varie nella ram e se li portano nella vram in modo che la cpu si giri vistosamente i pollici?
Grazie ancora comunque :)

mapoetti
20-01-2010, 01:36
l'unico programma a leggere correttamente lo shader clock è il FIRESTORM DI ZOTAC (funziona anche con altre marche a patto ti tener premuto il tasto shift quando lo si avvia)....ma comunque non si puo' overcloccare al momento.In attesa di un fix.;)

io comunque non capisco come si fà a fare lavori del genere....resto senza parole....i beta vanno benissimo e adesso questi :sob:

fine ot scusate ma ....

yossarian
20-01-2010, 02:05
Ciao
Grazie per la risposta, chiaro come sempre.

A quando prevedi che usciranno gpu che si auto-feddano, cioè si vanno a caricare direttamente loro stesse vertici e geometrie varie nella ram e se li portano nella vram in modo che la cpu si giri vistosamente i pollici?
Grazie ancora comunque :)

i chip ATi da RV770 hanno già la possibilità teorica di accedere direttamente alla vram ed anche alla ram di sistema per operazioni di load e store (da R5x0 solo per quelle di store) ma la cosa è altamente sconsigliata a causa delle latenze elevate introdotte da questo tipo di operazione. Parliamo di accesso diretto ai dati senza passaggio intermedio attraverso i registri.
In futuro non è da escludere che questa funzionalità sia migliorata e potenziata ma, la momento, il paradigma di programmazione delle gpu resta quello tradizionale con le alu che lavorano tramite registri e la gpu che carica i dati dalla vram su registri e cache interne

Andrea deluxe
20-01-2010, 07:56
OT

This two GPUs are placed on a single PCB as the pictures shown, it has two G92-426 chipsets and one BR04 bridge chip on the front . we known G92-426 chipset are Low power version of GTS250 card so that can reduce the power consumption. It features 16 pieces of 0.8ns DRAM chips. Each GPU is served by 1GB of memory and a 256-bit of memory interface.
this graphics card adopt 6-phase power supply of GPU core. and “Bussmann” high-frequency inductance which boast up to 2Mhz frequency. As information from Galaxy internal, the OC potential of this card really be looked forward due to Low power version GPU (Green) and Luxury power supply circle .

No clock, performance and when on avaliable yet and will let you know more details once we have more..


http://resources.vr-zone.com/image_deposit/up2/126396404239f15b1e81.jpg

http://resources.vr-zone.com/image_deposit/up2/1263964160224e66573c.jpg



Nell' attesa i producer stanno sbarrellando....
http://91.121.132.199/gifs/7318.gif

OT CLOSED

persa
20-01-2010, 08:21
http://www.pcgameshardware.de/aid,703426/Mafia-2-Nvidia-Physx-und-APEX-Clothing-fuer-realistische-Stoffsimulation/Action-Spiel/News/

halduemilauno
20-01-2010, 09:01
quanto costa un GF100?....
http://www.hardware-infos.com/news.php?news=3384
;)

Pike79
20-01-2010, 09:27
quanto costa un GF100?....
http://www.hardware-infos.com/news.php?news=3384
;)

Ciao Hal. Già che hai postato questo link, mi sapresti spiegare per quale motivo il wafer deve essere rotondo? Cos' è che impedisce di utilizzare tutti i chip?
Grazie! :)

aaasssdddfffggg
20-01-2010, 09:42
io comunque non capisco come si fà a fare lavori del genere....resto senza parole....i beta vanno benissimo e adesso questi :sob:

fine ot scusate ma ....

Guarda i nuovi driver sono a dir poco ottimi (provati ieri con moltissimi games) : dirt2 spaventoso in SLI a 2560x1600 aa 8x af16x adesso il minimo frame(quello più importante da tener d'occhio) registrato è 57,1 sul mio sistema.La serie race (race on ,race 07 ,gtr evolution) adesso gira perfettamente anche a risoluzioni altissime tutto a palla,come la 2560x1600 senza cali di frame,etc...
Resta il problema dell'overclock che a giorni sarà sistemato per un fix.Da considerare come NVIDIA in questo set di driver ha già incluso il pieno supportro allo SLI per MASS EFFECT 2 E BAD COMPANY 2.;)

Pike79
20-01-2010, 09:46
Il wafer è una fetta di un cilindro.

Il cilindro in questione ha questa forma perché generato radialmente da un "seme".

Non possono essere usati tutti i chip perché impurità del materiale e tolleranze nella litografia possono portare ad "errori" rispetto al design, rendendo malfunzionanti un tot di chip (alcuni in modo catastrofico, altri funzionanti solo a frequenze più basse, oppure con alcune unità che devono essere disabilitate in toto per poter utilizzare il chip in versione rimaneggiata). Ovviamente più è grande un chip e più facilmente ne trovi uno fallato (quadraticamente).

Oltre a questa perdita di "efficienza" nella produzione c'è anche quella dei bordi, perché essendo il wafer circolare chiaramente ci sono dei ritagli sui bordi in cui un chip intero non entrerebbe. Anche qui un chip più grosso aumenta la dimensione dei ritagli inutilizzabili riducendo lo sfruttamento dell'intero wafer.

Ok, grazie! ;)

fabioleroy
20-01-2010, 09:50
Il wafer è una fetta di un cilindro.

Il cilindro in questione ha questa forma perché generato radialmente da un "seme".

Non possono essere usati tutti i chip perché impurità del materiale e tolleranze nella litografia possono portare ad "errori" rispetto al design, rendendo malfunzionanti un tot di chip (alcuni in modo catastrofico, altri funzionanti solo a frequenze più basse, oppure con alcune unità che devono essere disabilitate in toto per poter utilizzare il chip in versione rimaneggiata). Ovviamente più è grande un chip e più facilmente ne trovi uno fallato (quadraticamente).

Oltre a questa perdita di "efficienza" nella produzione c'è anche quella dei bordi, perché essendo il wafer circolare chiaramente ci sono dei ritagli sui bordi in cui un chip intero non entrerebbe. Anche qui un chip più grosso aumenta la dimensione dei ritagli inutilizzabili riducendo lo sfruttamento dell'intero wafer.

http://it.wikipedia.org/wiki/Fabbricazione_dei_dispositivi_a_semiconduttore

http://it.wikipedia.org/wiki/Processo_Czochralski

http://upload.wikimedia.org/wikipedia/commons/2/23/Monokristalines_Silizium_f%C3%BCr_die_Waferherstellung.jpg

http://upload.wikimedia.org/wikipedia/commons/4/46/Silicon_crystal_4_inch_interferences_640x480.jpg

;)

okorop
20-01-2010, 09:50
Guarda i nuovi driver sono a dir poco ottimi (provati ieri con moltissimi games) : dirt2 spaventoso in SLI a 2560x1600 aa 8x af16x adesso il minimo frame(quello più importante da tener d'occhio) registrato è 57,1 sul mio sistema.La serie race (race on ,race 07 ,gtr evolution) adesso gira perfettamente anche a risoluzioni altissime tutto a palla,come la 2560x1600 senza cali di frame,etc...
Resta il problema dell'overclock che a giorni sarà sistemato per un fix.Da considerare come NVIDIA in questo set di driver ha già incluso il pieno supportro allo SLI per MASS EFFECT 2 E BAD COMPANY 2.;)

peccato che per ora non servi a nulla visto che i due giochi che hai citato manco sono in commercio.......
p.s. non sperate piu' di avere dei driver fatti per incrementare le performance con gt200, da un po di mesi ad oggi stanno preparando quelli per Fermi,.......

aaasssdddfffggg
20-01-2010, 09:53
peccato che per ora non servi a nulla visto che i due giochi che hai citato manco sono in commercio.......
p.s. non sperate piu' di avere dei driver fatti per incrementare le performance con gt200, da un po di mesi ad oggi stanno preparando quelli per Fermi,.......

appunto di ci bene,ce lo zampino propiro di Fermi per il fatto che su i nuovi driver lo shader clock non viene rilevato.
Il fatto che abbiano messo quei 2 titoli è un bene eccome (il primo esce la prossima settimana e sei agià apposto)mentre per il secondo chiu userà la beta potrà già goderne appieno.:D

halduemilauno
20-01-2010, 09:55
Ciao Hal. Già che hai postato questo link, mi sapresti spiegare per quale motivo il wafer deve essere rotondo? Cos' è che impedisce di utilizzare tutti i chip?
Grazie! :)

visto che ti hanno risposto.
;)

DVD2005
20-01-2010, 09:56
http://it.wikipedia.org/wiki/Fabbricazione_dei_dispositivi_a_semiconduttore

http://it.wikipedia.org/wiki/Processo_Czochralski

http://upload.wikimedia.org/wikipedia/commons/2/23/Monokristalines_Silizium_f%C3%BCr_die_Waferherstellung.jpg

http://upload.wikimedia.org/wikipedia/commons/4/46/Silicon_crystal_4_inch_interferences_640x480.jpg

;)


poi lo fanno a fettine :D

http://www.guida-acquisti.com/images/affettatrice.jpg

cmq, interessanti i link che hai messo ;)

Pike79
20-01-2010, 10:00
la forma è rotonda perchè i wafer sono fette ricavate da un cilindro. poi perchè sia un cilindro, perchè cosi è stato ideato e altre forme erano impossibili da fare, da trattare. certo se invece di un cilindro era un cubo si avrebbero dei wafer quadrati. in quanto alle rese il numero come si vede dall'immagine devi levare quelli ai bordi poi perchè la resa non è del 100% diciamo che quella è teorica un'ottima resa reale è del 90% se ora per il gf100 è del 40% è perchè il chip è come noto molto complesso e grosso(+ è grosso e + è bassa la resa)eppoi si deve raffinare il suo pp e con il tempo(mesi)aumenta fino ad arrivare al 70/80%. ripeto poi dipende dalla specifica complessità del chip.
;)

Grazie, ho guardato anche i link su Wiki. L' unica domanda che mi sorge è: ma se di "buoni" in quell' area ne escono tot, cosa rimane da affinare affinchè la resa aumenti? Al di fuori del processo produttivo non vedo altro, a parte forse la dimensione del cilindro. Ferme restando le caratteristiche geometriche del cilindro e dei chip la percentuale di pezzi utilizzabili sarà sempre quella, no?

halduemilauno
20-01-2010, 10:12
Grazie, ho guardato anche i link su Wiki. L' unica domanda che mi sorge è: ma se di "buoni" in quell' area ne escono tot, cosa rimane da affinare affinchè la resa aumenti? Al di fuori del processo produttivo non vedo altro, a parte forse la dimensione del cilindro. Ferme restando le caratteristiche geometriche del cilindro e dei chip la percentuale di pezzi utilizzabili sarà sempre quella, no?

è come ti ha detto ratatosk(eppoi i link postati dovrebbero chiarirti ulteriormente). solo con il tempo tale processo può migliorare ma ripeto tieni da conto che + il chip è grosso e complesso e + sarà cmq bassa la sua resa. diciamo che un chip piccolo raggiungerà una resa del 90% uno complesso al massimo potrà arrivare al 80%/70%. questo per esemplificare il concetto. certo un domani si potranno aumentare le dimensioni del cilindro d'origine. la tecnologia attuale questo passa.
;)

Pike79
20-01-2010, 10:13
è come ti ha detto ratatosk(eppoi i link postati dovrebbero chiarirti ulteriormente). solo con il tempo tale processo può migliorare ma ripeto tieni da conto che + il chip è grosso e complesso e + sarà cmq bassa la sua resa. diciamo che un chip piccolo raggiungerà una resa del 90% uno complesso al massimo potrà arrivare al 80%/70%. questo per esemplificare il concetto. certo un domani si potranno aumentare le dimensioni del cilindro d'origine.
;)

Ok, chiaro! Grazie! :)

halduemilauno
20-01-2010, 10:28
Ok, chiaro! Grazie! :)

e approposito di rese ecco le ultime news...
http://www.digitimes.com/news/a20100120PD204.html
;)

jok3r87
20-01-2010, 10:34
Guarda i nuovi driver sono a dir poco ottimi (provati ieri con moltissimi games) : dirt2 spaventoso in SLI a 2560x1600 aa 8x af16x adesso il minimo frame(quello più importante da tener d'occhio) registrato è 57,1 sul mio sistema.La serie race (race on ,race 07 ,gtr evolution) adesso gira perfettamente anche a risoluzioni altissime tutto a palla,come la 2560x1600 senza cali di frame,etc...
Resta il problema dell'overclock che a giorni sarà sistemato per un fix.Da considerare come NVIDIA in questo set di driver ha già incluso il pieno supportro allo SLI per MASS EFFECT 2 E BAD COMPANY 2.;)

Quindi lo sli non si abilitava per una mancanza dei driver precedenti ?! Niente trucchi di codemaster ???

Mparlav
20-01-2010, 10:36
e approposito di rese ecco le ultime news...
http://www.digitimes.com/news/a20100120PD204.html
;)

Nota ancora più importante, c'è una conferma che passano ai 28nm saltando i 32nm (prima era una indiscrezione) e che vanno in produzione nel Q3 2010 (praticamente nei tempi di GF con i suoi 28nm HP).

aaasssdddfffggg
20-01-2010, 10:41
Quindi lo sli non si abilitava per una mancanza dei driver precedenti ?! Niente trucchi di codemaster ???

e si,a quanto pare le cose stanno così.Adesso il titolo letteralmente vola.;)

aaasssdddfffggg
20-01-2010, 10:44
Nota ancora più importante, c'è una conferma che passano ai 28nm saltando i 32nm (prima era una indiscrezione) e che vanno in produzione nel Q3 2010 (praticamente nei tempi di GF con i suoi 28nm HP).

buono.

jok3r87
20-01-2010, 10:47
e si,a quanto pare le cose stanno così.Adesso il titolo letteralmente vola.;)

Hai provato NVIDIA System Tools oppure Ntune per vedere se l'oc funziona anche con i nuovi driver ?

aaasssdddfffggg
20-01-2010, 10:48
Hai provato NVIDIA System Tools oppure Ntune per vedere se l'oc funziona anche con i nuovi driver ?

chiaro che ci vuole un fix.L'overclock non funziona con nulla al momento con la nuova release.

yossarian
20-01-2010, 10:49
Nota ancora più importante, c'è una conferma che passano ai 28nm saltando i 32nm (prima era una indiscrezione) e che vanno in produzione nel Q3 2010 (praticamente nei tempi di GF con i suoi 28nm HP).

:fiufiu:

Kharonte85
20-01-2010, 10:54
quanto costa un GF100?....
http://www.hardware-infos.com/news.php?news=3384
;)

Secondo loro:

http://www.hardware-infos.com/img/startseite/klein/fermi-diesprowafer.jpg

Thus one comes to our calculation on maximally 94 chips. That would mean that with a yield of 100 per cent and estimated costs per wafer start of 5,000 dollar would cost about 53 US Dollar to each chip. If one reaches a yield of only 40 per cent, then the costs therefore rise on 133 US Dollar per chip.

Comunque la situazione non è molto diversa dal GT200@65nm (non mi pare che nvidia sia andata in fallimento), ricordo che la GTX 280 costrava circa 550 euro all'uscita, pero' le condizioni sul mercato erano decisamente diverse.

faber80
20-01-2010, 10:56
:fiufiu:

Yoss, ma a questo punto è probabile vedere NI e Fermi (Revenge Edition :asd:) a fine anno ?

aaasssdddfffggg
20-01-2010, 10:57
Yoss, ma a questo punto è probabile vedere NI e Fermi (Revenge Edition :asd:) a fine anno ?

dubito che NI arrivi sul mercato entro l'anno.

Kharonte85
20-01-2010, 10:59
Yoss, ma a questo punto è probabile vedere NI e Fermi (Revenge Edition :asd:) a fine anno ?
@28nm?

La vedo dura :mc:

faber80
20-01-2010, 11:04
dubito che NI arrivi sul mercato entro l'anno.

Si, son gli stessi dubbi che ho io su Fermi a 28nm, tuttavia chiedevo se Yoss ha qualche info/rumor in + su quelle fonderie. GF partirà con i 28nm, mentre TSMC "potrebbe" passare direttamente ai 28nm, volevo capire se temporalemente entrambe le realtà potranno confrontarsi quest'anno o il prox. ;)

Kharonte85
20-01-2010, 11:12
Si, son gli stessi dubbi che ho io su Fermi a 28nm, tuttavia chiedevo se Yoss ha qualche info/rumor in + su quelle fonderie. GF partirà con i 28nm, mentre TSMC "potrebbe" passare direttamente ai 28nm, volevo capire se temporalemente entrambe le realtà potranno confrontarsi quest'anno o il prox. ;)

Qui c'è qualche info:

http://www.tsmc.com/download/english/a05_literature/00_28_Nanometer_Process_Technology.pdf

http://www.tsmc.com/english/a_about/a05_literature/a0501_brochures.htm

Dubito che vedremo la produzione di GPU@28nm questo anno...

aaasssdddfffggg
20-01-2010, 11:14
Qui c'è qualche info:

http://www.tsmc.com/download/english/a05_literature/00_28_Nanometer_Process_Technology.pdf

http://www.tsmc.com/english/a_about/a05_literature/a0501_brochures.htm

Dubito che vedremo la produzione di GPU@28nm questo anno...

Appunto.;)

yossarian
20-01-2010, 11:15
Yoss, ma a questo punto è probabile vedere NI e Fermi (Revenge Edition :asd:) a fine anno ?

entro fine anno ci saranno gpu ATi a 28 nm ma non fermi 2 e neppure NI :p

aaasssdddfffggg
20-01-2010, 11:16
entro fine anno ci saranno gpu ATi a 28 nm ma non fermi 2 e neppure NI :p

Appunto pure qua.:D

faber80
20-01-2010, 11:30
entro fine anno ci saranno gpu ATi a 28 nm ma non fermi 2 e neppure NI :p

chiaro come sempre, quindi avremo probabilmente 5xxx a 28nm contro Fermi (si spera) a pieno regime. Molto più interessante dell'attuale "pareggio" altalenante che si sta delineando. ;)

okorop
20-01-2010, 12:12
Credo che nel Q3 si potrà vedere il primo chip AMD @28nm, poi nel Q4 Evergreen refresh.

e sopratutto la nuova 6870 ngtfo edition :sofico:

ghiltanas
20-01-2010, 12:16
quindi si saltano i 32nm...ma non è rischioso?(certo a quanto pare o cosi o cosi...)

ps cos'è NI? :fagiano:

okorop
20-01-2010, 12:18
quindi si saltano i 32nm...ma non è rischioso?(certo a quanto pare o cosi o cosi...)

ps cos'è NI? :fagiano:

Northern Islands è la nuova architettura ati che verrà dopo Evergreen..... :)

atomo37
20-01-2010, 12:25
quindi si saltano i 32nm...ma non è rischioso?(certo a quanto pare o cosi o cosi...)

ps cos'è NI? :fagiano:

più che rischioso il problema forse era: aveva senso fare tanti investimenti sui 32nm per poi passare a 28nm che non è un gran salto.
il vero problema è che con i 40 stanno avendo ancora parecchi problemi, e le prime sperimentazioni a 32 a quanto pare sono state parecchio deludenti.

NOOB4EVER
20-01-2010, 12:40
e si,a quanto pare le cose stanno così.Adesso il titolo letteralmente vola.;)

quoto come non mai ,eccellente...per chi ha sli, 3 way ,quad sli,dopo gli ultimi drivers Dirt 2 raddoppia quasi il framerate,tutte le vga vengon viste correttamente ;)

ghiltanas
20-01-2010, 12:41
Northern Islands è la nuova architettura ati che verrà dopo Evergreen..... :)

mazza che fantasia con sti nomi :D

quindi la serie 6000?

ghiltanas
20-01-2010, 12:42
più che rischioso il problema forse era: aveva senso fare tanti investimenti sui 32nm per poi passare a 28nm che non è un gran salto.
il vero problema è che con i 40 stanno avendo ancora parecchi problemi, e le prime sperimentazioni a 32 a quanto pare sono state parecchio deludenti.

veramente i 28 nm sono un fullnode, invece passare ai 32 nn sarebbe dovuto essere cosi ostico :fagiano: ...evidentemente nn è stato cosi e avranno fatto i loro conti

aaasssdddfffggg
20-01-2010, 12:48
quoto come non mai ,eccellente...per chi ha sli, 3 way ,quad sli,dopo gli ultimi drivers Dirt 2 raddoppia quasi il framerate,tutte le vga vengon viste correttamente ;)

Ciao Noob!Pronto per il 980x e RAMPAGE III EXTREME?:Prrr:
Ovvio,fermi sarà la ciliegina sulla torta.:D

yossarian
20-01-2010, 12:53
mazza che fantasia con sti nomi :D

quindi la serie 6000?

NI, un nome un programma :D

ghiltanas
20-01-2010, 13:05
NI, un nome un programma :D

raffreddamento ad azoto liquido di serie :D...temperature glaciali anche a clock impossibili :Perfido:

NOOB4EVER
20-01-2010, 13:12
Ciao Noob!Pronto per il 980x e RAMPAGE III EXTREME?:Prrr:
Ovvio,fermi sarà la ciliegina sulla torta.:D

Ciao Neme....e ci mancherebbe,mia al Day one la R3E ,non la stessa cosa per il 980 ,sai non ho mai optato per versioni EE in quanto ritengo che senza un rotary et similia o phase vari,sarebbe davvero sprecato nel mio pc,dato che le mie conoscenze poi,sono alquanto limitate,preferisco andare su modelli con molti non sbloccato e darmi da fare per trovare i settaggi migliori,seguendo i vostri consigli,beh per quanto riguarda Fermi,che dici,ho aspettato impaziente fino a ora,un 3 way a liquido non me lo toglie nessuno :asd: ps:ovviamente una bella coppia di SSD belli performanti sono d'obbligo per un sistema all'avanguardia ,quindi in attesa anche di nuovi modelli ottimizzati ,magari intel o OCZ ;)

faber80
20-01-2010, 13:16
raffreddamento ad azoto liquido di serie :D...temperature glaciali anche a clock impossibili :Perfido:

ti confondi con Fermi :asd:

ghiltanas
20-01-2010, 13:17
ti confondi con Fermi :asd:

bella questa :asd:

NOOB4EVER
20-01-2010, 13:23
bella questa :asd:

azz,mitico : notavo proprio ora in firma che te la passi male tu con quel proiettorino li' eh ?? alla faccia 3 mt con quella definizione non e' affatto male anzi e' da sbav totale,complimenti ;)

atomo37
20-01-2010, 13:32
veramente i 28 nm sono un fullnode, invece passare ai 32 nn sarebbe dovuto essere cosi ostico :fagiano: ...evidentemente nn è stato cosi e avranno fatto i loro conti

evidentemente era una news di qualche settimana fa che diceva che la sperimentazione coi 32 era disastrosa e passavano direttamente ai 28.

aaasssdddfffggg
20-01-2010, 13:35
Ciao Neme....e ci mancherebbe,mia al Day one la R3E ,non la stessa cosa per il 980 ,sai non ho mai optato per versioni EE in quanto ritengo che senza un rotary et similia o phase vari,sarebbe davvero sprecato nel mio pc,dato che le mie conoscenze poi,sono alquanto limitate,preferisco andare su modelli con molti non sbloccato e darmi da fare per trovare i settaggi migliori,seguendo i vostri consigli,beh per quanto riguarda Fermi,che dici,ho aspettato impaziente fino a ora,un 3 way a liquido non me lo toglie nessuno :asd: ps:ovviamente una bella coppia di SSD belli performanti sono d'obbligo per un sistema all'avanguardia ,quindi in attesa anche di nuovi modelli ottimizzati ,magari intel o OCZ ;)

e si,ti riconosco proprio adesso.A marzo via con il valzer degli upgrade.:D

ghiltanas
20-01-2010, 13:35
azz,mitico : notavo proprio ora in firma che te la passi male tu con quel proiettorino li' eh ?? alla faccia 3 mt con quella definizione non e' affatto male anzi e' da sbav totale,complimenti ;)

grazie,giocare sul telo è uno spettacolo :sofico:, ma anche il sistema che hai in firma te nn scherza :D

a fine anno starei pensando anche ad un cambio, l'epson nuovo dovrebbe essere una bomba :sbav: (spero che tornino anche alle linee curve, quelle attuali nn mi piacciono)

ps come fai a sapere che il telo ce l'ho a 3mt dal divano? hai tirato a caso?

HackaB321
20-01-2010, 13:56
ok, quindi hanno abbandonato lo schema tipico delle tmu nVIDIA e hanno adottato quello visto sui chip ATi a partire da R600, con un 1 TAU e 4 TSU per TMU. E l'operazione di interpolazione affidata allo shader core (come su rv870).

Anandtech oltre a 4 TSU parla anche di 4 TFU per SM per un totale di 256.
Sembra quindi che mentre le capacità di addressing delle texture siano rimaste le stesse di GT200 (a parità di frequenza),
quelle di filtraggio siano aumentate di 3,2x.

Up :stordita:



Il triangle setup è rimasto lo stesso normalizzando le frequenze.Come hanno dimostrato su Beyond anche con due raster unit il triangle setup di Cypress è sempre 1/clock.
Nella soluzione di nvidia, l'esecuzione degli hull e domain via shader-core impone una logica di controllo molto complessa tra tessellation unit e shader core(al termine di ognuna delle 5 fasi della tessellation i dati devono essere restituiti allo SM e reinoltrati poi al Polymorph engine) oltre a delle unità non specializzate che eseguono queste operazioni.
Sembra quindi che, in un confronto tra tessellation unit, la soluzione di ATi sia orientata a favorire l'efficienza dei calcoli e la specializzazione grazie alle unità dedicate mentre quella di Nvidia punta più sulla forza bruta (16 tessellation unit contro 1 di Cypress e 4 raster engine contro 2) e sul non-spreco di transistor (le unità dedicate di ATi restano
in idle quando non ci sono calcoli di quel tipo).

Athlon 64 3000+
20-01-2010, 13:57
Mi sembra quindi di capire che un eventuale Fermi a 28nm e Nothern Island sempre con lo stesso processo produttivo si vedranno nel 2011.
In questi giorni vedo che c'è stato parecchio casino con la solita sfida Ati vs Nvidia.
Io vi do un consiglio perchè con R600 feci un grandissimo errore.
Praticamente(anche se era una speranza)ero abbastanza convinto che R600 avrebbe battuto la 8800GTX e anche nei driver miracolosi e poi voi sapete come è andata finire.
Quindi prima di dire che Fermi sarà una schiacciasassi andiamoci cauti perchè potreste aver una brutta delusione e per fare un esempio io il benchmark di Far Cry 2 lo prendo con le pinze.

Athlon 64 3000+
20-01-2010, 14:04
I 28nm, salvo catastrofi, si vedranno per AMD con Evergreen refresh. NI e Fermi@28nm ci vorranno ancora almeno 18 mesi da oggi.

Io comunque non mi riferivo al refresh di evergreen a 28 nm,ma alla nuova architettura Ati e a un eventuale Fermi a 28nm.

zorco
20-01-2010, 14:05
Mi sembra quindi di capire che un eventuale Fermi a 28nm e Nothern Island sempre con lo stesso processo produttivo si vedranno nel 2011.
In questi giorni vedo che c'è stato parecchio casino con la solita sfida Ati vs Nvidia.
Io vi do un consiglio perchè con R600 feci un grandissimo errore.
Praticamente(anche se era una speranza)ero abbastanza convinto che R600 avrebbe battuto la 8800GTX e anche nei driver miracolosi e poi voi sapete come è andata finire.
Quindi prima di dire che Fermi sarà una schiacciasassi andiamoci cauti perchè potreste aver una brutta delusione e per fare un esempio io il benchmark di Far Cry 2 lo prendo con le pinze.
anche io ho avuto r600 e feci un grosso sbaglio ad acquistarla nonostante era evidente dai test che risultasse essere inferiore alla 8800gtx però cè da dire che il prezzo era anche molto più basso,adesso non credo che rifarò lo stesso errore e poi posso aspettare senza problemi anche dopo aprile...

aaasssdddfffggg
20-01-2010, 14:07
anche io ho avuto r600 e feci un grosso sbaglio ad acquistarla nonostante era evidente dai test che risultasse essere inferiore alla 8800gtx però cè da dire che il prezzo era anche molto più basso,adesso non credo che rifarò lo stesso errore e poi posso aspettare senza problemi anche dopo aprile...

saggia,saggia decisione....intanto a marzo godiamo i bench di Fermi comodamente seduti in poltrona.Poi ,tirate le somme, si procede alla "MultiSpesa".;)

Athlon 64 3000+
20-01-2010, 14:09
anche io ho avuto r600 e feci un grosso sbaglio ad acquistarla nonostante era evidente dai test che risultasse essere inferiore alla 8800gtx però cè da dire che il prezzo era anche molto più basso,adesso non credo che rifarò lo stesso errore e poi posso aspettare senza problemi anche dopo aprile...

Io non mi pento di averla aquistata visto che costava e andava come la 8800GTS 640 e la ho tentuta circa 1 anno prima che mi si rompesse.
L'errore è stato che ero quasi convinto che avrebbe spaccato tutto e credevo nei driver miracolosi.

zorco
20-01-2010, 14:11
saggia,saggia decisione....intanto a marzo godiamo i bench di Fermi comodamente seduti in poltrona.Poi ,tirate le somme, si procede alla "MultiSpesa".;)
io sono tranquillissimo me la sto godendo tutta:)

halduemilauno
20-01-2010, 14:13
Un baco nei nuovi WHQL, in pratica non si riesce più ad occare con rivatuner e derivati, potrebbe suggerire la presenza di più clock domain in GF100http://forums.guru3d.com/showpost.php?p=3427808&postcount=7

tre. core, tmu, shader. oltre ovviamente la ram. questa modifica tende ad avere tmu + veloci che nel passato infatti esse ora vanno alla metà della frequenza degli shader. quindi per esemplificare, se prima con un core a 648 le tmu andavano a 648 ora con shader a 1404 le tmu andranno a 702. qualcuno ipotizzando il valore di 725 credo che si riferiva proprio alle tmu e quindi con shader a 1450. ovviamente tutto da verificare.
;)

Kharonte85
20-01-2010, 14:15
Io non mi pento di averla aquistata visto che costava e andava come la 8800GTS 640 e la ho tentuta circa 1 anno prima che mi si rompesse.
L'errore è stato che ero quasi convinto che avrebbe spaccato tutto e credevo nei driver miracolosi.
E non ti penti...io ho un'idea diversa di quanto dovrebbe durare una scheda video :stordita:

Comunque se prima di vedere l'architettura potevo avere dei dubbi sul fatto che la situazione di R600 si riverificasse a parti invertite, dopo aver letto vari articoli su questa architettura questi dubbi si sono molto molto ridotti ;)

zorco
20-01-2010, 14:17
Io non mi pento di averla aquistata visto che costava e andava come la 8800GTS 640 e la ho tentuta circa 1 anno prima che mi si rompesse.
L'errore è stato che ero quasi convinto che avrebbe spaccato tutto e credevo nei driver miracolosi.
io invece ne sono stato deluso,dopo sei mesi l'ho ridata indietro al mio rivenditore di fiducia che mi rese parte dei soldi..

zorco
20-01-2010, 14:19
Comunque se prima di vedere l'architettura potevo avere dei dubbi sul fatto che la situazione di R600 si riverificasse a parti invertite, dopo aver letto vari articoli su questa architettura questi dubbi si sono molto molto ridotti ;)
con fermi il discorso sembra diverso,almeno questa è la sensazione ...

sozoro
20-01-2010, 14:19
Ciao a tutti, vorrei chiedervi solo una curiosità riguardo alle schede tesla.
Queste schede posso apportare dei benefici nei giochi?? Sono state concepite per il calcolo parallelo, quindi non vedo perchè i giochi non dovrebbero andare molto meglio. Correggetemi se sbaglio.

aaasssdddfffggg
20-01-2010, 14:19
E non ti penti...io ho un'idea diversa di quanto dovrebbe durare una scheda video :stordita:

Comunque se prima di vedere l'architettura potevo avere dei dubbi sul fatto che la situazione di R600 si riverificasse a parti invertite, dopo aver letto vari articoli su questa architettura questi dubbi si sono molto molto ridotti ;)

:asd: ed io credo anche che nvidia nella giornata dell'altro ieri mostrando solo un paio di tabelle (tessellazione+far cry2,dark void e qualcun'altro per quanto concerne i bench)sia soltanto la punta dell'icebarg.Il grosso probabilmente,se lo è tenuto per marzo...
Vediamo.;)

NOOB4EVER
20-01-2010, 14:32
grrrrrrr quei postrini te li fai da te vero? attento che uno di questi giorni pago qualcuno che te la venga a rubare(la megastampante) mentre non ci sei:D !!! sapessi fare quelle cose avrei i muri pieni di poster rofl ,bella li' un tocco di 3d in piu' nella tua ipercameretta :asd:

NOOB4EVER
20-01-2010, 14:34
grazie,giocare sul telo è uno spettacolo :sofico:, ma anche il sistema che hai in firma te nn scherza :D

a fine anno starei pensando anche ad un cambio, l'epson nuovo dovrebbe essere una bomba :sbav: (spero che tornino anche alle linee curve, quelle attuali nn mi piacciono)

ps come fai a sapere che il telo ce l'ho a 3mt dal divano? hai tirato a caso?

ti tratti proprio bene non c'e' che dire ps: mi riferivo all'area del telo,presumevo fosse di almeno 3 metri per godersi un bel formato 16:9 sbaglio?

Jackaos
20-01-2010, 14:34
NI, un nome un programma :D

Non ho capito, che programma? GPU fredde come isole del nord? Un arcipelago di core? Le fabbricheranno in Islanda? :stordita: :confused:

aaasssdddfffggg
20-01-2010, 14:36
grrrrrrr quei postrini te li fai da te vero? attento che uno di questi giorni pago qualcuno che te la venga a rubare mentre non ci sei!!! sapessi fare quelle cose avrei i muri pieni di poster rofl ,bella li' un tocco di 3d in piu' nella tua ipercameretta :asd:

hehehe,il merito è tutto della mia favolosa stampantona in firma.Il regalino di natale diciamo che mi faccio ogni anno.:D

Kharonte85
20-01-2010, 14:36
Non ho capito, che programma? GPU fredde come isole del nord? Un arcipelago di core? Le fabbricheranno in Islanda? :stordita: :confused:

Bella questa...:rotfl:

NOOB4EVER
20-01-2010, 14:37
Ciao a tutti, vorrei chiedervi solo una curiosità riguardo alle schede tesla.
Queste schede posso apportare dei benefici nei giochi?? Sono state concepite per il calcolo parallelo, quindi non vedo perchè i giochi non dovrebbero andare molto meglio. Correggetemi se sbaglio.

da ignorante in materia me lo sono sempre chiesto anche io vedendo i prezzi molto alti per queste soluzioni ,piu' di qualche volta mi sono messo a cercare invano di capire da me le differenze ,credo che con una ci si facciano i giochi e con le altre ci giochi a grandi linee ma se qualcuno ce lo spiega come si deve non sarebbe male :fagiano:

papafoxtrot
20-01-2010, 14:43
I 28nm, salvo catastrofi, si vedranno per AMD con Evergreen refresh. NI e Fermi@28nm ci vorranno ancora almeno 18 mesi da oggi.

Addirittura 18 mesi? Ma vuol dire che ATI avrà lavorato a NI per due anni!! Sono di più rispetto alla cadenza di un anno e qualche mese che hanno tenuto da r600 in poi...
In questo caso mi viene da pensare che NI sia una rchitettura molto rivista rispetto a quella attuale: possibile?
... E che il refresh di rv870 a 28nm non preveda solo una riduzione del processo ed un aumento delle frequenze, ma un chip più potente... Insomma mi vien da pensare che NI sarà una hd7000, mentre le hd6000 potrebbero avere architettura attuale, ma scalata in alto... boh... 2400-3200 sp...
Sono supposizioni plausibili? Ecatonceries o come diavolo si scrive allora saranno chip evergreen "rivisti" di questo tipo?

yossarian
20-01-2010, 14:45
Non ho capito, che programma? GPU fredde come isole del nord? Un arcipelago di core? Le fabbricheranno in Islanda? :stordita: :confused:

http://www.livinginazoo.com/2009/01/06/la-risposta-e-dentro-di-te-ma-e-sbagliata/

:D

halduemilauno
20-01-2010, 14:46
:asd: ed io credo anche che nvidia nella giornata dell'altro ieri mostrando solo un paio di tabelle (tessellazione+far cry2,dark void e qualcun'altro per quanto concerne i bench)sia soltanto la punta dell'icebarg.Il grosso probabilmente,se lo è tenuto per marzo...
Vediamo.;)

non probabilmente ma evidentemente. e se lo è tenuto per marzo causa di forza maggiore perchè se era tutto pronto e fatto lo avrebbe fatto ora. praticamente di gf100 sappiano tutto(o quasi)meno quel dettaglione grosso come una casa delle frequenze(anche se qualcosa ormai si è saputo/capito). quindi aspettiamo dati sicuri e rece.
;)

halduemilauno
20-01-2010, 14:49
Addirittura 18 mesi? Ma vuol dire che ATI avrà lavorato a NI per due anni!! Sono di più rispetto alla cadenza di un anno e qualche mese che hanno tenuto da r600 in poi...
In questo caso mi viene da pensare che NI sia una rchitettura molto rivista rispetto a quella attuale: possibile?
... E che il refresh di rv870 a 28nm non preveda solo una riduzione del processo ed un aumento delle frequenze, ma un chip più potente... Insomma mi vien da pensare che NI sarà una hd7000, mentre le hd6000 potrebbero avere architettura attuale, ma scalata in alto... boh... 2400-3200 sp...
Sono supposizioni plausibili? Ecatonceries o come diavolo si scrive allora saranno chip evergreen "rivisti" di questo tipo?

ma perchè tu pensi che una nuova architettura basta coglierla sugli alberi? il progetto fermi è iniziato quando è stato consegnato il g80 quindi + di tre anni fa questo per farti capire + o - i tempi.
;)

aaasssdddfffggg
20-01-2010, 14:54
ma perchè tu pensi che una nuova architettura basta coglierla sugli alberi? il progetto fermi è iniziato quando è stato consegnato il g80 quindi + di tre anni fa questo per farti capire + o - i tempi.
;)

e pensare che ci sono utenti che erano convinti (mi auguro che non lo siano più) di vederlo addirittura a settembre sul mercato NI.:muro:

persa
20-01-2010, 14:56
e pensare che ci sono utenti che erano convinti (mi auguro che non lo siano più) di vederlo addirittura a settembre sul mercato NI.:muro:

io NI lo davo per fine anno in maniera ottimistica, ma no di certo per settembre :fagiano:

aaasssdddfffggg
20-01-2010, 14:59
io NI lo davo per fine anno in maniera ottimistica, ma no di certo per settembre :fagiano:

tu non sei nella lista dei profeti...:D

halduemilauno
20-01-2010, 14:59
e pensare che ci sono utenti che erano convinti (mi auguro che non lo siano più) di vederlo addirittura a settembre sul mercato NI.:muro:

cmq io non so quando tale progetto è iniziato e quindi non so in che fase esso sia. io stavo solo dicendo che le tempistiche sono dell'ordine di almeno due anni. poi chiaramente tocca vedere i dettagli di tutto l'insieme.
;)

aaasssdddfffggg
20-01-2010, 15:00
Solo perché non hanno capito cos'è :D

se non sbaglio anche tu avevi preventivato l'uscita per settembre di NI.Non farmi ritrovare il post qui dentro per piacere adesso.:D

persa
20-01-2010, 15:01
tu non sei nella lista dei profeti...:D

eheheh... :D

probabilmente ati sperimenterà cmq i 28nm in qualche scheda (come fece con la serie 4000 = 4770) con l'architettura attuale...e poi nel 2011 uscirà la nuova serie.... e poi il fermi 2 la rivincita con 1024 shader

aaasssdddfffggg
20-01-2010, 15:02
eheheh... :D

probabilmente ati sperimenterà cmq i 28nm in qualche scheda (come fece con la seria 4000 = 4770) con l'architettura attuale...e poi nel 2011 uscirà la nuova serie.... e poi il fermi 2 la rivincita con 1024 shader

non probabilmente.I 28 nm li vedrai all'inzio proprio in quel modo.Su una fascia medio bassa dell'attuale architettura ATI.;)

persa
20-01-2010, 15:03
se non sbaglio anche tu avevi preventivato l'uscita per settembre di NI.Non farmi ritrovare il post qui dentro per piacere adesso.:D

io di lui non ricordo, ed ho letto un suo post ed ipotizzava una mossa di ati stile 4770 per i 28nm entro quest'anno.. ;)

mi ricordo però di okorop... per NI a sett. ott. ..forse... :D

aaasssdddfffggg
20-01-2010, 15:04
Io mi ricordo di aver preventivato i 28nm per settembre, ma potrei anche aver sbagliato, devi solo trovare il post :Perfido:

:cry: ok,come rientro a casa sbircerò in tutta calma in questo immenso Thread.:D

aaasssdddfffggg
20-01-2010, 15:05
io di lui non ricordo, ed ho letto un suo post ed ipotizzava una mossa di ati stile 4770 per i 28nm entro quest'anno.. ;)

mi ricordo però di okorop... per NI a sett. ott. ..forse... :D

si ne sono certo perchè aveva risposto ad un mio post.Come lo ritrovo glielo consegno.:)

aaasssdddfffggg
20-01-2010, 15:05
Vedi che ho ragione quando dico di usare i bookmarks? :D

non l'ho reputato importante dai.;)

persa
20-01-2010, 15:06
Vedi che ho ragione quando dico di usare i bookmarks? :D

xò stai attento anche te con certe previsioni :fagiano: :boxe:

marco XP2400+
20-01-2010, 15:06
p.s. comunque è uscito un articolo di yossarian

papafoxtrot
20-01-2010, 15:08
Solo perché non hanno capito cos'è :D

Esattamente... sinceramente pensavo che NI fosse una nuova generazione solo parzialmente rivista rispetto a quella delle attuali hd5000... In quel caso il tempo che sarebbe passato sarebbe stato quello solito di un annoe qualcosa... come da h2000 a 3000, a 4000 e poi a 5000.
Se NI è un'architettura nuova nuova 2 anni ci stanno tutti... mica penso che la tirino giù dagli alberi o che la preparino per settembre...
Però a questo punto, come mi ha confermato ratatosk, per fine anno mi aspetto una hd6000 sempre con la solita architettura ATI e 28nm... Il classico raddoppio insomma...

Con questo chiudo l'OT... GRAZIE ratatosk e per l'occasione un GRAZIE grande anche a Yossarian che è un'inestimabile fonte di informazioni!

aaasssdddfffggg
20-01-2010, 15:08
xò stai attento anche te con certe previsioni :fagiano: :boxe:

ma queste sono sciocchezze....a marzo ci sarà da divertirsi e lì ci sono un bel po' di bookmarks da riprendere.:asd:

persa
20-01-2010, 15:11
ma queste sono sciocchezze....a marzo ci sarà da divertirsi e lì ci sono un bel po' di bookmarks da riprendere.:asd:

si lo so lo so... lo stavo dicendo per scherzo :D

Kharonte85
20-01-2010, 15:12
p.s. comunque è uscito un articolo di yossarian

http://www.appuntidigitali.it/6350/gpu-unita-dedicate-o-unita-generiche/

E spammalo allora! :D

Jackaos
20-01-2010, 15:12
http://www.livinginazoo.com/2009/01/06/la-risposta-e-dentro-di-te-ma-e-sbagliata/

:D

Comunque, per me, sarà... la seconda che ho detto.

persa
20-01-2010, 15:13
Però a questo punto, come mi ha confermato ratatosk, per fine anno mi aspetto una hd6000 sempre con la solita architettura ATI e 28nm... Il classico raddoppio insomma...

Con questo chiudo l'OT... GRAZIE ratatosk e per l'occasione un GRAZIE grande anche a Yossarian che è un'inestimabile fonte di informazioni!

veramente ratatosk nel thread delle novità ati (che sarebbe poi quello adatto per discuterne, no di certo questo thread) ha scritto un post dove ipotizzava una scheda non top di gamma con architettura 5000 per sperimentare i 28nm.
un pò come è successo x sperimentare i 40nm con la serie 4000... e dopo un tot di tempo è uscita la serie 5000

aaasssdddfffggg
20-01-2010, 15:17
veramente ratatosk nel thread delle novità ati (che sarebbe poi quello adatto per discuterne, no di certo questo thread) ha scritto un post dove ipotizzava una scheda non top di gamma con architettura 5000 per sperimentare i 28nm.
un pò come è successo x sperimentare i 40nm con la serie 4000... e dopo un tot di tempo è uscita la serie 5000

ed è proprio quello che accadrà.NI arriverà dopo,più in là.;)

persa
20-01-2010, 15:21
ed è proprio quello che accadrà.NI arriverà dopo,più in là.;)

imho... faranno così... e subito dopo nel 2011 esce la serie HD6000 con architettura migliorata.

e un pò dopo la serie 6000 sempre nel 2011 uscirà anche fermi a 28nm...e avanti così...

DukeIT
20-01-2010, 15:33
imho... faranno così... e subito dopo nel 2011 esce la serie HD6000 con architettura migliorata.

e un pò dopo la serie 6000 sempre nel 2011 uscirà anche fermi a 28nm...e avanti così...Cioè ATI uscirà più tardi del previsto mentre nVidia darà una brusca accelerata? Sarà... ma da quanto visto con Fermi adesso, sarei più propenso a credere il contrario: personalmente mi aspetto una serie HD6xx0 a ridosso di Fermi, più che un "Fermi 2" a ridosso di NI.

persa
20-01-2010, 15:41
Cioè ATI uscirà più tardi del previsto mentre nVidia darà una brusca accelerata? Sarà... ma da quanto visto con Fermi adesso, sarei più propenso a credere il contrario: personalmente mi aspetto una serie HD6xx0 a ridosso di Fermi, più che un "Fermi 2" a ridosso di NI.

be vedremo :boh: :D

yossarian
20-01-2010, 15:42
Comunque, per me, sarà... la seconda che ho detto.

può essere, in fondo islands è plurale :D

okorop
20-01-2010, 15:58
può essere, in fondo islands è plurale :D

massi yoss sarà la prima gpu dual core, la aspetto per prenderla al lancio.... Aspettando anche la 5890 :sofico:

ghiltanas
20-01-2010, 16:44
ma quindi la serie 6000 sarà principalmente un dieshrink, con incremento di frequenze sp ecc?

mentre NI, che sarà sempre a 28nm immagino, introdurrà diverse novità architetturali (quali? :confused: ).Cmq sia, si dovrebbe parlare sempre di dx11, nn ci sono nuove lib grafiche già in vista giusto?

appleroof
20-01-2010, 16:55
ma quindi la serie 6000 sarà principalmente un dieshrink, con incremento di frequenze sp ecc?

mentre NI, che sarà sempre a 28nm immagino, introdurrà diverse novità architetturali (quali? :confused: ).Cmq sia, si dovrebbe parlare sempre di dx11, nn ci sono nuove lib grafiche già in vista giusto?

multi gpu in un unico die, viste come una sola :D

ghiltanas
20-01-2010, 17:02
multi gpu in un unico die, viste come una sola :D

ah già, ecco che mi sfuggiva, il dual gpu che piace a me :)

Cicciuzzone
20-01-2010, 17:14
peccato che per ora non servi a nulla visto che i due giochi che hai citato manco sono in commercio.......
p.s. non sperate piu' di avere dei driver fatti per incrementare le performance con gt200, da un po di mesi ad oggi stanno preparando quelli per Fermi,.......

Secondo me è meglio se già ci sono le implementazioni di giochi futuri piuttosto che aspettare chissà quanto per averli... Poi c'è sempre tempo per migliorare con nuove release di driver...

Iantikas
20-01-2010, 17:15
speriamo sia la volta buona...sono anni che ad ogni nuova multi-gpu trapelano notizie di una nuova tecnologia, ogni volta si parla di "gpu dual-core" e poi si rivela sempre la solita storia...


...ciao

Cicciuzzone
20-01-2010, 17:20
Ciao Neme....e ci mancherebbe,mia al Day one la R3E ,non la stessa cosa per il 980 ,sai non ho mai optato per versioni EE in quanto ritengo che senza un rotary et similia o phase vari,sarebbe davvero sprecato nel mio pc,dato che le mie conoscenze poi,sono alquanto limitate,preferisco andare su modelli con molti non sbloccato e darmi da fare per trovare i settaggi migliori,seguendo i vostri consigli,beh per quanto riguarda Fermi,che dici,ho aspettato impaziente fino a ora,un 3 way a liquido non me lo toglie nessuno :asd: ps:ovviamente una bella coppia di SSD belli performanti sono d'obbligo per un sistema all'avanguardia ,quindi in attesa anche di nuovi modelli ottimizzati ,magari intel o OCZ ;)

Ciao, tu sei al livello di Nemesis! Non posso fare altro che: :ave:

Cicciuzzone
20-01-2010, 17:24
Mi sembra quindi di capire che un eventuale Fermi a 28nm e Nothern Island sempre con lo stesso processo produttivo si vedranno nel 2011.

Ah beh, allora aspetto... :fagiano:
In effetti Fermi m'incuriosisce ma non cambio la mia VGA quest'anno, non ne sento affatto il bisogno. Per fortuna posso tirare avavnti un bel pò (almeno credo...).

Cicciuzzone
20-01-2010, 17:55
imho... faranno così... e subito dopo nel 2011 esce la serie HD6000 con architettura migliorata.

e un pò dopo la serie 6000 sempre nel 2011 uscirà anche fermi a 28nm...e avanti così...

Mi piacerebbe andare nel futuro di un paio d'anni (per non esagerare), acquistare un PC aggiornato e portarmelo dietro (nonchè una combinazione di superenalotto vincente...). Non dovrei aggiornare configurazione di sicuro! :p


EDIT: Scusate, leggendo i vari post ho risposto in sequenza e mi sono capitati tre post di seguito... Pardon

persa
20-01-2010, 18:17
Mi piacerebbe andare nel futuro di un paio d'anni (per non esagerare), acquistare un PC aggiornato e portarmelo dietro (nonchè una combinazione di superenalotto vincente...). Non dovrei aggiornare configurazione di sicuro! :p

hahahaha..quoto , anche a me piacerebbe :asd:

AnonimoVeneziano
20-01-2010, 18:53
Mi piacerebbe andare nel futuro di un paio d'anni (per non esagerare), acquistare un PC aggiornato e portarmelo dietro (nonchè una combinazione di superenalotto vincente...). Non dovrei aggiornare configurazione di sicuro! :p


EDIT: Scusate, leggendo i vari post ho risposto in sequenza e mi sono capitati tre post di seguito... Pardon

E coi drivers come fai? :mbe:

zorco
20-01-2010, 18:55
Ah beh, allora aspetto... :fagiano:
In effetti Fermi m'incuriosisce ma non cambio la mia VGA quest'anno, non ne sento affatto il bisogno. Per fortuna posso tirare avavnti un bel pò (almeno credo...).
eh cè credo,visto i giochi attuali con la tua vga ci puoi tirare benissimo come minimo un'altro anno, giocando tra l'altro a cannone:fagiano: ...;)

DVD2005
20-01-2010, 18:56
E coi drivers come fai? :mbe:

in realtà li aggiorna una volta sola al momento dell'acquisto e poi per 2 anni non li tocca: un sogno :D

Andrea deluxe
20-01-2010, 18:56
http://www.digitimes.com/news/a20100120PD204.html

persa
20-01-2010, 18:57
E coi drivers come fai? :mbe:

prende anche quelli dal futuro :asd:

persa
20-01-2010, 18:57
in realtà li aggiorna una volta sola al momento dell'acquisto e poi per 2 anni non li tocca: un sogno :D

ecco, esatto :D

DVD2005
20-01-2010, 19:00
ecco, esatto :D

abbiamo pensato la stessa cosa :D ;)

persa
20-01-2010, 19:12
abbiamo pensato la stessa cosa :D ;)

già :fagiano:

Cicciuzzone
20-01-2010, 19:13
in realtà li aggiorna una volta sola al momento dell'acquisto e poi per 2 anni non li tocca: un sogno :D

Stavo per dirlo io... E poi scriverei qui tra 2-3 mesi che Fermi è leeenta! :p

aaasssdddfffggg
20-01-2010, 19:18
http://www.fudzilla.com/content/view/17327/1/

proprio quello che dico da tempo.
Alla fine questo ritardo di Fermi non grava più di tanto a nvidia : come arriva Fermi sul mercato cominceranno a circolare giochi in directx11 (ok non nativi)di un certo peso.Verissimo.:)

Cicciuzzone
20-01-2010, 19:26
http://www.fudzilla.com/content/view/17327/1/

proprio quello che dico da tempo.
Alla fine questo ritardo di Fermi non grava più di tanto a nvidia : come arriva Fermi sul mercato cominceranno a circolare giochi in directx11 (ok non nativi)di un certo peso.Verissimo.:)

L'avevo scritto tempo fa, ma mi hanno accusato di flame...

cd125
20-01-2010, 19:26
http://www.fudzilla.com/content/view/17327/1/

proprio quello che dico da tempo.
Alla fine questo ritardo di Fermi non grava più di tanto a nvidia : come arriva Fermi sul mercato cominceranno a circolare giochi in directx11 (ok non nativi)di un certo peso.Verissimo.:)

Quanto detto nell'articolo mi sembra sconclusionato, la ATI non ha lanciato una versione della serie 4 con tanto di supporto per DX11 che farebbe giustamente restar tranquilli i capi Nvidia, Ati ha lanciato una serie 5 in grado di surclassare tutti i prodotti nvidia e non penso che sia opportuno dire:"vabbè tanto nei giochi non te ne accorgi che stai usando directx11" perchè il punto è che sono indietro di 4 mesi con la loro nuova linea di prodotti(che se era prevista per 4 mesi fa capisci bene che evidentemente era importante questo confronto, e non da prendere sotto gamba come lo vogliono passare loro).
Come perdere la coppa italia e dire"tanto l'anno scorso abbiamo vinto la champions"

In this case, however, it was not a matter of whether or not TSMC could provide an adequate amount of 40nm yields – Nvidia simply was not ready with final production samples of its 40nm GF100 (GT300) architecture. As far as we know, lab testers and quality control engineers are just now receiving risk wafer batches of A3 silicon from the oven, and the next step is to ensure that they are ready for volume production over the next few weeks.
evidentemente non è tsmc ad avere dato problemi ad nvidia ma è fermi stesso nella sua complessità ad aver dilatato i tempi, spero vivamente che sia prestante come descritto nelle slide:D

aaasssdddfffggg
20-01-2010, 19:29
Quanto detto nell'articolo mi sembra sconclusionato, la ATI non ha lanciato una versione della serie 4 con tanto di supporto per DX11 che farebbe giustamente restar tranquilli i capi Nvidia, Ati ha lanciato una serie 5 in grado di surclassare tutti i prodotti nvidia e non penso che sia opportuno dire:"vabbè tanto nei giochi non te ne accorgi che stai usando directx11" perchè il punto è che sono indietro di 4 mesi con la loro nuova linea di prodotti(che se era prevista per 4 mesi fa capisci bene che evidentemente era importante questo confronto, e non da prendere sotto gamba come lo vogliono passare loro).
Come perdere la coppa italia e dire"tanto l'anno scorso abbiamo vinto la champions"


evidentemente non è tsmc ad avere dato problemi ad nvidia ma è fermi stesso nella sua complessità ad aver dilatato i tempi, spero vivamente che sia prestante come descritto nelle slide:D

si certo,ma ho detto e ripeto che alla fine il suo ritardo non è così grave come si possa pensare visto che a tutt'oggi di titoli directx 11 non ce nulla (tralasciando dirt2 che è più directx9 che 11 quello:D )
Pensa per un attimo se da settembre il mercato offriva già un ampia scelta di titoli directx11 e nvidia non cera ancora....

ghiltanas
20-01-2010, 19:32
http://www.fudzilla.com/content/view/17327/1/

proprio quello che dico da tempo.
Alla fine questo ritardo di Fermi non grava più di tanto a nvidia : come arriva Fermi sul mercato cominceranno a circolare giochi in directx11 (ok non nativi)di un certo peso.Verissimo.:)

apparte che i titoli dx11 che contano stanno per uscire e nvidia nn c'è, e cmq come ho detto + volte, rilegare le 5000 alle sole dx11 mi pare alquanto riduttivo

persa
20-01-2010, 19:34
http://www.fudzilla.com/content/view/17327/1/

proprio quello che dico da tempo.
Alla fine questo ritardo di Fermi non grava più di tanto a nvidia : come arriva Fermi sul mercato cominceranno a circolare giochi in directx11 (ok non nativi)di un certo peso.Verissimo.:)


dato che nvidia fa sfruttare le caratteristiche delle sue schede video a molti sviluppatori... (vedi anche la fisica via gpu x esempio...) adesso che se ne usciranno con schede dx11, ci scommetto che il tessellone , dx11 ecc..lo troveremo ancor più spesso nei giochi.. meglio così, anche x chi ha una ati dx11 :D

Cicciuzzone
20-01-2010, 19:35
apparte che i titoli dx11 che contano stanno per uscire e nvidia nn c'è, e cmq come ho detto + volte, rilegare le 5000 alle sole dx11 mi pare alquanto riduttivo

Anche se i titoli DX11 stanno per uscire non è che una volta uscita Fermi non si trovino più... Comunque è vero che le HD5xxx sono ottime non solo per le DX11 ma per i consumi e qualità in generale. ;)

persa
20-01-2010, 19:43
Anche se i titoli DX11 stanno per uscire non è che una volta uscita Fermi non si trovino più...

quoto ;)

Comunque è vero che le HD5xxx sono ottime non solo per le DX11 ma per i consumi e qualità in generale. ;)

sono ottime xchè sono più potenti rispetto alle schede di vecchia generazione, quindi con giochi pesanti vanno meglio delle precedenti single gpu. Crysis very high con la 5870 ce lo giochi, con la 260 o 4870 gira da fare schifo ;)

aaasssdddfffggg
20-01-2010, 19:44
apparte che i titoli dx11 che contano stanno per uscire e nvidia nn c'è, e cmq come ho detto + volte, rilegare le 5000 alle sole dx11 mi pare alquanto riduttivo

ok,parliamo e non ci capiamo.Un conto se a settembre hai i titoli in directx11 e un conto se a febbraio (quindi un mese prima del lancio e non 6 mesi prima di Fermi) comincia ad arrivare il primo vero titolo di interesse con le nuove api.:D

ghiltanas
20-01-2010, 19:48
ok,parliamo e non ci capiamo.Un conto se a settembre hai i titoloi in directx11 e un conto se a febbraio (quindi un mese prima del lancio e non 6 mesi) di Fermi comincia ad arrivare il primo vero titolo di interesse con le nuove api.:D

apparte che per fermi marzo (specie in volumi) la vedo molto dura, quindi probabilmente si va ad aprile.
Detto questo io adesso ho + tempo e voglia per giocare al pc, e nn voglio perdermi i titoli in uscita, tra cui stalker nuovo, bad company 2, e alien Vs predator, titoli che useranno le dx11. Nvidia si perderà quindi il day-one ( e nn solo) di questi primi titoli in dx11, certo ce ne saranno altri, però il lancio di questi è perso, e nn so quanto si possa sminuire ciò.

aaasssdddfffggg
20-01-2010, 19:50
apparte che per fermi marzo (specie in volumi) la vedo molto dura, quindi probabilmente si va ad aprile.
Detto questo io adesso ho + tempo e voglia per giocare al pc, e nn voglio perdermi i titoli in uscita, tra cui stalker nuovo, bad company 2, e alien Vs predator, titoli che useranno le dx11. Nvidia si perderà quindi il day-one ( e nn solo) di questi primi titoli in dx11, certo ce ne saranno altri, però il lancio di questi è perso, e nn so quanto si possa sminuire ciò.

alien esce il 18 febbraio,bad company 2 arriva a marzo.Stalker vabè...lasciamo stare quello.:)
Buon divertimento comunque...con un pochino di ritardo arriviamo pure noi (utenti che prenderanno Fermi si intende).;)

ghiltanas
20-01-2010, 19:51
Anche se i titoli DX11 stanno per uscire non è che una volta uscita Fermi non si trovino più... Comunque è vero che le HD5xxx sono ottime non solo per le DX11 ma per i consumi e qualità in generale. ;)

certamente, io però adesso ho una 8800gt e giocando in fullhd necessito di un upgrade. Difficilmente quindi posso attendere l'uscita di fermi (diciamo aprile e cmq nn in fascia alta, perchè + di un tot per la scheda nn intendo spenderci), perchè sennò i titoli in uscita a breve nn me li godo

Cicciuzzone
20-01-2010, 19:51
apparte che per fermi marzo (specie in volumi) la vedo molto dura, quindi probabilmente si va ad aprile.
Detto questo io adesso ho + tempo e voglia per giocare al pc, e nn voglio perdermi i titoli in uscita, tra cui stalker nuovo, bad company 2, e alien Vs predator, titoli che useranno le dx11. Nvidia si perderà quindi il day-one ( e nn solo) di questi primi titoli in dx11, certo ce ne saranno altri, però il lancio di questi è perso, e nn so quanto si possa sminuire ciò.

E se vengono posticipati? Non sono ancora usciti, quindi tutto può essere... No scherzo! Spero escano presto in realtà! ;)

persa
20-01-2010, 19:51
alien esce il 18 febbraio,bad company 2 arriva a marzo.Stalker vabè...lasciamo stare quello.:)
Buon divertimento comunque...con un pochino di ritardo arriviamo pure noi (utenti che prenderanno Fermi si intende).;)

ahahaha...ci potrà avere anche le dx12, ma tecnicamente è brutto forte :asd:

spero veramente che il 2 usi un motore grafico migliore :asd:

ghiltanas
20-01-2010, 19:52
alien esce il 18 febbraio,bad company 2 arriva a marzo.Stalker vabè...lasciamo stare quello.:)
Buon divertimento comunque...con un pochino di ritardo arriviamo pure noi (utenti che prenderanno Fermi si intende).;)

ma te aspetta pure, hai un comparto video bestiale :p ,io sono in una condizione differente :)

Kharonte85
20-01-2010, 19:53
apparte che per fermi marzo (specie in volumi) la vedo molto dura, quindi probabilmente si va ad aprile.
Detto questo io adesso ho + tempo e voglia per giocare al pc, e nn voglio perdermi i titoli in uscita, tra cui stalker nuovo, bad company 2, e alien Vs predator, titoli che useranno le dx11. Nvidia si perderà quindi il day-one ( e nn solo) di questi primi titoli in dx11, certo ce ne saranno altri, però il lancio di questi è perso, e nn so quanto si possa sminuire ciò.
Ti converebbe comunque aspettare, adesso le HD5xx0 sono sovraprezzate, all'uscita di fermi (basta anche sulla carta) ci sarà un bel taglio...

solo un consiglio ovviamente ;)

persa
20-01-2010, 19:55
Ti converebbe comunque aspettare, adesso le HD5xx0 sono sovraprezzate, all'uscita di fermi (basta anche sulla carta) ci sarà un bel taglio...

solo un consiglio ovviamente ;)

quoto;)

appleroof
20-01-2010, 19:56
Raga ma se lui ha bisogno di un upgrade ora :boh:

allora pure io ad ottobre potevo tenermi la 4870, che tanto fino ad aprile ci arrivava pure meglio della 88gt :D

Cicciuzzone
20-01-2010, 19:57
certamente, io però adesso ho una 8800gt e giocando in fullhd necessito di un upgrade. Difficilmente quindi posso attendere l'uscita di fermi (diciamo aprile e cmq nn in fascia alta, perchè + di un tot per la scheda nn intendo spenderci), perchè sennò i titoli in uscita a breve nn me li godo

Beh se hai fretta allora c'è ATI. Per le mi e esigenze al momento opterei per una HD5870 (anche se desiderei un HD5970 :sofico: ), ma il budget è quello che è... Comunque arrivati fino a questo punto aspetterei un altro pò, sia per vedere se vale la pena Fermi, sia perchè i prezzi comunque potrebbero scendere. Ovviamente ognuno conosce i propri bisogni ;) .

persa
20-01-2010, 19:58
Raga ma se lui ha bisogno di un upgrade ora :boh:

allora 5850 :O

appleroof
20-01-2010, 20:00
allora 5850 :O

si, quoterrimo e non perchè ce l'ho, ma con quella imho stà a posto per almeno tutto quest'anno spendendo il giusto :)

di certo 100 euro di differenza con la 5870 non sono giustificati dal divario di prestazioni che c'è tra le due

persa
20-01-2010, 20:01
si, quoterrimo e non perchè ce l'ho, ma con quella imho stà a posto per almeno tutto quest'anno spendendo il giusto :)

bugiardo, è per questo motivo :O


scherzo apple :D la 5850 la reputo ottima , anche meglio della mia in firma, per prezzo prestazioni ;)

appleroof
20-01-2010, 20:03
bugiardo, è per questo motivo :O

:asd: :asd:


scherzo apple :D la 5850 la reputo ottima , anche meglio della mia in firma, per prezzo prestazioni ;)

;)

Cicciuzzone
20-01-2010, 20:03
si, quoterrimo e non perchè ce l'ho, ma con quella imho stà a posto per almeno tutto quest'anno spendendo il giusto :)

di certo 100 euro di differenza con la 5870 non sono giustificati dal divario di prestazioni che c'è tra le due

Infatti e se pure andasse male Fermi, potrebbe affiancare una seconda HD5850 in CF per ottenere un boost prestazionale e non pensarci più fino alla prossima generazione :O

Kharonte85
20-01-2010, 20:03
Raga ma se lui ha bisogno di un upgrade ora :boh:

allora pure io ad ottobre potevo tenermi la 4870, che tanto fino ad aprile ci arrivava pure meglio della 88gt :D
Infatti tu devi pentirti perchè la scimmia ha avuto il sopravvento :O :D

E poi tu a quanto l'hai presa la HD5850?

No perchè adesso sta così: http://www.trovaprezzi.it/prezzo_schede-grafiche_hd_5850.aspx prezzo medio 250e

A me girerebbero gli zebedei di pagarla più del lancio...soprattutto ad un mese dal lancio di Fermi e del sicuro taglio di prezzi non mi sembra molto oculato come acquisto.

Poi se uno ha proprio esigenza per carità faccia come preferisce.

Sergio_Di_Rio
20-01-2010, 20:04
Anche se i titoli DX11 stanno per uscire non è che una volta uscita Fermi non si trovino più... Comunque è vero che le HD5xxx sono ottime non solo per le DX11 ma per i consumi e qualità in generale. ;)
No. Le hd5xxx sono ottime per le prestazioni elevate ed i prezzi "contenuti" (rispetto alla controparte). Purtroppo (ma giustamente) fino all'uscita di GF100 non caleranno di un centesimo.

Un semplice esempio: La HD5850 al momento costa intorno ai 240€, la GTX285 costa invece intorno ai 310-320€ (tranne per uno shop che la vende a 280€). Quindi c'è una GROSSA differenza di prezzo tra le due schede ma la HD5850 prende a schiaffoni la GTX285 (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/vorschau_ati_radeon_hd_5850/16/#abschnitt_performancerating) (tutto ciò a settembre 09, ora il divario dovrebbe essere maggiore).

Domanda retorica: :fagiano:
Se negli ultimi 4 mesi avessi dovuto comprare una nuova VGA quale avresti scelto?

Questo è il vero vantaggio di Ati e prima che GF100 arrivi effettivamente sugli scaffali passeranno un'altro paio di mesi (almeno). 6 mesi, in ambito informatico, sono moooolto tempo.

persa
20-01-2010, 20:07
Infatti tu devi pentirti perchè la scimmia ha avuto il sopravvento :O :D

E poi tu a quanto l'hai presa la HD5850?

No perchè adesso sta così: http://www.trovaprezzi.it/prezzo_schede-grafiche_hd_5850.aspx prezzo medio 250e

A me girerebbero gli zebedei di pagarla più del lancio...soprattutto ad un mese dal lancio di Fermi e del sicuro taglio di prezzi non mi sembra molto oculato come acquisto.

Poi se uno ha proprio esigenza per carità faccia come preferisce.

infatti concordavo anche con il tuo ragionamento..ma se il tipo proprio non può aspettare...e giocando a 1920x con una 8800gt lo capisco pure.. :stordita:

Cicciuzzone
20-01-2010, 20:13
No. Le hd5xxx sono ottime per le prestazioni elevate ed i prezzi "contenuti" (rispetto alla controparte). Purtroppo (ma giustamente) fino all'uscita di GF100 non caleranno di un centesimo.

Un semplice esempio: La HD5850 al momento costa intorno ai 240€, la GTX285 costa invece intorno ai 310-320€ (tranne per uno shop che la vende a 280€). Quindi c'è una GROSSA differenza di prezzo tra le due schede ma la HD5850 piglia a pizze la GTX285 (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/vorschau_ati_radeon_hd_5850/16/#abschnitt_performancerating) (tutto ciò a settembre 09, ora il divario dovrebbe essere maggiore).

Domanda retorica: :fagiano:
Se negli ultimi 4 mesi avessi dovuto comprare una nuova VGA quale avresti scelto?

Questo è il vero vantaggio di Ati e prima che GF100 arrivi effettivamente sugli scaffali passeranno un'altro paio di mesi (almeno). 6 mesi, in ambito informatico, sono moooolto tempo.

L'ho sempre detto o una 5850 o una 5870. Se il budget me l'avrebbe permesso di sicuro la 5970. Il punto è che non ho fretta di una nuova vga e credo anche molti che sono passati alle (comunque ottime) HD5xxx potevano aspettare. Comunque se anche avessi preso un HD5850 (di meno no però!) Starei bene ugualmente -_^

appleroof
20-01-2010, 20:16
Infatti e se pure andasse male Fermi, potrebbe affiancare una seconda 5850 per un boost :O

già...anche se con i giochi attuali e imho prossimi (almeno per quest'anno) una sola potrebbe pure bastare

cmq se non avesse vinto la scimmia tornando indietro sarei rimasto con la 4870 e poi all'uscita di Fermi avrei deciso il da farsi :stordita:

Infatti tu devi pentirti perchè la scimmia ha avuto il sopravvento :O :D

E poi tu a quanto l'hai presa la HD5850?

No perchè adesso sta così: http://www.trovaprezzi.it/prezzo_schede-grafiche_hd_5850.aspx prezzo medio 250e

A me girerebbero gli zebedei di pagarla più del lancio...soprattutto ad un mese dal lancio di Fermi e del sicuro taglio di prezzi non mi sembra molto oculato come acquisto.

Poi se uno ha proprio esigenza per carità faccia come preferisce.

avevo postato senza leggere il tuo intervento :asd: :asd: e c'hai proprio ragione :stordita:

cmq talmente fu forte la scimmia che la pagai 240 euri, e mi sentivo pure un fesso visto che c'erano (assolutamente sulla carta però :D ) a 220....non sapevo sarebbe diventato il prezzo base :D

PConly92
20-01-2010, 20:26
Infatti tu devi pentirti perchè la scimmia ha avuto il sopravvento :O :D

E poi tu a quanto l'hai presa la HD5850?

No perchè adesso sta così: http://www.trovaprezzi.it/prezzo_schede-grafiche_hd_5850.aspx prezzo medio 250e

A me girerebbero gli zebedei di pagarla più del lancio...soprattutto ad un mese dal lancio di Fermi e del sicuro taglio di prezzi non mi sembra molto oculato come acquisto.

Poi se uno ha proprio esigenza per carità faccia come preferisce.

vedremmo quanto costerà fermi:asd:
facciamo sui 500-600 euro singola gpu?oppure 700 stile 8800 ultra
ma non so perché vi lamentate...:mad:
se nvidia avesse lanciato per prima le schede dx11 secondo te quanto la pagheresti adesso una scheda nvidia con prestazioni diciamo simili alla hd5850? SICURAMENTE NON 250 MA SUI 600:read:
io invece di lamentarmi ringrazierei ati per gli ottimi prezzi delle nuove schede dx11;)
ps. non mi riferisco solo a te ma a molti che ho visto dire: ""ati costa troppo 250 per un scheda non li spendo...etc" ma prima con g80 dove vi faceva pagare 600-700 euro a scheda non le sentivo ste lamentele, chissà perché...:doh:
ps2. anche ati si trova senza concorrenza ma non alza a dismisura i prezzi;)...

ghiltanas
20-01-2010, 20:31
allora 5850 :O

ma quello sicuro, la 5870 nn mi interessa. Già la 5850 sfiora il limite del budget, e infatti anche quella nn lacompro subito, preferirei attendere una riduzione del prezzo, perchè potrebbe costare decisamente meno.
Cmq un altro pò aspetto

ghiltanas
20-01-2010, 20:33
vedremmo quanto costerà fermi:asd:
facciamo sui 500-600 euro singola gpu?oppure 700 stile 8800 ultra


è quell'aspetto che mi preoccupa, ho il timore che visto il probabile prezzo elevato di fermi le ati nn calino di una virgola, anzi...e mi preoccupa anche la scalabilità del chip

Sergio_Di_Rio
20-01-2010, 20:33
cmq se non avesse vinto la scimmia tornando indietro sarei rimasto con la 4870 e poi all'uscita di Fermi avrei deciso il da farsi :stordita:

Sì, sarebbe stata sicuramente la cosa più sensata. Ma sò che a volte la scimmia è inevitabile...è più forte di noi...:asd:



http://www.pctunerup.com/up/results/_201001/20100120203306_scimmia_ati_sergiodirio.jpg

DukeIT
20-01-2010, 20:40
Ti converebbe comunque aspettare, adesso le HD5xx0 sono sovraprezzate, all'uscita di fermi (basta anche sulla carta) ci sarà un bel taglio...In rapporto a cosa lo dici?
Rispetto a quanto c'è ora nel mercato, sono quelle che costano meno pur essendo più potenti (senza contare dx11, consumi e tutto il resto).
Se lo dici rispetto a quanto si è visto negli ultimi anni a livello di VGA "top", è chiaro che stai "sbagliando".

Infine non penso tu lo dica in previsione di una Nvidia potentissima a prezzi stracciati, in primo luogo perchè non è nelle consuetudini Nvidia, in secondo luogo perchè non ci sono i presupposti; non si sa ancora come andranno e quanto costeranno le Nvidia e se si dovesse fare una previsione allo stato attuale, non penso proprio che i prezzi attuali di ATI potrebbero essere definiti alti.

Quindi in base a quale parametro i prezzi di una HD5850 o di una HD5870 possono venire definiti alti?

cd125
20-01-2010, 20:41
il punto è che non è elevato il prezzo delle ati, perchè 250 euro li vale tutti la 5850, è elevato il prezzo della gtx285 che sta ancora a 310 euro e non sembra soffrire della concorrenza della 5850 mantenendo il suo prezzo invariato nonostante una scheda da 60 euro in meno(che non sono pochi) vada con le stesse prestazioni, diciamo che Nvidia non ha voluto abbassare i prezzi della GTX2xx e questo ha comportato uno stagnamento dei prezzi delle HD58xx che al momento sono ultra competitive dato che chi ha un budget dai 250 euro in più nn ci pensa neanche all'alternativa nvidia che costa di più, va di meno, consuma di più e nn ha dx11

PConly92
20-01-2010, 20:50
vedremmo quanto costerà fermi:asd:
facciamo sui 500-600 euro singola gpu?oppure 700 stile 8800 ultra
ma non so perché vi lamentate...:mad:
se nvidia avesse lanciato per prima le schede dx11 secondo te quanto la pagheresti adesso una scheda nvidia con prestazioni diciamo simili alla hd5850? SICURAMENTE NON 250 MA SUI 600:read:
io invece di lamentarmi ringrazierei ati per gli ottimi prezzi delle nuove schede dx11;)
ps. non mi riferisco solo a te ma a molti che ho visto dire: ""ati costa troppo 250 per un scheda non li spendo...etc" ma prima con g80 dove vi faceva pagare 600-700 euro a scheda non le sentivo ste lamentele, chissà perché...:doh:
ps2. anche ati si trova senza concorrenza ma non alza a dismisura i prezzi;)...

In rapporto a cosa lo dici?
Rispetto a quanto c'è ora nel mercato, sono quelle che costano meno pur essendo più potenti (senza contare dx11, consumi e tutto il resto).
Se lo dici rispetto a quanto si è visto negli ultimi anni a livello di VGA "top", è chiaro che stai "sbagliando".

Infine non penso tu lo dica in previsione di una Nvidia potentissima a prezzi stracciati, in primo luogo perchè non è nelle consuetudini Nvidia, in secondo luogo perchè non ci sono i presupposti; non si sa ancora come andranno e quanto costeranno le Nvidia e se si dovesse fare una previsione allo stato attuale, non penso proprio che i prezzi attuali di ATI potrebbero essere definiti alti.

Quindi in base a quale parametro i prezzi di una HD5850 o di una HD5870 possono venire definiti alti?

io l'ho detto ma qui, a certi non piace sentire cose negative su nvidia:rolleyes:
dobbiamo solo ringraziare ati non criticarla perché se non ci fosse stata lei a fare concorrenza con nvidia ora staremmo a pagare 500 euro il solito rembranding nvidia (cioè truffa)
ps. certo che nvidia fa schede buone ma costa un botto (non sempre in relazione alle prestazioni) e cerca sempre di fregare i meno informati:mad: ma purtroppo questa è la verità

Cicciuzzone
20-01-2010, 20:59
è quell'aspetto che mi preoccupa, ho il timore che visto il probabile prezzo elevato di fermi le ati nn calino di una virgola, anzi...e mi preoccupa anche la scalabilità del chip

E se Fermi fosse un flop totale? ATI aumenterebbe i prezzi attuali! :stordita:

DVD2005
20-01-2010, 21:00
E se Fermi fosse un flop totale? ATI aumenterebbe i prezzi attuali! :stordita:

mmm non penso li aumenti, al limite li terrebbe invariati. credo.

ghiltanas
20-01-2010, 21:01
E se Fermi fosse un flop totale? ATI aumenterebbe i prezzi attuali! :stordita:

quella è l'ipotesi + estrema, e spero che nessuno con un minimo di senno se lo auguri..la concorrenza + o meno ci vuole, la totale assenza o quasi porta i prezzi a valori stellari :(

PConly92
20-01-2010, 21:02
E se Fermi fosse un flop totale? ATI aumenterebbe i prezzi attuali! :stordita:

ma lì può alzare anche adesso perché e in assenza di concorrenza, ma non lo fa e si tiene i suoi piccoli prezzi-paragonati alle prestazioni-consumo etc
secondo te nvidia cosa avrebbe fatto al posto di ati?