PDA

View Full Version : GeForce GTX 280 Extreme in arrivo


Redazione di Hardware Upg
14-07-2008, 16:32
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-280-extreme-in-arrivo_25964.html

Appare su un sito ecommerce inglese la scheda tecnica di una particolare scheda Leadtek: che sia basata su GPU GT200b a 55 nanometri

Click sul link per visualizzare la notizia.

okorop
14-07-2008, 16:36
Scheda video inutile sia per il costo sia per le prestazioni.....la 4870x2 se la mangia a colazione

Florio
14-07-2008, 16:44
Dai su, anche qua questo senzazionalismo su UNA scheda di UN produttore in UN negozio :\
Cerchiamo di essere realisti, è un errore, lo shader clock è a 1566MHz (anche perchè 1666 non è una frequenza ottenibile con il clock generator delle GTX), si tratta semplicemente di chip selezionati che reggono frequenze di clock sì alte ma che sono già state ottenute in overclock da alcuni esemplari.

Mi sembra veramente incredibile come questa notizia completamente campata in aria al solito di fudzilla/theinquirer sia riuscita a prendere piede.

Kuarl
14-07-2008, 16:47
@Florio
io vedo un incremento di clock di circa il 30% di picco senza toccare il sistema di dissipazione. Vedo inoltre che tale scheda è disponibile in preorder presso il sito del produttore (e quindi non è un rumors).

I redattori qui hanno quindi dedotto l'utilizzo di un processo produttivo più raffinato. Una nuova release più efficiente del chip mi sembra abbastanza per giustificare la news. Poi se te vuoi sempre star li a criticare fai pure.

appleroof
14-07-2008, 16:48
Dai su, anche qua questo senzazionalismo su UNA scheda di UN produttore in UN negozio :\
Cerchiamo di essere realisti, è un errore, lo shader clock è a 1566MHz (anche perchè 1666 non è una frequenza ottenibile con il clock generator delle GTX), si tratta semplicemente di chip selezionati che reggono frequenze di clock sì alte ma che sono già state ottenute in overclock da alcuni esemplari.

Mi sembra veramente incredibile come questa notizia completamente campata in aria al solito di fudzilla/theinquirer sia riuscita a prendere piede.

in effetti....mah, vediamo mi sembra troppo presto per i 55nm su gt200 (perchè non lanciarla direttamente così?)

sarà una versione magari con chip selezionati e leggero overvolt, stile 88gtx/88ultra...

brandondarkness
14-07-2008, 16:52
Se poi il prezzo resterà uguale a quello della versione standard o di poco superiore io un pensierino ce lo faccio.
Non posso prendere ATI per motivi legati a eventuali SLI (ho un chipset Nforce), ed essendo rivenditore riesco a pagarla ancora meno del prezzo al pubblico.
Quando si sapranno i prezzi vedrò il dafarsi, per il momento mi tengo stretta la mia Ultra che fà ancora in suo sporco lavoro.
Complimenti comunque per la notizia.

Denny21
14-07-2008, 16:53
è il meglio che possa fare adesso.
Abbassare il processo produttivo, alzare i clock e rifare tutto dacapo

Florio
14-07-2008, 16:56
@Florio
io vedo un incremento di clock di circa il 30% di picco senza toccare il sistema di dissipazione. Vedo inoltre che tale scheda è disponibile in preorder presso il sito del produttore (e quindi non è un rumors).

I redattori qui hanno quindi dedotto l'utilizzo di un processo produttivo più raffinato. Una nuova release più efficiente del chip mi sembra abbastanza per giustificare la news. Poi se te vuoi sempre star li a criticare fai pure.
O forse anche le tue sono le conclusioni affrettate che molti siti stanno riportando. Cerchiamo di aprire gli occhi per cortesia.

Viene prodotta una nuova versione del chip e la si ritrova di soquatto, prodotta da un solo partner ed in vendita in un solo negozio?
Con frequenze sì elevate ma che (shader clock a parte) sono già state raggiunte con il dissipatore stock e alle quali molte altre soluzioni pre-overclocked si avvicinano molto?
La cui frequenza degli shader, per l'appunto l'unica al momento mai raggiunta da alcuno, non è supportata dal clock generator (che sulle GTX va a multipli di 54) quando stranamente sostituendo un 5 al 6 si ottiene una frequenza sia supportata dal clock generator di queste schede (1566) che già stata raggiunta da alcuni esemplari fortunati?

No ma sicuramente è così, decisamente più probabile che questo sia G200b a 55 nanometri e che Leadtek ne abbia ottenuto l'esclusiva per la Gran Bretagna piuttosto che si tratti di un impensabile errore di trascrizione da 1566 a 1666 :rolleyes:
Come non complimentarsi per le capacità di deduzione che vanti, stupido io a pensare il contrario :rolleyes:

Severnaya
14-07-2008, 16:57
eeeeeeh ne sentivamo proprio la mancanza di una scheda come questa

okorop
14-07-2008, 17:03
è il meglio che possa fare adesso.
Abbassare il processo produttivo, alzare i clock e rifare tutto dacapo

secondo me a nvidia basta abbassare il suo prezzo a 300 euro.......:asd:
poi ha senso ma gia che la gtx280 costa 450 euro questa qui torna a acostare piu di 500 euro....inutile a quel prezzo perche c'è la morte nera :)
eeeeeeh ne sentivamo proprio la mancanza di una scheda come questa

straquoto

yossarian
14-07-2008, 17:03
questa fa il paio con la versione OC di diamond della 4870

sniperspa
14-07-2008, 17:06
Amd sti sta caccaando addosso!:O

Scusate il commendo demenziale ma era un modo come un'altro per dire che mi sembra una vga inutile...poi sarebbe da vedere pure il prezzo...

Mercuri0
14-07-2008, 17:07
Mi sembra veramente incredibile come questa notizia completamente campata in aria al solito di fudzilla/theinquirer sia riuscita a prendere piede.
ehi! io su fudzilla/theinquirer questa non l'ho vista!

Poi ultimamente quei due siti c'azzeccano sempre, e quando le sparano lo fanno in maniera così evidente che si capisce subito che "stanno scherzando".

okorop
14-07-2008, 17:10
questa fa il paio con la versione OC di diamond della 4870

la 4870 della diamond costera 250 euro e va bene ma questa costera un botto 500 euro e ben oltre, secondo me ha poco senso.....a questo punto uno ne prende una con clock a default e la mette a liquido e la porta alle frequenze di questa occata ......

Mercuri0
14-07-2008, 17:11
No ma sicuramente è così, decisamente più probabile che questo sia G200b a 55 nanometri e che Leadtek ne abbia ottenuto l'esclusiva per la Gran Bretagna piuttosto che si tratti di un impensabile errore di trascrizione da 1566 a 1666 :rolleyes:
Come non complimentarsi per le capacità di deduzione che vanti, stupido io a pensare il contrario :rolleyes:
Invece fila tutto: tra le altre sboronaggini nVidia recentemente aveva detto che "solo i britannici acquistano ATI".

Quindi è ovvio che lanci il chip a 55nm in sordina in Gran Bretagna... lì la situazione è peggiore :D

Scherzi a parte, ti do ragione. L'unico scenario per cui nVidia potrebbe voler lanciare i 55 in sordina è che vuole montarli sulle GTX attuali senza lanciar nuovi prodotti.

Faustinho DaSilva
14-07-2008, 17:12
si sentiva la necessità di una versione EXTREME ;D.... Mi chiedo quando uscirà una gt280gx2 ;D

okorop
14-07-2008, 17:13
Invece fila tutto: tra le altre sboronaggini nVidia recentemente aveva detto che "solo i britannici acquistano ATI".

Quindi è ovvio che lanci il chip a 55nm in sordina in Gran Bretagna... lì la situazione è peggiore :D

Scherzi a parte, ti do ragione. L'unico scenario per cui nVidia potrebbe voler lanciare i 55 in sordina è che vuole montarli sulle GTX attuali senza lanciar nuovi prodotti.

nvidia a livello tecnologico è sempre indietro.....gia a gennaio avremo le 58x0 a 45 nm.......:) e nvidia a rincorrere con dx10.1 e 55nm....

gianni1879
14-07-2008, 17:13
questa fa il paio con la versione OC di diamond della 4870

si tratta realmente di chip selezionati o di 55nm, anche se davvero mi sembra mooolto presto non si trovano ancora le 9800gtx+

okorop
14-07-2008, 17:14
si tratta realmente di chip selezionati o di 55nm, anche se davvero mi sembra mooolto presto non si trovano ancora le 9800gtx+

sempre 65nm......

Rotzcha
14-07-2008, 17:14
Originariamente inviato da: Florio
No ma sicuramente è così, decisamente più probabile che questo sia G200b a 55 nanometri e che Leadtek ne abbia ottenuto l'esclusiva per la Gran Bretagna piuttosto che si tratti di un impensabile errore di trascrizione da 1566 a 1666
Come non complimentarsi per le capacità di deduzione che vanti, stupido io a pensare il contrario


Invece fila tutto: tra le altre sboronaggini nVidia recentemente aveva detto che "solo i britannici acquistano ATI".

Quindi è ovvio che lanci il chip a 55nm in sordina in Gran Bretagna... lì la situazione è peggiore

Scherzi a parte, ti do ragione. L'unico scenario per cui nVidia potrebbe voler lanciare i 55 in sordina è che vuole montarli sulle GTX attuali senza lanciar nuovi prodotti.


Questo commento è pura fantascienza. Credi davveroa quello che scrivi?

halduemilauno
14-07-2008, 17:15
è il meglio che possa fare adesso.
Abbassare il processo produttivo, alzare i clock e rifare tutto dacapo

le prime due certo che si. in quanto al resto il chip gt200 ha dimostrato di essere validissimo(praticamente di fatto il + potente che esiste)e quindi ma quale tutto dacapo? oltre che in quei due campi specifici deve lavorare sul fronte prezzi e lavorando sul fronte costi questo le sarà più agevole farlo.
e gia adesso la si trova sui 380€.
per il resto non so se questo modello sia gia a 55nm non credo, non mi risulta. credo che le versioni a 55nm siano/saranno dotate di frequenze ancor + superiori.
imho.

Florio
14-07-2008, 17:18
Attenzione non confondiamo le due cose: che G200b esista è un dato di fatto (anche perchè ha fatto il tape out il mese scorso), semplicemente questa Leadtek è impossibile che ne monti uno per ragioni più che evidenti.

sniperspa
14-07-2008, 17:18
nvidia a livello tecnologico è sempre indietro.....gia a gennaio avremo le 58x0 a 45 nm.......:) e nvidia a rincorrere con dx10.1 e 55nm....

Dubito che ricorrerà a dx10.1 nvidia...

gianni1879
14-07-2008, 17:18
sempre 65nm......

infatti è quelllo che penso io, però tutti abboccano alle news senza nemmeno rifletterci un pò

Dev42
14-07-2008, 17:20
Ecco voglio vedere adesso queste in un Triplo SLI cosa consumano....
Pover alimentatore da 1600watt:sofico: è poco che cè e gia non serve più:asd: :asd: :asd: :asd:

appleroof
14-07-2008, 17:21
infatti è quelllo che penso io, però tutti abboccano alle news senza nemmeno rifletterci un pò

come se poi fosse un singolo dato in sè a fare la differenza :asd:

okorop
14-07-2008, 17:24
Dubito che ricorrerà a dx10.1 nvidia...

è un errore secondo me dovrebbe andare a 55nm al piu presto e far uscire le gts velocemente a prezzi concorrenziali se no mi sa che ha toppato questa volta......speravano che fosse come 2 anni fa la situazione ma ati per fortuna si è svegliata

Denny21
14-07-2008, 17:27
le prime due certo che si. in quanto al resto il chip gt200 ha dimostrato di essere validissimo(praticamente di fatto il + potente che esiste)e quindi ma quale tutto dacapo? oltre che in quei due campi specifici deve lavorare sul fronte prezzi e lavorando sul fronte costi questo le sarà più agevole farlo.
e gia adesso la si trova sui 380€.
per il resto non so se questo modello sia gia a 55nm non credo, non mi risulta. credo che le versioni a 55nm siano/saranno dotate di frequenze ancor + superiori.
imho.

rifanno da capo,credi che il prossimo chip sia ancora monolitico ,piu'grande e assetato di energia?
A me non piace SLI e Crossfire,,comunque .
la strada intrapresa sembra quella del Prescott.
Rifaranno da capo sull'esempio del Conroe.

gianni1879
14-07-2008, 17:29
come se poi fosse un singolo dato in sè a fare la differenza :asd:

cioè??? :D

halduemilauno
14-07-2008, 17:33
rifanno da capo,credi che il prossimo chip sia ancora monolitico ,piu'grande e assetato di energia?
A me non piace SLI e Crossfire,,comunque .
la strada intrapresa sembra quella del Prescott.
Rifaranno da capo sull'esempio del Conroe.

il g200 a 55nm è identico a quello da 65nm tranne ovviamente le dimensioni. tu di cosa stavi parlando? del gt300? credo stesso schema ma con pp ancor + ridotto si parla di 45nm ma credo che invece sia/sarà a 40nm.
cose del 2009.
vedremo.

bs82
14-07-2008, 17:34
eppure le prende sempre sonoramente da r700..... :-)

yossarian
14-07-2008, 17:37
si tratta realmente di chip selezionati o di 55nm, anche se davvero mi sembra mooolto presto non si trovano ancora le 9800gtx+

chip selezionati, come per la 4870 di diamond

appleroof
14-07-2008, 17:37
cioè??? :D

chissene se è a 55nm o 170nm :D , l'importante è il risultato complessivo finale (guarda g80 90nm vs rv670 55nm, per fare un esempio lampante....)

Denny21
14-07-2008, 17:43
il g200 a 55nm è identico a quello da 65nm tranne ovviamente le dimensioni. tu di cosa stavi parlando? del gt300? credo stesso schema ma con pp ancor + ridotto si parla di 45nm ma credo che invece sia/sarà a 40nm.
cose del 2009.
vedremo.

si,del Gt 300.

cose del 2009

in cantiere oggi.

IMHO preferisco l'approccio di nvidia,o comunque un singlechip.
non mi piace pendere dai driver e il multigpu non scala mai perfettamente.

halduemilauno
14-07-2008, 17:45
si,del Gt 300.



in cantiere oggi.

IMHO preferisco l'approccio di nvidia,o comunque un singlechip.
non mi piace pendere dai driver e il multigpu non scala mai perfettamente.

certo in cantiere oggi. per il resto mi trovi d'accordo.

okorop
14-07-2008, 17:48
si,del Gt 300.




IMHO preferisco l'approccio di nvidia,o comunque un singlechip.
non mi piace pendere dai driver e il multigpu non scala mai perfettamente.

guarda che se nei giochi il crossfire fa piu di 100 fps chissene dei cali di frame rate perche sopra i 60 fps non te ne accorgi.....:)

sna696
14-07-2008, 17:48
certo, quello che compreremo fra 2 anni e che magari creeranno scalpore sono disegni e progetti che sono stati iniziati adesso se non anni prima...

Dev42
14-07-2008, 17:49
IMHO preferisco l'approccio di nvidia,o comunque un singlechip.
non mi piace pendere dai driver e il multigpu non scala mai perfettamente.

Quoto la gestione di una singola Gpu è sempre più semplice, anche se il futuro potrebbe come gia a volte hanno ipotizzato essere multigpu , come i dual e i quad core....

Steel89
14-07-2008, 18:00
Preferisco aspettare la GeForce GTX 280 Hyper :O

Denny21
14-07-2008, 18:00
guarda che se nei giochi il crossfire fa piu di 100 fps chissene dei cali di frame rate perche sopra i 60 fps non te ne accorgi.....:)

non mi riferisco a quello infatti.

Wilfrick
14-07-2008, 18:02
nvidia a livello tecnologico è sempre indietro.....gia a gennaio avremo le 58x0 a 45 nm.......:) e nvidia a rincorrere con dx10.1 e 55nm....

ma come fai a dire una cosa del genere??? va bene essere simpatizzante di ati, ma non inventare le cose. Per 2 anni ati non vedeva nvidia nemmeno con il binocolo, adesso riesce ad eguagliare le prestazioni della 280 (non capisco dove alcuni possano vedere le ati così avanti alle nvidia come prestazioni), sono lì lì. Poi certo una costa molto di più, ma non mi sembra che "tecnologicamente" una sia migliore. Anzi, se proprio si vuole parlare di livello tecnologico allora nvidia è superiore visto che con un singolo chip può fare ciò che ati fa con 2. Così mi sembra.

appleroof
14-07-2008, 18:13
ma come fai a dire una cosa del genere??? va bene essere simpatizzante di ati, ma non inventare le cose. Per 2 anni ati non vedeva nvidia nemmeno con il binocolo, adesso riesce ad eguagliare le prestazioni della 280 (non capisco dove alcuni possano vedere le ati così avanti alle nvidia come prestazioni), sono lì lì. Poi certo una costa molto di più, ma non mi sembra che "tecnologicamente" una sia migliore. Anzi, se proprio si vuole parlare di livello tecnologico allora nvidia è superiore visto che con un singolo chip può fare ciò che ati fa con 2. Così mi sembra.

come sei buono :D

okorop
14-07-2008, 18:16
come sei buono :D

non lavoro per ati state tranquilli :)
pero aspettavo un g92 potente e niente la gtx260 mi ha deluso e quindi io aspetto le gts280 e gts260 per vedere il quadro completo della situazione anche se per adesso secondo me per prezzo-prestazioni ati è nettamente avanti e anche tecnologicamente; ddr5 gpu a 55nm e dx10.1......:)

appleroof
14-07-2008, 18:18
non lavoro per ati state tranquilli :)
pero aspettavo un g92 potente e niente la gtx260 mi ha deluso e quindi io aspetto le gts280 e gts260 per vedere il quadro completo della situazione anche se per adesso secondo me per prezzo-prestazioni ati è nettamente avanti e anche tecnologicamente; ddr5 gpu a 55nm e dx10.1......:)

diciamo che se la tecnologia è fine a se stessa non conta nulla (vedi le 2900xt ma sopratutto le 38x0, pietose)

e diciamo pure che per adesso le vga Ati hanno il migliore rapporto prezzo/prestazioni (rv770 finalmente non è solo tecnologico, ma anche prestante), anche se questo punto a favore (imho l'unico ad oggi) si stà assotigliando sempre più (e noi tutti ci godiamo :D )

Aegon
14-07-2008, 18:42
ma come fai a dire una cosa del genere??? va bene essere simpatizzante di ati, ma non inventare le cose. Per 2 anni ati non vedeva nvidia nemmeno con il binocolo, adesso riesce ad eguagliare le prestazioni della 280 (non capisco dove alcuni possano vedere le ati così avanti alle nvidia come prestazioni), sono lì lì. Poi certo una costa molto di più, ma non mi sembra che "tecnologicamente" una sia migliore. Anzi, se proprio si vuole parlare di livello tecnologico allora nvidia è superiore visto che con un singolo chip può fare ciò che ati fa con 2. Così mi sembra.

Non è esatto. la 4870x2 perde solo contro due GTX280 in SLI. Ma al prezzo di quello SLI fai un Crossfire con due 4870x2.

Quello che non capisco è come faccia nVidia a giustificare i suoi prezzi quando le concorrenti vanno palesemente meglio e costano molto meno. Dicono che la GTX280 ha subito un taglio di prezzo, ma nei negozi è tutt'ora, la meno cara (Asus) a 420€.

halduemilauno
14-07-2008, 18:46
Non è esatto. la 4870x2 perde solo contro due GTX280 in SLI. Ma al prezzo di quello SLI fai un Crossfire con due 4870x2.

Quello che non capisco è come faccia nVidia a giustificare i suoi prezzi quando le concorrenti vanno palesemente meglio e costano molto meno. Dicono che la GTX280 ha subito un taglio di prezzo, ma nei negozi è tutt'ora, la meno cara (Asus) a 420€.

http://www.trovaprezzi.it/categoria.aspx?libera=gtx280&id=28&prezzoMin=&prezzoMax=&sbox=sb

M4R1|<
14-07-2008, 19:25
:eek: alla Leadtek hanno avuto l'esclusiva di un chip che per il momento nn è nemmeno in produzione :asd:
saranno semplicemente delle GTX 280 molto selezionate tutto qua... stile 8800 ultra ;)
cmq inutile la 4870x2 se la fuma cmq :asd:

appleroof
14-07-2008, 19:30
:eek: alla Leadtek hanno avuto l'esclusiva di un chip che per il momento nn è nemmeno in produzione :asd:
saranno semplicemente delle GTX 280 molto selezionate tutto qua... stile 8800 ultra ;)
cmq inutile la 4870x2 se la fuma cmq :asd:

si ma il fumo fà male....:read: :D

Matrix_Genesis
14-07-2008, 22:22
ma come fai a dire una cosa del genere??? va bene essere simpatizzante di ati, ma non inventare le cose. Per 2 anni ati non vedeva nvidia nemmeno con il binocolo, adesso riesce ad eguagliare le prestazioni della 280 (non capisco dove alcuni possano vedere le ati così avanti alle nvidia come prestazioni), sono lì lì. Poi certo una costa molto di più, ma non mi sembra che "tecnologicamente" una sia migliore. Anzi, se proprio si vuole parlare di livello tecnologico allora nvidia è superiore visto che con un singolo chip può fare ciò che ati fa con 2. Così mi sembra.

Quoto :)

Se si esclude il costo delle schede, con una singola GPU, il chip nvidia è più performante di un unico chip ATI. Penso che si debba elogiare ATI per l'uso di processi produttivi sempre migliori e l'impiego delle GDDR5 (e mettiamoci anche i prezzi :)).

Inoltre ritengo che, anche se le due case adottano architetture non comparabili perchè utilizzano differenti stream processor e differenti restanti componenti, l'architettura nvidia sia più efficiente rispetto a quella ATI. Diamo uno sguardo all'incremento delle SP da una generazione all'altra:

Nvidia da 128 a 240
ATI da 320 a 800

Nvidia ottiene un notevole incremento prestazionale con meno della metà di SP in aggiunta. Ati conta un incremento di 320 x 2.5 SP. Per questo motivo ritengo che l'architettura nvidia sia più efficiente. E' notevole, d'altro canto, che ATI con la nuova GPU riesca ad assorbire un minore quantitativo di energia rispetto a nvidia.

In conclusione...viva la concorrenza :)

PS: Parole di "simpatizzante" ATI (9700Pro Rulez :))

moddingpark
14-07-2008, 23:15
Ah, finalmente si è arrivati a dire delle cose serie... Meno male che dopo una pagina si arriva a leggere cose sensate...
Ma ora mi chiedo una cosa: come mai ATI, dopo aver piazzato ben 800 shader processor e un grosso quantitativo di ram GDDR5 sulla nuova HD 4870, non è ancora riuscita a superare in prestazioni le ultime nate di casa nVidia?
Voglio dire, non sono gli shader processors a contare di più nei videogiochi di ultima generazione?
Sarà colpa del bus ristretto rispetto ai modelli di punta di nVidia? Delle frequenze?

A me non interessa chi abbia la meglio tra i due, l'importante è che esistano sempre una fascia bassa, una media ed una alta per questo tipo di hardware, in modo da favorire (in un modo o nell'altro) qualsiasi tipo di acquirente.

Aegon
15-07-2008, 00:27
@halduemilauno: si me ne sono accorto, avevo corretto un altro post dimenticando questo. Su eBay si trova anche a 372€
In ogni caso meglio 400 per una 4870x2 che 375 (+ s.s.) per una gtx280.

Non discuto sul livello tecnologico delle due case, visto che mi occupo di telco e non di microelettronica, però a conti fatti Ati conviene definitivamente. Poi credo che la valutazione prestazionale del singolo chip al momento sia falsata dalla scarsa qualità dei drivers (Ati)

Che il costo sia dovuto alle diverse tecniche di fabbricazione o al marchio, quello che interessa (imho) è il rapporto prezzo prestazioni. Se vuoi il massimo, per quello che costa un gtx280 SLI puoi fare benissimo un CF 4870x2 (nettamente superiore). Ma questo è un bene, perchè altalenando il mercato ci guadagnamo noi.

I problemi nascono quando c'è il monopolio, anche se temporaneo.

Nino Grasso
15-07-2008, 00:38
Ma pensate davvero che una HD4870x2 vada più forte di una GTX280 in media? :|

Nelle recensioni sono apparsi solo titoli che favoriscono l'architettura ATi e per di più particolarmente efficienti sotto il profilo delle MultiGPU (sotto richiesta esplicita di ATi?). MEDIAMENTE la situazione non è così rose e fiori, ve lo dice uno che ci bazzica con soluzioni MultiGPU da un po' di tempo.

Secondo me se si fa una media fra una decina di giochi la GTX280 ha prestazioni mediamente superiori. Ci sono alcuni articoli su internet in cui vengono analizzate delle soluzioni MultiGPU CF e SLi, e i risultati sono davanti agli occhi di tutti.

Tra l'altro anche su HWUpgrade è comparsa una comparativa fra le varie soluzioni single e multigpu. Due HD4870 in CF andavano mediamente dal 10 al 20% in più rispetto ad una GTX280. Da queste ultime recensioni sembra che vadano il doppio (come ho detto prima, forse perché sono stati selezionati accuratamente i titoli da recensire?).

FJ_22
15-07-2008, 07:30
Ma pensate davvero che una HD4870x2 vada più forte di una GTX280 in media? :|
http://www.hwupgrade.it/articoli/skvideo/2007/ati-radeon-hd-4870-x2-r700-in-preview_index.html
guarda un po i benchmark, la 4870x2 sta sopra alla 280 :read:
....però mi delude la 9800gx2 :mbe:


Nelle recensioni sono apparsi solo titoli che favoriscono l'architettura ATi e per di più particolarmente efficienti sotto il profilo delle MultiGPU (sotto richiesta esplicita di ATi?). MEDIAMENTE la situazione non è così rose e fiori, ve lo dice uno che ci bazzica con soluzioni MultiGPU da un po' di tempo.

mmmm credo si arrivi fin sto punto :eek:
ma poi è da dire che molti giochi d'oggi sono stati sviluppati con schede video nvidia (il loghetto nvidia nell'intro del gioco è a conferma) e quindi progettare e sviluppare giochi che favoriscano la sch. video avversarie mi sembra una stupidaggine :fagiano:
secondo me bisogna dire che in questo contesto la Ati ha lavorato meglio della nvdia

halduemilauno
15-07-2008, 08:01
Ma pensate davvero che una HD4870x2 vada più forte di una GTX280 in media? :|

Nelle recensioni sono apparsi solo titoli che favoriscono l'architettura ATi e per di più particolarmente efficienti sotto il profilo delle MultiGPU (sotto richiesta esplicita di ATi?). MEDIAMENTE la situazione non è così rose e fiori, ve lo dice uno che ci bazzica con soluzioni MultiGPU da un po' di tempo.

Secondo me se si fa una media fra una decina di giochi la GTX280 ha prestazioni mediamente superiori. Ci sono alcuni articoli su internet in cui vengono analizzate delle soluzioni MultiGPU CF e SLi, e i risultati sono davanti agli occhi di tutti.

Tra l'altro anche su HWUpgrade è comparsa una comparativa fra le varie soluzioni single e multigpu. Due HD4870 in CF andavano mediamente dal 10 al 20% in più rispetto ad una GTX280. Da queste ultime recensioni sembra che vadano il doppio (come ho detto prima, forse perché sono stati selezionati accuratamente i titoli da recensire?).

sono d'accordo con te sull'aspettare rece esaustive e che magari forniscono un riassunto delle prestazioni tanto chiarificatore ma che in media ovvero a carattere generale la 4870x2 sia superiore alla gtx280 credo che dubbi non se ne possono avere.
tocca aspettare.

MarkManson
15-07-2008, 08:33
Chissà come andrà questa scheda.....Io xò sono contento che dopo anni Ati finalmente stia ritornando ai massimi livelli! Ormai, d'altro canto, trovo patetica nvidia che cerca in ogni modo di "Accaparrare Soldi" non implementando nulla,rilasciando schede tecnologie "vecchie" solo con nomi e processi produttivi diversi...

Dopo anni di silenzio Ati ha sfornato qualcosa che credo rivoluzionerà il mercato...Un po come un tempo fece con le 9700 e 9800pro e Xt e poi con le x800 e 850....quandi ATI era lo standard...Qualità e velocità superiore......Un po come nvidia con la serie 6800....

al135
15-07-2008, 08:50
Ma pensate davvero che una HD4870x2 vada più forte di una GTX280 in media? :|

Nelle recensioni sono apparsi solo titoli che favoriscono l'architettura ATi e per di più particolarmente efficienti sotto il profilo delle MultiGPU (sotto richiesta esplicita di ATi?). MEDIAMENTE la situazione non è così rose e fiori, ve lo dice uno che ci bazzica con soluzioni MultiGPU da un po' di tempo.

Secondo me se si fa una media fra una decina di giochi la GTX280 ha prestazioni mediamente superiori. Ci sono alcuni articoli su internet in cui vengono analizzate delle soluzioni MultiGPU CF e SLi, e i risultati sono davanti agli occhi di tutti.

Tra l'altro anche su HWUpgrade è comparsa una comparativa fra le varie soluzioni single e multigpu. Due HD4870 in CF andavano mediamente dal 10 al 20% in più rispetto ad una GTX280. Da queste ultime recensioni sembra che vadano il doppio (come ho detto prima, forse perché sono stati selezionati accuratamente i titoli da recensire?).

i giochi che fanno a botte ( a parte lo scandaloso crysis) con il multigpu
sono prevalentemente giochi "vecchi." e anche se sfruttassero solamente una sola gpu non ci sarabbe problema di fps visto che sarebbero cmq tanti.
non verrai mica a dirmi che oblivion ha problema con questa scheda? :)
sicuramente bisognera' aspettare altre recensioni pero' l'aria è buona :) molto buona e sara' sempre meglio. un po come i dual core... all'inizio inutili.. "ma che ci fai con un dual se non ci sono applicazioni che lo sfruttano???"
ora ci sono i quad sfruttati e i octa alle porte.
;) il parallelismo delle cose...

yossarian
15-07-2008, 09:02
Quoto :)

Se si esclude il costo delle schede, con una singola GPU, il chip nvidia è più performante di un unico chip ATI. Penso che si debba elogiare ATI per l'uso di processi produttivi sempre migliori e l'impiego delle GDDR5 (e mettiamoci anche i prezzi :)).

Inoltre ritengo che, anche se le due case adottano architetture non comparabili perchè utilizzano differenti stream processor e differenti restanti componenti, l'architettura nvidia sia più efficiente rispetto a quella ATI. Diamo uno sguardo all'incremento delle SP da una generazione all'altra:

Nvidia da 128 a 240
ATI da 320 a 800

Nvidia ottiene un notevole incremento prestazionale con meno della metà di SP in aggiunta. Ati conta un incremento di 320 x 2.5 SP. Per questo motivo ritengo che l'architettura nvidia sia più efficiente. E' notevole, d'altro canto, che ATI con la nuova GPU riesca ad assorbire un minore quantitativo di energia rispetto a nvidia.

In conclusione...viva la concorrenza :)

PS: Parole di "simpatizzante" ATI (9700Pro Rulez :))

sicuramente lo shader core di nVidia è più efficiente di quello ATi, però hai fatto male i calcoli: G80 ha 128 sp, GT200 ne ha 240, R600 ne ha 64 e RV770 160. Ovviamente si tratta di sp con architettura differente, poichè uno sp di nVidia è di tipo scalare ed uno di ATi di tipo vliw composto da 5 alu. Questo significa che, perchè un chip ATi raggiunga la massima efficienza, ogni sp deve lavorare su 5 istruzioni non dipendenti facenti parte dello stesso thread. Al contrario, ogni sp dei chip nVidia lavora su una singola istruzione scalare. Il vantaggio di questo approccio è che si mantiene sempre un'efficienza complessiva molto elevata; lo svantaggio è che la logica di controllo di ogni sp è molto complessa e si necessità di molti più registri rispetto a quelli che servono a sp di tipo vliw. Conclusione, lo shader core dei chip nVidia occupa molto più spazio di quello dei chip ATi, pur avendo un numero inferiore di alu (ma un numero superiore di sp). Con il codice attualmente in uso nei giochi, si tende a ricorrere a istruzioni di tipo vettoriale nelle operazioni geometriche (dove, infatti, i chip ATi sono molto più veloci di quelli nVidia) e ad istruzioni di tipo scalare, molte delle quali dipendenti da altre, con quelle di pixel shading (motivo per cui vanno meglio i chip nVidia). Altro vantaggio dell'approccio di ATi è che ogni sp può emulare un'alu fp64; alcontrario, per far eseguire calcoli in dp nei suoi chip, nVidia ha dovuto introdurre una alu "fisica" di tipo fp64, con relatiiv registri e logica di controllo, per ogni cluster di alu fp32 (con ulteriore occupazione di spazio). Infine c'è da considerare la compatibilità con le DX10.1 che i chip ATi hanno e quelli nVidia no; questo significa che con l'adozione di queste api o delle successive dx11, i chip ATi potranno beneficiare dell'impiego di algoritmi di filtraggio non lineari implementati via shader (che aumenteranno l'efficienza dello shader core aumentando il numero di micro istruzioni per thread) e della possibilità di utilizzare più render target per lo shader core e per le RBE, riducendo il numero di passaggi di rendering per effettuare operazioni tipo applicazione del MSAA. Questo senza contare che i chip ATi hanno già da R600 il tessellator in HW (il che va anche oltre le specifiche DX10.1)

Ah, finalmente si è arrivati a dire delle cose serie... Meno male che dopo una pagina si arriva a leggere cose sensate...
Ma ora mi chiedo una cosa: come mai ATI, dopo aver piazzato ben 800 shader processor e un grosso quantitativo di ram GDDR5 sulla nuova HD 4870, non è ancora riuscita a superare in prestazioni le ultime nate di casa nVidia?


si potrebbe anche ribaltare la domanda: come mai GT200 è grande più del doppio rispetto a RV770 e va, in media, solo un 10-12% in più dove il secondo non è limitato dai soli 512 MB di frame buffer. In quanto alla ram, finora si sono visti sample di 4870 con "soli" 512 MB di ram contro sample di GT200 con 1024 MB di ram (in versione 280) e 896 MB (in versione 260).


Voglio dire, non sono gli shader processors a contare di più nei videogiochi di ultima generazione?


dipende: molti giochi fanno ancora ampio uso di operazioni di texturing e di dependent read che favoriscono l'architettura dei chip nVidia


Sarà colpa del bus ristretto rispetto ai modelli di punta di nVidia? Delle frequenze?


da come si comportano i chip con i filtri, sembrerebbe che RV770 non accusi particolari problemi di banda passante; semmai, alle alte risoluzioni e con i filtri attivi, risente dei "soli" 512 MB di ram. In quanto alle frequenze, avendo tante alu non c'è necessità di tenere alte le frequenze dello shader core (come avviene per i chip nVidia) mentre, ad esempio la texture unit o le RBE lavorano a frequenze maggiori rispetto a quelle di GT200

Ma pensate davvero che una HD4870x2 vada più forte di una GTX280 in media? :|



tu no?

Aegon
15-07-2008, 11:27
sicuramente lo shader core di nVidia è più efficiente di quello ATi, però hai fatto male i calcoli: G80 ha 128 sp, GT200 ne ha 240, R600 ne ha 64 e RV770 160. Ovviamente si tratta di sp con architettura differente, poichè uno sp di nVidia è di tipo scalare ed uno di ATi di tipo vliw composto da 5 alu. Questo significa che, perchè un chip ATi raggiunga la massima efficienza, ogni sp deve lavorare su 5 istruzioni non dipendenti facenti parte dello stesso thread. Al contrario, ogni sp dei chip nVidia lavora su una singola istruzione scalare. Il vantaggio di questo approccio è che si mantiene sempre un'efficienza complessiva molto elevata; lo svantaggio è che la logica di controllo di ogni sp è molto complessa e si necessità di molti più registri rispetto a quelli che servono a sp di tipo vliw. Conclusione, lo shader core dei chip nVidia occupa molto più spazio di quello dei chip ATi, pur avendo un numero inferiore di alu (ma un numero superiore di sp). Con il codice attualmente in uso nei giochi, si tende a ricorrere a istruzioni di tipo vettoriale nelle operazioni geometriche (dove, infatti, i chip ATi sono molto più veloci di quelli nVidia) e ad istruzioni di tipo scalare, molte delle quali dipendenti da altre, con quelle di pixel shading (motivo per cui vanno meglio i chip nVidia). Altro vantaggio dell'approccio di ATi è che ogni sp può emulare un'alu fp64; alcontrario, per far eseguire calcoli in dp nei suoi chip, nVidia ha dovuto introdurre una alu "fisica" di tipo fp64, con relatiiv registri e logica di controllo, per ogni cluster di alu fp32 (con ulteriore occupazione di spazio). Infine c'è da considerare la compatibilità con le DX10.1 che i chip ATi hanno e quelli nVidia no; questo significa che con l'adozione di queste api o delle successive dx11, i chip ATi potranno beneficiare dell'impiego di algoritmi di filtraggio non lineari implementati via shader (che aumenteranno l'efficienza dello shader core aumentando il numero di micro istruzioni per thread) e della possibilità di utilizzare più render target per lo shader core e per le RBE, riducendo il numero di passaggi di rendering per effettuare operazioni tipo applicazione del MSAA. Questo senza contare che i chip ATi hanno già da R600 il tessellator in HW (il che va anche oltre le specifiche DX10.1)



si potrebbe anche ribaltare la domanda: come mai GT200 è grande più del doppio rispetto a RV770 e va, in media, solo un 10-12% in più dove il secondo non è limitato dai soli 512 MB di frame buffer. In quanto alla ram, finora si sono visti sample di 4870 con "soli" 512 MB di ram contro sample di GT200 con 1024 MB di ram (in versione 280) e 896 MB (in versione 260).



dipende: molti giochi fanno ancora ampio uso di operazioni di texturing e di dependent read che favoriscono l'architettura dei chip nVidia



da come si comportano i chip con i filtri, sembrerebbe che RV770 non accusi particolari problemi di banda passante; semmai, alle alte risoluzioni e con i filtri attivi, risente dei "soli" 512 MB di ram. In quanto alle frequenze, avendo tante alu non c'è necessità di tenere alte le frequenze dello shader core (come avviene per i chip nVidia) mentre, ad esempio la texture unit o le RBE lavorano a frequenze maggiori rispetto a quelle di GT200



tu no?

Finalmente un Signor Post. Grazie! Mi son fatto un'idea del perchè il prezzo delle nVidia sia sensibilmente più alto; avevo pensato ad un fattore di architettura, ma non sapevo nello specifico quale fosse :)
Ecco anche svelato perchè nVidia può inserire direttamente il supporto CUDA nelle schede grafiche senza dovergli affiancare nulla.

yossarian
15-07-2008, 12:13
Finalmente un Signor Post. Grazie! Mi son fatto un'idea del perchè il prezzo delle nVidia sia sensibilmente più alto; avevo pensato ad un fattore di architettura, ma non sapevo nello specifico quale fosse :)


il fattore architetturale incide in quanto le scelte operate da nVidia la portano a realizzare chip molto più grandi e con rese produttive minori e quindi ad avere economie di scala inferiori. Al contrario, ATi che aveva già realizzato un chip con logica di controllo analoga a G80 e GT200 (R500, ovvero il chip dell'Xbox360), nel passaggio su pc e ad architetture unificate con la necessità di ricorrere ad alu di tipo scalare (e non più vettoriale come quelle di R500), per aumentare la flessibilità e quindi l'efficienza complessiva (dovendo opeare con codice non customizzato, come avviene, invece, su console), ha scartato la soluzione adottata per R500 giudicandola troppo "dispendiosa" (passando da alu vettoriali ad alu scalari aumenta notevolmente la complessità della logica di controllo) e ha optato per sp di tipo vliw che raggruppano 5 alu scalari; a livello di efficienza si tratta di una via di mezzo tra la soluzione di nVidia e quella adottata per R500, in quanto gli sp di tipo vliw possono raggiungere, in teoria, il massimo dell'efficienza anche con codice non ottimizzato (cosa impossibile con alu vettoriali), purchè il compilatore riesca a raggruppare le mini istruzioni relaitve ad uno stesso thread in un'unica macro istruzione da "dare in pasto" ad uno sp.


Ecco anche svelato perchè nVidia può inserire direttamente il supporto CUDA nelle schede grafiche senza dovergli affiancare nulla.

CUDA è uno specifico compilatore con relativi tool di programmazione sviluppato da nVidia per l'architettura delle sue GPU, che per girare su architetture differenti deve essere in parte modificato. E' basato su open64 che è un compilatore open source mutlipiattaforma (va dagli Itanium, con architettura vliw, a gli opteron all'architetture intel a 32 bit di tipo x86). A sua volta deriva da un compilatore realizzato da SGI per i MIPS R10000.
Un analogo programma per gpgpu di ATi è Close To Metal

Ginger79
15-07-2008, 14:58
Se questa news fosse confermata sarebbe una gran cosa visto cosa riesce a fare (prestazionalmente parlando) una normale GTX280 OC. L'uscita di questo nuovo gioiello contribuirebbe inoltre all'abbassamento di prezzo della scheda attuale... e la strada verso l'interno del mio case sarebbe sempre più corta.

Che periodo d'oro per il mondo delle GPU (grazie Ati) !