View Full Version : R600: benchmark e caratteristiche preliminari
Redazione di Hardware Upg
02-01-2007, 11:04
Link alla notizia: http://www.hwupgrade.it/news/skvideo/19657.html
Appaiono on line le prime informazioni, non ufficiali, sulla prossima generazione di GPU con supporto DirectX 10 sviluppata da AMD
Click sul link per visualizzare la notizia.
Dire che ci andrei molto coi piedi di piombo è un eufemismo.
Su Guru3D (http://www.guru3d.com/newsitem.php?id=4731) fanno notare qualche elemento in più sulla stimabilissima reputazione del sito level505 che tra l'altro in questo momento non è neppure visitabile.
Da Guru3D:
"Posted by Hilbert Hagedoorn on December 31, 2006 - 8:44 PM
A newly formed yet very questionable website called Level505 has posted benchmark results from AMD's upcoming ATI R600 graphics card, which is the new high-end flagship graphics card. Now before I will go into some results I have to say that everything is rather questionable. The results are all very pro-ATI and the article itself is invested with advertising. and the only article serving from that site is this ATI article. So it smells fishy ..
Next to that we checked and the domain was registered anonymously at GoDaddy. That being said ...".
Fossero veri una buona risposta di amd, sorprende soprattutto oblivion.
Sono solo informazioni preliminari (probabilmente poco attendibili) però se i numeri fossero questi mi ritengo un pelino deluso...
Speravo che R600 superasse più nettamente G80, per la concorrenza e per il fatto che IMHO è molto più costoso da realizzare (bus a 512bit e addirittura 1giga di ram) e sarà difficile che AMD riesca a fornirlo a prezzi bassi, col concreto rischio che il rapporto qualità/prezzo sia favorevole a nVidia, speravo che almeno il top performance per equilibrare il mercato, fosse di AMD/ATi.
Speriamo inanzitutto che si muovano a smerciarla...
Test veri si vedranno quando il prodotto sarà in commercio.....per il resto è tutta "fuffa" ;)
Ciauz
Se fossero questi i risultati credo che nvidia abbia fatto un gran lavorone in questi anni, considerando che che dal G70 che riesce ad arrivare prima sul mercato con disponibilità immediata. Mi aspetto molto dal refresh di G80
LOL DDR4... devo risparmiare devo risparmiare!!!!
due cose:
1) sul sito level505 ho letto che non hanno incluso fotografie della scheda perchè sarebbe riconoscibile per via di alcuni numeri seriali che ci sono appiccicati sopra... non dico photoshop, ma paint non ce l'hanno?
2) (per la redazione) a quanto si dice il nuovo crossfire funziona in configurazioni che seguono la potenza di due (2, 4, 8, 16...), non i multipli di due (2, 4, 6, 8, 10...)... c'è una bella differenza (sarebbe meglio la seconda possibilità, ovviamente, anche se non penso che ci siano nè molte persone interessate a 6 vga nè molte schede madri in grado di supportarle)...
daboss87
02-01-2007, 11:39
Hardware support for GPU clustering (any 2^n number, not limited to Dual or Quad-GPU)
COOOOOOOOOOSA?!!!! :eek: :eek: :eek:
"Compra anche tu una stazione aerospaziale con 21.434.277.342.971.197 R600 in Corssfaaaaaaaihaaaaaa!!!" :D :rotfl:
COOOOOOOOOOSA?!!!! :eek: :eek: :eek:
"Compra anche tu una stazione aerospaziale con 21.434.277.342.971.197 R600 in Corssfaaaaaaaihaaaaaa!!!" :D :rotfl:
Ehm ... 21.434.277.342.971.198 R600 ... deve essere multiplo di 2 :Prrr:
Legolas84
02-01-2007, 11:59
Triste trovata per fare un pò di pubblicità al sito...
Prosdonape
02-01-2007, 12:06
Che senso ha far uscire dopo 2 mesi la versione con GDDR4?
zanardi84
02-01-2007, 12:18
Ehm ... 21.434.277.342.971.198 R600 ... deve essere multiplo di 2 :Prrr:
Troveranno il modo di superare il crossfire con numero di schede pari.
Oppure lui è già avanti prevedendo che una r600 è dual GPU
:sofico: :sofico: :sofico:
II ARROWS
02-01-2007, 12:20
Upgrade?
Bhe, io ad 1GB di RAM Video non ci sputerei sopra... neppure a 512bit di ampiezza del BUS...
Credo che se le specifiche sono queste, sputerei sopra solamente al prezzo...
e probabilmente alle dimensioni..vedremo..
DarKilleR
02-01-2007, 12:25
però quantomento i benchmark sono fatti con cognizione di causa, si è quasi sempre superiore alla 8800 GTX...ma poi non di chissà quanto...
Quindi può pure essere un fake, ma non credo che le prestazioni finali si discostino tanto da queste...
e probabilmente alle dimensioni..vedremo..
Eggiá... chissá come vanno i lavori di ridimensionamento della scheda
halduemilauno
02-01-2007, 12:28
Che senso ha far uscire dopo 2 mesi la versione con GDDR4?
piuttosto perchè farla uscire due mesi prima con le ddr3? per porre il prima possibile un minimo di concorrenza.
;)
scusate poi x vedere tutti questi grandi effetti, come minomo bisogna avere un monitor da 24 pollici con risoluzione molto alte.... o sbaglio?
halduemilauno
02-01-2007, 12:35
scusate poi x vedere tutti questi grandi effetti, come minomo bisogna avere un monitor da 24 pollici con risoluzione molto alte.... o sbaglio?
beh certo più è elevata e meglio è. ma non parlerei di minimo 24 pollici.
;)
piuttosto perchè farla uscire due mesi prima con le ddr3? per porre il prima possibile un minimo di concorrenza.
;)
forse perché bastavano delle semplici gddr3 per superare di un 10% la top di gamma della concorrenza? ;)
mauriziofa
02-01-2007, 12:42
Al di la dei benchmark veri, falsi o presunti tali, la notizia è che la prima versione con le GDDR3 esce a Gennaio. Mi sembrava infatti strano che, come da notizie precedenti, la ATI presentasse RD600 a Marzo lasciando un vantaggio di 5 mesi a Nvidia.
Certo questo per noi videogiocatori sta a significare che le prime schede "appetibili" come prezzo, consumi, rumorosità usciranno con la seconda ondata in estate, ma è comunque una notizia positiva.
halduemilauno
02-01-2007, 12:47
forse perché bastavano delle semplici gddr3 per superare di un 10% la top di gamma della concorrenza? ;)
appunto il prima possibile un minimo di concorrenza.
Flying Tiger
02-01-2007, 13:13
appunto il prima possibile un minimo di concorrenza.
Si ma non a queste condizioni , mi piacerebbe sapere i commenti di coloro che l' acquisteranno con le DDR3 , senza parlare del prezzo chiaramente allineato con Nvidia o comunque nella fascia Top di gamma , per trovare poi , dopo due mesi , lo stesso prodotto con le DDR4 .
Se questo fare si chiama concorrenza ....e se intendono partire in questo modo , auguri , come si suol dire :rolleyes:
ohmaigod
02-01-2007, 13:39
io ci credo!!!
:sofico:
Ehm ... 21.434.277.342.971.198 R600 ... deve essere multiplo di 2 :Prrr:
e no...perchè ce ne vuole una per la fisica...quindi vengono dispari :P
cmq il sito 30 secondi fa era inaccessibile, chiuso o spostato senza redirect..visto che siamo a gennaio, e che entro questo mese dovrebbero uscire sul mercato, io aspetterò una rece seria ;)
ps fino alle serie 7 nvidia il trend era di abbassare i consumi...la serie 8 li ha aumentati in modo netto, mentre le ati erano sempre altine come consumi...ma per questo fantomatico r600 si parla di 240w di consumo? :eek: ecchè? per fare la versione mobile ti abbinano al portatile lo zainetto col battery pack?per fare quella fissa ti danno la disponibilità in base alla distanza dalla centrale enel, come per l'adsl? se sei a 4 km puoi ancora montare 2 schede video, ma se stacchi il frigo...se sei oltre i 7 km non ce la fai a metterne neanche una che ti salta il differenziale...spero vivamente che il trend di questa generazione di schede video non sia così "consumoso"...se no mi tengo la mia 7900gs, che consuma meno della 6600gt...quello è stato un passo avanti.. :rolleyes:
Non mi sembrano bench così di parte, comunquesia io aspetto che esca per poi magari pensare all'acquisto di una scheda di fascia medio alta matura, come le attuali x1900gt.
Pk77
Dumah Brazorf
02-01-2007, 14:03
Già mi sa che hanno segato brutalmente il sito!!! :asd:
Cmq vedendo gli screen sul controarticolo di Guru3D sono valori che ci possono stare considerando che quei giochi rendono meglio su hw ATI.
Corsini già si frega le mani secondo me...
Piuttosto, non avevo ancora visto il chip R600... osti sborda dal package!! :D
Dominioincontrastato
02-01-2007, 14:33
è vero il link non funziona più nemmeno per me..........
Si ma non a queste condizioni , mi piacerebbe sapere i commenti di coloro che l' acquisteranno con le DDR3 , senza parlare del prezzo chiaramente allineato con Nvidia o comunque nella fascia Top di gamma , per trovare poi , dopo due mesi , lo stesso prodotto con le DDR4 .
Se questo fare si chiama concorrenza ....e se intendono partire in questo modo , auguri , come si suol dire :rolleyes:
perché ti sembra una schedaccia quella con il gddr3? :D
se quei benchmark fossero veritieri, uno che si comprasse una scheda con quelle memorie non rimarrebbe così deluso dalle prestazioni :sofico:
è vero il link non funziona più nemmeno per me..........
Manco a me. :rolleyes:
MiKeLezZ
02-01-2007, 14:53
Singolare il fatto che questa news sia "infarcita" ai lati e sotto da ben tre pubblicità di prodotti ATI (AMD).
Tutta questa influenza mi spaventa.
Riguardo la news, il sito DailyTech riporta un'altra succulenta notizia, ovvero che il sito da cui sono state prese le informazione presenta al suo attivo due dipendenti AMD.
Considerato questo e la generale sospettosità dei risultati, è facile concludere che probabilmente sia tutta una tristissima montatura per azzoppare le vendite di schede 8800, dando l'illusione agli appassionati che a breve possa uscire un buon rivale.
Dreadnought
02-01-2007, 14:54
ieri ho visto la recensione, era di 12+ pagine, quindi o sono furbi, è tutta uan bufala e si son sbattuti per farsi un po' di grano dalla pubblicità (a quel punto pero' bastavano 2-3 pagg, non una dozzina), oppure la recensione è vera, e AMD-ATI han fatto spegnere il sito.
leonerosso
02-01-2007, 15:00
Sono solo informazioni preliminari (probabilmente poco attendibili) però se i numeri fossero questi mi ritengo un pelino deluso...
Speravo che R600 superasse più nettamente G80, per la concorrenza e per il fatto che IMHO è molto più costoso da realizzare (bus a 512bit e addirittura 1giga di ram) e sarà difficile che AMD riesca a fornirlo a prezzi bassi, col concreto rischio che il rapporto qualità/prezzo sia favorevole a nVidia, speravo che almeno il top performance per equilibrare il mercato, fosse di AMD/ATi.
Speriamo inanzitutto che si muovano a smerciarla...
tieni conto che sempre se sono veri i bencmarck che i driver degli r600 sarebbero ancora da ottimizzare per cui con margini di prestazioni ancora piu' elevati. In conclusione mi sembra che sempre se questi test sono veri amd ati hanno fatto un ottimo lavoro! Almeno a parer mio
Singolare il fatto che questa news sia "infarcita" ai lati e sotto da ben tre pubblicità di prodotti ATI (AMD).
Tutta questa influenza mi spaventa.
Riguardo la news, il sito DailyTech riporta un'altra succulenta notizia, ovvero che il sito da cui sono state prese le informazione presenta al suo attivo due dipendenti AMD.
Considerato questo e la generale sospettosità dei risultati, è facile concludere che probabilmente sia tutta una tristissima montatura per azzoppare le vendite di schede 8800, dando l'illusione agli appassionati che a breve possa uscire un buon rivale.
:D ho sempre meno dubbi su alcune persone ;)
Andrea Aquarius
02-01-2007, 15:12
Ho già espresso altrove i miei dubbi e lo rifaccio qui, sul fatto che il sito level505, fosse un blog, privo di archivio, sezioni e commenti e contenesse una unica notizia.
Mi auguro che almeno i lettori di hwup (ma anche i redattori) siano un pò più assennati e critici nel valutare certe notizie.
"Hardware support for GPU clustering (any 2^n number, not limited to Dual or Quad-GPU)"
Questa,se è vera, IMHO è una sboronata assurda :sborone: , cioè "not limited to Dual or Quad-GPU" significa almeno 8 o 16 GPU :eek: :sofico: , adesso con tutto il rispetto chi è che oggi puo mettere su una mobo 8-16 GPU ?
Risposta : Giusto Chuck Norris e il nipote del Ranzani :muro:
bonzuccio
02-01-2007, 15:29
:mad:
Spero vivamente che ati non si faccia coinvolgere da nvidia in questa corsa
alle corazzate ciuccia watt, le specifiche sono promettenti
e a parte i bench poco affidabili spero in una fascia media da massimo 100W
e passiva SUBITO!!!
non come le 1950 con radiatore uscite ieri
Ho già espresso altrove i miei dubbi e lo rifaccio qui, sul fatto che il sito level505, fosse un blog, privo di archivio, sezioni e commenti e contenesse una unica notizia.
Mi auguro che almeno i lettori di hwup (ma anche i redattori) siano un pò più assennati e critici nel valutare certe notizie.
che l'abbiano fatta sparire la recensione ed il sito intero, mi dà l'idea che fosse parecchio veritiera ;) altrimenti sarebbe stata bollata come fake dalla stessa AMD e sarebbe finita lì ;)
leoneazzurro
02-01-2007, 15:34
La cosa al 90% è fake. Ci sono diverse incongruenze, ad esempio il fatto di:
1) Non avere foto della scheda, nè dichiarare le sue dimensioni (avrebbero potuto ritoccare la foto o semplicemente dichiarare le dimensioni)
2) 230 W hanno bisogno di un sistema di raffreddamento a liquido, senza se e senza ma. Strano non se ne parli (e 2)
3) Non si fa menzione del clock della GPU
4) il computo delle unità SIMD e delle operazioni per ciclo di clock non torna
5) La maggior parte dei dettagli sono stati ampiamente discussi su numerosi siti informativi, e sembrano presi pari pari da lì
6) Alcune affermazioni non hanno senso (DX 10.1 "potrebbe andare", ma che significa "vendor cap removal"?)
E si potrebbe continuare. Se il sito è giù, è probabile che AMD/ATI abbia minacciato azioni legali, ma ciò non vuol dire che la review sia vera.
Riguardo la news, il sito DailyTech riporta un'altra succulenta notizia, ovvero che il sito da cui sono state prese le informazione presenta al suo attivo due dipendenti AMD.
Attenzione che la cosa è un pelino differente (il seguito è preso pari pari da Dailytech):
"If Level505's comments seem a little too pro-ATI, don't be too surprised. When asked if the site was affiliated in any way to ATI or AMD, the owner replied to DailyTech with the statement that "two staff members of ours are directly affiliated with AMD's business [development] division."
ossia è il "proprietario" di level505 a dichiarare che due membri dello staff lavorano per AMD, il che non significa che sia vero, soprattutto se la cosa è fake...
A me sembrano risultati plausibili, se dovessi sostenere un marchio come si insinua metterei prestazioni un tantino migliori di quelle mostrate in quei grafici, se poi sono state censurate da Amd questo indica che forse qualcosa di simile alle prestazioni finali c'è.
Pk77
leoneazzurro
02-01-2007, 15:54
A parte i risultati, il problema del "pro-ATI" menzionato da più parti era da far risalire ai commenti esageratamente (anche troppo) fanboystici della recensione, il che ancora maggiormente esalta i sospetti di fake.
I risultati potrebbero "anche starci" ma a certe condizioni (in primo luogo bisognerebbe sapere come sono strutturate le untà shader e qual'è il loro clock).
Athlon 64 3000+
02-01-2007, 16:00
io penso che quella presunta recensione sia un fake bello e buono.
Preferisco aspettare la presentazione della scheda video con tanti di recensioni ufficiali.
Opteranium
02-01-2007, 16:29
io dico solo una cosa... che una semplice GPU consuma praticamente il doppio del mio intero pc... O__O
io dico solo una cosa... che una semplice GPU consuma praticamente il doppio del mio intero pc... O__O
Se saranno davvero questi i consumi... ;)
Opteranium
02-01-2007, 16:35
eh, però mi sembra che anche le ultime schede top siano sui 200W, no?
ma perchè non riescono a fare qualcosa tipo Core 2, che rulla di brutto e consuma poco?
o che la grafica richiede davvero tanto "impegno"?
coschizza
02-01-2007, 16:36
io dico solo una cosa... che una semplice GPU consuma praticamente il doppio del mio intero pc... O__O
vero pero devi anche considerare che da un punto di vista delle prestazioni quella semplice GPU è almeno 10x piu veloce del tuo intero pc,dual core o 4 core che sia.
Opteranium
02-01-2007, 16:39
ma allora la voglio sfruttare 'sta potenza! mica solo per giocare!!
se una di queste riesce a ripparmi un dvd in 20 min ben venga. Che aspettano a farlo?
Il Creativo
02-01-2007, 16:42
Secondo me i risultati potrebbero essere veritieri ma è anche vero che quel sito sembra una bufala... aspettiamo che esca la scheda prima di trarre conclusioni.
coschizza
02-01-2007, 16:47
o che la grafica richiede davvero tanto "impegno"?
prendi in considerazione un core 2
ha 2 core che funzionano raramente al 100% in contemporanea
una gpu moderna come questa r600 o la nuova nvidia ha decine o centinaia di pipeline che cercano di funzionara il piu possibile tutte all 100%, quindi anche se la singola pipeline è piu semplice di un core di una cpu completa, se ne metti molte una vicina all'altra i consumi cambiano di conseguenza
poi esiste anche un altro motivo piu specifico che dipende dal fatto che lo sviluppo delle gpu ha molto poco tempo a disposizione per l'ottimizzazione del die e quindi della riduzione del consumo della cpu stessa, un core2 o una cpu amd invece ha cicli di sviluppo e di revisioni molto piu lunghi, con una gpu invece non è possibile perche appena hai una po di tempo per cercare di ottimizzare una core e renderlo piu efficiente devi far uscire uno nuovo che magari è molto differente da quello precedente e quindi devi ricominciare da capo il processo id ottimizzazione.
quindi se ipoteticamente una r600 di base consuma 300w in 6 mesi potresti fare una revisione a parità di tecnologia di costruzione e ridurlo a 250W magari in altri 6 mesi potresti passare tranquillamente a 150-200W.............capirai che il problema è banale e ben chiaro.................in questo lasso di tempo altro che ottimizzazioni o altro, se non hai fatto uscire almeno altri 2-3 generazioni di gpu nuove sei putrtoppo fuori dal mercato, e non sempre una nuova gpu è uguale a quella precedente solo piu ottimizzata, nel caso di queste nuove gpu si parla di differenza sostanziali.
Ho solo un dubbio: c'è scritto che il numero di schede può essere "any 2^n number", e questo vorrebbe dire qualsiasi POTENZA di due, non qualsiasi MULTIPLO (se avessero voluto intendere qualsiasi multiplo, avrebbero scritto 2*n, a rigor di logica...). Sbaglio?
E quindi, non 2, 4, 6, 8, 10 schede, bensì 2, 4, 8, 16 etc...
Almeno... così lo leggo io... ò.O
bonzuccio
02-01-2007, 17:39
Futuro adattatore pci-ex su torrenza
ovviamente "reclinabile" per prendere l'energia solare
:stordita:
| | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | -------------------------------------------------------------------------
|
già ieri si discuteva di questi bench nel thread dedicato a R600....cmq sono sicuramente un fake!!! Basta guardare i risultati delle x1950xtx a dir poco generosi :asd:
Lud von Pipper
02-01-2007, 17:51
La scheda che uscirà sarà si e no un 5% in più in prestazioni di G-80, quindi G-8X sarà ottimizzata e prenderà lo scettro, quindi sarà la volta di R-6X0 e via così, facendo spendere molti dindini ai Fanboy e agli smanettoni, insieme a tante lacrime di coccodrillo quando la susperscheda da Bar (cioè quella di cui vantarsi con amici ) sarà irrimediabilmente sorpassata dopo tre mesi...
C'è gia chi si lamente dalla prossima uscita della scheda con DDR4 (quando c'è chi gioca tranquillamente con schede da 50 € nel case) :rolleyes:
I bei tempi di R300 vs GF5000 sono finiti, e dopo il male che si sono fatti tra loro, i due colossi hanno imparato: il mercato delle schede grafiche per videogiocatori è un cartello se non lo aveste capito, come dimostra il fatto che le nuove generazioni di schede escono sempre con qualche mese di ritardo le une dalle altre :muro:
e probabilmente alle dimensioni..vedremo..
Quello che mi spaventano a me sono i consumi invece. Inoltre sarei molto interessato a sapere se da quando ATI è stata acquisita da AMD i driver Linux siano quanto meno migliorati un briciolo... Ma ho i miei dubbi.
Si ma non a queste condizioni , mi piacerebbe sapere i commenti di coloro che l' acquisteranno con le DDR3 , senza parlare del prezzo chiaramente allineato con Nvidia o comunque nella fascia Top di gamma , per trovare poi , dopo due mesi , lo stesso prodotto con le DDR4 .
Se questo fare si chiama concorrenza ....e se intendono partire in questo modo , auguri , come si suol dire :rolleyes:
Io la vedo differentemente da te. Un appassionato che non sia un cretino conosce la cosa. Due mesi di attesa in piu' non gli cambiano certo la vita. Quindi costui attenderà e prenderà la versione GDDR4.
Flying Tiger
02-01-2007, 18:16
Io la vedo differentemente da te. Un appassionato che non sia un cretino conosce la cosa. Due mesi di attesa in piu' non gli cambiano certo la vita. Quindi costui attenderà e prenderà la versione GDDR4.
Assolutamente d ' accordo con te , ma allora non mi spiego la scelta di farne uscire una prima versione con DDR3 , a questo punto non avrebbe alcun senso , visto che tutti aspetterebbero senza ombra di dubbio la versione con DDR4 , anche e sopratutto considerando il prezzo che non sara' di certo popolare .
Anche se vogliamo considerare i fanboy e coloro che vogliono avere l' ultimo grido nel case mi viene difficile pensare che uno acquisti una scheda con un prezzo dell' ordine dei 500/600€ per poi comprarne un' altra due mesi dopo allo stesso prezzo ...
Questa scelta , se confermata , sotto il punto di vista commerciale e' senza alcun dubbio davvero infelice .
Assolutamente d ' accordo con te , ma allora non mi spiego la scelta di farne uscire una prima versione con DDR3 , a questo punto non avrebbe alcun senso , visto che tutti aspetterebbero senza ombra di dubbio la versione con DDR4 , anche e sopratutto considerando il prezzo che non sara' di certo popolare .
Anche se vogliamo considerare i fanboy e coloro che vogliono avere l' ultimo grido nel case mi viene difficile pensare che uno acquisti una scheda con un prezzo dell' ordine dei 500/600€ per poi comprarne un' altra due mesi dopo allo stesso prezzo ...
Questa scelta , se confermata , sotto il punto di vista commerciale e' senza alcun dubbio davvero infelice .
Invece credo che come scelta sia molto "felice". Nel senso che il mercato di chi spende 600€ per una scheda è molto ridotto. Di questo mercato ridotto, quello che si informa è ancora piu' esimio. Il restante sono tutti soggetti che comprano alla cieca (è il top di gamma) per poi non preoccuparsi piu' per i restanti 6 mesi. In fondo è proprio dagli utonti che si guadagna di piu'. In ultima considerazione, non sappiamo nulla sui prezzi. Può darsi che la versione DDR3 abbia un costo di acquisto piu' contenuto tanto da risultare anche piu' conveniente della versione DDR4. Chi può dirlo. Mica è detto che la DDR3 te la sparino a 600€ direttamente... :stordita:
I bei tempi di R300 vs GF5000 sono finiti, e dopo il male che si sono fatti tra loro, i due colossi hanno imparato: il mercato delle schede grafiche per videogiocatori è un cartello se non lo aveste capito, come dimostra il fatto che le nuove generazioni di schede escono sempre con qualche mese di ritardo le une dalle altre :muro:
Mi spiace contraddirti, ma la concorrenza è molto più forte qui che altrove... ATi oramai dall'R300 non riesce più a riprendere la crescita che teneva in quel periodo (a causa dei ritardi, non delle performance prettamente).
nVidia non si ferma un attimo dopo il flop delle GF5 continua a martellare, prima le 6 (contro le quali le phantom edition di ATi non sono riuscite ad avere buona sorte) poi le 7 (immenso vantaggio temporale rispetto alle X1xxx di ATi) e nonostante a lungo termine i canadesi abbiano dimostrato la bontà delle loro schede (soprattutto col vantaggio HDR+AA) nVidia ha mantenuto lo scettro grazie alla revision di G70 e poi ha spinto sull'accelleratore giocandosi anche le carte GX2 e Quad Sli. Ora questo G80 a questi prezzi non l'avrei mai pensato visto che produrre queste schede con GPU ultracomplesse e bus più larghi (384bit) costa veramente tanto... una GTX dopo un mese dal lancio si trovava già a meno di 600€.
Se non è concorrenza questa...
sicuramente per avre 512bit di banda,ci aranno 16 chip di ram. se vogliono resta sulle dimensioni della 8800,gli converrà mettere dei chip anche sull'altro lato del pcb,se no gli tocca aumentarne le dimensioni.
Flying Tiger
02-01-2007, 18:43
sicuramente per avre 512bit di banda,ci aranno 16 chip di ram. se vogliono resta sulle dimensioni della 8800,gli converrà mettere dei chip anche sull'altro lato del pcb,se no gli tocca aumentarne le dimensioni.
Gia' , ma questo significa anche maggiore complessita' del Pcb , maggiori consumi e conseguente maggiore dissipazione termica , per non parlare dei costi che una soluzione del genere comporta...
ot
[QUOTE=dema86]
....nVidia non si ferma un attimo dopo il flop delle GF5 continua a martellare, prima le 6 (contro le quali le phantom edition di ATi non sono riuscite ad avere buona sorte) .......QUOTE]
Va bene tutto ma non inveire la mia cara "Phantom Edition" :( , pagata poco e ancora in grado di smuovere la 1920x1200 con AA4 :eek: (certo non in Oblivion o Fear).
Tra qualche mese se ne andrà in pensione dopo 2 anni di onorato servizio, x far posto probabilmente a un R600 (o una 8800 se farà :Puke ), ma dalla serie 6 non ne ha mai prese. :D (almeno lei crede così :stordita: )
/ot
JohnPetrucci
02-01-2007, 22:11
Test veri si vedranno quando il prodotto sarà in commercio.....per il resto è tutta "fuffa" ;)
Ciauz
Quoto. ;)
Crazy rider89
02-01-2007, 22:41
ma questi bolidi aereospaziali quando usciranno? :confused:
Va bene tutto ma non inveire la mia cara "Phantom Edition" :( , pagata poco e ancora in grado di smuovere la 1920x1200 con AA4 :eek: (certo non in Oblivion o Fear).
Tra qualche mese se ne andrà in pensione dopo 2 anni di onorato servizio, x far posto probabilmente a un R600 (o una 8800 se farà :Puke ), ma dalla serie 6 non ne ha mai prese. :D (almeno lei crede così :stordita: )
Scusa Gabry, ma la "Phantom Edition" rientrava proprio in quelle schede di ATi potenti a sufficienza per prendere lo scettro ma che sono arrivate in ritardo (e con disponibilità pressoché nulla). Ciò non toglie che la tua scheda sia ancora un ottima VGA, e se non avesse avuto quei problemi di produzione sulle schede forse ATi avrebbe potuto mantenere la rotta di R300...
R600 sarà mia, ma prenderò una versione "light", tipo una XL se ci sarà...
MikePatton
03-01-2007, 09:39
bè, io credo che più o meno il divario prestazionale fra R600 e G80 sarà proprio nella misura indicata da quel sito, anche se quei bench non sono attendibili, credo che rappresentino cmq la reale differenza fra le prestazioni di quelle schede. questo almeno è quello che mi aspetto. :boh:
phil anselmo
03-01-2007, 09:52
Mi spiace contraddirti, ma la concorrenza è molto più forte qui che altrove... ATi oramai dall'R300 non riesce più a riprendere la crescita che teneva in quel periodo (a causa dei ritardi, non delle performance prettamente).
nVidia non si ferma un attimo dopo il flop delle GF5 continua a martellare, prima le 6 (contro le quali le phantom edition di ATi non sono riuscite ad avere buona sorte) poi le 7 (immenso vantaggio temporale rispetto alle X1xxx di ATi) e nonostante a lungo termine i canadesi abbiano dimostrato la bontà delle loro schede (soprattutto col vantaggio HDR+AA) nVidia ha mantenuto lo scettro grazie alla revision di G70 e poi ha spinto sull'accelleratore giocandosi anche le carte GX2 e Quad Sli. Ora questo G80 a questi prezzi non l'avrei mai pensato visto che produrre queste schede con GPU ultracomplesse e bus più larghi (384bit) costa veramente tanto... una GTX dopo un mese dal lancio si trovava già a meno di 600€.
Se non è concorrenza questa...
a dire il vero io penso che nella lotta GF5xxx vs Radeon 9xxx ovviamente ATi ne sia uscita vincitrice.
nella lotta 6xxx vs Xxxx le differenze fra le schede si siano sicuramente appiattite, nVidia è riuscita a tornare competitiva anche se, a mio avviso, le ATi risultavano più potenti (soprattutto con filtri attivi) e di miglior qualità, mentre le nVidia erano sicuramente più all' avanguardia, considerando il supporto agli SM3 già all' epoca.
nello scontro serie 7 contro serie X1000 io vedo una sostanziale parità, un pò come nella generazione subito precedente, con ATi sostanzialmente preferibile per qualità e potenza con filtri attivi, e nvidia preferibile dal punto di vista dell' efficienza e dei consumi.
lasciamo stare le 7950GX2 che io considero soltanto uno SLI ad uno slot unico.
la nuova generazione è tutta da scoprire, nVidia dimostra di aver superato anche il limite della qualità, dato che era stato il tallone di achille per qualche generazione, ed ha messo in campo schede potenti, relativamente economiche e, appunto, dall' ottima qualità grafica!
aspettando R600... :)
Ma se questa scheda video consuma realmente 260W, 2 schede in Crossfire fanno già 520W, aggiungi il processore da 100W e poi tutto il resto... cosa serve un alimentatore da 800W?? Ma provate ad immaginare una lampadina da 800W sempre accesa...
MikePatton
03-01-2007, 10:43
credo che i 260W siano riferiti al sistema in generale, come al solito ;)
Troppo poco, solo con Oblivion raddoppiano i frames ma a 1600*1200 e siamo al limite della giocabilità con meno di 30 frames.. un po poco.
Athlon 64 3000+
03-01-2007, 13:33
a dire il vero io penso che nella lotta GF5xxx vs Radeon 9xxx ovviamente ATi ne sia uscita vincitrice.
nella lotta 6xxx vs Xxxx le differenze fra le schede si siano sicuramente appiattite, nVidia è riuscita a tornare competitiva anche se, a mio avviso, le ATi risultavano più potenti (soprattutto con filtri attivi) e di miglior qualità, mentre le nVidia erano sicuramente più all' avanguardia, considerando il supporto agli SM3 già all' epoca.
nello scontro serie 7 contro serie X1000 io vedo una sostanziale parità, un pò come nella generazione subito precedente, con ATi sostanzialmente preferibile per qualità e potenza con filtri attivi, e nvidia preferibile dal punto di vista dell' efficienza e dei consumi.
lasciamo stare le 7950GX2 che io considero soltanto uno SLI ad uno slot unico.
la nuova generazione è tutta da scoprire, nVidia dimostra di aver superato anche il limite della qualità, dato che era stato il tallone di achille per qualche generazione, ed ha messo in campo schede potenti, relativamente economiche e, appunto, dall' ottima qualità grafica!
aspettando R600... :)
Io invece la vedo cosi:
tra NV3x e R3xx esce nettamente vincitrice le gpu Ati,basta vedere cose è successo con HL2.
Tra NV4x e R4xx preferivo le gpu Nvidia perchè avevano le architettura migliore,più efficiente a parità di clock oltre il supporto SM3.
Tra R5xx e G7x per me sono miglori le gpu Ati visto la migliore architettura dei chip canadesi nel suo complesso e se i giochi facesso un uso intensivo delle dx 9 vedrestri la 7900GTX prendere la paga da una X1900XTX,poi per esempio R580 aveva una qualità d'immagine superiore a G70/G71.
Tra R600 e G80 si vedrà.
Ora come ora G80 è nettamente superiore a R580 in tutto e per tutto,vedremo con R600.
phil anselmo
03-01-2007, 16:22
Ora come ora G80 è nettamente superiore a R580 in tutto e per tutto...
bè, ci mancherebbe altro... :p
è come se, quando uscì R580, fosse stato peggiore di NV40 :D
A detta di molti quella roba non è da prendere come oro colato, ci sono specifiche poco probabili ed altre che saranno sicuramente sbagliate.
Potrebbe essere un giochino di qualcuno che ha preso qualche "ipotesi" qua e la e abbia fatto un polpettone.
piuttosto, HWUpgrade non è ancora sotto nda?
perchè mi pare strano che di colpo Ati abbia deciso di cambiare le proprie abitudini... spero non arrivi un ulteriore ritardo...
Free Gordon
04-01-2007, 17:28
R600 uscirà con Vista perchè è una scheda DX10...
Non vedo ritardi nella cosa. Se Nvidia ha voluto uscire a novembre con la sua proposta DX10 è perchè voleva vendere sul mercato DX9 e avere la scheda più veloce del 2006.
Il 2007 la situazione potrebbe cambiare. :D
possibilemnte la versione GDDR3 è una versione di fasia media, mentra quella con le ddr4 è la fascia top gamma
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.