View Full Version : Aspettando R600 [Thread ufficiale]
Pagine :
1
2
3
[
4]
5
6
7
8
9
10
appleroof
17-12-2006, 19:47
Che c'entra il marketing. Quelli sono nomi in codice ad uso interno per gli ingegneri.
ah ok...avevo capito fossero i nomi commerciali...certo che alla ati sono proprio dei nerd per divertirsi con quei nomi... :asd: :asd: :asd:
ah ok...avevo capito fossero i nomi commerciali...certo che alla ati sono proprio dei nerd per divertirsi con quei nomi... :asd: :asd: :asd:
mitici :asd:
Dylan BJ
17-12-2006, 21:50
Ma speriamo!!!
Non vorrei dover reinvocare i Power Rangers... :eekk: :asd:
:p
ah ok...avevo capito fossero i nomi commerciali...certo che alla ati sono proprio dei nerd per divertirsi con quei nomi... :asd: :asd: :asd:
Immagina la scena. Entri in negozio e chiedi al commerciante:
"Scusi, vorrei la nuova ATI UFO".
Il commerciante prima è così :mbe: :confused: , poi ti dice:
"Guardi, per quello non siamo ancora attrezzati, provi a fare un giro nell'Area 51."
:D
non recentissimo ma mancava...
Eheh non mancava affatto, 1GHz sulla gpu non ci credo neanche se me la fai vedere! (la scheda :D)
Ps: aspettiamoci clock più basso e ottime prestazioni ;)
Mister Tarpone
18-12-2006, 05:09
cioè è confermato: la XTX sarà "testa di...drago" la xt "occhi di gatto" e la XL "ufo"?? :D
scusate ma non resisto... :rotfl: :rotfl:
ma quando prenderanno degli uomini marketing come si deve alla Ati? Se fossero almeno la metà capaci degli ingegneri non se li sognerebbero nemmeno stì nomi :asd: :asd:
cmq 1giga di freq.. :eek:
Voglio la "occhi di gatto" :sborone:
SUBITO!! :bsod:
Skullcrusher
18-12-2006, 09:20
Eheh non mancava affatto, 1GHz sulla gpu non ci credo neanche se me la fai vedere! (la scheda :D)
Ps: aspettiamoci clock più basso e ottime prestazioni ;)
Lo credo anch'io. 1Ghz di clock sarebbe veramente mostruoso :eek:
Alberello69
18-12-2006, 09:50
BASTA!!!! Mi sono rotto di spettare... mi compro un Mac PRO !
:Prrr:
nico88desmo
18-12-2006, 15:01
Lo credo anch'io. 1Ghz di clock sarebbe veramente mostruoso :eek:
io escludo un clock così elevato per il core (ROPS, texture units, ecc..);
però forse si potrebbe parlare della frequenza degli shader...ricordo che per G80 quest'ultimi lavorano a 1350Mhz;
in questo ultimo caso sarebbe plausibile una frequenza così elevata.
Immagina la scena. Entri in negozio e chiedi al commerciante:
"Scusi, vorrei la nuova ATI UFO".
Il commerciante prima è così :mbe: :confused: , poi ti dice:
"Guardi, per quello non siamo ancora attrezzati, provi a fare un giro nell'Area 51."
:D
:rotfl:
...ho acquistato la mobo che farà da casa al futuro R600 "Occhi di gatto"...
:D
ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) .
:cool:
(ovviamente acquisterò "Occhi di gatto" quando costerà meno, non acquisto una vga appena uscita! -genovese inside-) :D
...ho acquistato la mobo che farà da casa al futuro R600 "Occhi di gatto"...
:D
ASUS A8R32-MVP Deluxe (chipset ATI XPRESS 3200 Crossfire e ULI M1575) .
:cool:
(ovviamente acquisterò "Occhi di gatto" quando costerà meno, non acquisto una vga appena uscita! -genovese inside-) :D
:D :asd:
io voglio l'UFO! :cry:
Skullcrusher
18-12-2006, 17:37
io escludo un clock così elevato per il core (ROPS, texture units, ecc..);
però forse si potrebbe parlare della frequenza degli shader...ricordo che per G80 quest'ultimi lavorano a 1350Mhz;
in questo ultimo caso sarebbe plausibile una frequenza così elevata.
Già, mi sa che si riferivano a quello :p
gianlu75xp
18-12-2006, 17:43
Secondo qualcuno, a ragione più o meno veduta non posso essere io a stabilirlo, R600 e G80 alla fine avranno prestazioni allineate. Da appassionato spero solo che Ati riesca a sfornare una scheda capace di bissare il successo della 9700Pro che, al momento del lancio, costituì un nuovo termine di paragone in fatto di grafica e potenza d'elaborazione... sottolineo che sarei contento lo stesso se un'analoga situazione la potesse stabilire nVidia... e chi lo sa, forse è proprio vero che la reale forza di queste schede la potremo valutare solo con le directX 10 :)
Skullcrusher
18-12-2006, 17:46
Secondo qualcuno, a ragione più o meno veduta non posso essere io a stabilirlo, R600 e G80 alla fine avranno prestazioni allineate. Da appassionato spero solo che Ati riesca a sfornare una scheda capace di bissare il successo della 9700Pro che, al momento del lancio, costituì un nuovo termine di paragone in fatto di grafica e potenza d'elaborazione... sottolineo che sarei contento lo stesso se un'analoga situazione la potesse stabilire nVidia... e chi lo sa, forse è proprio vero che la reale forza di queste schede la potremo valutare solo con le directX 10 :)
Io sono d'accordo con chi pensa che alla fine saranno bene o male equivalenti, anche se pure io spero che R600 sia superiore a G80, altrimenti Ati si troverebbe fregata da G81 che uscirebbe dopo poco tempo...
Certo, finchè non esce win Vista, il 3dmark07 e qualche gioco in dx10, di test seri se ne possono fare ben pochi....alla fine è importante che siano ottime in dx10, mentre al momento si possono valutare solo in ambito dx9...
morfeus02
18-12-2006, 17:54
secondo me è molto probabile che ati uccida il mito della 8800GTX
monterà di sicuro le memorie GDDR4 le clock di conseguenza saranno piu alte e i consumi meno elevati.
conoscendo ati la qualità grafica sarà superiore.
oltretutto il chip R600 ha la stessa dimensione dei chip della x1950 che è assai contenuto rispetto al chip G80 che è gigantesco
http://translate.google.com/translate?sourceid=navclient&hl=en&u=http%3a%2f%2fvga%2ezol%2ecom%2ecn%2f46%2f468342%2ehtml
vabè che come al solito la ati costerà uno sfracello di soldi :D
Skullcrusher
18-12-2006, 18:02
secondo me è molto probabile che ati uccida il mito della 8800GTX
monterà di sicuro le memorie GDDR4 le clock di conseguenza saranno piu alte e i consumi meno elevati.
conoscendo ati la qualità grafica sarà superiore.
oltretutto il chip R600 ha la stessa dimensione dei chip della x1950 che è assai contenuto rispetto al chip G80 che è gigantesco
http://translate.google.com/translate?sourceid=navclient&hl=en&u=http%3a%2f%2fvga%2ezol%2ecom%2ecn%2f46%2f468342%2ehtml
vabè che come al solito la ati costerà uno sfracello di soldi :D
Il G80 è "piccolo", quello che vedi una volta levato il dissipatore è un coperchio di metallo, simile a quello dei processori ;)
Mister Tarpone
18-12-2006, 18:39
secondo me è molto probabile che ati uccida il mito della 8800GTX
monterà di sicuro le memorie GDDR4 le clock di conseguenza saranno piu alte e i consumi meno elevati.
conoscendo ati la qualità grafica sarà superiore.
oltretutto il chip R600 ha la stessa dimensione dei chip della x1950 che è assai contenuto rispetto al chip G80 che è gigantesco
http://translate.google.com/translate?sourceid=navclient&hl=en&u=http%3a%2f%2fvga%2ezol%2ecom%2ecn%2f46%2f468342%2ehtml
vabè che come al solito la ati costerà uno sfracello di soldi :D
E' anche molto probabile però,che le prossime 8600 - 8900,montino le gddr4, siano più compatte e consumino di meno ;)
Skullcrusher
18-12-2006, 19:53
E' anche molto probabile però,che le prossime 8600 - 8900,montino le gddr4, siano più compatte e consumino di meno ;)
Sì, si vocifera di 1Gb gddr4 per G81...sarebbe plausibile :)
appleroof
18-12-2006, 19:59
secondo me è molto probabile che ati uccida il mito della 8800GTX
siamo già arrivati al mito? :asd:
Kharonte85
18-12-2006, 20:11
siamo già arrivati al mito? :asd:
:asd:
:doh: :D
belin non ti riconoscevo con il nuovo avatar :eek:
Kharonte85
18-12-2006, 23:07
belin non ti riconoscevo con il nuovo avatar :eek:
Infatti hai fatto confusione...belin è lui:
cut
:asd:
Infatti hai fatto confusione...belin è lui:
:asd:
il mio era un "belin esclamativo" rivolto a simon82 :D
"belin esclamativo"
:D
:D
:D
Kharonte85
18-12-2006, 23:30
il mio era un "belin esclamativo" rivolto a simon82 :D
Lo sapevo...volevo fare solo una battuta... :D
morfeus02
18-12-2006, 23:34
siamo già arrivati al mito? :asd:
:asd: :asd:
http://vlk4r0.altervista.org/faccine-Dateien/image020.gif
belin non ti riconoscevo con il nuovo avatar :eek:
:cool:
Ehmm.. torniamo on topic ragazzi.. ;)
appleroof
20-12-2006, 21:46
un pò off-topic ma no sapevo dove postarlo, se qui o in processori (forse tra qualche anno ci sarà un' unica sezione, leggete e capirete... :) ) e poi si rifà ad un mio post di qualche giorno fa in questo tread sulla completa integrazione della gpu nella cpu:
AMD ha pianificato di usare il suo concetto ("fusion" n.d.r.) in quello che Hester chiama "un collezione di hardware specializzato", che spazia dai PDA ai dispositivi in grado di raggiungere potenze computazionali peta-flop. L'idea chiave risiede nell'integrazione di una GPU capace di scalare dall'entry-level all'high-end, considerando le differenti peculiarità di un chip grafico. Da una parte, la GPU è semplicemente un'unità di processo grafico. Tuttavia grazie alle sue enormi potenzialità, sarà possibile vedere differenti processori Fusion con una GPU che si comporta principalmente come uno "stream processor", focalizzato sui calcoli in virgola mobile.
Se AMD ha visto giusto, potremo passare da un dispositivo di computazione universale di oggi a un hardware pesantemente specializzato nel 2009 e oltre.
La ragione che sta dietro a Fusion è che i processori grafici moderni dispongono di più possibilità rispetto a quelle che sono effettivamente utilizzate. Per esempio, le prestazioni floating-point del processore ATI R580 sono almeno dieci volte superiori rispetto quanto un processore dual-core moderno è in grado di offrire. Quindi perché non utilizzare questa potenza inespressa anche per altri task?
AMD ha recentemente affermato che Fusion è ancora in uno stato primordiale di sviluppo, quindi le sue potenzialità sono ancora teoriche. Parlare di prestazioni è al momento speculativo, ma ci sono buone chance che l'integrazione della gestione grafica nelle CPU possa eliminare molti colli di bottiglia e possa portare benefici superiori a quanto le schede grafiche discrete siano oggigiorno in grado di offrire. AMD si aspetta anche che questi processori siano più economici da produrre, rispetto la somma dei costi di produzione per CPU e chipset grafici integrati.
La parte più eccitante di questa idea è che Fusion ricalca fondamentalmente lo stesso approccio utilizzato per il controller di memoria integrato negli Opteron e Athlon 64. AMD ha avuto un buon successo grazie a questo approccio e l'integrazione della grafica è un'idea originale che può portare benefici.
http://www.tomshw.it/cpu.php?guide=20061218
é per questo che Amd ha acquisito Ati...? secondo me si ;)
Non è un mistero, si vocifera già da un po' su questa cosa,molti l'avevano ipotizzato pur non sapendolo,ora c'è una voce ufficiale :)
Window Vista
20-12-2006, 23:41
Se ci sarà una rivoluzione, io sarò il 1° che l'ha detto :O
:)
a parte che amd lo dice da una vita...
cmq è la base della tecnolgia torrenza...
ha gia dato l'ok per permettere a terze parti di sviluppare processori pin to pin compatibile con lo sk1309 che è quello degli opteron e dei futuri k8l opteron in modo che sui processori a 2 o 8 vie ci si possa accoppiare 1 opteron e 1 processore strettamente dedicato a un compito.
oggettivamente amd ha parlato di sottosistemi video low-end facilmente integrabili nei processori...
ora non so quanto questo possa esser fatto per le vga di fascia alta e sicuramente per avere qualcosa di concreto toccherà aspettare almeno 4 o 5 anni.
ps per chi lo dice il motivo principe per cui amd ha comprato ati è che gli serviva qualcuno in grado di fare dei chipset di ottimo livello in casa sia per mercato desktop sia notebook
il riscontro poi di integrare gpu in cpu è lontano.
difatti l'accordo cmq prevede che il comparto chipset di ati diventi amd operativo da subito mentre il comparto grafico di ati resti indipendente decisionalmente parlado e dipendente dal punto di vista finanziario per i prossimo 2 anni.
poi dopo si vedrà..
ps qualcuno potra dire xè ati e non nvidia..questo solo per un motivo borsistico...anche se le 2 società hanno lo stesso peso circa sia in volume di affari sia in fatturato per scelta commerciale le azioni di nvidia valgono il doppio di quelle di ati ergo amd poteva acquistare anche nvidia ma avrebbe speso circa il doppio in operazione commerciali,il che sarebbe stato spendere uno sproposito soprattuto confrontat all'operazione ati che è venuta poco + della metà.
perchè nvidia tiene le azioni alte anche questo è semplice per evitare di venire fagociatata come fagocitò al suo tempo 3dfx
a parte che amd lo dice da una vita...
cmq è la base della tecnolgia torrenza...
ha gia dato l'ok per permettere a terze parti di sviluppare processori pin to pin compatibile con lo sk1309 che è quello degli opteron e dei futuri k8l opteron in modo che sui processori a 2 o 8 vie ci si possa accoppiare 1 opteron e 1 processore strettamente dedicato a un compito.
oggettivamente amd ha parlato di sottosistemi video low-end facilmente integrabili nei processori...
ora non so quanto questo possa esser fatto per le vga di fascia alta e sicuramente per avere qualcosa di concreto toccherà aspettare almeno 4 o 5 anni.
ps per chi lo dice il motivo principe per cui amd ha comprato ati è che gli serviva qualcuno in grado di fare dei chipset di ottimo livello in casa sia per mercato desktop sia notebook
il riscontro poi di integrare gpu in cpu è lontano.
difatti l'accordo cmq prevede che il comparto chipset di ati diventi amd operativo da subito mentre il comparto grafico di ati resti indipendente decisionalmente parlado e dipendente dal punto di vista finanziario per i prossimo 2 anni.
poi dopo si vedrà..
ps qualcuno potra dire xè ati e non nvidia..questo solo per un motivo borsistico...anche se le 2 società hanno lo stesso peso circa sia in volume di affari sia in fatturato per scelta commerciale le azioni di nvidia valgono il doppio di quelle di ati ergo amd poteva acquistare anche nvidia ma avrebbe speso circa il doppio in operazione commerciali,il che sarebbe stato spendere uno sproposito soprattuto confrontat all'operazione ati che è venuta poco + della metà.
perchè nvidia tiene le azioni alte anche questo è semplice per evitare di venire fagociatata come fagocitò al suo tempo 3dfx
Sono anche dell'idea che questo genere di aziende con un tale fatturato, non si faccia assorbire se non davvero intenzionalmente. Probabilmente Nvidia non avrebbe avuto nessuna intenzione di finire inglobata bensi' rimanere una societa' distaccata. Ad essere assorbita ci sono pro e contro come in ogni acquisizione. Ati invece probabilmente ha approfittato di una situazione vantaggiosa anche per lei visto che il mercato delle GPU discrete non e' dei piu' floridi dal punto di vista della sicurezza nel mercato.
appleroof
21-12-2006, 15:03
ps per chi lo dice il motivo principe per cui amd ha comprato ati è che gli serviva qualcuno in grado di fare dei chipset di ottimo livello in casa sia per mercato desktop sia notebook
il riscontro poi di integrare gpu in cpu è lontano.
certo il mio discorso è in prospettiva e ripeti quello che si dice nell'articolo che ho citato dove si parla almeno del 2009 ;)
picard88
24-12-2006, 18:26
bè??? nessuna novità :D ? allora Auguri a tutti!!!!! ;)
Skullcrusher
24-12-2006, 19:44
bè??? nessuna novità :D ? allora Auguri a tutti!!!!! ;)
Concordo, auguroni a tutti!!!! :D
Mister Tarpone
25-12-2006, 10:21
buon natale!! :)
nico88desmo
25-12-2006, 10:46
BUON NATALE A TUTTI!
Alexkidd85
25-12-2006, 12:02
Buon Natale a tutti... :D
un pò off-topic ma no sapevo dove postarlo, se qui o in processori (forse tra qualche anno ci sarà un' unica sezione, leggete e capirete... :) ) e poi si rifà ad un mio post di qualche giorno fa in questo tread sulla completa integrazione della gpu nella cpu:
AMD ha pianificato di usare il suo concetto ("fusion" n.d.r.) in quello che Hester chiama "un collezione di hardware specializzato", che spazia dai PDA ai dispositivi in grado di raggiungere potenze computazionali peta-flop. L'idea chiave risiede nell'integrazione di una GPU capace di scalare dall'entry-level all'high-end, considerando le differenti peculiarità di un chip grafico. Da una parte, la GPU è semplicemente un'unità di processo grafico. Tuttavia grazie alle sue enormi potenzialità, sarà possibile vedere differenti processori Fusion con una GPU che si comporta principalmente come uno "stream processor", focalizzato sui calcoli in virgola mobile.
Se AMD ha visto giusto, potremo passare da un dispositivo di computazione universale di oggi a un hardware pesantemente specializzato nel 2009 e oltre.
La ragione che sta dietro a Fusion è che i processori grafici moderni dispongono di più possibilità rispetto a quelle che sono effettivamente utilizzate. Per esempio, le prestazioni floating-point del processore ATI R580 sono almeno dieci volte superiori rispetto quanto un processore dual-core moderno è in grado di offrire. Quindi perché non utilizzare questa potenza inespressa anche per altri task?
AMD ha recentemente affermato che Fusion è ancora in uno stato primordiale di sviluppo, quindi le sue potenzialità sono ancora teoriche. Parlare di prestazioni è al momento speculativo, ma ci sono buone chance che l'integrazione della gestione grafica nelle CPU possa eliminare molti colli di bottiglia e possa portare benefici superiori a quanto le schede grafiche discrete siano oggigiorno in grado di offrire. AMD si aspetta anche che questi processori siano più economici da produrre, rispetto la somma dei costi di produzione per CPU e chipset grafici integrati.
La parte più eccitante di questa idea è che Fusion ricalca fondamentalmente lo stesso approccio utilizzato per il controller di memoria integrato negli Opteron e Athlon 64. AMD ha avuto un buon successo grazie a questo approccio e l'integrazione della grafica è un'idea originale che può portare benefici.
http://www.tomshw.it/cpu.php?guide=20061218
é per questo che Amd ha acquisito Ati...? secondo me si ;)
Uhm, mi vogliono fare la APU che mi fa anche da gpu. Schede video dedicate al macero!
A sto punto buttiamo via r600, che lo aspettiamo a fare :ciapet:
Ovviamente skerzo :asd:
e aspetto che escano le fasce medie di r600 :Prrr:
Andrea deluxe
27-12-2006, 14:24
non posso aspettare così tanto!!!!!
sto impazzendooooo!!!!!
appleroof
27-12-2006, 14:28
non posso aspettare così tanto!!!!!
sto impazzendooooo!!!!!
:eek:
gianlu75xp
27-12-2006, 14:53
non posso aspettare così tanto!!!!!
sto impazzendooooo!!!!!
:asd:
è un bell'aspettare con la X1900 ;)
:asd:
è un bell'aspettare con la X1900 ;)
bellissimo :)
Alexkidd85
27-12-2006, 16:37
Io l'ho data a 330 perché raga..se aspettate la attaccate al muro con il chiodo come le scarpette di adriano(flames attenzione!!!! :D)
Anche perché la mia cara x800gto2 nel signor muletto fa discretamente il suo lavoro :D
:asd:
è un bell'aspettare con la X1900 ;)
aspetterò pure io con quella (che dovrebbe arrivare a gennaio) :)
oramai salterò R600...e passerò a R620/R680??? o addirittura a R700
quando saranno fascia media :D
:asd:
è un bell'aspettare con la X1900 ;)
in effetti è proprio una bella vga, ne sono soddisfattissimo :)
in effetti è proprio una bella vga, ne sono soddisfattissimo :)
ot: hai messo in evidenza il 5 della tua X1950 in sign...forte :D /ot
ot: hai messo in evidenza il 5 della tua X1950 in sign...forte :D /ot
ot :D /ot
tornando a R600...la curiosità mi stà consumando (come credo faccia pure con voi)http://www.hwupgrade.it/forum/customavatars/avatar133798_5.gif
tornando a R600...la curiosità mi stà consumando (come credo faccia pure con voi)http://www.hwupgrade.it/forum/customavatars/avatar133798_5.gif
eccome se consuma, speriamo che con il nuovo anno inizino a filtrare info più precise :sperem:
eccome se consuma
in tutti i sensi :asd:
(questa vorrebbe essere una battuta anche se non c'è tanto da scherzare qui :rolleyes: )
gianlu75xp
27-12-2006, 19:34
La cosa più sensata sarebbe cambiare scheda video, nel mio caso, quando effettivamente uscirà Crysis, cioè fra 9 mesi [:asd:], e contestualmente cambiare XP con Vista. Per allora ci sarà già la seconda ondata di gpu dx 10 :p
Stalker e i giochi di oggi (a parte FSX di cui non mi frega nulla e qualche titolo esempio di scarsa ottimizzazione, vedi Gothic) me li godo al massimo anche così :)
La cosa più sensata sarebbe cambiare scheda video, nel mio caso, quando effettivamente uscirà Crysis, cioè fra 9 mesi [:asd:], e contestualmente cambiare XP con Vista. Per allora ci sarà già la seconda ondata di gpu dx 10 :p
Stalker e i giochi di oggi (a parte FSX di cui non mi frega nulla e qualche titolo esempio di scarsa ottimizzazione, vedi Gothic) me li godo al massimo anche così :)
è il ragionamento che più o meno faccio anche io (resta poi da vedere se lo riesco a mantenere :asd: )
è il ragionamento che più o meno faccio anche io (resta poi da vedere se lo riesco a mantenere :asd: )
:asd:
gianlu75xp
27-12-2006, 19:38
è il ragionamento che più o meno faccio anche io (resta poi da vedere se lo riesco a mantenere :asd: )
uniti possiamo farcela! :D
[uhm... o no?]
:asd:
brutta cosa la curiosità per il portafogli :stordita:
brutta cosa la curiosità per il portafogli :stordita:
particolarmente brutta :mc:
io non ce l'ho fatta, ma voi ci riuscirete, forse, in qualche modo...
non credo.. :p
Andrea deluxe
28-12-2006, 11:37
tu ci riesci, perchè ti trastulli con il tuo bel E6600!
Raga...da quando mi si é bruciata la x800pro qualche mese fa sono qua con la 9600pro agp che cerco di sopravvivere :D
Ormai aspetto solo r600 per cambiare pc ... sto per impazzire :eek:
Beati voi con la x1900xtx
tò per fine 2007 mi faccio la piattaforma con chipset RD790:
* 52 linee PCI Express suddivise, probabilmente, in 2 slot x16, 2 slot x8 ed 1 x4 oppure 4 x1
* Supporto per 4 schede grafiche
* Supporto per 2 CPU
* Supporto HTX
* Compatibile con il bus [G] Hypertransport 3.0 con supporto per processori AMD AM2+ e Socket F
* Supporto Dual Gigabit Ethernet
* Presenza di memoria cache [G] indipendente integrata sulla scheda madre progettata per ridurre le latenze ed aumentare la bandwidth
kacchios a me sembra che stanno per davvero esagerando,queste specifiche sono davvero impressionanti :eek:
http://www.dinoxpc.com/News/news.asp?ID_News=11753&What=News
tò per fine 2007 mi faccio la piattaforma con chipset RD790:
* 52 linee PCI Express suddivise, probabilmente, in 2 slot x16, 2 slot x8 ed 1 x4 oppure 4 x1
* Supporto per 4 schede grafiche
* Supporto per 2 CPU
* Supporto HTX
* Compatibile con il bus [G] Hypertransport 3.0 con supporto per processori AMD AM2+ e Socket F
* Supporto Dual Gigabit Ethernet
* Presenza di memoria cache [G] indipendente integrata sulla scheda madre progettata per ridurre le latenze ed aumentare la bandwidth
kacchios a me sembra che stanno per davvero esagerando,queste specifiche sono davvero impressionanti :eek:
http://www.dinoxpc.com/News/news.asp?ID_News=11753&What=News
Bah, io volevo 4 linee pci express da 32x... :asd:
Vabeh ovviamente non credo che userò mai manco due schede video... :stordita:
Però questi chipset semprba molto :sbav:
Andrea deluxe
29-12-2006, 12:44
O MY GOD!!!!!!!!!!!!!!
STO VENENDO!!!!!
appleroof
29-12-2006, 12:52
O MY GOD!!!!!!!!!!!!!!
STO VENENDO!!!!!
:eek: :eek:
sec_death
29-12-2006, 13:01
si ma è assurdo un sistema per giocare con 4 schede grafiche e 2 processori dai... quanto costa? 2000 euro solo di schede grafiche
praticamente è un sistema che si possono permettere i figli di papà col ferrari e stop, ed ha una utilità nulla...
preferisco il futuro intel...cmq nvidia sta facendo il bello e il cattivo tempo con le 8800 che costano una cifra xchè non hanno concorrenza, amd oltre alle tabelle dovrebbe fare uscire qualcosa di concreto.
* 52 linee PCI Express suddivise, probabilmente, in 2 slot x16, 2 slot x8 ed 1 x4 oppure 4 x1
* Presenza di memoria cache [G] indipendente integrata sulla scheda madre progettata per ridurre le latenze ed aumentare la bandwidth
[/url]
decisamente interessanti ;)
Lud von Pipper
29-12-2006, 15:33
Gia, se non si danno una mossa con R600 continueremo a vedere nVidia con prezzi fuori dal mondo per la 8800GTX
La mia 6600GT sta tirando le cuoia (ho gia dovuto sostituire la ventolina fusa) e aspetto questa R600 per avere un quadro più completo.
Certo, dopo i 550€ spesi (buttati) per la 9800Pro della Hercules, ho giurato di non buttare più i soldi così, ma allora mi serviva qualcosa che facesse "brillare" il 22" CRT appena comprato. Ora invece aspetterò un calo della 8800GT o dell'equivalente R600, entro i 400€ poi vedrò di muovermi.
Di comprare un altra DX9 non se ne parla con Vista alle porte, ma anche la compatibilità del software dirà la sua al momento dell'acquiisto: con schede concettualmente così diverse come G80 ed R600 si rischiano sorprese :mbe:
appleroof
29-12-2006, 15:51
Gia, se non si danno una mossa con R600 continueremo a vedere nVidia con prezzi fuori dal mondo per la 8800GTX
La mia 6600GT sta tirando le cuoia (ho gia dovuto sostituire la ventolina fusa) e aspetto questa R600 per avere un quadro più completo.
Certo, dopo i 550€ spesi (buttati) per la 9800Pro della Hercules, ho giurato di non buttare più i soldi così, ma allora mi serviva qualcosa che facesse "brillare" il 22" CRT appena comprato. Ora invece aspetterò un calo della 8800GT o dell'equivalente R600, entro i 400€ poi vedrò di muovermi.
Di comprare un altra DX9 non se ne parla con Vista alle porte, ma anche la compatibilità del software dirà la sua al momento dell'acquiisto: con schede concettualmente così diverse come G80 ed R600 si rischiano sorprese :mbe:
quoto
quanto alla compatibilità del sw a cosa ti riferisci? :what:
Lud von Pipper
29-12-2006, 16:38
quoto
quanto alla compatibilità del sw a cosa ti riferisci? :what:
Mah, per fare un esempio del passato, in Il2 Sturmovik, se hai una ATI non puoi godere a pieno degli effetti di riflssione e riverbero dell'acqua, oppure, è ben noto il problema di Neverwinter Nights 1 che per molto tempo fu ingiocabile su ATI.
All'epoca avevo la suddetta 9800Pro pagata uno sproposito e quindi immagina che piacere mi fece la cosa per due titoli che mi premevano.
Il fatto poi che R600 e G80 siano così diverse tra loro mi preoccupa, soprattutto sapendo che è sempre e comunque nVidia a fare la parte del leone fra i produttori di giochi: basta vedere quanti giochi mostrano la schermata "nVidia: the way it's meant to be played".
O R600 sarà 100% compatibile con tutto il parco giochi, oppure resterà sugli scaffali per quanto mi riguarda.
Mah, per fare un esempio del passato, in Il2 Sturmovik, se hai una ATI non puoi godere a pieno degli effetti di riflssione e riverbero dell'acqua, oppure, è ben noto il problema di Neverwinter Nights 1 che per molto tempo fu ingiocabile su ATI.
All'epoca avevo la suddetta 9800Pro pagata uno sproposito e quindi immagina che piacere mi fece la cosa per due titoli che mi premevano.
Il fatto poi che R600 e G80 siano così diverse tra loro mi preoccupa, soprattutto sapendo che è sempre e comunque nVidia a fare la parte del leone fra i produttori di giochi: basta vedere quanti giochi mostrano la schermata "nVidia: the way it's meant to be played".
O R600 sarà 100% compatibile con tutto il parco giochi, oppure resterà sugli scaffali per quanto mi riguarda.
Peró ricordati che ATI sta lavorando con Microsoft.
Io non mi preoccuperei piú di tanto.
PS: ATI 9800pro, che bella scheda. Anche se quei 2 giochi hanno dato problemi, io la ritengo mooolto migliore della controparte nvidia. Oggi in molti giochi che vanno in dx9 la mia 9600pro va meglio della 5900ultra ;)
appleroof
29-12-2006, 17:07
Mah, per fare un esempio del passato, in Il2 Sturmovik, se hai una ATI non puoi godere a pieno degli effetti di riflssione e riverbero dell'acqua, oppure, è ben noto il problema di Neverwinter Nights 1 che per molto tempo fu ingiocabile su ATI.
All'epoca avevo la suddetta 9800Pro pagata uno sproposito e quindi immagina che piacere mi fece la cosa per due titoli che mi premevano.
Il fatto poi che R600 e G80 siano così diverse tra loro mi preoccupa, soprattutto sapendo che è sempre e comunque nVidia a fare la parte del leone fra i produttori di giochi: basta vedere quanti giochi mostrano la schermata "nVidia: the way it's meant to be played".
O R600 sarà 100% compatibile con tutto il parco giochi, oppure resterà sugli scaffali per quanto mi riguarda.
già, ha ragione the_san: non credo ci saranno problemi di questo tipo, anche perchè non vedo tutta questa differenza (allo stato e aspettando notizie più concrete) cmq non più di quella che c'è tra una 7900gt e una x1900xt (qui proprio sono architetture totalmente diverse, eppure vanno benissimo entrambe con i giochi dx9)...
p.s.: anche nvidia ha lavorato e lavora con microsoft, lo dimostra tra l'altro l'architettura a shader unificati di G80 visto che sembrano essere "richiesti" dalle dx10...
già, ha ragione the_san: non credo ci saranno problemi di questo tipo, anche perchè non vedo tutta questa differenza (allo stato e aspettando notizie più concrete) cmq non più di quella che c'è tra una 7900gt e una x1900xt (qui proprio sono architetture totalmente diverse, eppure vanno benissimo entrambe con i giochi dx9)...
p.s.: anche nvidia ha lavorato e lavora con microsoft, lo dimostra tra l'altro l'architettura a shader unificati di G80 visto che sembrano essere "richiesti" dalle dx10...
;)
nico88desmo
29-12-2006, 17:25
Con le Directx10 le architetture delle schede video sono con shader unificati proprio per ridurre le incompatibilità di giochi con schede diverse.
Sotto questo aspetto secondo me ci sarà un miglioramento... :cool:
appleroof
29-12-2006, 17:28
Con le Directx10 le architetture delle schede video sono con shader unificati proprio per ridurre le incompatibilità di giochi con schede diverse.
Sotto questo aspetto secondo me ci sarà un miglioramento... :cool:
anche secondo me... ;)
Con le Directx10 le architetture delle schede video sono con shader unificati proprio per ridurre le incompatibilità di giochi con schede diverse.
Sotto questo aspetto secondo me ci sarà un miglioramento... :cool:
Microsoft ha dato un set di caratteristiche che le schede devono supportare per essere dx10. Non un minimo o un massimo (come per le 9), un set completo, o quello o sei fuori.
Le incompatibilità di certo non diminuiscono solo per il fatto che gli shader sia unificati, anzi... esistono diversi modi per farlo e se Ati manterrà lo stesso modello che ha usato per la GPU dell'Xbox, le architetture delle due GPU (G80 e R600) saranno profondamente diverse...
Window Vista
29-12-2006, 18:12
R600 è un evoluzione d R500 di X360 :cool:
Lud von Pipper
29-12-2006, 19:27
Ottimo allora. :D
Qualcuno ha idea della data di uscita?
appleroof
29-12-2006, 19:34
Ottimo allora. :D
Qualcuno ha idea della data di uscita?
marzo, salvo smentite/cambiamenti
Kharonte85
29-12-2006, 20:09
marzo, salvo smentite/cambiamenti
io ero rimasto agli ultimi rumors che parlavano di Febbraio...:boh:
io ero rimasto agli ultimi rumors che parlavano di Febbraio...:boh:
Io a quelli di fine gennaio :asd: :ciapet:
A ognuno il suo insomma :Prrr:
Dai che prima esce sto r600, prima mi esce il derivato da 200€ :sbav:
:wtf:
io sapevo che usciva con vista o poco dopo...tantochè ho ipotizzatto un bundle X2800+Windows Vista :asd:
R600 è un evoluzione d R500 di X360 :cool:
I rumors dicono così... ma hai fonti certe? Anche R520 doveva essere un R420 con più pipelines, non supportare AA + HDR. E anche G80 doveva avere architettura non unificata...
I rumors dicono così... ma hai fonti certe? Anche R520 doveva essere un R420 con più pipelines, non supportare AA + HDR. E anche G80 doveva avere architettura non unificata...
questa è l'unica cosa sicura o meglio evoluzione è una parola grossa..
diciamo che r600 ha molto in comune con l'archidettura unificata di r500 di xbox360.
diciamo che inizialmente vi era il progetto chiamato r400 che era il progetto inziiale di gpu unificata e si parla gia del periodo di vendita delle 9800pro.
dal progetto r300 nacquero r420 e r480 diciamo per struttura molto simile a r3xx ovviamente con le dovute pompare dle caso(+pipeline e maggior clock)
intanto il vecchio progetto r400 inizia a prendere forma nel segmento console con r500 per xbox360 e adattato alle richieste pc con r520-r580 nel quale sono stati sperimentare le archidetture multi pixel shader associate ad una singola pipeline vedi r580 che per 1 pipeline ha 3 ps e soprattuto prove di controler con il ringbus per sopperire all'ormai "vecchia" archidettura crossbar per la memoria.
con l'entrara in vigore delle dx10 quindi archidettura unificata si è preso quanto di buono presenre in r500 ovviamente lo si è adattato al mercato pc togliendo la memorie embemed e adattandolo per il ringbus.
diciamo che r5x0 per pc,r500 di xbox360 sono i figli del vecchio progetto r400.
r5x0 per pc e r500 sono cugini mentre r600 è la somma delle evoluzione tecnologiche sperimentate con r5x0 per pc e r500 su xbox360.
diciamo che r5x0 per pc,r500 di xbox360 sono i figli del vecchio progetto r400.
r5x0 per pc e r500 sono cugini mentre r600 è la somma delle evoluzione tecnologiche sperimentate con r5x0 per pc e r500 su xbox360.
quoto ;)
nico88desmo
30-12-2006, 13:15
questa è l'unica cosa sicura o meglio evoluzione è una parola grossa..
diciamo che r600 ha molto in comune con l'archidettura unificata di r500 di xbox360.
diciamo che inizialmente vi era il progetto chiamato r400 che era il progetto inziiale di gpu unificata e si parla gia del periodo di vendita delle 9800pro.
dal progetto r300 nacquero r420 e r480 diciamo per struttura molto simile a r3xx ovviamente con le dovute pompare dle caso(+pipeline e maggior clock)
intanto il vecchio progetto r400 inizia a prendere forma nel segmento console con r500 per xbox360 e adattato alle richieste pc con r520-r580 nel quale sono stati sperimentare le archidetture multi pixel shader associate ad una singola pipeline vedi r580 che per 1 pipeline ha 3 ps e soprattuto prove di controler con il ringbus per sopperire all'ormai "vecchia" archidettura crossbar per la memoria.
con l'entrara in vigore delle dx10 quindi archidettura unificata si è preso quanto di buono presenre in r500 ovviamente lo si è adattato al mercato pc togliendo la memorie embemed e adattandolo per il ringbus.
diciamo che r5x0 per pc,r500 di xbox360 sono i figli del vecchio progetto r400.
r5x0 per pc e r500 sono cugini mentre r600 è la somma delle evoluzione tecnologiche sperimentate con r5x0 per pc e r500 su xbox360.
Toglimi una curiosità, ma lavori all'AMD?? :D :D :D
Foglia Morta
30-12-2006, 17:31
Non so se sia un fake o meno... comunque c' è una specie di rece qui:
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
premetto che non l'ho neanche letta... ho guardato la lunghezza delle barre :D
Ipotizzando che non sia un fake: bisogna sperare che quella sia la versione "piccina" di cui la rece accenna dovrebbe esserci il 22 gennaio, perchè le performance non sono sto granchè.
dettaglio interessante:
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
Significa che è quasi DX10.1 ?
Foglia Morta
30-12-2006, 17:34
mi sa che è un fake :rolleyes:
mi sa che è un fake :rolleyes:
mi sa.
Si, é un fake, quasi sicuro.
Peró non credo che i risultati si discosteranno molto da quelli ...
Foglia Morta
30-12-2006, 17:51
anche perchè in quel sito non c'è nient'altro oltre a quella "rece"
nico88desmo
30-12-2006, 18:39
non sarebbe male comunque...
Window Vista
30-12-2006, 18:49
Speriamo sia un fake!!! :cool:
:cool:
appleroof
30-12-2006, 18:51
io ero rimasto agli ultimi rumors che parlavano di Febbraio...:boh:
si scusami...mi pare di aver letto che per marzo esce con le gddr4 (ma allora avrebbe senso prenderla con le gdd3 a gennaio? Secondo me il forte segreto che avvolge R600 ha dato adito a troppe fantasie...) ;)
Skullcrusher
30-12-2006, 19:29
Propendo per il fake....ma in ogni caso, credo anche che le prestazioni saranno quelle, bene o male....
nico88desmo
30-12-2006, 19:38
anche secondo me le prestazioni saranno quelle più o meno;
ci sarà una battaglia all'ultimo frame...
mi aspetto già un G81 con 1024MB di memoria e bus a 512 bits :D :D :D
appleroof
30-12-2006, 20:08
anche secondo me le prestazioni saranno quelle più o meno;
ci sarà una battaglia all'ultimo frame...
mi aspetto già un G81 con 1024MB di memoria e bus a 512 bits :D :D :D
:asd: :asd:
...e poi un R620 con 1536Mb e bus 768...poi G90 con 2048Mb e bus a 1024 bit...poi.....:sofico: :sofico: :sofico:
Kharonte85
30-12-2006, 20:56
Si, é un fake, quasi sicuro.
Peró non credo che i risultati si discosteranno molto da quelli ...
quoto
davide155
30-12-2006, 21:36
Può essere un fake, come non lo può essere......
Non ci sono foto, quindi si pensa ad un articolo inventato.
Ma i risultati non sono assolutamente pompati, anzi, la 8800gtx in alcuni test la raggiunge e la sorpassa, quindi si può pensare sia anche la realtà.
Chi vivrà vedrà :D
come detto avendo un ringbus esterno a 512bit(cosa cmq a questo punto quasi sicura)
con economiche gddr3 da mettere sulla versione value cme si arrivano a bande assurde di 100gb se si usano le ram da 1600 delle x1900xt di adesso...
mettendogli le veloci gddr4 da 1000-1400mhz si passa da bande di 128gb fino a bande di 172gb...
personalmente credo che la versione gddr3 sia la versione castrata con nome in codice ufo visto che via via che si va avanti le gddr4 scaldano meno e verranno a costare di meno.
cioè verrà a costare meno per gli assemblatori fare tot ordini di gddr4 da 900-1200mhz che non fare ordini minori di gddr4 e gddr3.
quindi presumo che la versione cat eye avrà gddr4 value da 1000mhz come le x1950xtx di adesso per andare sui 1200mhz per la versione pompata
ricordo gddr4 da 1200mhz con ring bus da 512bit esterni vuol dire una banda di 153gb^^.
paragonare questa soluzione a quella nvidia è una mezza pecionata visto che il controller crossbar e quello ringbus sono fondamentalmente differenti.
il crossbar ha bisogno di blocchi di memoria per aumentare al banda ogni blocco da 64mb di ram è associato un bus di 32bit che poi vengono raccordati qunidi l'unica soluzione che ha nvidia è quella di mettere 1024mb di ram per arrivare ai fatidici 512bit di bus.
ovviamente questa è una soluzione che resterebbe cmq elitaria non tanto per il quantitativo di memoria perchè fare i 512bit di bus con il crossbar e meno di 1024mb di ram non si puo fare.
per assurdo se uscisse una 8800 con soli 512mb di ram il suo bus sarebbe automaticamente di 256bit...
il ringbus è + flessibile cioè lavora bene sia con 256-512-1024mb di ram
ergo non mi stupirei se ci fossero r600 con 512mb di ram e bus da 512bit.
cosa che sulle 8800 non si potrebbe fare.
diciamo il ringbus è una soluzione + flessibile e meno vincolata dal quantitativo di ram
Non so se sia un fake o meno... comunque c' è una specie di rece qui:
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
premetto che non l'ho neanche letta... ho guardato la lunghezza delle barre :D
Ipotizzando che non sia un fake: bisogna sperare che quella sia la versione "piccina" di cui la rece accenna dovrebbe esserci il 22 gennaio, perchè le performance non sono sto granchè.
dettaglio interessante:
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
Significa che è quasi DX10.1 ?
Credo anche io che sia una bufala. :D
SUPERALEX
30-12-2006, 21:59
ma non sono un pò bassi i punteggi del 3dmark 2006?sia del r600 sia della 8800..
ma non sono un pò bassi i punteggi del 3dmark 2006?sia del r600 sia della 8800..
Sono a 1600x1200 con AA4x e AF16x. ;)
davide155
30-12-2006, 22:12
Sono a 1600x1200 con AA4x e AF16x. ;)
Appunto
e' possibile, secondo voi, che qualcuno "del mestiere" avendo dei software di simulazione, usando i rumors su R600 ed un paragone con G80 che e' noto, sia stato in grado di scrivere quella rece linkta? Ovvero che sia il risultato di una somma fatta da G80+Rumors+proiezioni ?
davide155
30-12-2006, 22:55
e' possibile, secondo voi, che qualcuno "del mestiere" avendo dei software di simulazione, usando i rumors su R600 ed un paragone con G80 che e' noto, sia stato in grado di scrivere quella rece linkta? Ovvero che sia il risultato di una somma fatta da G80+Rumors+proiezioni ?
Non ci vuole mica la scienza :D
Te la sapevo fare pure io.......
Bastava mettere qualche fps in più ai risultati della 8800gtx e scrivere qualche frase ben fatta sotto i grafici e ti sei ammaliato mezzo mondo ;)
Non ci vuole mica la scienza :D
Te la sapevo fare pure io.......
Bastava mettere qualche fps in più ai risultati della 8800gtx e scrivere qualche frase ben fatta sotto i grafici e ti sei ammaliato mezzo mondo ;)
a buttarla giu' senza test riuscivo anche io, in realta' intendevo se, facendola seriamente, con degli strumenti di simulzione software si e' in grado di aprossimare le reali prestazioni di una futura vga senza averla fisicamente nel case. Penso di si comunque.
e come fai a simulare l'efficienza dell'architettura della GPU se non la conosci?te la inventi? :confused:
e come fai a simulare l'efficienza dell'architettura della GPU se non la conosci?te la inventi? :confused:
La immagini. :D
e come fai a simulare l'efficienza dell'architettura della GPU se non la conosci?te la inventi? :confused:
si :asd:
davide155
30-12-2006, 23:18
a buttarla giu' senza test riuscivo anche io, in realta' intendevo se, facendola seriamente, con degli strumenti di simulzione software si e' in grado di aprossimare le reali prestazioni di una futura vga senza averla fisicamente nel case. Penso di si comunque.
Mancano pochi mesi all'uscita.......se va bene 1-2
Facciamoci meno seghe mentali :D
Mancano pochi mesi all'uscita.......se va bene 1-2
Facciamoci meno seghe mentali :D
in realta' saranno inversamente proporzionali ai giorni mancanti all'uscita, come del resto sempre accade.
Strano come alla pagina di test di Call of Duty 2 si affermi che il motore del gioco sia OpenGL :mbe:
bYeZ!
davide155
30-12-2006, 23:30
in realta' saranno inversamente proporzionali ai giorni mancanti all'uscita, come del resto sempre accade.
Purtroppo è una debolezza degli appassionati del settore.
E questa debolezza porta i nostri cervelli a fare cose insensate agli okki altrui, ma inteligenti ai nostri okki.
Come il fatto di comprare una 8800gtx il primo giorno del lancio :rolleyes:
Non capirò mai chi l'ha fatto.
E temo si ripeta pure con r600........
La passione offusca la mente umana.........è proprio vero :nono:
Foglia Morta
31-12-2006, 11:18
dailytech ha preso sul serio quelle pagine
http://www.dailytech.com/article.aspx?newsid=5524
Su guru 3d ci sono pure i bench Link (http://www.guru3d.com/newsitem.php?id=4731)... saranno veri :confused:
Andrea deluxe
31-12-2006, 11:35
quindi una eventuale x2800 xtx avra' 1024mb gddr3 con bus a 512 bit,
ed una eventuale x2900 xtx avra' 1024mb gddr4 con bus a 512 bit!
a che freq vanno le gddr3?
a che freq vanno le gddr4?
:muro: non mi ricordo come si fa il calcolo per la banda passante :muro:
ps: secondo me a marzo presentano una versione della gpu a full frequency con gddr4, mentre a gennaio ci saranno le versioni con core sfigato oppure castrato volutamente in frequenza!
appleroof
31-12-2006, 11:35
Speriamo sia un fake!!! :cool:
:cool:
già...R600 andrà il doppio vedrai.. :asd: :asd:
Foglia Morta
31-12-2006, 11:39
ha fatto copia incolla di quella "rece"...
comunque se non è un fake sono buoni i risultati dato che sarebbe la versione lenta di R600 , dall' altra ci si aspetta qualcosa in più. Per sapere se è fake o meno bisognerà verificare l'info più immediata , cioè il 22 gennaio
Skullcrusher
31-12-2006, 11:42
Se fossero i risultati della versione "lenta", sarebbero ottimi...se fossero risultati veritieri....tra un mesetto si saprà tutto :D
Foglia Morta
31-12-2006, 11:44
quindi una eventuale x2800 xtx avra' 1024mb gddr3 con bus a 512 bit,
ed una eventuale x2900 xtx avra' 1024mb gddr4 con bus a 512 bit!
a che freq vanno le gddr3?
a che freq vanno le gddr4?
:muro: non mi ricordo come si fa il calcolo per la banda passante :muro:
ps: secondo me a marzo presentano una versione della gpu a full frequency con gddr4, mentre a gennaio ci saranno le versioni con core sfigato oppure castrato volutamente in frequenza!
stando a quel che dice la versione lenta ( quella "recensita" )avrà 115GB di banda passante e 140GB quella veloce con gddr4.
Ora via di seghe mentali per le DX10.1 :asd:
appleroof
31-12-2006, 11:44
Su guru 3d ci sono pure i bench Link (http://www.guru3d.com/newsitem.php?id=4731)... saranno veri :confused:
per dirne una, nel bench di hl2 lost coast faccio un punteggio di 87fps a 1680x1050 (invece che a 1600x1200) ma con aa16xQ invece che a 4X e non ho certo un X6700.... :rolleyes:
appleroof
31-12-2006, 11:53
Purtroppo è una debolezza degli appassionati del settore.
E questa debolezza porta i nostri cervelli a fare cose insensate agli okki altrui, ma inteligenti ai nostri okki.
Come il fatto di comprare una 8800gtx il primo giorno del lancio :rolleyes:
Non capirò mai chi l'ha fatto.
E temo si ripeta pure con r600........
La passione offusca la mente umana.........è proprio vero :nono:
come cambiare una 7800gt con una x1900xt per giocare su un 17" a poche settimane da G80 e pochi mesi dalle altre dx10? :asd:
;)
Andrea deluxe
31-12-2006, 12:54
se quei risultati sono veri, credo che nvidia calerà il suo asso dalle maniche in modo vilolento!
ps.
vorrei capire in che modo nvidia con g80 possa integrare il bus a 512 bit senza modificare la propria GPU!
E poi capire in che modo l'interaccia nvidia distibuisce i dati sulla ram, visto che il bus è dipendente dalla memoria montata sulla scheda!
appleroof
31-12-2006, 13:06
vorrei capire in che modo nvidia con g80 possa integrare il bus a 512 bit senza modificare la propria GPU!
E poi capire in che modo l'interaccia nvidia distibuisce i dati sulla ram, visto che il bus è dipendente dalla memoria montata sulla scheda!
il controller crossbar e quello ringbus sono fondamentalmente differenti.
il crossbar ha bisogno di blocchi di memoria per aumentare al banda ogni blocco da 64mb di ram è associato un bus di 32bit che poi vengono raccordati qunidi l'unica soluzione che ha nvidia è quella di mettere 1024mb di ram per arrivare ai fatidici 512bit di bus.
ovviamente questa è una soluzione che resterebbe cmq elitaria non tanto per il quantitativo di memoria perchè fare i 512bit di bus con il crossbar e meno di 1024mb di ram non si puo fare.
per assurdo se uscisse una 8800 con soli 512mb di ram il suo bus sarebbe automaticamente di 256bit...
il ringbus è + flessibile cioè lavora bene sia con 256-512-1024mb di ram
ergo non mi stupirei se ci fossero r600 con 512mb di ram e bus da 512bit.
cosa che sulle 8800 non si potrebbe fare.
diciamo il ringbus è una soluzione + flessibile e meno vincolata dal quantitativo di ram
:read: :read: ;)
se quei risultati sono veri, credo che nvidia calerà il suo asso dalle maniche in modo vilolento!
è sempre stato così....cmq se le cose stanno come sembra, l'attuale 8800gtx non è inferiore al I R600, credo che il refresh di G80 uscirà con R600 con le gddr4 e monterà anch'esso queste memorie e chip a 80nm...
ovviamente tutto IMHO ;)
Andrea deluxe
31-12-2006, 15:53
si, ma per avere una banda passante tot, con nvidia devo mettere le texture(anche 50mb) spalmate su tutti i chip di memoria giusto?
:mbe: sono poco chiaro vero?
appleroof
31-12-2006, 16:07
si, ma per avere una banda passante tot, con nvidia devo mettere le texture(anche 50mb) spalmate su tutti i chip di memoria giusto?
:mbe: sono poco chiaro vero?
l'architettura crossbar tradizionale (a 4 bracci, ciascuno dedicato ad un gruppo di chip di ram) è nata per gestire nel modo migliore l'impiego di 4 chip. Questo perchè ogni chip ha un suo collegamento dedicato (un braccio del crossbar) tramite cui transitano i dati in ingresso e in uscita dalla ram. Un memory controller non fa altro che ricevere le richieste di accesso alla ram da parte dei vari utilizzatori (che in un chip grafico sono le singole pipeline) e indirizzarle al corrispettivo banco di ram, decidendo l'ordine di priorità in caso di richieste di accesso contemporaneo alle stesse risorse. All'aumentare del numero delle pipeline di un chip e del numero di banchi di ram, si riduce l'efficienza di questo tipo di connessione; immagina una situazione in cui ogni braccio del crossbar serve 2 o 4 banche di ram, con un chip con, ad esempio, 16 pipeline. Aumenta di molto la probabilità che quel braccio sia interessato da più richieste di accesso contemporanee: questo significa creazione di una coda con relativo aumento delle latenze negli accessi in memoria.
Il ring bus è un sistema abbastanza economico (anche a livello di complessità circuitale) per risolvere o minimizzare questo problema (non a caso è stata la soluzione scelta anche da IBM per il cell).In un ring bus ogni banco e ciascun "utilizzatore" sono connessi direttamente all'anello tramite i cosiddetti ring stop. Quando c'è una chiamata di accesso alla ram, il controller individua il banco di ram e il relativo ring stop a cui è connesso, invia la richiesta. A questo punto è libero di occuparsi della successiva richiesta di accesso. I dati sono messi in circolo nell'anello è, quando arrivano al ring stop a cui è connesso l'utilizzatore che ha inoltrato la richiesta vengono smistati (senza ulteriori interventi da parte del menmory controller). Qui emerge un altro limite dell'architettura crossbar: il controller si occupa di tutte e 4 le fasi relative alla gestione di invio richiesta e smistamento dei dati (mentre con un ring bus si occupa solo delle prime due, relative all'inoltro della richiesta di accesso).
Ovviamente, all'aumentare del numero degli "utilizzatori", anche il ring bus inizia a presentare delle criticità. La soluzione teoricamente migliore sarebbe una connessione dedicata di ogni singolo utilizzatore con ciascun banco di ram; questa è però anche di gran lunga la soluzione più dispendiosa e complessa a livello circuitale.
ari :read: :read: ;)
Andrea deluxe
31-12-2006, 16:19
:stordita:
appleroof
31-12-2006, 16:31
cosa?
Lud von Pipper
31-12-2006, 17:26
I ruisultati della recensione sono piuttosto realistici, anche se, con dirvers pre-release mi sarei aspettato risultati più "erratici".
Smettiamo eprò di immaginarci un mostro di potenza che sbaraglierà la concorrenza: i bei tempi di R300 sono passati e ATI non deve dimostrare più nulla a nessuno.
nVidia e ATI si sono da tempo "accordati" per uscite progressive, con prodotti che si strappano la corona di "più veloce del mercato" ogni tre mesi, e invece che farsi la guerra (come ai tempi della 9700/5800) collaborano per rendere redditizio il mercato, con prezzi del nuovo hardware (che cala in pochissimo tempo) a dimostrarlo.
Molto meglio tenere la gara accesa e interessante che uccidere il mercato con il "prodotto definitivo", che verrebbe acquistato una volta sola e resterebbe nel Case degli appassionati per troppo tempo, attraverso tanti modelli molto simili che incrementano le prestazioni di quel giusto che serve a farsi apprezzare al 3DMark
Chi di noi, su una macchina comune (dicamo un A64 3000) sarebbe davvero in grado di dire la differenza tra, mettiamo, una X1800Xt e una X1950Xt durante una sessione di gioco?
Io no, e non credo sia possibile se l'aumento di prestazioni è sotto il 50%.
Non è saggio sostituire una scheda video se non si raddoppiano almeno le prestazioni rispetto al vecchio Hardware, ma per il "maniaco" dell'overclock conta solo la certezza di avere nel case "il meglio" e i produttori se ne sono resi conto benissimo.
R600 e G80 continueranno a strapparsi la palma di "più veloce" nei prossimi mesi così come hanno fatto negli ultimi due anni, in base a quello che vierra deciso a livello di marketing.
appleroof
31-12-2006, 17:29
Molto meglio tenere la gara accesa e interessante che uccidere il mercato con il "prodotto definitivo", che verrebbe acquistato una volta sola e resterebbe nel Case degli appassionati per troppo tempo, attraverso tanti modelli molto simili che incrementano le prestazioni di quel giusto che serve a farsi apprezzare al 3DMark
bè in effetti in una situazione di duopolio di fatto non sembra fantascientifico anzi...
Mister Tarpone
31-12-2006, 17:32
I ruisultati della recensione sono piuttosto realistici, anche se, con dirvers pre-release mi sarei aspettato risultati più "erratici".
Smettiamo eprò di immaginarci un mostro di potenza che sbaraglierà la concorrenza: i bei tempi di R300 sono passati e ATI non deve dimostrare più nulla a nessuno.
nVidia e ATI si sono da tempo "accordati" per uscite progressive, con prodotti che si strappano la corona di "più veloce del mercato" ogni tre mesi, e invece che farsi la guerra (come ai tempi della 9700/5800) collaborano per rendere redditizio il mercato, con prezzi del nuovo hardware (che cala in pochissimo tempo) a dimostrarlo.
Molto meglio tenere la gara accesa e interessante che uccidere il mercato con il "prodotto definitivo", che verrebbe acquistato una volta sola e resterebbe nel Case degli appassionati per troppo tempo, attraverso tanti modelli molto simili che incrementano le prestazioni di quel giusto che serve a farsi apprezzare al 3DMark
Chi di noi, su una macchina comune (dicamo un A64 3000) sarebbe davvero in grado di dire la differenza tra, mettiamo, una X1800Xt e una X1950Xt durante una sessione di gioco?
Io no, e non credo sia possibile se l'aumento di prestazioni è sotto il 50%.
Non è saggio sostituire una scheda video se non si raddoppiano almeno le prestazioni rispetto al vecchio Hardware, ma per il "maniaco" dell'overclock conta solo la certezza di avere nel case "il meglio" e i produttori se ne sono resi conto benissimo.
R600 e G80 continueranno a strapparsi la palma di "più veloce" nei prossimi mesi così come hanno fatto negli ultimi due anni, in base a quello che vierra deciso a livello di marketing.
Quoto tutto il discorso ;)
I ruisultati della recensione sono piuttosto realistici, anche se, con dirvers pre-release mi sarei aspettato risultati più "erratici".
Smettiamo eprò di immaginarci un mostro di potenza che sbaraglierà la concorrenza: i bei tempi di R300 sono passati e ATI non deve dimostrare più nulla a nessuno.
nVidia e ATI si sono da tempo "accordati" per uscite progressive, con prodotti che si strappano la corona di "più veloce del mercato" ogni tre mesi, e invece che farsi la guerra (come ai tempi della 9700/5800) collaborano per rendere redditizio il mercato, con prezzi del nuovo hardware (che cala in pochissimo tempo) a dimostrarlo.
Molto meglio tenere la gara accesa e interessante che uccidere il mercato con il "prodotto definitivo", che verrebbe acquistato una volta sola e resterebbe nel Case degli appassionati per troppo tempo, attraverso tanti modelli molto simili che incrementano le prestazioni di quel giusto che serve a farsi apprezzare al 3DMark
Chi di noi, su una macchina comune (dicamo un A64 3000) sarebbe davvero in grado di dire la differenza tra, mettiamo, una X1800Xt e una X1950Xt durante una sessione di gioco?
Io no, e non credo sia possibile se l'aumento di prestazioni è sotto il 50%.
Non è saggio sostituire una scheda video se non si raddoppiano almeno le prestazioni rispetto al vecchio Hardware, ma per il "maniaco" dell'overclock conta solo la certezza di avere nel case "il meglio" e i produttori se ne sono resi conto benissimo.
R600 e G80 continueranno a strapparsi la palma di "più veloce" nei prossimi mesi così come hanno fatto negli ultimi due anni, in base a quello che vierra deciso a livello di marketing.
hai ragione, d'altronde pero' se non facessero cosi' il mercato si fermerebbe.
appleroof
31-12-2006, 17:37
hai ragione, d'altronde pero' se non facessero cosi' il mercato si fermerebbe.
e noi guadagneremmo giochi migliori (più ottimizzati) e soldi in tasca... :read:
chi sente davvero il bisogno di una nuova top ogni tre mesi dai?
e noi guadagneremmo giochi migliori (più ottimizzati) e soldi in tasca... :read:
chi sente davvero il bisogno di una nuova top ogni tre mesi dai?
no che non se ne sente bisogno, ma a loro chi lo dice? e se comunque noi utenti compriamo nuove schede ogni 6 mesi tutto questo torto non lo hanno.
appleroof
31-12-2006, 17:56
no che non se ne sente bisogno, ma a loro chi lo dice? e se comunque noi utenti compriamo nuove schede ogni 6 mesi tutto questo torto non lo hanno.
lo sanno lo sanno, ma è un circolo vizioso:
più di una volta ho affermato che esiste una lobby o mafia o cartello o come volete tra produttori sw e hw: alimentata dalla passione di gente come noi.
E' anche vero però che io non metto "sotto accusa" il progresso tecnologico, ci mancherebbe, ma le regole di mercato quelle sì, e in fondo gli utenti come noi sono portati a prendere la scheda più potente (non solo chi compra la top, ma anche chi passa da una scheda buona ad una appena migliore, pensa a chi è passato da una 7800 ad una x1900 oppure peggio da una 7800/x1800 ad una 7900/x1900....ricordi quanti erano?) dal fatto che i giochi "pretendono" risorse sempre più esose (lascia stare il cambio da dx9 a dx10 perchè è un salto ad una tecnologia nuova ma pensa "all'interno" delle stesse librerie per dirne una) e richiedono risorse sempre maggiori perchè tanto i produttori hw le mettono a disposizione sul mercato, dove noi le compriamo:
ecco il circolo vizioso :rolleyes:
io sono arrivato ad augurarmi che la vga che ho adesso (una potenza di calcolo assurda solo a pensarci 2 anni fa sembrava fantascienza) duri un anno pieno...
Skullcrusher
31-12-2006, 17:59
Io sono arrivato ad augurarmi che la vga che ho adesso (una potenza di calcolo assurda solo a pensarci 2 anni fa sembrava fantascienza) duri un anno pieno...
Vorrei vedere il contrario... :p
appleroof
31-12-2006, 18:03
Vorrei vedere il contrario... :p
eh lo so...ma con quest'andazzo...
personalmente il 2006 (a proposito..AUGURI A TUTTI :) ) ha segnato una svolta in negativo nel mercato con l'uscita della x1900 a pochissimo tempo dalla x1800 e la necessità di Nvidia di adeguarvisi (ricordate quanto durò la 7800gtx 512mb?)
spero solo che l'andazzo subisca un giro di vite sopratutto perchè i benedetti sviluppatori potrebbero concentrarsi su quello che c'è (immagina se R600 e G80 fossero le top per almeno un anno non dico di più)
Skullcrusher
31-12-2006, 18:04
eh lo so...ma con quest'andazzo...
personalmente il 2006 (a proposito..AUGURI A TUTTI :) ) ha segnato una svolta in negativo nel mercato con l'uscita della x1900 a pochissimo tempo dalla x1800 e la necessità di Nvidia di adeguarvisi (ricordate quanto durò la 7800gtx 512mb?)
spero solo che l'andazzo subisca un giro di vite sopratutto perchè i benedetti sviluppatori potrebbero concentrarsi su quello che c'è (immagina se R600 e G80 fossero le top per almeno un anno non dico di più)
Già, hai proprio ragione....
P.S: Buon anno a tutti!!! :D
(ricordate quanto durò la 7800gtx 512mb?)
ti prego sono abbastanza inca per questo...
ti prego sono abbastanza inca per questo...
:Prrr: :ciapet:
davide155
01-01-2007, 13:18
lo sanno lo sanno, ma è un circolo vizioso:
più di una volta ho affermato che esiste una lobby o mafia o cartello o come volete tra produttori sw e hw: alimentata dalla passione di gente come noi.
E' anche vero però che io non metto "sotto accusa" il progresso tecnologico, ci mancherebbe, ma le regole di mercato quelle sì, e in fondo gli utenti come noi sono portati a prendere la scheda più potente (non solo chi compra la top, ma anche chi passa da una scheda buona ad una appena migliore, pensa a chi è passato da una 7800 ad una x1900 oppure peggio da una 7800/x1800 ad una 7900/x1900....ricordi quanti erano?) dal fatto che i giochi "pretendono" risorse sempre più esose (lascia stare il cambio da dx9 a dx10 perchè è un salto ad una tecnologia nuova ma pensa "all'interno" delle stesse librerie per dirne una) e richiedono risorse sempre maggiori perchè tanto i produttori hw le mettono a disposizione sul mercato, dove noi le compriamo:
ecco il circolo vizioso :rolleyes:
io sono arrivato ad augurarmi che la vga che ho adesso (una potenza di calcolo assurda solo a pensarci 2 anni fa sembrava fantascienza) duri un anno pieno...
Io sono passato da una 7800gt ad una x1900xt e la differenza l'ho vista eccome nei gioki :rolleyes:
Giochi che mi andavano a scatti quali oblivion, double agent.....adesso vanno molto meglio.....
Athlon 64 3000+
01-01-2007, 15:06
lo sanno lo sanno, ma è un circolo vizioso:
più di una volta ho affermato che esiste una lobby o mafia o cartello o come volete tra produttori sw e hw: alimentata dalla passione di gente come noi.
E' anche vero però che io non metto "sotto accusa" il progresso tecnologico, ci mancherebbe, ma le regole di mercato quelle sì, e in fondo gli utenti come noi sono portati a prendere la scheda più potente (non solo chi compra la top, ma anche chi passa da una scheda buona ad una appena migliore, pensa a chi è passato da una 7800 ad una x1900 oppure peggio da una 7800/x1800 ad una 7900/x1900....ricordi quanti erano?) dal fatto che i giochi "pretendono" risorse sempre più esose (lascia stare il cambio da dx9 a dx10 perchè è un salto ad una tecnologia nuova ma pensa "all'interno" delle stesse librerie per dirne una) e richiedono risorse sempre maggiori perchè tanto i produttori hw le mettono a disposizione sul mercato, dove noi le compriamo:
ecco il circolo vizioso :rolleyes:
io sono arrivato ad augurarmi che la vga che ho adesso (una potenza di calcolo assurda solo a pensarci 2 anni fa sembrava fantascienza) duri un anno pieno...
Io ho fatto il passaggio da una 7800GTX 256 ad una X1900XT alla fine di febbraio 2006 e non mi sono mai pentito e in BF2 e Fear ho riscontrato un forte aumento di prestazioni.
guido398
01-01-2007, 15:12
:D Sul sito Centerzone.it (http://www.centerzone.it/index.php?option=com_content&task=view&id=147&Itemid=73) è uscita la notizia che sarebbero stati eseguiti i primi benchmark sull' attessissimo ATI R600 messo a confronto contro la Geforce 8800GTX di Nvidia, un'articolo di ben 12 pagine con risultati strabilianti! :eek:
guido398
01-01-2007, 15:17
Penso che con questa scheda la superiorità ATI verra ristabilita....
Mister Tarpone
01-01-2007, 15:19
e G81?? dove lo mettiamo?? in cu.. :D ??
guido398
01-01-2007, 15:21
Per il G81 c'è ancora tempo...il G80 non è ancora perfettamente in palla, ha avuto parecchi problemi...
Mister Tarpone
01-01-2007, 15:27
E intanto già si parla di G90 - R700 nel 3-4 trimestre di quest'anno... :muro:
G81 salterà fuori entro primavera... ma anche prima ;)
guido398
01-01-2007, 15:28
Ed io giro sempre con la Mitica ATI 9700 overclokkata giocando fluidamente a tutti i titoli....come si spiega????
Mister Tarpone
01-01-2007, 15:30
Ed io giro sempre con la Mitica ATI 9700 overclokkata giocando fluidamente a tutti i titoli....come si spiega????
Ecco il perchè: :ciapet:
appleroof
01-01-2007, 15:32
:D Sul sito Centerzone.it (http://www.centerzone.it/index.php?option=com_content&task=view&id=147&Itemid=73) è uscita la notizia che sarebbero stati eseguiti i primi benchmark sull' attessissimo ATI R600 messo a confronto contro la Geforce 8800GTX di Nvidia, un'articolo di ben 12 pagine con risultati strabilianti! :eek:
:old:
Mister Tarpone
01-01-2007, 15:40
:old:
Ah si?? :muro:
Ma sono vere ste notizie almeno?? o è una presa di cu..?? :confused:
Mah...
appleroof
01-01-2007, 15:41
Ah si?? :muro:
Ma sono vere ste notizie almeno?? o è una presa di cu..?? :confused:
Mah...
una o due pagine indietro se ne dicute... ;)
Mister Tarpone
01-01-2007, 15:44
non ci avevo fatto caso... :doh: :stordita: :mc:
:D Sul sito Centerzone.it (http://www.centerzone.it/index.php?option=com_content&task=view&id=147&Itemid=73) è uscita la notizia che sarebbero stati eseguiti i primi benchmark sull' attessissimo ATI R600 messo a confronto contro la Geforce 8800GTX di Nvidia, un'articolo di ben 12 pagine con risultati strabilianti! :eek:
risultati inventati di sana pianta o cmq falsi basta fare un paragone con i risultati ottenuti dalla 8800gtx o dalle x1950xtx in cross su altri siti ;)
guido398
01-01-2007, 15:49
Attulamente soluzioni di questo tipo sono totalmente , non sfruttate...sarebbe come comprarsi un Testa Rossa per andare sulle piste ciclabili... :confused:
La gente non ha ancora capito che le case produttrici di VideoGames devono venderli i titoli, altrimenti se come requisiti minimi ci schioccano 2 Geforce 8800Gtx in SLI chi ci gioca???? Devi fare un mutuo per compra un 'hardware del genere....
Leggete i requisiti del nuovo Crysis (http://www.tomshw.it/news.php?newsid=8670) ...
appleroof
01-01-2007, 15:50
risultati inventati di sana pianta o cmq falsi basta fare un paragone con i risultati ottenuti dalla 8800gtx o dalle x1950xtx in cross su altri siti ;)
però mi aspetto risultati simili all'uscita di R600, cmq spero di vedere presto test dx10 (qualcuno sà quando è previsto il 3dmark2007?) ,
provare stè schede con giochi dx9 è un minimo rappresentativo delle loro capacità (anche perchè per altri sei mesi giocheremo giochi dx9 tranne qualche, splendido, titolo dx10) ma le vere prestazioni secondo me usciranno e si vedranno con le dx10
appleroof
01-01-2007, 15:55
Attulamente soluzioni di questo tipo sono totalmente , non sfruttate...sarebbe come comprarsi un Testa Rossa per andare sulle piste ciclabili... :confused:
La gente non ha ancora capito che le case produttrici di VideoGames devono venderli i titoli, altrimenti se come requisiti minimi ci schioccano 2 Geforce 8800Gtx in SLI chi ci gioca???? Devi fare un mutuo per compra un 'hardware del genere....
Leggete i requisiti del nuovo Crysis (http://www.tomshw.it/news.php?newsid=8670) ...
non lo sono perchè non ci sono giochi dx10
quanto al resto è la storia di sempre, che determina anche la minore qualità complessiva (in termini di pura ottimizzazione) dei giochi per pc rispetto ai giochi per consolle (ed ecco perchè con le dx10 si comincia a spingere verso la standardizzazione +o- dell'hw)
però devi considerare che un anno fà chi voleva giocare abbastanza bene ad Oblivion doveva dotarsi almeno di una x1800/7800 per cui queste schede hanno senso (per chi può prenderle) se non vuoi compromessi di sorta
però mi aspetto risultati simili all'uscita di R600, cmq spero di vedere presto test dx10 (qualcuno sà quando è previsto il 3dmark2007?) ,
provare stè schede con giochi dx9 è un minimo rappresentativo delle loro capacità (anche perchè per altri sei mesi giocheremo giochi dx9 tranne qualche, splendido, titolo dx10) ma le vere prestazioni secondo me usciranno e si vedranno con le dx10
anchio mi aspetto risultati simili...cmq non mi preoccuperei troppo delle prove in DX10...queste sono schede fatte per giochi DX9 (visto che giochi dx10 non se ne vedranno ancora per un pò di tempo)....le "vere" schede DX10 le vedremo tra 6 mesi ;)
Penso che con questa scheda la superiorità ATI verra ristabilita....
si ma se ho letto bene non a livelo di filtri...
cqe personalmente l'aspetavo piu potente questo r600.
domani mi arriva la 8800GTX che tra l'altro rimara nel case fino a fine 2008
:D
edit:
buon anno a tutti
appleroof
01-01-2007, 16:30
anchio mi aspetto risultati simili...cmq non mi preoccuperei troppo delle prove in DX10...queste sono schede fatte per giochi DX9 (visto che giochi dx10 non se ne vedranno ancora per un pò di tempo)....le "vere" schede DX10 le vedremo tra 6 mesi ;)
certo certo...
però mi aspetto risultati simili all'uscita di R600, cmq spero di vedere presto test dx10 (qualcuno sà quando è previsto il 3dmark2007?) ,
provare stè schede con giochi dx9 è un minimo rappresentativo delle loro capacità (anche perchè per altri sei mesi giocheremo giochi dx9 tranne qualche, splendido, titolo dx10) ma le vere prestazioni secondo me usciranno e si vedranno con le dx10
Non mi sembra che in dx9 le loro capacità siano messe in discussione, pur avendo anche un apertura verso le dx10, solitamente le prime di una nuova serie sono le schede che fanno girare perfettamente i titoli migliori della generazione precedente.
Pk77
appleroof
01-01-2007, 16:45
Non mi sembra che in dx9 le loro capacità siano messe in discussione, pur avendo anche un apertura verso le dx10, solitamente le prime di una nuova serie sono le schede che fanno girare perfettamente i titoli migliori della generazione precedente.
Pk77
esatto, hai capito bene: per valutare davvero come vanno bisogna vedere come si comportano in dx10 ;)
Ciao ragazzi vorrei un consiglio da tutti voi a giorni deve arrivarmi mobo p5n32-e-sli Cpu e6600 2gb ocz; ma la skeda non l'ordinata o una (agp 5900xt una minchi++a) e quindi non posso neache assemblare, cosa fareste voi?
*volevo prendere x1950xtx 512mb 256bit *
esatto, hai capito bene: per valutare davvero come vanno bisogna vedere come si comportano in dx10 ;)
anche se quando i giochi dx10 saranno diffusi sia G80 che R600 potrebbero essere "vecchie", nel senso che saranno gia' uscite le rispettive evoluzioni.
per assurdo e' probabile che G80 (e forse R600) sara' ricordata piu' come l'ultima vga per i giochi DX9 che come la prima per i vg DX10.
(con questo non sto criticando il tuo acquisto, lo sai ;) )
Ciao ragazzi vorrei un consiglio da tutti voi a giorni deve arrivarmi mobo p5n32-e-sli Cpu e6600 2gb ocz; ma la skeda non l'ordinata o una (agp 5900xt una minchi++a) e quindi non posso neache assemblare, cosa fareste voi?
*volevo prendere x1950xtx 512mb 256bit *
se compri oggi e non cambi spesso meglio la 8800GTS
appleroof
01-01-2007, 17:30
se compri oggi e non cambi spesso meglio la 8800GTS
la "penultima vga dx9"? :asd: :asd:
a parte gli scherzi, secondo me vi fate fuorviare dal fatto che le schede sono uscite molto presto rispetto a dx10, in realtà l'architettura di cui sono dotate a me fà ben sperare nelle prestazioni in dx10, è chiaro che questo è da dimostrare ancora ma sulla carta è cos' (shader unificati, potenza di calcolo assurda, num di transistor quanto 2 x6800 ecc...non sono messi lì per le dx9 poi ognuno la vede come crede chiaramente)
diciamo che sono...le prime vga dx10 con tutti i pregi e i difetti che questo comporta e vanno da dio in dx9, ma questo è solo un qualcosa in più ;)
I ruisultati della recensione sono piuttosto realistici, anche se, con dirvers pre-release mi sarei aspettato risultati più "erratici".
Smettiamo eprò di immaginarci un mostro di potenza che sbaraglierà la concorrenza: i bei tempi di R300 sono passati e ATI non deve dimostrare più nulla a nessuno.
nVidia e ATI si sono da tempo "accordati" per uscite progressive, con prodotti che si strappano la corona di "più veloce del mercato" ogni tre mesi, e invece che farsi la guerra (come ai tempi della 9700/5800) collaborano per rendere redditizio il mercato, con prezzi del nuovo hardware (che cala in pochissimo tempo) a dimostrarlo.
Molto meglio tenere la gara accesa e interessante che uccidere il mercato con il "prodotto definitivo", che verrebbe acquistato una volta sola e resterebbe nel Case degli appassionati per troppo tempo, attraverso tanti modelli molto simili che incrementano le prestazioni di quel giusto che serve a farsi apprezzare al 3DMark
Chi di noi, su una macchina comune (dicamo un A64 3000) sarebbe davvero in grado di dire la differenza tra, mettiamo, una X1800Xt e una X1950Xt durante una sessione di gioco?
Io no, e non credo sia possibile se l'aumento di prestazioni è sotto il 50%.
Non è saggio sostituire una scheda video se non si raddoppiano almeno le prestazioni rispetto al vecchio Hardware, ma per il "maniaco" dell'overclock conta solo la certezza di avere nel case "il meglio" e i produttori se ne sono resi conto benissimo.
R600 e G80 continueranno a strapparsi la palma di "più veloce" nei prossimi mesi così come hanno fatto negli ultimi due anni, in base a quello che vierra deciso a livello di marketing.
Non so perchè, ma temo che nvidia non aspetterà manco un mese per rispondere a r600.
Secondo il tuo ragionamento anche AMD e INTEL farebbero cartello per dividersi il market share. Un po' per uno non fa male a nessuno :D ?
E come lo giustifichi agli azionisti :D ?
L'obbiettivo di queste ditte è distruggere, ridicolizzare l'avversario, toglierlo di mezzo per vendere il più possibile, accaparrarsi la percentuale più alta di market share.
Che dite?
Alexkidd85
01-01-2007, 17:54
Allora...posso evidenziarvi una cosa!?
Se come scritto in quel famoso sito,uscirà prima l'r600 con le gddr3,IMHO contrasteranno le g80 con le gddr3 e quando uscirà il g81,l'amd potrebbe spingere le gddr4 diminuendo notevolmente il bug prestazionale.Ovviamente ritoccando qualcosa anche sulle frequenze della gpu. Secondo me così la ati non ne esce ridimensionata. Che ve ne pare!? :confused:
Lud von Pipper
01-01-2007, 18:22
Io sono passato da una 7800gt ad una x1900xt e la differenza l'ho vista eccome nei gioki :rolleyes:
Giochi che mi andavano a scatti quali oblivion, double agent.....adesso vanno molto meglio.....
Non è che hai anche aggiunto della memoria al PC vero?
No, perche quello avrebbe reso per due schede video in termini di prestazioni...
la "penultima vga dx9"? :asd: :asd:
a parte gli scherzi, secondo me vi fate fuorviare dal fatto che le schede sono uscite molto presto rispetto a dx10, in realtà l'architettura di cui sono dotate a me fà ben sperare nelle prestazioni in dx10, è chiaro che questo è da dimostrare ancora ma sulla carta è cos' (shader unificati, potenza di calcolo assurda, num di transistor quanto 2 x6800 ecc...non sono messi lì per le dx9 poi ognuno la vede come crede chiaramente)
diciamo che sono...le prime vga dx10 con tutti i pregi e i difetti che questo comporta e vanno da dio in dx9, ma questo è solo un qualcosa in più ;)
Se valgono quanto le prime schede dx9, cioè le 9700 pro, avranno vita ben lunga.
E intanto già si parla di G90 - R700 nel 3-4 trimestre di quest'anno... :muro:
Nulla di sconvolgente: 8 e più mesi tra due generazioni di vga sono più che normali ;)
davide155
01-01-2007, 19:24
Non è che hai anche aggiunto della memoria al PC vero?
No, perche quello avrebbe reso per due schede video in termini di prestazioni...
No......avevo già 2 gb da prima della 7800gt.
Non sarei così di fori da scambiare lo swapping con il frame rate basso......due cose completamente diverse ;)
Foglia Morta
01-01-2007, 23:14
tra un po forse riusciremo a vedere qualche foto...
Update - Site, Upcoming 2560×1600 Benchmark, Pictures
Happy new year! We are sorry that the site slowed down a bit. However, here are the great news: tomorrow we will be testing 2560×1600, and we will be able to provide limited pictures of the card approx. on January 5th/6th already. For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Foglia Morta
01-01-2007, 23:49
risultati inventati di sana pianta o cmq falsi basta fare un paragone con i risultati ottenuti dalla 8800gtx o dalle x1950xtx in cross su altri siti ;)
inventati non lo sono... Come hanno fatto notare in un altro forum il problema di quei test è che sono troppo simili a quelli di computerbase...
è poco chiara sta cosa. O è viral marketing di amd o level505 non la racconta tutta.
ad ogni modo è gennaio ormai..i rumors dovrebbero aumentare esponenzialmente..
Skullcrusher
02-01-2007, 10:19
ad ogni modo è gennaio ormai..i rumors dovrebbero aumentare esponenzialmente..
Già...per metà gennaio se ne sentiranno delle belle..... :D
appleroof
02-01-2007, 12:00
Già...per metà gennaio se ne sentiranno delle belle..... :D
veramente se ne son già sentite tante... :sofico: :asd: :asd:
spero finalmente in qualcsa di quanto più vicino alle caratteristiche vere e definitive :D .....ma mi sà che dovrò aspettare il lancio sul mercato... :rolleyes:
http://www.hwupgrade.it/news/skvideo/r600-benchmark-e-caratteristiche-preliminari_19657.html
appleroof
02-01-2007, 12:25
http://www.hwupgrade.it/news/skvideo/r600-benchmark-e-caratteristiche-preliminari_19657.html
già letto :D
e poi non fà che confermare quello che già sappiamo...
Rubex 79
02-01-2007, 12:37
Raga, senza sparare cavolate, io ho letto che la serie X19XX era già stata inoltrata per un avvicinamento alle DX10............
In teoria non è che le attuali schede DX9 non funzionano in DX10, ma andranno più lente, e in teoria quelle che dovrebebre cavarsela meglio sono le X19XX, io avevo preso la mia VGA proprio per questo!!!!!! Poi vedremo :D
già letto :D
e poi non fà che confermare quello che già sappiamo...
Ovvero...tutte caxxate! :D
Athlon 64 3000+
02-01-2007, 14:39
sinceramente a me quel'articolo mi puzza di fake perchè preferisco aspettare le recensioni ufficiali.
Se dovesse essere presentato questo mese R600 tanto meglio,almeno cosi si saprà tutto di questo chip,visto che se ne parla dal 2004 e sembra diventato un chip leggendario :D
ne vedremo delle belle...
fidatevi ;)
ne vedremo delle belle...
fidatevi ;)
Uhm, mi puzza questa tua sicurezza..Sai qualcosa che noi non sappiamo? K, partiamo in massa con mazze da baseball per estercerti informazioni :Prrr: :ciapet: :huh:
tra l'altro sei a 20min da casa mia... :asd:
Andrea deluxe
02-01-2007, 14:55
sarei curioso di vedere il framerate medio di r600 con aa4x e af16x rispetto a g80!
chissa se quel bus a 512bit possa permetere il mantenimento di un framerate medio piu' elevato e stabile!
E poi sono proprio curioso di vedere i test con crysis e la scalabilità rispetto a g80!
Uhm, mi puzza questa tua sicurezza..Sai qualcosa che noi non sappiamo? K, partiamo in massa con mazze da baseball per estercerti informazioni :Prrr: :ciapet: :huh:
tra l'altro sei a 20min da casa mia... :asd:
:asd:
sò decisamente meno di voi...ma ho uno strano presentimento...tutto questo silenzio...tutta questa calma di AMD/ATi...nessuna comunicazione...nessuna presentazione a porte chiuse...niente
qui c'è del torbido ;)
:asd:
sò decisamente meno di voi...ma ho uno strano presentimento...tutto questo silenzio...tutta questa calma di AMD/ATi...nessuna comunicazione...nessuna presentazione a porte chiuse...niente
qui c'è del torbido ;)
Quindi anche tu hai la sensazione che spaccherà i maroni questo r600? :asd:
Lo spero proprio anche io... e spero che si muovano a fare uscire la fascia media basata su r600 :sbav:
Quando si comincerà a sapere qualcosa in merito sec voi?
Quindi anche tu hai la sensazione che spaccherà i maroni questo r600? :asd:
Lo spero proprio anche io... e spero che si muovano a fare uscire la fascia media basata su r600 :sbav:
Quando si comincerà a sapere qualcosa in merito sec voi?
precisamente...poi il fatto che mantiene sempre attivo un 4x di AA mi intriga parecchio....con tutta quella banda passante non mi stupirei che R600 sia in grado di garantire fino a un 24x di AA :sofico:
per me si vedrà qualcosa un giorno prima del lancio o giù di lì ;)
Athlon 64 3000+
02-01-2007, 15:09
Può essere che R600 quando uscirà possa anche distruggere in prestazioni la 8800GTX visto che quest'ultima è sono un mezzo esperimento visto lo strano bus
e il quantitativo di memoria e anche per vedere come sarebbe stato l'impatto sul mercato della prima gpu dx 10.
Penso che la vera gpu dx 10 della nvidia uscirà al massimo questa primavera dopo l'uscita sul mercato di R600.
appleroof
02-01-2007, 15:15
precisamente...poi il fatto che mantiene sempre attivo un 4x di AA mi intriga parecchio....con tutta quella banda passante non mi stupirei che R600 sia in grado di garantire fino a un 24x di AA :sofico:
per me si vedrà qualcosa un giorno prima del lancio o giù di lì ;)
anche secondo ma la banda mostruosa dovrebbe consentire ottime prestazioni con i filtri, come tradizione ati ormai, però al contrario di voi non mi aspetto una superiorità schiacciante di R600 su G80...ho questa sensazione
magari Ati si è seduta sugli allori della x1900 (senza contare che l'incorporazione da parte di Amd ha avuto sicuramente la sua parte in questo ritardo commerciale) che ha già un eccellente chip e non si aspettava un G80 così, tra l'altro nessuno se lo aspettava, tutti (anche gli esperti del settore) erano straconvinti che G80 non sarebbe stato a shader unificati :asd: ma avrebbe mantenuto l'architettura a pixel sh e vertex divisi...
per me le prestazioni saranno allineate senza alcun filtro...magari in leggero vantaggio di R600...ma salendo di filtri e risoluzione R600 bastonerà G80
ovviamente sono ipotesi ma che potrebbero rappresentare il vero ;)
per me le prestazioni saranno allineate senza alcun filtro...magari in leggero vantaggio di R600...ma salendo di filtri e risoluzione R600 bastonerà G80
ovviamente sono ipotesi ma che potrebbero rappresentare il vero ;)
Probabile, il bus a 512bit e la bandwith elevata dovrebbero ridurre di molto le perdite prestazionali con filtri, risoluzioni e anti aliasing ;)
Probabile, il bus a 512bit e la bandwith elevata dovrebbero ridurre di molto le perdite prestazionali con filtri, risoluzioni e anti aliasing ;)
bisognerà vedere, però, come inciderà sul prezzo :rolleyes:
appleroof
02-01-2007, 15:22
per me le prestazioni saranno allineate senza alcun filtro...magari in leggero vantaggio di R600...ma salendo di filtri e risoluzione R600 bastonerà G80
ovviamente sono ipotesi ma che potrebbero rappresentare il vero ;)
:asd:
comincia a venir fuori tutta la rabbia repressa dall'uscita di G80 :asd: :asd:
cmq non credo che la situazione sarà così netta: questa è stata la classica situazione finora, ma ripeto, la nuova architettura di G80 ha fatto passi enormi in questa direzione, l'anisotropico è il migliore mai visto, e anche applicando l'aa (test alla mano) le prestazioni non crollano come in passato (finalmente direi)
cmq vedremo... ;)
tra l'altro nessuno se lo aspettava, tutti (anche gli esperti del settore) erano straconvinti che G80 non sarebbe stato a shader unificati :asd: ma avrebbe mantenuto l'architettura a pixel sh e vertex divisi...
al tempo io immaginavo che G80 fosse a 32 pixel pipeline e n unità unificate per vertex e geometry
:boh:
:asd:
comincia a venir fuori tutta la rabbia repressa dall'uscita di G80 :asd: :asd:
cmq non credo che la situazione sarà così netta: questa è stata la classica situazione finora, ma ripeto, la nuova architettura di G80 ha fatto passi enormi in questa direzione, l'anisotropico è il migliore mai visto, e anche applicando l'aa (test alla mano) le prestazioni non crollano come in passato (finalmente direi)
cmq vedremo... ;)
perchè non hai messo in grassetto anche
per me le prestazioni saranno allineate senza alcun filtro...magari in leggero vantaggio di R600...ma salendo di filtri e risoluzione R600 bastonerà G80
ovviamente sono ipotesi ma che potrebbero rappresentare il vero ;)
?
non è che forse i possessori di G80 sperano che R600 sia vicino come prestazioni?
c'è gente che non si è ancora ripresa da FX 5900 vs 9700Pro
;)
appleroof
02-01-2007, 15:29
perchè non hai messo in grassetto anche
?
non è che forse i possessori di G80 sperano che R600 sia vicino come prestazioni?
c'è gente che non si è ancora ripresa da FX 5900 vs 9700Pro
;)
;)
:asd:
comincia a venir fuori tutta la rabbia repressa dall'uscita di G80 :asd: :asd:
cmq non credo che la situazione sarà così netta: questa è stata la classica situazione finora, ma ripeto, la nuova architettura di G80 ha fatto passi enormi in questa direzione, l'anisotropico è il migliore mai visto, e anche applicando l'aa (test alla mano) le prestazioni non crollano come in passato (finalmente direi)
cmq vedremo... ;)
Peró se la vedi in questo modo:
Ati -> 256bit e nVidia -> 384bit
Il salto é stato netto
Io la vedo anche cosi:
nVidia -> 384bit Ati -> 512bit
Il salto ci dovrebbe essere :D
Poi certo, l' architettura ha la sua bella parte ;)
appleroof
02-01-2007, 15:40
Peró se la vedi in questo modo:
Ati -> 256bit e nVidia -> 384bit
Il salto é stato netto
Io la vedo anche cosi:
nVidia -> 384bit Ati -> 512bit
Il salto ci dovrebbe essere :D
Poi certo, l' architettura ha la sua bella parte ;)
certo, sicuramente come già detto i 512bit faranno la loro parte nell'uso dei filtri ecc...
insomma, io dico che R600 sarà un mostro ma sostanzialmente non tale da andare sempre un 50% in più di G80, alla fine saranno sostanzialmente alla pari....fino ai prossimi refresh e così via :asd:
;)
certo, sicuramente come già detto i 512bit faranno la loro parte nell'uso dei filtri ecc...
insomma, io dico che R600 sarà un mostro ma sostanzialmente non tale da andare sempre un 50% in più di G80, alla fine saranno sostanzialmente alla pari....fino ai prossimi refresh e così via :asd:
;)
E poi siamo ancora senza test dx10 :D :D
Quelli che contano davvero, e qui nessuno si puó sbilanciare ;)
certo, sicuramente come già detto i 512bit faranno la loro parte nell'uso dei filtri ecc...
insomma, io dico che R600 sarà un mostro ma sostanzialmente non tale da andare sempre un 50% in più di G80, alla fine saranno sostanzialmente alla pari....fino ai prossimi refresh e così via :asd:
;)
ricorda anche che (forse) R600 supporta le DX10.1...e questo può garantire una longevità leggermente superiore imho
e poi magari in DX9 si tengono alla pari...ma chissà in DX10...
chi vivrà vedrà
Athlon 64 3000+
02-01-2007, 16:10
potrà anche essere superiore R600 a G80,però questa volta Nvidia con G80 ha fatto una gpu veramente ottima eliminando tutti i punti deboli di G71 che all'atto pratico doppia in prestazioni la mia X1900XT e non è poco.
potrà anche essere superiore R600 a G80,però questa volta Nvidia con G80 ha fatto una gpu veramente ottima eliminando tutti i punti deboli di G71 che all'atto pratico doppia in prestazioni la mia X1900XT e non è poco.
su questo non c'è alcun dubbio...G80 è l'esempio di un'ottima progettazione...su questo non si può dire nulla...solo che anche R600 promette veramente bene...
Athlon 64 3000+
02-01-2007, 16:19
su questo non c'è alcun dubbio...G80 è l'esempio di un'ottima progettazione...su questo non si può dire nulla...solo che anche R600 promette veramente bene...
R600 potrebbe venire meglio ed essere più veloce,ma dico che la differenza di pregio architetturale che c'è tra R580 e G71 tra G80 e R600 sarà molto minore o non ci sarà affatto visto che ora come ora G80 non ha praticamente punti deboli,a parte il controller di memoria di tipo crossbar che potrebbe stonare rispetto al ringbus di R600.
appleroof
02-01-2007, 16:25
R600 potrebbe venire meglio ed essere più veloce,ma dico che la differenza di pregio architetturale che c'è tra R580 e G71 tra G80 e R600 sarà molto minore o non ci sarà affatto visto che ora come ora G80 non ha praticamente punti deboli,a parte il controller di memoria di tipo crossbar che potrebbe stonare rispetto al ringbus di R600.
esatto! e cmq anche il ring bus pur essenso mediamente più efficiente del tradizionale crossbar và in crisi anche lui non appena arriva una caterva di chiamate...alla fine la superiorità del ring bus è tutta nell'utilizzo "normale" ma non appena si richiedono prestazioni al max anche quello và in crisi
darioking90
02-01-2007, 16:30
xkè vi fate tutte queste seghe mentali
QUANDO ESCE si vedrà....come caspio fate a fare comparazioni :muro:
x adesso io vedo ATI come Dx9 (1950xtx)
e vedo NVIDIA come Dx10 (G80)
STOP!!!
xkè vi fate tutte queste seghe mentali
QUANDO ESCE si vedrà....come caspio fate a fare comparazioni :muro:
x adesso io vedo ATI come Dx9 (1950xtx)
e vedo NVIDIA come Dx10 (G80)
STOP!!!
:stordita: non l'avevamo in mente ;) grazie per la precisazione :D
darioking90
02-01-2007, 16:35
:stordita: non l'avevamo in mente ;) grazie per la precisazione :D
ke ridere :mbe:
ke ridere :mbe:
dai non te la prendere :mano: era una battuta :D
ipertotix
02-01-2007, 16:39
xkè vi fate tutte queste seghe mentali
QUANDO ESCE si vedrà....come caspio fate a fare comparazioni :muro:
x adesso io vedo ATI come Dx9 (1950xtx)
e vedo NVIDIA come Dx10 (G80)
STOP!!!
se si deve fare un paragone cosi..terra terra, pare ke nvidia va a benzina..ovvero buona accellerazione, buona ripresa, scattante..tanta potenza e subito..mentre ati va a gasolio..cioè un po piu lenta, ci vuole un po piu tempo x carburare..ma quando entra in coppia va poi come un treno e non la ferma piu nessuno, neanke in salita!!! :stordita:
ps : scusate..i postumi del capodanno!!! :D
darioking90
02-01-2007, 16:40
se si deve fare un paragone cosi..terra terra, pare ke nvidia va a benzina..ovvero buona accellerazione, buona ripresa, scattante..tanta potenza e subito..mentre ati va a gasolio..cioè un po piu lenta, ci vuole un po piu tempo x carburare..ma quando entra in coppia va poi come un treno e non la ferma piu nessuno, neanke in salita!!! :stordita:
ps : scusate..i postumi del capodanno!!! :D
lololol :D :D
ipertotix
02-01-2007, 17:00
lololol :D :D
:sofico: :doh: :asd:
xkè vi fate tutte queste seghe mentali
QUANDO ESCE si vedrà....come caspio fate a fare comparazioni :muro:
x adesso io vedo ATI come Dx9 (1950xtx)
e vedo NVIDIA come Dx10 (G80)
STOP!!!
è come parlare di calcio durante i mesi estivi...... non serve a niente ma lo si fa ;)
É semplice passione, non ci possiamo fare niente...
noi amanti dell' Hw siamo fatti cosi :)
appleroof
02-01-2007, 17:35
:D
davide155
02-01-2007, 18:41
se si deve fare un paragone cosi..terra terra, pare ke nvidia va a benzina..ovvero buona accellerazione, buona ripresa, scattante..tanta potenza e subito..mentre ati va a gasolio..cioè un po piu lenta, ci vuole un po piu tempo x carburare..ma quando entra in coppia va poi come un treno e non la ferma piu nessuno, neanke in salita!!! :stordita:
ps : scusate..i postumi del capodanno!!! :D
Paragone eccellente :O
Kharonte85
02-01-2007, 19:07
se si deve fare un paragone cosi..terra terra, pare ke nvidia va a benzina..ovvero buona accellerazione, buona ripresa, scattante..tanta potenza e subito..mentre ati va a gasolio..cioè un po piu lenta, ci vuole un po piu tempo x carburare..ma quando entra in coppia va poi come un treno e non la ferma piu nessuno, neanke in salita!!! :stordita:
ps : scusate..i postumi del capodanno!!! :D
Si ma le macchine da corsa piu' potenti le fanno che vanno a benzina (di solito)... :stordita:
Si ma le macchine da corsa piu' potenti le fanno che vanno a benzina (di solito)... :stordita:
ma ultimamente il diesel vende di più :D
davide155
02-01-2007, 19:11
Si ma le macchine da corsa piu' potenti le fanno che vanno a benzina (di solito)... :stordita:
Ma bevono molto di più rispetto al diesel.....quindi altri soldi in più per l'ali..... :stordita:
Kharonte85
02-01-2007, 19:13
ma ultimamente il diesel vende di più :D
Si' ma perche' consuma meno... :D
A proposito di consumi...ma nella recensione fake (che non mi sono sprecato di leggere :D ) i consumi vengono citati?
Lud von Pipper
02-01-2007, 19:37
250 Watt belli tosti sotto carico... :muro:
Kharonte85
02-01-2007, 19:48
R600 driver takes shape
DirectX 10 countdown begins
Vista driver for R600 is almost done. Those DAAMIT chaps are polishing it as we speak. We know that ATI is still trying to finish up Crossfire support and to polish up the OpenGL performance in Vista driver but the driver will be ready for hardware launch.
Some other details are around which we cannot yet confirm. What we know is that the chip is 80 nanometre, has a 512-bit memory controller, unified Shader marchitecture, supports DirectX 10 and should make G80 run for its money.
The launch should take place in February, late according to our usually very well-informed sources but this is also a date that has been moved around more than a few times.
It sure is late but it will make Nvidia speed up its G80. The overclocked versions will flood the market starting January. µ
http://uk.theinquirer.net/?article=36666
Volevo leggere la recensione fake ma non funziona piu' il link... :mc:
appleroof
02-01-2007, 19:53
Si' ma perche' consuma meno... :D
A proposito di consumi...ma nella recensione fake (che non mi sono sprecato di leggere :D ) i consumi vengono citati?
;)
halduemilauno
02-01-2007, 20:00
R600 driver takes shape
DirectX 10 countdown begins
Vista driver for R600 is almost done. Those DAAMIT chaps are polishing it as we speak. We know that ATI is still trying to finish up Crossfire support and to polish up the OpenGL performance in Vista driver but the driver will be ready for hardware launch.
Some other details are around which we cannot yet confirm. What we know is that the chip is 80 nanometre, has a 512-bit memory controller, unified Shader marchitecture, supports DirectX 10 and should make G80 run for its money.
The launch should take place in February, late according to our usually very well-informed sources but this is also a date that has been moved around more than a few times.
It sure is late but it will make Nvidia speed up its G80. The overclocked versions will flood the market starting January. µ
http://uk.theinquirer.net/?article=36666
Volevo leggere la recensione fake ma non funziona piu' il link... :mc:
per la versione d'assalto si parlava del 22 gennaio.
;)
appleroof
02-01-2007, 20:26
[SIZE=5]
cut
Some other details are around which we cannot yet confirm. What we know is that the chip is 80 nanometre, has a 512-bit memory controller, unified Shader marchitecture, supports DirectX 10 and should make G80 run for its money.
cut
:confused:
Kharonte85
02-01-2007, 20:45
:confused:
:what: Avranno la licenza poetica...:boh:
appleroof
02-01-2007, 20:54
:what: Avranno la licenza poetica...:boh:
:asd:
si ma che vorrebbe dire? Io lo traduco che farebbe correre G80 per i soldi (che costa? Boh!)
;)
:asd:
si ma che vorrebbe dire? Io lo traduco che farebbe correre G80 per i soldi (che costa? Boh!)
;)
Credo che voglia intendere che all'arrivo di r600, g80 dovrà calare parekkio i suo prezzo per rimanere competitiva...
Certo l'inglese usato è da cani.... :asd:
Kharonte85
02-01-2007, 20:57
:asd:
si ma che vorrebbe dire? Io lo traduco che farebbe correre G80 per i soldi (che costa? Boh!)
;)
Per quello che ho detto cosi'...sara' un modo di dire (o forzatura ecc..)...altrimenti tradotto ha un senso a dir poco ambiguo :mbe: ... :boh:
appleroof
02-01-2007, 21:31
Credo che voglia intendere che all'arrivo di r600, g80 dovrà calare parekkio i suo prezzo per rimanere competitiva...
Certo l'inglese usato è da cani.... :asd:
Per quello che ho detto cosi'...sara' un modo di dire (o forzatura ecc..)...altrimenti tradotto ha un senso a dir poco ambiguo :mbe: ... :boh:
oppure che costerà talmente tanto da far impallidire il costo di G80? :eek:
ahhhhh......the inquirer.... :asd: :asd:
oppure che costerà talmente tanto da far impallidire il costo di G80? :eek:
ahhhhh......the inquirer.... :asd: :asd:
ahah :asd: potrebbe anche essere..
Susu, che mondo sarebe senza the inquirer? Grazie a lui guardate come ci possimo divertire e sbizzarrire ;)
:ciapet:
james_het
03-01-2007, 01:45
scusate l'ignoranza, ma nn si diceva che R600 avrebbe fatto 11k nel 3dmark06??
se si cosa c'è di impressionante? con un C2Duo ogni GTX realizza almeno quel punteggio.....
cmq a febbraio uscirà la belva? :oink:
Foglia Morta
03-01-2007, 10:29
http://www.theinquirer.net/default.aspx?article=36673
THE FIRST AMD/ATI graphics chip just cannot enter the world without much screaming and wriggling.
In fact, it's looking more like Nvidia is going to be to the market first with an 80 nanometre version of the G80 graphics chip, rather than ATI's 720 million transistor monster.
The last revision of the prototype chip - upon which a certain "pre-review" is based - also suffers from problems which are serious enough to get another re-spin, sources tell me. This re-spin puts a hold on the launch for another couple of weeks, and now R600 is looking like an early March launch, probably the week before SnowBIT in Hangover. However, AMD/ATI is making severe changes to the whole line up and we can say that this launch, when it happens, will be very, very shocking for the 3D industry.
I am not talking about pseudo-penismarks here.
We learned about the performance and feature characteristics and they're looking pretty impressive in more than one way, although you can expect that Dr. Spinola's engine is getting into defensive mode, saying people "don't understand what the R600 is".
However, engineer teams are working around the clock to make this launch as good as possible.
One small note on the tech demos. Prepare for your mandibles to drop, because Adrienne should look like a high-school attempt at 3D graphics compared to ATI's thing. µ
One small note on the tech demos. Prepare for your mandibles to drop, because Adrienne should look like a high-school attempt at 3D graphics compared to ATI's thing.
:asd: addirittura..stiamo a vedere..
Foglia Morta
03-01-2007, 10:37
Chi è Spinola ?
Skullcrusher
03-01-2007, 10:42
:asd: addirittura..stiamo a vedere..
:rotfl:
L'avevo detto io che a gennaio ne avremmo sentite delle belle.... :sofico:
Sarà una gran battaglia :D
One small note on the tech demos. Prepare for your mandibles to drop, because Adrienne should look like a high-school attempt at 3D graphics compared to ATI's thing
The Inquirer è sempre il meglio :rotfl: :rotfl: :rotfl:
appleroof
03-01-2007, 10:54
cacchio Spinola è un cognome tipico delle mie parti!!! Stai a vedere che quei disgraziati che conosco io lavorano alla Ati (invece che gestire un albergo :sbonk: :sbonk: ) e non me l'hanno mai detto...
iiiiiiiiiiiincredibile amisci
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Kharonte85
03-01-2007, 12:35
:asd:
Kharonte85
03-01-2007, 12:38
Prende forma l'R600
da The Inquirer Team
I DRIVER DirectX 10 per la R600 sono quasi pronti: la gente di AMD/ATI li sta limando mentre scriviamo. Sappiamo che ATI deve ancora rifinire il supporto per Crossfire e migliorare le prestazioni con OpenGL, ma i driver per Windows Vista ormai sono pronti per il lancio dell'hardware.
Qualche altro dettaglio sulla R600 richiede invece ancora conferme. Sappiamo per esempio che il processore è a 80 nanometri, ha un controller per la memoria a 512 bit, una microarchitettura unified Shader e naturalmente supporta le DirectX 10. inoltre i primi test che girano indicano che dovrebbe garantire prestazioni superiori alla G80 a parità di prezzo.
Il lancio dovrebbe avvenire a febbraio, piuttosto tardi secondo la nostra fonte ben informata, e si tratta anche di una data che è stata più volte spostata in avanti.
Anche perché per allora Nvidia avrà già fatto uscire versioni potenziate del suo G80: le edizioni overclockate infatti invaderanno il mercato a partire da gennaio.
http://it.theinquirer.net/2007/01/prende_forma_lr600.html
Questa è l'italiano dell'articolo che avevo postato ieri... :)
Da come lo stanno presentando sembra veramente di essere tornati ai tempi delle prestazioni assolute di r300,magari alla ATI ogni "300" decidono di sfornare un mostro :D
Quindi posso preannunciarvi che dopo questo il prossimo chip veramente valido sarà r900 :O
appleroof
03-01-2007, 13:11
Prende forma l'R600
da The Inquirer Team
I DRIVER DirectX 10 per la R600 sono quasi pronti: la gente di AMD/ATI li sta limando mentre scriviamo. Sappiamo che ATI deve ancora rifinire il supporto per Crossfire e migliorare le prestazioni con OpenGL, ma i driver per Windows Vista ormai sono pronti per il lancio dell'hardware.
Qualche altro dettaglio sulla R600 richiede invece ancora conferme. Sappiamo per esempio che il processore è a 80 nanometri, ha un controller per la memoria a 512 bit, una microarchitettura unified Shader e naturalmente supporta le DirectX 10. inoltre i primi test che girano indicano che dovrebbe garantire prestazioni superiori alla G80 a parità di prezzo.
Il lancio dovrebbe avvenire a febbraio, piuttosto tardi secondo la nostra fonte ben informata, e si tratta anche di una data che è stata più volte spostata in avanti.
Anche perché per allora Nvidia avrà già fatto uscire versioni potenziate del suo G80: le edizioni overclockate infatti invaderanno il mercato a partire da gennaio.
http://it.theinquirer.net/2007/01/prende_forma_lr600.html
Questa è l'italiano dell'articolo che avevo postato ieri... :)
ecco, così ha molto più senso :)
cmq è sempre la solita, scontata, storia non credete? chi davvero pensava che R600 sarebbe andato peggio di G80 (a parte che bisogna vedere quanto andrà meglio ormai l'ho detto in tutti i modi che non sarà schiacciante la differenza secondo me) ?
p.s.: veramente le versioni overcloccate di G80 sono qui sul forum da tempo... :asd: :asd:
Skullcrusher
03-01-2007, 14:22
p.s.: veramente le versioni overcloccate di G80 sono qui sul forum da tempo... :asd: :asd:
:asd:
Hai ragione :sofico:
p.s.: veramente le versioni overcloccate di G80 sono qui sul forum da tempo... :asd: :asd:
:asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.