PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

belin
23-03-2007, 14:50
Ribadisco che se io mi comprassi st'r600 a 80nm,mi sentirei rubato i soldi a sto punto... :(

...perchè??? non ha alcun senso. Da sempre funziona così, le evoluzioni dei chip ci sono sempre state.

X800 > X850
7800 > 7900
X1800 > X1900
8800 > 8900
R600 > R650

...ultimamente i mesi di scarto si stanno riducendo, ma pensare che non succeda è utopistico (ed è giusto così, imho). Se non fosse uscita la notizia dei 65nm, nessuno ci penserebbe. E comunque il passo ai 65nm è ancora lungo per R600, fidati.

;)

appleroof
23-03-2007, 14:52
...perchè??? non ha alcun senso. Da sempre funziona così, le evoluzioni dei chip ci sono sempre state.

X800 > X850
7800 > 7900
X1800 > X1900
8800 > 8900
R600 > R650

...ultimamente i mesi di scarto si stanno riducendo, ma pensare che non succeda è utopistico (ed è giusto così, imho). Se non fosse uscita la notizia dei 65nm, nessuno ci penserebbe. E comunque il passo ai 65nm è ancora lungo per R600, fidati.

;)

quindi anche le medie che escono poco dopo saranno a 80nm secondo te? oppure intendi solo la top?

halduemilauno
23-03-2007, 14:54
...perchè??? non ha alcun senso. Da sempre funziona così, le evoluzioni dei chip ci sono sempre state.

X800 > X850
7800 > 7900
X1800 > X1900
8800 > 8900
R600 > R650

...ultimamente i mesi di scarto si stanno riducendo, ma pensare che non succeda è utopistico (ed è giusto così, imho). Se non fosse uscita la notizia dei 65nm, nessuno ci penserebbe. E comunque il passo ai 65nm è ancora lungo per R600, fidati.

;)


probabilmente l'amico si riferiva allo scenario x1800/x1900 dove la prima è stata disponibile a novembre e la seconda presentata a gennaio.
ecco credo che si riferiva a rischi simili. comprare e troppo presto vederla sostituita.
credo.

Alexkidd85
23-03-2007, 14:58
Onestamente stiamo parlando di 600 euro e se a distanza di 4 mesi mi esce una revisione,io mi sento preso per i fondelli.
OK il discorso "soldi tuoi e li gestisci tu" ma si rendono conto che un impegato statale in italia prende 1100 euro al mese?Stiamo parlando di più della metà di uno stipendio medio,in 4 mesi non me la sento di dire "ottimo acquisto" a prescindere da come andrà,sarà sempre un processo produttivo "vecchio" e una scheda che verrà rimpiazzata. Saranno 2 mostri di scheda,ok...ma con tempi così rapidi di revisioni da parte delle stese case produttrici e risposte della casa concorrente,a me stanno spingendo a guardare chi spende una volta 400 euro per avere un prodotto che terrà 3 anni (vedi 360 o ps3)

Stesso discorso con le macchine e con soldi imparagonabili....ma almeno una macchina miesce ogni 2 anni...

Poi forse sto sbagliando,opinioni come sempre :)

VitOne
23-03-2007, 14:58
...ultimamente i mesi di scarto si stanno riducendo, ma pensare che non succeda è utopistico (ed è giusto così, imho). Se non fosse uscita la notizia dei 65nm, nessuno ci penserebbe. E comunque il passo ai 65nm è ancora lungo per R600, fidati.
;)

I mesi di scarto? Io sto aspettando come tutti questa scheda da un po' e adesso non credo di prenderla perché se dopo 3 mesi esce la versione migliorata allora non è che abbia molto senso il tutto. La 8800GTX è uscita a Novembre e prima di Aprile sicuramente non sarà rimpiazzata, non è un tempo record ma un tempo sicuramente più "onesto" di quelli di ATI che già si è comportata malissimo con la serie 1800 -> 1900 e adesso tutto lascia presupporre che stia adottando di nuovo una strategia simile. Non è questione di processo produttivo, è semplicemente un discorso di durata temporale di una scheda che in questo caso diveta praticamente zero. Io ho la 8800GTX e sto valutando se passare ad ATI o restare su nVidia nella prossima generazione di schede TOP, però vorrei cambiare ogni 6-8 mesi e non ogni 3-4 mesi...

Alexkidd85
23-03-2007, 14:59
probabilmente l'amico si riferiva allo scenario x1800/x1900 dove la prima è stata disponibile a novembre e la seconda presentata a gennaio.
ecco credo che si riferiva a rischi simili. comprare e troppo presto vederla sostituita.
credo.

Hai colto in pieno Hal :)

belin
23-03-2007, 15:03
quindi anche le medie che escono poco dopo saranno a 80nm secondo te? oppure intendi solo la top?

RV610 e RV630 saranno disponibili a 65nm, per R600 il passo è ancora abbastanza lontano (inteso come vendita definitiva in volumi al mercato)

:)

VitOne
23-03-2007, 15:03
Onestamente stiamo parlando di 600 euro e se a distanza di 4 mesi mi esce una revisione,io mi sento preso per i fondelli.
OK il discorso "soldi tuoi e li gestisci tu" ma si rendono conto che un impegato statale in italia prende 1100 euro al mese?Stiamo parlando di più della metà di uno stipendio medio,in 4 mesi non me la sento di dire "ottimo acquisto" a prescindere da come andrà,sarà sempre un processo produttivo "vecchio" e una scheda che verrà rimpiazzata. Saranno 2 mostri di scheda,ok...ma con tempi così rapidi di revisioni da parte delle stese case produttrici e risposte della casa concorrente,a me stanno spingendo a guardare chi spende una volta 400 euro per avere un prodotto che terrà 3 anni (vedi 360 o ps3)

Stesso discorso con le macchine e con soldi imparagonabili....ma almeno una macchina miesce ogni 2 anni...

Poi forse sto sbagliando,opinioni come sempre :)

Il tuo discorso è validissimo e mi trovi perfettamente d'accordo. Aggiungo però che non è solamente una questione di soldi: per imparare ad sfruttare una scheda, bisogna che passi un po' di tempo. I primi drivers hanno sempre qualche problema di troppo, alcuni giochi non vanno come dovrebbero, non la si può tirare in overclock etc... Una scheda solitamente la si sfrutta dopo almeno un paio di mesi dall'uscita, prima è un tempo di "prova". Per cui la vita di queste nuove Radeon (per carità, se le voci verranno confermate) sarà veramente troppo breve.

A questo aggiungo che non vedo l'ora che queste schede vengano usate e valutate da qualche persona o sito affidabile, in modo da potersi fare un'idea. Ripeto quello che ho detto pagine fa: considerando lo scarto di tempo dovrebbero andare almeno un 20-25% in più delle 8800GTX per essere una soluzione valida...

Grey 7
23-03-2007, 15:04
originale:
Quando il chip a 65nm verrà mostrato è ancora da vedere.
secondo me vi state fasciando la testa prima di esservela rotta...siamo ancora nel campo delle ipotesi

Kharonte85
23-03-2007, 15:05
secondo me vi state fasciando la testa prima di esservela rotta...siamo ancora nel campo delle ipotesi
Ma se ti fasci la testa e poi dai una crapata al muro (:muro:) ti fai meno male...:D

belin
23-03-2007, 15:12
...non capisco perchè vi scaldiate, non ho attaccato nessuno. :(

in 4 mesi non me la sento di dire "ottimo acquisto" a prescindere da come andrà,sarà sempre un processo produttivo "vecchio" e una scheda che verrà rimpiazzata.

...ma come si fa a definire un processo produttivo a 80nm "vecchio"??? no, veramente. Ci rendiamo conto??? diamo un valore alle cose???

è semplicemente un discorso di durata temporale di una scheda che in questo caso diveta praticamente zero. Io ho la 8800GTX e sto valutando se passare ad ATI o restare su nVidia nella prossima generazione di schede TOP, però vorrei cambiare ogni 6-8 mesi e non ogni 3-4 mesi...
...durata temporale di una R600 a 80nm pari a zero??? hai una 8800GTX e stai valutando se passare ad ATi R600 o NVIDIA 8900???

:help:

ps. e comunque, ribadisco, nessun sito serio ha dato termini temporali per l'arrivo nei negozi di R600 a 65nm. Non vedo perchè dare per scontati 3/4 mesi.

Alexkidd85
23-03-2007, 15:13
Il tuo discorso è validissimo e mi trovi perfettamente d'accordo. Aggiungo però che non è solamente una questione di soldi: per imparare ad sfruttare una scheda, bisogna che passi un po' di tempo. I primi drivers hanno sempre qualche problema di troppo, alcuni giochi non vanno come dovrebbero, non la si può tirare in overclock etc... Una scheda solitamente la si sfrutta dopo almeno un paio di mesi dall'uscita, prima è un tempo di "prova". Per cui la vita di queste nuove Radeon (per carità, se le voci verranno confermate) sarà veramente troppo breve.

A questo aggiungo che non vedo l'ora che queste schede vengano usate e valutate da qualche persona o sito affidabile, in modo da potersi fare un'idea. Ripeto quello che ho detto pagine fa: considerando lo scarto di tempo dovrebbero andare almeno un 20-25% in più delle 8800GTX per essere una soluzione valida...

C'è anche questo...è molto vero...pienamente d'accordo

Ma se ti fasci la testa e poi dai una crapata al muro (:muro:) ti fai meno male...:D

:rotfl: questa mi è piaciuta...molto ricercata e complessa come battuta :D come piacciono a me :D

belin
23-03-2007, 15:17
http://img59.imageshack.us/img59/9863/r600dragonschemazz5.jpg (http://imageshack.us)

...torniamo a cose serie. Su Beyond3D scrivono ciò:

I used photozoom Pro 2 to see if I could enhance the text.

The schematics are for the production board, it says "R600 GDDR4"
pn is "209"-609231-B0
Date is Jan 15 2007, Jasmine "Lim"/Kim Figure 11 of "21"/23

board length is 24.1 cm


:)

appleroof
23-03-2007, 15:32
Ma se ti fasci la testa e poi dai una crapata al muro (:muro:) ti fai meno male...:D

Bellissima! :rotfl: :rotfl:

RV610 e RV630 saranno disponibili a 65nm, per R600 il passo è ancora abbastanza lontano (inteso come vendita definitiva in volumi al mercato)

:)

Ma allora perchè cavolo questo ritardo? Le ultime "giustificazioni" parlavano del fatto che a 80nm dava un sacco di problemi....:rolleyes:

TecnoWorld8
23-03-2007, 15:44
dal testo su inquirer che ho tradotto, mi pare si evinca che la presentazione a 80 ci sarà, ma per lasciare poi (non si sa bene quando) spazio al chip a 65 riservato alla produzione...come dire che la versione a 80 sarà solo per la presentazione e quella a 65nm per la vendita.

questo se pesiamo ogni singola parola pubblicata. inoltre, se la scheda viene presentata il 23 aprile, non mi aspetto di vederla in quantità nei negozi prima di un mese dopo quella data. e credo altresì che dato il tempo avuto sinora e quello che si avrà da adesso a tra due mesi, la AMD/ATi potrà tranquillamente fare uscire la versione a 65 direttamente o comunque una versione a 80nm altamente migliorata rispetto a quanto visto sinora.

come qualcuno giustamente dice, siamo comunque nel più remoto campo delle ipotesi, cosa che a un mese dal lancio è alquanto strana.....

appleroof
23-03-2007, 15:49
dal testo su inquirer che ho tradotto, mi pare si evinca che la presentazione a 80 ci sarà, ma per lasciare poi (non si sa bene quando) spazio al chip a 65 riservato alla produzione...come dire che la versione a 80 sarà solo per la presentazione e quella a 65nm per la vendita.

questo se pesiamo ogni singola parola pubblicata. inoltre, se la scheda viene presentata il 23 aprile, non mi aspetto di vederla in quantità nei negozi prima di un mese dopo quella data. e credo altresì che dato il tempo avuto sinora e quello che si avrà da adesso a tra due mesi, la AMD/ATi potrà tranquillamente fare uscire la versione a 65 direttamente o comunque una versione a 80nm altamente migliorata rispetto a quanto visto sinora.

come qualcuno giustamente dice, siamo comunque nel più remoto campo delle ipotesi, cosa che a un mese dal lancio è alquanto strana.....

Bè questo non è stranissimo: fino al giorno della presentazione i più erano convinti che G80 avrebbe avuto architettura a shader separati..:asd:

Kharonte85
23-03-2007, 16:10
Bè questo non è stranissimo: fino al giorno della presentazione i più erano convinti che G80 avrebbe avuto architettura a shader separati..:asd:
Indimenticabile...:asd:

Ci aveva fregati tutti...:D

halduemilauno
23-03-2007, 17:10
Hai colto in pieno Hal :)

;)

MaBru
23-03-2007, 18:57
e se avesse anche, ad esempio, 1/3 in più di tmu e rop's?
Ad esempio?:sofico: :D

Athlon 64 3000+
23-03-2007, 19:50
vedreno se R600 uscira a 80 nm o a 65.
Da quello che sento dire si dice che R600 se uscirà a 80 nm sarà un cesso di scheda e consumerà un botto,ma visto che siamo nel campo delle ipotesi protrei dire che la storia degli 80 nm che danno problemi di tensione potrebbe anche essere una balla.
Prendo G80 come esempio,è a 90 nm con 681 milioni di transistor eppure fa 145W sotto sforzo e si credeva prima del lancio che avrebbe consumato fino a 200W e invece per essere un chip cosi complesso e con cosi tanti transistor non consuma cosi tanto visto che una X1900XTX ne fà 120 di W e ha quasi 300 milioni di transistor in meno.

davide155
23-03-2007, 20:06
Ragazzi scusate......ma ho letto bene?
Uscita di r660 il 23 aprile?

Deschutes
23-03-2007, 20:14
Dall'enorme nebulosa sulle tenebrose e misteriose specifiche di R600:

- 65 nm no 80 nm :confused: :boh:
- DX 10 o DX 10.1
- alimentazione 6 pin + 6 pin o 6 pin + 8 pin :boh:
- 30% + di G80, 15% + di G80, 10% + di G80, uguale ~ G80??? :muro: :mc: :boh:

forse è spuntata 1 certezza
dalla notizia sulle schede video mobile (se sarà confermata....:D ) derivate dalle desktop, si capisce indirettamente che R600 sarà DX10
http://www.hwupgrade.it/news/skvideo/gpu-g80-anche-per-sistemi-notebook_20566.html

"Per queste ultime soluzioni, le informazioni attualmente disponibili parlano di un'architettura top di gamma nota con il nome in codice di M76XT costruita con tecnologia a 65 nanometri e dotata di supporto alla tecnologia Crossfire. Nel corso della prima metà del 2008 ATI presenterà le soluzioni M88 per sistemi notebook, costruite con tecnologia produttiva a 55 nanometri e dotate di supporto DirectX 10.1 e alle specifiche PCI Express 2.0."

Ciao a tutti

nico88desmo
23-03-2007, 20:52
Dall'enorme nebulosa sulle tenebrose e misteriose specifiche di R600:

- 65 nm no 80 nm :confused: :boh:
- DX 10 o DX 10.1
- alimentazione 6 pin + 6 pin o 6 pin + 8 pin :boh:
- 30% + di G80, 15% + di G80, 10% + di G80, uguale ~ G80??? :muro: :mc: :boh:



questa è l'unica certezza per ora. :D

io mi attendo un +20% max 25%...di più secondo me sarà difficile.

Athlon 64 3000+
23-03-2007, 21:42
il fatto che la versione di R600 a 80 nm che da problemi di tensione è comunque sempre un rumors e potrebbe anche essere una balla come i consumi spropositati.
Se R600 fosse a 65 nm come è possibile che abbia come connettori 6+8 quando la 8800GTX pur essendo a 90 nm e avendo 681 milioni di transistor ne ha 2 6+6.
Sembra che con il fatto che forse sarà a 80 nm R600 debba per forza essere un cesso.

The_SaN
23-03-2007, 22:00
il fatto che la versione di R600 a 80 nm che da problemi di tensione è comunque sempre un rumors e potrebbe anche essere una balla come i consumi spropositati.
Se R600 fosse a 65 nm come è possibile che abbia come connettori 6+8 quando la 8800GTX pur essendo a 90 nm e avendo 681 milioni di transistor ne ha 2 6+6.
Sembra che con il fatto che forse sarà a 80 nm R600 debba per forza essere un cesso.

Giá, e alcuni rumors sono stati presi come certi per fare certe affermazioni....:boh:

davide155
23-03-2007, 22:23
Ragazzi scusate......ma ho letto bene?
Uscita di r660 il 23 aprile?

Up :help:

T3d
23-03-2007, 22:34
Up :help:

si

davide155
23-03-2007, 22:37
si

Azz.....1 mese :eek:

Stupendo.......non vedo l'ora che esca!
Anche se a solo un mese dall'uscita sappiamo a mala pena come si chiama la scheda :rolleyes:

DVD2005
23-03-2007, 22:42
Azz.....1 mese :eek:


:eek:

preso da Stalker mi era sfuggita questa news. Ottimo

davide155
23-03-2007, 22:48
:eek:

preso da Stalker mi era sfuggita questa news. Ottimo

Ti piace stalker :rolleyes:
L'ho provato......a dir poco penoso.
La cosa che più mi ha fatto rabbrividire è stata la mal applicazione del displacement mapping. Raccapricciante.......
E poi i livelli poligonali dei personaggi..........

L'unica cosa decente è stata la rappresentazione della natura in generale.
Anche se entrando nello specifico si notano grandi "brutture".

Fine ot :O

Defragg
23-03-2007, 22:54
Ragazzi scusate......ma ho letto bene?
Uscita di r660 il 23 aprile?

2 giorni prima del mio compleanno :D

davide155
23-03-2007, 22:57
2 giorni prima del mio compleanno :D

Allora ti farai un bel regalo...... :D

Vero? :Perfido:

runk
23-03-2007, 22:58
2 giorni prima del mio compleanno :D

ma che è sta r660??? :eek:

mi sa che son stato troppo tempo sul 3d della ps3! :doh:

Defragg
23-03-2007, 23:00
Allora ti farai un bel regalo...... :D

Vero? :Perfido:

improbabile :fagiano: :cry:

mancano i dindi :incazzed:

Defragg
23-03-2007, 23:01
ma che è sta r660??? :eek:

mi sa che son stato troppo tempo sul 3d della ps3! :doh:

ha messo un 6 in più e uno zero in meno :D

A.L.M.
24-03-2007, 08:09
Non so se questa notizia è old, ma Beyond3D ha misurato al Cebit RV610 ed RV630. Tra tanti rumors, questi dovrebbero essere dati oggettivi. ;)

RV610 is 7.7x10.7mm, or ~82mm² on 65nm.
RV630 is 13.3x11.5mm, or ~153mm² on 65nm.

http://forum.beyond3d.com/showpost.php?p=948245&postcount=1

Mister Tarpone
24-03-2007, 09:46
Non so se questa notizia è old, ma Beyond3D ha misurato al Cebit RV610 ed RV630. Tra tanti rumors, questi dovrebbero essere dati oggettivi. ;)



http://forum.beyond3d.com/showpost.php?p=948245&postcount=1

molto compatte!! ;)

belin
24-03-2007, 10:17
Sembra che con il fatto che forse sarà a 80 nm R600 debba per forza essere un cesso.

...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.

...comunque, a proposito di Physics, ho trovato questo: Physics simulation gets sophisticated - R600 at work (http://www.hexus.net/content/item.php?item=8013)

http://img.hexus.net/v2/news/ati_physics/sloshed.jpg


...impressive! :eek:

Foglia Morta
24-03-2007, 10:20
http://www.vr-zone.com/?i=4854

http://resources.vr-zone.com//newspics/Mar07/24/R600WC-1.jpg

We seen enough of retail X2900 XTX card photos over the past few days and this time round we will bring you the water-cooled version of the R600 card to enjoy over the weekend. This cooling solution is probably provided by Aavid Thermalloy and coincidentally Aavid is touting their Turbo Tube cold plates with mass production in May, same time as R600 launch. ATi's AIB partners can choose to use it, design their own or use a 3rd party water-cooler from Thermaltake.

Athlon 64 3000+
24-03-2007, 10:27
...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.

...comunque, a proposito di Physics, ho trovato questo: Physics simulation gets sophisticated - R600 at work (http://www.hexus.net/content/item.php?item=8013)

http://img.hexus.net/v2/news/ati_physics/sloshed.jpg


...impressive! :eek:

Concordo pienamente.
La discussione è "degenarata" solo per parlare del processo produttivo e non si parlava più della architettura della gpu.:(

fede27
24-03-2007, 10:29
...impressive! :eek:
fantastico!!!!
http://www.vr-zone.com/?i=4854


We seen enough of retail X2900 XTX card photos over the past few days and this time round we will bring you the water-cooled version of the R600 card to enjoy over the weekend. This cooling solution is probably provided by Aavid Thermalloy and coincidentally Aavid is touting their Turbo Tube cold plates with mass production in May, same time as R600 launch. ATi's AIB partners can choose to use it, design their own or use a 3rd party water-cooler from Thermaltake.
ma quella è la versione da 12pollici, vero????

Athlon 64 3000+
24-03-2007, 10:33
fantastico!!!!

ma quella è la versione da 12pollici, vero????

no.è quella da 9,5 pollici.
Dovrebbe essere lunga 24,5 cm,esattamente lunga 1 cm più del pcb dei vari X1800,X1900,X1950.;)

fede27
24-03-2007, 10:39
no.è quella da 9,5 pollici.
Dovrebbe essere lunga 24,5 cm,esattamente lunga 1 cm più del pcb dei vari X1800,X1900,X1950.;)

chissà che razza di circuiteria..certo che se raffreddano il voltage regulator a liquido come nella foto di foglia dev'essere proprio un mostro! che avrà, 1,7V di vcore default?

Alexkidd85
24-03-2007, 11:54
...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.



Non ti seccare ma,per me,un cambio di processo produttivo è spendere soldi inutilmente se acquisto male.
Ti sei fissato che io metto in dubio la bontà di r600 se fosse a 80nm quando il mondo ha capito che parlo della "poca distanza" (se così fosse,sono tutti rumors) tra l'uscita di r600 a 80 e 65 nm.
Quindi non lo ripetere 100 volte,ti prego :)

Se una macchina mi esce euro 4 e dopo 3 mesi la stessa mi esce euro 3...io divento una bestia, anche se magari l'euro 4 è molto più bella di linea e tutto quello che vuoi.

Chiudo sempre con "pareri" ma spero di essermi spiegato meglio ora,se non mi fossi spiegato bene prima :)

Athlon 64 3000+
24-03-2007, 12:12
Il che pone nuovamente la questione sui connettori di alimentazione, che sono uno a 6pin e 1 a 8pin, che a quanto si diceva dovevano essere solo sulla versione OEM. Non ci capisco più nulla...

La versione oem è lunga 32 cm ed è fatta cosi per andare nei pc di marca Dell per esempio,mentre la retail lo hai visto come è.
I 2 connettori 6+8 pin ci saranno sia sulla oem che sulla retail in versione R600XTX(o come di chiamerà)
La Radeon R600XT non si sa se sarà a 6+8 o 6+6 oppure un solo connettore.

TecnoWorld8
24-03-2007, 12:31
dopo l'ultima notizia su inquirer, io non ho più molti dubbi...R600 sarà a 80nm alla presentazione e così saranno anche le primissime schede messe in commercio, se vorranno riuscire a venderne già a maggio. poi forse a brevissimo si passerà a 65nm e secondo me lo si farà un po' in silenzio, nel senso che non verrà probabilmente cambiato nulla nelle specifiche tecniche, nemmeno il clock di default della scheda (e tantomeno il nome), per non dare l'impressione che sia già un modello più nuovo.

sarà solo una rev successiva...io credo così.

Gabriyzf
24-03-2007, 12:39
dopo l'ultima notizia su inquirer, io non ho più molti dubbi...R600 sarà a 80nm alla presentazione e così saranno anche le primissime schede messe in commercio, se vorranno riuscire a venderne già a maggio. poi forse a brevissimo si passerà a 65nm e secondo me lo si farà un po' in silenzio, nel senso che non verrà probabilmente cambiato nulla nelle specifiche tecniche, nemmeno il clock di default della scheda (e tantomeno il nome), per non dare l'impressione che sia già un modello più nuovo.

sarà solo una rev successiva...io credo così.


se sarà così, che se li tengano, i primi r600 :D

TecnoWorld8
24-03-2007, 13:07
dopotutto AMD stessa è passata ai 65nm con pochissimo clamore, anzi, se non si fosse detto sui vari siti specializzati, la cosa non sarebbe stata nemmeno troppo pubblicizzata...

runk
24-03-2007, 13:25
ha messo un 6 in più e uno zero in meno :D

:eek: :rotfl: ci sono cascato come un salame! :sofico:

picard88
24-03-2007, 14:34
secondo voi può essere che le schede retail saranno tutte a 65 nm mentre le schede a 80 nm le smaltiranno col mercato oem dato che la scheda è più lunga e possono mettere sistemi di raffreddamento più complessi??

Marko91
24-03-2007, 15:01
...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.

...comunque, a proposito di Physics, ho trovato questo: Physics simulation gets sophisticated - R600 at work (http://www.hexus.net/content/item.php?item=8013)

http://img.hexus.net/v2/news/ati_physics/sloshed.jpg


...impressive! :eek:

La discussione è degenerata anche per colpa dei "test" di Vr-zone...

Ritorniamo allora all'architettura.

Da quello che ho capito e dalle informazioni trapelate, R600 avrà 320 unità scalari, divise in 64 gruppi. Ogni gruppo avrà quindi 5 ALU scalari, o meglio una unità vec4 + una scalare.
E' possibile che questi 64 gruppi siano assemblati in 4 macrogruppi da 16, come in Xenos. Tutte le ALU opereranno a 800 Mhz.
G80 ha invece 128 unità scalari, divise in 8 gruppi da 16 Alu scalari ciascuno. Operano tutte a 1350 Mhz, una frequenza il 60% superiore a R600.
Se entrambi fossero a 800 Mhz è come se G80 fosse costituito da 204 ALU scalari.
Da queste specifiche R600 sembra un mostro nello shading, nettamente superiore a G80 anche alla frequenza di 800 Mhz. O c'è qualcosa che non quadra nei test di Vr-zone, oppure queste specifiche sono sbagliate. Eppure sono state in parte confermate da AMD/Ati con il teraflop-in-a-box.

fenicered
24-03-2007, 16:53
non vorrei aprire polemiche
ma esiste qualche test che verifichi che nel g80 sono 128 unificate oppure come vi vociferava prima dell'uscita della scheda sono unità distinte es.96+32

lo dico perche confrotato ad un g71 mi sarei aspettato prestazioni di molto superiori 24+8

Defragg
24-03-2007, 17:08
non forrei aprire polemiche
ma esiste qualche test che verifichi che nel g80 sono 128 unificate oppure come vi vociferava prima dell'uscita della scheda sono unità distinte es.96+32

lo dico perche confrotato ad un g71 mi sarei aspettato prestazioni di molto superiori:asd:

non è questa la sede dove discuterne ;)

jp77
24-03-2007, 17:21
edit

Pat77
24-03-2007, 17:27
La discussione è degenerata anche per colpa dei "test" di Vr-zone...

Ritorniamo allora all'architettura.

Da quello che ho capito e dalle informazioni trapelate, R600 avrà 320 unità scalari, divise in 64 gruppi. Ogni gruppo avrà quindi 5 ALU scalari, o meglio una unità vec4 + una scalare.
E' possibile che questi 64 gruppi siano assemblati in 4 macrogruppi da 16, come in Xenos. Tutte le ALU opereranno a 800 Mhz.
G80 ha invece 128 unità scalari, divise in 8 gruppi da 16 Alu scalari ciascuno. Operano tutte a 1350 Mhz, una frequenza il 60% superiore a R600.
Se entrambi fossero a 800 Mhz è come se G80 fosse costituito da 204 ALU scalari.
Da queste specifiche R600 sembra un mostro nello shading, nettamente superiore a G80 anche alla frequenza di 800 Mhz. O c'è qualcosa che non quadra nei test di Vr-zone, oppure queste specifiche sono sbagliate. Eppure sono state in parte confermate da AMD/Ati con il teraflop-in-a-box.

Bisogna valutare la veridicità di quei dati, oltre a valutare driver e possibili bug, un numero può voler dire tutto e nulla.

davide155
24-03-2007, 18:05
...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.

...comunque, a proposito di Physics, ho trovato questo: Physics simulation gets sophisticated - R600 at work (http://www.hexus.net/content/item.php?item=8013)

http://img.hexus.net/v2/news/ati_physics/sloshed.jpg


...impressive! :eek:
Questa immagine è qualcosa di stupendo :eek:
Se davvero quest'acqua fosse generata in real time con r600 siamo arrivati ai livelli della computer grafica :eek: :eek:

Defragg
24-03-2007, 18:23
Questa immagine è qualcosa di stupendo :eek:
Se davvero quest'acqua fosse generata in real time con r600 siamo arrivati ai livelli della computer grafica :eek: :eek:

già, ci siamo molto vicini :eek:

DVD2005
24-03-2007, 18:30
Questa immagine è qualcosa di stupendo :eek:
Se davvero quest'acqua fosse generata in real time con r600 siamo arrivati ai livelli della computer grafica :eek: :eek:

temo sia troppo bello per essere vero :(

davide155
24-03-2007, 18:38
temo sia troppo bello per essere vero :(

Bah...guarda......anche se fosse solo una tech demo per me sarebbe il top :O

Basta che la renderizzi in real time.......non voglio sapere come, ma a me basta vedere che la muova r600.

Cmq il sito ha scritto che in settimana prox rilascerà altre immagini su quella fisica :sbav:

Skullcrusher
24-03-2007, 18:38
temo sia troppo bello per essere vero :(

Già....:rolleyes:

Defragg
24-03-2007, 18:49
era da un po' di tempo che ci pensavo...e se R600 avesse un'EDRAM?

questo spiegerebbe tutti i casini col processo produttivo e anche la quantità esagerata di transistor :stordita:

o sbaglio? :oink:

davide155
24-03-2007, 18:59
era da un po' di tempo che ci pensavo...e se R600 avesse un'EDRAM?

questo spiegerebbe tutti i casini col processo produttivo e anche la quantità esagerata di transistor :stordita:

o sbaglio? :oink:

Cioè la memoria embedded?

Defragg
24-03-2007, 19:02
Cioè la memoria embedded?

esatto, quella di R500 o Xenos

Pat77
24-03-2007, 23:25
Potrebbe essere uno sviluppo interessante, l'ultimo tentativo di proporre memoria integrata fu il glaze 3d, per chi se lo ricorda, gpu poi mai uscita.
Comunque sono sempre più convinto che anche quando uscirà sarà difficile valutarla a 360 gradi, ma si avrà soltanto poco in dx9, per via dei driver e pochissimo in dx10, per via del software.

appleroof
25-03-2007, 10:26
non vorrei aprire polemiche
ma esiste qualche test che verifichi che nel g80 sono 128 unificate oppure come vi vociferava prima dell'uscita della scheda sono unità distinte es.96+32

lo dico perche confrotato ad un g71 mi sarei aspettato prestazioni di molto superiori 24+8

esatto...dal doppio al triplo in dx9 è proprio una delusione...:rolleyes:

senza polemica eh? :asd:

Marko91
25-03-2007, 10:42
era da un po' di tempo che ci pensavo...e se R600 avesse un'EDRAM?

questo spiegerebbe tutti i casini col processo produttivo e anche la quantità esagerata di transistor :stordita:

o sbaglio? :oink:

L'edram costa molto e sulle altissime risoluzioni sarebbe poco utile. Per poter applicare 4xFSAA su un frame 2560x1600 servirebbero 120-130 mb di edram, con un costo e un numero di transistor mostruoso.
Sulle basse risoluzioni potrebbe essere utile (ne servirebbe comunque 64 mb circa), ma il controller a 512 bit perderebbe un pò di senso.
Io credo che molto difficilmente vedremo mai un edram nelle gpu pc.

Marko91
25-03-2007, 10:44
Bisogna valutare la veridicità di quei dati, oltre a valutare driver e possibili bug, un numero può voler dire tutto e nulla.

Potrebbe anche essere. Inoltre finchè non usciranno giochi DirecX10 non potremmo veramente testare la qualità di queste schede.

appleroof
25-03-2007, 10:49
L'edram costa molto e sulle altissime risoluzioni sarebbe poco utile. Per poter applicare 4xFSAA su un frame 2560x1600 servirebbero 120-130 mb di edram, con un costo e un numero di transistor mostruoso.
Sulle basse risoluzioni potrebbe essere utile (ne servirebbe comunque 64 mb circa), ma il controller a 512 bit perderebbe un pò di senso.
Io credo che molto difficilmente vedremo mai un edram nelle gpu pc.

c'è da dire che il costo delle stesse (come in generale le memorie) stia calando vertiginosamente, quanto ai transistor, forse la ricerca del processo produttivo più basso possibile potrebbe essere orientata anche a quello...

Pat77
25-03-2007, 10:53
Potrebbe anche essere. Inoltre finchè non usciranno giochi DirecX10 non potremmo veramente testare la qualità di queste schede.

Comprando la scheda al lancio si avranno i primi che la sfruttano a settembre, comunque bene o male è sempre stato così, la mia 1900gt secondo me, ad esempio, non è ancora sfruttata come si deve.

Defragg
25-03-2007, 10:59
esatto...dal doppio al triplo in dx9 è proprio una delusione...:rolleyes:

senza polemica eh? :asd:
:asd:
L'edram costa molto e sulle altissime risoluzioni sarebbe poco utile. Per poter applicare 4xFSAA su un frame 2560x1600 servirebbero 120-130 mb di edram, con un costo e un numero di transistor mostruoso.
Sulle basse risoluzioni potrebbe essere utile (ne servirebbe comunque 64 mb circa), ma il controller a 512 bit perderebbe un pò di senso.
Io credo che molto difficilmente vedremo mai un edram nelle gpu pc.
aspettiamo, per me è una possibilità per quanto improbabile, ecc...

sono daccordo sulla quantità, 64Mb mi sembrano il minimo
c'è da dire che il costo delle stesse (come in generale le memorie) stia calando vertiginosamente, quanto ai transistor, forse la ricerca del processo produttivo più basso possibile potrebbe essere orientata anche a quello...
quoto ;)

Marko91
25-03-2007, 10:59
c'è da dire che il costo delle stesse (come in generale le memorie) stia calando vertiginosamente, quanto ai transistor, forse la ricerca del processo produttivo più basso possibile potrebbe essere orientata anche a quello...

Può darsi. Con 64 mb di edram le prestazioni a 1280x1024 di quanto potrebbero aumentare? Tutti i filtri verrebbero applicati gratis. Ma a risoluzioni superiori?
Di sicuro non verrà usato il tiled rendering, su pc sarebbero un casino usarlo, quindi oltre una certa risoluzione, ad esempio 1600 x 1200, l'edram non sarebbe più utilizzabile.

Defragg
25-03-2007, 11:06
Può darsi. Con 64 mb di edram le prestazioni a 1280x1024 di quanto potrebbero aumentare? Tutti i filtri verrebbero applicati gratis. Ma a risoluzioni superiori?
Di sicuro non verrà usato il tiled rendering, su pc sarebbero un casino usarlo, quindi oltre una certa risoluzione, ad esempio 1600 x 1200, l'edram non sarebbe più utilizzabile.

a risoluzioni superiori i 512bit daranno manforte ;)

Marko91
25-03-2007, 11:08
Allora questo chip sarebbe ricordato come uno dei più rivoluzionari nella storia del pc: shader unificati, DirectX10, controller 512 bit, 1 Gb di gddr4, frequenze del core 800 Mhz / 1 Ghz ed edram.
Amd entrerebbe pesantemente in questo campo, con un best launch ever e un concentrato di tecnologia da far impallidire Nvidia.
Come dicevo nella pagina prima, dalle specifiche finora rumoreggiate, R600 dovrebbe essere il 50% più potente di G80, con l'edram e l'upgrade ad 1 Ghz, G80 sarebbe owned.
Lol :D

Defragg
25-03-2007, 11:10
Allora questo chip sarebbe ricordato come uno dei più rivoluzionari nella storia del pc: shader unificati, DirectX10, controller 512 bit, 1 Gb di gddr4, frequenze del core 800 Mhz / 1 Ghz ed edram.
Amd entrerebbe pesantemente in questo campo, con un best launch ever e un concentrato di tecnologia da far impallidire Nvidia.
Come dicevo nella pagina prima, dalle specifiche finora rumoreggiate, R600 dovrebbe essere il 50% più potente di G80, con l'edram e l'upgrade ad 1 Ghz, G80 sarebbe owned.
Lol :D

aspettiamo :boh:

Pat77
25-03-2007, 11:17
Dovesse includere anche 64 Mb di edram sarebbe veramente di una complessità assurda, magari 32 nelle rv630 :D

belin
25-03-2007, 11:23
secondo voi può essere che le schede retail saranno tutte a 65 nm mentre le schede a 80 nm le smaltiranno col mercato oem dato che la scheda è più lunga e possono mettere sistemi di raffreddamento più complessi??

...no, imho, no.

:)

Kharonte85
25-03-2007, 12:17
Dovesse includere anche 64 Mb di edram sarebbe veramente di una complessità assurda, magari 32 nelle rv630 :D
E un prezzo superiore ai 1000 euri :D

davide155
25-03-2007, 12:18
Allora questo chip sarebbe ricordato come uno dei più rivoluzionari nella storia del pc: shader unificati, DirectX10, controller 512 bit, 1 Gb di gddr4, frequenze del core 800 Mhz / 1 Ghz ed edram.
Amd entrerebbe pesantemente in questo campo, con un best launch ever e un concentrato di tecnologia da far impallidire Nvidia.
Come dicevo nella pagina prima, dalle specifiche finora rumoreggiate, R600 dovrebbe essere il 50% più potente di G80, con l'edram e l'upgrade ad 1 Ghz, G80 sarebbe owned.
Lol :D

La vedo un pò come fantascienza......ma sognare non ha mai fatto male a nessuno :D

Simon82
25-03-2007, 12:19
Questa immagine è qualcosa di stupendo :eek:
Se davvero quest'acqua fosse generata in real time con r600 siamo arrivati ai livelli della computer grafica :eek: :eek:

2 considerazioni: avere (al giorno d'oggi) un acqua cosi' fedelmente riprodotta in termini di fisica potrebbe anche essere quasi inutile in alcuni tipi di gioco (non tutti ovviamente). I calcoli necessari finirebbero per occupare la GPU in maniera eccessiva imho al punto che solo le tech demo avrebbero senso e non una scena geometrica comprensiva di altri milioni di poligoni, effetti, texture, post processing ecc ecc ecc.. ;)

Comunque impressionante davvero. Da vedere real time pero'.

Defragg
25-03-2007, 12:19
E un prezzo superiore ai 1000 euri :D

:asd: oramai l'onda è quella :rolleyes:

belin
25-03-2007, 12:30
Da quello che ho capito e dalle informazioni trapelate, R600 avrà 320 unità scalari, divise in 64 gruppi. Ogni gruppo avrà quindi 5 ALU scalari, o meglio una unità vec4 + una scalare.
E' possibile che questi 64 gruppi siano assemblati in 4 macrogruppi da 16, come in Xenos. Tutte le ALU opereranno a 800 Mhz.
G80 ha invece 128 unità scalari, divise in 8 gruppi da 16 Alu scalari ciascuno. Operano tutte a 1350 Mhz, una frequenza il 60% superiore a R600.
Se entrambi fossero a 800 Mhz è come se G80 fosse costituito da 204 ALU scalari.
Da queste specifiche R600 sembra un mostro nello shading, nettamente superiore a G80 anche alla frequenza di 800 Mhz. O c'è qualcosa che non quadra nei test di Vr-zone, oppure queste specifiche sono sbagliate. Eppure sono state in parte confermate da AMD/Ati con il teraflop-in-a-box.

non vorrei aprire polemiche
ma esiste qualche test che verifichi che nel g80 sono 128 unificate oppure come vi vociferava prima dell'uscita della scheda sono unità distinte es.96+32

http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif

...l'immagine rappresenta l'architettura di G80 nella versione più potente (8800 GTX). I quadratini verdi sono i 128 stream processors, divisi in 8 gruppi da 16 ciascuno. Per ogni blocco verde sono presenti le texture units blu, divise in texture filtering unit e in texture address unit. A queste sono collegate le cache L1 a loro volta collegate a cache L2. Le cache infine sono collegate direttamente al controller memoria diviso in 6 blocchi da 64bit per un totale di 384bit di ampiezza totale (nelle 8800 GTS i blocchi diventano 5 da 64bit e gli stream processor sono 96 cioè 6 gruppi da 16).

...ATi R500 Xenos è prodotto a 90 nm (uh che schifo...:D ) e conta 337 milioni di transistor. Di questi 232 sono relativi al core della GPU, mentre 105 milioni di transistor sono utilizzati per realizzare i 10 Mb di memoria DRAM embedded. Core e memoria operano ad una frequenza di 500 MHz.
R500 ha ovviamente architettura a shader unificati. Più precisamente 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

Pdf molto interessante su Xenos: http://ati.amd.com/developer/eg05-xenos-doggett-final.pdf

...personalmente non credo che R600 potrà avere delle memoria embedded, lo spazio richiesto sul chip dovrebbe aumentare un pò. Se invece hanno trovato il modo di metterceli tanto di cappello, le capacità della gpu sarebbero notevoli. Concordo con Marko91, sulla carta le caratteristiche di R600 (320 unità scalari, divise in 64 gruppi, ogni gruppo con una unità Vec4 + una scalare, totale 5 ALU) sono molto promettenti (un mostro di potenza), bisogna vedere se si tradurranno in "reale efficenza".

...comunque se penso ai rumors che giravano su G80 stiamo tranquilli...R600 sarà diverso da come lo immaginiamo adesso! :D


...ciao!

Simon82
25-03-2007, 12:38
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif

...l'immagine rappresenta l'architettura di G80 nella versione più potente (8800 GTX). I quadratini verdi sono i 128 stream processors, divisi in 8 gruppi da 16 ciascuno. Per ogni blocco verde sono presenti le texture units blu, divise in texture filtering unit e in texture address unit. A queste sono collegate le cache L1 a loro volta collegate a cache L2. Le cache infine sono collegate direttamente al controller memoria diviso in 6 blocchi da 64bit per un totale di 384bit di ampiezza totale (nelle 8800 GTS i blocchi diventano 5 da 64bit e gli stream processor sono 96 cioè 6 gruppi da 16).

...ATi R500 Xenos è prodotto a 90 nm (uh che schifo...:D ) e conta 337 milioni di transistor. Di questi 232 sono relativi al core della GPU, mentre 105 milioni di transistor sono utilizzati per realizzare i 10 Mb di memoria DRAM embedded. Core e memoria operano ad una frequenza di 500 MHz.
R500 ha ovviamente architettura a shader unificati. Più precisamente 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

Pdf molto interessante su Xenos: http://ati.amd.com/developer/eg05-xenos-doggett-final.pdf

...personalmente non credo che R600 potrà avere delle memoria embedded, lo spazio richiesto sul chip dovrebbe aumentare un pò. Se invece hanno trovato il modo di metterceli tanto di cappello, le capacità della gpu sarebbero notevoli. Concordo con Marko91, sulla carta le caratteristiche di R600 (320 unità scalari, divise in 64 gruppi, ogni gruppo con una unità Vec4 + una scalare, totale 5 ALU) sono molto promettenti (un mostro di potenza), bisogna vedere se si tradurranno in "reale efficenza".

...comunque se penso ai rumors che giravano su G80 stiamo tranquilli...R600 sarà diverso da come lo immaginiamo adesso! :D


...ciao!
Mhhh.. le review saranno da leggere in 5 o 6 sessioni da ore ciascuna per avere un quadro di quando un'architettura sara' piu' efficiente e quando lo sara' meno viste le differenze che si stanno propagando sempre piu' all'interno che non ai vecchi bei "numeroni" di una volta. Leggersi una review nel 98 era leggermente piu' rilassante. :D

Paolo mi raccomando, vogliamo 30 pagine di articolo. :p

Defragg
25-03-2007, 13:21
Paolo mi raccomando, vogliamo 30 pagine di articolo. :p

quoto violentemente :O http://img181.imageshack.us/img181/1972/roxju5.gif

davide155
25-03-2007, 13:57
30 pagine di articolo :asd:

Mi sembra il minimo :O

MaBru
25-03-2007, 14:07
era da un po' di tempo che ci pensavo...e se R600 avesse un'EDRAM?

questo spiegerebbe tutti i casini col processo produttivo e anche la quantità esagerata di transistor :stordita:

o sbaglio? :oink:
Penso sia di difficile applicazione visto che un pc può uscire a molteplici risoluzioni.

Simon82
25-03-2007, 14:26
Penso sia di difficile applicazione visto che un pc può uscire a molteplici risoluzioni.

Concordo e anche di difficile realizzazione visto il rapporto tra complessita', numero di transistor e processo produttivo (apparenti).

VitOne
25-03-2007, 23:45
...non capisco perchè vi scaldiate, non ho attaccato nessuno. :(

...ma come si fa a definire un processo produttivo a 80nm "vecchio"??? no, veramente. Ci rendiamo conto??? diamo un valore alle cose???

...durata temporale di una R600 a 80nm pari a zero??? hai una 8800GTX e stai valutando se passare ad ATi R600 o NVIDIA 8900???

:help:

ps. e comunque, ribadisco, nessun sito serio ha dato termini temporali per l'arrivo nei negozi di R600 a 65nm. Non vedo perchè dare per scontati 3/4 mesi.

Allora il problema prinicipale è che ATI non è nuova a manovre che vedono l'immissione di una scheda TOP sul mercato poco dopo la precedente e dato che in questo 3D si parla di rumors credo sia lecito scrivere che se ATI dovesse ripetere il suo comportamento con queste nuove schede sarebbe qualcosa di veramente vergognoso. Per adesso non posso esprire altro che non il disprezzo per il loro comportamento: EIDT: ho visto la data di Tunisi, l'avevo già letto ma mi era sembrata una voce e non una certezza, mentre adesso pare sia una certezza, ben venga :D.
Cmq esatto: io non sono un tifoso ne di ATI ne di AMD ne di nVidia: semplicemente un appassionato di teconolgia che lavora e ha deciso di permettersi l'ultima scheda al posto di qualcos'altro... Se ti interessa la discussione filosofica sulle schede video ne avevo aperta una qualche tempo fa...

In ogni caso non do per scontato nulla se non che le case si vogliono arricchire e che ATI si è comportata molto male con questo nuovo chip, posticipando di troppo l'uscita.

...incredibile, vero? è quello che scrivevo prima. Ormai molti, qui ma anche su forum inglesi, si sono fissati sulla diatriba 80/65 nm, come se i 65 nm fossero la condizione necessaria ed indispensabile per determinare il successo di R600. Incredibile! Non ci si sofferma più sul tipo di architettura, su quanto saranno efficenti le unità, se saranno 64 o 96 unified shader Vec4 o no, che differenza avranno dalle 48 di Xenos, come sarà gestita la parte "Physics", se sarà in grado di superare l'ottima architettura di G80, etc etc...

No, ormai la questione è questa: 80 nm vecchia latrina di vga, 65 nm un successo. Le caratteristiche della gpu saranno le stesse sia a 80 nm che a 65 nm. Con la diminuzione del processo produttivo aumenti le frequenze, diminuisci le interferenze ed il calore, diminuisci i costi, ma non cambi radicalmente l'architettura.

...comunque, a proposito di Physics, ho trovato questo: Physics simulation gets sophisticated - R600 at work (http://www.hexus.net/content/item.php?item=8013)

[/IMG]

...impressive! :eek:

Veramente impressionante questa immagine, grazie per averla postata :D. Siamo arrivati veramente a degli ottimi livelli per quello che rigaurda il fotorealismo. Personalmente non mi interessa minimanente il processo produttivo della scheda: la possono fare come vogliono, basta che vada bene, non scaldi troppo, e che non venga sostituita dopo 4 mesi. Troppe volte ho passato giornate a leggermi cartatteristiche tecniche e feautures di schede che poi nella pratica andavano uno schifo. Le tecnologie sono molto belle, però vanno impiegate.

http://www.vr-zone.com/?i=4854

We seen enough of retail X2900 XTX card photos over the past few days and this time round we will bring you the water-cooled version of the R600 card to enjoy over the weekend. This cooling solution is probably provided by Aavid Thermalloy and coincidentally Aavid is touting their Turbo Tube cold plates with mass production in May, same time as R600 launch. ATi's AIB partners can choose to use it, design their own or use a 3rd party water-cooler from Thermaltake.

Interessante versione della scheda, rimango più favorevole alle soluzioni "artigianali" però queste soluzioni hanno il pregio di diffondere il liquid cooling come alternativa all'aria, per ciò che mi riguarda sono benvenute :D.

halduemilauno
26-03-2007, 07:53
http://forums.vr-zone.com/showthread.php?t=138774

As for CeBIT, approximately 150 meetings with the press were held, not including the odd evening interaction with the press and the channel in the stein strong Münchner Halle during some long, cold nights in Hangover.

So 400 R600 boards and approx 200 journalists are going to a city west of Carthage, the place where Hannibal started its campaign against the Romans. The historical background only goes so far. Carthage is not AMD and Intel is not Rome, and although Hannibal could have had Rome, he and his elephants didn't make most people in western Europe non-Romance speakers.

Instead of attending CeBIT in force and showing its current strength, Intel opted to make a pool in Hall Duo.

Meanwhile, a few of AMD/ATI partners did not appreciate powerplays about R600 so they are full of cynicism about their respective allies.

;)

Foglia Morta
26-03-2007, 08:38
Allora il problema prinicipale è che ATI non è nuova a manovre che vedono l'immissione di una scheda TOP sul mercato poco dopo la precedente e dato che in questo 3D si parla di rumors credo sia lecito scrivere che se ATI dovesse ripetere il suo comportamento con queste nuove schede sarebbe qualcosa di veramente vergognoso. Per adesso non posso esprire altro che non il disprezzo per il loro comportamento: EIDT: ho visto la data di Tunisi, l'avevo già letto ma mi era sembrata una voce e non una certezza, mentre adesso pare sia una certezza, ben venga :D.
Cmq esatto: io non sono un tifoso ne di ATI ne di AMD ne di nVidia: semplicemente un appassionato di teconolgia che lavora e ha deciso di permettersi l'ultima scheda al posto di qualcos'altro... Se ti interessa la discussione filosofica sulle schede video ne avevo aperta una qualche tempo fa...
hai una visone delle cose piuttosto parziale... la 7950GX2 è uscita dopo 3 mesi e mezzo la 7900GTX , la 8800GTX è uscita 5 mesi dopo la 7950GX2. la X1900 3 mesi dopo la X1800 .

E con questo ? se vuoi investire acquista i titoli in borsa delle aziende non i loro prodotti ;)

Athlon 64 3000+
26-03-2007, 08:50
http://forums.vr-zone.com/showthread.php?t=138768
http://www.xbitlabs.com/articles/editorial/display/interview_amd_byrne-2007.html

X-bit labs: The introduction of the code-named R600 will be the second time when ATI/AMD is several months late to market compared to the arch-rival Nvidia. Do you have a strategy to evade the same going forward?

John Byrne: Traditionally, at ATI, we have always had a strong dedication to quality – and this is an ethos that is shared with our colleagues throughout AMD. Quality means putting out the best solution possible – not rushing products to market. We are very confident in both our DirectX10 hardware and WHQL-certified drivers for XP and Vista.

X-bit labs: Do you plan to continue refreshing your product lineup every six months, or do you plan to change that in some ways?

John Byrne: That question focuses too narrowly on one segment of our roadmap. One of the things that most attracted AMD to ATI was the broad diversity of our product range.

In the graphics arena alone, we have not only the world’s most advanced graphics products for desktop systems, but also the world’s fastest consumer graphics for notebooks. At the same time, two out of three of the most advanced consoles also use ATI graphic products.

From there we can easily branch out to hand-held and embedded devices – as well as other offers for the workstation and server markets. With so many roadmaps and such a massive, on-going investment in R&D, it is easy to see why AMD’s graphics division is set to continue innovating at such a rapid pace.

X-bit labs: Do you think it makes sense to intro a DirectX 10 family of chips as soon as possible to the market, or it is better to start from the high-end while offering high-performance DX9 chips to the mainstream?

John Byrne: We’d love to be able to give everyone the choice – and for that reason we hope to be more aggressive in the way we plan to bring the full range of products to market than we have before now. Against that is the fact that there are no DirectX 10 games ready to buy so far – so it’s very hard to see how to measure the real benefits of buying DX10 hardware. When the games do arrive the hardware needs to be available, that’s one of the key reasons why it hasn’t been necessary for us to rush our products to market. Instead we’ve had the relative luxury of being able to spend the time to make sure we have the right solutions.

X-bit labs: In fact, if you introduce a family of GPUs that perform relatively well in DirectX 10 environment, you would catalyze game developers to employ more DX10 effects, which would eventually catalyze people to upgrade to next-gen DX10 hardware quicker. What do you think?

John Byrne: Making the big move to a completely new platform takes a lot of smaller steps. Content creation is intensely resource-hungry and time consuming. Then you have to allow for an installed user base to grow. At the same time, driver maturity is vital. The mass-market will be catalysed by the introduction of our complete range of DirectX 10 products – with fully certified WHQL drivers – which will help create a base of users that will prove attractive to developers. It is a virtuous circle that we all play a small part in creating/energising.

Games developers don’t really need us as a catalyst. The transition to DirectX10 is a major jump – so it’s true that there are quite a few games developers who have decided to stand back. But there are also many developers who have embraced the new API and will showcase some great new games (particularly in the second half of this year. Also, when you bear in mind the fact that Vista is the only OS to support DX10 you can see that developers and publishers would like to allow a little time for the new OS to “bed in” before they ship games which demand it. That way there will be a reasonable installed base to appeal to, and for a DX10 game to make commercial sense that’s clearly a requirement.

X-bit labs: Your colleagues believe that the GPU is a math co-processor of our times. Don’t you think that this essentially means the end of GPU as a discrete product?

John Byrne: Math co-processors were, essentially, very similar to the CPUs they were complimenting in both architecture and the types of processing demand placed on them. Our GPGPU initiative showed the tremendous levels of parallelism available within today’s graphics engines. Although the clocks are orders of magnitude slower than for CPUs, the actual throughput is amazing. That difference is likely to be here for some time. Innovation within our market is moving at a tremendous pace, but you can still see a solid place for dedicated GPUs into the foreseeable future.

X-bit labs: Can you imagine a situation when AMD decides to quit standalone GPU business?

John Byrne: Not at all. We are dedicated to our partners and this is something that we discussed with them very enthusiastically at our recent Global Partner Summits in Prague and China.

X-bit labs: What has happened to All-in-Wonder lineup of graphics cards? We haven’t seen an update for over a year right now and AIWs are hard to find even at http://ati.amd.com. Did you decide to discontinue the AIW family?

John Byrne: There are no current plans for new products on the roadmap. Our focus at this time is on stand-alone TV tuners. Of course we do reserve the right to use the brand in the future if the opportunity presents itself.

X-bit labs: What do you think about the practice of offering pre-overclocked graphics cards and do you plan to allow your partners to increase speeds of your performance-mainstream and enthusiast-class offerings going forward?

John Byrne: It’s a great way to attract enthusiasts. One of the most noticeable examples is allowing partners to pre-overclock even the high-end graphics cards: a lot of users do want to have highest performance graphics cards, but do not want to take a risk and/or lose warranty by overclocking the boards themselves. We have several partners that have chosen to do this.

TecnoWorld8
26-03-2007, 15:35
Foglia Morta: considera che il prodotto 7950GX2 non era direttamente un'evoluzione di 7900GTX, anzi dati i consumi ed i problemi vari con i drivers, secondo me non era da preferire a quest'ultima.

Lo step tecnologico è stato, secondo me, tra 7900 ed 8800, ed è più o meno durato 9 mesi. E consideriamo che 7900 era un'evoluzione di 7800 (stessa generazione) quindi da una generazione all'altra è passato oltre un anno.

Diversa la storia di x1800, dato che è stato un prodotto con alcuni problemi e uscito con ritardo e quasi subito superato dalla sua logica evoluzione, x1900, che invece era "on schedule".

R600 rischia di essere la nuova x1800, se esce a 80nm e non sufficientemente potente da perlomeno eguagliare (meglio superare) quella che sarà la 8800 ultra che verrà presentata da nVidia.

E' vero che l'hw invecchia rapidamente, ma non ha senso che una scheda che costerà circa 600€ esca e venga entro tre mesi sostituita nel top di gamma solo perchè era in ritardo.

Ecco perchè auspico che ATi/AMD scelga di fare R600 a 65nm, con clock a 900Mhz o 1000Mhz, o comunque con prestazioni di almeno 20-25% superiori rispetto ad 8800GTX nel dx9.

VitOne
26-03-2007, 15:53
hai una visone delle cose piuttosto parziale... la 7950GX2 è uscita dopo 3 mesi e mezzo la 7900GTX , la 8800GTX è uscita 5 mesi dopo la 7950GX2. la X1900 3 mesi dopo la X1800 .

E con questo ? se vuoi investire acquista i titoli in borsa delle aziende non i loro prodotti ;)

Fortunatamente tu hai una visione non parziale, grazie :D. Io critico sempre le aziende, non mi interessa nulla di nVidia; ATI IMHO si sta comportando male, e spero vivamente che non faccia uscire una scheda dopo l'altra. Per me videogiocare non è un investimento, è un lusso, a tutti i livelli, con la scheda da 50 o 500€ è sempre un lusso.
Io credo però che in tutto questo sia giusto che un consumatore si informi prima di acquistare, e per quello che sono i miei gusti ATI non è un'azienda seria, non da garanzie. La 8800GTX è durata da Novembre e durerà ancora per un paio di mesi come scheda TOP. La nuova ATI? Si sa solamente che probabilmente verrà presto sostituita. Se così fosse credo sarebbe una scelta sbagliata.
Tutto secondo me, mi rendo conto che hai una visione superiore e non limitata come la mia:eek:.

Robbysca976
26-03-2007, 15:57
Foglia Morta: considera che il prodotto 7950GX2 non era direttamente un'evoluzione di 7900GTX, anzi dati i consumi ed i problemi vari con i drivers, secondo me non era da preferire a quest'ultima.

Lo step tecnologico è stato, secondo me, tra 7900 ed 8800, ed è più o meno durato 9 mesi. E consideriamo che 7900 era un'evoluzione di 7800 (stessa generazione) quindi da una generazione all'altra è passato oltre un anno.

Diversa la storia di x1800, dato che è stato un prodotto con alcuni problemi e uscito con ritardo e quasi subito superato dalla sua logica evoluzione, x1900, che invece era "on schedule".

R600 rischia di essere la nuova x1800, se esce a 80nm e non sufficientemente potente da perlomeno eguagliare (meglio superare) quella che sarà la 8800 ultra che verrà presentata da nVidia.

E' vero che l'hw invecchia rapidamente, ma non ha senso che una scheda che costerà circa 600€ esca e venga entro tre mesi sostituita nel top di gamma solo perchè era in ritardo.

Ecco perchè auspico che ATi/AMD scelga di fare R600 a 65nm, con clock a 900Mhz o 1000Mhz, o comunque con prestazioni di almeno 20-25% superiori rispetto ad 8800GTX nel dx9.

Parole sante...Aggiungo solo che per esperienza personale (quasi sempre comprato ATI) il valore delle gpu ATI crolla molto di + rispetto a quello della contro parte Nvidia. A sto punto c'è da fare una considerazione importante: ne vale la pena spendere subito 500E e passa x una gpu che dopo 3 mesi sarà valutata sui 300E? Con quei soldi mi prendo una bella ps3 e una x360 e almeno non rosico davanti a quelli che giocano a COD3 ad HALO3 e soprattutto a GRANTURISMO 3....:muro:

Foglia Morta
26-03-2007, 16:06
Fortunatamente tu hai una visione non parziale, grazie :D. Io critico sempre le aziende, non mi interessa nulla di nVidia; ATI IMHO si sta comportando male, e spero vivamente che non faccia uscire una scheda dopo l'altra. Per me videogiocare non è un investimento, è un lusso, a tutti i livelli, con la scheda da 50 o 500€ è sempre un lusso.
Io credo però che in tutto questo sia giusto che un consumatore si informi prima di acquistare, e per quello che sono i miei gusti ATI non è un'azienda seria, non da garanzie. La 8800GTX è durata da Novembre e durerà ancora per un paio di mesi come scheda TOP. La nuova ATI? Si sa solamente che probabilmente verrà presto sostituita. Se così fosse credo sarebbe una scelta sbagliata.
Tutto secondo me, mi rendo conto che hai una visione superiore e non limitata come la mia:eek:.
ti ho portato delle date oggettive... tu solo supposizioni.

Pat77
26-03-2007, 16:11
Io dico che nessuno obbliga nessuno a comprare, io aspetto e valuto, non mi convince un prodotto lo lascio dov'è, tanto che sia tra due mesi o fine anno non mi cambia poi molto come possibilità ludiche, prendere r600 subito, o x2900 dopo, o r700 ancora più tardi sarà solo una questione di tempo-denaro-necessità, quando coincidono è il momento di cambiare, senza farsi troppissime paranoie sul futuro.

fede27
26-03-2007, 16:11
Parole sante...Aggiungo solo che per esperienza personale (quasi sempre comprato ATI) il valore delle gpu ATI crolla molto di + rispetto a quello della contro parte Nvidia. A sto punto c'è da fare una considerazione importante: ne vale la pena spendere subito 500E e passa x una gpu che dopo 3 mesi sarà valutata sui 300E? Con quei soldi mi prendo una bella ps3 e una x360 e almeno non rosico davanti a quelli che giocano a COD3 ad HALO3 e soprattutto a GRANTURISMO 3....:muro:

just do it! :p
vermante se proprio vogliamo vederla dal "lato consumatori" io in tutto questo ci vedo solo il vantaggio di poter avere in poco tempo una scheda potentissima ad un prezzo relativamente basso con la possibilità di godersela anche piuttosto a lungo. cioé, se la potenza è sufficiente a garantire alte prestazioni per un lungo arco temporale io gli svantaggi proprio non li vedo!

..a meno che non sia solo per il gusto di poter avere qualcosa che gli altri non hanno...volere far parte di un'elité che si può permettere una certa scheda per fare a chi ce l'ha più lungo ma non mi pare il caso di metterla in questi termini, no?

io ad esempio mi son preso un R580 5 mesi dopo la sua uscita pagandolo una cifra irrisoria rispetto al lancio e ancora non ha problemi a gestire al max qualsiasi gioco.

CIaO

fukka75
26-03-2007, 16:23
Foglia Morta: considera che il prodotto 7950GX2 non era direttamente un'evoluzione di 7900GTX, anzi dati i consumi ed i problemi vari con i drivers, secondo me non era da preferire a quest'ultima.

Lo step tecnologico è stato, secondo me, tra 7900 ed 8800, ed è più o meno durato 9 mesi. E consideriamo che 7900 era un'evoluzione di 7800 (stessa generazione) quindi da una generazione all'altra è passato oltre un anno.

Diversa la storia di x1800, dato che è stato un prodotto con alcuni problemi e uscito con ritardo e quasi subito superato dalla sua logica evoluzione, x1900, che invece era "on schedule".

R600 rischia di essere la nuova x1800, se esce a 80nm e non sufficientemente potente da perlomeno eguagliare (meglio superare) quella che sarà la 8800 ultra che verrà presentata da nVidia.

E' vero che l'hw invecchia rapidamente, ma non ha senso che una scheda che costerà circa 600€ esca e venga entro tre mesi sostituita nel top di gamma solo perchè era in ritardo.

Ecco perchè auspico che ATi/AMD scelga di fare R600 a 65nm, con clock a 900Mhz o 1000Mhz, o comunque con prestazioni di almeno 20-25% superiori rispetto ad 8800GTX nel dx9.

Questo significa avere una visione IMPARZIALE: qualcuno dovrebbe imparare ...

Defragg
26-03-2007, 16:34
GRANTURISMO 3....:muro:

ma è per PS2 :mbe:

runk
26-03-2007, 16:55
ma è per PS2 :mbe:

dove c'è gt ci sono io....qual'è il problema?? :O

}DrSlump{
26-03-2007, 16:59
Ciao a tutti, non so se faccio cosa gradita o se è già stato fatto prima di me, ma navigando quà e la ho trovato quelle che dovrebbero essere le foto della versione retail della x2900xtx:

http://www.tweaktown.com/articles/1069/amd_r600_retail_radeon_x2900xtx_better_photos_immerge/index.html

Ovviamente nel caso siano già state postate e/o viste, se non piace etc etc, chi di dovere è libero di cancellare questo post.
Ciao!

Robbysca976
26-03-2007, 17:00
ma è per PS2 :mbe:

Opps volevo dire 5 o 6 insomma l'ultimo:D

runk
26-03-2007, 17:01
Opps volevo dire 5 o 6 insomma l'ultimo:D

gthd per ps3! :O

TecnoWorld8
26-03-2007, 17:02
mi pare che molti qui perdano di vista la cosa fondamentale: non tutti vogliono spendere 600 Euro ogni 6 mesi o meno per una scheda video.

Per es. io ad agosto ho preso i componenti in firma e ho scelto di acquistare una scheda video di livello medio, ma molto occabile e moddabile (spesa 238 euro) che mi durasse dai 6 ai 12 mesi, in previsione poi di prendere un top di gamma dx10 quando ve ne fosse bisogno, insieme ad un monitor da 24" 16:9.

Ora mi trovo ancora abbastanza bene, dato che gioco su un 17" a 1280x1024 con tutto al max e al limite riduco l'AA sui giochi più pesanti (tipo il recentissimo stalker), dove altrimenti scenderei sotto i 30fps nelle scene all'esterno.

Tuttavia seguo con interesse le specifiche di R600 poiché è candidata all'acquisto da parte mia, nei prossimi mesi. La scheda che acquisterò, però, dovrà durarmi poi al minimo 18 mesi più che dignitosamente. Questo vuol dire sopravvivere - secondo l'evoluzione media dell'hw - ad un'evoluzione all'interno della stessa generazione e alla prima esponente di una nuovissima generazione (R700 o G90) che uscirà tra un anno circa.

Se ora mi si dice che invece ATi ha intenzione, tra 3 mesi, di far già uscire una revisione del processo produttivo, è chiaro che non comprerò R600, ma attenderò quella o, meglio ancora, la 8900 di nvidia che sarà già il secondo step nella generazione DX10, a distanza di circa 6 mesi da 8800.

Questo per me vuol dire solamente essere attento alle spese, dato che giustamente questi prodotti costituiscono un lusso e soprattutto cercare di ottimizzarne la durata in funzione del costo.

Come si fa ad essere fan di una piuttosto che dell'altra marca? Meno male che c'è competizione...e non credo che nessuno qui sia azionista nVidia o ATi...

L'importante, però, è che nessuno ci prenda in giro. E fare uscire una scheda da 600€ per poi ridurre il processo produttivo subito dopo la vedrei come presa in giro bella e buona, indipendentemente dalle prestazioni della GPU.

Alexkidd85
26-03-2007, 17:28
mi pare che molti qui perdano di vista la cosa fondamentale: non tutti vogliono spendere 600 Euro ogni 6 mesi o meno per una scheda video...

...L'importante, però, è che nessuno ci prenda in giro. E fare uscire una scheda da 600€ per poi ridurre il processo produttivo subito dopo la vedrei come presa in giro bella e buona, indipendentemente dalle prestazioni della GPU.

Oh,mi sembra che fin qui siamo quasi tutti d'accordo...
No che c'è ancora gente che fa battutine :p E le accetto finché sono battutine,però basta che non diventino eccessive,sennò poi passa a presa in giro e si sbaglierebbe :)
Senza rancore con nessuno :D



...ATi R500 Xenos è prodotto a 90 nm (uh che schifo...:D ) e conta 337 milioni di transistor. Di questi 232 sono relativi al core della GPU, mentre 105 milioni di transistor sono utilizzati per realizzare i 10 Mb di memoria DRAM embedded. Core e memoria operano ad una frequenza di 500 MHz.
R500 ha ovviamente architettura a shader unificati. Più precisamente 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

TecnoWorld8
26-03-2007, 17:43
beh, tanto anche i concorrenti di ATI usciranno al meglio attorno a metà maggio...quindi perchè affrettarsi? e poi diciamocelo...i primi giochi dx10 non usciranno prima dell'estate...

halduemilauno
26-03-2007, 17:52
http://www.theinquirer.net/default.aspx?article=38500

Ritardo anche per G84/G86

ma non solo.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=298&Itemid=1

Kharonte85
26-03-2007, 17:59
http://www.theinquirer.net/default.aspx?article=38500

Ritardo anche per G84/G86
:cry: :cry: :cry:
ma non solo.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=298&Itemid=1
:muro:

Simon82
26-03-2007, 18:12
Non male... il ritardo della fascia media come di consueto era comunque auspicabile.

Robbysca976
26-03-2007, 18:13
Madooooo

Ma AMD ATI vuole fallire?

xleaaz
26-03-2007, 19:06
...R600 poiché è candidata all'acquisto da parte mia, nei prossimi mesi...
...Se ora mi si dice che invece ATi ha intenzione, tra 3 mesi, di far già uscire una revisione del processo produttivo, è chiaro che non comprerò R600...

Questo per me vuol dire solamente essere attento alle spese, dato che giustamente questi prodotti costituiscono un lusso e soprattutto cercare di ottimizzarne la durata in funzione del costo.
parole sante imho, e poi dai, scoccia a tutti spendere 600 euro e vedere che dopo 3 mesi esce il modello nuovo, non prendiamoci in giro :D

Kharonte85
26-03-2007, 19:06
Non male... il ritardo della fascia media come di consueto era comunque auspicabile.
Questa adesso me la spieghi...

appleroof
26-03-2007, 19:08
Questa adesso me la spieghi...

Mi accodo alla richiesta...:D

belin
26-03-2007, 19:10
No che c'è ancora gente che fa battutine :p E le accetto finché sono battutine,però basta che non diventino eccessive,sennò poi passa a presa in giro e si sbaglierebbe :)
...sono battutine senza vena polemica, ma hanno anche un fondo di verità e non mi stancherò di ripeterlo. In questo thread ormai si quotano le frasi che piacciono, si fanno battute su ogni cosa e si è perso di vista la parte tecnica\evolutiva della gpu. Tanto vale la prossima volta aprire il thread in Piazzetta. In pochi hanno colto e hanno commentato il fatto che G80 e Xenos sono prodotti a 90 nm, ma hanno una complessità d'architettura ed una potenza elaborativa mostruosa (e quindi non servono solo per giocare).
Ormai 2 interventi su 3 sono così: se non sarà a 65 nm sarà un furto ed uno schifo.
A questi interventi cosa vuoi che risponda? si, hai ragione. Oppure che, tramite interventi "tecnici" (per quel che posso), cerco di spiegare che una gpu a 80/90 nm può avere prestazioni da urlo nel 2007/2008? Poi non ci lamentiamo se la gente più preparata scrive sempre di meno in questa sezione...

Madooooo

Ma AMD ATI vuole fallire?

...si, ATi vuole fallire. E AMD l'ha comprata per fallire.


ps. l'avete letta bene l'intervista a John Byrne??? o vale meno di 4 righe scritte da Fudzilla???
pps. mi trovi dove c'è scritto ufficialmente che R600 avrà tre mesi di vita?

TecnoWorld8
26-03-2007, 19:16
belin: io non ho mai detto che se fosse ad 80nm sarà uno schifo. Anzi, ci sono illustri dimostrazioni che un processo produttivo, se sfruttato bene, può essere migliore di uno più nuovo acerbo.

Io dico che sarebbe molto triste se R600 uscisse ad 80nm senza ottimizzazioni (quindi alto consumo, calore in eccesso, poco margine di overclock) solo perchè il prodotto deve essere presentato e se poi, dopo poco tempo (dato che pare sia in lavorazione) ne uscisse una revision a 65nm, magari in sordina, con lo stesso nome, ma solo un codice diverso (come per gli attuali Athlon x2).

Spero di aver chiarito le mie "paure" a riguardo.

appleroof
26-03-2007, 19:18
...sono battutine senza vena polemica, ma hanno anche un fondo di verità e non mi stancherò di ripeterlo. In questo thread ormai si quotano le frasi che piacciono, si fanno battute su ogni cosa e si è perso di vista la parte tecnica\evolutiva della gpu. Tanto vale la prossima volta aprire il thread in Piazzetta. In pochi hanno colto e hanno commentato il fatto che G80 e Xenos sono prodotti a 90 nm, ma hanno una complessità d'architettura ed una potenza elaborativa mostruosa (e quindi non servono solo per giocare).
Ormai 2 interventi su 3 sono così: se non sarà a 65 nm sarà un furto ed uno schifo.
A questi interventi cosa vuoi che risponda? si, hai ragione. Oppure che, tramite interventi "tecnici" (per quel che posso), cerco di spiegare che una gpu a 80/90 nm può avere prestazioni da urlo nel 2007/2008? Poi non ci lamentiamo se la gente più preparata scrive sempre di meno in questa sezione...


su questo sono d'accordo: gli stessi che ammirano le prestazioni di G80 sembrano poi dimenticarsi che è a 90nm, pochi post fà esprimevo lo stesso concetto e ribadisco che chip del genere sono prodigi della tecnica, altrochè, per il resto.....vedremo ;)

Simon82
26-03-2007, 19:21
Questa adesso me la spieghi...

Nessuna spiegazione complessa... semplicemente io la vedo sempre dal punto di vista mediatico per focalizzare tutta l'attenzione sulla versione high end ormai arrivata al punto di non ritorno rispetto a quello che il mercato ormai si aspetta. Prendersi tempo per la fascia media non e' certo una cosa nuova, abbiamo gia' intravisto questo passaggio con altre gpu tempo fa. ;)
E' probabile che nell'investire totalmente le risorse sulla versione high end, la fascia media sia inevitabilmente rimasta comunque indietro anch'essa con la presunta roadmap iniziale. Si paga lo scotto di correre un po', sebbene sia sempre dell'idea che ormai i tempi siano stati presi con tranquillita' senza troppa acqua alla gola.

A questo punto non mi stupisco comunque piu' di nulla.. attendo solo le prime preview/review che si basano su informazioni un po' piu' fondate.

halduemilauno
26-03-2007, 19:22
...sono battutine senza vena polemica, ma hanno anche un fondo di verità e non mi stancherò di ripeterlo. In questo thread ormai si quotano le frasi che piacciono, si fanno battute su ogni cosa e si è perso di vista la parte tecnica\evolutiva della gpu. Tanto vale la prossima volta aprire il thread in Piazzetta. In pochi hanno colto e hanno commentato il fatto che G80 e Xenos sono prodotti a 90 nm, ma hanno una complessità d'architettura ed una potenza elaborativa mostruosa (e quindi non servono solo per giocare).
Ormai 2 interventi su 3 sono così: se non sarà a 65 nm sarà un furto ed uno schifo.
A questi interventi cosa vuoi che risponda? si, hai ragione. Oppure che, tramite interventi "tecnici" (per quel che posso), cerco di spiegare che una gpu a 80/90 nm può avere prestazioni da urlo nel 2007/2008? Poi non ci lamentiamo se la gente più preparata scrive sempre di meno in questa sezione...



...si, ATi vuole fallire. E AMD l'ha comprata per fallire.


ps. l'avete letta bene l'intervista a John Byrne??? o vale meno di 4 righe scritte da Fudzilla???
pps. mi trovi dove c'è scritto ufficialmente che R600 avrà tre mesi di vita?

ma il punto non è che quella fa schifo e l'altra no. il punto è che alla gente scoccia comprare ora(un'ottima scheda)ma vedersela sostituire un x lasso di tempo dopo. ovviamente un x lasso di tempo breve o relativamente breve.
tu mi trovi dove sta scritto che la x1800 avrebbe avuto tre mesi di vita? da nessuna parte chi te lo avrebbe mai detto? ma ne ha avuti meno di tre.

fede27
26-03-2007, 19:28
ma il punto non è che quella fa schifo e l'altra no. il punto è che alla gente scoccia comprare ora(un'ottima scheda)ma vedersela sostituire un x lasso di tempo dopo. ovviamente un x lasso di tempo breve o relativamente breve.
tu mi trovi dove sta scritto che la x1800 avrebbe avuto tre mesi di vita? da nessuna parte chi te lo avrebbe mai detto? ma ne ha avuti meno di tre.

io comunque continuo a non capire sto fastidio di "vedersi sostituire" la scheda video al top..insomma ma quello che conta alla fine sono o non sono le benedette prestazioni? allora chissenefrega se esce qualcosa un pochino meglio 3 mesi dopo aver acquistato il top se quello che ho comprato continua a svolgere il suo lavoro egregiamente!!!

la si può mettere su un piano economico se si vuole ma a questo punto io sottolineo che comprare un prodotto dal progetto completamente nuovo è comunque un "rischio" grosso proporzionalmente al costo del prodotto. e questo vale tanto per le vga quanto per ogni altro componente hardware.

Simon82
26-03-2007, 19:29
ma il punto non è che quella fa schifo e l'altra no. il punto è che alla gente scoccia comprare ora(un'ottima scheda)ma vedersela sostituire un x lasso di tempo dopo. ovviamente un x lasso di tempo breve o relativamente breve.
tu mi trovi dove sta scritto che la x1800 avrebbe avuto tre mesi di vita? da nessuna parte chi te lo avrebbe mai detto? ma ne ha avuti meno di tre.

Non capisco perche' comunque stupirsi piu' di tanto: siamo padroni dei nostri soldi, se certi rumors risultassero essere veritieri allora sara' meglio aspettare. Il problema e' che molti non hanno la pazienza di ponderare al meglio le scelte future e visto i soldi che bisogna sborsare per assicurarsi certe soluzioni direi che pensarci un po' su credo sia meglio.

Io penso a coloro che comprarono il Geforce SDR... da questo modello al DDR la differenza prestazionale era mostruosa ed entrambe erano uscite come versioni high end con la seconda quasi a tamponare una evidente carenza architetturale della prima aventi ram decisamente inutili a sfruttare tutta la potenza della prima GPU. E la timeline non fu certo ampia tra le due versioni.

Simon82
26-03-2007, 19:31
io comunque continuo a non capire sto fastidio di "vedersi sostituire" la scheda video al top..insomma ma quello che conta alla fine sono o non sono le benedette prestazioni? allora chissenefrega se esce qualcosa un pochino meglio 3 mesi dopo aver acquistato il top se quello che ho comprato continua a svolgere il suo lavoro egregiamente!!!

la si può mettere su un piano economico se si vuole ma a questo punto io sottolineo che comprare un prodotto dal progetto completamente nuovo è comunque un "rischio" grosso proporzionalmente al costo del prodotto. e questo vale tanto per le vga quanto per ogni altro componente hardware.

Succede con tutti i componenti e peggio (molto peggio) e' quando alcuni invece data l'acerba uscita sul mercato si portano dietro problematiche da farci passare tutti per beta tester di hardware fallato. Vedi le console.. tutte quante presentano sempre e comunque problemi e non sempre si riesce a sostituirle o comunque senza menate.
Un conto e' un prodotto che magari scalda meno o che concettualmente e' meglio del precedente, un conto quando il prodotto presenta problemi. Anche qui si paga lo scotto di non avere pazienza e volersi accaparrare tutto e subito.

appleroof
26-03-2007, 19:34
io comunque continuo a non capire sto fastidio di "vedersi sostituire" la scheda video al top..insomma ma quello che conta alla fine sono o non sono le benedette prestazioni? allora chissenefrega se esce qualcosa un pochino meglio 3 mesi dopo aver acquistato il top se quello che ho comprato continua a svolgere il suo lavoro egregiamente!!!

la si può mettere su un piano economico se si vuole ma a questo punto io sottolineo che comprare un prodotto dal progetto completamente nuovo è comunque un "rischio" grosso proporzionalmente al costo del prodotto. e questo vale tanto per le vga quanto per ogni altro componente hardware.

Io credo cosa di capire cosa intendi....

il fatto è però questo: io spendo 600 euro per una vga come la 8800gtx e magari dopo 2-3 mesi esce la 8900gtx che è più potente e/o consuma meno e costa uguale....allora avrei potuto prendere direttamente la 8900gtx cavolo, oppure la 8800gtx ma a 450 euro, per esempio, insomma, io credo che a chiunque girerebbe e molto, stessa cosa se rapporti il tutto a 100 euro (se capisci cosa voglio dire)

non dico che questa volta sarà così, nessuno lo sà con certezza, però se avessi speso 500 euro per una x1800xt 512mb (che all'uscita costava tanto) e subito dopo mi esce la x1900xt 512mb che và molto meglio....spero che Ati non me lo giochi più questo brutto scherzo...e avere una scheda cmq molto performante è una magra consolazione, visto che allo stesso prezzo pochissimo tempo dopo avrei avuto di più...

TecnoWorld8
26-03-2007, 19:34
fede27: il problema non è il "non avere il meglio", ma è il pagare 600 Euro oggi una cosa che tra 3 mesi ne varrà 400 a dir tanto, se soppiantata da un prodotto migliore.

e ancora...il problema potrebbe essere avere una scheda che scalda talmente tanto da consumare il 30% in più di un'altra, con conseguente spreco di energia elettrica e necessità di cambiare alimentatore.

tutto questo oltre eventualmente alle prestazioni; certo, un prodotto top oggi non farà "schifo" tra tre mesi, ma magari avrà una longevità ben inferiore a quello rivisto che esce poco dopo, proprio perchè quello che esce in fretta non è ottimizzato.

appleroof
26-03-2007, 19:36
Succede con tutti i componenti e peggio (molto peggio) e' quando alcuni invece data l'acerba uscita sul mercato si portano dietro problematiche da farci passare tutti per beta tester di hardware fallato. Vedi le console.. tutte quante presentano sempre e comunque problemi e non sempre si riesce a sostituirle o comunque senza menate.
Un conto e' un prodotto che magari scalda meno o che concettualmente e' meglio del precedente, un conto quando il prodotto presenta problemi. Anche qui si paga lo scotto di non avere pazienza e volersi accaparrare tutto e subito.

non lo so...alla fine nel mio caso saranno passati minimo 8 mesi prima di vedere soluzioni migliori della mia, se non addirittura un annetto a questo punto....

Simon82
26-03-2007, 19:41
non lo so...alla fine nel mio caso saranno passati minimo 8 mesi prima di vedere soluzioni migliori della mia, se non addirittura un annetto a questo punto....

La tua soluzione verra' probabilmente superata tecnologicamente in breve tempo, ma quello che dara' fastidio sara' solo il passaggio da avere una soluzione tecnicamente al top ad una leggermente inferiore che comunqe ti garantira' per un bel po' la migliore esperienza videoludica in tutti i casi.

Me la terrei stretta comunque... per tutto il 2007 non ha nessun senso pensare a cambiare una scheda che quest'anno non verra' minimamente sfruttata in rapporto ai soldi che sicuramente ci hai speso.

Simon82
26-03-2007, 19:43
fede27: il problema non è il "non avere il meglio", ma è il pagare 600 Euro oggi una cosa che tra 3 mesi ne varrà 400 a dir tanto, se soppiantata da un prodotto migliore.

e ancora...il problema potrebbe essere avere una scheda che scalda talmente tanto da consumare il 30% in più di un'altra, con conseguente spreco di energia elettrica e necessità di cambiare alimentatore.

tutto questo oltre eventualmente alle prestazioni; certo, un prodotto top oggi non farà "schifo" tra tre mesi, ma magari avrà una longevità ben inferiore a quello rivisto che esce poco dopo, proprio perchè quello che esce in fretta non è ottimizzato.
L'ottimizzazione non migliora la longevita', bensi' serve alle aziende anche per risparmiare e seminare il terreno per le soluzioni future che siano high end o middle.

TecnoWorld8
26-03-2007, 19:44
ma infatti il discorso è: tutti sappiamo che nessuna GPU è mai durata al top per oltre 6 mesi. tuttavia, trovo un insulto farne uscire una zoppicante per poi sostituirla subito (entro 3 mesi o meno) con una rivista.

io so già che se compro R600 quando esce, poi verso novembre/dicembre uscirà qualcosa di meglio, ma magari la compro per avere una scheda potentissima sui giochi dx9 ora e dx10 appena usciranno. mi arrabbierei se prendessi a maggio un R600 a 80nm e calda come l'inferno e poi, ad agosto uscisse la revision a 65nm che consuma il 30% in meno e si occa che è un piacere...

fede27
26-03-2007, 19:44
Io credo cosa di capire cosa intendi....

il fatto è però questo: io spendo 600 euro per una vga come la 8800gtx e magari dopo 2-3 mesi esce la 8900gtx che è più potente e/o consuma meno e costa uguale....allora avrei potuto prendere direttamente la 8900gtx cavolo, oppure la 8800gtx ma a 450 euro, per esempio, insomma, io credo che a chiunque girerebbe e molto, stessa cosa se rapporti il tutto a 100 euro (se capisci cosa voglio dire)

non dico che questa volta sarà così, nessuno lo sà con certezza, però se avessi speso 500 euro per una x1800xt 512mb (che all'uscita costava tanto) e subito dopo mi esce la x1900xt 512mb che và molto meglio....spero che Ati non me lo giochi più questo brutto scherzo...e avere una scheda cmq molto performante è una magra consolazione, visto che allo stesso prezzo pochissimo tempo dopo avrei avuto di più...

fede27: il problema non è il "non avere il meglio", ma è il pagare 600 Euro oggi una cosa che tra 3 mesi ne varrà 400 a dir tanto, se soppiantata da un prodotto migliore.

e ancora...il problema potrebbe essere avere una scheda che scalda talmente tanto da consumare il 30% in più di un'altra, con conseguente spreco di energia elettrica e necessità di cambiare alimentatore.

tutto questo oltre eventualmente alle prestazioni; certo, un prodotto top oggi non farà "schifo" tra tre mesi, ma magari avrà una longevità ben inferiore a quello rivisto che esce poco dopo, proprio perchè quello che esce in fretta non è ottimizzato.

eh vabbé ragazzi allora qui si torna diretti al secondo punto del mio discorso. voler comprare un prodotto basato su di un progetto completamente nuovo è un rischio. punto. ati e nvidia sono due aziende e, come tali, hanno come unico obiettivo il profitto, mica il benessere dell'umanità di videogiocatori :D

detto ed assodato tutto questo sta a noi e solo a noi saper spendere i propri soldi visto che nessuno ci ha mai obbligato a comprare G80 o R600 (a parte politiche di software house del cxxxo come la ubisoft :rolleyes: -vedi SC: DA-) . fa parte dello scotto da pagare per poter dire "io ho avuto il massimo quando ancora corsini non l'aveva provato (si scherza eh! :D ) il fatto di poter vedere arrivare qualcosa di meglio 3 mesi dopo. non si può volere l'innovazione a tutti costi e poi lamentarsi che questa va troppo veloce: o la botte piena o la moglie ubriaca ;)

fede27
26-03-2007, 19:46
ma infatti il discorso è: tutti sappiamo che nessuna GPU è mai durata al top per oltre 6 mesi. tuttavia, trovo un insulto farne uscire una zoppicante per poi sostituirla subito (entro 3 mesi o meno) con una rivista.

io so già che se compro R600 quando esce, poi verso novembre/dicembre uscirà qualcosa di meglio, ma magari la compro per avere una scheda potentissima sui giochi dx9 ora e dx10 appena usciranno. mi arrabbierei se prendessi a maggio un R600 a 80nm e calda come l'inferno e poi, ad agosto uscisse la revision a 65nm che consuma il 30% in meno e si occa che è un piacere...

e allora aspetta!!! chi ti costringe a comprarla, a questo punto vogliamo proprio saperlo!! :D :Prrr:

TecnoWorld8
26-03-2007, 19:48
fede27: su questo ti do pienamente ragione. La tecnologia nuova è sempre un rischio.

però vediamo per esempio Intel...io ho preso il C2D 6600 ad inizio agosto, appena è uscito. non solo sono felicissimo, ma se lo prendessi ora spenderei praticamente uguale ad allora...e sono passati ormai oltre 7 mesi (quasi 8). Prima di vedere qualcosa di significativamente migliore allo stesso prezzo passeranno altri 6 mesi almeno.

il mercato delle GPU è forse più frenetico, almeno ora, ma penso che in generale chi spende 600 euro oggi vorrebbe almeno tenere un prodotto al top per 6/8 mesi - per lo meno per i discorsi collegati alla dissipazione di potenza e prestazioni.

Simon82
26-03-2007, 19:48
ma infatti il discorso è: tutti sappiamo che nessuna GPU è mai durata al top per oltre 6 mesi. tuttavia, trovo un insulto farne uscire una zoppicante per poi sostituirla subito (entro 3 mesi o meno) con una rivista.

io so già che se compro R600 quando esce, poi verso novembre/dicembre uscirà qualcosa di meglio, ma magari la compro per avere una scheda potentissima sui giochi dx9 ora e dx10 appena usciranno. mi arrabbierei se prendessi a maggio un R600 a 80nm e calda come l'inferno e poi, ad agosto uscisse la revision a 65nm che consuma il 30% in meno e si occa che è un piacere...

Personalmente non credo che il passaggio (se ci sara') avverra' cosi' velocemente. Ammesso che succeda, comunque bisogna sempre ricordarsi che dietro ci sono cervelli nel marketing a cui non interessa l'infelicita' di 1/100 di persone che fanno caso al fatto che la prima revision si clocka un 15% in meno della successiva.. quel che conta e' la massa di persone che compreranno la scheda se davvero meritera' e al momento la prerogativa e' quella di far uscire qualcosa ormai il prima possibile con i tempi stabiliti.

Io sono sempre convinto che vedremo delle belle sorprese tali da farci dimenticare questo genere di "problemi". ;)

Simon82
26-03-2007, 19:59
E' il ritrito problema dell'high end, che non vale mai i soldi spesi, e invecchia in modo molto più verticale del mainstream o del performance, ma chi vuole l'high end prende la 8800GTX quando costa 600€ e se prende la VGA tre mesi dopo, quando esce la 8900GTX a 600€ ela 8800GTX sta a 450€, indovinato, spende 600€ :>

Non lamentiamoci... pensate a coloro che vivono questo dilemma con le automobili che dopo 10 mesi si svalutano di 9000 euro... (esperienza di un'amica).. :doh:

appleroof
26-03-2007, 20:02
La tua soluzione verra' probabilmente superata tecnologicamente in breve tempo, ma quello che dara' fastidio sara' solo il passaggio da avere una soluzione tecnicamente al top ad una leggermente inferiore che comunqe ti garantira' per un bel po' la migliore esperienza videoludica in tutti i casi.

Me la terrei stretta comunque... per tutto il 2007 non ha nessun senso pensare a cambiare una scheda che quest'anno non verra' minimamente sfruttata in rapporto ai soldi che sicuramente ci hai speso.

Visto il bagaglio tecnologico che offre, e visto quanto l'ho pagata, non ci penso nemmeno a cambiarla: mi aspetto che duri almeno un altro annetto a partire da ora, stando così le cose (game) e quello che si prevede :) (cmq i tempi che indicavo nell'altro post erano riferiti a partire da quando ho la scheda, cioè i primi di novembre scorso, fino a quando uscirà una soluzione più potente)

ma infatti il discorso è: tutti sappiamo che nessuna GPU è mai durata al top per oltre 6 mesi. tuttavia, trovo un insulto farne uscire una zoppicante per poi sostituirla subito (entro 3 mesi o meno) con una rivista.

io so già che se compro R600 quando esce, poi verso novembre/dicembre uscirà qualcosa di meglio, ma magari la compro per avere una scheda potentissima sui giochi dx9 ora e dx10 appena usciranno. mi arrabbierei se prendessi a maggio un R600 a 80nm e calda come l'inferno e poi, ad agosto uscisse la revision a 65nm che consuma il 30% in meno e si occa che è un piacere...

no su questo non sono d'accordo: non sai se R600 sarà zoppicante a 80nm (non sai nemmeno se sarà a 80nm :p ) perchè G80 è, come detto 100 volte, lì a dimostrare cosa può fare un chip a 90nm (che poi non è l'unico aspetto di una vga, non ce lo dimentichiamo mai)

eh vabbé ragazzi allora qui si torna diretti al secondo punto del mio discorso. voler comprare un prodotto basato su di un progetto completamente nuovo è un rischio. punto. ati e nvidia sono due aziende e, come tali, hanno come unico obiettivo il profitto, mica il benessere dell'umanità di videogiocatori :D


D'accordissimo: a questo giro (e ad altri recenti) però Nvidia ha programmato davvero meglio le cose (va bene che c'è stata di mezzo la fusione, sicuramente c'entra eccome nella gestazione dei tempi di commercializzazione di R600) e, ripeto, prima di vedere il "sorpasso in casa" (nvidia) passerà tempo (a partire da ora, G80 però è uscito a novembre)

Io, se sapessi con certezza o subodorassi che subito dopo R600 uscirà la revision con importanti migliorie, non lo comprerei (visto che poi si parla di cifre importanti)....e penso chiunque poi fate voi, la cosa è abbastanza semplice :boh:

In ogni caso, prima aspetterei notizie definitive sul primo R600 (che tanto contemporaneamente, se è vero che la revision uscirà pochi mesi dopo, le notizie su questa si saprebbero a cercare bene)

appleroof
26-03-2007, 20:05
E' il ritrito problema dell'high end, che non vale mai i soldi spesi, e invecchia in modo molto più verticale del mainstream o del performance, ma chi vuole l'high end prende la 8800GTX quando costa 600€ e se prende la VGA tre mesi dopo, quando esce la 8900GTX a 600€ ela 8800GTX sta a 450€, indovinato, spende 600€ :>

Veramente al limite è il trito problema del mercato hw, dove ormai in ogni campo (adesso pure gli hd) si assiste ad una rincorsa sfrenata...fatto stà che come ho detto la 8800gtx durerà in tutto più di sei mesi (a fine aprile) e tutto questo paradossalmente grazie al ritardo di Ati...:asd:

:)

TecnoWorld8
26-03-2007, 20:38
appleroof: attenzione...non ho detto che R600 sarà zoppicante a 80nm...ho detto che "quella è la mia paura" e che "spero che così non sia" :)

diciamo che da essere a 80nm o a 65nm, se sarà 25% più veloce di 8800GTX, se consumerà meno di 200W e se sarà occabile di un buon 20%, sarò lieto di acquistarla :)

appleroof
26-03-2007, 20:41
appleroof: attenzione...non ho detto che R600 sarà zoppicante a 80nm...ho detto che "quella è la mia paura" e che "spero che così non sia" :)

diciamo che da essere a 80nm o a 65nm, se sarà 25% più veloce di 8800GTX, se consumerà meno di 200W e se sarà occabile di un buon 20%, sarò lieto di acquistarla :)

Allora cambia tutto, ho interpretato male io, questi sono legittimi dubbi per chiunque si appresti a comprare una scheda così costosa (e in generale una scheda nuova secondo me) ;)

Kharonte85
26-03-2007, 21:11
Nessuna spiegazione complessa... semplicemente io la vedo sempre dal punto di vista mediatico per focalizzare tutta l'attenzione sulla versione high end ormai arrivata al punto di non ritorno rispetto a quello che il mercato ormai si aspetta. Prendersi tempo per la fascia media non e' certo una cosa nuova, abbiamo gia' intravisto questo passaggio con altre gpu tempo fa. ;)
E' probabile che nell'investire totalmente le risorse sulla versione high end, la fascia media sia inevitabilmente rimasta comunque indietro anch'essa con la presunta roadmap iniziale. Si paga lo scotto di correre un po', sebbene sia sempre dell'idea che ormai i tempi siano stati presi con tranquillita' senza troppa acqua alla gola.

A questo punto non mi stupisco comunque piu' di nulla.. attendo solo le prime preview/review che si basano su informazioni un po' piu' fondate.
Io la vedo negativa dal punto di vista di chi gioca poiche' rischia di ritardare anche l'arrivo dei giochi DX10 inoltre qui si incomincia a soffrire di mancanza potenza (certamente colpa anche dei programmatori) negli ultimi giochi dx9 :mc: siamo al limite, se non passiamo a dx10 soffochiamo...
eh vabbé ragazzi allora qui si torna diretti al secondo punto del mio discorso. voler comprare un prodotto basato su di un progetto completamente nuovo è un rischio. punto. ati e nvidia sono due aziende e, come tali, hanno come unico obiettivo il profitto, mica il benessere dell'umanità di videogiocatori :D

detto ed assodato tutto questo sta a noi e solo a noi saper spendere i propri soldi visto che nessuno ci ha mai obbligato a comprare G80 o R600 (a parte politiche di software house del cxxxo come la ubisoft :rolleyes: -vedi SC: DA-) . fa parte dello scotto da pagare per poter dire "io ho avuto il massimo quando ancora corsini non l'aveva provato (si scherza eh! :D ) il fatto di poter vedere arrivare qualcosa di meglio 3 mesi dopo. non si può volere l'innovazione a tutti costi e poi lamentarsi che questa va troppo veloce: o la botte piena o la moglie ubriaca ;)
Sono d'accordo ma se uno riesce ad evitarlo è sempre meglio...;)

D'accordissimo: a questo giro (e ad altri recenti) però Nvidia ha programmato davvero meglio le cose (va bene che c'è stata di mezzo la fusione, sicuramente c'entra eccome nella gestazione dei tempi di commercializzazione di R600)
Quoto

Io, se sapessi con certezza o subodorassi che subito dopo R600 uscirà la revision con importanti migliorie, non lo comprerei (visto che poi si parla di cifre importanti)....e penso chiunque poi fate voi, la cosa è abbastanza semplice :boh:
Infatti, quando è uscita la 8800gtx non si sentiva parlare di nessuna 8900 o 8800 a 80nm/65nm (ci si è pensato dopo come naturale evoluzione)...qui per R-600 è diverso (gia' ci si pensa prima :eek: ) un po' per il suo ritardo, un po' in ricordo di vecchie abitudini potrebbe fare lo scherzetto 80nm ----> 65nm nel giro di poco tempo davvero....

D'accordissimo su chi dice poi che uno se ne puo benissimo fregare e stare tranquillo...pero' se riesco ad evitarlo è meglio.

Da questo punto di vista sarei piu' tranquillo se uscisse a 65nm come si rumoreggia (cio' non toglie che se dovesse essere a 80nm non sia una buona scheda, basta vedere il g80 a 90nm cosa è capace di fare...)
Allora cambia tutto, ho interpretato male io, questi sono legittimi dubbi per chiunque si appesti a comprare una scheda così costosa (e in generale una scheda nuova secondo me) ;)
:eek: lo hai detto tu... :sofico: :asd:

Defragg
26-03-2007, 21:16
:eek: lo hai detto tu... :sofico: :asd:

:rotfl:

Simon82
26-03-2007, 21:18
Io la vedo negativa dal punto di vista di chi gioca poiche' rischia di ritardare anche l'arrivo dei giochi DX10 inoltre qui si incomincia a soffrire di mancanza potenza (certamente colpa anche dei programmatori) negli ultimi giochi dx9 :mc: siamo al limite, se non passiamo a dx10 soffochiamo...

Vero, ma credo che saranno i titoloni a svegliare un po' tutti produttori di hardware, programmatori, software house ecc ecc.. Anche se ci fossero le schede disponibili non cambierebbe molto.. un po' tutti se la stanno prendendo comoda.

Ma credo che basti un gioco e un benchmark per riportare le cose nell'attenzione che queste nuove api necessitano per poter essere finalmente utilizzate. Purtroppo troppi fattori tutti bilanciati da Microsoft con Vista e tutto quello che c'e' dietro hanno rallentato le cose. Troppe novita' software related in un unico anno.

Kharonte85
26-03-2007, 21:27
Vero, ma credo che saranno i titoloni a svegliare un po' tutti produttori di hardware, programmatori, software house ecc ecc.. Anche se ci fossero le schede disponibili non cambierebbe molto.. un po' tutti se la stanno prendendo comoda.

Ma credo che basti un gioco e un benchmark per riportare le cose nell'attenzione che queste nuove api necessitano per poter essere finalmente utilizzate. Purtroppo troppi fattori tutti bilanciati da Microsoft con Vista e tutto quello che c'e' dietro hanno rallentato le cose. Troppe novita' software related in un unico anno.
Si ma prima Hardware poi software quindi: prima arrivano sia ATI che Nvidia a riempire tutte le fasce di mercato con le nuove vga dx10 prima vedremo software (giochi) in Dx10; il sistema operativo ce lo abbiamo (Ok è Lento solid e non rock pero' c'è...:fagiano: )...altrimenti qua ci credo che tutti latitano (ES: anche se crysis fosse pronto adesso io non lo farei uscire prima di avere R-600 e entrambe le fasce medie dx10 sul mercato per ovvi motivi)...:mc:

xleaaz
26-03-2007, 21:31
...in Dx10; il sistema operativo ce lo abbiamo (Ok è Lento solid e non rock pero' c'è...

LOL scusate l'ot ma non ho resistito :asd: :asd:

Kharonte85
26-03-2007, 21:50
Il nodo del sistema operativo è un bel nodo, perché non so quanti produttori si sentano così follemente idioti da produrre un gioco che andrà solo sulla parte high end del pochissimo hardware che monta Vista...
Non siamo a quei livelli (nel senso che i primi giochi gireranno anche su xp+dx9) pero' credo che sicuramente si aspettano che la novita' delle dx10 dia una spinta all'aggiornamento dei sistemi e di conseguenza allarghi il mercato.

La realtà è che c'è una tattica attendista diffusa, chi fa l'hw perché non c'è il software né le DX10 su abbastanza sistemi, chi fa il sw che aspetta l'hw e MS che sta alla finestra sperando si muovano in modo da vendere il so :>
Infatti è un atteggiamento decisamente antipatico...è come se intel avesse fatto uscire i core duo 2 solo quando ci fossero state applicaioni in grado di sfruttarli appieno (se dovessero servire solo a giocare sarebbero ancora nelle "fonderie" di mamma intel :rolleyes: :D )

Alexkidd85
26-03-2007, 23:26
...sono battutine senza vena polemica, ma hanno anche un fondo di verità e non mi stancherò di ripeterlo. In questo thread ormai si quotano le frasi che piacciono, si fanno battute su ogni cosa e si è perso di vista la parte tecnica\evolutiva della gpu. Tanto vale la prossima volta aprire il thread in Piazzetta. In pochi hanno colto e hanno commentato il fatto che G80 e Xenos sono prodotti a 90 nm, ma hanno una complessità d'architettura ed una potenza elaborativa mostruosa (e quindi non servono solo per giocare).
Ormai 2 interventi su 3 sono così: se non sarà a 65 nm sarà un furto ed uno schifo.
A questi interventi cosa vuoi che risponda? si, hai ragione. Oppure che, tramite interventi "tecnici" (per quel che posso), cerco di spiegare che una gpu a 80/90 nm può avere prestazioni da urlo nel 2007/2008? Poi non ci lamentiamo se la gente più preparata scrive sempre di meno in questa sezione...


Ah certo,allora ragazzi,chi è che non capisce niente di vga e annesse tecnologie,fuori dal 3d :rolleyes:
Se la gente "Tecnica" non vuole postare qua perché ogni tanto c'è vena ironica e se ci domandiamo(non "sentenziamo") se sarà bello spendere 600 euro e poi dopo 3 mesi(se e dico SE uscirà dopo 3 mesi a prescindere da quanto andrà e come andrà)esce un qualcosa di nuovo,con tutto i contro(pro non ne vedo,scusami)che ne conseguono,credo che più che "tecnica" sia "insensata". Ma consentimi di dissentire dalle tue paure...non credo che abbiano questa paura la gente "più preparat" di me (me tapino).
Mi sembra che Simon né vuole di "tecnico" ma non mi sembra non discuta anche lui su tutto,senza strapparsi i capelli se ogni tanto non si parla tecnologia ma di economia(non andando ot comunque).

Ti ripeto,poi capisci ciò che vuoi,non discutiamo la tecnologia,la bontà o il processo produttivo...discutiamo la "presa in giro" dei pochi mesi(se pochi saranno,lo ripeto!).
Simon rifacendo l'esempio della macchina(che avevo fatto anche io),credo abbia colto in pieno...in piccolo è la nostra paura su r600 e superveloci evoluzioni. :D

TecnoWorld8
27-03-2007, 01:27
data la situazione attuale del mercato (nessuno gioco dx 10 e Vista poco ottimizzato) io auspicherei schede con supporto dx10, ok, ma molto veloci nelle dx 9, che saranno sicuramente le librerie più utilizzate ancora per tutto il 2007.

la 8800gtx è sicuramente molto potente nelle dx 9. Vedremo come si comportarà R600. Speriamo...

Robbysca976
27-03-2007, 09:16
Alla fine arriveremo a convincerci che non vale la pena comprare nè R600 nè 8800gtx... ma una bella fascia media dx10 quando saranno usciti almeno una decina di titoli dx10...quindi tra + di 1 anno. :D

Pat77
27-03-2007, 09:17
Cambieranno le cose dal 16 aprile con 8600GTS e sorelle, per poi completare l'opera a maggio con rv630 e sorelle, la fascia alta non incide per nulla sulle prospettive di una SH essendo il 2-3 per cento del mercato.
Avendo una base di installato decente poi si dedicheranno al livellamento, cioè un' esperienza assurda su 8900-x2900, discreta su x2600-8600 e accettabile su rv610 e 8500.

TecnoWorld8
27-03-2007, 11:55
Robbysca976: non dal mio punto di vista. Quelle schede, in dx9, andranno come (o meno) una x1900xt di oggi. E questa scheda già oggi con titoli quali Stalker zoppica. Io credo che Crysis, per girare "bene" a risoluzioni elevate (da 1024 in su) con tutto al max avrà bisogno di una 8800gtx o una r600.

Prendete le schede di fascia media dx9...tipo x1650 e simili...non riescono a far girare nulla al massimo dettaglio da tempo...

halduemilauno
27-03-2007, 11:57
Robbysca976: non dal mio punto di vista. Quelle schede, in dx9, andranno come (o meno) una x1900xt di oggi. E questa scheda già oggi con titoli quali Stalker zoppica. Io credo che Crysis, per girare "bene" a risoluzioni elevate (da 1024 in su) con tutto al max avrà bisogno di una 8800gtx o una r600.

Prendete le schede di fascia media dx9...tipo x1650 e simili...non riescono a far girare nulla al massimo dettaglio da tempo...

ma le nuove medie si preannunciano doppie rispetto alle attuali medie.
;)

wiltord
27-03-2007, 11:57
Robbysca976: non dal mio punto di vista. Quelle schede, in dx9, andranno come (o meno) una x1900xt di oggi. E questa scheda già oggi con titoli quali Stalker zoppica.

assolutamente in disaccordo.

fede27
27-03-2007, 12:02
Robbysca976: non dal mio punto di vista. Quelle schede, in dx9, andranno come (o meno) una x1900xt di oggi. E questa scheda già oggi con titoli quali Stalker zoppica. Io credo che Crysis, per girare "bene" a risoluzioni elevate (da 1024 in su) con tutto al max avrà bisogno di una 8800gtx o una r600.

Prendete le schede di fascia media dx9...tipo x1650 e simili...non riescono a far girare nulla al massimo dettaglio da tempo...

guarda , a quanto sento nel thread della x1950xt a 1280 con dett alti e filtri fa 30fps..se questo è zoppicare...:p

TecnoWorld8
27-03-2007, 12:21
è zoppicare perchè se vai a 1600x1200 fa 20fps. Sei al limite. Ed è un titolo di inizio 2007...quindi quelli che usciranno tra 6 mesi non li gestirai più nemmeno a 1280 con tutto al max.

diciamo che le fasce medie vanno bene per i 17" LCD, e non pretendendo sempre il dettaglio max...

Una scheda media della generazione n+1 è sempre (SEMPRE) meno potente di una al top della generazione n ed equivale quella al top della generazione n-1.

Mi aspetto che le schede medie in uscita facciano tra i 5000 ed i 6000 punti nel 3d Mark 2006, cioè il punteggio che faccio con la mia scheda in sign.

fede27
27-03-2007, 12:48
se vai a 1600x1200 e togli l'AA giochi bene lo stesso...
poi già fare congetture sulle caratteristiche di R600 è difficile, farle addirittura sulla complessità di motori grafici ancora da sviluppare è fanta-tecnologia :D inoltre pure il tanto sbandierato crysys si è dimostrato essere molto meno pesante di quanto si pensasse dunque io non sono poi così pessimista

TecnoWorld8
27-03-2007, 13:02
ripeto...fascia media significa non giocare con tutto al max con i giochi nuovi. è sempre stato così...io do questo giudizio basandomi su 10 anni di esperienza nel mondo delle schede video 3d (cioè dalla loro nascita). non è mai stato diverso...

poi se per la prima volta una scheda di fascia media farà girare titoli nuovi con tutto al max, bene per chi la comprerà :)

fede27
27-03-2007, 13:04
no scusami ma c'è un errore di fondo nel tuo discorso. quando mai l'R580 è stato un chip di fascia media??

TecnoWorld8
27-03-2007, 13:07
ehm...parlo della fascia media FUTURA che non avrà prestazioni nemmeno equivalenti a quelle di un R580 che è fascia alta di oggi. anzi le avrà sicuramente inferiori...le avrà pari ad un R520 un po' tirato.

fede27
27-03-2007, 13:09
ah ok scusami allora non avevo proprio capito cosa intendevi :stordita:
sorry

Alexkidd85
27-03-2007, 13:43
guarda , a quanto sento nel thread della x1950xt a 1280 con dett alti e filtri fa 30fps..se questo è zoppicare...:p

E non lo so..io ci sto giocando ora e non è che qualche frame non lo perda. C'è anche da dire che nel merito(non proprio merito) di "stalker" la gestione delle luci dinamiche appesantisce molto la scheda,difatti se non le togli ti scordi il "tutto al max",perché IMHO non è ben ottimizzata,ma ormai è vizio di tutti i giochi. Penso che comunque la futura fascia media / medio-alta,andrà quanto una x1900xt di oggi,non di meno...sono fiducioso.
Ma come la fascia media di oggi,dovremmo scendere a compromessi,specie se si parla di Full HD.

zorco
27-03-2007, 14:25
Il chip RV630, motore della scheda grafica AMD con nome commerciale x2600, avrebbe manifestato alcuni problemi di produzione che porterebbero ad un ritardo del lancio della stessa. Infatti questo richiederà ad AMD/ATI ulteriore tempo per risolvere il problema.

Ci sarà quindi uno slittamento della stessa, che potrebbe debuttare nella terza settimana di maggio, ma con una produzione in volumi solo nel mese di giugno.

Le schede Radeon x2600 sono pensate come soluzioni di fascia media e, unitamente a quelle basate su R600 ed RV610 dovevano essere annunciate nel mese di maggio prossimo e costituire la nuova offerta completa di AMD a marchio ATI.

http://www.dinoxpc.com/News/news.asp?ID_News=12210&What=News

Grey 7
27-03-2007, 15:45
Quelle schede, in dx9, andranno come (o meno) una x1900xt di oggi. E questa scheda già oggi con titoli quali Stalker zoppica.
e allora io ti dico di fare un salto nel thread ufficiale cosi ti rendi conto che c'è chi ha avuto problemi anche con una 8800gtx :asd: scusate sto ot ma qui la gente ancora non capisce\non vuole capire che il problema sono i giochi ottimizzati alla ca@@o di cane e non le schede. Se stalker fosse stato ottimizzato come di deve la x1900xt lo avrebbe fatto girare a paletta, luci dinamiche e tutto on.

Free Gordon
27-03-2007, 16:02
Dovesse includere anche 64 Mb di edram sarebbe veramente di una complessità assurda, magari 32 nelle rv630 :D


Se fosse z-ram, forse potrebbe includerne 32MB nelle versioni più costose. FORSE.
Perchè in Xenos servono 80mln di transistor per farne 10.. di MB. :D

Pensa quanto spreco di transistor per un chip che lavorerebbe sempre a risoluzioni più alte di quella permessa da un FB che conterrebbe in una sola tornata solo la 720p MSAA4x. ;) (30MB circa o qualcosa meno).

Free Gordon
27-03-2007, 16:12
Io dico che nessuno obbliga nessuno a comprare, io aspetto e valuto, non mi convince un prodotto lo lascio dov'è, tanto che sia tra due mesi o fine anno non mi cambia poi molto come possibilità ludiche, prendere r600 subito, o x2900 dopo, o r700 ancora più tardi sarà solo una questione di tempo-denaro-necessità, quando coincidono è il momento di cambiare, senza farsi troppissime paranoie sul futuro.


Concordo.
E aggiungo: quanto dura una scheda lo decidiamo sempre noi. :D
Non è che se esce una scheda con prestazioni superiori (fosse anche quella del nostro marchio preferito) siamo obbligati a prenderla e, di conseguenza, la nostra scheda non vale più nulla. :D
Io, molto probabilmente, fino a Crysis giocherò con la 1800... anche se sono sicuro che la 1900 sia generalmente più veloce, e G80, addirittura di una generazione avanti. ^_^

Free Gordon
27-03-2007, 16:21
E' vero che l'hw invecchia rapidamente, ma non ha senso che una scheda che costerà circa 600€ esca e venga entro tre mesi sostituita nel top di gamma solo perchè era in ritardo.


Nel caso di R520, questo è vero. Ma allora è vero anche nel caso di 7900GTX-7950GX2. ^_^

Devi inoltre considerare una cosa: non credo che le aziende avendo un progetto in mano, se ritardano per motivi tecnici, possano poi decidere di cancellarne completamente l'uscita a vantaggio del successore. :D Avrebbero problemi economici a fare una cosa simile...
Pensa poi ad una scheda come la 7900GTX, che è uscita persino dopo una scheda che gli era già superiore (1900XTX). A questo punto dovremmo essere tutti arrabbiati con Nvidia per questo... :asd:

Nel caso di R600 invece, sono tutte speculazioni. Nessuno sa cosa sarà R600 effettivamente e se il "ritardo" è legato a motivazioni tecniche o commerciali. :)

davide155
27-03-2007, 16:22
e allora io ti dico di fare un salto nel thread ufficiale cosi ti rendi conto che c'è chi ha avuto problemi anche con una 8800gtx :asd:

Veramente stalker a me va benissimo........

Alla 1440x900 con TUTTI gli effetti al max mi andava normale.....25-30fps.
Ovviamente senza AA.........

Se questo è zoppicare allora vuol dire che non hai provato oblivion oppure ghotic 3 :asd:

TecnoWorld8
27-03-2007, 16:26
Grey 7: nessuno dice il contrario, ma dato che i giochi sono programmati male, non ci resta che avere l'hardware migliore, se li vogliamo giocare con i dettagli al max. è sempre stato così, nel mondo PC...i giochi non hanno MAI sfruttato l'hw al 100%. Pazienza...

Free Gordon: come già detto, non ho mai interpretato 7950GX2 come un successore di 7900GTX, in quanto semplicemente composta da due chip in SLI su stessa scheda e molto più consumosa ed ostica (vedi problemi driver) rispetto alla sorella single chip.

Inoltre, per la situazione 7900GTX vs x1900XTX non posso che dirti che essendo di due produttori diversi, non si applica lo stesso ragionamento...voglio dire...se ora esce R600 ed è meno potente di G80, nessun problema...si piglia G80 e morta lì.

Il problema sarebbe (notate il condizionle) se uscisse (e non dico che sarà così!!!) R600 e poi dopo 3 mesi ne uscisse una revision a 65nm, con più clock e meno consumi, allo stesso prezzo e sbattesse fuori dal mercato il primo R600 (che in quel caso sparirebbe...non sarebbe di certo trasposto su schede di media gamma!!!).

davide155
27-03-2007, 16:31
Grey 7: nessuno dice il contrario, ma dato che i giochi sono programmati male, non ci resta che avere l'hardware migliore, se li vogliamo giocare con i dettagli al max. è sempre stato così, nel mondo PC...i giochi non hanno MAI sfruttato l'hw al 100%. Pazienza...


PAZIENZA?????
PAZIENZA????????????

Andiamo bene se tutti ragionassimo come fai te :rolleyes:

Noi paghiamo fior di quattrini per questi benedetti giochi.
E altrettanti soldi per l'hardware che neccessitano.

E se scattano......pur avendo nel pc 2mila € di roba te dici pazienza? :doh:

E' il loro lavoro questo.....e sono pagati PROFUMATAMENTE per farlo.

Quindi io ESIGO che lo facciano a dovere.
Per ora solo crytek "sembrerebbe" ci stia riuscendo........

Free Gordon
27-03-2007, 16:40
è zoppicare perchè se vai a 1600x1200 fa 20fps. Sei al limite. Ed è un titolo di inizio 2007...quindi quelli che usciranno tra 6 mesi non li gestirai più nemmeno a 1280 con tutto al max.

Ah beh, a 1600x1200 se zoppica con Stalker possiamo anche farcene una ragione.. :D
Ma se a risoluzioni alte ma umane (1280x800 o x1024 o 1440x900) va bene, direi che è ancora pienamente efficace. :)

TecnoWorld8
27-03-2007, 16:44
davide155: ok, dimmi come reagire, allora :)

Sono nel mondo dei computer e videogiochi da quasi 30 anni...quando si sviluppa per un sistema "unico", tipo una console o per un computer tipo un Commodore 64, un Amiga, uno Spectrum, un AtariST allora è facile ottimizzare, sia per la longevità dell'hw sia per il fatto che esiste solo un modello (o pochi modelli con differenze minime).

Per i PC è difficile; ci sono le librerie DX, ok, ma sono solo un middleware tra software e SO e poi hw. E l'hw sappiamo tutti quanto sia eterogeneo.

Non mi illudo che la situazione cambi.

Free Gordon
27-03-2007, 16:48
[B]Free Gordon: come già detto, non ho mai interpretato 7950GX2 come un successore di 7900GTX, in quanto semplicemente composta da due chip in SLI su stessa scheda e molto più consumosa ed ostica (vedi problemi driver) rispetto alla sorella single chip.

Mi pare che il discorso fosse relativo al alle schede top di gamma. Poco importa come sono fatte, no?
Ovviamente la 7900GTX non era più la top di gamma, uscita la 7950Gx2. Come x1800 non era più la top di gama, uscita x1900. ;)



Il problema sarebbe (notate il condizionle) se uscisse (e non dico che sarà così!!!) R600 e poi dopo 3 mesi ne uscisse una revision a 65nm, con più clock e meno consumi, allo stesso prezzo e sbattesse fuori dal mercato il primo R600 (che in quel caso sparirebbe...non sarebbe di certo trasposto su schede di media gamma!!!).

Per te il problema è di 3 mesi, per me invece il problema è di 1 anno! :)
Non concepisco più che l'evoluzione tecnologica porti ad avere più di una scheda top di gamma ogni anno... per me è uno spreco di risorse ed un meccanismo che porterà a ridurre sempre più lo sfruttamento dell'hw e l'ottimizzazione del software. Solo un grosso spreco ordunque.
E in questi ultimi anni nel settore pc, questo meccanismo non ha fatto altro che crescere.
E tutto solo per dire: io ce l'ho più grosso! :lol:

DVD2005
27-03-2007, 16:52
assolutamente in disaccordo.

quoto

Free Gordon
27-03-2007, 16:52
Noi paghiamo fior di quattrini per questi benedetti giochi.
E altrettanti soldi per l'hardware che neccessitano.
E se scattano......pur avendo nel pc 2mila € di roba te dici pazienza? :doh:
E' il loro lavoro questo.....e sono pagati PROFUMATAMENTE per farlo.
Quindi io ESIGO che lo facciano a dovere.
Per ora solo crytek "sembrerebbe" ci stia riuscendo........

Concordo.
Fino a che i giochi pc non supereranno in tecnica i giochi sulle attuali console (x360 essenzialmente), la convenienza sarà tutta a loro favore. Quando avverrà il pssaggio, allora tornerà appetibile di nuovo il pc, per me.

TecnoWorld8
27-03-2007, 16:54
Free Gordon: dati i problemi che 7950GX2 aveva e le prestazioni non necessariamente superiori a causa dei drivers, non l'ho mai considerata un vero top di gamma, ma piuttosto un freak messo in produzione come fu l'antica ATi Rage Fury MAXX o la mai uscita VooDoo 5 di 3dfx. Consumi proibitivi, driver insoddisfacenti. Era un'alternativa economica a 2 7900GTX in SLI, non un vero top sopra la GTX stessa, IMHO.

Invece x1900 è un chip nuovo rispetto a x1800 che ha SOLO portato benefici, e nessun contro rispetto al predecessore.

Il problema dell'evoluzione hw è così da anni; ricordo bene quando uscì la prima Geforce, poi pochi mesi dopo la versione DDR, poi pochissimo dopo la GF2 GTS, superata poco dopo dalla Ultra e poi dalla GF3 e così via...questa evoluzione ha portato, a soli 10 anni dal primo chip 3D "vero" per il mercato consumer, ad avere una grafica quasi uguale a quella di film in CG. Io non mi lamento, dunque...

davide155
27-03-2007, 17:12
Free Gordon: dati i problemi che 7950GX2 aveva e le prestazioni non necessariamente superiori a causa dei drivers, non l'ho mai considerata un vero top di gamma, ma piuttosto un freak messo in produzione come fu l'antica ATi Rage Fury MAXX o la mai uscita VooDoo 5 di 3dfx. Consumi proibitivi, driver insoddisfacenti. Era un'alternativa economica a 2 7900GTX in SLI, non un vero top sopra la GTX stessa, IMHO.

Invece x1900 è un chip nuovo rispetto a x1800 che ha SOLO portato benefici, e nessun contro rispetto al predecessore.

Il problema dell'evoluzione hw è così da anni; ricordo bene quando uscì la prima Geforce, poi pochi mesi dopo la versione DDR, poi pochissimo dopo la GF2 GTS, superata poco dopo dalla Ultra e poi dalla GF3 e così via...questa evoluzione ha portato, a soli 10 anni dal primo chip 3D "vero" per il mercato consumer, ad avere una grafica quasi uguale a quella di film in CG. Io non mi lamento, dunque...

Ovvio.....per quanto riguarda la resa grafica raggiunta negli ultimi mesi nei giochi non c'è assolutamente da lamentarsi. Su questo siamo d'accordo.

Però il fatto che per poter godere di questa resa grafica non basti nemmeno un pc da 2mila€ solo perchè i programmatori si sono abituati alle console mi fa incazzare da morire.

zorco
27-03-2007, 17:23
Free Gordon: dati i problemi che 7950GX2 aveva e le prestazioni non necessariamente superiori a causa dei drivers, non l'ho mai considerata un vero top di gamma, ma piuttosto un freak messo in produzione come fu l'antica ATi Rage Fury MAXX o la mai uscita VooDoo 5 di 3dfx. Consumi proibitivi, driver insoddisfacenti. Era un'alternativa economica a 2 7900GTX in SLI, non un vero top sopra la GTX stessa, IMHO.

la voodoo 5 è uscita eccome io ne posseggo gelosamente un'esemplare e ai tempi faceva dignitosamente il suo lavoro...

TecnoWorld8
27-03-2007, 17:25
zorco: hai perfettamente ragione :) io mi riferivo alla V5 6000.

zorco
27-03-2007, 17:26
zorco: hai perfettamente ragione :) io mi riferivo alla V5 6000.
ah allora :mano:

Athlon 64 3000+
27-03-2007, 17:44
http://www.vr-zone.com/index.php?i=4866

We have shown you a pic of the water-cooled R600 earlier and here are some close-up shots for you guys to enjoy. We learned that R600 can be overclocked to 850MHz easily on its default cooler and with this special water-cooled edition, we can expect even higher clocks. Interestingly, we heard that any core clock increase on the R600 will scale the performance by much which is why ATi is trying hard to boost the core frequency higher. In our previous article, we told you that NVIDIA has plans to come out with GeForce 8800 Ultra in May to counter R600 but we believe it is just an overclocked G80 and perhaps using the air/water hybrid cooling solution they conceptualize before. R600 real performance remains a mystery till now but we believe ATi still have some chance if they can deliver the products out on time.

appleroof
27-03-2007, 18:13
Ma se le schede top non servono a nulla o solo a quei poveri pazzi che pretendono massime prestazioni dai giochi com'è che i tread della 8800gtx e di R600 attirano praticamente tutta l'attenzione? :D

TecnoWorld8
27-03-2007, 18:31
io ne ho un'altra...credo che la percentuale - seppur minima - di persone interessata alle GPU al top sia anche quella più appassionata in generale e dunque vogliosa di partecipare ai thread.

Dunque si sentono più 10 che gridano di 1000 che sussurrano...

appleroof
27-03-2007, 18:35
Ti do un po' di opzioni :asd:

1. Dove ci sono i flames ci sono i diavoli
2. Sono praticamente delle chat in tempo differito
3. Quando sono tecnici possono anche essere interessanti.
4. Se non ti tieni aggiornato poi è devastante aggiornarsi solo quando devi spendere

:>

Secondo me semplicemente perchè rappresentano il meglio, e chiunque se potesse, le acquisterebbe, inoltre capisco l'interesse sulla tecnologia racchiusa in questi pezzi, che è ovvio attragga l'attenzione di un appassionato di...tecnologia

Ma sentire spesso e volentieri "tanto io con una 6200 gioco alla grande" su questi tread dedicati alle top francamente ha un pò di stucchevole, e te lo dice uno che ha sempre avuto fascia media, tranne questa volta che ho voluto provare cosa significa avere il top per godere appieno dei giochi sul pc...

è solo la mia opinione e la riferisco a te perchè questa volta l'hai avuta tu quell'uscita, ma nulla di personale credimi ;)

TecnoWorld8
27-03-2007, 18:44
appleroof: ti quoto al 100%. io in passato ho spessissimo avuto il top, soprattutto qualche anno fa quando ero più patito...ho avuto la 3dfx V1 appena uscita, poi le varie V2 in SLI, V3, TNT2 Ultra, GF256, GF2 Ultra, GF3, 9700PRO...

Poi mi sono un po' fermato, non uscivano giochi che mi facessero davvero aver voglia di spendere.

poi 8 mesi fa ho comprato la scheda in sign per recuperare i giochi degli ultimi 2 anni ed è ovviamente andata alla grande (doom 3, quake 4, HL2, ecc ecc), ma con quelli di prossima uscita, che promettono faville, questa scheda non ce la farà ai livelli che richiedo io.

appleroof
27-03-2007, 18:53
appleroof: ti quoto al 100%. io in passato ho spessissimo avuto il top, soprattutto qualche anno fa quando ero più patito...ho avuto la 3dfx V1 appena uscita, poi le varie V2 in SLI, V3, TNT2 Ultra, GF256, GF2 Ultra, GF3, 9700PRO...

Poi mi sono un po' fermato, non uscivano giochi che mi facessero davvero aver voglia di spendere.

poi 8 mesi fa ho comprato la scheda in sign per recuperare i giochi degli ultimi 2 anni ed è ovviamente andata alla grande (doom 3, quake 4, HL2, ecc ecc), ma con quelli di prossima uscita, che promettono faville, questa scheda non ce la farà ai livelli che richiedo io.

Abbiamo avuto il percorso contrario (sicuramente perchè gioco da meno tempo di te, ho iniziato con matrox vattelapesca su un pentium III nel '98 se ricordo bene :D, e la "malattia" è cominciata con una radeon 7000 :asd: )...

torniamo in topic và....:)

;)

appleroof
27-03-2007, 18:54
Quel tipo di frase viene spontaneamente a galla ogni, diciamo, un 5-10 pagine, soprattutto in questo genere di thread in cui di fatto si tende a parlare di tutto fuorché del topic, visto che il topic attualmente non esiste. E' una specie di rigetto, come dire "ma che ci stiamo a fare a farci seghe mentali per qualcosa che ha un mercato così ridotto e una utilità reale così limitata quando con una scheda di due anni fa mi gira Oblivion al max su Vista?"

Non l'ho assolutamente preso come un attacco personale, cmq :>

Si in effetti la mancanza di notizie porta anche a questi effetti collaterali...;)

Alexkidd85
27-03-2007, 19:07
Veramente stalker a me va benissimo........

Alla 1440x900 con TUTTI gli effetti al max mi andava normale.....25-30fps.
Ovviamente senza AA.........


E grazie :D Se togli anche le luci dinamiche fai 60 fps :P però giochi a quake 1 :D
Scherzo,il problema è grave che i giochi siano fatti davvero così male(poco ottimizzati)

e allora io ti dico di fare un salto nel thread ufficiale cosi ti rendi conto che c'è chi ha avuto problemi anche con una 8800gtx :asd: scusate sto ot ma qui la gente ancora non capisce\non vuole capire che il problema sono i giochi ottimizzati alla ca@@o di cane e non le schede. Se stalker fosse stato ottimizzato come di deve la x1900xt lo avrebbe fatto girare a paletta, luci dinamiche e tutto on.

Quotissimo...tristissima realtà.

IT
Ancora però non si è capito quando esce sta benedetta scheda...maggio dice l'amd e per me è legge, ma altri siti dicono aprile :confused: Chissà...

TecnoWorld8
27-03-2007, 19:18
io dico maggio per vederla nei negozi. anzi, probabilmente fine maggio...

davide155
27-03-2007, 19:30
E grazie :D Se togli anche le luci dinamiche fai 60 fps :P però giochi a quake 1 :D
Scherzo,il problema è grave che i giochi siano fatti davvero così male(poco ottimizzati)



Forse ti è sfuggito il TUTTO al massimo ;)

johnson
27-03-2007, 20:10
guarda , a quanto sento nel thread della x1950xt a 1280 con dett alti e filtri fa 30fps..se questo è zoppicare...:p

Beh, se i 30 fps sono "di media" come presumibile, sicuramente ci saranno momenti in cui il frame rate scenderà sotto i 15 fps (ingiocabile). E dalla mia "piccola" esperienza in campo fps, i momenti in cui il framerate scende, sono sempre quelli in cui lo si vorrebbe stabilissimo, e più alto possibile: in presenza di nemici (e la cosa si accentua all'aumentare degli stessi).

A 30 fps di media un gioco zoppica vistosamente. A 30 di minimo è ancora giocabile.

Certo che ci si accontenta. Ma da qui a dire che un gioco gira FLUIDO o che va BENISSIMO con tutti i dett al max, è una balla spaziale :D

Andrea deluxe
27-03-2007, 20:12
http://www.techpowerup.com/img/07-03-27/R600WC01.jpg
http://www.techpowerup.com/img/07-03-27/R600WC02.jpg

Alexkidd85
27-03-2007, 20:15
Forse ti è sfuggito il TUTTO al massimo ;)

E si ma togliendo l'AA hai tolto molto comunque :)
Che sia giocabilissimo anche senza AA questo si,te ne do atto ;)

Grey 7
27-03-2007, 20:17
Veramente stalker a me va benissimo........

Alla 1440x900 con TUTTI gli effetti al max mi andava normale.....25-30fps.
Ovviamente senza AA.........

Se questo è zoppicare allora vuol dire che non hai provato oblivion oppure ghotic 3 :asd:

si all'inizio a tutti andava a 100fps poi...:asd:
la mia era solo una constatazione che purtroppo anche altri hanno fatto: il gioco non è ottimizzato come si deve(proprio nelle impostazioni di ultima generazione, cosa ancor piu grave)e questo fa apparire le schede grafiche delle "ciofeche". Ah, oblivion era un fulmine rispetto a stalker, almeno sulla mia configurazione, cmq non è questa la sede per discuterne.

davide155
27-03-2007, 20:20
si all'inizio a tutti andava a 100fps poi...:asd:
la mia era solo una constatazione che purtroppo anche altri hanno fatto: il gioco non è ottimizzato come (proprio nelle impostazioni di ultima generazione, cosa ancor piu grave)si deve e questo fa apparire le schede grafiche delle ciofeche. Ah, oblivion era un fulmine rispetto a stalker, almeno sulla mia configurazione, cmq non è questa la sede per discuterne.

A me invece il contrario.......(e oblivion era senza modifiche)...........

gianni1879
27-03-2007, 20:24
che fa torniamo in topic o dobbiamo far chiudere pure questo???

wiltord
27-03-2007, 23:24
che fa torniamo in topic o dobbiamo far chiudere pure questo???

*

Foglia Morta
28-03-2007, 09:27
http://www.fudzilla.com/index.php?option=com_content&task=view&id=326&Itemid=1


The big OEM's could not wait for 65 nanometre versions of thr RV630 and RV610 and they placed the order of the 80 nanometre chips.


Early birds such as Fujitsu Siemens, Dell and HP already placed a loads of orders for these 80 nanometre parts. Later machines from these big OEM's will be replaced with 65 nanometre parts but this wont happen till the production ramps up.


This finally proves that ATI actually had two teams designing 80 and 65 nanometre chips and it looks like 65 nanometre team did a job well and probably even before the schedule. Anyhow the Add in boards cards will all be 65 nanometre so end users should not be worried about 80 nanometre chips.

Skullcrusher
28-03-2007, 09:31
Qualche conferma per quanto riguarda le frequenze da Tom's Hardware:

http://www.tomshw.it/news.php?newsid=9536

TecnoWorld8
28-03-2007, 12:34
la news di fudzilla parla però di RV630 ed RV610 che già si sapeva che nella versione retail sarebbero stati a 65nm...sarebbe interessante sapere se la stessa cosa (80nm per gli OEM frettolosi e 65nm per il retail) si applicherà anche ad R600.....

appleroof
28-03-2007, 14:20
http://www.hwupgrade.it/news/skvideo/nuovi-dettagli-sul-watercooling-per-r600_20621.html

wiltord
28-03-2007, 14:26
http://www.hwupgrade.it/news/skvideo/nuovi-dettagli-sul-watercooling-per-r600_20621.html

aggiunto in prima pagina ;)

TecnoWorld8
28-03-2007, 16:19
sn sempre + convinto che R600 uscirà ad 80nm e scalderà (e consumerà) moltissimo. Con questo nn dico che farà schifo, anzi...probabilmente andrà forte.

Però, dato il folle ritardo, avrei preferito uscisse subito a 65nm...dato che secondo me al max a settembre uscirà la versione a 65nm, cioè lo step successivo (esattamente come fu per x1800 -> x1900)

JoeLatino
28-03-2007, 16:23
FROM Fudzilla:eek:


Home R600 DDR 3 works at 1600 MHz
Written by Fuad Abazovic
Wednesday, 28 March 2007 16:48

750 to 800 MHz core
R600, DDR3 card probably called Radeon X2900 series will come with the memory working at modest 1600 MHz. Don’t forget that R600 has 512 bit memory controller and that it will have some impressive bandwidth.

GDDR4 version comes later and should have a clock even higher than 2000 MHz milestone. We already told that ATI can clock R600 at 750 to 800 MHz.

R600 is of course 80 nanometre chip and the production should start in April time with some availability and launch scheduled for May.

TecnoWorld8
28-03-2007, 16:24
appunto. sempre peggio :) mah, vedremo

Kharonte85
28-03-2007, 16:44
FROM Fudzilla:eek:


Home R600 DDR 3 works at 1600 MHz
Written by Fuad Abazovic
Wednesday, 28 March 2007 16:48

750 to 800 MHz core
R600, DDR3 card probably called Radeon X2900 series will come with the memory working at modest 1600 MHz. Don’t forget that R600 has 512 bit memory controller and that it will have some impressive bandwidth.

GDDR4 version comes later and should have a clock even higher than 2000 MHz milestone. We already told that ATI can clock R600 at 750 to 800 MHz.

R600 is of course 80 nanometre chip and the production should start in April time with some availability and launch scheduled for May.
Azz...se fosse vero non sarebbe esattamente "bello", credevo che le gddr4 fossero pressoche' certe (e clockate di piu')...:stordita:
sn sempre + convinto che R600 uscirà ad 80nm e scalderà (e consumerà) moltissimo. Con questo nn dico che farà schifo, anzi...probabilmente andrà forte.

Però, dato il folle ritardo, avrei preferito uscisse subito a 65nm...dato che secondo me al max a settembre uscirà la versione a 65nm, cioè lo step successivo (esattamente come fu per x1800 -> x1900)
Credo anche io...

halduemilauno
28-03-2007, 17:08
FROM Fudzilla:eek:


Home R600 DDR 3 works at 1600 MHz
Written by Fuad Abazovic
Wednesday, 28 March 2007 16:48

750 to 800 MHz core
R600, DDR3 card probably called Radeon X2900 series will come with the memory working at modest 1600 MHz. Don’t forget that R600 has 512 bit memory controller and that it will have some impressive bandwidth.

GDDR4 version comes later and should have a clock even higher than 2000 MHz milestone. We already told that ATI can clock R600 at 750 to 800 MHz.

R600 is of course 80 nanometre chip and the production should start in April time with some availability and launch scheduled for May.


102.4GB. tocca solo aspettare.
;)

Marko91
28-03-2007, 17:42
Oddio, in Ati stanno facendo un casino! :D
Praticamente a metà aprile esce una X2900 con frequenze 750-800 Mhz di core e 1600 Mhz di ram gddr3. Poco dopo uscirà una x2900 con 800-850 Mhz di core e 2000-2200 Mhz di ram gddr4.
Credo che quindi uscirà prima la x2900xt e poco dopo la x2900xtx.

[Lamer mode on]
E dopo 3 mesi uscirà una x2950xtx con 96 shader unit, 1 Ghz di core e 2,5 Ghz di ram :asd:
[Lamer mode off]

Robbysca976
28-03-2007, 17:43
Raga è inutile che vi aspettiate miracoli. R600 sarà a 80nm con ddr3....mi gioco le pxxxe. Si chiamerà X2800XT con le varianti XTX + spinte. Poi forse a natale 07 quando ci sarà la possibilità di costruire gpu a 65nm (x ora non esiste nessun fornitore per gpu che riesce a sfornare gpu a 65nm per la massa) ma sec me più realisticamente nel 2008 come ora, vedremo le X2900XT con R600 a 65nm e DDR4.

A voi le scommesse :D :D :D

esticbo
28-03-2007, 17:52
Robbysca976 le X2900XT con R600 a 65nm e DDR4 le avremo a Ottobre / Novembre come é successo x le 1950xtx con DDR4.

A.L.M.
28-03-2007, 17:58
FROM Fudzilla:eek:


Home R600 DDR 3 works at 1600 MHz
Written by Fuad Abazovic
Wednesday, 28 March 2007 16:48

750 to 800 MHz core
R600, DDR3 card probably called Radeon X2900 series will come with the memory working at modest 1600 MHz. Don’t forget that R600 has 512 bit memory controller and that it will have some impressive bandwidth.

GDDR4 version comes later and should have a clock even higher than 2000 MHz milestone. We already told that ATI can clock R600 at 750 to 800 MHz.

R600 is of course 80 nanometre chip and the production should start in April time with some availability and launch scheduled for May.

Fudzilla è abbastanza inaffidabile (non dimentichiamo che Abazovic è di "scuola the Inquirer"). Ricordo che ufficialmente ATi ha detto che i test con frequenze di core inferiori a 800 MHz sono fake. ;)

Athlon 64 3000+
28-03-2007, 19:32
Robbysca976 le X2900XT con R600 a 65nm e DDR4 le avremo a Ottobre / Novembre come é successo x le 1950xtx con DDR4.

anche questo tutto da confermare.;)

Athlon 64 3000+
28-03-2007, 19:35
FROM Fudzilla:eek:


Home R600 DDR 3 works at 1600 MHz
Written by Fuad Abazovic
Wednesday, 28 March 2007 16:48

750 to 800 MHz core
R600, DDR3 card probably called Radeon X2900 series will come with the memory working at modest 1600 MHz. Don’t forget that R600 has 512 bit memory controller and that it will have some impressive bandwidth.

GDDR4 version comes later and should have a clock even higher than 2000 MHz milestone. We already told that ATI can clock R600 at 750 to 800 MHz.

R600 is of course 80 nanometre chip and the production should start in April time with some availability and launch scheduled for May.

potrebbe essere una balla assurda.
Io penso invece che almeno un modello di R600 le userà le gddr4 come non credo che la R600XT userà le memoria gddr3 a 1600 ma almeno a 1800.

Alexkidd85
28-03-2007, 19:39
Forse sbaglio ma, se hanno fatto uscire le 1950 con le gddr4,non vedo perché non dovrebbero uscire le nuove soluzioni top di gamma in gddr4... o sbaglio!?

Alexkidd85
28-03-2007, 19:54
Intanto i catalyst 7.3 sono usciti...non è che qualcuno ha controllato se c'è qualche detttaglio su r600!?

TecnoWorld8
28-03-2007, 19:55
io spero molto nella sfida di prezzi tra le nuove R600 e la 8800Ultra. Se le R600 saranno poco + veloci di una 8800gtx, allora non potranno costare tantissimo.

Diciamo così...sarei disposto a pagare 600 Euro per una R600 supercarrozzata, oppure 500 Euro per una scheda a livello di una GTX.

ATi7500
28-03-2007, 19:57
Forse sbaglio ma, se hanno fatto uscire le 1950 con le gddr4,non vedo perché non dovrebbero uscire le nuove soluzioni top di gamma in gddr4... o sbaglio!?

secondo me lo scopo di ati, ora come ora, e' contenere al massimo i costi, rinunciando quindi alle chicche di cui abbiamo sentito parlare finora (GDDR4, 65nm, 1GHz di core)
E non dimentichiamoci che nemmeno alla presentazione si potra' avere un'idea concreta di quello che R600 puo' fare: vi siete accorti dello sviluppo driver in casa nvidia, per quanto riguarda G80? praticamente FERMO. Abbastanza normale direi, quando ci si presenta con un'architettura cosi' rivoluzionaria. Ecco perche' penso che ATi stia calcando la mano piu' sullo sviluppo driver che sull'hardware dai grossi numeri, perche' alla fine e' il software che paga, non l'hardware malamente sfruttato.

bYeZ!

appleroof
28-03-2007, 20:07
secondo me lo scopo di ati, ora come ora, e' contenere al massimo i costi, rinunciando quindi alle chicche di cui abbiamo sentito parlare finora (GDDR4, 65nm, 1GHz di core)
E non dimentichiamoci che nemmeno alla presentazione si potra' avere un'idea concreta di quello che R600 puo' fare: vi siete accorti dello sviluppo driver in casa nvidia, per quanto riguarda G80? praticamente FERMO. Abbastanza normale direi, quando ci si presenta con un'architettura cosi' rivoluzionaria. Ecco perche' penso che ATi stia calcando la mano piu' sullo sviluppo driver che sull'hardware dai grossi numeri, perche' alla fine e' il software che paga, non l'hardware malamente sfruttato.

bYeZ!

Ogni volta che sento questa storia dei driver nvidia sviluppati male mi viene da sorridere....cioè o io sono particolarmente fortunato, oppure c'è qualcosa che non mi torna: sia in vista che in xp a me vanno davvero alla grande con hl2+espansione, carbon, cod2, command &conquer (demo fa lo stesso), battlestation midways, oblivion, e (in xp) stalker....:boh:

di certo sono da migliorare (quelli per vista non ti fanno aggiustare i settaggi video in 2d....gravissimo :asd: )

poi, facendo un giro sui tread delle ati non mi pare che la situazione sia migliore: leggo di un sacco di gente che ha problemi con i catalyst e relativo cc (però mi baso su quello che leggo, a differenza di quelli Nvidia dove nat. riporto l'esperienza diretta) sopratutto con vista...

ATi7500
28-03-2007, 20:15
Ogni volta che sento questa storia dei driver nvidia sviluppati male mi viene da sorridere....cioè o io sono particolarmente fortunato, oppure c'è qualcosa che non mi torna: sia in vista che in xp a me vanno davvero alla grande con hl2+espansione, carbon, cod2, command &conquer (demo fa lo stesso), battlestation midways, oblivion, e (in xp) stalker....:boh:

di certo sono da migliorare (quelli per vista non ti fanno aggiustare i settaggi video in 2d....gravissimo :asd: )

poi, facendo un giro sui tread delle ati non mi pare che la situazione sia migliore: leggo di un sacco di gente che ha problemi con i catalyst e relativo cc (però mi baso su quello che leggo, a differenza di quelli Nvidia dove nat. riporto l'esperienza diretta) sopratutto con vista...
forse non rimembri i tempi dei Detonator, quando c'erano le Geforce3..lo sviluppo driver nvidia era incalzante e c'erano netti miglioramenti da una release all'altra..anche per le GeforceFX, serie notoriamente fallimentare, i Forceware hanno fatto miracoli.. Ti sei mai chiesto perche' ora come ora lo sviluppo driver stia andando a rilento? Tu dirai, i driver sono perfetti, mi girano tutti i giochi, quindi cosa c'e' da cambiare? Io invece ti assicuro che ancora non hai visto una virgola delle reali potenzialita' di G80, fidati :p Secondo te bastano 2 o 3 release di driver per scoprire il potenziale di quel chip? E poi non ho mica fatto distinzioni nel mancato sviluppo driver tra le due case, ho fatto un discorso generale; segno che sia nvidia che ati stanno affrontando i medesimi problemi, primo tra tutti lo sviluppo driver su Vista.

bYeZ!

Athlon 64 3000+
28-03-2007, 20:23
secondo me lo scopo di ati, ora come ora, e' contenere al massimo i costi, rinunciando quindi alle chicche di cui abbiamo sentito parlare finora (GDDR4, 65nm, 1GHz di core)
E non dimentichiamoci che nemmeno alla presentazione si potra' avere un'idea concreta di quello che R600 puo' fare: vi siete accorti dello sviluppo driver in casa nvidia, per quanto riguarda G80? praticamente FERMO. Abbastanza normale direi, quando ci si presenta con un'architettura cosi' rivoluzionaria. Ecco perche' penso che ATi stia calcando la mano piu' sullo sviluppo driver che sull'hardware dai grossi numeri, perche' alla fine e' il software che paga, non l'hardware malamente sfruttato.

bYeZ!

Io penso che almeno il modella top di gamma chiamato forse X2900XTX avrà le gddr4 anche se stanno contenendo i costi.
Per quanto riguardo il resto sono perfettamente d'accordo con te.

appleroof
28-03-2007, 20:59
forse non rimembri i tempi dei Detonator, quando c'erano le Geforce3..lo sviluppo driver nvidia era incalzante e c'erano netti miglioramenti da una release all'altra..anche per le GeforceFX, serie notoriamente fallimentare, i Forceware hanno fatto miracoli.. Ti sei mai chiesto perche' ora come ora lo sviluppo driver stia andando a rilento? Tu dirai, i driver sono perfetti, mi girano tutti i giochi, quindi cosa c'e' da cambiare? Io invece ti assicuro che ancora non hai visto una virgola delle reali potenzialita' di G80, fidati :p Secondo te bastano 2 o 3 release di driver per scoprire il potenziale di quel chip? E poi non ho mica fatto distinzioni nel mancato sviluppo driver tra le due case, ho fatto un discorso generale; segno che sia nvidia che ati stanno affrontando i medesimi problemi, primo tra tutti lo sviluppo driver su Vista.

bYeZ!

Ah guarda io mi fido ciecamente :asd: ...è da mesi che dico che G80 ora come ora è sfruttato si e no al 50% e ci sono i vari post a testimoniarlo (se non altro perchè è un chip dx10, tralasciando tutto il resto)...:)

tuttavia il tuo discorso mi sembrava abbastanza mirato e assolutamente non generale, ma in ogni caso, senza polemiche inutili, sono d'accordo che il dover lavorare su 2 fronti dia un carico maggiore nello sviluppo dei driver, ma questo non toglie che a me questi driver non danno problemi con i miei (guarda caso, meglio per me) giochi preferiti, nessun crash, nessun problema serio, quindi io sono soddisfatto della situazione attuale

Che poi le cose possano solo migliorare (e non c'è solo l'architettura nuova questa volta, ma appunto un nuovo OS e presto giochi che sfrutteranno le nuove librerie, con anche la necessità di dover "coprire" contemporaneamente le dx9) ce lo auguriamo tutti ;)

A.L.M.
28-03-2007, 21:49
Ogni volta che sento questa storia dei driver nvidia sviluppati male mi viene da sorridere....cioè o io sono particolarmente fortunato, oppure c'è qualcosa che non mi torna: sia in vista che in xp a me vanno davvero alla grande con hl2+espansione, carbon, cod2, command &conquer (demo fa lo stesso), battlestation midways, oblivion, e (in xp) stalker....:boh:

Test Drive Unlimited ha diversi problemi con le 8800, idem successe all'inizio con SCDA.

fukka75
29-03-2007, 09:22
Ragazzi, tornate IT, i problemi di G80 discuteteli nel thread giusto ;)

zorco
29-03-2007, 10:28
http://www.dinoxpc.com/News/news.asp?ID_News=12221&What=News

Emergono nuove informazioni circa le schede R600 che ATI dovrebbe annunciare a partire dal prossimo mese di Aprile. Secondo Fudzilla, le prime versioni con memoria DDR3 saranno dotate di moduli da soli 1600 MHz. D´altro canto è bene tenere a mente che le soluzioni R600 dispongono di un memory controller da 512-bit il che garantirebbe una bandwidth, a tale frequenza, di oltre 100GB/s.

In futuro AMD rilascerà la versione con GDDR4 [G] la quale dovrebbe presentare memorie con un clock di 2GHz. Ulteriori dettagli a questo indirizzo.

Athlon 64 3000+
29-03-2007, 10:32
penso che che R600 userà almeno come memoria le gddr3 a 1800 e poi ci sarà subito anche un modello con le gddr4.

Skullcrusher
29-03-2007, 10:34
penso che che R600 userà almeno come memoria le gddr3 a 1800 e poi ci sarà subito anche un modello con le gddr4.

Sì, in modo simile a quanto sta per accadere con G80, nella versione Ultra. A questo punto credo che la prima R600 si discosterà ben poco da G80.

A.L.M.
29-03-2007, 11:15
A proposito dell'uso delle GDDR3 su R600XT o XTX, ATi potrebbe addirittura decidere di evitare l'uso delle memorie GDDR4.

http://translate.google.com/translate?u=http%3A%2F%2Fwww.matbe.com%2Factualites%2F15768%2Fqimonda-gddr5%2F&langpair=fr%7Cen&hl=fr&safe=off&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

http://www.behardware.com/news/8710/qimonda-jumps-from-gddr3-to-gddr5.html

DjLode
29-03-2007, 11:24
Se le GDDR4 di una certa frequenza non sono disponibili, che usino le 3, visto che a quanto pare entrambe raggiungono i 2ghz di frequenza. Magari consumano di più, ma watt più, watt meno, ormai...
Certo è che se fosse confermata la cosa detta negli ultimi due link, il problema non sarebbe solo di R600 ma anche di G80 visto che si parla di moduli che supporta anche quest'ultima.

Skullcrusher
29-03-2007, 11:34
Su l'INQ (http://uk.theinquirer.net/?article=38527) si legge che la 8800U andrebbe al prezzo di 999$.

Mi sembra un'ipotesi piuttosto assurda. Se fosse confermata vorrebbe dire una marea di cose, tra cui che R600 va come un fulmine, che costerà una follia, e che la 8800U è in grado di tenere il passo.

Credo che non verrà confermata, comunque :>

Quel prezzo è totalmente impossibile. Se la ultra sarà una GTX 650/2200 come sembra, deve costare 50€ in più e stop. Comunque ritorniamo I.T. ;)

Vifani
29-03-2007, 11:35
Secondo me tutto questo problema delle memorie è inesistente. Non ha senso sparare memorie con frequenze inverosimili su un bus a 512 bit. Le GDDR3 anche a 1600 MHz daranno vita ad una banda passante paurosa. E poi non dimentichiamoci che il tutto deve sempre essere controbilanciato dalle effettive richieste del chip. Probabilmente per le frequenze a cui verrà proposto R600 inizialmente le memorie GDDR4 non sono necessarie.

Poi comunque non dimentichiamoci che di R600 sappiamo ben poco. Non conosciamo la sua efficienza, come sono organizzati i suoi buffer interni, come funzionerà il suo antialiasing, le tecniche di rimozione delle superfici nascoste e di compressione dei dati, ecc... Questi sono altri parametri su cui si può giocare e che modificano sensibilmente le richieste della banda passante.

zorco
29-03-2007, 11:56
Quel prezzo è totalmente impossibile. Se la ultra sarà una GTX 650/2200 come sembra, deve costare 50€ in più e stop. Comunque ritorniamo I.T. ;)
a meno che questa non sia venduta con quantitativo di memoria superiore alla gtx è l'unica cosa che possa giustificare un prezzo così eccessivo...

GabrySP
29-03-2007, 12:01
a meno che questa non sia venduta con quantitativo di memoria superiore alla gtx è l'unica cosa che possa giustificare un prezzo così eccessivo...

Se fosse una dual GPU ? :eek: ................... R600 sarebbe nelle "canne" :D

Skullcrusher
29-03-2007, 12:04
Se fosse una dual GPU ? :eek: ................... R600 sarebbe nelle "canne" :D

La dual gpu è in programma....quindi il prezzo a cui fa riferimento TI potrebbe essere riferito a quella soluzione.
Ma anche per R600 se non vado errato è prevista una simile soluzione più in là...usciranno vga come funghi nei prossimi mesi :p

halduemilauno
29-03-2007, 12:08
visto che state parlano dei chip nvidia delle loro caratteristiche e dei loro prezzi...


http://xtreview.com/addcomment-id-20...800-Ultra.html

The passed exhibition ceBIT 2007 many where assured that in the following block NVIDIA will release video card geForce 8950 GX2 and GeForce 8800 Ultra. It is assumed that they will be announced on 17 April; however, associates with the reference to NVIDIA briefing told that about the accessibility Of geForce 8800 Ultra will be possible to speak only during May. NVIDIA is assured that the performance of this video card will be sufficient to complete with Radeon x2900 XTX. Associate also speaks about the possibility of appearance for geForce 8800 Ultra during May; however, it called the ultra high price on the order of $999. Let us note that we have more optimistic data about price and characteristics of the new high end chip from NVIDIA…

Thus, the preliminary characteristics of new video card on the base of chip g80 appear :

* GeForce 8950 GX 2-> two chips g80 on one card, 2 X 96 stream processors, 2 X 320- bit memory system bus , 2 X 640 mb. memory of type GDDR-4, frequency 575/2000 MHz, the frequency of shader domain is 1700 MHz, recommended retail price $649;
* GeForce 8800 Ultra - > 128 stream processors, 384- bit memory system bus , 768 mb memory of type GDDR-4, frequency 650/2200 MHz, the frequency of shader domain 1800 MHz, recommended retail price $549.

Let us note that GeForce 8950 GX2 will be on average up to 50% faster than GeForce 8800 GTX; however, requirements for power unit will be pretty serious. GeForce 8950 GX2 will be able to be satisfied with air cooler sugar, but they will propose a version with water cooling system.

GeForce 8800 Ultra will obtain the memory of type GDDR-4, although GeForce 8950 GX2 also pretends to this possibility. Both video card will be equipped with chip g80 with the noticeably overclocked shader domain - its frequencies will grow from 1200-1350 MHz to 1700-1800 MHz. Obviously, this will serve as guarantee for speed increase in the geForce 8800 Ultra up to 30% in comparison with GeForce 8800 GTX, although the core and memory frequencies will also grow from 575/1800 MHz to 650/2200 MHz. Accessibility of video card geForce 8800 Ultra will be in the first time limited, due to its sufficiently high retail prices . .

Let us recall that these are only the preliminary data about characteristics and prices of new video card on the base of chip g80, this information still requires updated in the course of time, but some of them (if not all) already exists.

;)

Athlon 64 3000+
29-03-2007, 12:10
il mio obbiettivo sarebbe di prendere un R600XT con 512 mb gddr3 a 1800 mhz con bus a 512 bit massimo a 500 euro.

Grey 7
29-03-2007, 12:21
ma lol :asd: come si puo dedurre..la situazione è chiara :read:

giopro
29-03-2007, 12:23
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:

Scusa, ma l'HDMI non ce lo metti? :D

Ciao :)

halduemilauno
29-03-2007, 12:23
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:

riassunto perfetto. mi era sfuggito la faccenda del giga di core. veramente qualcuno lo ha detto?
;)

Skullcrusher
29-03-2007, 12:26
riassunto perfetto. mi era sfuggito la faccenda del giga di core. veramente qualcuno lo ha detto?
;)

Sì, tra le tante voci riguardanti R600, circolava proprio quella del core a 1Ghz....

halduemilauno
29-03-2007, 12:28
Ovviamente sì, come tutto ed il contrario di tutto :asd:


Sì, tra le tante voci riguardanti R600, circolava proprio quella del core a 1Ghz....

azz. e riazz.
;)

halduemilauno
29-03-2007, 12:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=345&Itemid=1

3Dmark06 on 8.35 driver



We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad core Intel CPU and 2 GB memory.


The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.


In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.


There is still some hope I guess.

;)

Kharonte85
29-03-2007, 12:52
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:
Bellissimo....:rotfl:

Defragg
29-03-2007, 12:59
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:

:rotfl:

Il dissipatore standard occuperà due slot, infatti è molto piccolo.

Sarà possibile utilizzarla in configurazioni crossfire, con 2, 4, 8, 16, 32 schede grafiche

runk
29-03-2007, 13:12
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:

:ave: :ave: :ave:

non posto da tempo,ma vi seguo....posto solo quando lo spam lo richiede! :O :D

cmq tutti sti rumors non hanno fatto che confondermi,ecco perchè mi compro la ps3! :D

wiltord
29-03-2007, 13:15
simpatico, ma stop così. :)

TecnoWorld8
29-03-2007, 13:35
posto che tale risultato sia verosimile, la R600 sarebbe solo il 7% più veloce di una GTX a velocità default. Ok, i driver non sono ottimizzati...ma quanto può prendere? diciamo che arrivi a 10%? benissimo. 8800Ultra costerà sui 550-600 dollari e sarà sicuramente almeno 15% più veloce di una GTX (per giustificare il nome Ultra).

Ne abbiamo che la Ultra sarà più veloce di R600? possibilissimo, ma...a questo punto mi aspetto che R600 costi non più di 550 dollari...

Come detto in precedenza, ho due speranze contrastanti:

1) che R600 batta l'attuale GTX di 30% abbondanti e sia davvero innovativa
2) che R600 eguagli la GTX come prestazioni e costi + o - uguale, pur essendo magari un po' più evoluta tecnicamente

Danielao
29-03-2007, 14:00
Dubito che sia imminente una soluzione del genere con i problemi che hanno attualmente con i driver sulle configurazioni SLI. Immagino sarà una risposta più "diretta".

Ricapitoliamo un attimo:

R600:
Il nome commerciale sarà x2800 ed uscirà nelle versioni XTX XT e XL. Ovviamente si chiamerà x2900. E altrettanto naturalmente non è prevista una versione XT.

Per quanto riguarda la RAM dovrebbe essere 1GB GDDR4, cioè 512MB GDDR4, cioè 512MB GDDR3, probabilmente 1GB GDDR3.

La frequenza del core sarà 700MHz.
La frequenza del core sarà 750MHz.
La frequenza del core sarà 800MHz.
La frequenza del core sarà 850MHz.
La frequenza del core sarà 1GHz.

Le RAM invece avranno una frequenza di 1600MHZ. Anzi 1800MHz. Anzi 2GHz. Anzi no.

Per quanto riguarda il processo produttivo siamo certi che sarè 80nm. Siamo anche certi che sarà a 65nm.

Per quel che concerne le richieste di potenza avrà certamente un TDP superiore a 240W, cioè circa 180W.

Il dissipatore standard sarà a vapore, cioè passivo, cioè a pompe di calore con dissipatore in rame, che poi è alluminio, con 2 ventole, cioè 1, ovvero 3.

Fine del riassunto, qualcuno vule aggiungere qualcosa?

:asd:

Grande :)

Alla fine o AMD-Ati ha un reparto marketing eccezionale in grado di aumentare l'attesa con dichiarazione continue o AMD-Ati ha un reparto R&D che non sa più..:mc:

A.L.M.
29-03-2007, 14:45
http://www.fudzilla.com/index.php?option=com_content&task=view&id=345&Itemid=1

3Dmark06 on 8.35 driver



We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad core Intel CPU and 2 GB memory.


The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.


In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.


There is still some hope I guess.

;)

Beh, considerando che confrontano i risultati di una scheda che non è ancora supportata dai drivers con una che è uscita da 4-5 mesi, mi pare buono.
A questo punto andrà più o meno come una 8800 Ultra, dunque credo che il prezzo di R600 non supererà i 549$, se vogliono rimanere competitivi. Ovviamente queste sono le performance nei benchmarks, perchè da quello che si sta vedendo in giro, tra driver pessimi e giochi esosi di risorse i rapporti di forza potrebbero essere anche parecchio diversi.

galaxygalaxy
29-03-2007, 16:05
un piccolo OT ma non troppo...

Parlando di consumi. Ieri ho chiesto ad un mio amico elettricista di verificare quanto assorbiva il mio PC in firma con oblivion in funzione.
Lui ha portato uno strumento che usa per lavoro che permette di misurare gli ampere assorbiti dalla rete. Ebbene considerando il picco massimo ovvero VGA e CPU praticamente al max, più 2 HD e relativi masterizzatori (anche se ovviamente non del tutto in funzione durante il gioco) il wattaggio è stato di 132 Watts :eek:

Questo mi fa riflettere su una cosa. Ma è davvero necessario avere alimentatori da 500Watts minimo??? Non so se l'R600 consumerà davvero tanto, ma non è che è tutto fatto in modo da "costringerci" a comprare anche un alimentaore da 600watts per "stare tranquilli"....!

troppo spesso ho letto che: Sicuramente ci vorrà anche un ali mostruoso da 600watts come minimo, per far girare bene l'R600!!

Cosa ne pensate di questa cosa? La fonte è affidabile tanto quanto lo strumento usato.

The_SaN
29-03-2007, 16:10
un piccolo OT ma non troppo...

Parlando di consumi. Ieri ho chiesto ad un mio amico elettricista di verificare quanto assorbiva il mio PC in firma con oblivion in funzione.
Lui ha portato uno strumento che usa per lavoro che permette di misurare gli ampere assorbiti dalla rete. Ebbene considerando il picco massimo ovvero VGA e CPU praticamente al max, più 2 HD e relativi masterizzatori (anche se ovviamente non del tutto in funzione durante il gioco) il wattaggio è stato di 132 Watts :eek:

Questo mi fa riflettere su una cosa. Ma è davvero necessario avere alimentatori da 500Watts minimo??? Non so se l'R600 consumerà davvero tanto, ma non è che è tutto fatto in modo da "costringerci" a comprare anche un alimentaore da 600watts per "stare tranquilli"....!

troppo spesso ho letto che: Sicuramente ci vorrà anche un ali mostruoso da 600watts come minimo, per far girare bene l'R600!!

Cosa ne pensate di questa cosa? La fonte è affidabile tanto quanto lo strumento usato.

É da molto che dico (ma in pochi mi credono) che un ali da 500W é sovradimensionato per il 90% delle configurazioni.
A patto che sia di qualitá. Un 500W riesce ad alimentare un SLI di 8800gtx senza problemi di sorta. Se r600 sará piú esoso, un 600W di qualitá, oltre a far andare bene la singola scheda potrá alimentare anche il crossfire.

I mostri da 1000 e passa Watt servono solo per overclock estremi da benchmarking (dove é necessaria un estrema stabilitá delle linee) o per ambito server. ;)

Grey 7
29-03-2007, 16:23
si, sta cosa degli alimentatori è molto sovradimensionata, ma d'altronde son gli stessi produttori che tendono a esagerare. Pensa che sulla confezione della mia x1950pro c'è scritto che richiede almeno 30A sui 12v :asd: :asd:

The_SaN
29-03-2007, 16:46
si, sta cosa degli alimentatori è molto sovradimensionata, ma d'altronde son gli stessi produttori che tendono a esagerare. Pensa che sulla confezione della mia x1950pro c'è scritto che richiede almeno 30A sui 12v :asd: :asd:

Che guarda caso sono uguali alla 8800gtx :D

Athlon 64 3000+
30-03-2007, 09:40
http://www.fudzilla.com/index.php?option=com_content&task=view&id=354&Itemid=1

We learned a bit more about R600. The prototype cards are running at 800 MHz. This confirms our previous story where we said that it can run between 750 and 800 MHz. You can read it here.


We are talking about 9.5 inch board that ATI already demonstrated behind the closed doors at Cebit. The DDR3 memory works at 1600 MHz while the GDDR4 board will end up with memory faster than 2000 MHz.


Now it is up to Raja Koduri and its driver team to make a software miracle. Ben BarHaim, the VP of software at AMD together with its knight Terry Makedon can make it happen.

insistono con le memorie gddr3 a 1600 e io non ci credo.
Penso che utilizzerranno almeno le gddr3 a 1800.

Simon82
30-03-2007, 09:45
http://www.fudzilla.com/index.php?option=com_content&task=view&id=354&Itemid=1

We learned a bit more about R600. The prototype cards are running at 800 MHz. This confirms our previous story where we said that it can run between 750 and 800 MHz. You can read it here.


We are talking about 9.5 inch board that ATI already demonstrated behind the closed doors at Cebit. The DDR3 memory works at 1600 MHz while the GDDR4 board will end up with memory faster than 2000 MHz.


Now it is up to Raja Koduri and its driver team to make a software miracle. Ben BarHaim, the VP of software at AMD together with its knight Terry Makedon can make it happen.

insistono con le memorie gddr3 a 1600 e io non ci credo.
Penso che utilizzerranno almeno le gddr3 a 1800.

Troppa confusione in giro.. e' impossibile dire cosa sia vero e cosa no tra le troppe voci di corridoio.

Speriamo in qualche notizia piu' certa.

Athlon 64 3000+
30-03-2007, 10:08
Troppa confusione in giro.. e' impossibile dire cosa sia vero e cosa no tra le troppe voci di corridoio.

Speriamo in qualche notizia piu' certa.

la mia è solo un'ipotesi.
Finche sono rumors tutto è possibile e penso che molti rumors siano delle grandi balle.

GabrySP
30-03-2007, 10:43
IMHO delle GDDR3 a 1.6 Ghz sono anche troppo :eek:

Ricordiamoci che il bus è a 512 bit e che la banda è equivalente a una scheda a 256 bit con memorie a 3.2 Ghz :sofico:
Oppure una GTS con memorie a 2.56 Ghz o una GTX con mem a 2.13 Ghz

A me non sembra poco, anche se ATI probabilmente userà memorie più veloci per sboroneggiare :sborone: e si terrà la cartuccia delle GDDR4 a 2 e passa Ghz per delle versioni future.

Tutto IMHO e scusate i probabili errori di conto ;)