PDA

View Full Version : [THREAD UFFICIALE] Aspettando R600 (solo news e rumor no chat)


Pagine : 1 [2] 3 4

DVD2005
09-02-2007, 17:53
godi eh :D

http://www.overclockers.com/articles1411/pic3.jpg

ci saranno degli adattatori per gli attuali ali oppure no? :mc:

runk
09-02-2007, 17:56
ci saranno degli adattatori per gli attuali ali oppure no? :mc:

ok,qualcuno vuole il mio liberty?! :D

risposta seria: :doh: :doh: :doh:

halduemilauno
09-02-2007, 17:59
ok,qualcuno vuole il mio liberty?! :D

risposta seria: :doh: :doh: :doh:

largamente insufficiente. + della metà se ne va per esse.
;)

runk
09-02-2007, 18:00
largamente insufficiente. + della metà se ne va per esse.
;)

lo so...appunto per questo ho messo i :doh:

appleroof
09-02-2007, 18:02
mamma mia quanto dovrebbe andare! in pratica se ho capito bene la xtx dovrebbe andare dal 30 al 40/100 + forte delle 8800gtx? quindi anche la xt dovrebbe andare di + delle 8800gtx.ma almeno speriamo che quando esce butti giù di brutto il prezzo della nvidia così chi s'è preso la 8800gtx compensa con lo sli altrimenti è na vaselina senza fine

bè, che una scheda top concorrente vada il 30/40% di più dopo 5 mesi dall'uscita dell'altra non sarebbe così sbalorditivo....sarebbe molto più sorprendente il contrario...

ci saranno degli adattatori per gli attuali ali oppure no? :mc:

secondo me questa storia dell'alimentazione è un mezzo fake, aspettiamo rumors di conferme/smentite (sicuramente qualcuno è già alla ricerca :sbonk: )

halduemilauno
09-02-2007, 18:03
lo so...appunto per questo ho messo i :doh:

se nvidia consigliava i 450 per la 8800gtx se tanto mi da(rà)tanto amd consiglierà i 600. cmq per carità aspettiamo riscontri.
;)

runk
09-02-2007, 18:06
se nvidia consigliava i 450 per la 8800gtx se tanto mi da(rà)tanto amd consiglierà i 600. cmq per carità aspettiamo riscontri.
;)

già,anche se cmq di questi tempi si tende a guardare di più l'amperaggio!
come dici tu, aspettiamo riscontri!

c'è un motivo se l'ho scritta in grassetto! ;)

appleroof
09-02-2007, 18:08
se nvidia consigliava i 450 per la 8800gtx se tanto mi da(rà)tanto amd consiglierà i 600. cmq per carità aspettiamo riscontri.
;)

quello che mi sembra strano non sono tanto le (presunte) richieste energetiche in sè, cmq davvero esagerate, ma la scelta di "costringere" agli 8 pin....

andando per ordine stando ai rumors uno finora dovrebbe cambiare case/mobo/ali per prendere R600 in versione top: non ci credo che alla ati siano così sprovveduti...

runk
09-02-2007, 18:13
quello che mi sembra strano non sono tanto le (presunte) richieste energetiche in sè, cmq davvero esagerate, ma la scelta di "costringere" agli 8 pin....

andando per ordine stando ai rumors uno finora dovrebbe cambiare case/mobo/ali per prendere R600 in versione top: non ci credo che alla ati siano così sprovveduti...

secondo me ridimensioneranno il progetto(non nelle prestazioni)(o si?!)favorendo i 2x6pin è una layout più corto!per i watt credo che saranno davvero quelli che si vociferano!

halduemilauno
09-02-2007, 18:14
quello che mi sembra strano non sono tanto le (presunte) richieste energetiche in sè, cmq davvero esagerate, ma la scelta di "costringere" agli 8 pin....

andando per ordine stando ai rumors uno finora dovrebbe cambiare case/mobo/ali per prendere R600 in versione top: non ci credo che alla ati siano così sprovveduti...

va be ma poi alla fine la versione che si comprerà nei negozzi avrà dimensioni umane allineate alle attuali top. il consumo si è esagerato ma credo anche fisiologico. non dimentichiamo le frequenze, l'architettura il giga di ram tutto l'insieme. in quanto agli 8 pin basterà credo mettere un'adattatore.
rispondendo anche all'altro utente difficile credere a un 30/40% in + nelle prestazioni rispetto alla 8800gtx.
ma per tutto non ci resta che attendere.
;)

appleroof
09-02-2007, 18:17
secondo me ridimensioneranno il progetto(non nelle prestazioni)(o si?!)favorendo i 2x6pin è una layout più corto!per i watt credo che saranno davvero quelli che si vociferano!

e poi leggi in giro i commenti catastrofico/apocalittici sui consumi di G80... :doh:

runk
09-02-2007, 18:23
e poi leggi in giro i commenti catastrofico/apocalittici sui consumi di G80... :doh:

:asd:

Andrea deluxe
09-02-2007, 18:59
http://www.overclockers.com/articles1411/pic3.jpg


Si ma tanto e' la versione OEM per pc ciofeche (dell XPS e Alienware)

La versione sugli scaffali sara' per forza 2x 6PIN!

l'unico alimentatore uscito con connettore ad 8PIN e' il nuovo enermax infiniti (scritto proprio cosi') da 720w e molti ampere sui 12v
http://www.pctuner.net/articoli/Alimentatori/504/Enermax_Infiniti_720W/

DVD2005
09-02-2007, 19:03
Si ma tanto e' la versione OEM per pc ciofeche (dell XPS e Alienware)

La versione sugli scaffali sara' per forza 2x 6PIN!

l'unico alimentatore uscito con connettore ad 8PIN e' il nuovo enermax infiniti (scritto proprio cosi') da 720w e molti ampere sui 12v
http://www.pctuner.net/articoli/Alimentatori/504/Enermax_Infiniti_720W/

questa frase mi preoccupa

Una novità da segnalare: Infiniti 720W è già predisposto ai futuri connettori PCI-e 6+2pin

appleroof
09-02-2007, 19:06
questa frase mi preoccupa

azz....

Kharonte85
09-02-2007, 19:18
arriva lo spammmmmmmmm :ciapet:
cut
:eekk: è davvero imponente!

e brutta forte... :fagiano:

Sono proprio curioso di vedere come sara' messo il dissipatore nella versione normale...

Defragg
09-02-2007, 19:24
:eekk: è davvero imponente!

e brutta forte... :fagiano:

Sono proprio curioso di vedere come sara' messo il dissipatore nella versione normale...
io mi aspetto un "robo" del genere ma più corto...cioè a filo con il pcb o poco più corto ;)

Skullcrusher
09-02-2007, 19:43
godi eh :D

In poche parole, se esce con quel sistema di alimentazione, mi tocca vendere il liberty e prendermi l'Infinity....
Se quella è la versione OEM, è possibile che poi nella versione Retail cambi qualcosa per quanto riguarda l'alimentazione, oppure tra OEM e retail cambia solo il dissipatore? Scusate la domanda niubba, ma francamente non ho mai approfondito il discorso legato al mercato OEM... :p

Defragg
09-02-2007, 19:45
In poche parole, se esce con quel sistema di alimentazione, mi tocca vendere il liberty e prendermi l'Infinity....
Se quella è la versione OEM, è possibile che poi nella versione Retail cambi qualcosa per quanto riguarda l'alimentazione, oppure tra OEM e retail cambia solo il dissipatore? Scusate la domanda niubba, ma francamente non ho mai approfondito il discorso legato al mercato OEM... :p
Infinity :nonsifa:
Infiniti :asd:
magari la OEM è anche più pompata :boh:

Skullcrusher
09-02-2007, 19:48
Infinity :nonsifa:
Infiniti :asd:
magari la OEM è anche più pompata :boh:

Ops :stordita:

E' appunto quello che mi interesserebbe sapere. Inoltre sono curioso di vedere che dissipatore avranno stavolta...spero vivamente che sia silenzioso.

Andrea deluxe
09-02-2007, 19:50
il connettore lo mettono solo sulle oem x far si che le case assemblatrici di pc pompati diffondano gli alimentatori nuovi!

MiKeLezZ
10-02-2007, 01:31
http://www.vr-zone.com/?i=4627


un immagine più chiara
http://resources.vr-zone.com//newspics/Feb07/09/R600XTX.jpggiusto in merito a questo volevo fare un commento:


ROTFL.



O in questa ATI sono riusciti a infornderci "L'ira DiDDio" o non vedo come possa esser un prodotto papabile.
Innanzitutto dovrei bucare il case. Letteralmente.
Secondariamente, che siano "solo" 225W, o 270W, sono comunque come l'intero mio PC, dotato di 7800GT.
Meno male che ci si lamentava dei 140W della 8800.

Lud von Pipper
10-02-2007, 01:44
Innanzitutto dovrei bucare il case. Letteralmente.

Questa scheda particolare non la vedrai mai sugli scaffali, quindi tranquillizzati pure.

Per il consumo, è ovviamente un lato negativo, ma 1gb di ram GDR4 a frequenze assurde ciuccia quanto la GPU da sola credo.

Magari se i programmatori imparassero ad ottimizzare un pò di più sarebbe meglio, ma oggi ho provato NWN2 con dettagli alti e AA4x a "soli" 1280x1024 su una 1950XT e ci sono situazioni dove arrivo spesso a 4fps (oblivion è sempre sopra i 25)...
E' questione di coperta corta: se vogliamo fare girare forte giochi programmati con i piedi come quelli che si vedono ultimamente nei negozi, non c'è altro da fare che stipulare un mutuo con l'enel :muro:
Con quello che si preannuncia anche una GTX singola è a malapena sufficiente :rolleyes:

MiKeLezZ
10-02-2007, 02:13
Per il consumo, è ovviamente un lato negativo, ma 1GB di ram GDR4 a frequenze assurde ciuccia quanto la GPU da sola credo.Le GDDR4 consumano in realtà il 20% in meno delle GDDR3 a pari frequenza :(

K4U52324QE (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/ds_k4u52324qe_rev10.pdf) GDDR4 512Mb 1.4GHz
1.8V * 0.6A * 16 = 17W
17W : 1.4GHz = x : 1.8GHz
x = 22W

:(

halduemilauno
10-02-2007, 08:39
non è r600 ma...
http://www.vr-zone.com/?i=4630
VR-Zone has gotten some concrete information on the process technology and memory interface of RV610 and RV630. Both will be based on 65nm process technology from TSMC. RV610, the low end version will only have 64-bit memory interface and we have told you earlier that there will be 2 variants at launch; RV610LE which is DDR2 based and RV610PRO which is DDR3 based. The RV610LE card has 4 layers and consumes 25W of power while RV610PRO has 6 layers and consumes 35W of power. RV630, the mainstream version will have 128-bit memory interface and comes in 3 variants; DDR4, DDR3 and DDR2. The power consumption stood at 128W, 93W and 75W respectively. There will be samples in March and expected launch in April.


;)

zorco
10-02-2007, 08:54
Questa scheda particolare non la vedrai mai sugli scaffali, quindi tranquillizzati pure.

Per il consumo, è ovviamente un lato negativo, ma 1gb di ram GDR4 a frequenze assurde ciuccia quanto la GPU da sola credo.

Magari se i programmatori imparassero ad ottimizzare un pò di più sarebbe meglio, ma oggi ho provato NWN2 con dettagli alti e AA4x a "soli" 1280x1024 su una 1950XT e ci sono situazioni dove arrivo spesso a 4fps (oblivion è sempre sopra i 25)...
E' questione di coperta corta: se vogliamo fare girare forte giochi programmati con i piedi come quelli che si vedono ultimamente nei negozi, non c'è altro da fare che stipulare un mutuo con l'enel :muro:
Con quello che si preannuncia anche una GTX singola è a malapena sufficiente :rolleyes:
quando ci renderemo conto che ci stanno prendono in giro sarà troppo tardi...

Window Vista
10-02-2007, 09:05
AMD progetta un mostro di GPGPU

ABBIAMO VISTO molti documenti interessanti relativi alla R600 e uno dei prototipi di questa scheda. Siamo rimasti affascinati dal livello di flessibilità che ATI offrirà al mondo e ai suoi partner quando questa tecnologia finalmente raggiungerà il mercato.

È non ci stiamo riferendo banalmente al numero di 3Dmark ottenuti, ma piuttosto alla gamma di prodotti professionali.

Mentre Nvidia sta preparando la G80GL, una versione Quadro della G80, con pochi cambiamenti rispetto alla versione normale a parte un clock un po' più basso e una quantità maggiore di memoria video (la maggiore preoccupazione sono i driver, specialmente per la necessaria ottimizzazione a 64 bit), la microarchitettura della R600 e il progetto del PCB sono così flessibili che nei prossimi sei mesi saremo letteralmente inondati di varianti basate su processori R600, R610 e R630.

Abbiamo già comunicato tutte le informazioni in nostro possesso relative a questi prodotti, ma per la prima volta possiamo parlare della gamma professionale. E si tratta della soluzione più potente di tutte.

ATI sta preparando qualcosa di veramente speciale. Parliamo di una GPGPU, una scheda FireStream/Stream Processor con non meno di 4 (!) Gbyte di memoria video a bordo.

La principale difficoltà che ci viene in mente per la realizzazione di una simile scheda è la probabile necessità di usare moduli di memoria GDDR-2/3/4 da 1024 Mbit, che non vengono prodotti né da Samsung né da Qimonda. Malgrado ciò i documenti che parlano del progetto menzionano con precisione la presenza di 4 GB di memoria. Se non potranno costruirla ripiegheranno su una versione con "solo" 2 GB, ma le nostre fonti dicono che la scheda si farà.

Il progetto della scheda con un massimo di 4 GB non è una GPU montata su una scheda madre con form factor ATX e chiamata "scheda grafica", si tratta invece di una variante delle attuali soluzioni di fascia alta da 12 pollici.

La scheda avrà a disposizione soltanto un connettore DVI, ma non è un prodotto pensato per la gestione di monitor multipli, piuttosto verrà usata in ambienti dove l'uso del monitor è irrilevante. Sarà interessante vedere queste schede in box External CrossFire impilate in un array di GPU capace di esprimere una potenza di calcolo mai raggiunta.

Non abbiamo ancora parlato del vero scopo delle GPGPU? Annientare l'importanza della CPU e i margini dei processori da server, che non possono competere in termini di pura potenza di calcolo con R600 o G80. Naturalmente il confronto è valido solo per scenari di calcolo favorevoli all'uso di GPGPU, come immense quantità di calcoli semplificati.

Gli ingegneri di PeakStrem e della Università di Stanford stanno già facendo sogni erotici sulle possibilità offerte da una singola GPU, figuriamoci cosa potrebbero fare con un sistema multiplo.

Ci chiediamo chi sarà la prima azienda a usare questo genere di schede per gli algoritmi di ricerca: Microsoft Live o Google/YouTube?

LINK:http://it.theinquirer.net/2007/02/amd_progetta_un_mostro_di_gpgp.html

gianni1879
10-02-2007, 10:06
POSSIAMO FINALMENTE divulgare i dettagli della terza tra le quattro versioni consumer che ATI sta preparando per la R600. Una è con DDR3, la più lunga ha invece DDR4, mentre la terza è conosciuta come Uber edition.

Sarà la più veloce scheda basata su R600, almeno nella prima ondata di prodotti che raggiungeranno gli scaffali. Il suo segreto è un sistema di raffreddamento ad acqua. Siamo venuti a conoscenza che due società sono in competizione per produrre il sistema di dissipazione. Una è Aavid, di cui abbiamo visto le soluzioni su molte schede grafiche, mentre la seconda è la danese Asetek.

Abbiamo sentito che il sistema di raffreddamento ad acqua dispone di pompe idrauliche e di un serbatoio sul radiatore. Così la scheda apparirà simile alle altre, solo con un radiatore più grande, aiutato da una ventola, e un serbatoio.

Quindi non dovrebbero esserci troppi cavi e tubicini che vanno e vengono dalla scheda. Sarà probabilmente la scheda più veloce in circolazione ma per essere sicuri dovremo aspettare ancora un po'.

Quanto alla quarta versione, si tratta della GPGPU
http://it.theinquirer.net/2007/02/confermata_lr600_uber_con_raff.html

quicksilver
10-02-2007, 10:10
http://www.tomshw.it/news.php?newsid=9010

follia pura, senza ulteriori commenti

appleroof
10-02-2007, 10:18
http://it.theinquirer.net/2007/02/confermata_lr600_uber_con_raff.html

presto dovremo comprare un secondo case per la scheda video... :rolleyes:

scherzo ma nemmeno troppo:negli ultimi giorni accanto a queste notizie sono uscite quelle sulle connessioni pciexpress via cavo, la scheda video esterna di asus....

gianni1879
10-02-2007, 10:19
http://www.tomshw.it/news.php?newsid=9010

follia pura, senza ulteriori commenti
dove starebbe sta follia?

halduemilauno
10-02-2007, 10:20
dove starebbe sta follia?

i 240/270watt. e aggiungo i 128 della media.

gianni1879
10-02-2007, 10:31
i dati sui consumi finchè non si vedono prove sul campo non hanno senso! Vedremo

GabrySP
10-02-2007, 11:05
Riguardando bene la foto, trovo impossibile che quel "dissipatorino" di rame con 4 heat-pipe possa gestire oltre 200W, anche se quella ventolazza girasse a "velocità smodata" (balle spaziali rulez :cool: )

O la foto è un fake (e non lo sembra), o i consumi reali sono decisamente inferiori (max 150W)

Tutto IMHO

Soulbringer
10-02-2007, 11:38
Secondo me la versione retail finale sarà molto diversa da quel dinosauro lì..magari i consumi saranno lo stesso molto elevati (personalmente credo più di 200W) ma non sarà così lunga e SOPRATTUTTO così brutta! :D

jp77
10-02-2007, 11:41
Secondo me la versione retail finale sarà molto diversa da quel dinosauro lì..magari i consumi saranno lo stesso molto elevati (personalmente credo più di 200W) ma non sarà così lunga e SOPRATTUTTO così brutta! :D

vari rumors affermano che la versione destinata al "pubblico" sarà di dimensioni "umane"...purtroppo temo anchio che i consumi e il calore prodotto saranno da record....NEGATIVO...ovviamente :muro:

MiKeLezZ
10-02-2007, 11:49
Riguardando bene la foto, trovo impossibile che quel "dissipatorino" di rame con 4 heat-pipe possa gestire oltre 200W, anche se quella ventolazza girasse a "velocità smodata" (balle spaziali rulez :cool: )

O la foto è un fake (e non lo sembra), o i consumi reali sono decisamente inferiori (max 150W)

Tutto IMHO
Non so se hai notato i 31cm di scheda

Quel "dissipatorino" come lo chiami te è lungo 21cm

Prendi un righello e guarda quanti sono 21cm

Quello della mia serie 7 nvidia è 7cm

21cm/7cm=3

80W*3=240W

Simon82
10-02-2007, 11:57
arriva lo spammmmmmmmm :ciapet:

http://www.overclockers.com/articles1411/pic5.jpg

http://www.overclockers.com/articles1411/pic4.jpg

http://www.overclockers.com/articles1411/pic1.jpg


Ed ecco i connettori 6 + 8 :cool:
Beh dai... tolto quel mostro di ventolone per le soluzione OEM, la scheda non e' eccessivamente lunga. E' quel dissipatore gigantesco che mi preoccua perche' porta via una fucilata di spazio.

GabrySP
10-02-2007, 12:07
Non so se hai notato i 31cm di scheda

Quel "dissipatorino" come lo chiami te è lungo 21cm

Prendi un righello e guarda quanti sono 21cm

Quello della mia serie 7 nvidia è 7cm

21cm/7cm=3

80W*3=240W

Ho messo le virgolette apposta :) Dissi-rocco

Comunque l'aria che ci passa dentro è la stessa sia che sia lungo 5 cm che lungo un metro.

Non so se la mia è solo una vana speranza od altro, ma il fatto che quel coso possa dissipare un wattaggio pari a quello di 3 o 4 C2D in full mi lascia perplesso.

Un ottimo dissi per gpu come l' HR-03 plus (fatto per le 8800, e quindi circa 145W) è mooooooolto più grosso di quello dell' R600 oem e ha pure 6 heat-pipe.

quicksilver
10-02-2007, 12:09
i 240/270watt. e aggiungo i 128 della media.

esatto

lele980
10-02-2007, 14:49
la soluzione per il mercato retail è di 24cm quindi senza la ventola finale!!

l'ideale sarebbe montare un water block cosi si recupera parecchio spazio e la scheda video acquista dimensioni piu "umane"

DarKilleR
10-02-2007, 14:52
ragazzi guardate che Dell montava fino ad oggi PC con soluzioni professionali di 7900 lunghe proprio in quel modo...la staffa di la a mo' di valigetta...poggia sul supporto anteriore del case...

E' proprio a livello di standard che deve essere fatta in quel modo...poi la versione retali, speriamo sia molto meglio ^^ :P

lele980
10-02-2007, 15:03
a me ricorda molto le 3dfx quad-sli :)

The_SaN
10-02-2007, 15:26
ragazzi guardate che Dell montava fino ad oggi PC con soluzioni professionali di 7900 lunghe proprio in quel modo...la staffa di la a mo' di valigetta...poggia sul supporto anteriore del case...

E' proprio a livello di standard che deve essere fatta in quel modo...poi la versione retali, speriamo sia molto meglio ^^ :P
Esatto, giá mi immagino il corriere a trasportare un pc con la scheda che pesa quasi 1kg senza essere fissata dall' altra parte. :asd:

xxxyyy
10-02-2007, 15:27
Ma quando scade ufficialmente l'NDA?

T3d
10-02-2007, 15:50
per me sarà un altro caso r300 :cool: con dei consumi un pelino più elevati :asd:

Lud von Pipper
10-02-2007, 17:11
entrambi i chip siano stati progettati a 65 nanometri con due varianti per RV610: RV610LE (DDR2) e RV610PRO (GDDR3). Pe entrambi un bus di 64 bit e un consumo rispettivamente di 25 e 35 watt.

RV630 avrà un bus a 128 bit e si presenterà in tre varianti che faranno uso delle memorie GDDR4, GDDR3 e DDR2. Il consumo sarà rispettivamente di 128W, 93W e 75W. Il loro arrivo è previsto ad aprile.

Speriamo siano solo voci non confermate, ma...

...mi domando se sia ancora possibile ragionare con schede a 64 e 128 bit quando la versione top è a 512... :muro:
Ma gli tirava tanto il fondoschiena portare finalmente le due categorie inferiori a 128 e 256bit rispetivamente?
Stesso maledeto discorso anche per nVidia: ormai questi credono che basti il nome 8X00 o X2X00 per creare schede di nuova generazione :mc:

Gia pare che i giochi di ultima generazione saranno in affanno su piattaforme da 600+€, quindi che ci faremo tra un anno con le fascie medie e basse: il solitario di Windows?!? :doh:

(e poi si lamentano che il mercato videogame per PC sta scomparendo a vantaggio delle consolle :muro: )

Defragg
10-02-2007, 17:33
http://www.pctuner.net/news/4887/Nvidia_GeForce_8900/
nVidia ha paura ;)

GabrySP
10-02-2007, 17:42
http://www.pctuner.net/news/4887/Nvidia_GeForce_8900/
nVidia ha paura ;)

Ci risiamo

:doh:

"...nVidia avrebbe però in cantiere una versione speciale dei suoi driver, che consentirebbe un tweak molto avanzato, portando un ulteriore miglioramento nelle prestazioni complessive della scheda."

Se è vero c'è da tenersi :D , una volta tanto che nVidia aveva tirato fuori una scheda con una qualità dei filtri eccellente, mi sa che ricascherà nell'errore fatto con le serie 6-7 : peggiorare la qualità c'immagine per avere qualche punto in più nel 3dmerd :muro: :muro:

La cosa positiva è che forse R600 andrà davvero forte (visti i consumi spero in almeno un +40%).

Lud von Pipper
10-02-2007, 18:38
http://www.pctuner.net/news/4887/Nvidia_GeForce_8900/
nVidia ha paura ;)

Il punto non è che cosa farà nVidia con le GTX (che sono attualmente abbastanza decenti), ma che cosa farà con le GTS, che, al momento vanno gia in crisi quando "il gioco si fa duro", finendo non di rado sotto schede DX9 (1950XTX).
Così come è questa scheda è troppo castrata per quello che costa, e sopra i 1280x1024, con filtri sparati soffre parecchio i limiti del PCB.

Le notizie dal fornte ATI/AMD non è che siano tanto meglio però :doh:

Athlon 64 3000+
10-02-2007, 18:42
Il punto non è che cosa farà nVidia con le GTX (che sono attualmente abbastanza decenti), ma che cosa farà con le GTS, che, al momento vanno gia in crisi quando "il gioco si fa duro", finendo non di rado sotto schede DX9 (1950XTX).
Così come è questa scheda è troppo castrata per quello che costa, e sopra i 1280x1024, con filtri sparati soffre parecchio i limiti del PCB.

Le notizie dal fornte ATI/AMD non è che siano tanto meglio però :doh:

Si la 8800GTS magari sara troppo castrata rispetto alla 8800GTX ma mettersi il problema che non farò girare i giochi non si deve porre perchè se va male con una 8800GTS penso che sia una mancanza di ottimizzazione dei giochi e quindi una eccessiva pesantezza ingiustificata e l'unica cosa da fare con questo tipo di giochi è lasciarli sullo scaffale per capire a programmatori e ai distributori che non ci stiamo più a farci prendere per i fondelli in questo modo.
Esempio:NWN2 va male persino con una 8800GTX con tutto al massimo perchè
è il gioco che è fatto da cani.

Mister Tarpone
10-02-2007, 18:47
Il punto non è che cosa farà nVidia con le GTX (che sono attualmente abbastanza decenti), ma che cosa farà con le GTS, che, al momento vanno gia in crisi quando "il gioco si fa duro", finendo non di rado sotto schede DX9 (1950XTX).
Così come è questa scheda è troppo castrata per quello che costa, e sopra i 1280x1024, con filtri sparati soffre parecchio i limiti del PCB.

Le notizie dal fornte ATI/AMD non è che siano tanto meglio però :doh:



Ma quando mai??? :confused:

MiKeLezZ
10-02-2007, 20:57
Se è vero c'è da tenersi :D , una volta tanto che nVidia aveva tirato fuori una scheda con una qualità dei filtri eccellente, mi sa che ricascherà nell'errore fatto con le serie 6-7 : peggiorare la qualità c'immagine per avere qualche punto in più nel 3dmerd :muro: :muro:

La cosa positiva è che forse R600 andrà davvero forte (visti i consumi spero in almeno un +40%).Non credo, visto che anisotropico 16X e AA2X sono praticamente gratis...
In ogni caso della nuova versione di 8800 si sapeva da tempo, e se non è fra un mese, sarà fra due.. Infatti sarà quella con cui dovrà scontrarsi il nuovo R600.
Quando uno è avanti con il progetto ha anche più spazi di manovra per ritoccare (vedi i driver.. non è che i prossimi avranno boost prestazionali.. è che gli attuali fanno semplicemente pena, i prossimi saranno decenti).

Andrea deluxe
11-02-2007, 01:19
Spero che sta bestia non abbia problemi con la mia A8N SLI se con chipset nFORCE 4 SLI :sperem:

Window Vista
11-02-2007, 01:55
AMD progetta un mostro di GPGPU

ABBIAMO VISTO molti documenti interessanti relativi alla R600 e uno dei prototipi di questa scheda. Siamo rimasti affascinati dal livello di flessibilità che ATI offrirà al mondo e ai suoi partner quando questa tecnologia finalmente raggiungerà il mercato.

È non ci stiamo riferendo banalmente al numero di 3Dmark ottenuti, ma piuttosto alla gamma di prodotti professionali.

Mentre Nvidia sta preparando la G80GL, una versione Quadro della G80, con pochi cambiamenti rispetto alla versione normale a parte un clock un po' più basso e una quantità maggiore di memoria video (la maggiore preoccupazione sono i driver, specialmente per la necessaria ottimizzazione a 64 bit), la microarchitettura della R600 e il progetto del PCB sono così flessibili che nei prossimi sei mesi saremo letteralmente inondati di varianti basate su processori R600, R610 e R630.

Abbiamo già comunicato tutte le informazioni in nostro possesso relative a questi prodotti, ma per la prima volta possiamo parlare della gamma professionale. E si tratta della soluzione più potente di tutte.

ATI sta preparando qualcosa di veramente speciale. Parliamo di una GPGPU, una scheda FireStream/Stream Processor con non meno di 4 (!) Gbyte di memoria video a bordo.

La principale difficoltà che ci viene in mente per la realizzazione di una simile scheda è la probabile necessità di usare moduli di memoria GDDR-2/3/4 da 1024 Mbit, che non vengono prodotti né da Samsung né da Qimonda. Malgrado ciò i documenti che parlano del progetto menzionano con precisione la presenza di 4 GB di memoria. Se non potranno costruirla ripiegheranno su una versione con "solo" 2 GB, ma le nostre fonti dicono che la scheda si farà.
Il progetto della scheda con un massimo di 4 GB non è una GPU montata su una scheda madre con form factor ATX e chiamata "scheda grafica", si tratta invece di una variante delle attuali soluzioni di fascia alta da 12 pollici.
La scheda avrà a disposizione soltanto un connettore DVI, ma non è un prodotto pensato per la gestione di monitor multipli, piuttosto verrà usata in ambienti dove l'uso del monitor è irrilevante. Sarà interessante vedere queste schede in box External CrossFire impilate in un array di GPU capace di esprimere una potenza di calcolo mai raggiunta.

Non abbiamo ancora parlato del vero scopo delle GPGPU? Annientare l'importanza della CPU e i margini dei processori da server, che non possono competere in termini di pura potenza di calcolo con R600 o G80. Naturalmente il confronto è valido solo per scenari di calcolo favorevoli all'uso di GPGPU, come immense quantità di calcoli semplificati.

Gli ingegneri di PeakStrem e della Università di Stanford stanno già facendo sogni erotici sulle possibilità offerte da una singola GPU, figuriamoci cosa potrebbero fare con un sistema multiplo.

Ci chiediamo chi sarà la prima azienda a usare questo genere di schede per gli algoritmi di ricerca: Microsoft Live o Google/YouTube?

LINK:[url]http://it.theinquirer.net/2007/02/amd_progetta_un_mostro_di_gpgp.html[/

nickdc
11-02-2007, 12:15
Ho visto ora l'articolo di tom's hs...ma che roba è? :eekk:

Catan
11-02-2007, 13:01
urggg passavo di qui e faccio tutti i miei interventi in un post solo.

r600 non c'è niente da dire tocca solo aspettare certo l'imponenza della versione eom mi ricorda le mitiche 3dfx voodoo5 6000 :D

riguardo nvidia gia mi sono pronunciato sul suo progetto g80,bello e potente ma come al solito ingenerizzato a cavolo,aspettare 1 mese in + e fare subito la versione a 80nm con il tmds dentro no?
Spero che con il refresh semestrale non ricadano in questi errori di stile.

riguardo la diatriba bus a 64bit,128bit e 512bit personalmente ricordatevi che non sono tutti appassionati come noi quindi ci sarà sempre il mercato della vga da 50E e visto che il chip grafica di nuova generazione cmq costerà per le semplici spese di ricerca in quei 50e devi per forza rientarci.
allora quale è il modo migliore se non spendere poco sulla circuiteria quindi bus bassi a 64 o 128bit.
daltro canto è molto + economico comprare dai produttori di ram grandi quantità di gddr3 o 2 che oramai costano molto poco e sopperire ad un bus a 128bit con le gddr3 a frequenze di 1600mhz.
semplicemte è una questione di conti costa meno comprare uno stock da samsung di tante gddr3 o gddr4 che salgono molto che non comprarne stock di ddr2 che vanno di meno ma non prodotte in quantità come le gddr3 e sopperire con la progettazione e le realizzazione del bus a 256bit
(nsomma è molto + facile che samsung ti faccia il prezzone sulle gddr3 che ormai sono la loro produzione primaria e non vogliono rimanenze in magazzini)

Riguardo alla qualità di immagine
io sono passato da una geforce2 a una 8500 di qui a una 9700 ad una 5900 e poi tornato a una 9800,passato a una 6800 ritornato a una x800 e poi sli con 2 6800ultra per ritornare a una 850.
poi solo x1800 e x1900.

Personalmente mi allineo a quello detto sopra ati sopratutto con l'aa attivato ha una migliore gestione dei colori che sfumano meglio mentre nvidia aveva un aa decisamente + rozzo anche se personalmente bisognava fermarsi nel gioco mettersi ad angolazioni particolari e vederlo.
ora non so voi ma chi è cosi malato che ad una partitona a ut2004 o bf2142 o anche a wow si ferma per vedere le differenze di colore?
posso assicurarvi che l'unica volta che me ne sono reso conto nel game è stato in vampire-bloodlines.
personalmete giocato con lo sli di 6800ultra e poi ripreso con la x850xt si notava decisamente una migliore qualità delle immagini.

Defragg
11-02-2007, 14:53
r600 non c'è niente da dire tocca solo aspettare certo l'imponenza della versione eom mi ricorda le mitiche 3dfx voodoo5 6000 :D
vero :asd:

Lud von Pipper
11-02-2007, 16:04
riguardo la diatriba bus a 64bit,128bit e 512bit personalmente ricordatevi che non sono tutti appassionati come noi quindi ci sarà sempre il mercato della vga da 50E e visto che il chip grafica di nuova generazione cmq costerà per le semplici spese di ricerca in quei 50e devi per forza rientarci.
allora quale è il modo migliore se non spendere poco sulla circuiteria quindi bus bassi a 64 o 128bit.

Nulla da dire, non fosse che c'è una voragine tra i 512bit di una R600 e i 128 di una R630, senza nulla nel mezzo.
Inoltre corriamo il rischio di vedere ancora schede a 128bit (quando va bene) vendute sopra i 200€, non certo a 50€, perchè le fasce di mercato le fanno i comerciali, non certo i tecnici.

Confermo in pieno quanto detto sopra: i giochi recenti seplicemente NON sono ottimizzati (cioè neppure cui provano più), al punto che, visto R6Vegas e NWN2 mi sto ricredendo alla grande sulle qualità di Oblivion (costruito anch'esso su Unreal engine III).
Se penso a programmi come Flight Simulatro X, capisco le difficoltà di mantenere un valore di FPS adeguato, perchè i km di terreno rederizzato e la complessità delle nuvole comportano calcoli pesanti, ma diavolo, R6Vegas si svolge all'interno di vicoli strettissimi, dove il numero di poligoni è risibile, quindi vorrei sapere dove finiscono tutti quei cicli di calcolo di CPU/GPU. :muro:
Perchè Oblivion con ambienti nettamente più amipi gira sei volte più veloce?
Quando giochi come questi girano sui 4FPS con schede di fascia abbastanza alta (non di prezzo, ma di caratteristiche) tipo una 1950XT, come pensate che siano giocabili su una scheda con bus a 128bit, cioè la gran massa dell'installato da qui a un anno?
E' pensabile investire 600€ ogni anno per tentare di rimanere aggrappati al software, invece che pensadoli come un investimento a lungo termine?
Saremo a costretti ad accontentarci di squalidi porting da consolle invece che vedere sfruttate le potenzialità enormemente superiori di un vero computer?
Non credo sia pensabile che il videogiocatore medio sia disposto a investire così tanto per hardware di durata effimera, quindi la massa critica di giocatori che rende economicamente fattibile lo sviluppo di giochi dedicati per PC è destinata a svanire.
Fate un salto sui siti destinati ai videogiochi e fate una statisitca dei giochi recensiti: il 90% è su consolle e del restante 10% neanche una quinto è stato sviluppato nativamente per PC.
Come possiamo pretendere che un gioco per XboX o per PS3 possa essere adeguatamente ottimizzato per girare su un PC?
E' sufficiente che "giri" in qualche modo e viene spedito rapidamente sugli scaffali per tappare il buco. :muro:
O si mettono a fare schede di fascia media all'altezza o possiamo anche chiudere baracca, perchè il numero di GTX e XTX non sarà mai tale da giustificare la produzione di nuovi giochi PC oriented.

Non prendiamoci in giro: rispetto ad una GTX una 8800GTS oggi è quello che una 6600GT fuall'epoca della 6800ultra, non certo l'equivalente di una 6800GTS (di cui vorrebbe richiamare il nome): una eventuale 8600 sarà solo una scheda di fascia bassa, con cui sarà a malapena possibile giocare i giochi del 2006 a dettagli pieni, senza contare che, con la gran parte delle consolle di ultima generazione bloccate alle DX9 equivalenti, e con 5/6 anni di vita davanti, rischiamo di non vederli proprio i giochi DX10 (escludendo quei due o tre in lavorazione).
Carmack non ne produrrà, Valve neppure, UTIII sarà in DX9, così come tutti i porting da consolle: per quanto si dovrà giocare a Crysis perima di vedere qualcos'altro?

Per eretico che possa sembrare alle mie stesse orecchi, se vi accontentate degli FPS, meglio puntare su una consolle.

josefor
11-02-2007, 16:05
Riguardo alla qualità di immagine
io sono passato da una geforce2 a una 8500 di qui a una 9700 ad una 5900 e poi tornato a una 9800,passato a una 6800 ritornato a una x800 e poi sli con 2 6800ultra per ritornare a una 850.
poi solo x1800 e x1900.



Ti manca la 1900 xt e la 1950xtx, non vorrai mica prendere una r600 saltando sta due shede, no vero......lol.

Catan
11-02-2007, 21:21
Ti manca la 1900 xt e la 1950xtx, non vorrai mica prendere una r600 saltando sta due shede, no vero......lol.

veramente se leggi la firma ho la x1900xt la ho avuta quindi r580 me lo sono fatto...adesso ho un crossfire con 2 x1950pro quindi mi sono fatto anche r570 e gli 80nm di ati per non contare il crossfire.
cmq giudizo su crossfire e sli,danno + problemi che soddisfazioni anche se il cf in maniera minore di sli ;)

overjet
12-02-2007, 09:25
IMMAGINI R600

http://www.hwupgrade.it/news/skvideo/nuove-immagini-per-le-schede-r600_20100.html

Simon82
12-02-2007, 10:03
Ancora nessuna in versione non OEM? :muro:

Skullcrusher
12-02-2007, 10:46
Ancora nessuna in versione non OEM? :muro:

Mi sa che è ancora presto....

gianni1879
12-02-2007, 10:46
IMMAGINI R600

http://www.hwupgrade.it/news/skvideo/nuove-immagini-per-le-schede-r600_20100.html
erano già state messe pagine fa ;)


notizia vecchia :D

Free Gordon
12-02-2007, 12:18
In poche parole, se esce con quel sistema di alimentazione, mi tocca vendere il liberty e prendermi l'Infinity....


Penso che usciranno degli adattatori, no?

Free Gordon
12-02-2007, 12:21
Le GDDR4 consumano in realtà il 20% in meno delle GDDR3 a pari frequenza :(
K4U52324QE (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/ds_k4u52324qe_rev10.pdf) GDDR4 512Mb 1.4GHz
1.8V * 0.6A * 16 = 17W
17W : 1.4GHz = x : 1.8GHz
x = 22W
:(

Ma così presupponi che le ram a 1.4ghz abbiano lo stesso voltaggio delle rama 1.8?

MiKeLezZ
12-02-2007, 12:30
Ma così presupponi che le ram a 1.4ghz abbiano lo stesso voltaggio delle rama 1.8?No, infatti con l'ultimo passaggio ho attualizzato sia gli ampere che la tensione al fatto che la frequenza operativa sia 1.8 invece che 1.4, con una funzione lineare

Skullcrusher
12-02-2007, 12:35
Penso che usciranno degli adattatori, no?

Lo spero :p

In ogni caso, tutto dipende da quanto esige R600, realmente, per l'alimentazione.

Vifani
12-02-2007, 12:55
Non prendiamoci in giro: rispetto ad una GTX una 8800GTS oggi è quello che una 6600GT fuall'epoca della 6800ultra, non certo l'equivalente di una 6800GTS (di cui vorrebbe richiamare il nome): una eventuale 8600 sarà solo una scheda di fascia bassa, con cui sarà a malapena possibile giocare i giochi del 2006 a dettagli pieni, senza contare che, con la gran parte delle consolle di ultima generazione bloccate alle DX9 equivalenti, e con 5/6 anni di vita davanti, rischiamo di non vederli proprio i giochi DX10 (escludendo quei due o tre in lavorazione).
Carmack non ne produrrà, Valve neppure, UTIII sarà in DX9, così come tutti i porting da consolle: per quanto si dovrà giocare a Crysis perima di vedere qualcos'altro?

Per eretico che possa sembrare alle mie stesse orecchi, se vi accontentate degli FPS, meglio puntare su una consolle.

Il tuo discorso è un po troppo pessimistico. Non sta scritto da nessuna parte che una scheda video di fascia media sia poco longeva. La longevità dipende solo ed esclusivamente da quanto una persona sia disposta con l'avanzare del tempo a ridurre risoluzione, effetti e dettagli grafici. Stai pur tranquillo che anche i giochi più pesanti riducendo tali dettagli arrivano ad essere ben più che giocabili.

La realtà ragazzi miei, la vera differenza tra un gioco console ed un gioco PC è che nel primo non c'è la schermata dove si definiscono i dettagli grafici. Questo porta gli utenti PC a voler sempre sparare tutto a palla e a sentirsi insoddisfatti se il gioco inizia a scattare. Questo a sua volta porta poi a spendere cifre elevate.

Il discorso "io compro una scheda video da 600 euro e voglio giocare tutto a palla per due anni" non esiste e non esisterà mai, ma neanche per un anno. Bisogna innanzitutto autocontrollare il proprio desiderio di avere sempre e comunque il massimo. Se si riesce a fare questo si gioca senza problemi anche con schede video più economiche.

Relativamente al discorso dell'ottimizzazione, è verissimo che questa spesso lasci a desiderare, ma al riguardo bisogna essere ottimisti. L'introduzione delle DirectX 10 porterà un sostanziale allineamento nella produzione dei videogames per X-Box 360 e per PC (la console di Microsoft anche se non è basata su DX10, è comunque più evoluta di una DX9 e l'ambiente di sviluppo è pressocché identico). Tra l'altro le DirectX 10 introducono un aspetto molto importante: la rigidità delle funzionalità previste. Niente più effetti e capacità specifiche per una scheda video e differenti per un'altra: se si è DirectX 10 si hanno un tot di funzionalità tutte ugualmente utilizzabili sull'hardware DX10 compliant.

State pur certi che i giochi DX10 salteranno fuori e numerosi anche. Se non altro perché a Microsoft interessa diffondere Windows Vista.

Free Gordon
12-02-2007, 12:59
No, infatti con l'ultimo passaggio ho attualizzato sia gli ampere che la tensione al fatto che la frequenza operativa sia 1.8 invece che 1.4, con una funzione lineare


Cos'è quel 16 che hai messo in mezzo?

Free Gordon
12-02-2007, 13:03
Tra l'altro le DirectX 10 introducono un aspetto molto importante: la rigidità delle funzionalità previste. Niente più effetti e capacità specifiche per una scheda video e differenti per un'altra: se si è DirectX 10 si hanno un tot di funzionalità tutte ugualmente utilizzabili sull'hardware DX10 compliant.

Interessante.
Per cui non ci sarà più il bailamme che c'è ora nelle specifiche degli hw dx9?



State pur certi che i giochi DX10 salteranno fuori e numerosi anche. Se non altro perché a Microsoft interessa diffondere Windows Vista.

Il primo che mi viene in mente è Alan Wake dei Remedy. :D (dato che Crysis è DX9 con supporto alle 10).

MiKeLezZ
12-02-2007, 13:05
Cos'è quel 16 che hai messo in mezzo?
è un valore di comodo per fregarti....................

è la quantità di chip da 512Mb che servono per avere 1GB

Free Gordon
12-02-2007, 13:34
è un valore di comodo per fregarti....................

è la quantità di chip da 512Mb che servono per avere 1GB


:D

Non ho capito quel che hai scritto prima.
Hai trovato i watt moltiplicando i volt per gli ampère (x il numero di chip? :mbe: ).
Poi hai fatto una semplice proporzione.

Ma a 1.8ghz, le ram non sono settate allo stesso voltaggio di 1.4ghz.

Quello che non capisco è quello.

Simon82
12-02-2007, 14:02
Il tuo discorso è un po troppo pessimistico. Non sta scritto da nessuna parte che una scheda video di fascia media sia poco longeva. La longevità dipende solo ed esclusivamente da quanto una persona sia disposta con l'avanzare del tempo a ridurre risoluzione, effetti e dettagli grafici. Stai pur tranquillo che anche i giochi più pesanti riducendo tali dettagli arrivano ad essere ben più che giocabili.

La realtà ragazzi miei, la vera differenza tra un gioco console ed un gioco PC è che nel primo non c'è la schermata dove si definiscono i dettagli grafici. Questo porta gli utenti PC a voler sempre sparare tutto a palla e a sentirsi insoddisfatti se il gioco inizia a scattare. Questo a sua volta porta poi a spendere cifre elevate.

Il discorso "io compro una scheda video da 600 euro e voglio giocare tutto a palla per due anni" non esiste e non esisterà mai, ma neanche per un anno. Bisogna innanzitutto autocontrollare il proprio desiderio di avere sempre e comunque il massimo. Se si riesce a fare questo si gioca senza problemi anche con schede video più economiche.

Relativamente al discorso dell'ottimizzazione, è verissimo che questa spesso lasci a desiderare, ma al riguardo bisogna essere ottimisti. L'introduzione delle DirectX 10 porterà un sostanziale allineamento nella produzione dei videogames per X-Box 360 e per PC (la console di Microsoft anche se non è basata su DX10, è comunque più evoluta di una DX9 e l'ambiente di sviluppo è pressocché identico). Tra l'altro le DirectX 10 introducono un aspetto molto importante: la rigidità delle funzionalità previste. Niente più effetti e capacità specifiche per una scheda video e differenti per un'altra: se si è DirectX 10 si hanno un tot di funzionalità tutte ugualmente utilizzabili sull'hardware DX10 compliant.

State pur certi che i giochi DX10 salteranno fuori e numerosi anche. Se non altro perché a Microsoft interessa diffondere Windows Vista.

Circa il discorso dei dettagli concordo. Se uno e' pronto a lasciar perdere nel prossimo futuro quelle migliorie grafiche che costano suon di euri sul portafoglio e talvolta non regalano poi chissa' quale esperienza visiva (es. tutte le opzioni relative al soft shadowing ma anche i canonici AF e AA spinti) imho si puo' tranquillamente risparmiare. Certo in passato ci sono state situazioni che ci hanno spinto ad aggiornare anche quando non ce n'era bisogno oppure a farlo proprio perche' il mercato andava avanti piu' velocemente che in altri casi. La Radeon 9700 sicuramente' e' stata una di quelle schede che piu' di tutte ha permesso agli utenti di risparmiare (me compreso) per un casino di tempo sull'upgrade del comparto video.
Stessa cosa andando indietro per secoli alla prima Voodoo Graphics che ancora permettevano di giocare (ok a basse risoluzioni ovviamente) fino a perle come Unreal Tournament quando gia' c'erano schede del calibro di Voodoo3 e GeForce (non scherzo provare per credere).

Circa il discorso della rigidita' delle nuove api, questa inflessibilita' nella scelta di Microsoft include anche chiamate proprietarie al di fuori di una richiesta dalle api? Cioe' il produttore puo' inserire una certa funzionalita' trattandola come proprietaria all'interno della GPU ma lo sviluppatore non potra' farne uso?

overjet
12-02-2007, 14:23
Data di rilascio ufficiale è slittata al 31/3.

rugg85
12-02-2007, 14:32
Data di rilascio ufficiale è slittata al 31/3.

si sa che schede verranno rilasciate??? X2600 e X2800???

DjLode
12-02-2007, 14:36
Data di rilascio ufficiale è slittata al 31/3.

Strano, amd.com non dice niente a riguardo...

Defragg
12-02-2007, 14:38
Strano, amd.com non dice niente a riguardo...
in effetti :fagiano:
il 31/3 è vicino all 1/4

pesce d'aprile! :D

Custode
12-02-2007, 14:47
La realtà ragazzi miei, la vera differenza tra un gioco console ed un gioco PC è che nel primo non c'è la schermata dove si definiscono i dettagli grafici. Questo porta gli utenti PC a voler sempre sparare tutto a palla e a sentirsi insoddisfatti se il gioco inizia a scattare. Questo a sua volta porta poi a spendere cifre elevate.




Chiedo scusa per l'OT, prometto che è il primo e l'ultimo.
Ho quotato questa parte dell'intervento perchè concordo e non concordo: ho un sacco di amici e parenti che possiedono X-BoX, PS2, o PC composti da AthlonXP con schede grafiche tipo Radeon della serie 9000 o GF4.
Quello che accomuna tutte queste persone -età variabile tra i 16 ed i 50 anni- è la perfetta non conoscenza di moltissime meccaniche, sfaccettature o "arzigogoli" del mondo ludico PC, cerco di spiegarmi meglio.

Nessuno di loro ha la minima conoscenza di tutti i 3000 termini astrusi che possono influire sulla qualità visiva o prestazionale di un titolo: la maggior parte di loro non osa nemmeno avvicinarsi al pannello delle opzioni, semplicemente perchè non ha la più pallida idea di cosa sia risoluzione, shader, antialiasing e tutti quei termini che vi si possono trovare e che noi utenti un pò più smaliziati di questo forum diamo per scontati.
Ma, soprattutto, non ha proprio l'occhio per saperli riconoscere o notare una volta attivati.

Nel 90% dei casi, se il gioco ha un autodetect per impostare in automatico le prestazioni in base all'hardware che rileva, così lo trovano e così ci giocano: molto spesso mi è capitato di trovarmi su hardware in cui si poteva osare un pò di più, attivare qualche filtro, alzare la risoluzione o attivare un anisotropico più spinto. La quasi totalità delle volte la gente che poi vi giocava, da me interpellata, sosteneva di non notare alcuna differenza.

Per loro la grafica della PS2 o X-BoX è bellissima e identica, noi ci ammazziamo di pippette su che versione di shader utilizzi un titolo, loro semplicemente giocano a Call of Duty 2 o Half Life 2 in modalità DX7 senza notare alcun cambiamento rigiocandoci in DX9 -salvo sentirmi dire "ma che hai combinato, ora va a scatti da morire, prima no?!?"-

Athlon 64 3000+
12-02-2007, 15:42
Data di rilascio ufficiale è slittata al 31/3.

Di che Gpu parli che verrà presentata quel giorno?

xxxyyy
12-02-2007, 15:55
Data di rilascio ufficiale è slittata al 31/3.

Quando scade l'NDA?

Vifani
12-02-2007, 15:55
Circa il discorso della rigidita' delle nuove api, questa inflessibilita' nella scelta di Microsoft include anche chiamate proprietarie al di fuori di una richiesta dalle api? Cioe' il produttore puo' inserire una certa funzionalita' trattandola come proprietaria all'interno della GPU ma lo sviluppatore non potra' farne uso?

Fino alle DirectX 9 erano presenti i cosiddetti caps bit che definivano essenzialmente il set di funzionalità supportato da una scheda video.
Si tratta di un meccanismo simile alle extensions di OpenGL dove ogni produttore si inventa una sua funzionalità proprietaria e supporta, pertanto, determinate estensioni.

Questa in realtà è una vecchia eredità del passato dove per determinati effetti grafici (pensiamo alle prime implementazioni di bump mapping ad esempio) era richiesto un supporto specifico dal punto di vista hardware. Quindi cosa accadeva: l'applicazione effettuava una query delle funzionalità hardware e a seconda di ciò che era supportato veniva attivato un determinato percorso di rendering. Chiaramente questo è un lavoraccio perché significa prevedere per ogni processore grafico un percorso di calcolo specifico, magari con qualche parte in comune agli altri, ma pur sempre specifico. Questo lavoro potrebbe essere considerato "ottimizzazione", ma dipende molto dall'architettura del motore grafico. Insomma se riempo il percorso di rendering di

IF <supportato questo> THEN <renderizzo con X>
ELSE IF <supportato quest'altro> THEN <renderizzo con Y>
ELSE <renderizzo con Z>

si capisce che non si tratta della soluzione più snella del mondo. Poi naturalmente dipende dal motore grafico perché se è fatto object oriented allora si può giocare con il polimorfismo e risolvere questo problema.


Comunque con l'avvento degli shaders e della programmabilità dei processori grafici questo problema è molto meno sentito. Gli stessi driver delle GPU per supportare per retrocompatibilità vecchi effetti grafici li traducono in shaders. Quindi non ha più molto senso stare a definire le singole funzionalità supportate o meno.

Ecco quindi che con le DirectX 10, che ricordiamo rompono la retrocompatibilità con le precedenti versioni (infatti Vista include anche le DirectX 9), ci sono un set di funzionalità in termini di supporto agli shader, geomtry shader, vari target render, ecc... che devono essere soddisfatte. Il produttore del chip grafico ha solo la libertà di definire come implementare il tutto a livello hardware, ma non potrà dire "io supporto questo si e questo no". Il tutto naturalmente a beneficio della maggiore semplicità di programmazione. Il livello di ottimizzazione di questo modo di operare è chiaramente delegato molto al compilatore degli shader e, quindi, essenzialmente ai driver.

Andrea deluxe
12-02-2007, 16:16
Fino alle DirectX 9 erano presenti i cosiddetti caps bit che definivano essenzialmente il set di funzionalità supportato da una scheda video.
Si tratta di un meccanismo simile alle extensions di OpenGL dove ogni produttore si inventa una sua funzionalità proprietaria e supporta, pertanto, determinate estensioni.

Questa in realtà è una vecchia eredità del passato dove per determinati effetti grafici (pensiamo alle prime implementazioni di bump mapping ad esempio) era richiesto un supporto specifico dal punto di vista hardware. Quindi cosa accadeva: l'applicazione effettuava una query delle funzionalità hardware e a seconda di ciò che era supportato veniva attivato un determinato percorso di rendering. Chiaramente questo è un lavoraccio perché significa prevedere per ogni processore grafico un percorso di calcolo specifico, magari con qualche parte in comune agli altri, ma pur sempre specifico. Questo lavoro potrebbe essere considerato "ottimizzazione", ma dipende molto dall'architettura del motore grafico. Insomma se riempo il percorso di rendering di

IF <supportato questo> THEN <renderizzo con X>
ELSE IF <supportato quest'altro> THEN <renderizzo con Y>
ELSE <renderizzo con Z>

si capisce che non si tratta della soluzione più snella del mondo. Poi naturalmente dipende dal motore grafico perché se è fatto object oriented allora si può giocare con il polimorfismo e risolvere questo problema.


Comunque con l'avvento degli shaders e della programmabilità dei processori grafici questo problema è molto meno sentito. Gli stessi driver delle GPU per supportare per retrocompatibilità vecchi effetti grafici li traducono in shaders. Quindi non ha più molto senso stare a definire le singole funzionalità supportate o meno.

Ecco quindi che con le DirectX 10, che ricordiamo rompono la retrocompatibilità con le precedenti versioni (infatti Vista include anche le DirectX 9), ci sono un set di funzionalità in termini di supporto agli shader, geomtry shader, vari target render, ecc... che devono essere soddisfatte. Il produttore del chip grafico ha solo la libertà di definire come implementare il tutto a livello hardware, ma non potrà dire "io supporto questo si e questo no". Il tutto naturalmente a beneficio della maggiore semplicità di programmazione. Il livello di ottimizzazione di questo modo di operare è chiaramente delegato molto al compilatore degli shader e, quindi, essenzialmente ai driver.
SEI UN MOSTRO

overjet
12-02-2007, 16:27
Beccatevi questa notizia e questi bench...

http://www.fx57.net/?p=398

3DMark03 Pro v3.6.0 Final
AMD Athlon64 FX55 , First WHQL driver , all in stock 1024×768 noAA noAF

X2800XTX ————– 43606
8800GTX—————- 41264
X2800XT ————— 34623
8800GTS—————- 32567
7950GX2 ————— 29257

3DMark05 Pro v1.2.0 Final
AMD Athlon64 FX55 , First driver , all in stock 1024×768 noAA noAF

X2800XTX ———— 17387 ——–700/2200
X2800XT ————- 16135 ——–625/1800
8800GTX ————– 15467 ——–575/1800
8800GTS ————– 13773 ——–500/1600
7950GX2 ————– 12886 ——–500/1200

ATi Radeon X2800 XTX
4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops
Core Clock: 700 MHz
Memory Clock: 1100 MHz (2200 DDR)
Memory Bandwidth: 140.8 GB/sec
Shader Operations: 87200 Operations/sec
Pixel Fill Rate: 19600 MPixels/sec
Texture Fill Rate: 19600 MTexels/sec
Vertex Operations: 15600 MVertices/sec

Intel(R) Core(TM)2 Extreme QX6700 @ 5300MHz (353.3×15)
ATI Radeon X2800XTX 1GB 512bit 0.85ns GDDR4 @ 700MHz/2200MHz
3DMark Score 15032 3DMarks
SM 2.0 Score 5754 Marks
SM 3.0 Score 5841 Marks
CPU Score 7615 Marks



Grande Vifani, :D, non ti sentivo dai tempi della x1800xt. Il numero 1 in Italia per ATI :D

Tanti saluti.

P.S. Pompa di brutto R600 :sofico: :sofico:

Foglia Morta
12-02-2007, 16:34
non so se è già stato postato: http://uk.theinquirer.net/?article=37581

R600XTX is no longer a mystery. Spies managed to snap a picture of the R600XTX, the top of the OEM line. The card is among the biggest thing that we ever seen in our lives and has a massive four heat pipe powered cooler.

It comes with 1024MB of 512Mbit memory. We are of course talking about GDDR4 memory that works at over 2000MHz. We don't have the final clock speeds ATI will beusing - at least not yet. Yes, that confirms our story that R600 supports a 512Mbit controller and memory. You can read all about that here as we brought you that one back in October last year.

Just look at the that cooler, it is massive and, believe it or not, the card is 12.4 inches long. It is a bit smaller than the biggest one of all time, that on the Geforce 7900 GX2.
http://uk.theinquirer.net/images/articles/R600XTX.jpg
Tiny little monster DX 10 graphic card

Compared to the Geforce 8800 GTX the R600 XTX is huge. The Geforce 8800 GTX is nine inches or about 23 cm long. The card comes with two power connectors. We have already seen one 2x3 pin, while this card will introduce the new one 2x4 pins. The new connector will come with new PSUs. The card takes two slots in your motherboard and in most cases, there will be one more version 9.5 inches that will be for retail sales.

The big R600XTX card codenamed Dragons head is the OEM (Original Equipment Manufacturer) and SIs (System Integretor) card only. The card should be launched in March and will be available at the same month but rather late march than early. µ

Simon82
12-02-2007, 16:34
Fino alle DirectX 9 erano presenti i cosiddetti caps bit che definivano essenzialmente il set di funzionalità supportato da una scheda video.
Si tratta di un meccanismo simile alle extensions di OpenGL dove ogni produttore si inventa una sua funzionalità proprietaria e supporta, pertanto, determinate estensioni.

Questa in realtà è una vecchia eredità del passato dove per determinati effetti grafici (pensiamo alle prime implementazioni di bump mapping ad esempio) era richiesto un supporto specifico dal punto di vista hardware. Quindi cosa accadeva: l'applicazione effettuava una query delle funzionalità hardware e a seconda di ciò che era supportato veniva attivato un determinato percorso di rendering. Chiaramente questo è un lavoraccio perché significa prevedere per ogni processore grafico un percorso di calcolo specifico, magari con qualche parte in comune agli altri, ma pur sempre specifico. Questo lavoro potrebbe essere considerato "ottimizzazione", ma dipende molto dall'architettura del motore grafico. Insomma se riempo il percorso di rendering di

IF <supportato questo> THEN <renderizzo con X>
ELSE IF <supportato quest'altro> THEN <renderizzo con Y>
ELSE <renderizzo con Z>

si capisce che non si tratta della soluzione più snella del mondo. Poi naturalmente dipende dal motore grafico perché se è fatto object oriented allora si può giocare con il polimorfismo e risolvere questo problema.


Comunque con l'avvento degli shaders e della programmabilità dei processori grafici questo problema è molto meno sentito. Gli stessi driver delle GPU per supportare per retrocompatibilità vecchi effetti grafici li traducono in shaders. Quindi non ha più molto senso stare a definire le singole funzionalità supportate o meno.

Ecco quindi che con le DirectX 10, che ricordiamo rompono la retrocompatibilità con le precedenti versioni (infatti Vista include anche le DirectX 9), ci sono un set di funzionalità in termini di supporto agli shader, geomtry shader, vari target render, ecc... che devono essere soddisfatte. Il produttore del chip grafico ha solo la libertà di definire come implementare il tutto a livello hardware, ma non potrà dire "io supporto questo si e questo no". Il tutto naturalmente a beneficio della maggiore semplicità di programmazione. Il livello di ottimizzazione di questo modo di operare è chiaramente delegato molto al compilatore degli shader e, quindi, essenzialmente ai driver.
In effetti penso che questa cosa' si sia resa obbligatoriamente necessaria proprio per l'avvento di questa nuova "general purpose era" in cui la GPU dovra' essere compatibile con tutte le future funzionalita' per cui sara' utilizzata e solo una di queste e' la stranominata fisica. Dare la possibilita' allo sviluppatore e al produttore di inserire funzionalita' proprietarie avrebbe probabilmente reso piu' difficile questo genere di forzatura che come al solito viene sempre comandata a bacchetta dal piu' forte e il piu' forte alla fine e' sempre Microsoft.
Certo in ogni caso sebbene le chiamate saranno quindi uniformate e unificate rimarra' comunque la bonta' dell'hardware vero e proprio, unico livello in cui potremmo effettivamente vedere delle customizzazioni "trasparenti".
Sara' effettivamente curioso per verificare la bonta' di una architettura "a parita di codice" senza vedere i casi limite di alcuni titoli che molto probabilmente sfruttano talvolta una features di uno talvolta dell'altro, lasciandoci prodotti differenti in termini di qualita' del rendering finale.

Foglia Morta
12-02-2007, 16:35
http://uk.theinquirer.net/?article=37582
LAST WEEK, WE GOT the R600 driver code that we dissected and inside we found four cards based on DAAMIT chip. We wrote about it here and here.

Now we may have figured out what all four cards are but now it looks now there will be even more than four. If ATI makes the Uber edition water-cooled card we are looking at five cards. Let's first talk about the four we can confirm.

Dragonshead is R600XTX and is a full-length 12.4-inch card with 1024MB memory for OEMs. We wrote more about it here.

The second card is Dragonshead 2 with the same clock as the R600XTX 12.4 inch card. The only difference is that this card ends up being 9.5 inches long and needs 240W power. It still has 1024MB memory and 512Mbit memory controller. It comes with two 2x3 pins power connectors that we already saw at Geforce 8800 GTX.

The third card is codenamed Catseye and comes with R600XT chip clocked 10 to 15 percent slower than the R600XTX. It comes with 512B of GDDR3 memory and is 9.5 inches long and occupies two motherboard slots. In metric world it is about 24 cm long. It eats up 240W and has two power connectors, 2x3 pin ones. It should see the face of the market in April. The first three cards have dual DVI and VIVO option.

The fourth R600 based card that we can confirm is codenamed UFO. We wrote about it here. The clock speed will be smaller than R600XL version and the card comes with 512 MB of GDDR3 memory. It has dual DVI and TV out but no Vivo. It is nine inches long and has dual slot cooler. It consumes 180W and has a single 2x3 power connector. It is scheduled for production in April. µ

overjet
12-02-2007, 16:43
Oltre ai test sono apparsi anche i consumi delle schede R600.

La versione OEM e anche quella più lunga per intenderci in versione R600XTX, richiederanno alla massima potenza 270W.
La retail , quella più corta ma con R600XT con 512MB di GDDR3 240W
Poi arriveranno la XT e la XL con potenze richieste più basse.

Fonte: http://www.engadget.com/2007/02/11/s...she-a-big-one/

Kharonte85
12-02-2007, 16:48
3DMark05 Pro v1.2.0 Final
AMD Athlon64 FX55 , First driver , all in stock 1024×768 noAA noAF

X2800XTX ———— 17387 ——–700/2200
X2800XT ————- 16135 ——–625/1800
8800GTX ————– 15467 ——–575/1800
8800GTS ————– 13773 ——–500/1600
7950GX2 ————– 12886 ——–500/1200


P.S. Pompa di brutto R600 :sofico: :sofico:
Ammesso che non sia un fake...non mi sembra un risultato particolarmente esaltante...(11% circa in piu') :fagiano:

GabrySP
12-02-2007, 16:49
Oltre ai test sono apparsi anche i consumi delle schede R600.

La versione OEM e anche quella più lunga per intenderci in versione R600XTX, richiederanno alla massima potenza 270W.
La retail , quella più corta ma con R600XT con 512MB di GDDR3 240W
Poi arriveranno la XT e la XL con potenze richieste più basse.

Fonte: http://www.engadget.com/2007/02/11/s...she-a-big-one/

I consumi sono :old:

E i test spero bene che siano una bufala altrimenti ATI ha preso un bello sfondone, consumi superiori del 50% rispetto a nVidia e prestazioni leggermente superiori. :)

Premesso che quei test sono più falsi di una banconota da 30 Euro, e che un test fatto a 1024x768 senza filtri è di una stupidità estrema con schede del genere :D

Edit : adesso il link del "test" non funzia più, hanno bloccato il sito più velocemente di Superman :sofico: , più veloci che con quei cialtroni di level505 :D

DjLode
12-02-2007, 16:50
Ammesso che non sia un fake...non mi sembra un risultato particolarmente esaltante...(11% circa in piu') :fagiano:

A me francamente risulta strano che su un Core 2 due quadri core a 5.3ghz faccia meno che su un Fx55.

Foglia Morta
12-02-2007, 16:59
A me francamente risulta strano che su un Core 2 due quadri core a 5.3ghz faccia meno che su un Fx55.
stai confrontando un 3d mark 2005 con un 3d mark 2006 ;)

DjLode
12-02-2007, 17:08
stai confrontando un 3d mark 2005 con un 3d mark 2006 ;)

Io però non lo vedo scritto...

Foglia Morta
12-02-2007, 17:10
Io però non lo vedo scritto...
sm3 score e sm2 score... un po di intuito :D

DjLode
12-02-2007, 17:16
sm3 score e sm2 score... un po di intuito :D

E' che è dalla versione 05 che non lo monto, quindi non so se ci sia anche nelle altre versioni... Insomma io e il 3d mark non abbiamo un gran rapporto.

guido398
12-02-2007, 17:58
Ecco le prime Immagini della portentosa R600XTX lunga 31 cm!!!! :eek: :eek:

http://technomhz.blogspot.com/2007/02/le-prime-immagini-del-r600-ati.html

Date un parere voi... :cool:

runk
12-02-2007, 18:04
Ecco le prime Immagini della portentosa R600XTX lunga 31 cm!!!! :eek: :eek:

http://technomhz.blogspot.com/2007/02/le-prime-immagini-del-r600-ati.html

Date un parere voi... :cool:

OLDISSIIIIMOOOOO! :read: :banned: :D

guido398
12-02-2007, 18:07
OLDISSIIIIMOOOOO! :read: :banned: :D

Davvero?..Su Inquirer la riporta ora...avrà qualche giorno...
è vecchissima???

runk
12-02-2007, 18:10
Davvero?..Su Inquirer la riporta ora...avrà qualche giorno...
è vecchissima???

vai qualche pagina indietro! ;)

guido398
12-02-2007, 18:11
ops...scusate...

nico88desmo
12-02-2007, 18:52
[OT = on]
Sarà una coincidenza che queste notizie siano spuntate fuori lo stesso giorno del rilascio da parte di nVidia della 8800gts 320MB?? :D
[OT = off]

Spero che questi risultati (di poco peso comunque..a quella risoluzione :nono: ) non siano veritieri...anche se non mi aspetto che si discostino di molto.

Foglia Morta
12-02-2007, 19:00
8+6 per la retail... per quel poco che si vede il dissi non sborda dal pcb
http://resources.vr-zone.com/newspics/Feb07/12/R600XTX-Retail.jpg

secondo me sfrutteranno tutti e 2 i lati del pcb per dissipare il calore

Edit: immagine più grande

Athlon 64 3000+
12-02-2007, 19:04
8+6 per la retail... per quel poco che si vede il dissi non sborda dal pcb
http://resources.vr-zone.com//newspics/Feb07/12/R600XTX-Retail-s.jpg

secondo me sfrutteranno tutti e 2 i lati del pcb per dissipare il calore

se non mi sbaglio dovrebbe valere per la XTX,chissa se invece la XT avrà un solo connettore di alimentazione.

Athlon 64 3000+
12-02-2007, 19:10
come è la norma man mano che si avvicina la data della presentazione di R600 le presunte foto,caratteristiche e anche benchmark cominciano a diventare sempre più frequenti.

gianni1879
12-02-2007, 19:19
come è la norma man mano che si avvicina la data della presentazione di R600 le presunte foto,caratteristiche e anche benchmark cominciano a diventare sempre più frequenti.
logico ;)

cmq mi aspettavo un pò di più..... solita frase che qualcuno dirà :asd:

appleroof
12-02-2007, 19:21
Il tuo discorso è un po troppo pessimistico. Non sta scritto da nessuna parte che una scheda video di fascia media sia poco longeva. La longevità dipende solo ed esclusivamente da quanto una persona sia disposta con l'avanzare del tempo a ridurre risoluzione, effetti e dettagli grafici. Stai pur tranquillo che anche i giochi più pesanti riducendo tali dettagli arrivano ad essere ben più che giocabili.

La realtà ragazzi miei, la vera differenza tra un gioco console ed un gioco PC è che nel primo non c'è la schermata dove si definiscono i dettagli grafici. Questo porta gli utenti PC a voler sempre sparare tutto a palla e a sentirsi insoddisfatti se il gioco inizia a scattare. Questo a sua volta porta poi a spendere cifre elevate.

Il discorso "io compro una scheda video da 600 euro e voglio giocare tutto a palla per due anni" non esiste e non esisterà mai, ma neanche per un anno. Bisogna innanzitutto autocontrollare il proprio desiderio di avere sempre e comunque il massimo. Se si riesce a fare questo si gioca senza problemi anche con schede video più economiche.

Relativamente al discorso dell'ottimizzazione, è verissimo che questa spesso lasci a desiderare, ma al riguardo bisogna essere ottimisti. L'introduzione delle DirectX 10 porterà un sostanziale allineamento nella produzione dei videogames per X-Box 360 e per PC (la console di Microsoft anche se non è basata su DX10, è comunque più evoluta di una DX9 e l'ambiente di sviluppo è pressocché identico). Tra l'altro le DirectX 10 introducono un aspetto molto importante: la rigidità delle funzionalità previste. Niente più effetti e capacità specifiche per una scheda video e differenti per un'altra: se si è DirectX 10 si hanno un tot di funzionalità tutte ugualmente utilizzabili sull'hardware DX10 compliant.

State pur certi che i giochi DX10 salteranno fuori e numerosi anche. Se non altro perché a Microsoft interessa diffondere Windows Vista.

quoto tutto.

Quanto alla parte in neretto (ho fatto così solo per comodità di "quote" :p) posso dire (visto che ho speso 600 euro per una vga per la prima volta in vita mia, per la precisione 470 dando via la vecchia) la mia: per la prima volta gioco a qualsiasi gioco in giro a 1680x1050 tutto a palla, sicuramente non sarà sempre così, ma fino a che la scheda tornerà a livelli più "normali" (1680x1050 senza filtri), passando per compromessi con filtri & co., credo che passerà molto ma molto tempo (per i tempi dell'informatica), cioè almeno un anno e mezzo a partire da adesso (io l'ho presa al debutto, in tutto parliamo di 2 anni). Non dimentichiamo che le dx10 come giustamente detto, dovrebbero comportare miglioramenti assoluti in termini di ottimizzazione, regalando maggiore longevità (in senso di giocare a lungo senza scendere a particolari compromessi grafici) a chi ha una scheda potente come la 8800GTX (e controparte ati, in attesa del nome definitivo :) ).

Io credo allora che con la stessa spesa di 2 buone medio-alte per lo stesso periodo di tempo (le avrei prese, visto che sono un appassionato) , ho avuto un risultato ancora maggiore: giocare almeno finora e credo per un bel pò come se avessi la consolle con qualsiasi gioco, ma con il pc.

E' solo in questo modo che secondo me acquistano senso schede come la mia o la futura top ati: in realtà, conti alla mano, spendi lo stesso che un appassionato farebbe in un anno/anno e mezzo, ma non scendi a compromessi per la parte iniziale (più o meno lunga vedremo) del periodo in cui hai la scheda, a differenza di quello che prende 2 medie in 2 tempi diversi. Chiaramente se uno non ha a disposizione subito un budget alto (come mi è sempre capitato, questa volta lo avevo e potevo spenderlo) il discorso cambia.

Tutto imho, nat. ;)

gianni1879
12-02-2007, 19:23
8+6 per la retail... per quel poco che si vede il dissi non sborda dal pcb
http://resources.vr-zone.com/newspics/Feb07/12/R600XTX-Retail.jpg

secondo me sfrutteranno tutti e 2 i lati del pcb per dissipare il calore

Edit: immagine più grande
sembra quasi reale :asd:

Kharonte85
12-02-2007, 19:29
8+6 per la retail...
:mc:

per quel poco che si vede il dissi non sborda dal pcb

sarebbe ottimo

secondo me sfrutteranno tutti e 2 i lati del pcb per dissipare il calore

:eekk:

Skullcrusher
12-02-2007, 19:43
se non mi sbaglio dovrebbe valere per la XTX,chissa se invece la XT avrà un solo connettore di alimentazione.

Sì, credo sia come per l'8800...la GTX ha 2 connettori e la GTS ne ha solo 1.... per R600 presumo accadrà la stessa cosa :)

Soulbringer
12-02-2007, 20:28
Beh la foto con il sistema di raffreddamento rosso già fa un altro effetto..cmq allora il lancio ufficiale è il 31 marzo?ma dove c'è scritto?
I benchmark secondo me sono una mezza verità..e poi ormai il punteggio del 3dmark serve a ben poco..bisognerebbe testarla con i giochi ;)! Se fossero veri però saremmo nella stessa situazione 7800gtx 256MB vs x1800xt cioé un 10-15% in più..

halduemilauno
12-02-2007, 21:32
Ammesso che non sia un fake...non mi sembra un risultato particolarmente esaltante...(11% circa in piu') :fagiano:

si. ma cmq interessanti. cmq ricordiamo che le 8800gtx in versione 630/2000 gia recuperano un 1000 punti.
ripeto interessanti ma aspettiamo riscontri più esaustivi.
certo ammesso che il tutto non sia un fake.
;)

Athlon 64 3000+
12-02-2007, 21:50
si. ma cmq interessanti. cmq ricordiamo che le 8800gtx in versione 630/2000 gia recuperano un 1000 punti.
ripeto interessanti ma aspettiamo riscontri più esaustivi.
certo ammesso che il tutto non sia un fake.
;)

Personalmente i test li reputo dei fake,le foto invece penso siano vere,visto che circa un mese prima della presentazione di G80 erano venute fuori le foto delle 8800.
Sono molto curioso di vedere le foto della XTX e della XT per vedere come sono.

Athlon 64 3000+
12-02-2007, 22:02
vedendo l'ultima foto della R600XTX il dissipatore (andando a rivedere le foto della X1950XTX) della attuale top di gamma Ati perchè il davanti è uguale a quella della X1950XTX.
Il pcb mi sembra 1-2 cm più lungo delle pcb delle varie X1800/1900/1950

appleroof
12-02-2007, 22:06
vedendo l'ultima foto della R600XTX il dissipatore (andando a rivedere le foto della X1950XTX) della attuale top di gamma Ati perchè il davanti è uguale a quella della X1950XTX.

anche quella foto può (?) essere un fake

Psiche
13-02-2007, 07:40
CUT

Avete già un'idea di come operare con i bench?
Mi spiego meglio:
Questa come del resto anche la 8800, è una scheda pensata per le DX10 quindi il suo ambiente naturale è Windows Vista. Ora che il sistema operativo è OUT, anche se ancora non esistono giochi o bench DX10, è logico attendersi un analisi anche e sopratutto con vista.
Troppo presto quindi avete optato solo per Xp?
Tra l'altro per quella data forse ci sarà già la patch DX10 per company of heroes.

Foglia Morta
13-02-2007, 09:09
http://www.ocworkbench.com/news/news.php
ATi R600 full series, specs and pricing Link

Do take note that the final specs and pricing might change over time. Some interesting things to note is that, another site reported that X2800XT runs at 625/1800 whereas this chart we have gotten shows that it is 600/1800. We will keep you guys updated on the R600 series cards. Stay tuned to http://www.ocworkbench.com

Discuss

The columns on the top (from left to right)
GPU model name, GPU clk/mem clk, memory type (GDDR4,3), Memory width, Memory Size, # of pipelines, Manufacturing process and suggested price
http://www.ocworkbench.com/2007/newsphotos/feb/R600%20info.jpg

non so se sia un fake o meno , però lascia delle perplessità: la XTX2 sarebbe un doppio pcb con bus 256 ( x2 ).
E il numero di shader ricorda quello di G80 ma dovrebbero essere Vec4 , anche perchè con R500 ( 230 mln circa di transistor ) ce ne sono 48 , R600 dovrebbe essere oltre il triplo ( in base al rumour che dice 720mln ) quindi imho non è assurdo... o le feature fanno impiegare gran parte dei transistors oppure può effettivamente avere un così alto numero di shader.

oppure è un fake da cima a fondo :boh: , di incongruenze con rumour passati ce ne sono abbastanza ( X2300 tutte a 128bit per esempio e soprattutto gli 80nm per tutte le gpu mentre RV610 e RV630 dovrebbero essere a 65nm )

Athlon 64 3000+
13-02-2007, 09:26
io penso che quelle specifiche siano tutte dei fake.

gianni1879
13-02-2007, 09:38
mmmm oddio

Vifani
13-02-2007, 10:37
Avete già un'idea di come operare con i bench?
Mi spiego meglio:
Questa come del resto anche la 8800, è una scheda pensata per le DX10 quindi il suo ambiente naturale è Windows Vista. Ora che il sistema operativo è OUT, anche se ancora non esistono giochi o bench DX10, è logico attendersi un analisi anche e sopratutto con vista.
Troppo presto quindi avete optato solo per Xp?
Tra l'altro per quella data forse ci sarà già la patch DX10 per company of heroes.

Non scrivo per HWUpgrade da qualche mese ormai. Dovrai chiederlo a Corsini ;)

overjet
13-02-2007, 10:53
Non scrivo per HWUpgrade da qualche mese ormai. Dovrai chiederlo a Corsini ;)


Come mai ?!?

Simon82
13-02-2007, 10:55
Come mai ?!?
Aveva detto che si sarebbe occupato di altro e cosi' ha fatto. ;)

Vifani
13-02-2007, 11:15
In ogni caso penso che un test su Windows Vista sia auspicabile per l'arrivo di R600, anche se ritengo che molto probabilmente i risultati risulterebbero essere acerbi perché comunque i driver per questo sistema operativo sono alle prime release e sono ben lungi dall'essere ottimizzati (specie per NVIDIA). Tale discorso è ancor più vero se parliamo di Vista + DX10.

Insomma non sono questi i risultati su cui costruirei un giudizio. Penso che i test su Windows XP siano ancora i più rilevanti.

GabrySP
13-02-2007, 11:45
Quelle tabella con le versioni di R600 è un quasi sicuro un fake (purtroppo :cry: )

Magari avesse 128 unità vector4 (teoricamente il quadruplo di G80 :sbavvv: )

Soulbringer
13-02-2007, 11:47
Quelle tabella con le versioni di R600 è un quasi sicuro un fake (purtroppo :cry: )

Magari avesse 128 unità vector4 (teoricamente il quadruplo di G80 :sbavvv: )

appunto..

Psiche
13-02-2007, 12:58
In ogni caso penso che un test su Windows Vista sia auspicabile per l'arrivo di R600, anche se ritengo che molto probabilmente i risultati risulterebbero essere acerbi perché comunque i driver per questo sistema operativo sono alle prime release e sono ben lungi dall'essere ottimizzati (specie per NVIDIA). Tale discorso è ancor più vero se parliamo di Vista + DX10.

Insomma non sono questi i risultati su cui costruirei un giudizio. Penso che i test su Windows XP siano ancora i più rilevanti.
Per una scheda al debutto qualsiasi ambiente operativo risulta acerbo; và anche detto che non sappiamo se i programmatori di AMD rilasceranno per il giorno del lancio sia driver per Xp che driver per vista.

;)

Simon82
13-02-2007, 13:21
Va anche detto che attualmente tutti i benchmark sono inutili su schede che diranno la loro in campo DX10. E' li che vedremo le reali potenzialita' delle soluzioni di una o dell'altra parte. Prendere come dogma i test Dx9 e' come testare un R5X0 o un G7X con applicazioni che' so'.. Directx8.
Non ha molto senso.

Skullcrusher
13-02-2007, 13:31
Va anche detto che attualmente tutti i benchmark sono inutili su schede che diranno la loro in campo DX10. E' li che vedremo le reali potenzialita' delle soluzioni di una o dell'altra parte. Prendere come dogma i test Dx9 e' come testare un R5X0 o un G7X con applicazioni che' so'.. Directx8.
Non ha molto senso.

Appunto....per avere un "pseudo" test, bisogna aspettare il 3dmark07, mentre per i test veri e propri, secondo me bisogna aspettare titoli full dx10 :)

Foglia Morta
13-02-2007, 13:55
http://uk.theinquirer.net/?article=37588
WE CAME ACROSS a rendered image of ATI's upcoming card codenamed Dragonshead 2. This card is 9.5 inches (24 centimetres) long and this is the one that will make it into retail. We wrote about the card here. This is the OEM-only version.

To our surprise, Dragon's Head 2, a much smaller card should have the same clock speed as the massive 12.4 inch, full-length card. It also comes with 1024MB GDDR4 memory
http://uk.theinquirer.net/images/articles/R600ch.jpg
600XTX meant for channel sales

The card supports Vivo and comes with Dual DVI. It has a dual-slot heatsink and consumes 240W of power, some 30W less than the big mamma. It has two 2x3 standard PCIe connectors the same two you can see on the G80, Geforce 8800 GTX cards. It looks more like graphic cards we're used to seeing.

The good news is that many power supply units already have these 2x3 pin connectors. The cards based on this design should also be available late March. µ

Soulbringer
13-02-2007, 13:57
Si ma adesso come adesso a noi interessa sapere quanto va più di g80 e siccome questo (per ovvi motivi) è stato testato con giochi dx9 allora l'unico modo è testarlo con i giochi attuali..

Andrea deluxe
13-02-2007, 14:01
Se solo crytech rilasciasse una demo del suo capolavoro CRYSIS, avremmo un banco di prova piu' attendibile rispetto ai 3D marci vari!

Soulbringer
13-02-2007, 14:02
http://uk.theinquirer.net/?article=37588

Beh come design non è male...buona (se vera) anche la notizia dei connettori per l'alimentazione...

Athlon 64 3000+
13-02-2007, 14:04
ora come ora quando uscira R600 mi interessa vederlo in azione in confronto con G80 in XP e dx 9,poi quando i driver per Vista saranno più maturi e ci saranno dei giochi dx 10 allora si che si potrà fare un paragone nel loro vero campo.

Foglia Morta
13-02-2007, 14:13
Beh come design non è male...buona (se vera) anche la notizia dei connettori per l'alimentazione...
theinq parla di 240w e 2x6pin , c' è qualcosa che cozza... il disegno della retail mostra un 8+6. :boh:

theinq :doh:

edit: forse la retail permetterà di usare 2 per 6pin oppure ( per i prossimi alimentatori ) 1x8pin . ma comunque arriverebbe a 225W. Se sono 240W deve essere per forza un 6+8

Andrea deluxe
13-02-2007, 14:16
ma non calcoli i 75w del pci-express?

The_SaN
13-02-2007, 14:17
Ah The Inquirer ... :D

Foglia Morta
13-02-2007, 14:18
ma non calcoli i 75w del pci-express?
si che sono compresi quei 75w

Defragg
13-02-2007, 14:22
Se solo crytech rilasciasse una demo del suo capolavoro CRYSIS, avremmo un banco di prova piu' attendibile rispetto ai 3D marci vari!
credo che la demo la rilascerà invece DOPO l'uscita di Crysis :( ;)
imho :O

GabrySP
13-02-2007, 14:34
theinq parla di 240w e 2x6pin , c' è qualcosa che cozza... il disegno della retail mostra un 8+6. :boh:

theinq :doh:

edit: forse la retail permetterà di usare 2 per 6pin oppure ( per i prossimi alimentatori ) 1x8pin . ma comunque arriverebbe a 225W. Se sono 240W deve essere per forza un 6+8

Consumerà 240W (sempre che sia vero ;) ) come come una GTX consuma 180W. (consumo da rete elettrica)

In realtà dall' ali richiederà circa 190W (sempre che sia vero ;) v2.0) come una GTX ne richiede circa 145.

Dubito di essermi spiegato, e comunque i consumi di R600 sono ancora mooooooolto teorici :cool:

Simon82
13-02-2007, 15:20
credo che la demo la rilascerà invece DOPO l'uscita di Crysis :( ;)
imho :O
La politica delle demo imho e' la seguente: fare uscire ora una demo significherebbe svelare tutto di un gioco che ancora sara' soggetto a modifiche e probabilmente lo sara' anche dopo con immediate patch. Quando si rilascia la demo si chiudono baracca e burattini sullo sviluppo e migliorie dell'applicazione.
Per quello esistono le demo .... leaked... ;)... che permettono allo sviluppatore di tastare gli animi degli improvvisati beta tester che nelle vare community avranno modo di esprimere i loro pareri e consigli senza accusare la presunta alpha version che da per scontato che ci siano migliorie a differenza di una vera demo che automaticamente viene presa per ufficiale. Infatti molti inseriscono la classica frase "non rispecchia il prodotto finale blablabla" ma non sortisce sempre l'effetto sperato.

Crisp
13-02-2007, 15:35
Consumerà 240W (sempre che sia vero ;) ) come come una GTX consuma 180W. (consumo da rete elettrica)

In realtà dall' ali richiederà circa 190W (sempre che sia vero ;) v2.0) come una GTX ne richiede circa 145.

Dubito di essermi spiegato, e comunque i consumi di R600 sono ancora mooooooolto teorici :cool:

secondo le ultime news r600 consumerà parecchio:

DragonShead R600XTX 1 GB in versione OEM circa 240W, lunga 31,5 cm
DragonShead 2 R600XTX probabilmente venduta al dettaglio circa 240W, lunga 23 cm
CatsEye R600XT 512M, GDDR3, 10-15% più lenta della XTX e consumerà 240W, lunga 23 cm, doppia alimentazione, prevista per Aprile
Queste sono dual-dvi e VIVO

R600 UFO, con frequenze più basse rispetto alla R600XT, 512M GDDR3, dual-dvi, noVIVO, consumo di 180W, una sola alimentazione, entrerà in produzione ad Aprile
R600 Uber Edition, con raffredamento ad acqua

R600XTX in versione OEM per costruttori e assemblatori, 31.5 cm:

http://uk.theinquirer.net/images/articles/R600XTX.jpg

breakz
13-02-2007, 18:12
Cioa gente!

Anke se in ritardo traslo ora qui dal vekkio thread!

Mmmmm....come news vi diko solo ke ci potrebbero essere + problemi del previsto per la disponibilità....:(...X il resto sto sbavando come voi....

appleroof
13-02-2007, 18:26
Cioa gente!

Anke se in ritardo traslo ora qui dal vekkio thread!

Mmmmm....come news vi diko solo ke ci potrebbero essere + problemi del previsto per la disponibilità....:(...X il resto sto sbavando come voi....

potresti essere più preciso?

T3d
13-02-2007, 18:34
Beccatevi questa notizia e questi bench...

http://www.fx57.net/?p=398

3DMark03 Pro v3.6.0 Final
AMD Athlon64 FX55 , First WHQL driver , all in stock 1024×768 noAA noAF

X2800XTX ————– 43606
8800GTX—————- 41264
X2800XT ————— 34623
8800GTS—————- 32567
7950GX2 ————— 29257

3DMark05 Pro v1.2.0 Final
AMD Athlon64 FX55 , First driver , all in stock 1024×768 noAA noAF

X2800XTX ———— 17387 ——–700/2200
X2800XT ————- 16135 ——–625/1800
8800GTX ————– 15467 ——–575/1800
8800GTS ————– 13773 ——–500/1600
7950GX2 ————– 12886 ——–500/1200

ATi Radeon X2800 XTX
4way× (MADD(2flops) + MUL(1flop))× 800 MHz × 64 SPs = 614.4GFlops
Core Clock: 700 MHz
Memory Clock: 1100 MHz (2200 DDR)
Memory Bandwidth: 140.8 GB/sec
Shader Operations: 87200 Operations/sec
Pixel Fill Rate: 19600 MPixels/sec
Texture Fill Rate: 19600 MTexels/sec
Vertex Operations: 15600 MVertices/sec

Intel(R) Core(TM)2 Extreme QX6700 @ 5300MHz (353.3×15)
ATI Radeon X2800XTX 1GB 512bit 0.85ns GDDR4 @ 700MHz/2200MHz
3DMark Score 15032 3DMarks
SM 2.0 Score 5754 Marks
SM 3.0 Score 5841 Marks
CPU Score 7615 Marks
assolutamente FAKE!
un quad a 5300mhz? dei ragazzi italiani hanno fatto il record mondiale qualche giorno fa arrivando a quota 5304mhz... questi come ci sono riusciti a farli qualche giorno prima? :asd:

fidatevi è un fake colossale ;)

Foglia Morta
13-02-2007, 18:40
Cioa gente!

Anke se in ritardo traslo ora qui dal vekkio thread!

Mmmmm....come news vi diko solo ke ci potrebbero essere + problemi del previsto per la disponibilità....:(...X il resto sto sbavando come voi....
in cina si dice che le rese produttive di R600 ( ben oltre i 700mhz ) sono altissime ,la scheda pesa più di un chilo e i test di fx57 sono fake ( non si sa se son migliori o peggiori )

http://uk.theinquirer.net/?article=37607
AMD IS MAKING a valiant effort to bridge the gap between notebooks and the static world of desktops. We all know that Sandisk and Seagate are making solid state, or combined hard drives that will close the performance gap between notebook and desktop where storage is concerned, but there is one area in chich notebooks are screwed: graphics.

This is all set to change, however - with Lasso coming in place. Lasso is AMD's codename for external graphics card which will utilise the same external PCIe x16 connector we wrote about last week.

While this is mostly aimed at desktops, with the PCIe x16 bus-card that will be installed inside desktop PCs, it will also be compatible with upcoming notebooks that feature x16 and x8 connectors. This will bring high-end graphics power to the notebooks for the first time. We already know of one notebook manufacturer that plans to bring external PCIe standard to the world of mobile devices, so it might be possible to have a nice and compact notebook that turns into a gaming rig that can power 24- or 30-inch LCDs.

And this is not all ATI is making external. The company has also done some work on an external Crossfire configuration, although currently most resources are going into getting both the R600 and RV610/630 series out the door during March and April. External CrossFire will come to market probably before summer, oriented towards competing with Quadro Plex. It's not hard to imagine that the GPGPU world is soon going to become a real source of revenue for the company, just like Quadro SDI is for Nvidia.

This year is going to be pretty, pretty hot. But then again, it's to be expected. We're talking about 3D, not about car manufacturers. µ

The_SaN
13-02-2007, 19:31
assolutamente FAKE!
un quad a 5300mhz? dei ragazzi italiani hanno fatto il record mondiale qualche giorno fa arrivando a quota 5304mhz... questi come ci sono riusciti a farli qualche giorno prima? :asd:

fidatevi è un fake colossale ;)
É la prima cosa che ho pensato anch' io :asd:

Catan
13-02-2007, 21:19
in cina si dice che le rese produttive di R600 ( ben oltre i 700mhz ) sono altissime ,la scheda pesa più di un chilo e i test di fx57 sono fake ( non si sa se son migliori o peggiori )

http://uk.theinquirer.net/?article=37607

se è per questo le A3 sono le migliori che salgono oltre i 900mhz mentre i chip commercializzati saranno gli A12 che arrivano attorno agli 850mhz

Foglia Morta
13-02-2007, 21:27
se è per questo le A3 sono le migliori che salgono oltre i 900mhz mentre i chip commercializzati saranno gli A12 che arrivano attorno agli 850mhz
non parlavo dei rumour di mesi fa... indiscrezioni di questi giorni

Lud von Pipper
13-02-2007, 22:13
A proposito di bench, si sa qualcosa del 3DMark 2007?
Sarà il primo test DX10 e ormai dovrebbe essere prossimo alla pubblicazione.

rugg85
13-02-2007, 22:42
A proposito di bench, si sa qualcosa del 3DMark 2007?
Sarà il primo test DX10 e ormai dovrebbe essere prossimo alla pubblicazione.

eh già fra poco uscirà...ma chi non ha una scheda video dx10 potrà farlo lo stesso il bench?

Soulbringer
13-02-2007, 23:09
eh già fra poco uscirà...ma chi non ha una scheda video dx10 potrà farlo lo stesso il bench?

non credo proprio...

davide155
13-02-2007, 23:13
eh già fra poco uscirà...ma chi non ha una scheda video dx10 potrà farlo lo stesso il bench?
La data precisa si sa?

davide155
13-02-2007, 23:13
non credo proprio...
Veramente credo proprio di si invece.....
Sarà retrocompatibile.....eccome.....

Proprio come le edizioni precedenti :O

Foglia Morta
13-02-2007, 23:18
Veramente credo proprio di si invece.....
Sarà retrocompatibile.....eccome.....

Proprio come le edizioni precedenti :O
bho... anche io avevo letto che vuole per forza schede dx10.

in altri lidi hanno già ricevuto la scheda per la recensione, però non so quando scade l'nda

la solita notiziona di theinq che prenderà tutti senz'altro in contropiede :D
WE WERE caught totally off guard with the news that ATI's RV630 and RV610 are actually 65 nanometre parts. Now it makes sense why they are so late.

DAAMIT plans an April production of its 65 nanometre parts. Nvidia's G84 and G86 mainstream and low-end chips are still at 80 nanometre which means they get hotter and are more expensive to make. With good yields, DAAMIT has a good chance to come storming back to the desktop and mobile arenas. The chips should perform about the same as Nvidia's but will take less power and be cheaper to produce.

The cards support HDDVD playback, second generation Unified Shader, DirectX 10, integrated HDMI audio, HDCP over Dual Link, PCIe second generation speeds and open multi GPU chipset marchitecture.

DAAMIT still doesn’t like to talk about the clock speed of these chips but we know that at 65 nanometre you can clock faster than 750MHz. µ

nickdc
13-02-2007, 23:19
Ma allora è confermato che sarà come in quelle foto che abbiamo visto pochi giorni fa? :rolleyes:

Foglia Morta
13-02-2007, 23:20
Ma allora è confermato che sarà come in quelle foto che abbiamo visto pochi giorni fa? :rolleyes:
si quella oem... la retail ancora non si è vista

xxxyyy
13-02-2007, 23:24
Veramente credo proprio di si invece.....
Sarà retrocompatibile.....eccome.....

Proprio come le edizioni precedenti :O

Si ma se non hai una scheda con gli SM4.0 mi dice come fai a far girare quei test?
Sicuramente gireranno alcuni test, ma non tutti, se non hai una sk dx10...

Quindi non si sa di preciso quando esce?

Catan
13-02-2007, 23:25
non parlavo dei rumour di mesi fa... indiscrezioni di questi giorni

credo che vadano ancora bene alla fine se contiamo che per ogni rev del chip 1 o 2 sett di test li fanno di qui alla rev A3 alla A12 sicuramente 1 mesetto è passato quindi credo che questo range di frequenze siano attendibili.
700-850mhz

Foglia Morta
13-02-2007, 23:32
credo che vadano ancora bene alla fine se contiamo che per ogni rev del chip 1 o 2 sett di test li fanno di qui alla rev A3 alla A12 sicuramente 1 mesetto è passato quindi credo che questo range di frequenze siano attendibili.
700-850mhz
sottintendevo che quei rumours imho erano poco attendibili...
erano pubblicati da hexus e dicevano che l'A12 poteva lavorare a 800Mhz , poi con l'A15 poteva andare a 1Ghz e sempre hexus diceva che l'obiettivo finale era raggiungere il doppio ( 2Ghz!! ) , ecco perchè non ho preso molto seriamente quelle voci

Free Gordon
14-02-2007, 02:47
http://www.ocworkbench.com/news/news.php

non so se sia un fake o meno , però lascia delle perplessità: la XTX2 sarebbe un doppio pcb con bus 256 ( x2 ).
E il numero di shader ricorda quello di G80 ma dovrebbero essere Vec4... -cut-


Mah.. se fossero davvero queste le cifre, penso che ne vedremmo davvero delle belle..
128 shader unit vec4 e 192 nella versione "doppia" gpu... a 700mhz, una roba spaventosa...
Non mi pare possibile ed effettivamente con una roba del genere i consumi sarebbero mostruosi. :eek:

Free Gordon
14-02-2007, 02:51
se è per questo le A3 sono le migliori che salgono oltre i 900mhz mentre i chip commercializzati saranno gli A12 che arrivano attorno agli 850mhz


Ma da dove le tirate fuori ste info?? :confused:

Free Gordon
14-02-2007, 02:59
Veramente credo proprio di si invece.....
Sarà retrocompatibile.....eccome.....

Proprio come le edizioni precedenti :O


Come il 2006 non esegue il test SM3.0 sulle schede SM2.0, lo stesso farà il 2007 con le schede che non sono SM4.0 compliant. ;)

Per cui se avrai una scheda dx9 e il test sarà completamente dx10, non lo potrai far girare.

gianni1879
14-02-2007, 10:07
bho... anche io avevo letto che vuole per forza schede dx10.

in altri lidi hanno già ricevuto la scheda per la recensione, però non so quando scade l'nda

la solita notiziona di theinq che prenderà tutti senz'altro in contropiede :D
mah vedremo se sarà vero o meno, 65nm :)

Andrea deluxe
14-02-2007, 10:10
>>>>>>>>>>>>>>>Muovendoci di "rumor in rumor" passiamo dalle possibilii specifiche e prestazioni di R600, la nuova soluzione grafica di casa AMD, a quelle di una nuova G80 di NVIDIA. Il produttore americano potrebbe immettere sul mercato, infatti, una nuova serie di GPU denominate GeForce 8900.

Queste potrebbero disporre sia di frequenze più elevate rispetto a quelle della serie 8800, toccando anche i 700MHz per la GPU e i 2,2GHz per le memorie, sia un maggior numero di Stream Processor. La stessa NVIDIA avrebbe parlato di una scheda 8900GTX con un 25% in più di unità di shader rispetto alla 8800GTX (160 shader invece che 128).>>>>>>>>>>>>>>>


dico solo: O MERDA, NVIDIA s'e' nCAZZATA!!!

MM46
14-02-2007, 10:20
dico solo: O MERDA, NVIDIA s'e' nCAZZATA!!!
:asd:

gianni1879
14-02-2007, 11:14
>>>>>>>>>>>>>>>Muovendoci di "rumor in rumor" passiamo dalle possibilii specifiche e prestazioni di R600, la nuova soluzione grafica di casa AMD, a quelle di una nuova G80 di NVIDIA. Il produttore americano potrebbe immettere sul mercato, infatti, una nuova serie di GPU denominate GeForce 8900.

Queste potrebbero disporre sia di frequenze più elevate rispetto a quelle della serie 8800, toccando anche i 700MHz per la GPU e i 2,2GHz per le memorie, sia un maggior numero di Stream Processor. La stessa NVIDIA avrebbe parlato di una scheda 8900GTX con un 25% in più di unità di shader rispetto alla 8800GTX (160 shader invece che 128).>>>>>>>>>>>>>>>


dico solo: O MERDA, NVIDIA s'e' nCAZZATA!!!
bhe vuol dire che R600 sarà molto potente :asd: :D :D :asd:

T3d
14-02-2007, 11:16
bhe vuol dire che R600 sarà molto potente :asd: :D :D :asd:
;)

Simon82
14-02-2007, 11:47
>>>>>>>>>>>>>>>Muovendoci di "rumor in rumor" passiamo dalle possibilii specifiche e prestazioni di R600, la nuova soluzione grafica di casa AMD, a quelle di una nuova G80 di NVIDIA. Il produttore americano potrebbe immettere sul mercato, infatti, una nuova serie di GPU denominate GeForce 8900.

Queste potrebbero disporre sia di frequenze più elevate rispetto a quelle della serie 8800, toccando anche i 700MHz per la GPU e i 2,2GHz per le memorie, sia un maggior numero di Stream Processor. La stessa NVIDIA avrebbe parlato di una scheda 8900GTX con un 25% in più di unità di shader rispetto alla 8800GTX (160 shader invece che 128).>>>>>>>>>>>>>>>


dico solo: O MERDA, NVIDIA s'e' nCAZZATA!!!
Non cominciamo a spammare con battute e toni da bar please.. ;)

Quello che c'e' da chiedersi e' il processo produttivo che verra' adottato per avere maggiori frequenze e maggior numero di unita' shaders..

Foglia Morta
14-02-2007, 11:51
http://uk.theinquirer.net/?article=37614
ATI'S coming R600 launch is causing fevered speculation and engendering widespread confusion.

Pictures of R600XTX OEM/SI version made the web rounds last weekend, and many readers got asked us what's going on with AMD.

Firstly, the PCB design of these products pictured are identical to the final form factor, and around nine inches long. And there will be a special cooler, designed as a one-off.

We can now reveal to you that the board you have been seeing around the web is actually a specific design which has only one customer right now. The name of that customer is Apple and it will also be available in Crossfire mode.

While we have zero doubts that Dell XPS/Dellienware and some other parties will pick it up as well, right now, the nice red cooler design is just Apple's and Apple's alone.

Personally, I have no doubt that Voodoo PC will ship the R600 with its water-cooling block. The company decided to go with vapour chamber technology, or a 2D version of the traditional heatpipe concept we have all come to know and endure.

Vapour Chamber technology is pretty well known in the world of CPU cooling, thanks to the Danish company named Asetek, and its "VapoChill" systems which propelled CPUs beyond the limits of water-cooling.

Asetek also made a conventional VapoChill Micro cooler, and you can perhaps visualise the R600's cooler as the VapoChill Micro for the GPU. We don't know yet which firm will produce this cooler for AMD/ATI, but we suspect only one or two players are in the frame. Now, the power connector story is a pretty interesting one. At present, there is actually only one design for both OEM/SI and retail/AIBs, and that one is 8-pin/6-pin. You can use 6+6-pin configuration, but if you do not plug 8-pin/6-pin, the ATI Catalyst driver suite will forbid you to enter the "Overdrive Zone".

Yes, you've read it right - the R600XTX is coming out with a legal overclocking mode, no nonsense and limiting overclocking to its partners like some other companies have. The clocks have not been set yet. Even AMD is waiting until a couple of days before the launch before it makes that decision.

The current estimate is that the memory will float between 1 and 1.1GHz GDDR-4 memory in DDR mode (2.0-2.2 GHz), while the GPU clock will be set around 800MHz. Some say 826MHz, but we're not sure how far the Overdrive will go. We'd say not beyond 850 MHz, but that is just my personal opinion.

Our sources tell us that the clock bump should be around 10 per cent for the GPU and 14 per cent for the memory, bringing the total clock to 880/2400-2600. It is insane to see a 700M+ 80nm transistor chip run at such a high clock, especially given the limitations the G80 had with sub-700M chip and 90nm process, but this is an industry where anything that can happen will happen.

These estimates are for the A13 revision. As we wrote quite some time ago, AMD/ATI decided to re-spin the chip to solve some problems it had with the product. It turns out that those problems involved engineers trying to get as high a clock as possible and to try to lower the power consumption, which is pretty steep right now - but still within do-able limits.

The BIOS for the board is now a "smart" one - it will detect whether the GPU is leaking current and will throttle power to prevent thermal or electrical "episodes".

So, the R600XTX has a special OEM/SI design mostly for Apple, the retail versions won't come with water cooling, but rather advanced vapour chamber technology, and the board has 8/6-pin config but can be used with two 6-pin ones - in which case you'll lose the Overdrive feature and stay inside a 225W power envelope, just like Nvidia Geforce 8800GTS . We will bring you more details about the connectivity of R600 boards later in the day. µ
ora pare che 2x6pin sia abbastanza per alimentare la scheda

T3d
14-02-2007, 12:33
http://uk.theinquirer.net/?article=37614

ora pare che 2x6pin sia abbastanza per alimentare la scheda
esatto.. 6+8pin servirà esclusivamente per l'overclock :) questo indica che la scheda non consumerà più di 225W in condizioni di default

molto bene AMD! :cool:

Catan
14-02-2007, 12:42
Non cominciamo a spammare con battute e toni da bar please.. ;)

Quello che c'e' da chiedersi e' il processo produttivo che verra' adottato per avere maggiori frequenze e maggior numero di unita' shaders..


come tutte le cose di nvidia a questa parte solitamente buttano fuori un prodotto prematuro e mal ingegnerizzato anche se potente e poi dopo circa 6 mesi lo mettono a posto e te lo proprinano come nuova gpu.
fu cosi dalla 5800-5900 e 7800-7900.
io non credo alle specifiche di inquirer semplicemente xè quando si parlava di g80 e g81 si diceva che il g81 doveva avere 32pp e invece usci identica stessa gpu a 24pp e con il processo produttivo migliorato.
io credo che anche questa ipotetica 8900 uscirà a 80 sistemeranno il tmds dentro la gpu in modo da ridurre le dimensioni di 1 o 2 cm,
alzeranno le frequenze in modo che i 600mhz siano lo standard e non l'oc.
per il bus ma sencondo me vederlo a 512bit è abb utopistico anche xè alcune soluzioni lassciano intendere che nvidia non riesce a farlo.
vi spiego abbiamo visto che la 8800gts va con il bus a 320bit sia con tagli di memoria da 320mb che da 640.
visto che la cosa era possibile associando 10 controler ad un banco da 32mb o 64mb e nella gtx si associano 12 controllr ad ogni banco da 64mb.
a questo punto xè non associare subito 16 controler per 64mb di ram?
io credo si siano fermati per ovvi limite del controler crossbar.

Foglia Morta
14-02-2007, 12:52
come tutte le cose di nvidia a questa parte solitamente buttano fuori un prodotto prematuro e mal ingegnerizzato anche se potente e poi dopo circa 6 mesi lo mettono a posto e te lo proprinano come nuova gpu.
fu cosi dalla 5800-5900 e 7800-7900.
io non credo alle specifiche di inquirer semplicemente xè quando si parlava di g80 e g81 si diceva che il g81 doveva avere 32pp e invece usci identica stessa gpu a 24pp e con il processo produttivo migliorato.
io credo che anche questa ipotetica 8900 uscirà a 80 sistemeranno il tmds dentro la gpu in modo da ridurre le dimensioni di 1 o 2 cm,
alzeranno le frequenze in modo che i 600mhz siano lo standard e non l'oc.
per il bus ma sencondo me vederlo a 512bit è abb utopistico anche xè alcune soluzioni lassciano intendere che nvidia non riesce a farlo.
vi spiego abbiamo visto che la 8800gts va con il bus a 320bit sia con tagli di memoria da 320mb che da 640.
visto che la cosa era possibile associando 10 controler ad un banco da 32mb o 64mb e nella gtx si associano 12 controllr ad ogni banco da 64mb.
a questo punto xè non associare subito 16 controler per 64mb di ram?
io credo si siano fermati per ovvi limite del controler crossbar.
Penso ti riferissi a G70 e G71 :D

Comunque tempo fa nvidia non l'aveva detto chiaramente ma aveva lasciato intendere che potrebbero fare una scheda con bus a 512bit con G80. IMHO ci sarà , così come il gbyte di memoria. Per le 160 unità scalari mi pare strano... le rese produttive di G80 con 128 stream processor si diceva fossero il 66-70% . Si vedrà :boh:

overjet
14-02-2007, 12:59
Tabella riassuntiva delle caratteristiche


http://www.ocworkbench.com/2007/newsphotos/feb/R600%20info.jpg

Athlon 64 3000+
14-02-2007, 13:19
ho visto le tabelle delle varie schede Ati e Nvidia e penso che le schede dual gpu siano improponibili anche se G80 fosse a 80 nanometri perchè stiamo parlando di schede che con gpu singola consuma dai 100W in su e non come la 750GX2 che è stata fatta grazie al fatto che G71 consumava davvero poco.

Simon82
14-02-2007, 13:44
come tutte le cose di nvidia a questa parte solitamente buttano fuori un prodotto prematuro e mal ingegnerizzato anche se potente e poi dopo circa 6 mesi lo mettono a posto e te lo proprinano come nuova gpu.
fu cosi dalla 5800-5900 e 7800-7900.
io non credo alle specifiche di inquirer semplicemente xè quando si parlava di g80 e g81 si diceva che il g81 doveva avere 32pp e invece usci identica stessa gpu a 24pp e con il processo produttivo migliorato.
io credo che anche questa ipotetica 8900 uscirà a 80 sistemeranno il tmds dentro la gpu in modo da ridurre le dimensioni di 1 o 2 cm,
alzeranno le frequenze in modo che i 600mhz siano lo standard e non l'oc.
per il bus ma sencondo me vederlo a 512bit è abb utopistico anche xè alcune soluzioni lassciano intendere che nvidia non riesce a farlo.
vi spiego abbiamo visto che la 8800gts va con il bus a 320bit sia con tagli di memoria da 320mb che da 640.
visto che la cosa era possibile associando 10 controler ad un banco da 32mb o 64mb e nella gtx si associano 12 controllr ad ogni banco da 64mb.
a questo punto xè non associare subito 16 controler per 64mb di ram?
io credo si siano fermati per ovvi limite del controler crossbar.
Concordo sugli aspetti sollevati. Ovviamente tutte le aziende si trovano a dover proporre la soluzione high end subito per stupire il mercato, e quasi sempre l'ingegnerizzazione non va di pari passo alle scelte commerciali di queste aziende. In questo caso i stretti rapporti di una o dell'altra con le fonderie TSMC e & permettono grossi guadagni nel rispettare le tempistiche se il progetto e' nato (buono e davvero all'avanguardia) in tempo con le difficolta' che ogni nuova gpu andra' incontro al momento dei primi tape out. Ovviamente in questi frangenti si giocano molti aspetti nella riuscita di una nuova soluzione. Talvolta succede probabilmente che la commessa da parte delle aziende alle fonderie venga posticipata per effettuare modifiche dell'ultim'ora quando la concorrenza si dimostra a tutti gli effetti agguerrita e con in mano una soluzione che potenzialmente oscurerebbe la propria gia' in fase di creazione del silicio.
Questa credo sia la soluzione peggiore perche' probabilmente il tuning per aumentare prestazioni o funzionalita' non segue di pari passo il processo produttivo e ci si improvvisa con soluzioni estreme chiaramente al limite. La 5800 Ultra credo sia l'esempio palese di questa pessima soluzione.

overjet
14-02-2007, 14:16
Speriamo che escano giochi che sfruttino queste schede video... Altrimenti quanti soldi buttati via...

Anche se mi pare di capire che i migliori titoli stanno uscendo solo per le console e abbandonando il mondo dei pc :(

Soulbringer
14-02-2007, 16:43
Speriamo che escano giochi che sfruttino queste schede video... Altrimenti quanti soldi buttati via...

Anche se mi pare di capire che i migliori titoli stanno uscendo solo per le console e abbandonando il mondo dei pc :(


Eh già..ti dicono nulla crysis e stalker?
Cmq anche secondo me l'architettura di g80 è mal ottimizzata..hanno fatto i salti mortali per farla uscire presto: ora la overcloccheranno da fare schifo e la presenteranno come la "Nuova" 8900gtx x stare dietro a r600..tutta sta frenesia deve finire xò..

appleroof
14-02-2007, 16:47
Eh già..ti dicono nulla crysis e stalker?
Cmq anche secondo me l'architettura di g80 è mal ottimizzata..hanno fatto i salti mortali per farla uscire presto: ora la overcloccheranno da fare schifo e la presenteranno come la "Nuova" 8900gtx x stare dietro a r600..tutta sta frenesia deve finire xò..

posso chiedere in base a cosa affermi questo? (lasciando stare la :mc: del tmds fuori dalla gpu)? :)

rdv_90
14-02-2007, 16:50
Speriamo che escano giochi che sfruttino queste schede video... Altrimenti quanti soldi buttati via...

su questo non c'è problema... ormai i programmatori scrivono con i piedi e riescono a sfruttare al 100% questa vga solo per fare andare pacman :muro: :muro:

appleroof
14-02-2007, 16:52
su questo non c'è problema... ormai i programmatori scrivono con i piedi e riescono a sfruttare al 100% questa vga solo per fare andare pacman :muro: :muro:

io sono convinto (forse sono troppo ottimista, non so) che con le dx10 si avrà maggiore ottimizzazione che in passato, e che gli ultimi giochi fanno pietà da questo punto di vista per il fatto che tutti sono "impegnati" sulle dx10....

Foglia Morta
14-02-2007, 17:05
http://uk.theinquirer.net/?article=37631
WE FINALLY managed to find out the commercial name behind cards based on a pair of ATI R600 chips.

The top-of-the-line card will be known as the Radeon X2800XTX2 and will be the same concept as Nvidia's GX2 card. So you can expect two R600 chips on a card. We don't know how DAAMIT plans to implement this, as we may be talking about two PCBs or maybe just one. Nvidia went for two PCBs last year with its Geforce 7950GX2 and our money is on ATI following a similar route.

We also have the rest of the specs, although final clocks may still change slightly. Both chips should end up clocked at 575MHz core and 2000MHz GDDR4 memory. This version has the 256-bit memory controller probably because of technical difficulties to make two chips work at 512-bit memory controller speed. The card is equipped with 2x512MB memory, a total of 1GB, and has two times 96-Shader units. It is made using a 80 nanometre process.

The best of all is that it will cost $600. This was ATI's best-kept secret so far but Nvidia is also doing some dual G80 card to compete this one.

The single R600 called Radeon 2X800XTX will be clocked at higher speeds with better specs. Stay tuned. Oh yes, this is how Quad Crossfire is actually going to work. Just plug two of these cards. You can read more about that here. µ
Secondo me theinq scrive tanto per riempire la pagina... imho è impossibile fare una dual gpu con consumi così alti. Penso che ha preso per buone quelle info di ocworkbench facendo finta di non vedere che quella tabella indica RV630 e RV610 come parti a 80nm mentre lui stesso dice che saranno a 65nm , e mentre diceva pure che R600 avrebbe avuto 64 shader.
soffre di disturbi alla memoria :rolleyes:

Soulbringer
14-02-2007, 17:36
posso chiedere in base a cosa affermi questo? (lasciando stare la :mc: del tmds fuori dalla gpu)? :)

Come è possibile che nVidia ultimamente butti fuori sempre una scheda top di gamma 5 mesi prima di ati? Ha da sempre avuto questa politica..commercializzare qualsiasi cosa vada più dell'ultima ati senza contare quanto sia ottimizzata e pronta..

DjLode
14-02-2007, 17:52
Come è possibile che nVidia ultimamente butti fuori sempre una scheda top di gamma 5 mesi prima di ati? Ha da sempre avuto questa politica..commercializzare qualsiasi cosa vada più dell'ultima ati senza contare quanto sia ottimizzata e pronta..

Da quanto segui il mercato delle schede video? Poco vero? :asd:

Soulbringer
14-02-2007, 17:54
Da quanto segui il mercato delle schede video? Poco vero? :asd:

non credo...

appleroof
14-02-2007, 17:55
Come è possibile che nVidia ultimamente butti fuori sempre una scheda top di gamma 5 mesi prima di ati? Ha da sempre avuto questa politica..commercializzare qualsiasi cosa vada più dell'ultima ati senza contare quanto sia ottimizzata e pronta..

diversa gestione dei tempi di commercializzazione? Semplicemente nvidia ha fatto prima (non solo questa volta) e si è presa tutto il tempo per rispondere ad R600, ben prevedendo che questo sarebbe andato meglio della sua top dx10 visto che sarebbe uscito molto dopo (ma di quanto?) con la 8900gtx, già prevista per recuperare.

sopratutto ha fatto uscire un chip complesso come non si era mai visto finora (con una tecnologia "arrivata" come quella dei 90nm) che scalda meno di rv580 andando il doppio, (e con un sistema di dissipazione che sembra passivo per quanto non si sente ma questo non attiene strettamente al chip ovviamente, ma alla bontà del progetto complessivo) più ottimizzato di così davvero non saprei....

infine, non ho sentito di crash, fusioni, esplosioni, problemi di visualizzazione, non capisco in cosa G80 non sia pronto... :boh:

Alexkidd85
14-02-2007, 18:18
Beffeggiavo un mio amico che aveva preso una 8800gtx dicendogli "come caxxo fai a prendere una scheda video che è già morta,visto che tra un poco esce l'r600 e ti farà perdere tanto a livello economico(io vedo anche questo quando compro 700 euro per poi perderne 300 dopo 1 mese)" ma non fu così. Ati ha ritardato(presto vedremo perché,considerando che all'amd non sono cretini) e l'nvidia ha fatto davvero una bella mossa. Una Vga potente sulle dx9(aspettando i test su dx10) che ha fatto venire la voglia a tanti,una resa a livello energetico moderata(a sto punto,vedendo i consomi previsti di r600,tecnologia sicuramente superiore a parte)e con tutti i puntini sulle i(shader unificati e hdr e filtri attivabili) buttata sul mercato con l'intento di attirare e ci è riuscita,concentrando come dice appleroof i suoi sforzi,sicuramente su 8900gtx(staremo a vedere quanto starà al passo dell'amd,in questoi caso). Ma fino ad ora,non mi sento di condannare la scelta del mio amico in nessun modo,specie se considero che vendendo la gx2 che aveva ha dato solo la differenza...Un buon colpo da parte di nvidia imho...staremo a vedere ora se saprà reggere lo scontro con l'r600 :)

appleroof
14-02-2007, 18:27
Beffeggiavo un mio amico che aveva preso una 8800gtx dicendogli "come caxxo fai a prendere una scheda video che è già morta,visto che tra un poco esce l'r600 e ti farà perdere tanto a livello economico(io vedo anche questo quando compro 700 euro per poi perderne 300 dopo 1 mese)" ma non fu così. Ati ha ritardato(presto vedremo perché,considerando che all'amd non sono cretini) e l'nvidia ha fatto davvero una bella mossa. Una Vga potente sulle dx9(aspettando i test su dx10) che ha fatto venire la voglia a tanti,una resa a livello energetico moderata(a sto punto,vedendo i consomi previsti di r600,tecnologia sicuramente superiore a parte)e con tutti i puntini sulle i(shader unificati e hdr e filtri attivabili) buttata sul mercato con l'intento di attirare e ci è riuscita,concentrando come dice appleroof i suoi sforzi,sicuramente su 8900gtx(staremo a vedere quanto starà al passo dell'amd,in questoi caso). Ma fino ad ora,non mi sento di condannare la scelta del mio amico in nessun modo,specie se considero che vendendo la gx2 che aveva ha dato solo la differenza...Un buon colpo da parte di nvidia imho...staremo a vedere ora se saprà reggere lo scontro con l'r600 :)

si dal punto di vista commerciale non c'è dubbio. aggiungo soltanto (e non solo perchè ne sono possessore, nulla mi vieta di passare ad R600 o 8900gtx se ne avrò voglia) che la 8800gtx secondo me è attrezzata per durare a lungo, dimostrandosi veramente un ottimo prodotto, nonchè un acquisto lungimirante (sopratutto per chi come me ha intenzione poi di affiancarla più in là ad un sistema ancora più prestante, tipo un quad amd oppure un bel e6600 si vedrà). Se poi a fine anno crysis o altri titoloni scatteranno, mi rimangio tutto, ma non credo proprio ;)

DjLode
14-02-2007, 18:38
Io francamente non capisco due cose:
- il topic è su R600 e G80 non c'entra una fava, se poi il moderatore chiude il topic si riapre a Marzo. Siamo stati avvertiti e non credo ci vogliano chissà quali specie di volpi a capire no?

- non capisco come si faccia a criticare per qualsiasi motivo (se non per ingombro, forse e dico forse i consumi) la 8800. Anche se uscirà (e lo farà) la 8900 e sarà (e lo sarà) più veloce... questo rende la 8800 obsoleta? Vecchia? Non pronta? Non ottimizzata? Credo sia quanto di più ridicolo abbia mai sentito.

Ora, per favore, aprite un thread dove parlate solo di 8900, di vendite di 8800, di gente che se la tira perchè ne ha 2/3/18 e le vende appena esce la nuova? I moderatori mi pare siano stati chiari, ripeto.

appleroof
14-02-2007, 18:50
Io francamente non capisco due cose:
- il topic è su R600 e G80 non c'entra una fava, se poi il moderatore chiude il topic si riapre a Marzo. Siamo stati avvertiti e non credo ci vogliano chissà quali specie di volpi a capire no?

- non capisco come si faccia a criticare per qualsiasi motivo (se non per ingombro, forse e dico forse i consumi) la 8800. Anche se uscirà (e lo farà) la 8900 e sarà (e lo sarà) più veloce... questo rende la 8800 obsoleta? Vecchia? Non pronta? Non ottimizzata? Credo sia quanto di più ridicolo abbia mai sentito.

Ora, per favore, aprite un thread dove parlate solo di 8900, di vendite di 8800, di gente che se la tira perchè ne ha 2/3/18 e le vende appena esce la nuova? I moderatori mi pare siano stati chiari, ripeto.

mi pare che altri utenti si siano espressi in argomenti un pò a latere di R600 (compreso proprio un moderatore e anche te stesso :eek: , sia pure con una piccola osservazione)....cmq vabbè... ;)

Evangelion01
14-02-2007, 19:34
si dal punto di vista commerciale non c'è dubbio. aggiungo soltanto (e non solo perchè ne sono possessore, nulla mi vieta di passare ad R600 o 8900gtx se ne avrò voglia) che la 8800gtx secondo me è attrezzata per durare a lungo, dimostrandosi veramente un ottimo prodotto, nonchè un acquisto lungimirante (sopratutto per chi come me ha intenzione poi di affiancarla più in là ad un sistema ancora più prestante, tipo un quad amd oppure un bel e6600 si vedrà). Se poi a fine anno crysis o altri titoloni scatteranno, mi rimangio tutto, ma non credo proprio ;)

Quoto e aggiungo che , visto le differenze archtetturali, la differenza di prestazioni tra 8800 e 8900 saranno basse... imho. :p

Alexkidd85
14-02-2007, 20:11
Io francamente non capisco due cose:
- il topic è su R600 e G80 non c'entra una fava, se poi il moderatore chiude il topic si riapre a Marzo. Siamo stati avvertiti e non credo ci vogliano chissà quali specie di volpi a capire no?

- non capisco come si faccia a criticare per qualsiasi motivo (se non per ingombro, forse e dico forse i consumi) la 8800. Anche se uscirà (e lo farà) la 8900 e sarà (e lo sarà) più veloce... questo rende la 8800 obsoleta? Vecchia? Non pronta? Non ottimizzata? Credo sia quanto di più ridicolo abbia mai sentito.

Ora, per favore, aprite un thread dove parlate solo di 8900, di vendite di 8800, di gente che se la tira perchè ne ha 2/3/18 e le vende appena esce la nuova? I moderatori mi pare siano stati chiari, ripeto.

Vabé ok che si esce un pochino Ot ma se si deve solo commentare ogni rumor o ogni notizia ufficiale che esce,dov'è lo spirito di un forum!?Commentiamo solo le news della redazione e ce ne usciamo e quando esce r600 commentiamo il tutto con un bel 3d. Sono d'accordo con te di non sviare(o chiamalo OT) ma si stava discutendo comunque di r600 anche se in maniera trasversale.

Grey 7
14-02-2007, 20:21
Quoto e aggiungo che , visto le differenze archtetturali, la differenza di prestazioni tra 8800 e 8900 saranno basse... imho. :p

quoto pure io

appleroof
14-02-2007, 20:27
Vabé ok che si esce un pochino Ot ma se si deve solo commentare ogni rumor o ogni notizia ufficiale che esce,dov'è lo spirito di un forum!?Commentiamo solo le news della redazione e ce ne usciamo e quando esce r600 commentiamo il tutto con un bel 3d. Sono d'accordo con te di non sviare(o chiamalo OT) ma si stava discutendo comunque di r600 anche se in maniera trasversale.

e poi una discussione su R600 non può prescindere da una comparazione con il punto di riferimento attuale tra le dx10 e non può credo prescindere da una discussione generale sulle schede dx10...forse l'hype prolungata allo stremo sta avendo effetti collaterali imprevisti... :sofico: :asd: :asd: :asd:

T3d
14-02-2007, 20:36
e poi una discussione su R600 non può prescindere da una comparazione con il punto di riferimento attuale tra le dx10 e non può credo prescindere da una discussione generale sulle schede dx10...forse l'hype prolungata allo stremo sta avendo effetti collaterali imprevisti... :sofico: :asd: :asd: :asd:
quoto :(

stiamo tutti uscendo un po' di capa :D

DjLode
14-02-2007, 20:48
Fate come volete, e parlo con tutti non solo con te Apple, il mio post non era riferito ne a te ne a nessuno in particolare. Poi se Raven o chi per lui chiudono non diciamo che i moderatori sono troppo duri ;)

appleroof
14-02-2007, 20:54
Fate come volete, e parlo con tutti non solo con te Apple, il mio post non era riferito ne a te ne a nessuno in particolare. Poi se Raven o chi per lui chiudono non diciamo che i moderatori sono troppo duri ;)

si lo so che non ce l'hai solo con me, ti assicuro che non sono ironico nel dirlo... ;) :mano:

solo mi sei sembrato un pò eccessivo,non nella sostanza, nella forma :D , al limite esiste il tasto "segnala" come sai e se un mod ritiene opportuno interviene..ma che te lo dico a fare, lo sai meglio di me...stop OT :)

Simon82
14-02-2007, 21:11
:incazzed:

Defragg
14-02-2007, 21:26
:incazzed:
meglio di mille parole :D

ma ora mi sorge un dubbio...ma The Inq pubblica "notizie" ( :rolleyes: ) ogni 3/4 d'ora? :mbe:

Grey 7
14-02-2007, 21:49
:incazzed:

:asd:

dura la vita del mod eh? :asd:
vabbe basta, non bannatemi :D

Grey 7
14-02-2007, 21:51
meglio di mille parole :D

ma ora mi sorge un dubbio...ma The Inq pubblica "notizie" ( :rolleyes: ) ogni 3/4 d'ora? :mbe:

bhe..ci vuol poco a inventarsele le notizie , cosa che the inquirer ogni tanto fa secondo me :asd:

Simon82
14-02-2007, 21:52
:asd:

dura la vita del mod eh? :asd:
vabbe basta, non bannatemi :D
Il bottone per chiudere e sospendere non e' altrettanto duro ma diventa di giorno in giorno piu' morbido.

Dai ragazzi.. io ve l'avevo detto.. esiste una sezione off topic. Questa NON e' tale sezione.

Latest warning, be careful. :)

Athlon 64 3000+
15-02-2007, 11:50
http://uk.theinquirer.net/?article=37638
http://uk.theinquirer.net/?article=37614

Nella prima dice che la X2800XT o X2900XT( o come si chiamerà) avrà il bus a 256 bit e non a 512 bit come il modello XTX.
Ogni giorno inquirer ne spara una della sue,vai a capirci qualcosa.
:confused:

halduemilauno
15-02-2007, 12:07
http://uk.theinquirer.net/?article=37638
http://uk.theinquirer.net/?article=37614

Nella prima dice che la X2800XT o X2900XT( o come si chiamerà) avrà il bus a 256 bit e non a 512 bit come il modello XTX.
Ogni giorno inquirer ne spara una della sue,vai a capirci qualcosa.
:confused:

X2900
http://www.vr-zone.com/?i=4672
;)

xk180j
15-02-2007, 13:12
l'intera gamma r600 e relativi prezzi tutto chiaramente non confermato

http://www.matbe.com/actualites/15451/amd-ati-gamme-directx-10/

Foglia Morta
15-02-2007, 13:23
http://www.vr-zone.com/?i=4678
INQ reported that R600 architecture will utilize PCI Express x16 connection to the fullest by delivering both video and audio content using HDMI. R600 board will be shipped with at least one DVI-to-HDMI dongle, with DVI serving as the bandwidth provider for video and audio. R600 chip has the bandwidth to drive not one, but two HDMI ports at the same time with resolution at 1920x1080 (1080p or 2560x1440 (1440p).

The_SaN
15-02-2007, 13:25
Io son curioso di vedere se ci saranno queste fantomatiche schede doppie ... sono curioso soprattutto quanto a prestazioni e consumi, potrebbe essere una soluzione per avere un crossfire senza spararsi per la bolletta (con prestazioni di poco inferiori)
Sperem :D

Free Gordon
15-02-2007, 14:07
http://uk.theinquirer.net/?article=37638
http://uk.theinquirer.net/?article=37614

Nella prima dice che la X2800XT o X2900XT( o come si chiamerà) avrà il bus a 256 bit e non a 512 bit come il modello XTX.
Ogni giorno inquirer ne spara una della sue,vai a capirci qualcosa.
:confused:



256bit per due..

Come la 7950GX2. ;)

Quella versione di r600 dovrebbe avere due chip su una sola scheda...ma imho non la faranno.

A.L.M.
15-02-2007, 14:42
Mi sembra che nessuno le abbia ancora postate, e non so quanto possano essere veritiere, ma in rete circolano già i risultati dei primi benchmark della X2800XTX.
http://www.hardforum.com/showthread.php?t=1157174
Pareri? :Perfido:

Kharonte85
15-02-2007, 14:44
Pareri? :Perfido:
:old: e molto probabilmente fake...vedere pagine precedenti ;)

A.L.M.
15-02-2007, 14:49
Hmmm, visto, scusate...:fagiano:
In effetti non mi sembravano nemmeno così esaltanti... :stordita:

dariox am2
15-02-2007, 15:23
ragazzi sarei curioso di sapere una cosa...ma queste famigerate r600, saranno ai livelli della 8800gtx?? di meno? di piu?

Mister Tarpone
15-02-2007, 15:24
ragazzi sarei curioso di sapere una cosa...ma queste famigerate r600, saranno ai livelli della 8800gtx?? di meno? di piu?

un pò di + ;)

Catan
15-02-2007, 15:49
ragazzi sarei curioso di sapere una cosa...ma queste famigerate r600, saranno ai livelli della 8800gtx?? di meno? di piu?

senza test con mano non si puo sapere.
c'è chi dice uguale chi il 20%in + e chi il 40%.
non resta che aspettare un altro mesetto;)

Mister Tarpone
15-02-2007, 15:50
senza test con mano non si puo sapere.
c'è chi dice uguale chi il 20%in + e chi il 40%.
non resta che aspettare un altro mesetto;)
Imho eh ;)

Catan
15-02-2007, 15:53
Imho eh ;)

mmm credo un pò di + non il 40% ma un buon 30% forse.
poi come detto bisogna vedere i banchi di prova con e senza filtri e che tipologia di gioco e su che sistema operativo;)

Simon82
15-02-2007, 15:56
Chi offre di piu? :p


Finche' non ci sono test alla mano e' assurdo fare delle percentuali, e' assurdo farle in ambiente DX9 e assurdo generalizzare in un unico valore quello che imho avra' alti e bassi (o altissimi e bassissimi) a seconda dell'ambiente testato, che siano le capacita' computazionali in ambiente pixel shading, vertex shading, fisica, filtri post processing ecc ecc.. ;)

Mister Tarpone
15-02-2007, 16:00
Chi offre di piu? :p


Finche' non ci sono test alla mano e' assurdo fare delle percentuali, e' assurdo farle in ambiente DX9 e assurdo generalizzare in un unico valore quello che imho avra' alti e bassi (o altissimi e bassissimi) a seconda dell'ambiente testato, che siano le capacita' computazionali in ambiente pixel shading, vertex shading, fisica, filtri post processing ecc ecc.. ;)

Quindi io sono assurdo... :p
...e solo perchè sto ipotizzando sulle prestazioni di una vga ;)

appleroof
15-02-2007, 16:19
Quindi io sono assurdo... :p
...e solo perchè sto ipotizzando sulle prestazioni di una vga ;)

immagino volesse dire giustamente che in assenza di dati certi e considerando la miriade di variabili in gioco non si possono azzardare "cifre" assolute, al limite si possono fare ipotesi ragionando in termini di valori medi (anche io l'ho fatto in passato a proposito di R600) però anche quello è solo un "per parlare", il verdetto ci sarà solo sul campo, come sempre :)

Mister Tarpone
15-02-2007, 16:24
immagino volesse dire giustamente che in assenza di dati certi e considerando la miriade di variabili in gioco non si possono azzardare "cifre" assolute, al limite si possono fare ipotesi ragionando in termini di valori medi (anche io l'ho fatto in passato a proposito di R600) però anche quello è solo un "per parlare", il verdetto ci sarà solo sul campo, come sempre :)

Scherzavo ;)

halduemilauno
15-02-2007, 16:29
ragazzi sarei curioso di sapere una cosa...ma queste famigerate r600, saranno ai livelli della 8800gtx?? di meno? di piu?

dato che saranno tre versioni si presume che rispetto alla 8800gtx ce ne sarà una sopra, una pari e una sotto. presumibilmente.
;)

zorco
15-02-2007, 16:31
interessante sarà pure vedere come si comporteranno le versioni di fascia più bassa derivate direttamente dal chip r600 mi riferisco alla x2800gto "almeno così dovrebbe chiamarsi" dotata di 96 unità shader bus 256bit e 256mb ddr3,che dovrebbe rivaleggiare con 8800gts 320mb...

appleroof
15-02-2007, 16:34
dato che saranno tre versioni si presume che rispetto alla 8800gtx ce ne sarà una sopra, una pari e una sotto. presumibilmente.
;)

anche io mi aspetto così, almeno a come stanno ora le cose....

interessante sarà pure vedere come si comporteranno le versioni di fascia più bassa derivate direttamente dal chip r600 mi riferisco alla x2800gto "almeno così dovrebbe chiamarsi" dotata di 96 unità shader bus 256bit e 256mb ddr3,che dovrebbe rivaleggiare con 8800gts 320mb...

quoto, finora la discussione si è incentrata sulle top, ma poi sarà molto interessante vedere sulla fascia media come sarà la battaglia...;)

microcip
15-02-2007, 18:03
magari sarà pure old:D
ma oggi sfogliando alcuni vecchi giornali mi è capitato in mano un articolo sulle realizm dal costo di (ai tempi) 3.000€...l'articolo è datato 10-2004
subito ho notato il sistema di raffreddamento e sembra lo stesso di R600 con qualche modifica, che la ati abbia comprato il progetto e/o scopiazzato alla grande?

foto:
http://www.tomshw.it/guides/hardware/graphic/20041001/images/800-wcover.jpg
http://img408.imageshack.us/img408/2016/pic4vc6.jpg

Catan
15-02-2007, 18:09
anche io mi aspetto così, almeno a come stanno ora le cose....



quoto, finora la discussione si è incentrata sulle top, ma poi sarà molto interessante vedere sulla fascia media come sarà la battaglia...;)


purtroppo una battaglia che attenderemo + di r600.
la fascia media è ancora saldamente in mano alle soluzioni serie 7xxx di nvidia e serie x1xxx di ati per ora abbiamo solo una topvga nvidia di next gen che ha come avversario la x1950xtx che è la top della vecchia generazione.

poi come detto sopra per le sk nuove non sarà cosi facile decretare un vincitore subito subito visto che oltre a valutare l'impatto dei giochi dx9 toccherà valutare anche l'andamento in dx10.
poi i giochi in dx9 andarebbero valutati sia su xp che su vista.
nsomma tra tutte le variabbili abbiamo quella che potrebbe influenzare maggiormente i risultati cioè il sistema operativo.
ovviamente le next gen andrebbero provate su vista visto che sarà quello il loro banco di prova futuro ma molti stanno ancora con win xp quindi vorrebbero vendere i risultati su questa piattaforma.

cmq come ho detto qualche riga + su:
basta aspettare 1 mesetto;)

davide155
15-02-2007, 18:11
Insomma ragazzi....il consumo complessivo della top R600?
Quant'è?
E' maggiore o minore di una 8800gtx?
Dai connettori che ha sembrerebbe un buon 20% in più di corrente succhiata :rolleyes:

Grey 7
15-02-2007, 18:12
direi maggiore...si parla di 240W..la 8800gtx è un'utilitaria al confronto

davide155
15-02-2007, 18:16
direi maggiore...si parla di 240W..la 8800gtx è un'utilitaria al confronto

Allora alla ati non capiscono proprio una bene amata mazza :muro:

Se così fosse allora R600 può rimanere dov'è.......forzandomi a passare a G81 :(

appleroof
15-02-2007, 18:32
purtroppo una battaglia che attenderemo + di r600.
la fascia media è ancora saldamente in mano alle soluzioni serie 7xxx di nvidia e serie x1xxx di ati per ora abbiamo solo una topvga nvidia di next gen che ha come avversario la x1950xtx che è la top della vecchia generazione.

poi come detto sopra per le sk nuove non sarà cosi facile decretare un vincitore subito subito visto che oltre a valutare l'impatto dei giochi dx9 toccherà valutare anche l'andamento in dx10.
poi i giochi in dx9 andarebbero valutati sia su xp che su vista.
nsomma tra tutte le variabbili abbiamo quella che potrebbe influenzare maggiormente i risultati cioè il sistema operativo.
ovviamente le next gen andrebbero provate su vista visto che sarà quello il loro banco di prova futuro ma molti stanno ancora con win xp quindi vorrebbero vendere i risultati su questa piattaforma.

cmq come ho detto qualche riga + su:
basta aspettare 1 mesetto;)

si infatti, parlavo in prospettiva ;)

A.L.M.
15-02-2007, 18:35
direi maggiore...si parla di 240W..la 8800gtx è un'utilitaria al confronto

Boh, a me continua a sembrare strano. Secondo me consumerà uguale... Il processo produttivo a 80nm dovrebbe pareggiare le frequenze più alte. ;)

Evangelion01
15-02-2007, 18:36
direi maggiore...si parla di 240W..la 8800gtx è un'utilitaria al confronto

Roba da matti... ma non si fanno 2 conti? già la scheda costerà un patrimonio, in più costringono gli utenti a acquistare alimentatori da 100 e passa €...
senza contare il calore generato e la rumorosità. Comunque la differenza di prestazioni a mio parere dipenderà da quanto sarà efficiente l'architettura vertex e pixel di r600. E si vedrà davvero solo con giochi dx10 PESANTI.
Io direi un 20% in più al max da g80.... :oink:

zorco
15-02-2007, 18:46
Insomma ragazzi....il consumo complessivo della top R600?
Quant'è?
E' maggiore o minore di una 8800gtx?
Dai connettori che ha sembrerebbe un buon 20% in più di corrente succhiata :rolleyes:
direi nò maggiore ma spropositato si parla di 240w,praticamente quanto due 7950gx2:doh:

Grey 7
15-02-2007, 18:55
e noi paghiamo...:asd:

zorco
15-02-2007, 18:57
eh noi paghiamo...:asd:
io nò passo a xbox:Prrr:

belin
15-02-2007, 19:00
Radeon X2600XT and X2300 details elaborated

RV610 and RV630 heading for May


WE ALREADY told you that RV610 and RV630 chips are 65 nanometre. Unfortunately not all the details from this article and table are correct.
The RV630 is going to be known as the Radeon X2600XT and PRO. Radeon X2600XT is going to end up clocked at 650MHz core and 1600MHz GDDR3 memory with 256MB memory and 64 Shaders. To our surprise the card only supports a 128-bit memory interface. It should cost around $200. This will be ATI's first 65 nanometre chip.

The Radeon X2600PRO will end up witha 550MHz core clock with 1400MHz GDDR3 memory and a 128-bit memory interface. The card also has 64 Shader units, so sixteen more than the R580 current high-end chip. It is priced at $150.

Radeons X2300XT, PRO and LE are RV610. The top-of-the-line Radeon X2300XT is clocked at 650MHz and has the memory ticking away at 1400MHz. The card uses GDDR3 memory with a 128-bit memory controller and has 32 Shader units. It is another 65 nanometre chip and the card will sell for $100.

Necxt up is the Radeon X2300PRO with 500MHz core and 1400MHz GDDR3 memory with 128-bit memory controller. It has 32 Shader units, 65 nanometre and the 256MB version will sell for $80 while the 128Mbyter should sell for $70.

The last in this DirectX 10 mainstream and low-end, unified Shader line-up is the Radeon X2300LE. This card will end up clocked at 500MHz core and 800MHz memory. It uses 128MB of 128-bit GDDR 2 memory and will have 32 Shader units. The chip is 65nm, very low power consuming and will sell for around $60. A Direct X 10 card for $60 sounds like a nice bargain for Vista.

There cards are expected to launch after around the beginning of May. µ


...la fonte è la solita...:stordita:

ps. non c'è traccia dei 64bit di cui parlavano, con eccessiva sicurezza, altre fonti. meglio così. :)

Catan
15-02-2007, 19:08
Radeon X2600XT and X2300 details elaborated

RV610 and RV630 heading for May


WE ALREADY told you that RV610 and RV630 chips are 65 nanometre. Unfortunately not all the details from this article and table are correct.
The RV630 is going to be known as the Radeon X2600XT and PRO. Radeon X2600XT is going to end up clocked at 650MHz core and 1600MHz GDDR3 memory with 256MB memory and 64 Shaders. To our surprise the card only supports a 128-bit memory interface. It should cost around $200. This will be ATI's first 65 nanometre chip.

The Radeon X2600PRO will end up witha 550MHz core clock with 1400MHz GDDR3 memory and a 128-bit memory interface. The card also has 64 Shader units, so sixteen more than the R580 current high-end chip. It is priced at $150.

Radeons X2300XT, PRO and LE are RV610. The top-of-the-line Radeon X2300XT is clocked at 650MHz and has the memory ticking away at 1400MHz. The card uses GDDR3 memory with a 128-bit memory controller and has 32 Shader units. It is another 65 nanometre chip and the card will sell for $100.

Necxt up is the Radeon X2300PRO with 500MHz core and 1400MHz GDDR3 memory with 128-bit memory controller. It has 32 Shader units, 65 nanometre and the 256MB version will sell for $80 while the 128Mbyter should sell for $70.

The last in this DirectX 10 mainstream and low-end, unified Shader line-up is the Radeon X2300LE. This card will end up clocked at 500MHz core and 800MHz memory. It uses 128MB of 128-bit GDDR 2 memory and will have 32 Shader units. The chip is 65nm, very low power consuming and will sell for around $60. A Direct X 10 card for $60 sounds like a nice bargain for Vista.

There cards are expected to launch after around the beginning of May. µ


...la fonte è la solita...:stordita:

ps. non c'è traccia dei 64bit di cui parlavano, con eccessiva sicurezza, altre fonti. meglio così. :)


ricordati che con buona probabilità saranno le versioni hyper memory le 64bit.
cmq sono vga da ufficio e non giocabili.
sta x2600xt o x2600pro non sono male per il prezzo offerto.
con una x2600pro non sarebbe male spendere 150e ed avere una vga che credo vada come una x1950pro di adesso e forse qualcosa sopra!

Mister Tarpone
15-02-2007, 19:09
io nò passo a xbox:Prrr:

70/75€ a gioco...( :tie: eh!!! )

zorco
15-02-2007, 19:13
70/75€ a gioco...( :tie: eh!!! )
risparmio però sull'hw e fastidi vari,cmq non ho deciso definitivamente ci devo ancora pensare...

chiudimo ot subito sennò i mod si incazzano...

appleroof
15-02-2007, 19:19
non sò perchè, ma tutti stì rumors (almeno il 90%) mi sanno di bufala colossale, mi sembra che i siti facciano a gara a spararla grossa come se fossero disperati per la mancanza di notizie serie :asd: :asd:

Marko#88
15-02-2007, 19:21
non sò perchè, ma tutti stì rumors (almeno il 90%) mi sanno di bufala colossale, mi sembra che i siti facciano a gara a spararla grossa come se fossero disperati per la mancanza di notizie serie :asd: :asd:

anche secondo me...ogni giorno ci sono news discordanti...mah...chi vivrà vedrà...

Narmo
15-02-2007, 19:26
Mi sembra normale che se si ha in mano un ottimo prodotto (e R600 sembra esserlo) di informazioni se ne divulgano poche.
C'è anche da dire che fino ad adesso ATI non ha mai tradito le aspettative dei propri utenti (io ho avuto 2 GeForce e il resto Ati, mentre le prime 2 mi hanno dato rogne e problemi infiniti le altre (4 in totale) non hanno mai dato il minimo problema e sono sempre state all'altezza delle aspettative)

Mister Tarpone
15-02-2007, 19:28
Mi sembra normale che se si ha in mano un ottimo prodotto (e R600 sembra esserlo) di informazioni se ne divulgano poche.
C'è anche da dire che fino ad adesso ATI non ha mai tradito le aspettative dei propri utenti (io ho avuto 2 GeForce e il resto Ati, mentre le prime 2 mi hanno dato rogne e problemi infiniti le altre (4 in totale) non hanno mai dato il minimo problema e sono sempre state all'altezza delle aspettative)

...e io conosco chi ha avuto problemi con le ati e con nvidia no :asd:

appleroof
15-02-2007, 19:30
Mi sembra normale che se si ha in mano un ottimo prodotto (e R600 sembra esserlo) di informazioni se ne divulgano poche.

ma anche assolutamente no....

C'è anche da dire che fino ad adesso ATI non ha mai tradito le aspettative dei propri utenti (io ho avuto 2 GeForce e il resto Ati, mentre le prime 2 mi hanno dato rogne e problemi infiniti le altre (4 in totale) non hanno mai dato il minimo problema e sono sempre state all'altezza delle aspettative)

c'era un utente in "consigli per gli acquisti" l'altro giorno che affermava esattamente l'opposto, imho non sono questo tipo di esperienze personali a fare testo, ma la media totale, e dal punto di vista dell'affidabilità complessiva non ci sono particolari differenze: entrambe le case offrono prodotti buoni, in media, anche se diversi ;)

T3d
15-02-2007, 20:31
...e io conosco chi ha avuto problemi con le ati e con nvidia no :asd:

ma anche assolutamente no....



c'era un utente in "consigli per gli acquisti" l'altro giorno che affermava esattamente l'opposto, imho non sono questo tipo di esperienze personali a fare testo, ma la media totale, e dal punto di vista dell'affidabilità complessiva non ci sono particolari differenze: entrambe le case offrono prodotti buoni, in media, anche se diversi ;)

ma quale celerità nel rispondere :cool:
complimenti!

appleroof
15-02-2007, 20:34
ma quale celerità nel rispondere :cool:
complimenti!

grazie! ( :sbonk: )

T3d
15-02-2007, 20:37
grazie! ( :sbonk: )
ma figurati... sono sempre pronto ad elogiare un ottimo lavoro :cool:

appleroof
15-02-2007, 20:39
ma figurati... sono sempre pronto ad elogiare un ottimo lavoro :cool:

anche tu sei veloce però eh? Non è che eri lì con la pagina aperta pronto sul tasto rispondere :eek: ?






:asd: :asd: :asd:

T3d
15-02-2007, 20:40
anche tu sei veloce però eh? Non è che eri lì con la pagina aperta pronto sul tasto rispondere :eek: ?

:asd: :asd: :asd:

perché te la prendi così? il mio era un complimento sincero, veramente :(

appleroof
15-02-2007, 20:42
perché te la prendi così? il mio era un complimento sincero, veramente :(

e chi se l'è presa?

perchè avrei dovuto prendermela?


:asd: :asd:


(:nono: )

T3d
15-02-2007, 20:44
e chi se l'è presa?

perchè avrei dovuto prendermela?


:asd: :asd:


(:nono: )

ah ecco :cool:

l'unica cosa che non riesco ad interpretare sono le faccine " :asd: " e " :nono: ", si vede che è un po' tardi e sono stanco

appleroof
15-02-2007, 20:46
ah ecco :cool:
l'unica cosa che non riesco ad interpretare sono le faccine " :asd: " e " :nono: "

eppure non è difficile dai,sforzati un pochettino :friend:

adesso ti saluto, nn è il tread adatto per queste amabili disquisizioni, ;)