View Full Version : Radeon X2900 al debutto per fine Marzo
Redazione di Hardware Upg
19-02-2007, 17:27
Link alla notizia: http://www.hwupgrade.it/news/skvideo/20198.html
Previsto entro fine Marzo 2007 il debutto delle nuove schede video ATI top di gamma, note anche con il nome in codice di R600
Click sul link per visualizzare la notizia.
:| terribile potenza dovrebbe avere la x2900xtx da 1 gb di ddr4 e bus 512bit .
Luke usa la forza ...
@mattste
19-02-2007, 17:38
QUANDO ARRIVANO I BENCHMARK!?!?!?!?!??!?!?!?!?
NN VEDO L'ORA!!!!!! :)
QUANDO ARRIVANO I BENCHMARK!?!?!?!?!??!?!?!?!?
NN VEDO L'ORA!!!!!! :)
sicuramente non prima che la scheda sia lanciata.. :asd:
:| terribile potenza dovrebbe avere la x2900xtx da 1 gb di ddr4 e bus 512bit .
Luke usa la forza ...
più che altro servirà lo sforzo... dell'alimentatore... :asd: :sob:
gd350turbo
19-02-2007, 17:44
Costerà un miliardo di dollari !!!
( 1 gb di ddr4 )
ma come mai queste differenze di lunghezza x lo stesso modello?
OMMIODDIO! :eek: Visto che sono confermati i rumors sul bus e sui 700 mln di transistors, allora può davvero essere che abbia 64 shader a 4 vie... :eek:
Spellsword
19-02-2007, 17:48
700 milioni?!!! azzooooooooooo
E' così alla fine il mostriciattolo è quasi arrivato da noi.. ancora un pò di pazienza e poi posso valutare con cosa cambiare la X850
DevilsAdvocate
19-02-2007, 17:54
1 Giga di ram, raffreddamento a vapore, 9,5 pollici di lunghezza
(taglia extralarge)....... Se non schizza alla velocita' di un proiettile
supersonico restera' per sempre sugli scaffali.....
The_Killer
19-02-2007, 17:59
681 milioni di transistor vs. 700 milioni
384 bit vs. 512
769Mb vs. 1Gb
GDDR3 vs. GDDR4
90nm vs.80nm
chi la spunterà?
comunque è allucinante... andando avanti di questo passo metteremo a liquido le VGA e lascieremo le CPU ad aria!
graphixillusion
19-02-2007, 18:00
mmm c'e' anche una signora 8950gx2 da valutare... lo scontro fra titani si fa sempre piu' interessante... :D
cosa c'è di scioccante . sono 700 milioni. Dopo tutto esce 5 mesi dopo il G80. :)
Penso avrà una potenza mai vista :cool:
Speriamo di vedere qualche preview il prima possibile....anche perchè non potrò mai permettermela :sofico: .
un alimentatore da 1Kw basterà??? :asd: :rotfl:
non ho capito bene la storia del vaporetto :asd: :rotfl: come sarà questo fantasmagorico dissipatore?
melomanu
19-02-2007, 18:13
sti caxxi della scheda :eekk:
e dire che sto raccogliendo ( a fatica ) i soldi per cambiare la mia gloriosa 8500 con una x1650pro che mi durerà chissà quanto :asd:
un alimentatore da 1Kw basterà??? :asd: :rotfl:
non ho capito bene la storia del vaporetto :asd: :rotfl: come sarà questo fantasmagorico dissipatore?
dal thread su R600
http://web.me.unr.edu/wirtz/ME463_663/Special%20Topic%20Reports%2004/Vapor%20Chambers%20Matt%20Franich.ppt
Mister Tarpone
19-02-2007, 18:17
Costerà un miliardo di dollari !!!
( 1 gb di ddr4 )
+ n'altro miliardo per l' alimentatore ;)
sulla carta dovrebbe asfaltare leggermente il g80..staremo a vedere
pierluigi86
19-02-2007, 18:27
secondo me sarà il più grande flop della storia!
richiederà un consumo tale di corrente che chi usa il computer 8 ore al giorno dovrà fare un mutuo ad esempio
se consuma 100 w in media senza giocare per 8 ore al giorno pre 365 giorni per 0,14 euro al kw = 41 euro solo la scheda video ( assurdo ) senza aggiungere il consumo degli altri componenti. senza poi contare che costerà 600 euro e dopo 6 mesi costera 400. Spero che nessuno la compri almeno capiscono che le persone non sono polli... inoltre io mi chiedo chi ha un monitor da 1000 euro capace di sfruttarla a dovere...
Mister Tarpone
19-02-2007, 18:29
681 milioni di transistor vs. 700 milioni
384 bit vs. 512
769Mb vs. 1Gb
GDDR3 vs. GDDR4
90nm vs.80nm
chi la spunterà?
Indovina indovinello??? :)
*Pegasus-DVD*
19-02-2007, 18:31
WEEEEE SPETTACOLOOOOOOOOOOO
rondinix
19-02-2007, 18:33
senza parole....fantastica
dal thread su R600
Ho letto il pdf sul funzionamento di questi dissi Vapor Chamber, wow sulla carta sembra veramente innovativo. :)
dadolino
19-02-2007, 18:39
Costerà più di 600€...poi qualcuno dice che le console8pS3 in testa sono care)questa se va bene ti dura ubn paio di anni ma nel giro di sei mesi si svaluta della metà!
Mister Tarpone
19-02-2007, 18:40
Costerà più di 600€...poi qualcuno dice che le console8pS3 in testa sono care)questa se va bene ti dura ubn paio di anni ma nel giro di sei mesi si svaluta della metà!
Questa scheda la disintegra una ps3 ;)
romolo775
19-02-2007, 18:42
ma come mai le schede video aumentano il numero di transistor in modo esponenziale (rispettando l'osservazione di Moore) mentre i processori rimangono sostanzialmente arenati aumentando i transistor in modo ridotto tra una generazione e l'altra??? misteri della ricerca....
cmq si preannuncia un ottimo prodotto che probabilmente colmerà forse in parte il vantaggio di nvidia acquisito negli ultimi mesi.
ErminioF
19-02-2007, 18:44
Si a sfruttarla...finchè tranne raro caso (crysis) faranno solo conversioni xobox360 e ps3 c'è poco di cui rallegrarsi.
Tra l'altro tempo 1 mese e nvidia presenterà le varie 8900, mi sa che il primato di r600 durerà parecchio meno di quello della 8800gtx.
Io intanto aspetto qualcosa di fascia medio-alta per stalker :D
Infatti anche perchè la PS3 se non erro monta un chip direttamente derivato (per non dire uguale) al G70.. non c'è nulla di cui stupirsi che R600 sia più potente di RSX (anche grazie all'esperienza accumulata da ATi con il chip di Xbox)
dal thread su R600
http://web.me.unr.edu/wirtz/ME463_663/Special%20Topic%20Reports%2004/Vapor%20Chambers%20Matt%20Franich.ppt
thanks ;) ...ecco questa è una cosa interessante
Mister Tarpone
19-02-2007, 19:03
ve la immaginate in crossfire????
Si.
una cosa indecente...
Te li immagini i consumi???
Potenza pura... seguace di GeForce oramai sono passato a ATI... con la mia X1900XT ho visto cose che voi umani no npotete nemmeno immaginare :-) :-) :-) !!! Questa Radeon X2900... sarà mia... dopo 6 mesi dall'uscita quando costerà meno della metà però (come la mia X1900XT pagata 265€ e 6 mesi prima costava 600€)... grande ATI!!!
secondo me sarà il più grande flop della storia!
richiederà un consumo tale di corrente che chi usa il computer 8 ore al giorno dovrà fare un mutuo ad esempio
se consuma 100 w in media senza giocare per 8 ore al giorno pre 365 giorni per 0,14 euro al kw = 41 euro solo la scheda video ( assurdo ) senza aggiungere il consumo degli altri componenti. senza poi contare che costerà 600 euro e dopo 6 mesi costera 400. Spero che nessuno la compri almeno capiscono che le persone non sono polli... inoltre io mi chiedo chi ha un monitor da 1000 euro capace di sfruttarla a dovere...
non mi sembrano un esagerazione 41€ all'anno per chi può spendere 600€ in una SV e non c'è nessuno con un bastone puntato per costringere a comprarla...sù sono una cena con la ragazza ...:D
forse vi dimenticate della 8950GTX2 ... sulla carta è quella che vince... tra il 10-15% più della R600 ... scommettiamo ?
Grillo.M
19-02-2007, 19:23
Ciao,
premetto che non sono un videogiocatore, volevo sapere se queste nuove schede DX10 portano benefici non solo nei giochi ma anche nella velocità per quanto riguarda Vista, film, oppure posso tranquillamente tenere la scheda video in sign DX9 che tanto con Vista va bene uguale. il mio acquisto sarebbe indirizzato comunque ad una scheda di fascia 150-200 non certo da 600€ non dovendo giocare.
Thanx
diabolik1981
19-02-2007, 19:37
forse vi dimenticate della 8950GTX2 ... sulla carta è quella che vince... tra il 10-15% più della R600 ... scommettiamo ?
Se non erro è prevista anche da ATI una soluzione DualGPU, quindi bisognerà fare i confronti in quelle condizioni.
Praetorian
19-02-2007, 19:38
@grillo
se non fai largo utilizzo di videogame va benissimo quella x film e windows
cmq, tornando IT, questa scheda SPACCA...vedremo come ci gira crysis
diabolik1981
19-02-2007, 19:41
Ciao,
premetto che non sono un videogiocatore, volevo sapere se queste nuove schede DX10 portano benefici non solo nei giochi ma anche nella velocità per quanto riguarda Vista, film, oppure posso tranquillamente tenere la scheda video in sign DX9 che tanto con Vista va bene uguale. il mio acquisto sarebbe indirizzato comunque ad una scheda di fascia 150-200 non certo da 600€ non dovendo giocare.
Thanx
Credimi, se non giochi non ti serve a nulla, perchè la scheda che hai è ampiamente sufficiente per Vista, film e tanto altro.
Jacktheassassins
19-02-2007, 19:42
sara eccezzionale per il solitario di xp
E rieccoci con i soliti commenti da fanboy!
Hanno ancora da uscire....aspettiamo a trarre conclusioni campate in aria!
Legolas84
19-02-2007, 19:47
A parte il fanboysmo pro ATi che dopo la sfortunata serie GeForce FX dilaga su questi lidi (ma è giusto così, prima di R300 era il contrario), devo dire che le specifiche sono convincenti. Speriamo che si traducano in ottime prestazioni visto che nVidia sta dando il giro di vite come ai tempi delle X1800 e questa X2900 si ritroverà faccia a faccia con le 8900....
Troppo ritardo.... NVIDIA sarà già pronta ad Aprile con le 8900
Mister Tarpone
19-02-2007, 19:49
sara eccezzionale per il solitario di xp
:)
Grillo.M
19-02-2007, 19:50
Credimi, se non giochi non ti serve a nulla, perchè la scheda che hai è ampiamente sufficiente per Vista, film e tanto altro.
Benone, 150€ risparmiati...o spesi altrove...:D
aggiungo... non create troppo hipe intorno a questa scheda, perchè si potrebbe rimanere delusi dal vedere che non la spunta sempre contro G80... proprio come accadde ai tempi di nv30 vs r300...
rondinix
19-02-2007, 19:54
tutte parole inutili.....le mie precedenti incluse....
bisogna vedere i benchmark per dire questa è meglio/peggio
psychok9
19-02-2007, 20:08
Troppo ritardo.... NVIDIA sarà già pronta ad Aprile con le 8900
Ma ritardo di che visto che le 8800 sono INUTILI?
Mister Tarpone
19-02-2007, 20:13
Ma ritardo di che visto che le 8800 sono INUTILI?
Perchè inutili??
C'è gente che è soddisfattissima di queste vga...e vorrei vedere :asd:
inutili ? prova oblivion con mega pak texture Qarl3 (2GB) e rifatti gli occhi con una 8800....
Le 8800 al momento sono un treno con qualsiasi gioco dx9 e se hai un 21 16:9 credimi che non sono inutili ma sono un sospiro di sollievo rispetto alla generazione precedente :D
gaglia_1988
19-02-2007, 20:28
Nonostante il presunto gap prestazionale che avrà nei confronti della 8800GTX prima di arrivare ai volumi di vendita della rivale ci metterà un pochino. Anche perchè difficilmente costerrà meno di 600€ (inizialmente) e la 8800GTX con l'uscita delle concorrenza e della 8900 si svaluterà un sacco e si troverà sui 400-450€ e a quel punto sarà un vero affare, anche se non più il top. Naturalmente imho
Nonostante il presunto gap prestazionale che avrà nei confronti della 8800GTX prima di arrivare ai volumi di vendita della rivale ci metterà un pochino. Anche perchè difficilmente costerrà meno di 600€ (inizialmente) e la 8800GTX con l'uscita delle concorrenza e della 8900 si svaluterà un sacco e si troverà sui 400-450€ e a quel punto sarà un vero affare, anche se non più il top. Naturalmente imho
giusto.
se uno và dietro alle vga è finita,io con la mia X1900XT sono soddisfatto,fino a che dura e mi fà girare i giochi in maniera decente,dieri almeno x tutto il 2007,non se ne parla,poi si vedrà:)
senza poi contare che costerà 600 euro e dopo 6 mesi costera 400. Spero che nessuno la compri almeno capiscono che le persone non sono polli... inoltre io mi chiedo chi ha un monitor da 1000 euro capace di sfruttarla a dovere...
Lo scopo dei prodotti top di gamme è ANCHE quello di fare $$$, ma la maggior parte dei soldi li si fanno con la produzione di massa di prodotti di fascia media e bassa.
Avere il top del top serve anche a dire "io ce l'ho più lungo", che non serve per far gli sboroni ma per lanciare il messaggio "noi sappiamo fare il top del top, quindi anche gli altri prodotti a parità di target sono di qualità migliore", il che quasi mai è vero ma l'importante è che la gente lo creda ;)
Un po' come se la Ferrari decidesse di mettersi a fare utilitarie... non è assolutamente detto che sarebbero migliori di una punto o simili, ma vuoi mettere il fascino del marchio ferrari con quello di fiat, volkswagen o toyota?
3DMark79
19-02-2007, 20:40
Le schede R600 integreranno due connettori di alimentazione supplementare...
Non si può continuare in questa maniera troppi consumi ma ci rendiamo conto!:mad:
Tanto vale che le costruiscano con una semplice spina da collegarla alla corrente 220V. così risparmiamo nell'ali.:asd:
Mister Tarpone
19-02-2007, 20:41
Le schede R600 integreranno due connettori di alimentazione supplementare...
Non si può continuare in questa maniera troppi consumi ma ci rendiamo conto!:mad:
Tanto vale che le costruiscano con una semplice spina da collegarla alla corrente 220V. così risparmiamo nell'ali.:asd:
E' VERO!!!!!!HAI RAGIONE!!!!!!!!!!! :mad: :mad: :mad: :mad: :mad: :mad: :mad: :mad: :mad: :mad: :mad:
raga io alcuni commenti non li capisco :what:...
un conto è dire "questa VGA a me non serve" , "le 8800 a me non servono" , un conto è dire "fà schifo","inutile" ecc....
8800 ed R600 sono 2 passi enormi di 2 grandi aziende verso il futuro che sono le DX10 ; ovvio che consumino tanto...il prodotto và affinato nel tempo : fra un anno avremo le stesse prestazioni con meno della metà dei consumi e probabilmente saranno fanless , inutile fare sempre gli stessi discorsi : sono sempre gli stessi dai tempi dei tempi :mc:
NVidia ha questo dalla sua parte... il riuscire a sfornare le sue schede sempre prima di ATI (ora AMD)... e tutto ciò a suo vataggio:
- Le 8800 ta un up costeranno un bel po' di meno per la produzione in volumi oramai raggiunta...
- hanno venduto le lore schede top gamma per 3-4 mesi (tra cui il periodo natalizio) senza una vera e propria concorrenza sul mercato...
- Il chip è oramai collaudato e con la serie 8900 si potrà migliorarlo togliendo eventuali imperfezioni sia a livello di chip che di scheda...
- l'8900 dovrebbe uscire con GDDR4 ... come preannunciato... coprendo il GAP con questa presunta bestia di ATI...
- e i consumi? Nvidia se l'è sempre cavata meglio di ATi in queste 2 ultime serei di schede... non credo che al momento una 8800GTX richieda 1kwatt... o erro? (sinceramente non lo so davvero, ma mi sembrano troppo diffuse ...)
tusso sempre IMHO
ciao a tutti!
OverCLord
19-02-2007, 20:49
@ 3DMark79
Eh no! poi ti fanno pagare oro la spina e un mini ALI designed 4 ATI Fat1lity St1c4zzi !!! :rotfl:
Robba da 1000 eurini!!!
Roba da pazzi!!!
Credo che comprero' azioni dell'ENEL!!! ;-)
:yeah:
Dovrebbe avere pure di serie almeno una uscita HDMI, sui modelli più potenti (quindi tutte nel caso della 2900) saranno supportate anche le doppie uscite, così da consentire addirittura 2 flussi 1920x1080p con supporto DRM separati.....
Mister Tarpone
19-02-2007, 20:50
:mc:
quoto questa parte ;)
Che potenza... però pensavo ma usare più GPU (come accade per gli attuali Dual Core) non potrebbe ridurre i consumi???
Mister Tarpone
19-02-2007, 20:51
Dovrebbe avere pure di serie almeno una uscita HDMI, sui modelli più potenti (quindi tutte nel caso della 2900) saranno supportate anche le doppie uscite, così da consentire addirittura 2 flussi 1920x1080p con supporto DRM separati.....
utilissimi!!!! :eek:
quoto questa parte ;)
cioè? non concordi la disamina?? :D
OverCLord
19-02-2007, 20:52
E' inutile, se non riece AMD a contenere i consumi di ATI, chi potra' mai salvarci dal consumo dissennato?
(libera reinterpretazione di Il matto di Elsinore)
Mister Tarpone
19-02-2007, 20:53
cioè? non concordi la disamina?? :D
nono...era solo per scherzare :D ;)
Mister Tarpone
19-02-2007, 20:55
E' inutile, se non riece AMD a contenere i consumi di ATI, chi potra' mai riuscivi?
(Il matto di Elsinore)
Ci vorrebbe superman...o mastrolindo...
3DMark79
19-02-2007, 20:57
raga io alcuni commenti non li capisco :what:...
un conto è dire "questa VGA a me non serve" , "le 8800 a me non servono" , un conto è dire "fà schifo","inutile" ecc....
8800 ed R600 sono 2 passi enormi di 2 grandi aziende verso il futuro che sono le DX10 ; ovvio che consumino tanto...il prodotto và affinato nel tempo : fra un anno avremo le stesse prestazioni con meno della metà dei consumi e probabilmente saranno fanless , inutile fare sempre gli stessi discorsi : sono sempre gli stessi dai tempi dei tempi :mc:
Si ma non mi pare che dai tempi dei tempi esistevano ali di circa 1 Kw.
Se non erro è prevista anche da ATI una soluzione DualGPU, quindi bisognerà fare i confronti in quelle condizioni.
dubito che AMD riesca a fare uscire a marzo la sua dual gpu , ma anche se lo facesse per ora i rumor sono X2900XTX a 600 dollari stesso prezzo previsto per la 8950GTX2 . Di certo Nvidia ha avuto più tempo per affinare i processi produttivi. per quanto poco se ne sa la x2900xtx dovrebbe sfiorare i 200 watt
poi certo tutta teoria fino al debutto....
E poi basta con ste storie da 1kw , una 8800gtx consuma 160-170watt mica 400 !!! E poi scusa mi vuoi dire che chi può permettersi una scheda da 600 euro si preoccupa della bolletta ??? lol
amd dubito che c'entri... in fondo il progetto dx10 era già avviato al momento della fusione e credo che abbiano potuto metterci ben poco le mani...
Si ma non mi pare che dai tempi dei tempi esistevano ali di circa 1 Kw.
sicuramente, ma "ai tempi" si succedevano schede ogni 3 mesi del 20-30% superiori alla generazione precedente?:)
tutto questo sviluppo vede i consumi sacrificati, ma nessuno obbliga il consumatore a fare uno SLi di 800gtx :D.
sicuramente, ma "ai tempi" si succedevano schede ogni 3 mesi del 20-30% superiori alla generazione precedente?:)
tutto questo sviluppo vede i consumi sacrificati, ma nessuno obbliga il consumatore a fare uno SLi di 800gtx :D.
vabbeh c'è gente e gente io allo stato attuale non comprerei mai una vga da +di 80W di picco e c'è chi invece gode a vedere girare vorticosamente la rondella del contatore :D
SolidSnake587
19-02-2007, 21:03
Nonostante ultimamente sia più per nVidia questa nuova serie Ati mi sembra davvero promettente, la concorrenza fa sempre bene :)
3DMark79
19-02-2007, 21:04
@ OverCLord
fammi sapere a quanto sono le quotazioni ENEL che potrei farci un pensierino anch'io.:mano: :asd:
gaglia_1988
19-02-2007, 21:04
Oltretutto per quanto riguarda i costi bisogna considerare che l'assenza di una vera rivale per Nvidia e l'escusività di un prodotto che solo lei da circa 4 mesi è in grado di offrire sono stati un pretesto per tenere i prezzi alle stelle. La concorrenza e la seconda generazione di DX10 faranno la felicità di tutti con prezzi più accessibili. Chi si ricorda quando L'ODIATISSIMISSIMISSSSSIMA TELECOM (per chi no navesse capito la odio) aveva il monopolio?? ADSL 640Kbit a 50€ mese... ma lol..
MiKeLezZ
19-02-2007, 21:05
La X2900 sarà una scheda rivoluzionaria
Fino ad oggi si installava la motherboard nel case, e poi si installava la scheda video nello slot
Invece la X2900 è così ingombrante che prima fissi lei al case e poi ci attacchi la motherboard stile scheda di espansione
Mister Tarpone
19-02-2007, 21:06
La X2900 sarà una scheda rivoluzionaria
Fino ad oggi si installava la motherboard nel case, e poi si installava la scheda video nello slot
Invece la X2900 è così ingombrante che prima fissi lei al case e poi ci attacchi la motherboard stile scheda di espansione
:sbonk:
gabi.2437
19-02-2007, 21:06
Sbav
Mi immagino già 2 schede e poi giù Folding@Home su entrambe (più una cpu quad core impegnata in qualcosa di simile) e magari 24 ore su 24, magari con un pò di overclock :eek: :eek: :eek:
3DMark79
19-02-2007, 21:12
sicuramente, ma "ai tempi" si succedevano schede ogni 3 mesi del 20-30% superiori alla generazione precedente?:)
tutto questo sviluppo vede i consumi sacrificati, ma nessuno obbliga il consumatore a fare uno SLi di 800gtx :D.
Però almeno una la dobbiamo montare nei nostri computer?
In WATT (Sc.video VS tutto il resto del case)= 1-0 :D
3DMark79
19-02-2007, 21:14
sicuramente, ma "ai tempi" si succedevano schede ogni 3 mesi del 20-30% superiori alla generazione precedente?:)
tutto questo sviluppo vede i consumi sacrificati, ma nessuno obbliga il consumatore a fare uno SLi di 800gtx :D.
Però almeno una la dobbiamo montare nei nostri computer?
In WATT (Sc.video VS tutto il resto del case)= 1-0 :D :winner:
appena uscira la versione low cost/low energy/low dimension/low temp :muro: spero entro un'anno....
:stordita:
Mister Tarpone
19-02-2007, 21:16
spero entro un'anno....
:stordita:
:stordita: probabilmente :sob:
Però almeno una la dobbiamo montare nei nostri computer?
In WATT (Sc.video VS tutto il resto del case)= 1-0 :D
si vero, la VGA è divenuto il componente più bisognoso di watt, su questo nessuno può dir nulla :)
cmq io penso che l'ottimizzazzione dei consumi non sia il principale problema che si pongono nvidia ed ATI poichè i consumatori non gli chiedono quello! Se i consumatori fossero interessati ai consumi bassi anzichè al 3d mark , probabilmente nvidia ed ATI si impegnerebbero su quel versante. Purtroppo non si è ancora capito che la direzione da percorrere non è quella attuale, e non sto parlando di VGA :stordita: .
OverCLord
19-02-2007, 21:21
La X2900 sarà una scheda rivoluzionaria
Fino ad oggi si installava la motherboard nel case, e poi si installava la scheda video nello slot
Invece la X2900 è così ingombrante che prima fissi lei al case e poi ci attacchi la motherboard stile scheda di espansione
Ma no!!!
Sara' rivoluzionaria perche' potrai usare DUE Schede Mamme in SLI!!! :rotfl:
MA LOL! :Prrr:
:D :D :D
pinolo79
19-02-2007, 21:27
Ma no!!!
Sara' rivoluzionaria perche' potrai usare DUE Schede Mamme in SLI!!! :rotfl:
MA LOL! :Prrr:
:D :D :D
:eekk: al massimo... Cross-Fire :O
gaglia_1988
19-02-2007, 21:27
Ma no!!!
Sara' rivoluzionaria perche' potrai usare DUE Schede Mamme in SLI!!! :rotfl:
MA LOL! :Prrr:
:D :D :D
:sbonk: :sbonk: :sbonk:
3DMark79
19-02-2007, 21:28
@ Dexther
Raccogliamo allora le firme per mandarle ad ATI e NVidia contro ALTO CONSUMO!:read:
1) 3D MARK79
2) ...
@ Dexther
Raccogliamo allora le firme per mandarle ad ATI e NVidia contro ALTO CONSUMO!:read:
1) 3D MARK79
2) Dexther
;)
ma penso si sia tutti daccordo
http://www.cooling-masters.com/images/news/fev2007/r600_2.jpg
http://www.cooling-masters.com/images/news/fev2007/r600_1.jpg
http://www.cooling-masters.com/images/news/fev2007/r600_3.jpg
La maniglia dovevano metterla sul lato lungo..... :sofico:
quelle sono le reference board..
Jon_Snow
19-02-2007, 21:39
Non mi pare proprio che 4 o 5 anni fa ci fosse lo stesso schifo di oggi. Ai miei occhi è proprio una eresia.
Ognuno è libero di comprare le schede tanto potenti quanto sottofruttate, ma non si può dire dire che oggi una VGA da 140Euro(giusto una 7600GT o 1950GT da 256MB ci prendi) dura 3 o 4 anni di gioco decente come succedeva tempo. Per non parlare di consumi e dimensioni assolutamente fuori da ogni minimo buon senso...
Le schede video servono solo per giocare e non hanno lo stesso mercato delle CPU senza contare che in questi ultimi anni sta sempre più prendendo piede il bene alternativo delle Console.
Ad ATi ed nVidia non resta che puntare ai chi ha i soldi per potersi permettere certe configurazioni da urlo. Faccio notare che, secondo i soliti rumors, le schede fascia media continueranno ad avere BUS solo a 128Bit, una miseria nel 2007. Oramai quella fascia di mercato non frutta soldi.
A livello software è anche peggio. Crytek è l'eccezione non la regola, le case non hanno voglia di spendere troppi soldi in ottimizzazioni. Infatti, "casualmente", oramai quasi tutti i giochi per PC sono conversioni da codice per Console.
La X2900 sarà una scheda rivoluzionaria
Fino ad oggi si installava la motherboard nel case, e poi si installava la scheda video nello slot
Invece la X2900 è così ingombrante che prima fissi lei al case e poi ci attacchi la motherboard stile scheda di espansione
LoL Bella questa! Sarà anche la prima scheda da piazzare esterna al case?! :)
quelle sono le reference board..
già :read:
MiKeLezZ
19-02-2007, 21:43
Non mi pare proprio che 4 o 5 anni fa ci fosse lo stesso schifo di oggi. Ai miei occhi è proprio una eresia.
Ognuno è libero di comprare le schede tanto potenti quanto sottofruttate, ma non si può dire dire che oggi una VGA da 140Euro(giusto una 7600GT o 1950GT da 256MB ci prendi) dura 3 o 4 anni di gioco decente come succedeva tempo. Per non parlare di consumi e dimensioni assolutamente fuori da ogni minimo buon senso...
Le schede video servono solo per giocare e non hanno lo stesso mercato delle CPU senza contare che in questi ultimi anni sta sempre più prendendo piede il bene alternativo delle Console.
Ad ATi ed nVidia non resta che puntare ai chi ha i soldi per potersi permettere certe configurazioni da urlo. Faccio notare che, secondo i soliti rumors, le schede fascia media continueranno ad avere BUS solo a 128Bit, una miseria nel 2007. Oramai quella fascia di mercato non frutta soldi.
A livello software è anche peggio. Crytek è l'eccezione non la regola, le case non hanno voglia di spendere troppi soldi in ottimizzazioni. Infatti, "casualmente", oramai quasi tutti i giochi per PC sono conversioni da codice per Console.
LoL Bella questa! Sarà anche la prima scheda da piazzare esterna al case?! :)
No, no.... Lo schifo c'era....
http://img387.imageshack.us/img387/1403/2003923223021dscn0522uc2.th.jpg (http://img387.imageshack.us/my.php?image=2003923223021dscn0522uc2.jpg)
Poi è fallito!
lol
gaglia_1988
19-02-2007, 21:51
No, no.... Lo schifo c'era....
http://img387.imageshack.us/img387/1403/2003923223021dscn0522uc2.th.jpg (http://img387.imageshack.us/my.php?image=2003923223021dscn0522uc2.jpg)
Poi è fallito!
lol
Scusa l'ignoranza..:fagiano: Che è quella meraviglia?
è ancora meglio della 2900xtx :doh:
MiKeLezZ
19-02-2007, 21:53
Scusa l'ignoranza..:fagiano: Che è quella meraviglia?Una gloriosa Voodoo 5 6000 da 4 GPU
Scusa l'ignoranza..:fagiano: Che è quella meraviglia?
voodoo mi pare..
gaglia_1988
19-02-2007, 21:59
Una gloriosa Voodoo 5 6000 da 4 GPU
Carina però... Se le avessero messe LED di colori diversi quelle ventoline sarebbe stato un vero successo piazzata vicino alla strobo in discoteca..
Ma almeno andava rispetto alle concorrenti?
ohmaigod
19-02-2007, 21:59
mamma mia
un mostro si preannuncia
non ho ancora visto un gioco andare abbastanza lento con la mia X700.
gianni1879
19-02-2007, 22:16
non ho ancora visto un gioco andare abbastanza lento con la mia X700.
addirittura........ :D
non ho ancora visto un gioco andare abbastanza lento con la mia X700.
Vedrai che il nuovo campo minato di windows vista saprà mettere alla frusta il tuo mostro di sv:O
Evangelion01
19-02-2007, 22:42
Io direi che per fare previsioni è ancora presto. Una cosa è certa però : considerando che R600 esce con quasi 6 mesi di ritardo rispetto a g80, se non va almeno un 15 - 20 % più forte, direi che sarà una bella delusione.
Le schede video servono solo per giocare e non hanno lo stesso mercato delle CPU senza contare che in questi ultimi anni sta sempre più prendendo piede il bene alternativo delle Console.
Beh, le console imho se non cercano di spostare la guerra su altri campi che non siano quello della potenza prenderanno un bel po' di schiaffi in futuro (in temini economici, è ovvio).
Con l'HD e la qualità video odierna è finito il tempo in cui l'hardware di una console riusciva a gestire egregiamente i giochi per 5-6 anni.
Ad ATi ed nVidia non resta che puntare ai chi ha i soldi per potersi permettere certe configurazioni da urlo. Faccio notare che, secondo i soliti rumors, le schede fascia media continueranno ad avere BUS solo a 128Bit, una miseria nel 2007. Oramai quella fascia di mercato non frutta soldi.
Ti ricordo che il mercato high-end rappresenta una fascia microscopica del mercato. Le schede di fascia media vendono molto di più. Se è per questo i settori più redditizi sono quelli delle integrate, e quelli più in crescita quelli delle schede da notebook. ;)
A livello software è anche peggio. Crytek è l'eccezione non la regola, le case non hanno voglia di spendere troppi soldi in ottimizzazioni. Infatti, "casualmente", oramai quasi tutti i giochi per PC sono conversioni da codice per Console.
Su questo purtroppo devo quotarti. :(
bonzuccio
19-02-2007, 23:13
Vedrai che il nuovo campo minato di windows vista saprà mettere alla frusta il tuo mostro di sv:O
Come esprimere una verità assoluta con pochissime parole :ave:
E' così alla fine il mostriciattolo è quasi arrivato da noi.. ancora un pò di pazienza e poi posso valutare con cosa cambiare la X850
La penso così anch'io.
Firedraw
19-02-2007, 23:15
lode a cryteck.... e fatelo uscire sto crysis che vi mollo le mie 40€ porca sozza....
Horizont
19-02-2007, 23:32
non vorrei dire una cazzata ma le ati a parità di prestazioni hanno sempre consumato di più delle nvidia...se per la 8800gtx ci vuole almeno un 600w per stare tranquilli per questa che ci vorrà??...
senza considerare che queste schede costano più di 600 euro...bah...io non la comprerei mai...
fascia medio/alta rulez...per prezzo prestazioni e consumo...secondo me non conviene mai comprarsi bestioni del genere...
capitan_crasy
19-02-2007, 23:37
No, no.... Lo schifo c'era....
http://img387.imageshack.us/img387/1403/2003923223021dscn0522uc2.th.jpg (http://img387.imageshack.us/my.php?image=2003923223021dscn0522uc2.jpg)
Poi è fallito!
lol
Signori!
Un minuto di silenzio...
:ave:
Pancho Villa
19-02-2007, 23:41
non mi sembrano un esagerazione 41€ all'anno per chi può spendere 600€ in una SV e non c'è nessuno con un bastone puntato per costringere a comprarla...sù sono una cena con la ragazza ...:DQuoto, senza contare che comunque, con una scheda a consumo dimezzato, spenderesti comunque 20 €. Per 20 € più all'anno tutto questo rumore?
Siete tutti vittime del marketing sugli ali (e anche dell'ambientalismo più inconcludente); le case costruttrici hanno messo in commercio prodotti con potenze via via superiori negli ultimi anni e questo vi ha indotto a pensare che servano ali da 1 kw :doh:.
La verità è che anche un computer "da guerra" (non occato) con CPU quad core, GPU al top (una), 2 Gb RAM ecc. ecc. consuma poco più di 300 W dalla rete AC, il che significa che la corrente DC in uscita (supponendo un'efficienza all'80%) è di circa 250 W, altro che 1 kw :doh:.
Se volete risparmiare dovete girare meno in macchina, lì si che si sputtano le centinaia o migliaia d'euro l'anno, altro che 20 € in più.Beh, le console imho se non cercano di spostare la guerra su altri campi che non siano quello della potenza prenderanno un bel po' di schiaffi in futuro (in temini economici, è ovvio).
Con l'HD e la qualità video odierna è finito il tempo in cui l'hardware di una console riusciva a gestire egregiamente i giochi per 5-6 anni.
CUT...
Altro quotone http://forumtgmonline.futuregamer.it/vb/images/smilies/metal.gif.
Con l'evoluzione che c'è oggi anche un ritardo di pochi mesi dovuto magari a problemi commerciali, non tecnici, rappresenta una grossa perdita sul piano tecnologico.
In effetti penso che l'unica console veramente next-gen sia stata l'XBOX 360; la PS3, per ragioni varie, è uscita troppo tardi (soprattutto qui in Europa) e questo ritardo le ha fatto dilapidare il vantaggio prestazionale.
Vorrò ridere, tra 2/3 anni al max, quando su PC avremo titoli fantascientifici che su console già non potranno girare non soltanto per limiti di capacità di calcolo, ma soprattutto per arretratezza tecnologica (leggi Shader Model 4.0), oppure li potranno fare ma pesantemente alleggeriti.
Guardate in faccia alla realtà; pensare che con una console si possa evitare la rapida obsolescenza a cui è sottoposto l'hardware per PC è un'utopia. Pensate all'XBOX 360; gli manca l'HDMI, il che è gravissimo al giorno d'oggi. Non esisterà mai un prodotto preconfezionato (o preassemblato, se preferite) che abbia tutto, e quello che manca non lo potrete aggiungere manualmente. Con il PC invece potete smanettare quanto vi pare, potendoselo permettere non c'è nessun prodotto stand alone che regga il confronto.
Altro esempio è il software; le console next gen permettono di giocare in HD (1080p) ma chi lo sa se il dettaglio del rendering non viene semplificato per mantenere gli FPS? E poi l'antialiasing e l'anisotropico come lo impostate? Con il PC avete sempre il completo controllo di tutti i parametri video, cosa che con le console non è possibile.
Che si spenda molto meno con le console nessuno lo mette in discussione, ma il PC rimane e rimarrà per sempre IL TOP, mentre le console saranno UN COMPROMESSO. E chi vuole il max (e può permettersi di pagarlo) giustamente si orienta verso i PC.
wolverine
20-02-2007, 00:13
Il case per metterla dentro lo danno in omaggio con la vga? :D :asd:
Pancho Villa
20-02-2007, 00:14
Il case per metterla dentro lo danno in omaggio con la vga? :D :asd:Bravo mi ero dimenticato :D.
12 pollici sono un piede, cioè 30,48 cm :eek:. E pensare che la 8800GTX era già un'esagerazione (27 cm).
Questa è l'assurdità, altro che i consumi.
EDIT: Per fortuna ho visto che solo la versione OEM sarà lunga 12 pollici (chissà perché). 9,5 pollici (24 centimetri e poco +) sono molto più umani, come la X1800XT che oggi alloggia felicemente nel mio case.
è circa 3 cm + corta della 8800gtx.nn dovrebbero esserci problemi.
l'alimentazione di sto mostro mi lascia pensare a consumi alti e calore altrettanto.
i moduli gddr4 e il bus a 512bit mi fan credere ke i cazzotti le prenderanno le geforce 88xx.non saprei dire per 89xx
vedrem :)
edit : sono le oem ke sono 12 pollici
infatti, la dimensione è stata ufficializzata in 24 cm :boh:
pinolo79
20-02-2007, 00:19
Quoto,
Che si spenda molto meno con le console nessuno lo mette in discussione, ma il PC rimane e rimarrà per sempre IL TOP, mentre le console saranno UN COMPROMESSO. E chi vuole il max (e può permettersi di pagarlo) giustamente si orienta verso i PC.
quoto anke il resto, l'ho tagliato se no era troppo lungo :)
Solo una cosa però... ah premetto: nn mi piaciono le console, l'ultima che ho avuto è il gloriosissimo Nintendo.. cioè l'originale (quella del primo Mario). nn ho nessuna intenziuone di averne altre. io aborro le console. Di conseguenza ho sempre speso parecchi dindini per aggiornare il mio PC, è una cosa che mi diverte. fine premessa.
stavo dicendo quindi... non è tanto l'aggiornamento che noi PC dipendenti facciamo che mi spaventa... quanto la mancaza di softwere house che programmano per PC. Mi spiego meglio: Unreal Engine 3 TC Rainbowsix Vegas, l'ho provato con la skeda in firma... in teoria dovrebbe essere l'apoteosi dato che Crysis in DX10 nn è ankora uscito, invece nn è poi cosi bello... è estremanmente "scalettoso" e credo che sia dovuto al porting da console, nn so se Xbox360 o altro. resta il fatto che ormai nn c'è piu nessuno che lavora su games ke abbiano come target il PC.
A che pro spendere + di 600e per una skeda che poi nemmeno i gamers piu incalliti riusciranno a sfuttare, propio perchè nn c'è nessun programmatore disposto a creare per PC, di conseguenza ottimizzare per lo stesso?
L'unica è crytec, addirittura anke la ID software sta abbandonado (quelli di DooM3).
MiKeLezZ
20-02-2007, 00:36
Ti ricordo che il mercato high-end rappresenta una fascia microscopica del mercato. Le schede di fascia media vendono molto di più. Se è per questo i settori più redditizi sono quelli delle integrate, e quelli più in crescita quelli delle schede da notebook. ;)
Poteva esser vero 4 o 5 anni fa, ma il trend è cambiato e ora è la fascia medio-alta a generare maggiori profitti, con anche la fascia alta che si fa notare...
http://forums.vr-zone.com/showthread.php?t=129035
non so quanto siano attendibili e cmq hanno fatto vari benchmark... tra cui con un quad core @5ghz :|
Jon_Snow
20-02-2007, 01:16
Beh, le console imho se non cercano di spostare la guerra su altri campi che non siano quello della potenza prenderanno un bel po' di schiaffi in futuro (in temini economici, è ovvio).
Con l'HD e la qualità video odierna è finito il tempo in cui l'hardware di una console riusciva a gestire egregiamente i giochi per 5-6 anni.
Non è mia intenzione scemare nel classico Console vs PC. Non propino un futuro fatalista per il PC-Gaming, Zio Bill sarebbe pazzo se lo permettesse. Gioco sia con il mouse che con il PAD attendo sia Super Mario Galaxy che Crysis (mi aggiorno il PC solo per lui), non mi interessano i fanatismi. Non l'hai detto, ma volevo specificarlo comunque.
Il discorso è diverso. Il mondo delle console non è più come 12 anni fa, si deve essere davvero ciechi per non vedere l'evoluzione di un mercato che da roba di negozi per giocattoli è diventato talmente avanzato da essere uno dei fattori discriminanti per nuove tecnologie (vedi BluRay).
L'avvento di Microsoft ha avvicinato tantissimo alla sfera PC portando tra i "consolari" generi quali FPS o RPG di stampo occidentale. Sony stessa se ne accorta ed infatti ha puntato tutto su Resistance, genere snobbato a tutto campo in Giappone, per contrastare XBox in America. La cosa ancor più sconvolgente è che anche Software House storicamente legate ai PC stanno cambiando rotta. Vedi ID-Software che ha ammesso di essere a lavoro su un progetto nuovo scritto per Console e poi convertito per PC. Per non parlare del gioco in rete consolidato da anni sul PC arrivato anche su Console. E' vero, le console next-gen avranno una longevità più bassa forse nuovamente 4 anni, per contro anche il mondo PC si è velocizzato.
Dove voglio arrivare? A quello che avevo già anticipato. Gli appassionati che non sono disposti a stare dietro ai PC troveranno una valida alternativa su PS3 o X360. Nel suo piccolo anche questo forum lo sta dimostrando. La sezione Console ha un numero di visite decisamente più alto e si vedono nella sezione PC molti Topic di gente che ammette, dopo anni, di aver abbondano i PC.
Mi ripeto il gioco PC è tutt'altro che finito...ma sicuramente al giorno d'oggi esiste una alternativa valida che la tipologia di utenza PC fino ad ora non aveva. Solo sulla potenza estrema si potrà sempre offrire molto di più, ATi e nVidia lo sanno e stanno spingendo sull'acceleratore a discapito di qualsiasi effetto collaterale quale prezzo, longevità, consumi.
Ti ricordo che il mercato high-end rappresenta una fascia microscopica del mercato. Le schede di fascia media vendono molto di più. Se è per questo i settori più redditizi sono quelli delle integrate, e quelli più in crescita quelli delle schede da notebook.
Le fasce di mercato esistono anche per ragioni economiche e non solo per "mettere ordine". Un incremento del 10% per un oggetto destinato a chi non si fa grossi problemi di soldi non comporta grossi rischi. Quella stessa percentuale può essere determinante per un successo o un flop sul mercato destinato a chi cerca l'economia. In sostanza si vende molto risicato, spesso anche sottocosto (vedi le console) se il prezzo incide molto sulle vendite. Chi è appassionato di nuova tecnologia non si fa certo problemi tra 600 o 650 euro. C'è più margine di guadagno.
Infatti i guadagni di Intel non sono certo sulle schede video GMA, eppure quelle dominano il mercato più di Geforce e Radeon... :)
Eccezzionale, si leggere i vostri commenti! ehehhe :p
Mi viena da piangere: mi piacerebbe che qualche ingegnere ati(amd) o nvidia vi leggesse...Robe da MAI DIRE LUNEDi.... :muro:
Figata il multi-quote..... Cominciamo...:mbe:
mmm c'e' anche una signora 8950gx2 da valutare... lo scontro fra titani si fa sempre piu' interessante... :D
La 8950gx2 sarà una dul gpu, quindi non ha niente a che vedere con lo scontro con la x2900. Ati uscirà anche lei con la sua versione dualgpu, quindi lo scontro sarà li.
Troppo ritardo.... NVIDIA sarà già pronta ad Aprile con le 8900
Esatto, nvidia uscirà con la 8900. Peccato che presentato una nuova scheda che invece potevano chiamarla 8850 o 8800 ultra mega. Infatti la 8900 ve la spacciano come una scheda superiore, aggiornata e diversa dalla 8800. Invece avrà la gddr4 e solo frequenze pompate. Nessun shaders unit in più e nessuna pipe in più. Quindi l'ennesima presa per il :ciapet: . Ati dal canto suo fa le stesse cose, ma le versioni pompate e i refresh restano sempre sotto la stessa sigla. Se si cambia archittetura o numerodi "blocchi" interni si cambia anche la sigla. Ora capisco perchè Nvidia c'ha dato dentro con la sirena: le piace incantare la gente, e poi....zac :ciapet:
aggiungo... non create troppo hipe intorno a questa scheda, perchè si potrebbe rimanere delusi dal vedere che non la spunta sempre contro G80... proprio come accadde ai tempi di nv30 vs r300...
Si Si ...vero infatti tutti delusi dallo storico scontro. R300 è solo il chip video più riuscito nella storia della grafica consumer. Ah...nv30 in 2 giochi opengl su 150 giochi directx faceva 3 frame in più a 800x600? MI spiace per te ma nell'anno di uscita le risoluzioni con cui si giocava erano 1024*768 e con i filtri attivi. R300 outperformava nv30 qualcosa come il 200% ad alte risoluzioni con i filtri attivi.
Sei il primo dopo 5 anni da r300 che dice che qualcuno fu deluso....hai dei seri problemi cognitivi.
Le schede R600 integreranno due connettori di alimentazione supplementare...
Non si può continuare in questa maniera troppi consumi ma ci rendiamo conto!:mad:
Tanto vale che le costruiscano con una semplice spina da collegarla alla corrente 220V. così risparmiamo nell'ali.:asd:
ROTFL! Di questi 2 se ne userà solo 1! Ma quanto siete verginoni....:mc:
Quello a 8 pin sarà il futuro perchè è più solido e consente di suddividere il consistente amperaggio su ben 3 linee diverse, mentre con i 6 pin su 2 linee. I 2 diversi connettori sono messi perchè i pochi ali che hanno il connettore a 8, viene utilizzato per la MB con alimentazione aggiuntiva. I circa 200w di picco non necessitano di tante aggiunte di corrente: già il pcie fornisce parecchi watt di suo, a contrario del vecchio agp.
E' una mera questione di "compatibilità".
E ricordiamoci che è stata nvidia a intridurre il connettore a 6 pin. Ati poi ha seguito, ma basterebbe usare il normalissimo connettore a 4 pin, al massimo se ne potrebbero usare 2 e non cambierebbe niente. Pure questione commerciale. E' da arrampicatori di specchi fare l'uguaglianza "più connettori" = "più corrente".
La X2900 sarà una scheda rivoluzionaria
Fino ad oggi si installava la motherboard nel case, e poi si installava la scheda video nello slot
Invece la X2900 è così ingombrante che prima fissi lei al case e poi ci attacchi la motherboard stile scheda di espansione
Rotfl....la x2900 misura 3 cm in meno della 8800gtx, svegliati un po.
La scheda, il pcb sempre se sai cosa è visto che mi vengono dei dubbi, è sempre lunga i famigerati 24cm.
L'ulteriore lunghezza è data dalla ventola che invece che essere applicata sopra è stata messa al termine della scheda.
Quella specie di maniglia è stata fatta apposta per incastrare come un rack la scheda in appositi case per applicazioni specifiche. E informatevi per dio....
http://www.cooling-masters.com/images/news/fev2007/r600_2.jpg
l'immagine è chiara, guardate il PCB della scheda. Non misura oltre 25 cmq. Quello della 8800 oltre a essere 27cm è pure più largo della staffa di montaggio nello slot. Il mio commento resta quello per il quoting del post di mikelezz
secondo me sarà il più grande flop della storia!
richiederà un consumo tale di corrente che chi usa il computer 8 ore al giorno dovrà fare un mutuo ad esempio
se consuma 100 w in media senza giocare per 8 ore al giorno pre 365 giorni per 0,14 euro al kw = 41 euro solo la scheda video ( assurdo ) senza aggiungere il consumo degli altri componenti. senza poi contare che costerà 600 euro e dopo 6 mesi costera 400. Spero che nessuno la compri almeno capiscono che le persone non sono polli... inoltre io mi chiedo chi ha un monitor da 1000 euro capace di sfruttarla a dovere...
Bimbo, quando saprai un po più di consumi reali, scrivi ancora.
Ti rendi conto che fai conti assurdi?
Monitor capaci di sfruttarla? ma hai idea di cosa scrivi?
IL mio lgf700 da 180 euro di 2 anni fa arriva a 1920*1440: prova a giocare anche con 8800 a quella risoluzione, vediamo se non soffre!
ma come mai le schede video aumentano il numero di transistor in modo esponenziale (rispettando l'osservazione di Moore) mentre i processori rimangono sostanzialmente arenati aumentando i transistor in modo ridotto tra una generazione e l'altra??? misteri della ricerca....
cmq si preannuncia un ottimo prodotto che probabilmente colmerà forse in parte il vantaggio di nvidia acquisito negli ultimi mesi.
Perchè i processori raramente subiscono modifiche atte a introdurre numerosi operazioni in più. La crescita cmq è elevatissima anche per i processori: vai a vedere quandi milioni di transistor in più ha il conroe rispetto al pentiumd. E poi ci sono cache mostruose che fanno alzare i conti.
Nelle GPU l'aumento è più marcato perchè si cerca una massima parallelizzazione dei calcoli su quello che verra mostrato a schermo. E' come se ogni GPU fosse fatta da centinaio di core, mentre una CPU solo uno, 2 o 4...ovviamente molto terra a terra come confronto.:stordita:
Si a sfruttarla...finchè tranne raro caso (crysis) faranno solo conversioni xobox360 e ps3 c'è poco di cui rallegrarsi.
Tra l'altro tempo 1 mese e nvidia presenterà le varie 8900, mi sa che il primato di r600 durerà parecchio meno di quello della 8800gtx.
Io intanto aspetto qualcosa di fascia medio-alta per stalker :D
8900 primato di che? per qualche MHZ in più? Architetturalmente r600 a parità di frequenza (che poi gli shaders core di g80 lavorano al doppio della frequenza del resto della gpu) sputa fuori un "fottio" di calcoli sugli shaders.
Semplice matematica e calcoli su larghezze di banda e througput.
Senza contare che nvidia si è cimentata per la prima volta con un threading controller simile a quello a di ati R520/r580. Mentre ati sarà già alla 2a versione del motore di assegnazione dei thread all'interno dei 64 shaders core a 4 via. Oltre all'efficentissimo ring bus a 512 bit.
C'è da aggiungere che ati viene anche dall'esperienza dalla ottimamente riuscita sperimentazione di una certa gpu protoDX10... quella di xbox360!
Ecco....vediamo se la gente prima di scrivere la prossima volta accenderà il cervello?
si ci credo.... :mc:
psychok9
20-02-2007, 02:23
Perchè inutili??
C'è gente che è soddisfattissima di queste vga...e vorrei vedere :asd:
inutili ? prova oblivion con mega pak texture Qarl3 (2GB) e rifatti gli occhi con una 8800....
Le 8800 al momento sono un treno con qualsiasi gioco dx9 e se hai un 21 16:9 credimi che non sono inutili ma sono un sospiro di sollievo rispetto alla generazione precedente :D
raga io alcuni commenti non li capisco :what:...
un conto è dire "questa VGA a me non serve" , "le 8800 a me non servono" , un conto è dire "fà schifo","inutile" ecc....
8800 ed R600 sono 2 passi enormi di 2 grandi aziende verso il futuro che sono le DX10 ; ovvio che consumino tanto...il prodotto và affinato nel tempo : fra un anno avremo le stesse prestazioni con meno della metà dei consumi e probabilmente saranno fanless , inutile fare sempre gli stessi discorsi : sono sempre gli stessi dai tempi dei tempi :mc:
Per il semplice fatto che le 8800 sono uscite da un bel pò e ancora non cè nessun videogioco in grado di sfruttarle... e il tempo che inizieranno ad uscire già ci saranno schede video migliori e anche della concorrenza... (quindi subiranno variazioni nel prezzo!).
MakenValborg
20-02-2007, 07:04
"Le schede R600 integreranno due connettori di alimentazione supplementare: uno a 6 pin, identico a quelli già presenti sulle schede video di fascia medio ala in commercio, e uno di nuova generazione a 8 pin, in configurazione 2x4, che potrà essere utilizzato anche con un connettore a 6 pin al posto di quello a 8 pin di nuova generazione."
Penso di aver capito, ma sta frase è scritta propio con i piedi....:confused:
vuol dire che posso usare il 6 pin e basta o 2 6 pin dei quali uno nel 8 pin o cos'altro:muro: :mbe:
halduemilauno
20-02-2007, 07:22
Ma ritardo di che visto che le 8800 sono INUTILI?
non sono inutili visto che sono eccellenti, anzi le migliori, in dx9 e sotto xp. e aggiungo il mio sospetto che a ruoli invertiti non lo avresti mai detto.
Per chiarire il concetto dell'alimentazione della scheda:
ci saranno 2 connettori sulla XTX (sulla XT nulla è certo, ma potrebbero essere 6+6pin), uno da 8pin e l'altro da 6pin.
Il primo in specifica regge fino a 130W, il secondo fino a 75W.
Che si sommano ai 75W forniti dallo slot PCi-E.
Il rispetto delle specifiche è obbligatorio in certi ambienti (server, ws e calcolo gpgpu)
All'atto pratico per l'utente "enthusiast ;-", un solo 6pin arriva tranquillamente a 150W (basta vedere gli overclock con azoto liquido con schede portate a 400 e passa W)
Il connettore 8pin accetta anche il 6pin, quindi la scheda può funzionare anche col 6pin + 6pin, ma potrebbe essere disabilitata la funzione Overdrive (imho, si bypassa facilmente).
Molti alimentatori in commercio da almeno 1 anno, hanno 1 connettore 8pin (serve per le Mb dual socket Opteron e Xeon) e 2 connettori 6pin.
Il "problema" sorge solo per le configurazioni crossfire, che hanno bisogno, possibilmente , di 2x 8pin + 2x 6pin, ma al Cebit verranno presentati parecchi nuovi alimentatori.
Mi dispiace che sia la versione XT che la XL non escano in contemporanea (ci vorrà almeno 1 mese in più): la x2900XT 512Mb GDDR3 a 600 Mhz di gpu è la migliore tra quelle in uscita, imho.
Scusate ma, a quanto ho capito, le schede video dell'ultimo anno consumano quanto un "vecchio" pc (di 3 anni fa ad es) messo assieme, giusto?
Io non ho nessuna voglia di fare mutui per mantenere il computer e quindi questa cosa dei consumi per me è prioritaria rispetto alle prestazioni. Vorrei chiedere due cose:
1) E' proprio indispensabile far consumare alle schede video tutti questi watt? Perché i processori consumano sempre di meno mentre le schede video no?
2) Non esistono schede video esterne in cui le collego solo quando mi sono strettamente necessarie per giocare mentre normalmente tengo sul pc una scheda video scrausa giusto per le funzioni 2d? (Non me ne frega niente degli effetti 3d di aereo e compagnia bella).
MakenValborg
20-02-2007, 08:46
Per chiarire il concetto dell'alimentazione della scheda:
ci saranno 2 connettori sulla XTX (sulla XT nulla è certo, ma potrebbero essere 6+6pin), uno da 8pin e l'altro da 6pin.
Il primo in specifica regge fino a 130W, il secondo fino a 75W.
Che si sommano ai 75W forniti dallo slot PCi-E.
Il rispetto delle specifiche è obbligatorio in certi ambienti (server, ws e calcolo gpgpu)
All'atto pratico per l'utente "enthusiast ;-", un solo 6pin arriva tranquillamente a 150W (basta vedere gli overclock con azoto liquido con schede portate a 400 e passa W)
Il connettore 8pin accetta anche il 6pin, quindi la scheda può funzionare anche col 6pin + 6pin, ma potrebbe essere disabilitata la funzione Overdrive (imho, si bypassa facilmente).
Molti alimentatori in commercio da almeno 1 anno, hanno 1 connettore 8pin (serve per le Mb dual socket Opteron e Xeon) e 2 connettori 6pin.
Il "problema" sorge solo per le configurazioni crossfire, che hanno bisogno, possibilmente , di 2x 8pin + 2x 6pin, ma al Cebit verranno presentati parecchi nuovi alimentatori.
Mi dispiace che sia la versione XT che la XL non escano in contemporanea (ci vorrà almeno 1 mese in più): la x2900XT 512Mb GDDR3 a 600 Mhz di gpu è la migliore tra quelle in uscita, imho.
Graize per il chiarimento:)
Non capisco dove sia il problema dell'ipotetico anticipo della 8800: volevate che la G80 fosse DirectX9.0 per far piacere ad Amd? ;-)
Mi sembra che gli utenti riescano a sfruttarla a dovere anche con le DirectX 9 (provate R6 Vegas, Gothic 3, NW Nights2 anche a "soli" 1600x1200 con filtri, e poi ne riparliamo)
Voglio ricordare che la R300, prima scheda Directx9 è uscita ad agosto 2002, mentre le DirectX9.0 uscirono a dicembre, quando poi per trovare i primi giochi 9.0 si è dovuto aspettare fine 2003.
Ma allora, gli utenti R300 (me compreso), se la sono cmq goduta anche se le prestazioni con le DirectX 9.0 erano un'incognita (a parte qualche demo :-/
Anche con la 8800 bisogna aspettare per vedere le reali potenzialità con DirectX 10.
topdigamma
20-02-2007, 10:45
> nuova generazione di schede video AMD top di gamma
> nome scelto per la nuova generazione di schede video top di gamma
> Si tratta, quindi, della scheda top di gamma
Espressione del giorno: TOP DI GAMMA.
pinolo79
20-02-2007, 10:51
> nuova generazione di schede video AMD top di gamma
> nome scelto per la nuova generazione di schede video top di gamma
> Si tratta, quindi, della scheda top di gamma
Espressione del giorno: TOP DI GAMMA.
Quindi ? spiegami perchè nn ho capito...:fagiano:
Iscritto!
Avete un link sul raffreddamento a vapore??
bonzuccio
20-02-2007, 10:59
Non capisco dove sia il problema dell'ipotetico anticipo della 8800: volevate che la G80 fosse DirectX9.0 per far piacere ad Amd? ;-)
Mi sembra che gli utenti riescano a sfruttarla a dovere anche con le DirectX 9 (provate R6 Vegas, Gothic 3, NW Nights2 anche a "soli" 1600x1200 con filtri, e poi ne riparliamo)
Voglio ricordare che la R300, prima scheda Directx9 è uscita ad agosto 2002, mentre le DirectX9.0 uscirono a dicembre, quando poi per trovare i primi giochi 9.0 si è dovuto aspettare fine 2003.
Ma allora, gli utenti R300 (me compreso), se la sono cmq goduta anche se le prestazioni con le DirectX 9.0 erano un'incognita (a parte qualche demo :-/
Anche con la 8800 bisogna aspettare per vedere le reali potenzialità con DirectX 10.
Si dice che per andare bene in dx9 costano troppo visto che le 1950 gli stanno alle calcagna e per il dx10 sono inutili..
MiKeLezZ
20-02-2007, 11:01
Rotfl....la x2900 misura 3 cm in meno della 8800gtx, svegliati un po.
La scheda, il pcb sempre se sai cosa è visto che mi vengono dei dubbi, è sempre lunga i famigerati 24cm.
L'ulteriore lunghezza è data dalla ventola che invece che essere applicata sopra è stata messa al termine della scheda.
Quella specie di maniglia è stata fatta apposta per incastrare come un rack la scheda in appositi case per applicazioni specifiche. E informatevi per dio....
l'immagine è chiara, guardate il PCB della scheda. Non misura oltre 25 cmq. Quello della 8800 oltre a essere 27cm è pure più largo della staffa di montaggio nello slot. Il mio commento resta quello per il quoting del post di mikelezz
sì , sì ... tranquillo ... è cortissima
è tutto un effetto ottico ...
non ti scaldare , ok ... magari se fai il bravo babbo natale ati te ne porta una .....
:friend:
Si dice che per andare bene in dx9 costano troppo visto che le 1950 gli stanno alle calcagna e per il dx10 sono inutili..
Aspetta. Forse la GTS da 640 o 320mb in alcuni casi è allo stesso livello delle 1950. La GTX è inarrivabile.
Certo che se la 320mb fosse venduta ad un buon prezzo, sarebbe comunque un acquisto da preferire ora. Io preferisco aspettare che escano tutte e vedere sopratutto con qualche gioco un pò pesante come si comportano, non ho fretta :)
topdigamma
20-02-2007, 11:02
> Quindi ? spiegami perchè nn ho capito...
Niente da spiegare, domani l'espressione del giorno
sara' PRESTAZIONI VELOCISTICHE e la troverete non meno
di quattro volte per ogni dannato singolo articolo.
Buona giornata.
> Quindi ? spiegami perchè nn ho capito...
Niente da spiegare, domani l'espressione del giorno
sara' PRESTAZIONI VELOCISTICHE e la troverete non meno
di quattro volte per ogni dannato singolo articolo.
Buona giornata.
devi farti un nuovo account, altrimenti non vale :D
bonzuccio
20-02-2007, 11:10
Aspetta. Forse la GTS da 640 o 320mb in alcuni casi è allo stesso livello delle 1950. La GTX è inarrivabile.
Certo che se la 320mb fosse venduta ad un buon prezzo, sarebbe comunque un acquisto da preferire ora. Io preferisco aspettare che escano tutte e vedere sopratutto con qualche gioco un pò pesante come si comportano, non ho fretta :)
E non lo so, la gtx costa un milione.. quindi la caxxata è peggiore..
cioè
- le piglio per andare forte in dx9
- le piglio per essere pronto al dx10
sono 2 caxxate
ora non so se 1 caxxata + 1 caxxata facciano 2 caxxate o una mezza caxxata.. su questo si potrebbe discutere
MiKeLezZ
20-02-2007, 11:19
E non lo so, la gtx costa un milione.. quindi la caxxata è peggiore..
cioè
- le piglio per andare forte in dx9
- le piglio per essere pronto al dx10
sono 2 caxxate
ora non so se 1 caxxata + 1 caxxata facciano 2 caxxate o una mezza caxxata.. su questo si potrebbe discutereX1950XT 512MB 300€ oppure 8800GTS 320MB 330€
hm......... te lo dico io quale è la caxxata peggiore...
Non capisco dove sia il problema dell'ipotetico anticipo della 8800: volevate che la G80 fosse DirectX9.0 per far piacere ad Amd? ;-)
Mi sembra che gli utenti riescano a sfruttarla a dovere anche con le DirectX 9 (provate R6 Vegas, Gothic 3, NW Nights2 anche a "soli" 1600x1200 con filtri, e poi ne riparliamo)
Voglio ricordare che la R300, prima scheda Directx9 è uscita ad agosto 2002, mentre le DirectX9.0 uscirono a dicembre, quando poi per trovare i primi giochi 9.0 si è dovuto aspettare fine 2003.
Ma allora, gli utenti R300 (me compreso), se la sono cmq goduta anche se le prestazioni con le DirectX 9.0 erano un'incognita (a parte qualche demo :-/
Anche con la 8800 bisogna aspettare per vedere le reali potenzialità con DirectX 10.
Il demo della NVIDIA delle rocce con cascate è stupendo... Ed è DX 10... ;)
3DMark79
20-02-2007, 11:23
@ bs82
Lasciando perdere i connettori Pin 2-4-6-8-10 quelli che siano il consumo c'è ugualmente, mi vuoi dire che il consumo sarà relativo?!?
A parte che se sono 200W a me non sembrino poco!
A fine Marzo si bencha...
topdigamma
20-02-2007, 11:32
Io voglio di brutto una scheda video che mi consente di ottenere prestazioni top di gamma senza rinunciare a un TDP interessante.
La voglio performante, lunga quel che basta, coi pin dell'alimentazione riposizionabili a piacimento.
Possibilmente di color ramato, con potenziometro per regolare il livello del bianco, di dietro, vicino al connettore per l'usb.
Forse bisogna tenere conto che una scheda DX10 non mi garantisce ancora un livello del bianco soddisfacente, e un passaggio isoscaled a meno di 14MP.
Ma io la voglio, piu' di qualsiasi cosa che ad esempio, respiri.
Perche'?
bonzuccio
20-02-2007, 12:09
X1950XT 512MB 300€ oppure 8800GTS 320MB 330€
hm......... te lo dico io quale è la caxxata peggiore...
AH.. la xtx da 512 ne costa pure 350.. :fiufiu:
Legolas84
20-02-2007, 12:16
R300 è solo il chip video più riuscito nella storia della grafica consumer.
eh? ma lol :D
R300 è stato un grande chip grafico, come lo è stato NV40.
I chip più riusciti della storia tuttavia sono altri.... ovvero il Voodoo Graphics e il GeForce 256. ;)
Io voglio di brutto una scheda video che mi consente di ottenere prestazioni top di gamma senza rinunciare a un TDP interessante.
La voglio performante, lunga quel che basta, coi pin dell'alimentazione riposizionabili a piacimento.
Possibilmente di color ramato, con potenziometro per regolare il livello del bianco, di dietro, vicino al connettore per l'usb.
Forse bisogna tenere conto che una scheda DX10 non mi garantisce ancora un livello del bianco soddisfacente, e un passaggio isoscaled a meno di 14MP.
Ma io la voglio, piu' di qualsiasi cosa che ad esempio, respiri.
Perche'?
Beh, blissett, per quando avrai finito di scontare i bonus che incassi per ogni clone, probabilmente sarà anche uscita una scheda del genere.
+5
Pancho Villa
20-02-2007, 13:30
Per chiarire il concetto dell'alimentazione della scheda:
ci saranno 2 connettori sulla XTX (sulla XT nulla è certo, ma potrebbero essere 6+6pin), uno da 8pin e l'altro da 6pin.
Il primo in specifica regge fino a 130W, il secondo fino a 75W.
Che si sommano ai 75W forniti dallo slot PCi-E.
Il rispetto delle specifiche è obbligatorio in certi ambienti (server, ws e calcolo gpgpu)
All'atto pratico per l'utente "enthusiast ;-", un solo 6pin arriva tranquillamente a 150W (basta vedere gli overclock con azoto liquido con schede portate a 400 e passa W)
Il connettore 8pin accetta anche il 6pin, quindi la scheda può funzionare anche col 6pin + 6pin, ma potrebbe essere disabilitata la funzione Overdrive (imho, si bypassa facilmente).
Molti alimentatori in commercio da almeno 1 anno, hanno 1 connettore 8pin (serve per le Mb dual socket Opteron e Xeon) e 2 connettori 6pin.
Il "problema" sorge solo per le configurazioni crossfire, che hanno bisogno, possibilmente , di 2x 8pin + 2x 6pin, ma al Cebit verranno presentati parecchi nuovi alimentatori.
Mi dispiace che sia la versione XT che la XL non escano in contemporanea (ci vorrà almeno 1 mese in più): la x2900XT 512Mb GDDR3 a 600 Mhz di gpu è la migliore tra quelle in uscita, imho.Secondo me si possono tranquillamente ottenere 2 connettori a 6 pin prendendo l'alimentazione da un solo molex, se i cavi dell'alimentatore sono fatti bene. Basti vedere gli adattatori molex => 6 pin, che utilizzano solo 3 conduttori. Il maggior numero di conduttori è giustificato più che altro dal punto di vista teorico (minore resistenza complessiva, quindi meno cali di tensione e meno rischi di corto circuito). L'introduzione di nuovi connettori è soprattutto marketing.
MakenValborg
20-02-2007, 13:32
Secondo me si possono tranquillamente ottenere 2 connettori a 6 pin prendendo l'alimentazione da un solo molex, se i cavi dell'alimentatore sono fatti bene. Basti vedere gli adattatori molex => 6 pin, che utilizzano solo 3 conduttori. Il maggior numero di conduttori è giustificato più che altro dal punto di vista teorico (minore resistenza complessiva, quindi meno cali di tensione e meno rischi di corto circuito). L'introduzione di nuovi connettori è soprattutto marketing.
su questo non ci piove:O
sembrava troppo bello all'inizio che volevano prima l'alimentazione floppy e poi il molex:muro:
:cry: :cry: :cry:
Quoto in toto ;)
@ bs82
Lasciando perdere i connettori Pin 2-4-6-8-10 quelli che siano il consumo c'è ugualmente, mi vuoi dire che il consumo sarà relativo?!?
A parte che se sono 200W a me non sembrino poco!
Si il consumo sarà maggiore nel momento in cui la usi sta vga...non è che lasciando il pc 24/24 in p2p consumerà di + x colpa della vga :doh:
romolo775
20-02-2007, 14:43
Originariamente inviato da: romolo775
ma come mai le schede video aumentano il numero di transistor in modo esponenziale (rispettando l'osservazione di Moore) mentre i processori rimangono sostanzialmente arenati aumentando i transistor in modo ridotto tra una generazione e l'altra??? misteri della ricerca....
cmq si preannuncia un ottimo prodotto che probabilmente colmerà forse in parte il vantaggio di nvidia acquisito negli ultimi mesi.
Perchè i processori raramente subiscono modifiche atte a introdurre numerosi operazioni in più. La crescita cmq è elevatissima anche per i processori: vai a vedere quandi milioni di transistor in più ha il conroe rispetto al pentiumd. E poi ci sono cache mostruose che fanno alzare i conti.
Nelle GPU l'aumento è più marcato perchè si cerca una massima parallelizzazione dei calcoli su quello che verra mostrato a schermo. E' come se ogni GPU fosse fatta da centinaio di core, mentre una CPU solo uno, 2 o 4...ovviamente molto terra a terra come confronto.:stordita:
Per BS82;
Sei stato gentile a cercare di fornire una risposta al mio quesito, ma ritengo che la tua risposta sia solo una supposizione priva di fondamenti logici. Il fatto che le CPU devono svolgere compiti diversi dalle GPU non significa certo che non necessitano di transistor, anzi. Giusto per precisare anche la memoria cache è composta di transistor!
eh? ma lol :D
R300 è stato un grande chip grafico, come lo è stato NV40.
I chip più riusciti della storia tuttavia sono altri.... ovvero il Voodoo Graphics e il GeForce 256. ;)
Guarda che ha ragione :)
Nienete da dire sulla Voodoo,la comprai il giorno stesso della uscita in Italia davvero rivoluzionaria in ambito HOME,un po' meno la gForce 256 che ha si avuto il merito di introdurre le GPU nelle schede consumer e il T&L,ma R300 è stata davvero la GPU con il maggior divario qualita'/prestazioni mai uscito fin'ora (consumer ovviamente),nessuna scheda nvidia gli stava dietro a effetti (era la prima GPU DX9),filtri (nividia era VERGOGNOSAMENTE dietro) e per ultimo prestazioni pure...R300 non è stata un apripista come 3DFX e Nvidia;ma ha fatto tutto meglio delle altre con quell'architettura...e te lo dico senza mezzi termini avevo sia nvidia che ATI in quel periodo e la differenza era abissale :sofico:
eh? ma lol :D
R300 è stato un grande chip grafico, come lo è stato NV40.
I chip più riusciti della storia tuttavia sono altri.... ovvero il Voodoo Graphics e il GeForce 256. ;)
A parte che parliamo di storia e non di preistoria.... tu mi tiri fuori dei chip per le dx preistoriche, dove tra una release e l'altra mai ci sono state tante aggiunte come da dx8 a dx9. E R300 è la capostipite delle architture PROGRAMMABILI moderne, full DX9 e OpenGL2.0, con divari prestazionali immensi dalle precedenti archittetture e dalle GPU "rigide" come il flop nv30. Senza parlare dell'innovativo metodo d'uso dei filtri.
Dai quelle la saranno pietre miliari, ma ingegneristicamente R300 è ancora la base di tutte le architteture moderne.
Quoto in toto ;)
Eh beh, che risposta mi potevo aspettare da un mezzo "troll" come te? :mc:
La vista non ce l'hai e fin qua si capiva visto che non sei nemmeno capace di distinguere un PCB di una scheda video... a quanto pare ti mancano anche..le risposte! Bella figura ci fai.... :D
Per BS82;
Sei stato gentile a cercare di fornire una risposta al mio quesito, ma ritengo che la tua risposta sia solo una supposizione priva di fondamenti logici. Il fatto che le CPU devono svolgere compiti diversi dalle GPU non significa certo che non necessitano di transistor, anzi. Giusto per precisare anche la memoria cache è composta di transistor!
Priva di fondamenti logici?!?? Ho capito...sei un'altro di quella razza....:mc:
ROTFL. Prendiamo una cpu x86 single core e teniamo da parte il conteggio dei transitor: la crescita c'è stata ed è evidente, ma non c'è mai stato un incremento
pari a quello dei transistor in un GPU. E devo ancora ripeterti il perchè? Mai sentito parlare di lunghezza degli stadi? Mai sentito parlare di pipeline? No eh....e ti pareva.
Sarà solo nei prossimi anni che vedremo un aumento notevole dei transistor anche nelle CPU, per il semplice motivo che:
1) si cercherà di parallelizzare tutto, multicore, threading migliore
2) verranno aggiunte nuove istruzioni sempre più veloci per determinati scopi come le SSE1,2,3,4
Nelle GPU la ricerca della parallelizzazione c'è sempre stata poichè si parla di elaborare "pixel" che devono arrivare a schermo in quantità pari a milioni. Quindi tante piccole unità di elaborazione e tanti transistor. E il divario sta tutto qui....nessuna supposizione senza logica.
Semplicemente archittetture informatiche....
Se vuoi qualche esempio di come le cpu abbiamo avuto una grossa crescita di transistor solo negli ultimi anni, mentre per le schede video è sempre stata più costante, la crescita intendo!
pentium 3 dai 28 ai 46 milioni
Willamette 42 milioni
northwood 55 milioni ------e qui comincia la vera crescita esponenziale
prescott 125 milioni
conroe 290 milioni
Gpu ati come esempio
r100 30 milioni
r200 60 milioni
r300 107 milioni
r420 160 milioni
r520 320 milioni ----qui comincia il cambio di rotta, ma la crescita è esponenziale fin dall'inizio
r600 700 milioni
Guarda che ha ragione :)
Nienete da dire sulla Voodoo,la comprai il giorno stesso della uscita in Italia davvero rivoluzionaria in ambito HOME,un po' meno la gForce 256 che ha si avuto il merito di introdurre le GPU nelle schede consumer e il T&L,ma R300 è stata davvero la GPU con il maggior divario qualita'/prestazioni mai uscito fin'ora (consumer ovviamente),nessuna scheda nvidia gli stava dietro a effetti (era la prima GPU DX9),filtri (nividia era VERGOGNOSAMENTE dietro) e per ultimo prestazioni pure...R300 non è stata un apripista come 3DFX e Nvidia;ma ha fatto tutto meglio delle altre con quell'architettura...e te lo dico senza mezzi termini avevo sia nvidia che ATI in quel periodo e la differenza era abissale :sofico:
Esatto, il passo grande è stato quello anche perchè avvenuto in un determinato momento "storico" delle schede video dove il passaggio all'idea degli shaders ha completamente surclassato la vecchia idea del semplice T&L engine....
Athlon 64 3000+
20-02-2007, 23:37
http://forums.vr-zone.com/showthread.php?t=130599
Mister Tarpone
20-02-2007, 23:39
boh...
MiKeLezZ
20-02-2007, 23:59
blablabla
A parte che parliamo di storia e non di preistoria.... tu mi tiri fuori dei chip per le dx preistoriche, dove tra una release e l'altra mai ci sono state tante aggiunte come da dx8 a dx9. E R300 è la capostipite delle architture PROGRAMMABILI moderne, full DX9 e OpenGL2.0, con divari prestazionali immensi dalle precedenti archittetture e dalle GPU "rigide" come il flop nv30. Senza parlare dell'innovativo metodo d'uso dei filtri.
Dai quelle la saranno pietre miliari, ma ingegneristicamente R300 è ancora la base di tutte le architteture moderne.
blablabla
Abbiamo capito che sei un triste fanboy AMD/ATI, però magari non spararle così grosse.
Per esempio il filtro anisotropico innovativo ce l'aveva la serie 5:
http://www.digit-life.com/articles2/gffx/gffx-ref-p5.html
Che poi ora riprende anche la attuale serie 8 (il migliore in assoluto)
Purtroppo all'epoca la scheda era stata un po' smorzata perchè uscita buggata e poco prestante
Ma su molti applicativi (i classici OpenGL) risultava ancora superiore, Quake, Serious Sam, UT:
http://www.digit-life.com/articles2/gffx/gffx-ref-p8.html
Quindi anche i tuoi divari "immensi" vanno a farsi benedire
Certo non dico che la Serie 5 non sia stata un flop, e che R300 non sia stato un'ottimo progetto... in effetti ne tengo una ancora per ricordo.
Però sentire baggianate come la tua che dicono che R300 sia l'Alpha e l'Omega delle VGA mi fa un po' ridere
Abbiamo capito che sei un triste fanboy AMD/ATI, però magari non spararle così grosse.
Per esempio il filtro anisotropico innovativo ce l'aveva la serie 5:
http://www.digit-life.com/articles2/gffx/gffx-ref-p5.html
Che poi ora riprende anche la attuale serie 8 (il migliore in assoluto)
Purtroppo all'epoca la scheda era stata un po' smorzata perchè uscita buggata e poco prestante
Ma su molti applicativi (i classici OpenGL) risultava ancora superiore, Quake, Serious Sam, UT:
http://www.digit-life.com/articles2/gffx/gffx-ref-p8.html
Quindi anche i tuoi divari "immensi" vanno a farsi benedire
Certo non dico che la Serie 5 non sia stata un flop, e che R300 non sia stato un'ottimo progetto... in effetti ne tengo una ancora per ricordo.
Però sentire baggianate come la tua che dicono che R300 sia l'Alpha e l'Omega delle VGA mi fa un po' ridere
i blablabla stano a zero per te...vatti a vedere con cosa si scontrava r300 all'uscita....
e fai meno :mc:
Quoto in toto ;)
Eh beh, che risposta mi potevo aspettare da un mezzo "troll" come te? :mc:
La vista non ce l'hai e fin qua si capiva visto che non sei nemmeno capace di distinguere un PCB di una scheda video... a quanto pare ti mancano anche..le risposte! Bella figura ci fai.... :D
Nonostante prima hai scritto cose intelligenti e io ti ho pure quotato...con questa tua affermazione ed insulto ci fai proprio una magra figura, anzi da cretino. Io ho postato delle foto senza manco commentarle...che poi la ventola è un prolungamento della sk è li da vedere...
Arroganti? No grazie. :banned:
Ma proprio non entra in testa che i commenti SUGLI UTENTI non sono oggetto di questo forum?
Ora vado con il solito giro di sanzioni, specificando anche cosa vincete se, per caso, andassimo alla doppia ammonizione, visti gli interventi.
- MikeLeez: ammonizione.
- bs82: ammonizione e sanzione minima a 5gg in caso di seconda. Non ho letto UN tuo commento che non contenesse provocazioni.
- TROJ@N: sospeso 2 giorni. Neanche se provocati è ammesso dare del "cretino".
MiKeLezZ
21-02-2007, 11:55
Sembra che fine Marzo non si apiù una data valida:
http://www.xbitlabs.com/news/video/display/20070221023825.html
ATI’s First DirectX 10 Chip Slips into Q2 2007.
ATI’s R600 to Be Delayed Till Second Quarter
ATI, the graphics product group of Advanced Micro Devices, will delay the release of the long-awaited code-named R600 graphics processing unit (GPU), sources said on late Tuesday. The delay is likely to impact sales of the company’s graphics cards during the quarter, as despite of low volume, the high-end graphics card come at a high price.
In pratica si sono accorti di non avere un'offerta concorrente in grado di rivaleggiare le attuali nVidia.... che hanno già una scheda di fascia media, e presto avranno anche la fascia medio-bassa.
Di R600 se ne riparla forse a Maggio.....
Maledizione :muro:
va be' in fondo a me basta che esca 1 GIORNO SOLO prima di Crysis :D cosa che avverra' sicuramente.
Athlon 64 3000+
21-02-2007, 12:40
se rinviano R600 alias X2900XTX e XT oltre marzo sono solo dei pagliacci perchè lasciano troppo campo aperto a Nvidia e questo ai fini della concorrenza non fà bene.
Spero che arrivi massimo alla fine di marzo sul mercato.
Questa situazione personalmente non è colpa di AMD ma è figlia di Ati.
Legolas84
21-02-2007, 12:49
Guarda che ha ragione :)
Nienete da dire sulla Voodoo,la comprai il giorno stesso della uscita in Italia davvero rivoluzionaria in ambito HOME,un po' meno la gForce 256 che ha si avuto il merito di introdurre le GPU nelle schede consumer e il T&L,ma R300 è stata davvero la GPU con il maggior divario qualita'/prestazioni mai uscito fin'ora (consumer ovviamente),nessuna scheda nvidia gli stava dietro a effetti (era la prima GPU DX9),filtri (nividia era VERGOGNOSAMENTE dietro) e per ultimo prestazioni pure...R300 non è stata un apripista come 3DFX e Nvidia;ma ha fatto tutto meglio delle altre con quell'architettura...e te lo dico senza mezzi termini avevo sia nvidia che ATI in quel periodo e la differenza era abissale :sofico:
Oguno può pensarla come vuole... ma in ogni caso il Voodoo Grapichs era il 1° acceleratore grafico mai prodotto, mentre il GeForce 256 era la prima GPU mai prodotta.
R300 è stato un mostro di potenza e qualità e ha preso in contropiede nVidia che dal canto suo ha fatto un disastro increscioso con le GeForce FX che hanno fatto schifo. Ho avuto la Hercules 9700pro e anche se ogni tanto c'era da impazzire per fare andare bene i giochi come qualità dell'AA era sorprendente mentre nell'AF le GeForce 4 erano un pochino migliori.... in ogni caso R300 era un vero e proprio geforce 4 killer.
Quindi, sono daccordo nel dire che r300 è stato il 1° grande chip di casa ATi che ha messo in ginocchio nVidia per un bel pò di tempo, ma su quel chip di innovativo c'era "solo" il supporto alle DX9. Con NV40 sono arrivate le novità ovvero gli smart shader 3 (che velocizzano l'esecuzione degli shader) e l'illuminazione HDR.
ATi fa schede valide ok, ma l'innovazione tecnologica è sempre stata in mano a 3dfx prima e nVidia dopo oggetivamente, sebbene ATi si sia sempre impegnata (recentemente ha permesso di applicare AA e HDR insieme ad esempio).
Ciau :)
JohnPetrucci
21-02-2007, 13:11
Oguno può pensarla come vuole... ma in ogni caso il Voodoo Grapichs era il 1° acceleratore grafico mai prodotto, mentre il GeForce 256 era la prima GPU mai prodotta.
R300 è stato un mostro di potenza e qualità e ha preso in contropiede nVidia che dal canto suo ha fatto un disastro increscioso con le GeForce FX che hanno fatto schifo. Ho avuto la Hercules 9700pro e anche se ogni tanto c'era da impazzire per fare andare bene i giochi come qualità dell'AA era sorprendente mentre nell'AF le GeForce 4 erano un pochino migliori.... in ogni caso R300 era un vero e proprio geforce 4 killer.
Quindi, sono daccordo nel dire che r300 è stato il 1° grande chip di casa ATi che ha messo in ginocchio nVidia per un bel pò di tempo, ma su quel chip di innovativo c'era "solo" il supporto alle DX9. Con NV40 sono arrivate le novità ovvero gli smart shader 3 (che velocizzano l'esecuzione degli shader) e l'illuminazione HDR.
ATi fa schede valide ok, ma l'innovazione tecnologica è sempre stata in mano a 3dfx prima e nVidia dopo oggetivamente, sebbene ATi si sia sempre impegnata (recentemente ha permesso di applicare AA e HDR insieme ad esempio).
Ciau :)
Sottoscrivo tutto.;)
Sembra che fine Marzo non si apiù una data valida:
http://www.xbitlabs.com/news/video/display/20070221023825.html
ATI’s First DirectX 10 Chip Slips into Q2 2007.
ATI’s R600 to Be Delayed Till Second Quarter
ATI, the graphics product group of Advanced Micro Devices, will delay the release of the long-awaited code-named R600 graphics processing unit (GPU), sources said on late Tuesday. The delay is likely to impact sales of the company’s graphics cards during the quarter, as despite of low volume, the high-end graphics card come at a high price.
In pratica si sono accorti di non avere un'offerta concorrente in grado di rivaleggiare le attuali nVidia.... che hanno già una scheda di fascia media, e presto avranno anche la fascia medio-bassa.
Di R600 se ne riparla forse a Maggio.....
se rinviano R600 alias X2900XTX e XT oltre marzo sono solo dei pagliacci perchè lasciano troppo campo aperto a Nvidia e questo ai fini della concorrenza non fà bene.
Spero che arrivi massimo alla fine di marzo sul mercato.
Questa situazione personalmente non è colpa di AMD ma è figlia di Ati.
Boh, io a questa cosa ci credo poco. Ormai in rete su R600 si legge tutto ed il contrario di tutto, e secondo me i siti di gossip IT fanno a gara a tirar fuori cavolate per aumentare i contatti...
Solo ieri avevo trovato in rete questo documento, che a me sembra vero...
Mi pare molto strano che un'azienda di stampo anglosassone faccia un dietrofront di questa portata... :confused:
http://img230.imageshack.us/img230/1646/amdr600launchchartsd9.jpg
MiKeLezZ
21-02-2007, 13:17
non mi sembra particolarmente strano e non sarebbe la prima volta che AMD cambia i propri piani
Officials from Advanced Micro Devices confirmed the product delay saying that the code-named R600 has been delayed due to strategy-related reasons and a wish to address broader market segments.
“To better align our strategy with current market opportunities, we’ve changed the launch plan for R600."
visto che non sono citate ne fonti ne documenti ufficiali....
vediamo amd quanto ci mette a smentire la news di xbitslab....
troppe cavolate girano ultimamente, solo perchè questi non sanno più di cosa parlare... cmq anche se fosse per mantenere i prezzi bassi ben venga un mese in più...
[Comunicazione di servizio]
Prima di segnalare flames accertatevi che i moderatori non siano già intervenuti.
Grazie.
psychok9
21-02-2007, 14:55
Da una notizia che ho letto ieri sembra che debbano uscire anche le schede ATi di fascia media e bassa... sapete dirmi qualcosa? Attendo con impazienza :cool:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.