View Full Version : Aspettando R600 [Thread ufficiale]
Pagine :
1
2
3
4
5
6
7
[
8]
9
10
appunto...io se fossi stato ati sarei preoccupato se nvidia avesse fatto scendere in campo 8600 e 8300
a ati non si strappano i capelli perchè G80 è già sul mercato e R600 no...
così come G80 anche R600 sarà la mossa pubblicitaria e "io ce l'ho più lungo"
ma le vendite le faranno G86, G84, RV610 e RV630
;)
dio sia lodato... un po' di luce in questa discussione :D
halduemilauno
21-01-2007, 19:28
il punto è che il mercato di fascia alta conta pochissimo agli utili di un'azienda...lo dovresti ben sapere...quello che fà vendere sono le soluzioni IGP, di fascia media e di fascia bassa
le soluzioni di fascia alta imho hanno principalmente uno scopo pubblicitario e di "io ce l'ho più lungo di te :Prrr:"
tutto qui :)
;)
ecco tutto è nato da questo. il tutto mi suona(e non credo solo a me)per giustificare l'assenza di ati.
ps visto sei tu che hai citato la fascia bassa.
ecco tutto è nato da questo. il tutto mi suona(e non credo solo a me)per giustificare l'assenza di ati.
ps visto sei tu che hai citato la fascia bassa.
ti sembra sbagliato? gli introiti per un azienda che produce schede video derivanti dalla fascia Enthusiast e Workstation non arrivano nemmeno al 10%
quindi quello che ha detto è corretto... qui nessuno giustifica nessuno. però i discorsi vanno fatti su dati oggettivi e non su supposizioni o sensazioni e se pensi che ragioniamo in quel modo sono affari tuoi mi spiace ;)
p.s. basta editare eh :Prrr:
c'erano le riviste però :nonsifa:
:asd:
quando all'epoca uscii 9700pro io pensavo che non c'era un assoluto bisogno finche si poteva campare decentemente in DX8.1 con le schede di quella generazione...
quando arrivarono le DX9 e le FX mi fù chiaro che 9700pro era da comprare e FX 5900Ultra no
claro?
io non cambio le mie opinioni a seconda della marca
;)
Nessuno li obbligava ad essere primi, dato che anche ATI era indietro con lo sviluppo di R600.
obbligava? si deve vendere. sono primo, sono solo vendo di +.
;)
no è stato tutto concepito da questo ;)
io ho solo partorito ;)
:rotfl:
halduemilauno
21-01-2007, 19:32
ti sembra sbagliato? gli introiti per un azienda che produce schede video derivanti dalla fascia Enthusiast e Workstation non arrivano nemmeno al 10%
quindi quello che ha detto è corretto... qui nessuno giustifica nessuno. però i discorsi vanno fatti su dati oggettivi e non su supposizioni o sensazioni
p.s. basta editare eh :Prrr:
ma che centra tutto quello che stai dicendo?
ma che centra tutto quello che stai dicendo?
beh se editi ci credo che non si capisce nulla :rolleyes:
halduemilauno
21-01-2007, 19:35
no è stato tutto concepito da questo ;)
io ho solo partorito ;)
:rotfl:
io ho detto:
"obbligava? si deve vendere. sono primo, sono solo vendo di +."
esatto. e quindi? dov'è l'errore di nvidia? ma tu/voi pensate che a ruoli invertiti ati non faceva lo stesso? non a caso ti ho citato l'estate del 2003.
:asd:
quando all'epoca uscii 9700pro io pensavo che non c'era un assoluto bisogno finche si poteva campare decentemente in DX8.1 con le schede di quella generazione...
quando arrivarono le DX9 e le FX mi fù chiaro che 9700pro era da comprare e FX 5900Ultra no
claro?
io non cambio le mie opinioni a seconda della marca
;)
claro claro muy buen :p
io ho detto:
"obbligava? si deve vendere. sono primo, sono solo vendo di +."
esatto. e quindi? dov'è l'errore di nvidia? ma tu/voi pensate che a ruoli invertiti ati non faceva lo stesso? non a caso ti ho citato l'estate del 2003.
ti si faceva notare solamente che hai detto una cazzata riguardo agli introiti dela fascia Enthusiast...
dato che sono una piccolissima parte del fatturato un ritardo di tre mesi da parte di ati non provoca nessun danno economico rilevante... se non quello d'immagine. ma come ben sappiamo solo noi malati dell'hardware riusciamo ad accorgercene.
bye
p.s. guarda che il discorso vale anche all'inverso... cioè con ati che arriva prima e nvidia dopo. non centrano nulla i gusti personali... è solo una considerazione prettamente economica
io ho detto:
"obbligava? si deve vendere. sono primo, sono solo vendo di +."
esatto. e quindi? dov'è l'errore di nvidia? ma tu/voi pensate che a ruoli invertiti ati non faceva lo stesso? non a caso ti ho citato l'estate del 2003.
la mossa di ati a suo tempo e di nvidia adesso mi sono sembrate/sembra un po' avventata...ok...magari in questi mesi ci macini su...ma se poi il concorrente ti ciula dopo qualche mese con una scheda che costa uguale e và di più? tu dopo rimani sminchiato e perdi quote e quote e devi ripartire daccapo...
ati nel 2003 ha avuto :ciapet:
ora bisogna vedere chi la spunta a questo giro
;)
claro claro muy buen :p
:)
halduemilauno
21-01-2007, 19:48
ti si faceva notare solamente che hai detto una cazzata riguardo agli introiti dela fascia Enthusiast...
dato che sono una piccolissima parte del fatturato un ritardo di tre mesi da parte di ati non provoca nessun danno economico rilevante... se non quello d'immagine. ma come ben sappiamo solo noi malati dell'hardware riusciamo ad accorgercene.
bye
ma chi ha parlato di danni? poi addirittura di danni rilevanti.
halduemilauno
21-01-2007, 19:50
la mossa di ati a suo tempo e di nvidia adesso mi sono sembrate/sembra un po' avventata...ok...magari in questi mesi ci macini su...ma se poi il concorrente ti ciula dopo qualche mese con una scheda che costa uguale e và di più? tu dopo rimani sminchiato e perdi quote e quote e devi ripartire daccapo...
ati nel 2003 ha avuto :ciapet:
ora bisogna vedere chi la spunta a questo giro
;)
se il concorrente ti ciula fa parte dell'ordine naturare della competitività. poi il ciulato ti riciula e cosi via.
ma chi ha parlato di danni? poi addirittura di danni rilevanti.
tu dici che nvidia è da solo ora sulla fascia Enthusiast. vende solo lei e quindi ati perde quote di mercato... tutto giusto e condivisibile.
ora facciamo una considerazione sulle dinamiche societarie si una azienda come ati...
di questo non gli frega nulla in quanto di danni economici non ne avrà.
chiaro così? ecco perchè se la prendono con calma ;)
halduemilauno
21-01-2007, 19:52
tu dici che nvidia è da solo ora sulla fascia Enthusiast. vende solo lei e quindi ati perde quote di mercato... tutto giusto e condivisibile.
ora facciamo una considerazione personale...
di questo ad ati non gli frega nulla in quanto di danni economici non ne avrà.
chiaro così? ecco perchè se la prendono con calma ;)
ma chi ha mai detto il contrario?
ma chi ha mai detto il contrario?
ma uno non può aggiungere nulla ad un discorso e deve per forza di cose parlare solo se deve contraddire un'altra persona?
ma siamo matti?
halduemilauno
21-01-2007, 19:59
il punto è che il mercato di fascia alta conta pochissimo agli utili di un'azienda...lo dovresti ben sapere...quello che fà vendere sono le soluzioni IGP, di fascia media e di fascia bassa
le soluzioni di fascia alta imho hanno principalmente uno scopo pubblicitario e di "io ce l'ho più lungo di te :Prrr:"
tutto qui :)
;)
altro errore. la fascia alta è notevolmente aumentata in numero e di conseguenza in introiti. seconda tua affermazione: e ti pare poco?
eppoi che centra? sono primo, sono solo vendo di +. non ci sono controindicazioni.
;)
capito ora? lui ha detto che la fascia alta conta pochissimo a differenza delle altre. media e bassa. io non ho detto che la fascia alta conta molto/moltissimo. ho detto che la fascia alta è notevolmente aumentata. la differenza mi pare evidente. poi si è anche visto che a differenza di quanto si sosteneva la fascia bassa conta molto meno ripetto al passato.
è più chiaro ora?
halduemilauno
21-01-2007, 20:00
ma uno non può aggiungere nulla ad un discorso e deve per forza di cose parlare solo se deve contraddire un'altra persona?
ma siamo matti?
:boh:
http://www.tomshw.it/news.php?newsid=8738
interessanti questi dati...incredibile la quota di introiti derivanti dalla vendita di schede della fascia performance, d'altronde l'ho sempre detto, sono le piu appetibili per la stragrande maggioranza dell'utenza e il rapporto prezzo\prestazioni è ottimo. Secondo me sarà sempre di piu così
capito ora? lui ha detto che la fascia alta conta pochissimo a differenza delle altre. media e bassa. io non ho detto che la fascia alta conta molto/moltissimo. ho detto che la fascia alta è notevolmente aumentata. la differenza mi pare evidente. poi si è anche visto che a differenza di quanto si sosteneva la fascia bassa conta molto meno ripetto al passato.
è più chiaro ora?
ma appunto è sbagliato quello che dici. ma dove lo vedi scritto che la fascia Enthusiast sia aumentata?
le fasce che portano profitto sono la Value, Mainstream e Performance cioè sotto i 250$
il resto riguarda solo un 10% degli introiti
halduemilauno
21-01-2007, 20:07
interessanti questi dati...incredibile la quota di introiti derivanti dalla vendita di schede della fascia performance, d'altronde l'ho sempre detto, sono le piu appetibili per la stragrande maggioranza dell'utenza e il rapporto prezzo\prestazioni è ottimo. Secondo me sarà sempre di piu così
esatto. lo credo anch'io. la fascia bassa sarà sempre meno rilevante e mano a mano il tutto si sposterà sempre + in alto. infatti la fascia alta che io ricordo all'un% è passata al 4%. e credo sarà sempre più rilevante. il trend mi pare questo.
halduemilauno
21-01-2007, 20:09
ma appunto è sbagliato quello che dici. ma dove lo vedi scritto che la fascia Enthusiast sia aumentata?
le fasce che portano profitto sono la Value, Mainstream e Performance cioè sotto i 250$
il resto riguarda solo un 10% degli introiti
aridaje con la fascia value. ma non lo vedi che sta al tre e sotto la entusiast?
aridaje con la fascia value. ma non lo vedi che sta al tre e sotto la entusiast?
occhei togliamo la value :) ma il succo del discorso rimane ;)
in effetti le schede video discrete di quella fascia risentono della larga diffusione dei chip integrati che credo abbiamo le stesse performance :)
mi potresti indicare dove hai letto che la fascia Enthusiast stia aumentando? grazie :D
appleroof
21-01-2007, 20:16
tu dici che nvidia è da solo ora sulla fascia Enthusiast. vende solo lei e quindi ati perde quote di mercato... tutto giusto e condivisibile.
ora facciamo una considerazione sulle dinamiche societarie si una azienda come ati...
di questo non gli frega nulla in quanto di danni economici non ne avrà.
chiaro così? ecco perchè se la prendono con calma ;)
Scusa tanto ma che ne sai tu di quali siano gli umori e le dinamiche all'interno di Ati? Ci lavori per caso? Sai mica se gli azionisti o i capi stanno smadonnando dalla mattina alla sera a causa di questa situazione frustando i progettisti per accellerare le cose? Io non so se è così o meno, di certo anche te, a meno che non ci lavori....
Quanto al dscorso della fascia alta e mercato, a parte che l'articolo citato dimostra proprio che non è quella bassa a generare più introiti, ma quella media, medio-alta e top, rimane che la top serve anche e sopratutto a dare immagine: è questo il "danno" che stà avendo adesso Ati da questo sfasamento commerciale, perchè Nvidia sfrutterà la situazione per lanciare la fascia media.
Di più, a parte gli smanettoni, come si diceva pochissimo tempo fà qui, chi prende una vga difficilmente la cambierà dopo un mese/due per una di poco più performante (lasciate perdere la serie Fx/9xxx, lì è stato uno svarione che gli atisti cavalcano da anni, poi nonn si è più ripetuto, ed è molto difficile che si ripeta oggi) e questo non vale solo per le top: chi spende 200/250 euro per una 8600GTS o come si chiamerà a marzo, non ne spende altri per prendere una x2600xt o come si chiamerà...
tutto questo non comporterà il fallimento di Ati, è proprio ovvio, ma le procurerà dei danni, da quantificare, certo, ma è così.
guarda che ati è scoperta nel segmento Enthusiast attualmente... potrebbe perdere quote lì ma non nelle altre fasce dato che nvidia non ha presentato le schede di derivazione G80 per gli altri segmenti.
ma dato che gli introiti in quella fascia sono irrisori rispetto agli altri segmenti, il danno economico sarà anch'esso irrisorio.
non è difficile da capire eh :mbe:
Ciao, scusate ma ho un grosso problema;
premetto che sono particolarmente negato in computers e per questo che mi sono fatto bidonare aquistando un Hp pavilion 3650 it:
intel core 2 duo 6300
hd 320 Gb
geforce 7500 le
1024 ram
il tutto per € 999,00.
Ma fin qua pazzienza nulla è per sempre, però ora vorrei comperare un scheda video performante dal prezzo da 80,00 a 200,00€ piu vicino alle 120,00€ per poter giocare con le impostazioni al massimo di need fors speed carbon. Cosa mi consigliate? La scheda madre cosa supporta e cosa si riesce a montare.
ringrazio anticipatamente.
Ciao, scusate ma ho un grosso problema;
premetto che sono particolarmente negato in computers e per questo che mi sono fatto bidonare aquistando un Hp pavilion 3650 it:
intel core 2 duo 6300
hd 320 Gb
geforce 7500 le
1024 ram
il tutto per € 999,00.
Ma fin qua pazzienza nulla è per sempre, però ora vorrei comperare un scheda video performante dal prezzo da 80,00 a 200,00€ piu vicino alle 120,00€ per poter giocare con le impostazioni al massimo di need fors speed carbon. Cosa mi consigliate? La scheda madre cosa supporta e cosa si riesce a montare.
ringrazio anticipatamente.
chiedi in consigli per gli acquisti :rolleyes:
sezione sbagliata in pieno :asd: chiedi qua http://www.hwupgrade.it/forum/forumdisplay.php?f=71 e dai anche informazioni sull'alimentatore
appleroof
21-01-2007, 20:32
guarda che ati è scoperta nel segmento Enthusiast attualmente... potrebbe perdere quote lì ma non nelle altre fasce dato che nvidia non ha presentato le schede di derivazione G80 per gli altri segmenti.
ma dato che gli introiti in quella fascia sono irrisori rispetto agli altri segmenti, il danno economico sarà anch'esso irrisorio.
non è difficile da capire eh :mbe:
Sai quanta gente stà aspettando (giustamente dico io) di prendere una x19xx (così come una 7900) per l'arrivo annunciato della fascia media Nvidia?
Inoltre il discorso è rivolto al futuro: se la fascia media nvidia sarà commercializzata a fine marzo (senza contare la 8800gts 320mb che dovrebbe uscire a breve, visto che è una medio-alta) e quella Ati a fine giugno, vedrai che il discorso torna.
Anche questo non mi sembra così difficile da capire.
Riconosco che per ora sono ipotesi, ma supportate da tutte le fonti serie in giro, per ora, sopratutto riguardo i tempi di commercializzazione.
Sai quanta gente stà aspettando (giustamente dico io) di prendere una x19xx (così come una 7900) per l'arrivo annunciato della fascia media Nvidia?
:fiufiu:
Inoltre il discorso è rivolto al futuro: se la fascia media nvidia sarà commercializzata a fine marzo (senza contare la 8800gts 320mb che dovrebbe uscire a breve, visto che è una medio-alta) e quella Ati a fine giugno, vedrai che il discorso torna.
una delle mie opzioni...se la trovo sotto i 270/300€ è mia...:D
appleroof
21-01-2007, 20:42
:fiufiu:
una delle mie opzioni...se la trovo sotto i 270/300€ è mia...:D
...ecco... :asd:
tra l'altro il prezzo annunciato è 299$ quindi ce la si dovrebbe fare a prenderla entro 300 euro, ancor di più che la GTS sta scendendo di prezzo, ormai si trova sotto i 400, quindi mi sembra altamente probabile ...;)
...ecco... :asd:
tra l'altro il prezzo annunciato è 299$ quindi ce la si dovrebbe fare a prenderla entro 300 euro, ancor di più che la GTS sta scendendo di prezzo, ormai si trova sotto i 400, quindi mi sembra altamente probabile ...;)
il mio fornitore mi dà la 8800GTS xpert vision da 640mb a 399€ ;)
Sai quanta gente stà aspettando (giustamente dico io) di prendere una x19xx (così come una 7900) per l'arrivo annunciato della fascia media Nvidia?
Inoltre il discorso è rivolto al futuro: se la fascia media nvidia sarà commercializzata a fine marzo (senza contare la 8800gts 320mb che dovrebbe uscire a breve, visto che è una medio-alta) e quella Ati a fine giugno, vedrai che il discorso torna.
Anche questo non mi sembra così difficile da capire.
Riconosco che per ora sono ipotesi, ma supportate da tutte le fonti serie in giro, per ora, sopratutto riguardo i tempi di commercializzazione.
ATI ne risentirà di sicuro del ritardo di R600 e soprattutto di RV630 nella fascia media, ma non penso che gli effetti siano così notevoli: si sa già che R600 è più potente di R600 e per marzo si saprà già come sarà RV630 (a questo punto spero x ATI + potente delle 8600). Comunque Nvidia sta pestando giù di brutto in questo periodo, se ati non si da una mossa la vedo dura, ormai per la fascia media ci perderà qualcosa di sicuro... :)
appleroof
21-01-2007, 22:09
ATI ne risentirà di sicuro del ritardo di R600 e soprattutto di RV630 nella fascia media, ma non penso che gli effetti siano così notevoli: si sa già che R600 è più potente di R600 e per marzo si saprà già come sarà RV630 (a questo punto spero x ATI + potente delle 8600). Comunque Nvidia sta pestando giù di brutto in questo periodo, se ati non si da una mossa la vedo dura, ormai per la fascia media ci perderà qualcosa di sicuro... :)
azz...addirittura supera se stessa :asd:
..si sa già che R600 è più potente di R600 ..e per marzo si saprà già come sarà ...
questa me la devi spiegare :asd:
scusate volevo dire che R600 supera G80 :D :D :D
non la faccio così potente da superare sè stessa dai! :sofico:
azz...addirittura supera se stessa :asd:
però in effetti è vero, è talmente LUNGA che supera se stessa... :asd:
appleroof
21-01-2007, 22:17
però in effetti è vero, è talmente LUNGA che supera se stessa... :asd:
:D
davide155
21-01-2007, 22:19
Ma allora è confermato il rimandare del DMA?
Kharonte85
21-01-2007, 22:20
azz...addirittura supera se stessa :asd:
:rotfl:
Kharonte85
21-01-2007, 22:22
Ma allora è confermato il rimandare del DMA?
Ancora con sto DMA... :doh:
NDA ovvero Non-disclosure agreement=Accordo di non divulgazione
davide155
21-01-2007, 22:23
Ancora con sto DMA... :doh:
NDA ovvero Non-disclosure agreement=Accordo di non divulgazione
Non mi entra in testa :muro: :muro: :muro:
Cmq è rinviato?
Oppure un'altra cacchiata di the inquirer?
Ma allora è confermato il rimandare del DMA?
guarda che si chiama RMA :rolleyes: :asd:
Kharonte85
21-01-2007, 22:25
guarda che si chiama RMA :rolleyes: :asd:
Si e poi DNA :sofico: :D
Kharonte85
21-01-2007, 22:26
Cmq è rinviato?
Al 90% si'
Il 10% lo tengo...non si sa mai che ci volessero fare una surprise :D
davide155
21-01-2007, 22:30
Al 90% si'
Il 10% lo tengo...non si sa mai che ci volessero fare una surprise :D
Fonte?
Se mi dici the inquirer mi altero :incazzed:
Si e poi DNA :sofico: :D
ma perchè non RNA? :sofico:
Kharonte85
21-01-2007, 22:34
Fonte?
Ragionamento deduttivo...
Kharonte85
21-01-2007, 22:35
ma perchè non RNA? :sofico:
Gia'...mRNA tRNA...ecc :O
Ok...basta caxxate... :D
davide155
21-01-2007, 22:54
Ragionamento deduttivo...
Ah quindi potrebbe essere che domani ci alziamo con una bella recensione di hardware upgrade in prima pagina :D
Dalla 7800 (110nm) alla 7900 (90nm) se non sbaglio sono passati una 10ina di mesi, ossia un lasso di tempo ragionevole.
ma li la situazione era ben diversa. gran parte di quel periodo ati non è stata presente e quindi totale assenza di concorrenza e quindi nessuna necessità a far uscire una nuova scheda. che dopo fu la 7800gtx512 proprio in prossimità/risposta alla x1800(uscita appunto con notevole ritardo).
Mi sa che ti sbagli. Le 7800 uscirono a fine giugno 2005. Le X1800 a fine ottobre. Considera che in estate si vende pochissimo in quel campo, in realtà ATI non ha fatto vera concorrenza a Nvidia per uno o due mesi (settembre-ottobre). Dopodichè da novembre sul mercato c'erano entrambe.
Questo è per te il notevole ritardo?
Nvidia fece uscire la 7900 a maggio del 2006, dopo altri quattro mesi da X1900 (uscito a fine gennaio). ;)
poi la 7900 come risposta alle x1900. ora lo scenario si presenta diverso. nvidia deve prepararsi alla contromossa di ati(ovvero la r600)e quindi è(o sarebbe)pronta con la sua controcontromossa 8900(e cosi via). le case non devono star li a pensare agli umori dell'utenza devono stare a pensare agli umori dei loro azionisti e dei loro partner produttivi che a loro volta devono stare attenti ai loro.
Nessuno li obbligava ad essere primi, dato che anche ATI era indietro con lo sviluppo di R600.
obbligava? si deve vendere. sono primo, sono solo vendo di +.
;)
Su questo sono d'accordo. Io stavo solo provando a discutere delle motivazioni che ci possono essere dietro certe scelte strategiche, in quanto, oltre ad essere appassionato di informatica, lo sono anche di economia (visto che è anche il mio ambito di studio/lavorativo). Le dinamiche di mercato le conosco. ;)
mi dispiace fartelo notare...ma io quando guardo nei pc...la maggior parte delle volte non ci trovo dentro una X800XT o una 7900GT...anzi, poche volte mi è capitato di trovarci delle 7600GT o delle X1600...si trovano le 9250, le 6200, le X600, le 6600GT...
il mercato di fascia alta sarà cresciuto come dici tu...ma non così tanto da poter giustificare i costi di progettazione di un chip di questo tipo...
infatti le schede di fascia media, bassa, ecc... sono sempre versioni "castrate" più o meno del chip di fascia alta...e sono gli introiti di queste fasce a dare utili e a far cresce un'azienda
ritorniamo al punto di prima...sono primo, con una scheda di fascia alta
vedi che se entrava sul mercato prima una 8300 o una 8600 nVidia aveva molti più clienti e ATi era molto più nella m€rd@
;)
Quoto. Aggiungo: sapete chi è il più grande produttore mondiale di soluzioni video? Nè ATI, nè Nvidia. E' Intel, con le sue schede integrate.
(Questo è tra l'altro uno dei motivi per cui AMD ha comprato ATI).
Tra l'altro Intel vende una cifra enormemente grande di quelle soluzioni, molto più grande di tutte le vendite di schede grafiche dedicate messe insieme, con tutta probabilità.
Quindi il segmento entry-level, così considerato, è molto più grande di quanto appaia in quell'articolo. Non solo: inoltre, lo stesso articolo, pur fornendo dati interessanti, fa una distinzione molto opinabile, in quanto basata sul prezzo e non sulle specifiche (o sul target desiderato). Vengono classificate come "Enthusiast" tutte le schede che costano più di 250 dollari (200€ circa). Ossia le vendite delle schede oltre i 200€ rappresentano il 4% di un numero già abbastanza piccolo, se confrontato col totale delle soluzioni grafiche per pc.
Ovviamente in quella fascia così ampia di prezzo c'è di tutto e sicuramente le schede che costano ben oltre i 400€ (alla quale appartengono le 8800 e le X2800) rappresentano meno di un quarto di quella cifra, ossia meno dell'1% del mercato delle schede grafiche discrete.
Aggiungerei anche che quella che noi chiamiamo "entry-level" e/o "fascia bassa", comprende le prime 2 categorie, ossia la fascia di prezzo che va dai 25 ai 110€: per una market share del 16%.
Per dovere di cronaca, è vero che le soluzioni grafiche di un certo livello stanno crescendo (seppur di poco).
adesso è + chiaro di prima. a voi da fastidio(per non dire altro)che ati è assente. non è colpa di nvidia se è sola, prima e vende di +.
Ma anche no. Semplicemente mi sembravano esagerate certe dichiarazioni sulla tempistica di uscita delle nuove schede ATI, ecc...
Kharonte85
21-01-2007, 23:03
Ah quindi potrebbe essere che domani ci alziamo con una bella recensione di hardware upgrade in prima pagina :D
Disse il saggio: Chi vive sperando muore cacando... :O :D
davide155
21-01-2007, 23:13
Disse il saggio: Chi vive sperando muore cacando... :O :D
La sapevo con i verbi al passato :D
Cmq ne so un'altra.....la speranza è l'ultima a morire :ciapet:
Disse il saggio: Chi vive sperando muore cacando... :O :D
:ciapet: :ciapet:
allora non spero ma sarei contento se domani potessi leggere in questo sito una bella recensione di R600 fatta come si deve. oppure qualche info più certa e non le solite perle di saggezza alla the inquirer :D :) ;)
La sapevo con i verbi al passato :D
Cmq ne so un'altra.....la speranza è l'ultima a morire :ciapet:
allora in questo caso si direbbe: "chi vive cacando muore sperando" ? :asd:
ok basta cazzate dai... :)
nico88desmo
21-01-2007, 23:18
allora in questo caso si direbbe: "chi vive cacando muore sperando" ? :asd:
ok basta cazzate dai... :)
Ah ah ah!!!! bella questa!!! :sofico:
io credo in una bella rece domani dai! :D
ma voi veramente sperate di vedere a giorni la rece di una scheda che uscirà tra 3 mesi? :mbe:
Ah ah ah!!!! bella questa!!! :sofico:
io credo in una bella rece domani dai! :D
anche io... e lo spero proprio! Sono proprio curioso di vedere come si comporta! :)
davide155
21-01-2007, 23:22
Ah ah ah!!!! bella questa!!! :sofico:
io credo in una bella rece domani dai! :D
Allora non sono il solo a cacare sperando? :asd: :D
ma voi veramente sperate di vedere a giorni la rece di una scheda che uscirà tra 3 mesi? :mbe:
naaa uscirà tra 2 mesi ma in realtà sarebbe già pronta anche tra 1 mese (però aspettano il cebit di marzo x lanciarla) :)
... quindi credo in un rece entro fine gennaio max prima metà di febbraio! (o almeno spero)
Allora non sono il solo a cacare sperando? :asd: :D
ci sono anche io... spero in domani... (infatti ho appena cacato) :asd:
ma voi veramente sperate di vedere a giorni la rece di una scheda che uscirà tra 3 mesi? :mbe:
Si, io spero :D
Lo so, sono un malato :Prrr: :Prrr: :Prrr:
davide155
21-01-2007, 23:24
ma voi veramente sperate di vedere a giorni la rece di una scheda che uscirà tra 3 mesi? :mbe:
Non si tratta di questo....si tratta dell'NDA (detto giusto adesso? :D ) che cade domani, quindi tutti coloro che sono in possesso di informazioni VERE le posso spereperare ai quattro venti.
Quindi ciò attesta che the inquirer ha sparato un monte di cavolate fin'ora, attestando che non c'era nulla di vero fra i suoi dati, altrimenti aveva già chiuso battenti per mezzo degli avvocati di AMD ;)
davide155
21-01-2007, 23:25
ci sono anche io... spero in domani... (infatti ho appena cacato) :asd:
:eek: :eek: :eek:
Stiamo cadendo nel trash :fagiano:
Stop alle cacate adesso :D
:eek: :eek: :eek:
Stiamo cadendo nel trash :fagiano:
Stop alle cacate adesso :D
ok, solo se si chiude l'NDA (enne di A) anche xkè così vedremo quante cacate ha sparato the inquirer negli ultimi 6 mesi su r600!! :)
davide155
21-01-2007, 23:32
ok, solo se si chiude l'NDA (enne di A) anche xkè così vedremo quante cacate ha sparato the inquirer negli ultimi 6 mesi su r600!! :)
Te le dico subito io.....TUTTE.....sono pronto a scommetterci.
A parte quelle ufficiali ovviamente.....
Te le dico subito io.....TUTTE.....sono pronto a scommetterci.
A parte quelle ufficiali ovviamente.....
anche secondo me... e anche la storia dei 23/30cm (che sembra la notizia più verosimile) è un po' 1 cretinata ;)
davide155
21-01-2007, 23:46
anche secondo me... e anche la storia dei 23/30cm (che sembra la notizia più verosimile) è un po' 1 cretinata ;)
Quella poi.......
Si se è vera sarà la cosa che mi spingerà a comprarmi una x360 una volta per tutte, ma la vedo molto buia......
Confido in amd/ati che fin'ora non mi hanno mai deluso ed hanno realizzato sempre degli ottimi progetti.
Non credo che proprio su questo progetto, considerato uno dei più importanti della loro vita se non il più importante, facciano passi falsi.....
A me sinceramente non mi interessa se la scheda è da 23 o 30.... per me è più importante il consumo e le temperature.... :rolleyes:
davide155
22-01-2007, 00:22
A me sinceramente non mi interessa se la scheda è da 23 o 30.... per me è più importante il consumo e le temperature.... :rolleyes:
Qualora avesse un consumo di 10watt ma la scheda misurasse 30 cm e non ci sta nel tuo case che fai? :p
Prima risolviamo i problemi concreti, poi si studia su come ridurre tutte gli altri problemi, tra i quali, il più importante, il consumo ;)
su parecchie cose ce ne siamo andati per ragionamento,qualcuna l'avremo azzeccata e che cacchio :p
Kharonte85
22-01-2007, 00:49
Cmq ne so un'altra.....la speranza è l'ultima a morire :ciapet:
Ma alla fine muore... :O
Qualora avesse un consumo di 10watt ma la scheda misurasse 30 cm e non ci sta nel tuo case che fai? :p
Questa è una bella domanda :D
Cmq a me una scheda da 30 ci sta dentro (per un pelo però).
Adesso ho guardato il righello e ho detto "azzo"... ripensandoci devo dire che 30cm sono davvero tanti :D
Questa è una bella domanda :D
Cmq a me una scheda da 30 ci sta dentro (per un pelo però).
Adesso ho guardato il righello e ho detto "azzo"... ripensandoci devo dire che 30cm sono davvero tanti :D
Ahia, che doppi sensi :D :D :D
Ahia, che doppi sensi :D :D :D
Non me ne sono nemmeno accorto :asd:
Cmq ovviamente mi riferivo alla nuova scheda grafica della ATI e al mio case :D :Prrr:
yossarian
22-01-2007, 02:16
yoss dato che di R600 non ce ne parli :D
R600 cosa? :D
E' possibile fare un confronto su quanto efficentemente sfruttano la banda passante R580 ( lasciando perdere la X1950XTX , mi riferisco alla X1900 XTX ) e G80 ?
non è semplice; il memory controller di ATi è più evoluto ed efficiente. Però gli shader unificati permettono di esasperare alcuni tipi di ottimizzazione che possono far risparmiare banda passante. In un ipotetico confronto con un R600 a shader unficati e con ring bus al posto del tradizionale crossbar, si riproporrebbe, grosso modo, la situazione già vista per R5x0 e G7x, dove il primo si avvantaggia, a volte anche notevolmente, nelle situazioni bandwidth limited
Questa è una bella domanda :D
Cmq a me una scheda da 30 ci sta dentro (per un pelo però).
Adesso ho guardato il righello e ho detto "azzo"... ripensandoci devo dire che 30cm sono davvero tanti :D
Per alcuni e' la normalita'... :O
:sofico:
Dai raga torniamo IT... :p
davide155
22-01-2007, 10:00
Ma alla fine muore... :O
:cry:
:Prrr:
:D
davide155
22-01-2007, 10:01
Questa è una bella domanda :D
Cmq a me una scheda da 30 ci sta dentro (per un pelo però).
Adesso ho guardato il righello e ho detto "azzo"... ripensandoci devo dire che 30cm sono davvero tanti :D
Te che ce l'hai più di 30cm ti entra......a me invece ce ce l'ho più piccolo no.... :cry: :cry:
Ma cosa avete capito? :D
Lo spazio nel case :O
Maliziosi :Prrr:
halduemilauno
22-01-2007, 11:20
http://www.vr-zone.com/?i=4510
Looking at this news post in our forum, there is a rumor coming out from the websites in China currently that AMD is planning to launch R600 on 8th or 9th March and be officially named as Radeon X2K series. The mass production silicon is expected to be still at A12 for the R600 cards at launch.
It seems like ATi has successfully taped out a A15 silicon that is able to work at 1GHz probably we can hope to see another series of R600 cards with higher working clocks in the near future. The article suggests ATi's next generation R680 is scheduled for Q3 launch but suggested that NVIDIA will have G81 and the next gen. GPU ready to compete.
According to our sources but still a rumor revealed R600 as X2800 series. There are 2 variants for XTX; 1GB and 512MB. X2800XTX runs at 750MHz core, 2.2GHz memory, 512-bit memory interface and GDDR4 while XT runs at 600MHz core, 1.8GHz memory, 512-bit memory interface and GDDR3.
;)
Non capisco perchè si parla di tape out di una versione che funziona ad 1ghz e poi la XTX viene proposta a 750mhz. Comunque 1Ghz per una gpu la vedo un pò troppo alta come frequenza. Io propendo per frequenze simili alle attuali, sui 650mhz o giù di lì.
Foglia Morta
22-01-2007, 12:01
Non capisco perchè si parla di tape out di una versione che funziona ad 1ghz e poi la XTX viene proposta a 750mhz. Comunque 1Ghz per una gpu la vedo un pò troppo alta come frequenza. Io propendo per frequenze simili alle attuali, sui 650mhz o giù di lì.
forse perchè per mettere in vendita schede con l' A15 deve passare ancora più tempo... oppure la loro gpu a 1Ghz avrebbe bisogno ancora di più banda passante che attualmente non possono avere.
Se fosse vero che R600 può funzionare a 1Ghz potrebbe essere la risposta ad un G81 a 80nm che potrebbe essere presentato a Maggio
Non capisco perchè si parla di tape out di una versione che funziona ad 1ghz e poi la XTX viene proposta a 750mhz. Comunque 1Ghz per una gpu la vedo un pò troppo alta come frequenza. Io propendo per frequenze simili alle attuali, sui 650mhz o giù di lì.
Probabile che siano solo prove per possibili nuove versioni o chissa quale test interno per vedere a che punto una revision di silicio riesca ad essere operativa. (Imho 1Ghz con i consumi e la dissipazione attuale di calore e' esagerata. Non siamo ancora arrivati ad un processo produttivo adatto pienamente a queste frequenze, ovviamente basandosi sul "normale" incremento a passo con la miniaturizzazione evolutiva dei componenti).
halduemilauno
22-01-2007, 12:07
date un'occhiata anche al forum linkato.
http://forums.vr-zone.com/showthread.php?t=123791
;)
ps chissa che traffico sull'A15.
;)
ps chissa che traffico sull'A15.
;)
Mai come sull'A1 ieri :muro:
Skullcrusher
22-01-2007, 12:53
http://www.vr-zone.com/?i=4510
Looking at this news post in our forum, there is a rumor coming out from the websites in China currently that AMD is planning to launch R600 on 8th or 9th March and be officially named as Radeon X2K series. The mass production silicon is expected to be still at A12 for the R600 cards at launch.
It seems like ATi has successfully taped out a A15 silicon that is able to work at 1GHz probably we can hope to see another series of R600 cards with higher working clocks in the near future. The article suggests ATi's next generation R680 is scheduled for Q3 launch but suggested that NVIDIA will have G81 and the next gen. GPU ready to compete.
According to our sources but still a rumor revealed R600 as X2800 series. There are 2 variants for XTX; 1GB and 512MB. X2800XTX runs at 750MHz core, 2.2GHz memory, 512-bit memory interface and GDDR4 while XT runs at 600MHz core, 1.8GHz memory, 512-bit memory interface and GDDR3.
;)
750Mhz di core, 1Gb di memoria con bus a 512bit....non sarebbe affatto male... :sofico:
Cmq a me una scheda da 30 ci sta dentro (per un pelo però).
Adesso ho guardato il righello e ho detto "azzo"... ripensandoci devo dire che 30cm sono davvero tanti :D
pensa a chi vive con 30cm tutti in un botto :O
e cmq dopo aver visto la RTX2 non mi stupisco più di nulla :rolleyes:
Athlon 64 3000+
22-01-2007, 14:30
nella notizia di Vr-zone si parla di R600 a marzo e in estate di R680 quindi dopo 4-5 mesi e fracamente se fosse vero faranno come le X1800 e X1900 che hanno 3 mesi e mezzo di differenza di presentazione tra di loro.
http://www.vr-zone.com/?i=4510
Looking at this news post in our forum, there is a rumor coming out from the websites in China...
The article suggests ATi's next generation R680 is scheduled for Q3 launch but suggested that NVIDIA will have G81 and the next gen. GPU ready to compete.
Ottimo, speriamo sia vero... voglio vederli scannarsi per bene.
Ma soprattutto voglio vedere AMD cosa tira fuori con l'R700 (spero tra un anno), si dice una struttura completamente nuova.
:)
Ottimo, speriamo sia vero... voglio vederli scannarsi per bene.
Ma soprattutto voglio vedere AMD cosa tira fuori con l'R700, si dice una struttura completamente nuova.
:)
R700 avrà memoria embemned :O
;)
R700 avrà memoria embemned :O
;)
Embedded?
Pure! Ottimo direi...
Embedded?
Pure! Ottimo direi...
come quella di R500 per farla breve :)
ne sono sicuro soprattutto perchè potrebbe essere una soluzione già attuata e quindi attuabile...
per il resto mi aspetto che R700 sarà un po' come il progetto R5xx riflesso verso le R4xx
efficienza, efficienza, efficienza
:O
Ottimo, speriamo sia vero... voglio vederli scannarsi per bene.
Ma soprattutto voglio vedere AMD cosa tira fuori con l'R700 (spero tra un anno), si dice una struttura completamente nuova.
:)
Quando mai un chip di nuova generazione non ha una struttura nuova.. :D;)
Quando mai un chip di nuova generazione non ha una struttura nuova.. :D;)
tu che ne pensi riguardo alla memoria "comecavolosichiama"? :asd:
Athlon 64 3000+
22-01-2007, 16:07
R600 in ambito pc è comunque una architettura nuova anche se per ati è la secona generazione di gpu a shader unificati
R600 in ambito pc è comunque una architettura nuova anche se per ati è la secona generazione di gpu a shder unificati
Il solo fatto di essere compatibile a una nuova versione di API credo possa ritenersi fondamentale per essere definita come una nuova architettura soprattutto per la logica "rivoluzionaria" con cui sono state create le attuali nuove.
Te che ce l'hai più di 30cm ti entra......a me invece ce ce l'ho più piccolo no.... :cry: :cry:
Ma cosa avete capito? :D
Lo spazio nel case :O
Maliziosi :Prrr:
non a caso tra ( ) ha specificato "per un pelo" :D :D :D :D
ok basta dai... :)
di sicuro già r600 può essere considerato rivoluzionario, comunque io spero bene, ati ha bisogno di riprendere fette di mercato soprattutto nella fascia media...
Quando mai un chip di nuova generazione non ha una struttura nuova.. :D;)
No no... qui si parla di una struttra completamente differente, non mi ricordo dove l'ho letto... magari e' sicuramente una bufala, ma mi ricordo che, sulla carta, era una roba bestiale a dir poco.
Vedremo!
;)
di sicuro già r600 può essere considerato rivoluzionario, comunque io spero bene, ati ha bisogno di riprendere fette di mercato soprattutto nella fascia media...
Per il mondo PC... si'... ma e' una "semplice" evoluzione di R500, quella di XBOX giusto? Son piu' curioso di R700.
:)
appleroof
22-01-2007, 18:37
di sicuro già r600 può essere considerato rivoluzionario, comunque io spero bene, ati ha bisogno di riprendere fette di mercato soprattutto nella fascia media...
rivoluzionario...mi pare un parolone, il ring bus lo avevano già (innovazione più importante) le gddr4 pure, il processo a 80nm non mi pare altro che semplice normale evoluzione, gli shader unificati praticamente saranno anch'essi una evoluzione di ciò che già avevano già efficacemente implementato....tutto sommato è molto più rivoluzionario G80 rispetto a G70, a voler essere pignoli (ma manco tanto) :)
appleroof
22-01-2007, 18:38
Per il mondo PC... si'... ma e' una "semplice" evoluzione di R500, quella di XBOX giusto? Son piu' curioso di R700.
:)
se è vero tutto quelo che si ipotizza, quello si che sarà veramente rivoluzionario... ;)
se è vero tutto quelo che si ipotizza, quello si che sarà veramente rivoluzionario... ;)
chissà...
appleroof
22-01-2007, 18:42
chissà...
eh lo so...anche a me mi incuriosisce molto ma dobbiamo ancora finire di parlare di R600 che già pensiamo a R700.... :asd: :asd:
eh lo so...anche a me mi incuriosisce molto ma dobbiamo ancora finire di parlare di R600 che già pensiamo a R700.... :asd: :asd:
appunto :sbonk:
rivoluzionario...mi pare un parolone, il ring bus lo avevano già (innovazione più importante) le gddr4 pure, il processo a 80nm non mi pare altro che semplice normale evoluzione, gli shader unificati praticamente saranno anch'essi una evoluzione di ciò che già avevano già efficacemente implementato....tutto sommato è molto più rivoluzionario G80 rispetto a G70, a voler essere pignoli (ma manco tanto) :)
concordo ;)
appleroof
22-01-2007, 19:04
concordo ;)
stai attento che halduemilauno potrebbe ingelosirsi... :sofico: :sofico: (ovviamente scherzo :) )
;)
stai attento che halduemilauno potrebbe ingelosirsi... :sofico: :sofico: (ovviamente scherzo :) )
;)
aaaaaaaaah pazza lei! :O
:sbonk:
stai attento che halduemilauno potrebbe ingelosirsi... :sofico: :sofico: (ovviamente scherzo :) )
;)
:sbonk:
appleroof
22-01-2007, 20:32
Ah quindi potrebbe essere che domani ci alziamo con una bella recensione di hardware upgrade in prima pagina :D
deluso? :D
Kharonte85
22-01-2007, 20:44
http://www.hwupgrade.it/forum/showpost.php?p=15629581&postcount=1806
deluso? :D
Starà http://www.faccinebuffe.it/smile/varie/varie21.gif :asd:
appleroof
22-01-2007, 20:54
http://www.hwupgrade.it/forum/showpost.php?p=15629581&postcount=1806
Starà http://www.faccinebuffe.it/smile/varie/varie21.gif :asd:
:rotfl: :rotfl: :rotfl: :rotfl:
davide155
22-01-2007, 21:15
deluso? :D
Un pochino :(
Vorrà dire che invece di prendermi r600 prenderò il chip derviato......l'r680.....se mai lo faranno prima dell'autunno :rolleyes:
http://www.hwupgrade.it/forum/showpost.php?p=15629581&postcount=1806
Starà http://www.faccinebuffe.it/smile/varie/varie21.gif :asd:
Hahahaha bellissima :rotfl:
http://www.hwupgrade.it/forum/showpost.php?p=15629581&postcount=1806
Starà http://www.faccinebuffe.it/smile/varie/varie21.gif :asd:
:rotfl: :sbonk: :rotfl:
rivoluzionario...mi pare un parolone, il ring bus lo avevano già (innovazione più importante) le gddr4 pure, il processo a 80nm non mi pare altro che semplice normale evoluzione, gli shader unificati praticamente saranno anch'essi una evoluzione di ciò che già avevano già efficacemente implementato....tutto sommato è molto più rivoluzionario G80 rispetto a G70, a voler essere pignoli (ma manco tanto) :)
sicuramente è stato più rivoluzionario G80 vs G70 rispetto a R600 vs R520/580, comunque è un chip innovativo, che ha ripreso le innovazioni "rivoluzionarie" del suo predecessore e le ha migliorate. Comunque rivoluzionario anche perchè sarà la prima vga con bus a 512bit e con 1gb di ram (sono d'accordo che non serva a molto ma è cmq 1 traguardo).
deluso? :D
si anche io... anche perchè ieri sera ho (come giustamente faceva notare Kharonte85) cacato inutilmente! :ciapet:
arghhhhhhhhhhhhhh!
ancora niente fine NDA!......SIGH!
;)
relo@ded
23-01-2007, 12:26
e quando finirà?
james_het
23-01-2007, 12:58
http://www.vr-zone.com/?i=4510
Looking at this news post in our forum, there is a rumor coming out from the websites in China currently that AMD is planning to launch R600 on 8th or 9th March and be officially named as Radeon X2K series. The mass production silicon is expected to be still at A12 for the R600 cards at launch.
It seems like ATi has successfully taped out a A15 silicon that is able to work at 1GHz probably we can hope to see another series of R600 cards with higher working clocks in the near future. The article suggests ATi's next generation R680 is scheduled for Q3 launch but suggested that NVIDIA will have G81 and the next gen. GPU ready to compete.
According to our sources but still a rumor revealed R600 as X2800 series. There are 2 variants for XTX; 1GB and 512MB. X2800XTX runs at 750MHz core, 2.2GHz memory, 512-bit memory interface and GDDR4 while XT runs at 600MHz core, 1.8GHz memory, 512-bit memory interface and GDDR3.
;)
sry quindi usciranno per marzo??
sry quindi usciranno per marzo??
Secondo alcune rumors pubblicati su un sito web cinese, AMD sta pianificando il lancio di R600, la nuova GPU di fascia alta a marchio ATI, fra l´8 ed il 9 Marzo prossimi. Le schede che ne deriveranno saranno denominate Radeon X2000, a segnare un netto distacco dalle attuali serie note come Radeon X1000. La produzione di massa del chip rimarrebbe basata sul revision A12 di R600 almeno nel periodo subito seguente al lancio.
Successivamente, sempre secondo voci di corridoio, AMD potrebbe alzare il tiro. Il produttore ha superato con successo la fase di tape out della revision A15 del chip che sembra in grado di raggiungere la frequenza di funzionamento di 1GHz. Questa revisione potrebbe essere utilizzata per una seconda GPU di fascia alta attesa per il terzo trimestre 2007 e nota come R680, da contrapporre alla futura soluzione concorrente NVIDIA G81.
Il nome esatto delle schede grafiche basate su R600 sarà X2800. Di questa saranno realizzate 2 varianti: la Radeon X2800XTX con chip funzionante a 750MHz e memorie a 2,2GHz con bus [G] a 512-bit (GDDR4) e la Radeon X2800XT con core funzionante a 600MHz e memorie a 1,8GHz su bus a 512-bit (GDDR3).
http://www.dinoxpc.com/News/news.asp?ID_News=11868&What=News
molto probabilmente sarà un hard-lunch ;) ricordiamolo
Secondo alcune rumors pubblicati su un sito web cinese, AMD sta pianificando il lancio di R600, la nuova GPU di fascia alta a marchio ATI, fra l´8 ed il 9 Marzo prossimi. Le schede che ne deriveranno saranno denominate Radeon X2000, a segnare un netto distacco dalle attuali serie note come Radeon X1000. La produzione di massa del chip rimarrebbe basata sul revision A12 di R600 almeno nel periodo subito seguente al lancio.
Successivamente, sempre secondo voci di corridoio, AMD potrebbe alzare il tiro. Il produttore ha superato con successo la fase di tape out della revision A15 del chip che sembra in grado di raggiungere la frequenza di funzionamento di 1GHz. Questa revisione potrebbe essere utilizzata per una seconda GPU di fascia alta attesa per il terzo trimestre 2007 e nota come R680, da contrapporre alla futura soluzione concorrente NVIDIA G81.
Il nome esatto delle schede grafiche basate su R600 sarà X2800. Di questa saranno realizzate 2 varianti: la Radeon X2800XTX con chip funzionante a 750MHz e memorie a 2,2GHz con bus [G] a 512-bit (GDDR4) e la Radeon X2800XT con core funzionante a 600MHz e memorie a 1,8GHz su bus a 512-bit (GDDR3).
http://www.dinoxpc.com/News/news.asp?ID_News=11868&What=News
Credo che di queste info ci sia da fidarsi.
Piu che altro ho dubbi sulle tempistiche. Se ATI fornisce al mercato la XTX a 750mhz ora, e Nvidia se ne esce presumibilmente subito dopo con il suo refresh concorrente, questa scheda potrebbe gia' ipoteticamente essere superata poco dopo il lancio, e l'immissione nel mercato del modello (ipotetico sempre) X2900 a 1Ghz verrebbe vista maluccio da coloro che hanno acquistato la versione precedente se la finestra di tempo fosse cosi' piccola.
Skullcrusher
23-01-2007, 14:02
Credo che di queste info ci sia da fidarsi.
Piu che altro ho dubbi sulle tempistiche. Se ATI fornisce al mercato la XTX a 750mhz ora, e Nvidia se ne esce presumibilmente subito dopo con il suo refresh concorrente, questa scheda potrebbe gia' ipoteticamente essere superata poco dopo il lancio, e l'immissione nel mercato del modello (ipotetico sempre) X2900 a 1Ghz verrebbe vista maluccio da coloro che hanno acquistato la versione precedente se la finestra di tempo fosse cosi' piccola.
Beh, si ripeterebbe la storia dell'x1800...
molto probabilmente sarà un hard-lunch ;) ricordiamolo
Quando c'è di mezzo ATI non ci scommetterei nemmeno 1 cent.:asd:
Beh, si ripeterebbe la storia dell'x1800...
Gia', e da possessore di X1800XL mi auguro che a questo giro non succeda lo stesso. ;)
Skullcrusher
23-01-2007, 14:33
Gia', e da possessore di X1800XL mi auguro che a questo giro non succeda lo stesso. ;)
Lo spero anch'io...ma le premesse perchè riaccada ci sono tutte :muro:
Quando c'è di mezzo ATI non ci scommetterei nemmeno 1 cent.:asd:
beh è già accaduto un hard launch per schede ati: con le x1900!
Visto che adesso è di AMD potrebbe essere molto più facile...
Soprattutto considerando il fatto che la scheda è praticamente già pronta e sarebbe disponibile in buone quantità già per febbraio, ma ATI aspetta (IMHO non a caso) il cebit per lanciarla, quindi IMHO le premesse per un hard launch ci sono tutte... :)
Lo spero anch'io...ma le premesse perchè riaccada ci sono tutte :muro:
quoto, basta non prendere r600 ma aspettare r680... si sa che ATI è così, lo è anche nvidia, solo che nvidia almeno fa passare più tempo, non solo 3 mesi!
Foglia Morta
23-01-2007, 15:39
quoto, basta non prendere r600 ma aspettare r680... si sa che ATI è così, lo è anche nvidia, solo che nvidia almeno fa passare più tempo, non solo 3 mesi!
non è una regola, fanno quel che possono sia ati che nvidia... x1900 uscita poco dopo la x1800 , gx2 uscita poco dopo la gtx.
Skullcrusher
23-01-2007, 16:10
non è una regola, fanno quel che possono sia ati che nvidia... x1900 uscita poco dopo la x1800 , gx2 uscita poco dopo la gtx.
Già...alla fine decono fare così per forza di cose....quindi o si cambia in continuazione o si aspetta il momento giusto ;)
appleroof
23-01-2007, 18:16
La gx2 non c'entra nulla, è stata ed è una scheda a parte con la quale cercare di contrastare a livello d'immagine (quasi fuori mercato insomma, era praticamente pronto G80) la x1900xtx, la serie x1900 è stato invece un progetto più concreto dal punto di vista commerciale. IMHO le due non possono essere paragonate da nessun punto di vista.
Cmq,gente,sul serio:Se (e pare di sì....diko suls erio) fra poki mesi uscirà R680
(se si kiamerà così...),farsi ora R600 é 1 bella e buona presa in c*** da tutti i
fronti....soprattutto da quello di ATI-AMD ke ci considerano come carne da macello......INCREDIBILE!...Meditate gente,meditate.....
Skullcrusher
23-01-2007, 20:36
Cmq,gente,sul serio:Se (e pare di sì....diko suls erio) fra poki mesi uscirà R680
(se si kiamerà così...),farsi ora R600 é 1 bella e buona presa in c*** da tutti i
fronti....soprattutto da quello di ATI-AMD ke ci considerano come carne da macello......INCREDIBILE!...Meditate gente,meditate.....
Nel mondo delle schede video è sempre stato così, appena esce una vga nuova, ci sono già voci sull'uscira a breve della successiva, specie se si tratta di un semplice refresh.
Secondo me, l'unica cosa che può far pendere l'ago della bilancia da una parte o da un'altra è vedere alla prova le 2 architetture, per valutare chi tra Ati e Nvidia ha fatto la scelta migliore. Da questo si saprà su qualche generazione di schede puntare quest'anno, visto che G81 e R680, probabilmente saranno poco più che refresh di quelli che escono ora ( sempre se una delle 2 schede non fa pena, in quel caso l'architettura sarà bene che cambi ).
halduemilauno
23-01-2007, 20:38
Cmq,gente,sul serio:Se (e pare di sì....diko suls erio) fra poki mesi uscirà R680
(se si kiamerà così...),farsi ora R600 é 1 bella e buona presa in c*** da tutti i
fronti....soprattutto da quello di ATI-AMD ke ci considerano come carne da macello......INCREDIBILE!...Meditate gente,meditate.....
ma tra r600 e r680 ci potrà essere un lasso di tempo che ancora non si può valutare. il tuo tentativo di aprire gli occhi è lodevole ma destinato a sicuro fallimento. come esempio porto la x1800 disponibile il 7 novembre sostituita il 13 gennaio. e lo sapevano tutti. eppure. e non credo che tra il 600 e il 680 ci sarà questo scenario.
;)
Nel mondo delle schede video è sempre stato così, appena esce una vga nuova, ci sono già voci sull'uscira a breve della successiva, specie se si tratta di un semplice refresh.
Secondo me, l'unica cosa che può far pendere l'ago della bilancia da una parte o da un'altra è vedere alla prova le 2 architetture, per valutare chi tra Ati e Nvidia ha fatto la scelta migliore. Da questo si saprà su qualche generazione di schede puntare quest'anno, visto che G81 e R680, probabilmente saranno poco più che refresh di quelli che escono ora ( sempre se una delle 2 schede non fa pena, in quel caso l'architettura sarà bene che cambi ).
Bisogna anche valutare il fatto che nvidia sta attuando prezzi sempre piu aggressivi con la 8800, quindi certamente ATI dovrà adeguarsi :) Anche se sinceramente dubito che il consumo a livello energetico di R600 sarà minore :stordita:
Diciamo che passerà qualke mese in +....del lasso di tempo tra la x1800 e la x1900...Ovviamente nn sto dando aria alla bokka...ecco tutto....;)
Per valutare questa mossa di ATI bisognerà vedere se cambierà o meno processo produttivo tra una scheda e l'altra. Perchè se il processo rimanesse lo stesso, sarebbe una semplice evoluzione della scheda dopo 6 mesi o più, dato che da quanto mi pare d'aver capito R680 uscirà nel Q4 2007. Se invece anche il processo sarà differente allora X2800 potrebbe non essere così conveniente.
Skullcrusher
23-01-2007, 21:09
Bisogna anche valutare il fatto che nvidia sta attuando prezzi sempre piu aggressivi con la 8800, quindi certamente ATI dovrà adeguarsi :) Anche se sinceramente dubito che il consumo a livello energetico di R600 sarà minore :stordita:
Certo, anche questo è da tenere in considerazione, e non poco :sofico:
Giusto ...anke il fatto del processo produttivo é vero.....Sarà forse la paura
ke ati sforni 1 mera revisione velocistica e gli utenti (noi) ke si fiondino a pijarla.....con tutto il rispetto ke ognuno butta i soldi dove vuole....;)
appleroof
23-01-2007, 21:31
Per valutare questa mossa di ATI bisognerà vedere se cambierà o meno processo produttivo tra una scheda e l'altra. Perchè se il processo rimanesse lo stesso, sarebbe una semplice evoluzione della scheda dopo 6 mesi o più, dato che da quanto mi pare d'aver capito R680 uscirà nel Q4 2007. Se invece anche il processo sarà differente allora X2800 potrebbe non essere così conveniente.
Secondo me si fa un pò di confusione nei concetti convenienza/evoluzione ecc. R680 è un'evoluzione di R600: un "semplice" passaggio a 65nm non è un chip nuovo, e il minor consumo ipotetico dato da quel processo produttivo sarà bilanciato dalla maggior frequenza. Quindi IMHO più prestazioni ma medesimi consumi e dunque calore prodotto. Stessa cosa G80/G81.
Secondo me si fa un pò di confusione nei concetti convenienza/evoluzione ecc. R680 è un'evoluzione di R600: un "semplice" passaggio a 65nm non è un chip nuovo, e il minor consumo ipotetico dato da quel processo produttivo sarà bilanciato dalla maggior frequenza. Quindi IMHO più prestazioni ma medesimi consumi e dunque calore prodotto. Stessa cosa G80/G81.
Bisognera' pero' tenere conto di quanto G81 sara' pressante dopo tanti mesi passati ad ottimizzare l'architettura sul nuovo processo produttivo. ;)
In base a questo si rende necessario andare contro cio che ci si aspetta da una nuova soluzione, vedi come esempio estremo l'NV30 spinto oltre ogni suo limite per tamponare la figura fatta contro R300, ma che in ogni caso non nascondeva le limitazioni pur lavorando a tutti gli effetti fuori specifiche. ;)
appleroof
23-01-2007, 22:46
Bisognera' pero' tenere conto di quanto G81 sara' pressante dopo tanti mesi passati ad ottimizzare l'architettura sul nuovo processo produttivo. ;)
In base a questo si rende necessario andare contro cio che ci si aspetta da una nuova soluzione, vedi come esempio estremo l'NV30 spinto oltre ogni suo limite per tamponare la figura fatta contro R300, ma che in ogni caso non nascondeva le limitazioni pur lavorando a tutti gli effetti fuori specifiche. ;)
scusami tanto ma mi sfugge quello che vuoi dire.... :stordita:
Foglia Morta
23-01-2007, 23:27
http://www.hexus.net/content/item.php?item=7729
Mascot of the ATI Radeon range of graphics cards, Ruby, was discovered by us wearing her new "R600" look, when we did a bit of digging around at CES.
Boobage is a popular means of selling stuff (augmented by a fiery backdrop works best... marketing departments take note!) Computer hardware is no exception, what with all the nerds that use computers... *snort*... but let's not dwell on the nature of our own kind too much. It's no surprise that a shapely maiden might strut her stuff to shift some graphics cards... all the better when the cards can real-time render her. Gotta love modern tech demos.
So, while were were at CES, we got a peek at what Ruby, or at least part of her, will look like rendered on those shiny new R600s people keep talking about. Looks like she's touched up her lip gloss...
http://img.hexus.net/v2/beanz/ruby_lips/R600_ati_ruby_hexus.jpg
We'll be seeing a lot of those lips as R600 launches. Remember, you saw them here first.
ma tra r600 e r680 ci potrà essere un lasso di tempo che ancora non si può valutare. il tuo tentativo di aprire gli occhi è lodevole ma destinato a sicuro fallimento. come esempio porto la x1800 disponibile il 7 novembre sostituita il 13 gennaio. e lo sapevano tutti. eppure. e non credo che tra il 600 e il 680 ci sarà questo scenario.
;)
secondo me r680 uscirà a settembre. Io comunque non prenderei R600, anche se sicuramente è superiore a G80 sotto tutti i punti di vista (infatti non avrei mai preso nemmeno G80).
Comunque si sa che nel mercato GPU è così, quindi sta agli acquirenti aspettare il momento giusto (secondo me a novembre/dicembre) per prendere una r600/680 o g81.
http://www.hexus.net/content/item.php?item=7729
Mascot of the ATI Radeon range of graphics cards, Ruby, was discovered by us wearing her new "R600" look, when we did a bit of digging around at CES.
Boobage is a popular means of selling stuff (augmented by a fiery backdrop works best... marketing departments take note!) Computer hardware is no exception, what with all the nerds that use computers... *snort*... but let's not dwell on the nature of our own kind too much. It's no surprise that a shapely maiden might strut her stuff to shift some graphics cards... all the better when the cards can real-time render her. Gotta love modern tech demos.
So, while were were at CES, we got a peek at what Ruby, or at least part of her, will look like rendered on those shiny new R600s people keep talking about. Looks like she's touched up her lip gloss...
http://img.hexus.net/v2/beanz/ruby_lips/R600_ati_ruby_hexus.jpg
We'll be seeing a lot of those lips as R600 launches. Remember, you saw them here first.
azzo! che grafica!!
secondo me r680 uscirà a settembre. Io comunque non prenderei R600, anche se sicuramente è superiore a G80 sotto tutti i punti di vista (infatti non avrei mai preso nemmeno G80).
Comunque si sa che nel mercato GPU è così, quindi sta agli acquirenti aspettare il momento giusto (secondo me a novembre/dicembre) per prendere una r600/680 o g81.
Va beh, nell' informatica non esiste il momento giusto, o anzi, é sempre il momento giusto.
Peró secondo me meglio prendere g80 o r600 adesso (o marzo) che prendere i refresh.
Si svaluta di meno un r600 quando esce un refresh che un r680 quando esce la nuova architettura :)
Il tutto parlando dal punto di vista prettamente economico ...
davide155
24-01-2007, 00:00
http://www.hexus.net/content/item.php?item=7729
Mascot of the ATI Radeon range of graphics cards, Ruby, was discovered by us wearing her new "R600" look, when we did a bit of digging around at CES.
Boobage is a popular means of selling stuff (augmented by a fiery backdrop works best... marketing departments take note!) Computer hardware is no exception, what with all the nerds that use computers... *snort*... but let's not dwell on the nature of our own kind too much. It's no surprise that a shapely maiden might strut her stuff to shift some graphics cards... all the better when the cards can real-time render her. Gotta love modern tech demos.
So, while were were at CES, we got a peek at what Ruby, or at least part of her, will look like rendered on those shiny new R600s people keep talking about. Looks like she's touched up her lip gloss...
http://img.hexus.net/v2/beanz/ruby_lips/R600_ati_ruby_hexus.jpg
We'll be seeing a lot of those lips as R600 launches. Remember, you saw them here first.
Quanto mi piacciono le tech demo......
In parte la mia ansia è dovuta anche alle tech demo.....ogni volta che esce una nuova gpu con nuova tecnologia, le prime cose che cerco sono le tech demo.......Mi appassionano troppo.....la grafica fotorealistica mi fa impazzire.
raga secondo voi i prezzi come saranno?(nn rispndetemi alti....lo so anch io)
spero entro le 600... chissà..
Mi aspetto un prezzo allineato alle 8800 come d' altronde é sempre stato.
Anche se a causa dell' effetto novitá/distacco performance (se sará elevato) credo che i negozianti ci speculino un po' sopra ... :(
il prezzo sarà sicuramente alto..forse 600 no ma siamo cmq li in quella fascia. Per me puo costarne anche 800 di euro a me interessa solo che si decidano a farla uscire in modo che poi inizino a uscire un po di schede di fascia medio\alta, che sono quelle che mi interessano :muro:
ma di agp si sa niente? sarà definitivamente defunto con la nuova generazione ATI e Nvidia o.. non ancora?
mi sa che te le puoi scordare in agp :asd:
Io nn credo, perderebbero almeno il 20% dei cinsumatori!!! :mad: :mad:
Io nn credo, perderebbero almeno il 20% dei cinsumatori!!! :mad: :mad:
Peró ti devono pur convincere a migrare su pci-ex ;)
:cry: ma ne siete certi? mi apsettavo una 8600 come ultima scheda agp :mbe:
:cry: ma ne siete certi? mi apsettavo una 8600 come ultima scheda agp :mbe:
guarda se vuoi una vga potente agp forse l'ultima è la x1950pro...
le prossime sk agp credo che saranno forse la fascia bassa dei nuovi chip...
Quindi la 8300?? :)
8100/8300
SE le faranno :)
Lud von Pipper
24-01-2007, 06:20
Leggendo le ultime news sono un pò preoccupato.
Che cosa ne pensate di questa corsa selvaggia alla castrazione delle GPU originali per le declinazioni economiche?
la 8600 di nvidia potrebbe uscirsene con solo 128bit, il che non la rende molto promettente (per longevità e DX10 intendo), quando gia è uscita con un modello sano e uno castrato di G80 (GTX e GTS).
Alla fine la 8600 potrebbe essere la castrazione della castrazione del G80 originale, e siamo ancora in fascia Enthusiast a sentire i dati (over 250$).
R600 potrebbe uscirà probabilmente sia con DDR3 che con DDR4, cosa che limiterà la banda passante della memoria (cosa normale) ma non ho sentito notizie circa la GPU stessa.
Per ATI la serie "Castrata" è sempre stata quella dalla Xx600 in giu, ma con la 1950Pro pare stiano cambiando rotta anche loro.
Stavo guardando un pò in giro le recensioni (visto che i giochi nei benchmark sono diversi da sito a sito) e la mia impressione (magari sbagliata) è che con giochi pesanti gia una 8800GTS soffra parecchio alle alte risoluzioni: diciamo che lo spartiacque (con tutti i filtri attivati) è attorno al 1600x1200, oltre il quale molto spesso viene superata dalle "vecchie" X1950XTX.
Che sarà allora con le 8600?
Il dubbio è se alla fine non convenga l'acquisto di un vecchio modello di punta attendendo un abbassamento dei prezzi per le attuali G80, nella logica di spendere comunque circa 500€ da qui a un anno e mezzo, con il vantaggio di potersi fare un idea più precisa di come si svilupperà questo mercato DX10.
I veri affari si trovano parecchio dopo l'introduzione delle schede di punta, vedi ad esempio con le 1950pro di adesso, se le paragoniamo con una "obsoleta" X1800XT.
Per dire la verità, la cosa che mi tiene più sulle spine e l'uscita per il nuovo 3DMark.
Ok, lo so che cosa si pensa in generale dei bench non legati ai giochi, ma alla fine sarà il primo vero test DX10 su cui paragonare le attuali G80 ed R600.
Quando uscì il bech di "nature" (2005 credo) tutti dissero che era un inutile, esercizio tecnico, poi uscirono i vari Oblivion e NWN2 ritroviamo l'erba renderizzata, il Ragdoll, le riflessioni dell'acqua le illuminazioni puntiformi del 3DM2006, tutte cose che ammazzano le vecchie schede grafiche.
Insomma, sono test che servono a valutare la longevità delle schede più che la loro attuale capacità di fare girare i giochi.
Credo che il 3DMark 2007 sarà la prova del nove per valutare il senso di schede come la 6600 e le X2600 (quando si faranno vive), perchè se si rivelassero del tutto inadatte a gestire le DX10 domani, allora una scheda di generazione precedente potrebbe essere comunque la scelta più saggia per molti.
A quel punto ATI e Nvidia si potrebbero trovare nella situazione di non riuscire a vedere i loro modelli nuovi a meno di drastiche riduzioni di prezzo.
A ben vedere, se una scheda di nuova generazione non regge bene le DX10, non è sostanzialmente più veloce di una scheda più vecchia e soprattuto non è più economica (poniamo una 8600GT vs X1950XTX) allora è meglio la scheda vecchia (finche la si trova).
Siamo sicuri insomma che la vera scheda Mild/high end del 2007 non sia proprio una X1950XTX?
Ok: mi sono sfogato e torno a cuccia :stordita:
scusami tanto ma mi sfugge quello che vuoi dire.... :stordita:
Nel senso che non sempre maggiore integrazione significa consumi contenuti. Dipende quanto l'azienda vuole sfruttare questa ottimizzazione per far fronte alla concorrenza e se (come per NV30 in vista di R300) ci si rendesse conto che la concorrenza ha in mano qualcosa "6 mesi avanti" potrebbe succedere che per rendere competitivo un chip nato per essere semplice refresh, si debba per forza di cose aumentare il piu' possibile (vedi 1Ghz) frequenze e specifiche di funzionamento rendendo cosi' inutili i sogni di consumi piu' bassi e schede piu' umane. ;)
Non dico che sia questo il caso di ATi che (magari) se ne uscira' con un mostro gia' nella versione a 750Mhz, ma abbiamo visto che in altri casi e' gia' successo.
Leggendo le ultime news sono un pò preoccupato.
Che cosa ne pensate di questa corsa selvaggia alla castrazione delle GPU originali per le declinazioni economiche?
la 8600 di nvidia potrebbe uscirsene con solo 128bit, il che non la rende molto promettente (per longevità e DX10 intendo), quando gia è uscita con un modello sano e uno castrato di G80 (GTX e GTS).
Alla fine la 8600 potrebbe essere la castrazione della castrazione del G80 originale, e siamo ancora in fascia Enthusiast a sentire i dati (over 250$).
R600 potrebbe uscirà probabilmente sia con DDR3 che con DDR4, cosa che limiterà la banda passante della memoria (cosa normale) ma non ho sentito notizie circa la GPU stessa.
Per ATI la serie "Castrata" è sempre stata quella dalla Xx600 in giu, ma con la 1950Pro pare stiano cambiando rotta anche loro.
Stavo guardando un pò in giro le recensioni (visto che i giochi nei benchmark sono diversi da sito a sito) e la mia impressione (magari sbagliata) è che con giochi pesanti gia una 8800GTS soffra parecchio alle alte risoluzioni: diciamo che lo spartiacque (con tutti i filtri attivati) è attorno al 1600x1200, oltre il quale molto spesso viene superata dalle "vecchie" X1950XTX.
Che sarà allora con le 8600?
Il dubbio è se alla fine non convenga l'acquisto di un vecchio modello di punta attendendo un abbassamento dei prezzi per le attuali G80, nella logica di spendere comunque circa 500€ da qui a un anno e mezzo, con il vantaggio di potersi fare un idea più precisa di come si svilupperà questo mercato DX10.
I veri affari si trovano parecchio dopo l'introduzione delle schede di punta, vedi ad esempio con le 1950pro di adesso, se le paragoniamo con una "obsoleta" X1800XT.
Per dire la verità, la cosa che mi tiene più sulle spine e l'uscita per il nuovo 3DMark.
Ok, lo so che cosa si pensa in generale dei bench non legati ai giochi, ma alla fine sarà il primo vero test DX10 su cui paragonare le attuali G80 ed R600.
Quando uscì il bech di "nature" (2005 credo) tutti dissero che era un inutile, esercizio tecnico, poi uscirono i vari Oblivion e NWN2 ritroviamo l'erba renderizzata, il Ragdoll, le riflessioni dell'acqua le illuminazioni puntiformi del 3DM2006, tutte cose che ammazzano le vecchie schede grafiche.
Insomma, sono test che servono a valutare la longevità delle schede più che la loro attuale capacità di fare girare i giochi.
Credo che il 3DMark 2007 sarà la prova del nove per valutare il senso di schede come la 6600 e le X2600 (quando si faranno vive), perchè se si rivelassero del tutto inadatte a gestire le DX10 domani, allora una scheda di generazione precedente potrebbe essere comunque la scelta più saggia per molti.
A quel punto ATI e Nvidia si potrebbero trovare nella situazione di non riuscire a vedere i loro modelli nuovi a meno di drastiche riduzioni di prezzo.
A ben vedere, se una scheda di nuova generazione non regge bene le DX10, non è sostanzialmente più veloce di una scheda più vecchia e soprattuto non è più economica (poniamo una 8600GT vs X1950XTX) allora è meglio la scheda vecchia (finche la si trova).
Siamo sicuri insomma che la vera scheda Mild/high end del 2007 non sia proprio una X1950XTX?
Ok: mi sono sfogato e torno a cuccia :stordita:
Fodamentalmente non mi stupisco: l'azienda ci deve guadagnare sempre e comunque e se limitare maggiormente significa diminuire il ciclo di vita di una scheda, vuol dire che lei stessa avra' guadagni maggiori un domani. Credo che la politica di taglio di certe features "invisibili" come la larghezza di banda delle memorie sia un classico che per la maggior parte dei casi non venga ben compresa dall'utente medio. Se Nvidia decidesse davvero di percorrere questa strada significherebbe che attualmente le sue aspettative sono al di sopra della concorrenza e l'offerta unica Dx10 sarebbe la sua e quindi le vendite sarebbero comunque alte. Concordo sul fatto che 128bit di banda, sebbene tamponati da frequenze altissime, siano comunque un po' "retro" cosi' come in alcuni casi limite addirittura 64 bit.. :doh:
Riguardo 3DMark.. be'... Nature e' uscito nel 2001 nella sua prima versione compatibile con i pixel shader 1.0. Era ovvio che l'evoluzione fosse comunque un uso pesante degli stessi come visto in giochi quale Oblivion e prima ancora di questo molti altri. Dobbiamo pensare che 3DMark semplicemente 'e un programma che testa la propria scheda video e il proprio sistema sulla base di scene tridimensionali sviluppate per sfruttare le features piu' moderne e che rappresentano cio' che Futuremark Corp. immagina diventera' il trend dei giochi futuri. Non e' una certezza o una garanzia di fatto. Se poi gli sviluppatori prenderanno altre strade cio' non toglie che 3DMark sia inutile. Semplicemente spreme la scheda video e da un punteggio su una base dati comune. ;)
Foglia Morta
24-01-2007, 08:33
da vr-zone
http://www.vr-zone.com/?i=4525
DX10
http://resources.vr-zone.com//newspics/Jan07/24/R600.jpg
DX9
http://resources.vr-zone.com//newspics/Jan07/24/X1900.jpg
da vr-zone
http://www.vr-zone.com/?i=4525
DX10
http://resources.vr-zone.com//newspics/Jan07/24/R600.jpg
DX9
http://resources.vr-zone.com//newspics/Jan07/24/X1900.jpg
Essendo in due contesti ambientali e di illuminazione completamente differenti e' difficile giudicare, comunque credo che non sia l'immagine migliore per valutare le potenzialita' di una scheda bensi solo il riproporsi (in gran forma ;)) di una mascote. ;)
Se devo dirti la verita' mi e' sembrata per un'attimo la figura femminile di Half Life 2. :D
Ovviamente sono convinto che la demo intera sara da perdere la mascella. :cool:
halduemilauno
24-01-2007, 09:40
Ancora sull'R600...
News di pier - ore 0:50
Secondo le ultime informazioni provenienti dai colleghi di VR-Zone, il chip grafico R600 nella sua revision A15 rasenterebbe il GHz, ma i chip destinati al commercio sarebbero della revision A12, leggermente meno performante.
Il Radeon X2800XTX adotterebbe un R600 a 750 MHz e 512 MB o 1 GB di GDDR4 a 2200 MHz con un bus 512 a bit. Il chip grafico della versione XT sarebbe limitato a 600 MHz con 512 MB di GDDR3 a 1800 MHz, ma sempre con un bus a 512 bit.
Il velo dal Radeon X2800 sarà tolto nel mese di marzo, mentre bisognerà attendere la fine di marzo o gli inizi di aprile per vedere i prodotti R600 in commercio. I prezzi non sono ancora noti, ma dovrebbero agirarsi sui 600 euro. Per quanto riguarda la fascia media, bisognerà attendere il mese di giugno e l'arrivo del processo produttivo a 65 nm presso gli stabilimenti di TSMC e di UMC. Intanto il GeForce 8800 GTX di NVIDIA inizia tranquillamente a scendere di prezzo, verso i 500 euro.
http://hardware.multiplayer.it/
;)
relo@ded
24-01-2007, 10:32
la XT sarebbe dunque un modello troppo "castrato" per il livello di appartenenza?!
Athlon 64 3000+
24-01-2007, 10:35
la XT sarebbe dunque un modello troppo "castrato" per il livello di appartenenza?!
Se la versione XT avrà solo le frequenze di core/mem più basse della XTX e avrà un ottimo prezzo potrebbe essere un ottimo prodotto.
Il modello adesso troppo castrato è la 8800GTS.
halduemilauno
24-01-2007, 10:35
la XT sarebbe dunque un modello troppo "castrato" per il livello di appartenenza?!
no.
;)
la versione xt dovrebbe essere abbordabile per molte tasche se contiamo che la xtx con 1gb di ram e core a frequenze mostruose(750mhz so tanti per una gpu di questa complessità) verrà venduta a 600E.
se la A5 rasenta il ghz credo che macci o sampsa darebbero un braccio per avere una vga con quella revision.
cmq anche con la A12 commercializzata se hanno detto meno performante di 1ghz vuol dire che cmq gli 850-900mhz li fà^^.
relo@ded
24-01-2007, 11:03
Cos'è lecito aspettardi da R680?
Diminuzione dei consumi?
PCB più compatto?
No perchè, a questo punto, la rev A15 sarebbe l'unica che meriterebbe una spesa del genere(in attesa sempre di bench, e non su Doom3).
se la A5 rasenta il ghz credo che macci o sampsa darebbero un braccio per avere una vga con quella revision.
e non faranno tanta fatica ad averla, in precedenza era la stessa ATI che gli forniva le board per battere i record, un A15 esce come ridere per loro :)
Cos'è lecito aspettardi da R680?
Diminuzione dei consumi?
PCB più compatto?
No perchè, a questo punto, la rev A15 sarebbe l'unica che meriterebbe una spesa del genere(in attesa sempre di bench, e non su Doom3).
non capisco xè pensiamo gia a r680 se si chiamerà cosi (solitamente ati somma un 50 o un 60 alla sua rev quindi sarebbe + giusto parlare di r650 o r660)
io penso nulla cosa è cambiato dalla x1900xt a x1950xt?
solo le ram e frequenze + alte non è cambiato ne pcb ne i consumi che anzi salgono al salire delle frequenze e del quantitativo di ram onboard.
cosa è cambiato tra 7800 e le 7950?
il chip è lo stesso g7x i consumi pure xè sono aumentate le frequenze.
solitamente non ogni 3 mesi si passa dalle x1800xt 16x16 alle x1900xt 16x48.
mentre r600 è un prodotto raffinato gia a 80nm gia con uno studio alle spalle di ringbus etc etc non è che ci sia molto + da ingegnerizzare.
al contrario per g80 gia una versione a 80nm si riuscirebbe a integrare il tmds nel package del chip e ridurre la lunghezza di 2 o 3 cm.
se pensi gia al successore della generazione che deve venire stiamo freschi...
halduemilauno
24-01-2007, 11:56
non capisco xè pensiamo gia a r680 se si chiamerà cosi (solitamente ati somma un 50 o un 60 alla sua rev quindi sarebbe + giusto parlare di r650 o r660)
io penso nulla cosa è cambiato dalla x1900xt a x1950xt?
solo le ram e frequenze + alte non è cambiato ne pcb ne i consumi che anzi salgono al salire delle frequenze e del quantitativo di ram onboard.
cosa è cambiato tra 7800 e le 7950?
il chip è lo stesso g7x i consumi pure xè sono aumentate le frequenze.
solitamente non ogni 3 mesi si passa dalle x1800xt 16x16 alle x1900xt 16x48.
mentre r600 è un prodotto raffinato gia a 80nm gia con uno studio alle spalle di ringbus etc etc non è che ci sia molto + da ingegnerizzare.
al contrario per g80 gia una versione a 80nm si riuscirebbe a integrare il tmds nel package del chip e ridurre la lunghezza di 2 o 3 cm.
se pensi gia al successore della generazione che deve venire stiamo freschi...
ci sono state r480,r580 e magari...
Foglia Morta
24-01-2007, 12:22
http://www.theinquirer.net/default.aspx?article=37155
WORD IS TRICKLING in about R600, or at least the final spin of it.
We hear that ATI received production silicon over the last couple of days, meaning that barring a showstopper of a bug, things are 'done'.
This puts the firm on track for the oft-rumoured March launch date. µ
yossarian
24-01-2007, 12:37
la revision A15 potrebbe non essere destinata alla commercializzazione
R600/R680/R650/R660
...vga ormai vecchie...
...io penso già a R700, anzi ora apro un bel thread...
:rolleyes:
:sofico:
la revision A15 potrebbe non essere destinata alla commercializzazione
Ma destinata a farsi un'idea sulle prestazioni ad 1ghz della gpu in vista di qualche upgrade? :)
Altre conferme alle notizie di un'uscita (o meglio, presentazione) ai primi di marzo...
AMD held their 4th quarter 2006 financial results conference call on Tuesday. In answer to a question about the timing of their next generation R600 GPU, AMD's Henri Richard, Executive Vice President of Worldwide Marketing and Sales, replied: "We're still planning to bring to market the R600 product in the 1st quarter". As AMD's financial quarters are calendar based, this should mean that as of today R600's launch is scheduled to be no later than the end of March. Increasing speculation has focused on early March, or possibly CeBit (March 15-21), as a likely launch timeframe, and Richard's answer did nothing to dispel that train of thought.
Fonte: Beyond3D
Skullcrusher
24-01-2007, 12:53
R600/R680/R650/R660
...vga ormai vecchie...
...io penso già a R700, anzi ora apro un bel thread...
:rotfl: :rotfl: :rotfl:
R600/R680/R650/R660
...vga ormai vecchie...
...io penso già a R700, anzi ora apro un bel thread...
:sofico:
:asd: quoto orami sono superate è inutile che le fanno uscire :sofico:
yossarian
24-01-2007, 12:57
Ma destinata a farsi un'idea sulle prestazioni ad 1ghz della gpu in vista di qualche upgrade? :)
diciamo un "upgrade" nel processo produttivo
diciamo un "upgrade" nel processo produttivo
Quello dicevo :)
PS : Ma fatti vedere di più!!!!
Quello dicevo :)
PS : Ma fatti vedere di più!!!!
Yoss e' come il buon whisky.. lo si gode pian piano... :sofico:
Danielao
24-01-2007, 13:49
Ancora sull'R600...
Il velo dal Radeon X2800 sarà tolto nel mese di marzo, mentre bisognerà attendere la fine di marzo o gli inizi di aprile per vedere i prodotti R600 in commercio. I prezzi non sono ancora noti, ma dovrebbero agirarsi sui 600 euro. Per quanto riguarda la fascia media, bisognerà attendere il mese di giugno e l'arrivo del processo produttivo a 65 nm presso gli stabilimenti di TSMC e di UMC. Intanto il GeForce 8800 GTX di NVIDIA inizia tranquillamente a scendere di prezzo, verso i 500 euro.
http://hardware.multiplayer.it/
;)
e se l'X2800 esce realmente con prestazioni 5% - 10% superiori alla 8800GTX in DX10 dopo tutto questo tempo non potrà che essere deludente.
e se l'X2800 esce realmente con prestazioni 5% - 10% superiori alla 8800GTX dopo tutto questo tempo non potrà che essere deludente.
Io non direi affatto. Non credo si possa pretendere una differenza del 50% da una scheda di questa fascia di livello e con un concorrente come G80. Stiamo parlando di tecnologie portate all'estremo grazie a capacita' enormi di tantissime persone che ci lavorano. Quello che a te sembra un 10% fallimentare (ammesso che le percentuali siano queste) e' da considerarsi nel contesto della propria soluzione precedente e rispetto le possibili varianti future.
Ricordo poi che ci sara' il discorso Windows Vista che come con XP quando usci' fara' ben la differenza benchmark alla mano per entrambe le schede e sara' li che vedremo le varie ottimizzazioni.
halduemilauno
24-01-2007, 13:59
e se l'X2800 esce realmente con prestazioni 5% - 10% superiori alla 8800GTX in DX10 dopo tutto questo tempo non potrà che essere deludente.
è ancora tutto da verificare.
;)
ci sono state r480,r580 e magari...
partendo dalla 8500 c'è stato
r200
r300 radeon 9700
r350 radeon 9800
r360 radeon 9800xt
a questo punto omettevano r400 o r410
hanno optato per un r420 x800
r480 x850
r520 x1800
r580 x1900
come vedete ati ha quasi sempre aumentato di step di 50 o 60 ergo presumo che se ci fosse stato un r680 quello attuale invece che r600 dovrebbe essere r620..
quindi presumo che il diesrink di r600 sarà un r650 o un r660
Athlon 64 3000+
24-01-2007, 14:39
Ati ha sempre presentato tot mesi dopo una evoluzione delle varie R420,R520 e R300,però con R520 la situazione era diversa perchè oltre ad essere stata presentata dopo solo 3 mesi e messi R580 non era una gpu con frequenze pompate ma una nuova gpu perchè aveva 59 milioni di transistor in più e qualche piccola modifica rispetto a R520 ed è questo che ha fatto più incavolare molte persone.
Se R680 o come si chiama sarà solo una gpu a frequenze più pompate di R600 e verrà presentato non dopo oltre 4 mesi allora non sarà una grossa presa per il culo però R680 o R6xx sarà una gpu con transistor in più e sarà presentata gia entro luglio ci sarebbe veramente da arrabbiarsi.
davide155
24-01-2007, 15:04
Boia.....ma quante pippe mentali ci facciamo :D
Il phatos da alla testa.......eh si :O
Andrea deluxe
24-01-2007, 15:12
POI....Sicuramente tutte le x2800xtx prenderanno gli 800-850 Mhz!
e voi tutti sapete che ovecloccare da buoni risultati (e soddisfazioni) solo sulla fascia media. (sulla fascia alta, le prestazioni sono gia' abbastanza alte)
le prestazioni di una eventuale x2900xtx sarebbero di poco superiori alla x2800xtx!
non puo' verificarsi una situazione alla x1800xtx-x1900xtx! :Puke:
Lud von Pipper
24-01-2007, 15:23
da vr-zone
http://www.vr-zone.com/?i=4525
DX10
http://resources.vr-zone.com//newspics/Jan07/24/R600.jpg
DX9
http://resources.vr-zone.com//newspics/Jan07/24/X1900.jpg
Mi semobrabo quelle foto per psicologi: "quale delle due ti piace di più?"
La prima ha un illuminazione che mette in risalto le labbra, che aumenta la complessità del neo, e, infine, la prima accenna a sorridere, mentre la seconda sembra un pò scocciata :D
Per una volta (nella vita) mi trovo daccordo con Carmack, secondo, cui a livello di pura resa, non ci sarà grossa differenza tra DX9 e DX10 se ben sfruttate.
Pensate alla differenza tra le immagini DX7 e DX8 :eek:
Bisogna vedre però la facilità di programmazione tra le due API.
Mi semobrabo quelle foto per psicologi: "quale delle due ti piace di più?"
La prima ha un illuminazione che mette in risalto le labbra, che aumenta la complessità del neo, e, infine, la prima accenna a sorridere, mentre la seconda sembra un pò scocciata :D
Per una volta (nella vita) mi trovo daccordo con Carmack, secondo, cui a livello di pura resa, non ci sarà grossa differenza tra DX9 e DX10 se ben sfruttate.
Pensate alla differenza tra le immagini DX7 e DX8 :eek:
Bisogna vedre però la facilità di programmazione tra le due API.
Imho la differenza la vedremo (nel momento in cui verranno sfruttate ben bene le DX10) solo nelle immagini in movimento grazie all'uso GP delle GPU per accelerare calcoli fisici e eventualmente altri (IA ecc) cosi' come con un uso intenso dei geometry shaders che promettono davvero faville nell'interazione geometrica con il mondo circostante.
E' pero' anche vero che le capacita' a livello di shading avendo piena compatibilita' con le specifiche che conosciamo sono di lontane da cio' che e' possibile fare sulle DX9 per cui anche a livello di resa statica un po' dovrebbero esserci grosse differenze (non dico quelle degli screenshots).
il giorno in cui vedrò a video quello che vedo con i miei occhi nella realtà, potrò dire: "questa scheda grafica è veramente incredibile !"
:D
altro che 850MHz, 1GHz e cacate varie :mbe: , basta con il silicio !
il giorno in cui vedrò a video quello che vedo con i miei occhi nella realtà, potrò dire: "questa scheda grafica è veramente incredibile !"
:D
altro che 850MHz, 1GHz e cacate varie :mbe: , basta con il silicio !
Il giorno che vedrai quello che vedi nella realta' a video dirai "..come si fa ad uscire da ACDSee?.. ah ecco.. il bottone X".:p
Davvero passeranno ancora moooolti anni prima di raggiungere un realismo che si possa definire tale.
Il giorno che vedrai quello che vedi nella realta' a video dirai "..come si fa ad uscire da ACDSee?.. ah ecco.. il bottone X".:p
Davvero passeranno ancora moooolti anni prima di raggiungere un realismo che si possa definire tale.
anni ? non credo proprio che si potrà arrivare a tale realismo ne tra 100 anni e ne tra 500, almeno che non vengano utilizzate GPU che non usano più i sistemi convenzionali di calcolo basati su transistor al silicio :D
Ci vuole una reale e spaventosa capacità di calcolo che con un transistor non si può raggiungere.
Quello che si sta facendo è portare fino al limite l'attuale tecnologia, dopo di che tutto si ferma fino alla scoperta di nuovi, e dico totalmente nuovi, sistemi di calcolo.
Che peccato che io non ci sarò quando avverà :(
Bah... io lascerei perdere ste vaccate di screenshots.
Le differenza tra DX9 e 10 ci saranno, e saranno notevoli (robe che si vedono in movimente, come i geometry shader e l'illuminazione MOLTO piu' avanzata).
Non siamo come tra le 7 e le 8, ma, IMHO, siamo di piu' che tra le 8 e le 9.
Bah... io lascerei perdere ste vaccate di screenshots.
Le differenza tra DX9 e 10 ci saranno, e saranno notevoli
lo penso anch'io
il giorno in cui vedrò a video quello che vedo con i miei occhi nella realtà, potrò dire: "questa scheda grafica è veramente incredibile !"
:D
altro che 850MHz, 1GHz e cacate varie :mbe: , basta con il silicio !
Se la tecnologia va avanti cosi'... io dico 30 anni. Pensiamo a Pong, di 35 anni fa. Pensiamo a Crysis adesso. Pensiamo tra 30 anni, considerando che la crescita della potenza di calcolo non e' lineare. Consideriamo che tra una 20 di anni ci saranno i computer quantistici (o quantici...) quindi un bel salto di potenza... ribadisco 30 anni.
:)
CAZZ... Tra trent'anni avro' trent'anni di piu' di adesso...
:(
Ma va'?!?
Ma baffanculo!
:)
Febbraio 2006 (in anno fa), ecco un confronto fra DX9 (sinistra) e DX10 (destra) in Crysis:
Ce n'è di differenza per quanto concerne l'illuminazione :D
http://gotfrags.net/crysis/images/inC/compares/shot1_sbs.jpg
Probabilmente la cosa è dovuta anche alla potenza delle schede video, che permettono algoritmi più precisi, quindi illuminazione più realistica e renderizzazioni delle superfici più aderente al vero.
Poi ovvio che le tech demo sono fatte per farti vedere quello che non vedrai mai o che vedrai nella generazione successiva :)
appleroof
24-01-2007, 16:40
Nel senso che non sempre maggiore integrazione significa consumi contenuti. Dipende quanto l'azienda vuole sfruttare questa ottimizzazione per far fronte alla concorrenza e se (come per NV30 in vista di R300) ci si rendesse conto che la concorrenza ha in mano qualcosa "6 mesi avanti" potrebbe succedere che per rendere competitivo un chip nato per essere semplice refresh, si debba per forza di cose aumentare il piu' possibile (vedi 1Ghz) frequenze e specifiche di funzionamento rendendo cosi' inutili i sogni di consumi piu' bassi e schede piu' umane. ;)
Non dico che sia questo il caso di ATi che (magari) se ne uscira' con un mostro gia' nella versione a 750Mhz, ma abbiamo visto che in altri casi e' gia' successo.
Ma è esattamente quello che intendevo io... :boh:
;)
appleroof
24-01-2007, 16:49
Bah... io lascerei perdere ste vaccate di screenshots.
Le differenza tra DX9 e 10 ci saranno, e saranno notevoli (robe che si vedono in movimente, come i geometry shader e l'illuminazione MOLTO piu' avanzata).
Non siamo come tra le 7 e le 8, ma, IMHO, siamo di piu' che tra le 8 e le 9.
quoto
Se la tecnologia va avanti cosi'... io dico 30 anni. Pensiamo a Pong, di 35 anni fa. Pensiamo a Crysis adesso. Pensiamo tra 30 anni, considerando che la crescita della potenza di calcolo non e' lineare. Consideriamo che tra una 20 di anni ci saranno i computer quantistici (o quantici...) quindi un bel salto di potenza... ribadisco 30 anni.
:)
CAZZ... Tra trent'anni avro' trent'anni di piu' di adesso...
:(
Ma va'?!?
Ma baffanculo!
:)
30 anni sono troppo pochi, CPU quantiche esistono, ma utilizzano il 90% della loro potenza per autocorreggersi, visto la loro instabilità. ( e poi pensa che dovrebbero sconvolgere tutti i sistemi di sicurezza del mondo basati sulla criptazione dei dati, perché una CPU quantica per decifrare il più avanzato sistema di criptazione attuale, ci metterebbe pochi secondi !!! )
La crescita della potenza di calcolo, utilizzando l'attuale tecnologia, è quasi in dirittura d'arrivo perché c'è un limite alla miniaturizzazione.
L'esponenzialità esisteva anni fa, ora si sta saturando, l'impennata ci sarà con altri sistemi di calcolo.
Lud von Pipper
24-01-2007, 17:14
Febbraio 2006 (in anno fa), ecco un confronto fra DX9 (sinistra) e DX10 (destra) in Crysis:
http://gotfrags.net/crysis/images/inC/compares/shot1_sbs.jpg
Qui una differenza si nota, però la seconda immagine sembra sfocata, come se fosse stata passata in un filtro. Sembra quasi che abbiano creato un effetto telecamera, con profondità di campo abbastanza ridotta (mitra e foglie vicine sfocate e sfondo ben definito)
Siamo sicuri che sia tutto merito delle DX10 e non di una diversa programmazione (è passato un anno)?
Mister Tarpone
24-01-2007, 17:16
Qui una differenza si nota, però la seconda immagine sembra sfocata, come se fosse stata passata in un filtro. Sembra quasi che abbiano creato un effetto telecamera, con profondità di campo abbastanza ridotta (mitra e foglie vicine sfocate e sfondo ben definito)
Siamo sicuri che sia tutto merito delle DX10 e non di una diversa programmazione (è passato un anno)?
L'unica differenza tra la 2 immagini,è che la prima è ripresa da fermo,mentre la seconda è in movimento ;)
Edit:
Ho visto l'illuminazione :oink: :asd:
l'illuminazione della seconda immagine è qualcosa di :sbav: :sbav:
Athlon 64 3000+
24-01-2007, 17:33
quelle foto sono solo una mossa commerciale per far passare la gente a Windows Vista e per cambiare hardware.
appleroof
24-01-2007, 17:41
quelle foto sono solo una mossa commerciale per far passare la gente a Windows Vista e per cambiare hardware.
tu non ci passerai mai?
in ogni caso, io mi fido poco di screenshot del genere, possono essere tutto e il contrario di tutto. Mi fido però di più del video in game mostrato al CES: :eek:
Febbraio 2006 (in anno fa), ecco un confronto fra DX9 (sinistra) e DX10 (destra) in Crysis:
Ce n'è di differenza per quanto concerne l'illuminazione :D
http://gotfrags.net/crysis/images/inC/compares/shot1_sbs.jpg
ma nel febbraio 2006 su che scheda dx10 l'avrebbero fatto girare?
IMHO è palese che fosse un filmato prerenderizzato!
appleroof
24-01-2007, 17:43
ma nel febbraio 2006 su che scheda dx10 l'avrebbero fatto girare?
IMHO è palese che fosse un filmato prerenderizzato!
stai pur certo che i primi prototipi sia dei chip dx10 che delle stesse librerie erano già in giro (come potrebbero programmare con il tempo necesario?), cmq ribadisco quanto detto riguardo gli shot in generale di quel tipo
tu non ci passerai mai?
in ogni caso, io mi fido poco di screenshot del genere, possono essere tutto e il contrario di tutto. Mi fido però di più del video in game mostrato al CES: :eek:
io penso di aspettare il primo service pack
appleroof
24-01-2007, 17:53
io penso di aspettare il primo service pack
Io devo decidere....sicuramente non lo prendo appena esce, aspetto che venga "sviscerato" almeno un poco...però non credo aspetterò fino al I service pack credo che lo prenderò verso l'estate o poco prima, vediamo :)
Foglia Morta
24-01-2007, 17:56
:yeah:
http://www.vr-zone.com/?i=4529
We showed you an illustration of the R600 card a week ago and we can confirm that the real card looks pretty much the same. To be exact, it is 34cm long with the fan/blower and handle at the back. The only difference we can spot is the power connectors where it has dual 6-pin instead of one 8-pin + one 6-pin. The cooler plastic encase is black in color. More later.
Mister Tarpone
24-01-2007, 17:57
:yeah:
http://www.vr-zone.com/?i=4529
We showed you an illustration of the R600 card a week ago and we can confirm that the real card looks pretty much the same. To be exact, it is 34cm long with the fan/blower and handle at the back. The only difference we can spot is the power connectors where it has dual 6-pin instead of one 8-pin + one 6-pin. The cooler plastic encase is black in color. More later.
:eek: :eek: :eek:
:yeah:
http://www.vr-zone.com/?i=4529
We showed you an illustration of the R600 card a week ago and we can confirm that the real card looks pretty much the same. To be exact, it is 34cm long with the fan/blower and handle at the back. The only difference we can spot is the power connectors where it has dual 6-pin instead of one 8-pin + one 6-pin. The cooler plastic encase is black in color. More later.
:eek: :muro:
Mister Tarpone
24-01-2007, 17:59
:eek: :muro:
:eekk: :cry: :eekk:
Io devo decidere....sicuramente non lo prendo appena esce, aspetto che venga "sviscerato" almeno un poco...però non credo aspetterò fino al I service pack credo che lo prenderò verso l'estate o poco prima, vediamo :)
tu hai già G80 e fai bene ad anticipare, se anche io sarò con VGA DX10 è probabile che "ti segua".
Foglia Morta
24-01-2007, 18:03
:eek: :muro:
si diceva che la versione per gli oem sarebbe stata molto lunga e normale la retail... si vedrà
si diceva che la versione per gli oem sarebbe stata molto lunga e normale la retail... si vedrà
speriamo sia così, dai 34cm di vga sono veramente troppi.
appleroof
24-01-2007, 18:07
tu hai già G80 e fai bene ad anticipare, se anche io sarò con VGA DX10 è probabile che "ti segua".
;)
p.s.: non credo proprio che sarà così lunga la scheda
Foglia Morta
24-01-2007, 18:11
speriamo sia così, dai 34cm di vga sono veramente troppi.
nel mio case ci starebbe di misura ( lian li pc7070 ). per il resto sono pochi i case che potrebbero contenerla... imho solo un oem potrebbe trovargli il posto
Mister Tarpone
24-01-2007, 18:11
Piccola 34cm :muro:
Speriamo non arrivi a 40............ :mc:
halduemilauno
24-01-2007, 18:14
:yeah:
http://www.vr-zone.com/?i=4529
We showed you an illustration of the R600 card a week ago and we can confirm that the real card looks pretty much the same. To be exact, it is 34cm long with the fan/blower and handle at the back. The only difference we can spot is the power connectors where it has dual 6-pin instead of one 8-pin + one 6-pin. The cooler plastic encase is black in color. More later.
allora probabilmente è proprio questa. probabilmente. aspettiamo ulteriori riscontri.
http://photofile.ru/photo/konodap/1335573/28274881.jpg
;)
Foglia Morta
24-01-2007, 18:19
allora probabilmente è proprio questa. probabilmente. aspettiamo ulteriori riscontri.
-cut-
;)
hal ma li leggi i post ?
Quell'immagine è stata postata su beyond3d per riderci su. E' un controller SCSI quella scheda , c'è scritto compaq , ibm , cos'altro può essere ?
halduemilauno
24-01-2007, 18:21
hal ma li leggi i post ?
Quell'immagine è stata postata su beyond3d per riderci su. E' un controller SCSI quella scheda , c'è scritto compaq , ibm , cos'altro può essere ?
esatto. come questa.
http://www.jjman.org/modules/nsections/images/AMDVideoCard/JJMAN.org-back1.JPG
;)
Mister Tarpone
24-01-2007, 18:22
hal ma li leggi i post ?
Quell'immagine è stata postata su beyond3d per riderci su. E' un controller SCSI quella scheda , c'è scritto compaq , ibm , cos'altro può essere ?
Ma non era per riderci su anche adesso?
Mister Tarpone
24-01-2007, 18:22
esatto. come questa.
http://www.jjman.org/modules/nsections/images/AMDVideoCard/JJMAN.org-back1.JPG
;)
:sbav: :sbav: :sbav: :sbav: :sbav:
Foglia Morta
24-01-2007, 18:23
Ma non era per riderci su anche adesso?
azz... che battutone :sofico:
halduemilauno
24-01-2007, 18:26
hal ma li leggi i post ?
Quell'immagine è stata postata su beyond3d per riderci su. E' un controller SCSI quella scheda , c'è scritto compaq , ibm , cos'altro può essere ?
chiariamolo. è ovvio che non era una scheda video. ho letto anch'io compaq ibm e cavoli vari. la seconda che ho postato ha bisogno di chiarimenti o va bene cosi?
Foglia Morta
24-01-2007, 18:31
diciamo un "upgrade" nel processo produttivo
solo un die shrink ? Perchè Orton aveva parlato di 96 shader ( immagino vec4 ) e non si capiva se parlasse di R600 o il successore e tutti i rumour parlano di 64 shader per R600. da 64 a 96 in proporzione sarebbe lo stesso passaggio che ci sarebbe potuto essere tra R520 e R580.
Foglia Morta
24-01-2007, 18:33
chiariamolo. è ovvio che non era una scheda video. ho letto anch'io compaq ibm e cavoli vari. la seconda che ho postato ha bisogno di chiarimenti o va bene cosi?
volevo accertarmi che fai gli esami alla vista che periodicamente tocca fare, senza rancore eh
Tra i due R5x0 il numero di shader è stato moltiplicato per 3, da 16 a 48. Da 64 a 96 invece il rapporto è diverso, si ha un aumento del 50%.
Difficile trarre conclusioni da numeri del genere :)
Foglia Morta
24-01-2007, 18:37
Tra i due R5x0 il numero di shader è stato moltiplicato per 3, da 16 a 48. Da 64 a 96 invece il rapporto è diverso, si ha un aumento del 50%.
Difficile trarre conclusioni da numeri del genere :)
ho detto che ci sarebbe potuto essere , che non c'è stato ma c'era anche questa possibilità :D
Se dovessimo dare ascolto a tutti i rumors usciti... :)
Lud von Pipper
24-01-2007, 18:42
http://resources.vr-zone.com/newspics/Jan07/08/R600.jpg
Secondo me a vedere l'immagine su VR zone, la lughezza della scheda sarà identica a quella delle attuali serie 1000.
Se guardate bene il PCB rosso finisce dove ci si aspetta ma hanno pensato mettere un ventolone che sporge dietro.
In questo mondo l'aria viene soffiata verso l'alto, lo spessore della scheda dovrebbe occupare un singolo slot (molto meglio per il CrossFire) e probabilmente si avrà una ventola poco ostruita e rumorosa delle normali
Nulla vieta però di produrre versioni con dissipatori simili agli attuali.
Il grosso vantaggio è di non avere ostruito il retro con una miriade di condensatori (magari li hanno messi sul retro?), quindi questo dissipatore può essere montanto.
halduemilauno
24-01-2007, 18:44
volevo accertarmi che fai gli esami alla vista che periodicamente tocca fare, senza rancore eh
tutto apposto. ho tutti i drivers per vista. d'accordo battutaccia.
;)
halduemilauno
24-01-2007, 18:46
http://resources.vr-zone.com/newspics/Jan07/08/R600.jpg
Secondo me a vedere l'immagine su VR zone, la lughezza della scheda sarà identica a quella delle attuali serie 1000.
Se guardate bene il PCB rosso finisce dove ci si aspetta ma hanno pensato mettere un ventolone che sporge dietro.
In questo mondo l'aria viene soffiata verso l'alto, lo spessore della scheda dovrebbe occupare un singolo slot (molto meglio per il CrossFire) e probabilmente si avrà una ventola poco ostruita e rumorosa delle normali
Nulla vieta però di produrre versioni con dissipatori simili agli attuali.
Il grosso vantaggio è di non avere ostruito il retro con una miriade di condensatori (magari li hanno messi sul retro?), quindi questo dissipatore può essere montanto.
ecco questa era l'immagine che vidi e credo postai.
Lud von Pipper
24-01-2007, 18:47
Tra l'altro, la heatpipe sembra completamente chiusa nella plastica frontalmente: questo renderebbe possibile utilizzare, in certi sistemi il piccolo slon PCI-e 1x che di solito è davanti alla scheda video, magari per una Ageia oppure una Creative Audigy.
La disposizione del dissipatore però non fa vedere da dove viene l'aria aspirata: in teoria potrebbe venire dall'alto, ma se vogliono creare una forte depressione dentro il tubo del dissipatore, credo che una scheda a doppia altezza non sia ideale.
Infine non mi preoccuperei più di tanto delle dimensioni: questa è una scheda Full lenght, per il quale esistono degli standard ben precisi.
Tutti i case (almeno Mild) seri, compresi quelli da ufficio, sono progettati per contenerle, con la lama metallica sul fondo che si va ad incastrare dentro le fessure che "dovrebbero" essere vicino all'ingresso dell'aria e sotto gli HD.
L'incastro è di aiuto anche per sostenere il peso della scheda e non lasciarlo tutto sullo slot PCI-E
Nell'immagine della Comapq postata da HAL si vede come questa lamina sia piegata in avanti per adattarsi ad un blocco standardizzato.
Magari un problema potrebbe essere l'aria calda soffiata sullo stack degli Hard disk in certi sistemi :confused:
tutto apposto. ho tutti i drivers per vista. d'accordo battutaccia.
;)
in effetti...........
;)
appleroof
24-01-2007, 19:22
Quel dissi (se davvero la scheda finale sarà così) dimostra invece secondo me semplicemente molto consumo e molto calore: per contenerne la lunghezza devono montare un dissi mostruoso con hyte pipe enormi (cosa tra l'altro diffusa a livello di rumors da mesi) e che si "mangia" slot pci oppure ingegnarsi in quella soluzione che praticamente non permette il montaggio sul 90% dei case. Comunque aspettiamo notizie più concrete.
Skullcrusher
24-01-2007, 19:40
Quel dissi (se davvero la scheda finale sarà così) dimostra invece secondo me semplicemente molto consumo e molto calore: per contenerne la lunghezza devono montare un dissi mostruoso con hyte pipe enormi (cosa tra l'altro diffusa a livello di rumors da mesi) e che si "mangia" slot pci oppure ingegnarsi in quella soluzione che praticamente non permette il montaggio sul 90% dei case. Comunque aspettiamo notizie più concrete.
Quoto, per ora non hanno detto niente che già non fosse trapelato, vero o falso che sia...
Kharonte85
24-01-2007, 20:07
:yeah:
http://www.vr-zone.com/?i=4529
We showed you an illustration of the R600 card a week ago and we can confirm that the real card looks pretty much the same. To be exact, it is 34cm long with the fan/blower and handle at the back. The only difference we can spot is the power connectors where it has dual 6-pin instead of one 8-pin + one 6-pin. The cooler plastic encase is black in color. More later.
:rotfl:
:muro: :help:
Cmq io lo dicevo che ci si poteva aspettare la sorpresa...viste le voci che circolavano sul dissipatore...http://www.mmorpgitalia.it/forum/images/smilies/kyo.gif
Intel-Inside
24-01-2007, 20:17
Domanda :
Si sa qualcosa sul fatto che per funzionare bisognerà settarla a 16x?
Come ad esempio le 8800 non funzionano se la velocità dello slot PCI è 8x...
appleroof
24-01-2007, 20:25
Domanda :
Si sa qualcosa sul fatto che per funzionare bisognerà settarla a 16x?
Come ad esempio le 8800 non funzionano se la velocità dello slot PCI è 8x...
:confused: :confused:
la mia và proprio su uno slot 8x... :what:
Kharonte85
24-01-2007, 20:39
:confused: :confused:
la mia và proprio su uno slot 8x... :what:
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.