View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
Ma la 2900XT è paragonabile alla 8800GTS? :mbe: avevo capito che era leggermente superiore alla 8800GTX... :(
Alexkidd85
24-04-2007, 12:31
Ma la 2900XT è paragonabile alla 8800GTS? :mbe: avevo capito che era leggermente superiore alla 8800GTX... :(
Avevi capito bene infatti,ma tanto finché non escono dati molto ufficiosi o ufficiali,la 2900xt può anche essere paragonata alle prestazioni della 6800gt...e nessuno può dire "non è così". Quindi sti rumors contano quanto il 2 di coppe a briscola in 5(che di solito si tolgono i 2) :D
Free Gordon
24-04-2007, 12:34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=662&Itemid=1
We reported most of the features about R600 and we still owe you the explanation how the heck 64 Unified Shader can make the 320 stream processors but lets just say its all about vec4+1. It is a very complex part. Anyway on the fun side R600 will support 24 X Anti aliasing.
It can support 8X MSAA (Multi Sampling Anti Aliasing) and combined with FSAA can result with Anti aliasing up to 24X.This should be exciting part as G80 can do only 16X and even the 16X kills the performance. ATI might be better off due to its 512 bit memory controller.
This will only be interesting if you use more than one card in Crossfire as this is where such an Antialiasing could be useful.
Ma cosa stanno dicendo questi... :doh:
Alexkidd85
24-04-2007, 12:37
Chiedo scusa,avevo forzato tutto dall ATT perché stavo giocando ad OBLIVION...mi sembrava strano tutta sta potenza sta 2600xt...
Tra un pochino edito i risultati...chiedo ancora scusa :)
Ma tanto non servono a niente sti risultati secondo la gente che conta qua dentro..ormai lo faccio per completare il lavoro :)
Ma la 2900XT è paragonabile alla 8800GTS? :mbe: avevo capito che era leggermente superiore alla 8800GTX... :(
Va come una 8800gtx e costa come una 8800gts.. è un problema x te :rolleyes: per me no :sofico:
Athlon 64 3000+
24-04-2007, 12:41
posso solo dire che in questi giorni su R600 se ne sentono di tutto e di più.:D
Fino a che non ci sarà la presentazione ufficiale tutto sarà possibile e io continuerò fino a tal giorno(14 maggio)a parlare con il condizionale.
Kharonte85
24-04-2007, 12:44
queste sono le cose belle della vita... :doh:
Onestamente?Quantomeno io non sto a sminuire le prestazioni di certe schede o a elogiare la mia come alcuni ma partecipo attivamente,cercado di aiutare.
Poi non parlate di flames perché sono il tipo più tranquillo del mondo,ma certe affermazioni mi fanno veramente "accapponare la pelle" come direbbe un noto comico.
Sporco il pc,il registro,occupo spazio nell'hd solo per dare un pochino di vitalità al 3d....mah,meno male che lo faccio per gente che sa apprezzare e non gente che sghignazza per una battuta o freddura,chiamala come vuoi,che a me ha fatto ridere un'altra cosa...
Chiedo scusa per lo sfogo....ma forse noto solo gente "addannata" dalle prestazioni che una "media" fa nei confronti di una ottima top di gamma in dx9...ma voglio sperare non sia così,sennò sarebbe veramente da preoccuparsi :D
Guarda che la mia critica parte dal fatto che non sapete a quali risoluzioni e impostazioni è stato fatto quello screen, non sapete se è un fake o altro, una scheda x1900xt overcloccata tot quale metro di paragone potrebbe mai essere?
Pretendere di capire come va una scheda da questo http://www.hardspell.com/pic/2007/4/20/55292f52-1951-47af-ae6b-b3f0580336ca4501200.jpgè davvero troppo...
Quindi ti ripeto non critico il tuo lavoro, il tuo impegno ecc...critico il fatto che tu ti sia messo a farlo...te lo potevi risparmiare ;)
Ma andare a zelig no? Spé che ci chiamo vediamo se vi contattano...meno male tralaltro che ad inizio 3d si era detto "no a post con solo emoticon". :rolleyes:
Guarda che ridere fa bene ogni tanto...:mbe:
Kharonte85
24-04-2007, 12:47
Va come una 8800gtx e costa come una 8800gts.. è un problema x te :rolleyes: per me no :sofico:
Dailytech ipotizza un Costo di 499$ per la HD2900xt...
Vorrei sbagliare ma non credo...
La 2900 xt sara inferiore alla GTX e non piu di un 10% superiore alla 640 GTS..
Stream processor a parte è chairo che la scelta dei 512 MB di memoria penalizza ora e penalizzera ancor piu in futuro...
Spero vivamente che il prezzo sia davvero di 399 euro altrimenti AMD metterebbe sul mercato una scheda appena superiore ad una sua concorrente vecchia di 6 mesi con un prezzo piu alto....Assurdo comunque questo ritardo..ad oggi il ritardo si paga con fette di mercato..Ha pagato Sony con la Play3 e ora pagherà AMD..
Foglia Morta
24-04-2007, 12:49
Dailytech ipotizza un Costo di 499$ per la HD2900xt...
leggila come va letta ;)
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.
Dailytech ipotizza un Costo di 499$ per la HD2900xt...
Infatti ipotizza :rolleyes: Ipotizzo anche io ke ci sarà 2900GTO ;)
Va come una 8800gtx e costa come una 8800gts.. è un problema x te :rolleyes: per me no :sofico:
Chiedevo, visto questo...
Gaming: Maximum Quality, 1280x1024
Game
AMD ATI Radeon
HD 2900 XT
NVIDIA GeForce
8800 GTS 640MB
Call of Duty 2
73.5 FPS
56.7 FPS
Company of Heroes
92.1 FPS
90.1 FPS
F.E.A.R.
84.0 FPS
83.3 FPS
Half Life 2: Episode 1
112.0 FPS
57.4 FPS
Oblivion
47.9 FPS
39.5 FPS
3DMark06
11447
9836
...pensavo che la X2900XT non fosse all'altezza della 8800GTX :(
Kharonte85
24-04-2007, 12:51
leggila come va letta ;)
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.
E io che ho detto? :mbe:
Li' si prende come riferimento il prezzo medio della GTS che è $499 e dice che la 2900xt si piazzera' li'...non credo che sappiano che qua le 8800gts 640mb si trovano anche a meno di 400 euri :D
leggila come va letta ;)
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.
Perché l’hai detto :asd:
Foglia Morta
24-04-2007, 12:52
E io che ho detto? :mbe:
pensavo che il tuo post fosse in contraddizione con quello di @ndre1.
sorry , allora è pacifico che la XT costerà come la GTS :)
Free Gordon
24-04-2007, 12:53
Si ok ma alla fin fine ki gioca più a cod2 e a HL2?
435E e 200W contro 260E della GTS320 e 350E della 640 x 140W...
Ma sopratutto quale GTS 640 farebbe 39 fps a 1280x1024.. in Oblivion? :D
Per me sono bench farlocchissimi.
Chiedevo, visto questo...
...pensavo che la X2900XT non fosse all'altezza della 8800GTX :(
Lo scopriamo tutti insieme.. ci sarà la XTX non dimenticare..
Ma sopratutto quale GTS 640 farebbe 39 fps a 1280x1024.. in Oblivion? :D
Per me sono bench farlocchissimi.
Ne fa di meno?
Alexkidd85
24-04-2007, 12:55
Guarda che ridere fa bene ogni tanto...:mbe:
Ah perché dovevo ridere? Uff..la prossima volta mi fai un segnale dove devo ridere e rido :)
Comunque è vero ciò che dici,ma sempre un minimo metro di paragone lo è e comunque c'è modo e modo di rispondere,sempre di "buon senso" si tratta,che nl tuo caso non dico che non hai(me ne guarderei dal dirlo),ma dico che in quel post,è venuto un pochino meno :)
Comunque,per me possiamo chiudere l'ot qui...però tra me che posto i risultati e i vostri ghigni...forse è più utile il mio risultato(inutile) ;)
Buona Giornata :)
Lo scopriamo tutti insieme.. ci sarà la XTX non dimenticare..
Ma quando? Quando? Quando?
Kharonte85
24-04-2007, 12:56
pensavo che il tuo post fosse in contraddizione con quello di @ndre1.
sorry , allora è pacifico che la XT costerà come la GTS :)
Dipende...qua le 8800gts 640mb si trovano davvero a buon prezzo...cmq staremo a vedere, quello che è sicuro è che costeranno meno della 8800gtx ;)
Insomma le schede saranno presentati oggi o 14 maggio :mad:
Insomma le schede saranno presentati oggi o 14 maggio :mad:
Interessa pure a me, vorrei sapere anche quando verranno commercializzate...
Foglia Morta
24-04-2007, 13:01
E io che ho detto? :mbe:
Li' si prende come riferimento il prezzo medio della GTS che è $499 e dice che la 2900xt si piazzera' li'...non credo che sappiano che qua le 8800gts 640mb si trovano anche a meno di 400 euri :D
quindi appunto il prezzo medio sarà lo stesso. @ndre1 ha ragione :) .
se la 8800 GTS è venduta a 400 euro con uno street price suggerito da nVidia di 499$ presumibilmente accadrà lo stesso con la XT con uno street price suggerito da AMD di 499$
se puoi vuoi ragionare con dei dati che non hai fai pure :mbe:
Guarda che la mia critica parte dal fatto che non sapete a quali risoluzioni e impostazioni è stato fatto quello screen, non sapete se è un fake o altro, una scheda x1900xt overcloccata tot quale metro di paragone potrebbe mai essere?
Pretendere di capire come va una scheda da questo http://www.hardspell.com/pic/2007/4/20/55292f52-1951-47af-ae6b-b3f0580336ca4501200.jpgè davvero troppo...
I motivi per scegliere quella risoluzione e quei filtri li ho spiegati in un post precedente, e non mi pare che fosse così peregrina come idea. E' per avere un quadro ipotetico del livello di prestazioni.
Tra l'altro nei post di quel ragazzo asiatico (che pare abbia la HD 2600) perlomeno ci sono le foto. DailyTech non solo ha valori della 8800GTS tutti sballati, ma non posta manco un thumbnail. ;)
Kharonte85
24-04-2007, 13:05
Ah perché dovevo ridere? Uff..la prossima volta mi fai un segnale dove devo ridere e rido :)
[Barzelletta mode on]
Paziente: Dottore dottore mi aiuti! ho come l'impressione che nessuno mi capisca!!!
Dottore: Che cosa intende dire?
[Barzelletta mode off]
Cosi'? :D
Comunque è vero ciò che dici,ma sempre un minimo metro di paragone lo è e comunque c'è modo e modo di rispondere,sempre di "buon senso" si tratta,che nl tuo caso non dico che non hai(me ne guarderei dal dirlo),ma dico che in quel post,è venuto un pochino meno :)
Comunque,per me possiamo chiudere l'ot qui...però tra me che posto i risultati e i vostri ghigni...forse è più utile il mio risultato(inutile) ;)
Buona Giornata :)
Il mio tono non voleva essere offensivo...se è cosi' me ne scuso :friend: Io lo dicevo perche' è quello che penso (e te l'ho spiegato nel post successivo)...
Kharonte85
24-04-2007, 13:07
quindi appunto il prezzo medio sarà lo stesso. @ndre1 ha ragione :) .
se la 8800 GTS è venduta a 400 euro con uno street price suggerito da nVidia di 499$ presumibilmente accadrà lo stesso con la XT con uno street price suggerito da AMD di 499$
Non credo, perche' la xt è nuova la GTS no (e questo è il motivo per cui si trova a meno)... ;)
Cmq non infiliamoci in questo tunnel... :)
Free Gordon
24-04-2007, 13:09
Ne fa di meno?
Ne fa di più ovviamente... dato che a quella res, con setting al palo, ne faccio 35 io con la 1800XT.. :fagiano:
Kharonte85
24-04-2007, 13:22
Se volete vi faccio anche io un inutile Test :D
Questo è quello che dovrebbe fare la Hd2600xt
http://www.hardspell.com/pic/2007/4/20/9d26875d-cd34-4348-bf5d-65f190de5ceb4501200.jpg
Io faccio 36 con una 7800gs (Circa=7600gt)...;)
appleroof
24-04-2007, 13:23
Guarda che la mia critica parte dal fatto che non sapete a quali risoluzioni e impostazioni è stato fatto quello screen, non sapete se è un fake o altro, una scheda x1900xt overcloccata tot quale metro di paragone potrebbe mai essere?
Pretendere di capire come va una scheda da questo http://www.hardspell.com/pic/2007/4/20/55292f52-1951-47af-ae6b-b3f0580336ca4501200.jpgè davvero troppo...
Quindi ti ripeto non critico il tuo lavoro, il tuo impegno ecc...critico il fatto che tu ti sia messo a farlo...te lo potevi risparmiare ;)
Guarda che ridere fa bene ogni tanto...:mbe:
Mi accodo in tutto e aggiungo anche da parte mia che non volevo offendere nessuno, solo che quei test valgono zero, poi se volete farli per divertirvi per carità va strabenissimo, ma accettate qualche battutina che lascia il tempo che trova dai ;)
...vorrei segnalare la parte più cool dell'articolo: dato che noi di DailyTech non siamo in Tunisa (ovvero: non vi hanno invitato...rosiconi! :D ) possiamo mostrarvi le immagini ed i nostri bench fatti con HD 2900 XT.
:asd:
ps. ho letto bene l'articolo ed anche questo, se escludiamo le foto ed i bench (veri o presunti), non aggiunge nulla di nuovo su architetture e prezzi reali. Se decidi di violare l'NDA, almeno fallo bene...:mad: :D
Kharonte85
24-04-2007, 13:27
...vorrei segnalare la parte più cool dell'articolo: dato che noi di DailyTech non siamo in Tunisa (ovvero: non vi hanno invitato...rosiconi! :D ) possiamo mostrarvi le immagini ed i nostri bench fatti con HD 2900 XT.
:asd:
Se decidi di violare l'NDA, almeno fallo bene...:mad: :D
Straquoto! :mad: :D
appleroof
24-04-2007, 13:31
...vorrei segnalare la parte più cool dell'articolo: dato che noi di DailyTech non siamo in Tunisa (ovvero: non vi hanno invitato...rosiconi! :D ) possiamo mostrarvi le immagini ed i nostri bench fatti con HD 2900 XT.
:asd:
ps. ho letto bene l'articolo ed anche questo, se escludiamo le foto ed i bench (veri o presunti), non aggiunge nulla di nuovo su architetture e prezzi reali. Se decidi di violare l'NDA, almeno fallo bene...:mad: :D
Molto strano che un sito come quello abbia deciso di "suicidarsi"(chi non rispetta l'nda perde credito verso tutti, non solo per quella specifica azienda)...secondo me quelle indiscrezioni hanno il "beneplacido" di Amd.....non vi torna? :what:
TecnoWorld8
24-04-2007, 13:32
strano anche che lo stesso sito dica con sicurezza che tale GPU sarà a 65nm...
Se volete vi faccio anche io un inutile Test :D
Questo è quello che dovrebbe fare la Hd2600xt
http://www.hardspell.com/pic/2007/4/20/9d26875d-cd34-4348-bf5d-65f190de5ceb4501200.jpg
Io faccio 36 con una 7800gs (Circa=7600gt)...;)
Ma infatti quello sarebbe stato sicuramente inutile, perchè un test sul menu non ha senso, dato che in più di un caso il framerate nei menu non è direttamente relazionato con le performances ingame. Quello di Infernal un po' di senso in più ce l'ha, dato che si prendono in esame le performances ingame in un punto del gioco graficamente "pesante".
halduemilauno
24-04-2007, 13:34
...vorrei segnalare la parte più cool dell'articolo: dato che noi di DailyTech non siamo in Tunisa (ovvero: non vi hanno invitato...rosiconi! :D ) possiamo mostrarvi le immagini ed i nostri bench fatti con HD 2900 XT.
:asd:
ps. ho letto bene l'articolo ed anche questo, se escludiamo le foto ed i bench (veri o presunti), non aggiunge nulla di nuovo su architetture e prezzi reali. Se decidi di violare l'NDA, almeno fallo bene...:mad: :D
ma non lo hanno violato. mi pare che non lo hanno mai sottoscritto. la scheda gli sarà arrivata dai soliti canali taiwanesi. se non hanno pigiato forse per non inimicarsi troppo amd. forse.
Chiedo scusa,avevo forzato tutto dall ATT perché stavo giocando ad OBLIVION...mi sembrava strano tutta sta potenza sta 2600xt...
Tra un pochino edito i risultati...chiedo ancora scusa :)
Ma tanto non servono a niente sti risultati secondo la gente che conta qua dentro..ormai lo faccio per completare il lavoro :)
Posta pure, con tanto di screenshots, a me (e credo anche a tanti altri) i tuoi risultati interessano. :)
Kharonte85
24-04-2007, 13:35
strano anche che lo stesso sito dica con sicurezza che tale GPU sarà a 65nm...
Dove? :mbe:
halduemilauno
24-04-2007, 13:35
Molto strano che un sito come quello abbia deciso di "suicidarsi"(chi non rispetta l'nda perde credito verso tutti, non solo per quella specifica azienda)...secondo me quelle indiscrezioni hanno il "beneplacido" di Amd.....non vi torna? :what:
intanto mi pare che non l'abbiano firmato. pare.
;)
appleroof
24-04-2007, 13:36
ma non lo hanno violato. mi pare che non lo hanno mai sottoscritto. la scheda gli sarà arrivata dai soliti canali taiwanesi. se non hanno pigiato forse per non inimicarsi troppo amd. forse.
Ah...questo spiegherebbe tutto
appleroof
24-04-2007, 13:37
intanto mi pare che non l'abbiano firmato. pare.
;)
Idem come sopra :)
http://img243.imageshack.us/img243/4866/atihd2900keyfeaturesky0mm1.jpg
ma non lo hanno violato. mi pare che non lo hanno mai sottoscritto. la scheda gli sarà arrivata dai soliti canali taiwanesi. se non hanno pigiato forse per non inimicarsi troppo amd. forse.
Ma pigiato cosa? :confused: Le HD2900XT per conto mio potrebbero anche fare schifo, ma per schifo che facciano ammetterai che è impossibile che una scheda "quasi" top di gamma abbia prestazioni pressochè identiche alla top della generazione precedente in tutti i giochi, anche con drivers alpha. :rolleyes:
appleroof
24-04-2007, 13:39
http://img243.imageshack.us/img243/4866/atihd2900keyfeaturesky0mm1.jpg
Cominciano le prime conferme?
Kharonte85
24-04-2007, 13:39
Ma infatti quello sarebbe stato sicuramente inutile, perchè un test sul menu non ha senso, dato che in più di un caso il framerate nei menu non è direttamente relazionato con le performances ingame. Quello di Infernal un po' di senso in più ce l'ha, dato che si prendono in esame le performances ingame in un punto del gioco graficamente "pesante".
Ti diro' che invece il test sul menu' (nel non senso) ha piu' senso perche' ricrea esattamente la stessa situazione (impossibile da fare con un gioco), inoltre carbon è molto piu' pesante di Infernal :)
Molto strano che un sito come quello abbia deciso di "suicidarsi"(chi non rispetta l'nda perde credito verso tutti, non solo per quella specifica azienda)...secondo me quelle indiscrezioni hanno il "beneplacido" di Amd.....non vi torna? :what:
Se non li hanno invitati mi sa che tutto 'sto credito non ce l'avevano manco prima... :rolleyes:
TecnoWorld8
24-04-2007, 13:41
Dove? :mbe:
http://www.digitimes.com/mobos/a20070423PD213.html
halduemilauno
24-04-2007, 13:42
Ma pigiato cosa? :confused: Le HD2900XT per conto mio potrebbero anche fare schifo, ma per schifo che facciano ammetterai che è impossibile che una scheda "quasi" top di gamma abbia prestazioni pressochè identiche alla top della generazione precedente in tutti i giochi, anche con drivers alpha. :rolleyes:
sull'acceleratore delle rivelazioni
appleroof
24-04-2007, 13:42
Se non li hanno invitati mi sa che tutto 'sto credito non ce l'avevano manco prima... :rolleyes:
Non mi risulta essere un sito di scarso credito, molto più plausibile che non abbiano firmato l'nda come detto, :boh:
Kharonte85
24-04-2007, 13:43
http://www.digitimes.com/mobos/a20070423PD213.html
Infatti non è lo stesso sito...
halduemilauno
24-04-2007, 13:44
http://img243.imageshack.us/img243/4866/atihd2900keyfeaturesky0mm1.jpg
gia postato
Kharonte85
24-04-2007, 13:45
Non mi risulta essere un sito di scarso credito, molto più plausibile che non abbiano firmato l'nda come detto, :boh:
Gia', oppure avranno tenuto le dita incrociate...:boh:
...vorrei segnalare la parte più cool dell'articolo: dato che noi di DailyTech non siamo in Tunisa (ovvero: non vi hanno invitato...rosiconi! :D ) possiamo mostrarvi le immagini ed i nostri bench fatti con HD 2900 XT.
:asd:
...altra chicca presente nell'articolo: Although we ran the benchmarks on our PC, we were not supplied a monitor for testing higher resolutions.
:asd: :asd:
ps. la facciamo una colletta e gli regaliamo un monitor che supporti la strabiliante risoluzione 1600*1200?!
Kharonte85
24-04-2007, 13:57
...altra chicca presente nell'articolo: Although we ran the benchmarks on our PC, we were not supplied a monitor for testing higher resolutions.
:asd: :asd:
ps. la facciamo una colletta e gli regaliamo un monitor che supporti la strabiliante risoluzione 1600*1200?!
:rotfl: :rotfl: :rotfl: questo non l'avevo notato...poracci...:( http://www.lshwupgrade.com/images/smiles/omg.gif
TecnoWorld8
24-04-2007, 13:59
avevo confuso dailytech con digitimes (entrambi DT) :) cmq digitimes è sempre stato molto affidabile, lo seguo da anni e anni e ha sempre dato notizie valide...speriamo abbiano ragione sui 65nm
appleroof
24-04-2007, 14:04
http://www.hwupgrade.it/news/cpu/amd-offerta-di-debito-per-ottenere-disponibilita-finanziaria_20930.html
questi stanno proprio con le pezze al.....
Speriamo si risollevino presto...
TecnoWorld8
24-04-2007, 14:06
sì, la news era apparsa già ieri su theregister:
http://www.theregister.co.uk/2007/04/23/amd_cash/
purtroppo le cose nn vanno troppo bene per AMD e l'acquisizione di ATi è stata una bella botta. Se non fanno una bella serie di GPU, non si risollevano...
appleroof
24-04-2007, 14:08
sì, la news era apparsa già ieri su theregister:
http://www.theregister.co.uk/2007/04/23/amd_cash/
purtroppo le cose nn vanno troppo bene per AMD e l'acquisizione di ATi è stata una bella botta. Se non fanno una bella serie di GPU, non si risollevano...
Però mi dispiacerebbe molto, anche perchè il monopolio fà solo male (e chi la contrasta più Intel)? Spero proprio che le cose cambino rotta, per Amd :rolleyes: (che si liberi di Ati e troni al suo core-business, ma chi gliela fatta fà??)
Kharonte85
24-04-2007, 14:08
http://www.hwupgrade.it/news/cpu/amd-offerta-di-debito-per-ottenere-disponibilita-finanziaria_20930.html
questi stanno proprio con le pezze al.....
Speriamo si risollevino presto...
Visto, e spaventosa intel con in mano la quota di mercato nel primo trimestre dell'anno all'80,2%...http://www.lshwupgrade.com/images/smiles/omg.gif
halduemilauno
24-04-2007, 14:11
Ma la 2900XT è paragonabile alla 8800GTS? :mbe: avevo capito che era leggermente superiore alla 8800GTX... :(
avevi capito quello che alcuni han voluto far capire senza un briciolo di prova. aspettiamo le rece.
;)
halduemilauno
24-04-2007, 14:12
Però mi dispiacerebbe molto, anche perchè il monopolio fà solo male (e chi la contrasta più Intel)? Spero proprio che le cose cambino rotta, per Amd :rolleyes: (che si liberi di Ati e troni al suo core-business, ma chi gliela fatta fà??)
Intel.
;)
http://www.hwupgrade.it/news/cpu/amd-offerta-di-debito-per-ottenere-disponibilita-finanziaria_20930.html
questi stanno proprio con le pezze al.....
Speriamo si risollevino presto...
/OT
scusate l'ot, volevo chiederti se riesci a giocare bene con la configurazione che possiedi, anche agli ultimi titoli.
Se tu fossi CPU LIMITED, riesci ad avvertirlo nei giochi ?!?
Grazie.
/FINE OT
...la notizia riguarda soprattutto le Cpu. In questo momento la quota mercato di AMD è 11%, molto bassa. Intel vende un botto con Core2. La divisione grafica (ATi) è l'unica (spese di acquisizione a parte) che porta denaro alle casse di AMD. Comunque l'emissione di obbligazioni convertibili in azioni è uno dei modi più comuni per poter aumentare il capitale. Non è così "tanto preoccupante". L'importante è però ora riprendersi alla grande con K10 e R600 (ma molto più con K10).
:)
Però mi dispiacerebbe molto, anche perchè il monopolio fà solo male (e chi la contrasta più Intel)? Spero proprio che le cose cambino rotta, per Amd :rolleyes: (che si liberi di Ati e troni al suo core-business, ma chi gliela fatta fà??)
come se fosse un peso :asd:
ma l'hai letta la notizia o ci prendi in giro? :D
/OT
/FINE OT
usa i pvt no?
Però mi dispiacerebbe molto, anche perchè il monopolio fà solo male (e chi la contrasta più Intel)?
...solo un idiota potrebbe rallegrarsi da un fallimento di un'azienda di queste dimensioni. Non dimentichiamoci che prima d'essere una "fabbrica di cpu e vga" (per noi) è un posto di lavoro per migliaia di persone in tutto il mondo. Avranno fatto i loro calcoli...e come dicevo non è così "tanto preoccupante" come a prima vista potrebbe risultare.
:)
usa i pvt no?
scusatemi...
Provvedo :)
TecnoWorld8
24-04-2007, 14:19
Intel con il C2D ha voluto affossare AMD per tentare di tornare in una condizione di monopolio. Altrimenti non si spiegherebbe l'aver fatto uscire CPU come l'E6600 a 300$, che andava fin da subito più veloce dei precedenti top di gamma che costavano 900$ fino al giorno prima...
In ogni caso credo che anzi AMD abbia acquistato ATi proprio per differenziarsi e superare il momento di crisi. Peccato che poi ci siano stati questi ritardi.
appleroof
24-04-2007, 14:19
Intel.
;)
Ho capito, ma potevano avviare una joint-venture (oppure un'operazione alla fiat-GM) senza impiegare le grosse risorse che richiede una fusione poi magari più in là (dopo il lancio di K10 e aver ristabilito la situazione) pensare alla fusione...
/OT
scusate l'ot, volevo chiederti se riesci a giocare bene con la configurazione che possiedi, anche agli ultimi titoli.
Se tu fossi CPU LIMITED, riesci ad avvertirlo nei giochi ?!?
Grazie.
/FINE OT
Ti rispondo in pvt
...la notizia riguarda soprattutto le Cpu. In questo momento la quota mercato di AMD è 11%, molto bassa. Intel vende un botto con Core2. La divisione grafica (ATi) è l'unica (spese di acquisizione a parte) che porta denaro alle casse di AMD. Comunque l'emissione di obbligazioni convertibili in azioni è uno dei modi più comuni per poter aumentare il capitale. Non è così "tanto preoccupante". L'importante è però ora riprendersi alla grande con K10 e R600 (ma molto più con K10).
:)
Si ma l'aumento di capitale nella stragrande maggiornaza delle volte non è proprio un buon segnale, non significa ancora bancarotta, per carità, però una "difficoltà" più o meno profonda la segnalano...se poi ci aggiungi le mega perdite dichiarate pochi giorni fà non è che c'è proprio da starci così tranquilli...
appleroof
24-04-2007, 14:21
come se fosse un peso :asd:
Lo è nel momento in cui hanno impiegato miliardi nell'operazione...:rolleyes:
Lo è nel momento in cui hanno impiegato miliardi nell'operazione...:rolleyes:
ma non centra proprio nulla con i problemi di quote di mercato di amd.
quindi non è un peso, anzi, potrebbe fargli recuperare terreno con le future architetture.
Si ma l'aumento di capitale nella stragrande maggiornaza delle volte non è proprio un buon segnale, non significa ancora bancarotta, per carità, però una "difficoltà" più o meno profonda la segnalano...se poi ci aggiungi le mega perdite dichiarate pochi giorni fà non è che c'è proprio da starci così tranquilli...
...ma infatti, senza dubbio, ed è quello che ho scritto io. La situazione non è bella, AMD deve recuperare assolutamente terreno con K10, ma non bisogna neanche farla tragica. Ogni azienda di quelle dimensioni nell'arco della vita soffre momenti di questo genere. Avere un buon progetto in tasca per uscire dalla crisi è molto più importante. 3Dfx in tasca non aveva nulla, e si è visto. AMD con K10 e R600/650 non avrà difficoltà a trovare "aiuti finanziari" se mai ne avesse ancora bisogno.
:)
appleroof
24-04-2007, 14:28
ma non centra proprio nulla con i problemi di quote di mercato di amd.
quindi non è un peso, anzi, potrebbe fargli recuperare terreno con le future architetture.
AMD prevede di impiegare almeno 500 milioni derivanti dai frutti dell'offerta per saldare una parte del prestito a termine che essa stessa ha sottoscritto con Morgan Stanley per finanziare una parte del prezzo di acquisto e delle spese correlate all'acquisizione di ATI Technologies.
Ha perso quote di mercato per il core2duo, ma non sarebbe con le pezze al @@@@ se non avesse i debiti per acquistare Ati
...ma infatti, senza dubbio, ed è quello che ho scritto io. La situazione non è bella, AMD deve recuperare assolutamente terreno con K10, ma non bisogna neanche farla tragica. Ogni azienda di quelle dimensioni nell'arco della vita soffre momenti di questo genere. Avere un buon progetto in tasca per uscire dalla crisi è molto più importante. 3Dfx in tasca non aveva nulla, e si è visto. AMD con K10 e R600/650 non avrà difficoltà a trovare "aiuti finanziari" se mai ne avesse ancora bisogno.
:)
Lo spero, per i motivi che ho già esposto (e poi perchè mi devo fare il k10 l'anno prox :D )
appleroof
24-04-2007, 14:30
Grazie mille.
Se è per me, di nulla ;)
AMD prevede di impiegare almeno 500 milioni derivanti dai frutti dell'offerta per saldare una parte del prestito a termine che essa stessa ha sottoscritto con Morgan Stanley per finanziare una parte del prezzo di acquisto e delle spese correlate all'acquisizione di ATI Technologies.
Ha perso quote di mercato per il core2duo, ma non sarebbe con le pezze al @@@@ se non avesse i debiti per acquistare Ati
Lo spero, per i motivi che ho già esposto (e poi perchè mi devo fare il k10 l'anno prox :D )
è un cane che si morde la coda.
se non avesse perso quote di mercato con il core2duo, non avrebbe abbassato i prezzi delle cpu, con conseguente calo drastico del fatturato e delle quote di mercato.
insomma... i debiti fatti ora per pagare l'acquisizione sono causati proprio dalla perdita di competitività del reparto delle cpu.
più chiaro ora? ;)
appleroof
24-04-2007, 14:39
è un cane che si morde la coda.
se non avesse perso quote di mercato con il core2duo, non avrebbe abbassato i prezzi delle cpu, con conseguente calo drastico del fatturato e delle quote di mercato.
insomma... i debiti fatti ora per pagare l'acquisizione sono causati proprio dalla perdita di competitività del reparto delle cpu.
più chiaro ora? ;)
Sei gentile a cercare di fornirmi delucidazioni....quello che però forse questa volta sfugge a te è che Amd ha perso quote nell'ultimi trimestre 2006/primo trimestre 2007 (quando core2 è esploso)
L'acquisizione l'ha pianificata molto tempo prima (non è esattamente fare la spesa al minimarket), e l'ha conclusa (legalmente, non economicamente) a ottobre 2006, per cui i debiti per comprare Ati si aggiungono alla situazione sfavorevole nel campo cpu (aggravata dalla necessità di abbassare i prezzi e quindi margini, unico modo per tamponare lo strapotere Intel ora come ora)
Ergo, se non avesse Ati (i cui introiti non bastano a coprire il debito, altrimenti non avrebbe fatto prestiti alle banche d'affari) sarebbe di certo in difficoltà (core2) ma non sarebbe con le proverbiali pezze
più chiaro ora? ;)
Sei gentile a cercare di fornirmi delucidazioni....quello che però forse questa volta sfugge a te è che Amd ha perso quote nell'ultimi trimestre 2006/primo trimestre 2007 (quando core2 è esploso)
L'acquisizione l'ha pianificata molto tempo prima (non è esattamente fare la spesa al minimarket), e l'ha conclusa (legalmente, non economicamente) a ottobre 2006, per cui i debiti per comprare Ati si aggiungono alla situazione sfavorevole nel campo cpu (aggravata dalla necessità di abbassare i prezzi e quindi margini, unico modo per tamponare lo strapotere Intel ora come ora)
Ergo, se non avesse Ati (i cui introiti non bastano a coprire il debito, altrimenti non avrebbe fatto prestiti alle banche d'affari) sarebbe di certo in difficoltà (core2) ma non sarebbe con le proverbiali pezze
più chiaro ora? ;)
anche tu sei molto gentile ;)
ti ripeto che tutto il problema risiede nell'abbattimento drastico del fatturato del reparto cpu di amd.
l'acquisizione ha portato ad un incremento del 19% del fatturato del reparto delle gpu nel 1 trimestre, che hanno compensato un pochino le perdite del mercato delle cpu.
se core2duo non fosse così competitivo amd non avrebbe avuto nessun problema. sta tutto lì l'inghippo. mi sembra così ovvio!
chiarito le idee? ;)
TecnoWorld8
24-04-2007, 14:50
forse è meglio che continuiate in PM, dato che non è strettamente riguardante l'R600 ;) sarebbe brutto che il topic fosse chiuso proprio a pochi giorni dal lancio ufficiale, hehe
appleroof
24-04-2007, 14:50
anche tu sei molto gentile ;)
Ok, come disse Mr. Wolf in pulp fiction, prima di cominciare a farci i pom@@ni a vicenda...
ti ripeto che tutto il problema risiede nell'abbattimento drastico del fatturato del reparto cpu di amd.
l'acquisizione ha portato ad un incremento del 19% del fatturato del reparto delle gpu nel 1 trimestre, che hanno compensato un pochino le perdite del mercato delle cpu.
se core2duo non fosse così competitivo amd non avrebbe avuto nessun problema. sta tutto lì l'inghippo. mi sembra così ovvio!
chiarito le idee? ;)
Le idee io ce l'ho molto chiare, non ho bisogno che tu me le chiarisca (poi è chiaro che non si finisce mai di imparare). Il fatto risiede in una cosa (core2duo) + acquisizione Ati (e relativi --forti-- debiti). La prima era forse inevitabile (ma anche qui, se non si fosse seduta sugli allori...) la seconda era sicuramente evitabile (per ora, come ho scritto ci sono altri strumenti aziendali più soft che una fusione) oppure quanto meno rimandabile.
cmq speriamo si riprenda, come ho detto abbiamo solo da guadagnarci, noi utenti
appleroof
24-04-2007, 14:51
forse è meglio che continuiate in PM, dato che non è strettamente riguardante l'R600 ;) sarebbe brutto che il topic fosse chiuso proprio a pochi giorni dal lancio ufficiale, hehe
Bè il lancio di R600 và ad inserirsi in questo sfondo, non stiamo parlando di Samsung o Ibm......cmq io quello che penso per ora l'ho detto ;)
daje rega fatela finita senno va a finire male.:)
Ok, come disse Mr. Wolf in pulp fiction, prima di cominciare a farci i pom@@ni a vicenda...
Le idee io ce l'ho molto chiare, non ho bisogno che tu me le chiarisca (poi è chiaro che non si finisce mai di imparare). Il fatto risiede in una cosa (core2duo) + acquisizione Ati (e relativi --forti-- debiti). La prima era forse inevitabile (ma anche qui, se non si fosse seduta sugli allori...) la seconda era sicuramente evitabile (per ora, come ho scritto ci sono altri strumenti aziendali più soft che una fusione) oppure quanto meno rimandabile.
cmq speriamo si riprenda, come ho detto abbiamo solo da guadagnarci, noi utenti
sembra che tu non voglia capire.
tutto il problema sta nel fatto che ora amd non ha liquidità a sufficienza per pagare i debiti dell'acquisizione di ati. la causa principale qual'è? l'acquisizione di ati oppure il basso fatturato?
naturalmente è una domanda retorica ;) la risposta è ovvia. se non avesse avuto i problemi con il reparto cpu, non si sarebbero verificati tutti questi scossoni nel bilancio.
saluti.
Kharonte85
24-04-2007, 15:02
daje rega fatela finita senno va a finire male.:)
Infatti, lo sappiamo che vi volete bene ma potreste manifestare il vostro affetto in separata sede? :sofico: ...;)
appleroof
24-04-2007, 15:06
Infatti, lo sappiamo che vi volete bene ma potreste manifestare il vostro affetto in separata sede? :sofico: ...;)
Ho evitato di rispondere a t3d per l'ennesima volta sennò diventa una chat (e poi perchè ho risposto 1000 volte, ma sembra non voglia capire)
però ripeto, l'argomento non mi sembrava OT...:)
Portocala
24-04-2007, 15:12
Alla fine Ati ce l'ha più lungo? :sofico:
Alla fine Ati ce l'ha più lungo? :sofico:
no c'elo + lungo io:sofico:
ricominciamo co sta storia?
http://img243.imageshack.us/img243/4866/atihd2900keyfeaturesky0mm1.jpg
A me è venuto un colpo leggendo quale sarà il bundle delle scheda: mi pare di ricordare che anche HL2 doveva essere in bundle con le 9x00XT, e poi sappiamo tutti come andò a finire (meno male che Ep2 è stato già rimandato a ottobre/novembre, altrimenti :asd: :asd:)...
Oppure, a pensarci bene, è negativo per le vga stesse: se il gioco sarà disponibile solo nel prossimo autunno, come fa ad essere in bundle con le vga che escono in primavera? Mi sa che stavolta ritardano pure la vga, oltre al gioco :D (ovviamente scherzo eh, probabilmente ci sarà un coupon, come avvenne per HL2)
Va come una 8800gtx e costa come una 8800gts.. è un problema x te :rolleyes: per me no :sofico:
Se ci riporti dei benchmark ufficiali e dati certi forse possiamo anche crederci, ma finché non c'è nulla di concreto, devi sempre aggiungere "stando ai rumors circolati finora" : come ipotizzano gli altri, devi ipotizzare anche tu ;)
Intanto la futura Radeon 1950 PRO sarà RV670:
A new performance part
X1950 PRO will get a decent DirectX 10 card to replace it. Just as ATI introduced RV570 with 256 bit memory interface last year, this year brings the 256 bit DirectX 10 part codenamed RV670.
We don't have many details but we know that RV670 is going to be faster than RV630 mainstream part. The RV670 fits the performance market segment and it is the Shader model 4.0 DirectX 10 part.
The card comes in Q3 but we don't have more precise date.
Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=672&Itemid=1
Sarà il chip ATI a shader unificati e bus a 256 bit.
@Vifani:
Secondo le ultime news, sembra che R600 avrà una Programmable Tessellation Unit come Xenos: quali sarebbero i vantaggi di una simile tecnologia?
relo@ded
24-04-2007, 16:28
ansa:
secondo le ultime indiscrezione R600 cambia anche canale della tv :fagiano:
Intanto la futura Radeon 1950 PRO sarà RV670:
Sarà il chip ATI a shader unificati e bus a 256 bit.
Se lo dice Vifani sono tranquillo :D
Sinceramente preferivo avere ATI libera da padroni, credo che AMD sia per lei un bel freno, speriamo che dopo l'uscita dell'R600 tutto torni a regime, come un tempo :rolleyes:
Foglia Morta
24-04-2007, 16:32
http://www.theinquirer.net/default.aspx?article=39145
AMD IS THE first semiconductor company to held a product briefing and now a launch in Africa, which was a bold move indeed.
But, the tech that company is bringing to the market is just brilliant, and the plan to keep the info for three weeks was an impossible task to overcome in a world of blackberries and cellphones - as we have already warned.
Since AMD could not invite the whole journalist corps to Africa, non-invited media such as IT-Review.Net and TechOne decided to publish information about the next-generation marchitecture from AMD.
To us, the idea of an NDA was silly anyway, since you could have read almost everything about R600 on this very pages, from the technical details of the GPU, PCB, HDMI, real reason for 12" cooler+PCB combo, product lineup and many, many more.
So, what is DAAMIT launching on May 14th? The answer is the Radeon HD 2900XT.
The key features of this GPU were already known about. We have disclosed that this second gen unified shader marchitecture part has 64 Vect5D units and seeing the 320 scalar unit number, we can now say this is official. Please bear in mind that the rumour that the chip has 64 vect4+scalar was wrong from day one.
Vect4+Scalar is not directly comparable to Nvidia, Vect5D is. So, we have a superscalar marchitecture with 320 scalar processsing units designed in-line with built-in Tessellation hardware, relatively similar to the Xenos chip from Xbox 360. But performance is far beyond we have imagined, and hearing that this is not limited to a certain version of DX10 only speaks of better days for PC gaming.
Geometry performance is vastly improved, as is expected from vect5D based marchitecture, and gamedevs can now use Geometry Shaders, unlike certain green products. Comparison between a single HD2900XT and 8800GTX SLI in geometry shaders will be quite interesting.
Anisotropic filtering and AntiAliasing were vastly improved as well, and R600 marchitecture marks off the start of "NextGen AA". A new AA mode is called Custom Filter AA (CFAA), and it peaks at 24x. 8x MultiSample AA mode was completely changed, so expect some fireworks and comparisons between G80 and R600 hardware. Of course, all existing AA tech is supported.
ATi AVIVO also makes a return in a form of Universal Video Decoder (UVD), scoring 128 on HQV test, and HD2900XT will of course, support high-resolution HDMI (1.2 spec), featuring AC3 5.1 output. When it comes to regular resolutions, Radeon HD2900XT supports both 2560x1560 and 2560x2048.
The board communicates with the computer using a PCIe x16 slot and processing data through internal ring bus and 512-bit external controller (8-channel memory interface). Clocks are set at 742 MHz for the GPU and 1.65 GHz for 512MB of GDDR-3 memory.
AMD promised extremely competitive pricing, and in many cases the HD2900XT will beat 8800GTX, yet alone 8800GTS. To boot, the company decided to team up with Valve and offer a free bundle featuring a couple of the upcoming hit titles. It is up to the partners to decide how the game will be bundled, but this will be marked as Return of The Coupon, if you remember Radeon 9800XT launch and alleged code-leak in Half Life 2 development, which was market by a year delay.
As Henri Richard said during the last quarterly conference call, AMD will not do a soft launch and HD2900XT boards will be massively available. µ
Foglia Morta
24-04-2007, 16:34
praticamente pare che secondo AMD la 2900 XT in molti casi sarebbe più veloce della GTX. Della XTX non si fa cenno.
E per quel che riguarda i geometry shader ( novità DX10 ) pare che una singola 2900XT possa dare risultati interessanti se paragonata addirittura a 2 GTX in SLI ( per chi diceva che il vero terreno di scontro sono le DX10 ).
aspettiamo :D
....
The board communicates with the computer using a PCIe x16 slot and processing data through internal ring bus and 512-bit external controller (8-channel memory interface). Clocks are set at 742 MHz for the GPU and 1.65 GHz for 512MB of GDDR-3 memory.
AMD promised extremely competitive pricing, and in many cases the HD2900XT will beat 8800GTX, yet alone 8800GTS.
....
ottimo :cool:
ottimo :cool:
cosa un rumors senza fondamenti?:rolleyes:
cosa un rumors senza fondamenti?:rolleyes:
niente, se fosse così sarebbe ottimo... :boh:
più potente, ma ad un costo inferiore.
per noi utenti e le nostre tasche sarebbe fantastico
niente, se fosse così sarebbe ottimo... :boh:
più potente, ma ad un costo inferiore.
per noi utenti e le nostre tasche sarebbe fantastico
chiaro;)
Ehm, scusate se insisto, visto che tempo fa si parlava della scarsa tecnicità di questo thread, perchè chi ne sa di più non fa una bella spiega (e/o posta links) su:
- uso potenziale dei geometry shaders e vantaggi rispetto alle architetture che non hanno un'unità dedicata allo scopo
- differenze tra Vect4+Scalar units e Vect5D units
:stordita: :fagiano: :help:
Vedendo la xt non vedo tutte queste innovazioni tecnologiche...
Io aspetto la xtx...
Sono sicuro ke AMD rientrerà alla grande :yeah:
Arriverà l’ultima..,ma con grandi prestazioni :winner:
Se non sbaglio Barcellona ‘’K10’’ +o- è più veloce di 50% di Intel QuadCore e la serie R600/30/10 se la mangia G80/86/83!!
LanParty+K10+DDR3+R600 cosa voi di più dalla vita :sofico:
appleroof
24-04-2007, 16:56
Ehm, scusate se insisto, visto che tempo fa si parlava della scarsa tecnicità di questo thread, perchè chi ne sa di più non fa una bella spiega (e/o posta links) su:
- uso potenziale dei geometry shaders e vantaggi rispetto alle architetture che non hanno un'unità dedicata allo scopo
- differenze tra Vect4+Scalar units e Vect5D units
:stordita: :fagiano: :help:
Geometry Shader e Stream Output
Da: "The Direct3D 10 System" di David Blythe
Ultimo ma non per importanza, parliamo delle nuovissime componenti del core: i Geometry Shader (GS). Iniziamo il viaggio tra gli step logici nel processo di rendering (questo potrebbe essere una funzione fissa o threaded attraverso un core frammentato). Il termine "pipeline" è pura tassonomia; ogni stadio è una parte del processo, ma potrebbe accadere che allo stesso tempo in un'altra parte dello stesso frame si stia lavorando su qualcos'altro. Tuttavia il primo posto in cui passa il dato è l'Input Assembler (IA).
Come potete vedere dal diagramma qui sotto, l'IA colleziona un vertex data a una sola dimensione. Ogni (fino a) otto input stream ha un dato vertex specifico che contiene fino a 16 campi strutturali chiamati elementi. Ogni elemento è un multiplo da uno a quattro data item. Guardando ancora il diagramma sopra, potrete vedere il vertex data input come 16x3x32b (esempio, float32).
Tradizionalmente i vertex data sono letti in sequenza dal vertex buffer, ma può essere specificato un index buffer. Questo fornisce ottimizzazioni prestazionali ulteriori, come la ricompilazione dei risultati per lo stesso index, che può essere evitata. Ogni pezzo è etichettato e lavora separatamente, e poi viene messo insieme in accordo all'indirizzo index assegnato.
L'IA può inoltre replicare gli oggetti; ci siamo riferiti a questo aspetto come instancing. Allo stesso tempo, ogni dato primitivo è "etichettato" con l'istanza corrente, primitiva e vertex ID. Ogni oggetto ora ha un index ID che può essere utilizzato negli stadi superiori. Questo significa che, ad esempio, un carro armato nel vostro battle game può divertarne 100, ognuno con la sua proprietà e ID. Qui, una chiamata draw può amministrare centinaia di oggetti, laddove una volta doveva essere effettuata una chiamata per ognuno.
Dai VS, i dati si spostano in una parte del processo, il Geometry Shader e Stream Output (SO). Il GS prende tutti i vertici (punti, linee e triangoli) e lì può aggiungerli ai vertex. Di fatto, i GS possono ingrandire il numero di input delle primitive attraverso la produzione di primitive aggiuntive: fino a un valore di 1024 - 32-bit di vertex data. Questa è la parte più potente del core, in quanto i GS possono inoltre aggiungere più attributi ai dati vertex - o distruggerli.
Il Geometry Shader è così potente perchè non è solo uno shader che può scrivere nella memoria, attraverso lo Stream Output. Questo copia inoltre un multi-element (fino a 16 elementi) o fino a quattro singoli elementi output streams verso gli output buffers. Questi dati possono essere letti durante il processo da ogni parte del processo, e quindi i dati potrebbero fermare l'arrivo di IA e Vertex Shader. Le scene possono essere prolungate attraverso la manipolazione degli output data.
http://www.tomshw.it/graphic.php?guide=200611081&page=directx_10_le_novita-06
Intanto qualcosa sui geometry shader, introdotti dalle dx10, e poi implementati sulle vga nvidia e ati
Vedendo la xt non vedo tutte queste innovazioni tecnologiche...
Io aspetto la xtx...
Stando alle notizie (vere o presunte) raccolte finora, R600 dovrebbe essere, nell'ordine:
- la prima scheda grafica con audio integrato;
- la prima scheda grafica con capacità di gestire direttamente la fisica degli oggetti;
- la prima scheda grafica con una Programmable Tessellation unit;
- la prima scheda grafica con 512bit di bus.
E queste dovrebbero essere solo le principali innovazioni. ;)
appleroof
24-04-2007, 17:04
Stando alle notizie (vere o presunte) raccolte finora, R600 dovrebbe essere, nell'ordine:
- la prima scheda grafica con audio integrato;
- la prima scheda grafica con capacità di gestire direttamente la fisica degli oggetti;
- la prima scheda grafica con una geometry shader unit;
- la prima scheda grafica con 512bit di bus.
E queste dovrebbero essere solo le principali innovazioni. ;)
queste però...mmm....:what:
@Vifani:
Secondo le ultime news, sembra che R600 avrà una Programmable Tessellation Unit come Xenos: quali sarebbero i vantaggi di una simile tecnologia?
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni. Questo incremento del numero di poligoni ha solitamente lo scopo di dare vita ad una serie di superfici curve descritte matematicamente. Il problema di questo processo è che, se deve essere gestito "a mano", via software, richiede che le informazioni relative ai poligoni debbano continuamente essere elaborate dalla CPU (ad esempio per scegliere il livello di dettaglio delle superfici a seconda della distanza dal punto di vista) e spedite alla GPU, il che naturalmente è un freno enorme per le prestazioni.
Inserire un motore di "tesselation" programmabile all'interno della GPU potrebbe consentire per l'appunto di eseguire questi processi senza che ci sia uno scambio di dati tra la GPU e la CPU. Il tutto verrebbe gestito dalla GPU a tutto vantaggio delle prestazioni e, conseguentemente, a tutto vantaggio della diffusione di queste tecniche che possono risultare essere molto utili per l'incremento del dettaglio poligonale. In generale le tecniche di rendering vengono utilizzate ampiamente non prima di essere supportate completamente in hardware, proprio perché le elaborazioni relative alla grafica 3D sono troppo complesse per essere utilizzate con successo attraverso la CPU nel calcolo in tempo reale.
Chiaramente bisogna capire quando questa unità sia effettivamente programmabile e facile da utilizzare. Questi saranno i fattori che ne determineranno il maggiore o minore successo.
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni. Questo incremento del numero di poligoni ha solitamente lo scopo di dare vita ad una serie di superfici curve descritte matematicamente. Il problema di questo processo è che, se deve essere gestito "a mano", via software, richiede che le informazioni relative ai poligoni debbano continuamente essere elaborate dalla CPU (ad esempio per scegliere il livello di dettaglio delle superfici a seconda della distanza dal punto di vista) e spedite alla GPU, il che naturalmente è un freno enorme per le prestazioni.
Inserire un motore di "tesselation" programmabile all'interno della GPU potrebbe consentire per l'appunto di eseguire questi processi senza che ci sia uno scambio di dati tra la GPU e la CPU. Il tutto verrebbe gestito dalla GPU a tutto vantaggio delle prestazioni e, conseguentemente, a tutto vantaggio della diffusione di queste tecniche che possono risultare essere molto utili per l'incremento del dettaglio poligonale. In generale le tecniche di rendering vengono utilizzate ampiamente non prima di essere supportate completamente in hardware, proprio perché le elaborazioni relative alla grafica 3D sono troppo complesse per essere utilizzate con successo attraverso la CPU nel calcolo in tempo reale.
Grazie! Chiaro come il sole :)
Stando alle notizie (vere o presunte) raccolte finora, R600 dovrebbe essere, nell'ordine:
- la prima scheda grafica con audio integrato;
- la prima scheda grafica con capacità di gestire direttamente la fisica degli oggetti;
- la prima scheda grafica con una geometry shader unit;
- la prima scheda grafica con 512bit di bus.
E queste dovrebbero essere solo le principali innovazioni. ;)
A parte che anche r520 aveva un bus a 512bit, mi chiedo come mai esista un geometry shader unit a parte. Non doveva essere a shader unificati? E g80 riesce ad usare questo geometry shader? In teoria si, visto che è una delle poche novità di dx10. Oppure no :fagiano: ? Allora g80 non sarebbe full dx10 compliant.
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni. Questo incremento del numero di poligoni ha solitamente lo scopo di dare vita ad una serie di superfici curve descritte matematicamente. Il problema di questo processo è che, se deve essere gestito "a mano", via software, richiede che le informazioni relative ai poligoni debbano continuamente essere elaborate dalla CPU (ad esempio per scegliere il livello di dettaglio delle superfici a seconda della distanza dal punto di vista) e spedite alla GPU, il che naturalmente è un freno enorme per le prestazioni.
Inserire un motore di "tesselation" programmabile all'interno della GPU potrebbe consentire per l'appunto di eseguire questi processi senza che ci sia uno scambio di dati tra la GPU e la CPU. Il tutto verrebbe gestito dalla GPU a tutto vantaggio delle prestazioni e, conseguentemente, a tutto vantaggio della diffusione di queste tecniche che possono risultare essere molto utili per l'incremento del dettaglio poligonale. In generale le tecniche di rendering vengono utilizzate ampiamente non prima di essere supportate completamente in hardware, proprio perché le elaborazioni relative alla grafica 3D sono troppo complesse per essere utilizzate con successo attraverso la CPU nel calcolo in tempo reale.
Chiaramente bisogna capire quando questa unità sia effettivamente programmabile e facile da utilizzare. Questi saranno i fattori che ne determineranno il maggiore o minore successo.
Voglio di nuovo Vifani per gli articoli !!!!!!!!!!!!!!!!
Soulbringer
24-04-2007, 17:10
A parte che anche r520 aveva un bus a 512bit, mi chiedo come mai esista un geometry shader unit a parte. Non doveva essere a shader unificati? E g80 riesce ad usare questo geometry shader? In teoria si, visto che è una delle poche novità di dx10. Oppure no :fagiano: ? Allora g80 non sarebbe full dx10 compliant.
r520 aveva un bus a 512bit solamente INTERNO questo è ESTERNO.;)
..CUT..
Tks. :)
Interessante: non capisco perchè inq parla di una migliore gestione dei geometry shaders grazie al tipo di architettura di ATi.
queste però...mmm....:what:
Ho modificato... :stordita: :fagiano: :doh: :)
Sono sicuro ke AMD rientrerà alla grande :yeah:
Arriverà l’ultima..,ma con grandi prestazioni :winner:
Se non sbaglio Barcellona ‘’K10’’ +o- è più veloce di 50% di Intel QuadCore e la serie R600/30/10 se la mangia G80/86/83!!
LanParty+K10+DDR3+R600 cosa voi di più dalla vita :sofico:
facile dire così dopo ke te ne esci 1 anno dopo quasi :D :D
appleroof
24-04-2007, 17:13
Tks. :)
Interessante: non capisco perchè inq parla di una migliore gestione dei geometry shaders grazie al tipo di architettura di ATi.
Forse perchè la tipologia di shader di cui è dotato R600 si presta meglio a quel tipo di calcolo, ma la cosa è cmq da vedere....
se Vifani volesse intervenire anche qui...:D
facile dire così dopo ke te ne esci 1 anno dopo quasi :D :D
6 mesi su ;) uscendo con tutta la famiglia e fasce di prezzo dal mainstream al middle-high-end
ricordo che la fascia media di nvidia è uscita da pochissima ed è li che si fanno i guadagni veri ;)
appleroof
24-04-2007, 17:14
facile dire così dopo ke te ne esci 1 anno dopo quasi :D :D
Lascia perdere :)
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni. Questo incremento del numero di poligoni ha solitamente lo scopo di dare vita ad una serie di superfici curve descritte matematicamente. Il problema di questo processo è che, se deve essere gestito "a mano", via software, richiede che le informazioni relative ai poligoni debbano continuamente essere elaborate dalla CPU (ad esempio per scegliere il livello di dettaglio delle superfici a seconda della distanza dal punto di vista) e spedite alla GPU, il che naturalmente è un freno enorme per le prestazioni.
Inserire un motore di "tesselation" programmabile all'interno della GPU potrebbe consentire per l'appunto di eseguire questi processi senza che ci sia uno scambio di dati tra la GPU e la CPU. Il tutto verrebbe gestito dalla GPU a tutto vantaggio delle prestazioni e, conseguentemente, a tutto vantaggio della diffusione di queste tecniche che possono risultare essere molto utili per l'incremento del dettaglio poligonale. In generale le tecniche di rendering vengono utilizzate ampiamente non prima di essere supportate completamente in hardware, proprio perché le elaborazioni relative alla grafica 3D sono troppo complesse per essere utilizzate con successo attraverso la CPU nel calcolo in tempo reale.
Chiaramente bisogna capire quando questa unità sia effettivamente programmabile e facile da utilizzare. Questi saranno i fattori che ne determineranno il maggiore o minore successo.
Grazie mille. :ave: Dalle scelte tecniche che stanno trapelando sembra che ATi abbia mirato ad un prodotto che liberi il più possibile la cpu nelle applicazioni multimediali (video, giochi, ecc...): più che una semplice scheda video, una vera scheda multimediale. L'esperienza di Xenos sembra che stia dando i suoi frutti. :Perfido:
E della possibile architettura Vect5D che ci sapresti dire, o sommo? :ave:
Secondo te è vero che, come dice TheInq, potrebbe migliorare moltissimo le prestazioni nella gestione del geometry shading?
Questo è il passaggio "incriminato":
Vect4+Scalar is not directly comparable to Nvidia, Vect5D is. So, we have a superscalar marchitecture with 320 scalar processsing units designed in-line with built-in Tessellation hardware, relatively similar to the Xenos chip from Xbox 360. But performance is far beyond we have imagined, and hearing that this is not limited to a certain version of DX10 only speaks of better days for PC gaming.
Geometry performance is vastly improved, as is expected from vect5D based marchitecture, and gamedevs can now use Geometry Shaders, unlike certain green products. Comparison between a single HD2900XT and 8800GTX SLI in geometry shaders will be quite interesting.
6 mesi su ;) uscendo con tutta la famiglia, dal mainstream al middle-high-end
kiamameli poki 6 mesi
kiamameli poki 6 mesi
mai detto questo, se per te un anno è uguale a 6 mesi io non ho colpe
poi come ho detto la fascia media, dove si fanno i guadagni più grossi, è stata presentata da poco nvidia uno dei motivi per il quale il ritardo non ha grosse ripercussioni sul fatturato
se per te un anno è uguale a 6 mesi io non ho colpe :Prrr:
poi come ho detto la fascia media, dove si fanno i guadagni più grossi, fin'ora c'è stato un buco da parte di tutti e due ;)
beh xè io comprendevo anke il disorso ke diceva del procio.
appleroof
24-04-2007, 17:18
Grazie mille. :ave: Dalle scelte tecniche che stanno trapelando sembra che ATi abbia mirato ad un prodotto che liberi il più possibile la cpu nelle applicazioni multimediali (video, giochi, ecc...): più che una semplice scheda video, una vera scheda multimediale. L'esperienza di Xenos sembra che stia dando i suoi frutti. :Perfido:
Tieni cmq presente che l'obiettivo di sollevare la cpu da calcoli gravosi molto più che adesso è un obiettivo delle dx10 in sè (nei giochi), anche se questa specifica ulteriore feature (la "tassellation") mi pare sia propria di Ati (se così fosse arifacce con i giochi che vanno meglio su una piuttosto che sull'altra, all afaccia della "standardizzazione" che volevano introdurre le dx10 :rolleyes: :rolleyes: )
Soulbringer
24-04-2007, 17:18
mai detto questo, se per te un anno è uguale a 6 mesi io non ho colpe
poi come ho detto la fascia media, dove si fanno i guadagni più grossi, è stata presentata da poco nvidia uno dei motivi per il quale il ritardo non ha grosse ripercussioni sul fatturato
Esatto..
mai detto questo, se per te un anno è uguale a 6 mesi io non ho colpe
poi come ho detto la fascia media, dove si fanno i guadagni più grossi, è stata presentata da poco nvidia uno dei motivi per il quale il ritardo non ha grosse ripercussioni sul fatturato
ma non mi interessa delle fascie medie e del fatturato, io prendo solo la fascia alta, sia di nvidia ke di ati. vedo cosa offre il mercato
Andrea deluxe
24-04-2007, 17:18
Sono sicuro ke AMD rientrerà alla grande :yeah:
Arriverà l’ultima..,ma con grandi prestazioni :winner:
Se non sbaglio Barcellona ‘’K10’’ +o- è più veloce di 50% di Intel QuadCore e la serie R600/30/10 se la mangia G80/86/83!!
LanParty+K10+DDR3+R600 cosa voi di più dalla vita :sofico:
Li Voglio
ma non mi interessa delle fascie medie e del fatturato, io prendo solo la fascia alta, sia di nvidia ke di ati. vedo cosa offre il mercato
si stava dando una lettura del ritardo della fascia high-end di ati.
insomma non c'era tutta sta gran fretta, ragionando da grossa azienda di capitali intendo.
http://www.theinquirer.net/default.aspx?article=39145
[I]AMD IS THE first semiconductor company to held a product briefing and now a launch in Africa, which was a bold move indeed.
....
Se è vero, una 2900XT avrà prestazioni nettamente maggiori a G80 con titoli che useranno geometry shader. In generale quindi con i titoli DirectX10.
;)
Anch'io mi aggiungo alla richiesta di A.L.M:
Quali sono le differenze tra una unità vec4+scalar e una unità vec5D?
Tieni cmq presente che l'obiettivo di sollevare la cpu da calcoli gravosi molto più che adesso è un obiettivo delle dx10 in sè (nei giochi), anche se questa specifica ulteriore feature (la "tassellation") mi pare sia propria di Ati (se così fosse arifacce con i giochi che vanno meglio su una piuttosto che sull'altra, all afaccia della "standardizzazione" che volevano introdurre le dx10 :rolleyes: :rolleyes: )
Beh, da quanto ha scritto Vifani pare che la tessellation sia comunque una feature discretamente diffusa nei giochi e che, in futuro, potrebbe essere sempre più diffusa: le applicazioni potrebbero essere infinite, per rendere le superfici più realistiche. Quindi a meno di situazioni particolari qualunque gioco programmato con questa tecnica dovrebbe andare meglio con una scheda che ha un'unità di questo tipo.
appleroof
24-04-2007, 17:30
Se è vero, una 2900XT avrà prestazioni nettamente maggiori a G80 con titoli che useranno geometry shader. In generale quindi con i titoli DirectX10.
;)
Anch'io mi aggiungo alla richiesta di A.L.M:
Quali sono le differenze tra una unità vec4+scalar e una unità vec5D?
Attenzione che le cose non sono così lineari, esattamente come era nel passato, certo sulla carta gli shader di R600 dovrebbero essere più potenti nei calcoli complessi, ma bisogna prima vedere come i giochi implementeranno le varie feature di cui parliamo (e qui, ripeto, alla faccia della "standardizzazione" :mad: ) poi che prima di vedere un gioco full dx10 (che quindi attinga a piene mani a tutte le belle cose che tutti aspettiamo con ansia) ci vorrà almeno un annetto , purtroppo :muro:
In ogni caso sia di G80 (e derivati, aggiungerei per i delusi) che di R600 (e derivati) a causa delle prove in dx9 non abbiamo visto nulla, ancora....
mai detto questo, se per te un anno è uguale a 6 mesi io non ho colpe
poi come ho detto la fascia media, dove si fanno i guadagni più grossi, è stata presentata da poco nvidia uno dei motivi per il quale il ritardo non ha grosse ripercussioni sul fatturato
Infatti, quello che tu dici è giustissimo... molto probabilmente nVidia non ha dato alcun distacco da AMD dal punto di vista dei guadagni... le schede video di punta 8800GTX e GTS rappresentano una piccolissima parte del guadagno! Bazzicando su questo forum sembra che ne siano state vendute tanto ma credo che la maggior parte delle persone italiane che hanno acquistato una 8800GTX le puoi incontrare su questo forum :D :D :D Guadagno che comunque per la maggior parte verrà dato dalle schede video medio basse, presentate da nVidia solo poco tempo fa... AMD ha fatto benissimo, non c'era alcuna fretta...
appleroof
24-04-2007, 17:37
Beh, da quanto ha scritto Vifani pare che la tessellation sia comunque una feature discretamente diffusa nei giochi e che, in futuro, potrebbe essere sempre più diffusa: le applicazioni potrebbero essere infinite, per rendere le superfici più realistiche. Quindi a meno di situazioni particolari qualunque gioco programmato con questa tecnica dovrebbe andare meglio con una scheda che ha un'unità di questo tipo.
Hai ragione, mi sfugge però allora il senso di un'unità dedicata a quel compito: G80 ha gli sp che sono "neutri", possono fungere da PS VS GS e "dedicarsi" a di calcolo gravoso come quelli della fisica indifferentemente e contemporaneamente (a gruppi), il tutto con la "supervisione" di un thread execution manager. IMHO molto probabilmente questo vale anche per gli shader di R600, dove la differenza da quello che ho capito stà nel fatto che il singolo shader di questo può occuparsi contemporaneamente di + operazioni (massimo 4 o 5) mentre quelli di G80 fanno un'operazione per volta (per questo sono di più,128 in G80, 64 in R600)
dunque ripeto, non mi torna l'unità dedicata....:confused:
dantes76
24-04-2007, 17:43
ATI Radeon HD 2900 XT Performance Benchmarks
http://www.dailytech.com/ATI%20Radeon%20HD%202900%20XT%20Performance%20Benchmarks/article7043.htm
http://img119.imageshack.us/img119/6586/20070424184251xq4.jpg (http://imageshack.us)
appleroof
24-04-2007, 17:45
ATI Radeon HD 2900 XT Performance Benchmarks
http://www.dailytech.com/ATI%20Radeon%20HD%202900%20XT%20Performance%20Benchmarks/article7043.htm
cut
:old: :D
dantes76
24-04-2007, 17:46
:old: :D
sorry:muro: non l'avevo visto nelle pagine precedenti :muro:
r520 aveva un bus a 512bit solamente INTERNO questo è ESTERNO.;)
hai ragione, mi sono confuso :fagiano:
mi resta sempre il dubbio su questa unità dedicata al geometry shading... tutto sto macello per fare un'architettura a shader unificati e poi ne creiamo una ad hoc :wtf: ?
appleroof
24-04-2007, 17:52
sorry:muro: non l'avevo visto nelle pagine precedenti :muro:
:D
appleroof
24-04-2007, 17:54
hai ragione, mi sono confuso :fagiano:
mi resta sempre il dubbio su questa unità dedicata al geometry shading... tutto sto macello per fare un'architettura a shader unificati e poi ne creiamo una ad hoc :wtf: ?
Ma secondo me non c'è alcuna unità dedicata al geometry, al limite pare ce ne sia una dedicata alla "tassellazione".....
Ma secondo me non c'è alcuna unità dedicata al geometry, al limite pare ce ne sia una dedicata alla "tassellazione".....
Infatti, proprio come in Xenos.
Una possibile spiegazione dell'utilità di una simile unità della gpu.
An additional functional element that Xenos provides to developers is a Geometry Tessellation Unit. The tessellation unit is a fixed function engine that accepts triangles, rectangles and quads as its primitive input, along with a tessellation level per edge such that the level of tessellation is completely variable across the surface of the original primitive.
Current graphics processor architectures can mark to "kill" a pixel in the pixel shader and this is the case with Xenos. However, as the architecture unifies the shaders the capabilities of both the shader program types (vertex and pixel) are available to each other, so the kill command will also operate for vertices. Although the vertex isn't retired in the ALU as it goes through the rest of the geometry pipeline to be set up vertices marked as killed will be ignored, effectively reducing the level of detail in the resultant geometry.
Fonte: Beyond3D
appleroof
24-04-2007, 18:08
Infatti, proprio come in Xenos.
Una possibile spiegazione dell'utilità di una simile unità della gpu.
Fonte: Beyond3D
Mi sembrano i compiti dei GS.....continuo a non capirne la reale utilità se fà il compito dei geometry shader....:confused:
Se "qualcuno" :D più esperto potesse intervenire sarebbe molto gradito perchè la cosa mi (e credo ci) interessa non poco...
ATI Radeon HD 2900 XT Performance Benchmarks
http://www.dailytech.com/ATI%20Radeon%20HD%202900%20XT%20Performance%20Benchmarks/article7043.htm
http://img119.imageshack.us/img119/6586/20070424184251xq4.jpg (http://imageshack.us)
Se fossero veri li troverei alquanto deludenti, mi aspettavo di più... attendo di vedere i risultati della XTX...
Intanto la futura Radeon 1950 PRO sarà RV670:
Sarà il chip ATI a shader unificati e bus a 256 bit.
ispira bene :ave:
Non so bene a cosa si riferisca l'articolo, quindi non so cosa dire (e non è detto che lo sappia anche una volta letto). A caso posso pensare che sia una modo per programmare di volta in volta la resa dei "tasselli" calcolati. Inserire dei tasselli (tessellation) all'interno di una superficie che definisce un oggetto 3D (quindi costituita da triangoli) significa arricchire l'oggetto di particolari grafici.
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni. Questo incremento del numero di poligoni ha solitamente lo scopo di dare vita ad una serie di superfici curve descritte matematicamente. Il problema di questo processo è che, se deve essere gestito "a mano", via software, richiede che le informazioni relative ai poligoni debbano continuamente essere elaborate dalla CPU (ad esempio per scegliere il livello di dettaglio delle superfici a seconda della distanza dal punto di vista) e spedite alla GPU, il che naturalmente è un freno enorme per le prestazioni.
Inserire un motore di "tesselation" programmabile all'interno della GPU potrebbe consentire per l'appunto di eseguire questi processi senza che ci sia uno scambio di dati tra la GPU e la CPU. Il tutto verrebbe gestito dalla GPU a tutto vantaggio delle prestazioni e, conseguentemente, a tutto vantaggio della diffusione di queste tecniche che possono risultare essere molto utili per l'incremento del dettaglio poligonale. In generale le tecniche di rendering vengono utilizzate ampiamente non prima di essere supportate completamente in hardware, proprio perché le elaborazioni relative alla grafica 3D sono troppo complesse per essere utilizzate con successo attraverso la CPU nel calcolo in tempo reale.
Chiaramente bisogna capire quando questa unità sia effettivamente programmabile e facile da utilizzare. Questi saranno i fattori che ne determineranno il maggiore o minore successo.
Beh, da quanto ha scritto Vifani pare che la tessellation sia comunque una feature discretamente diffusa nei giochi e che, in futuro, potrebbe essere sempre più diffusa: le applicazioni potrebbero essere infinite, per rendere le superfici più realistiche. Quindi a meno di situazioni particolari qualunque gioco programmato con questa tecnica dovrebbe andare meglio con una scheda che ha un'unità di questo tipo.
mi resta sempre il dubbio su questa unità dedicata al geometry shading... tutto sto macello per fare un'architettura a shader unificati e poi ne creiamo una ad hoc :wtf: ?
Ma secondo me non c'è alcuna unità dedicata al geometry, al limite pare ce ne sia una dedicata alla "tassellazione".....
Mi sembrano i compiti dei GS.....continuo a non capirne la reale utilità se fà il compito dei geometry shader....:confused:
Se "qualcuno" :D più esperto potesse intervenire sarebbe molto gradito perchè la cosa mi (e credo ci) interessa non poco...
...da quello che ho capito leggendo in giro dovrebbe essere così. L'unita PTU (da oggi la chiameremo così :D ) si dovrà occupare esclusivamente della tessellazione nel momento in cui è richiesta dall'applicazione. Ciò non inciderà sul lavoro delle shader unit unificate, ciascuna delle quali provvista di 5 ALU per le operazioni di pixel o vertex shading.
Oggi TheInq riporta con sicurezza che saranno Vec5 e non Vec4+1, ma sinceramente non ho mica ben capito la differenza...(e da come l'ha posta TheInq non so manco se c'è veramente questa differenza...:D )
...ciao!
ps. aspetto anch'io ulteriori spiegazioni da chi ne sa più di me...:)
Anch'io mi aggiungo alla richiesta di A.L.M:
Quali sono le differenze tra una unità vec4+scalar e una unità vec5D?
mi aggiungo pure io :O
appleroof
24-04-2007, 18:56
...da quello che ho capito leggendo in giro dovrebbe essere così. L'unita PTU (da oggi la chiameremo così :D ) si dovrà occupare esclusivamente della tessellazione nel momento in cui è richiesta dall'applicazione. Ciò non inciderà sul lavoro delle shader unit unificate, ciascuna delle quali provvista di 5 ALU per le operazioni di pixel o vertex shading.
Oggi TheInq riporta con sicurezza che saranno Vec5 e non Vec4+1, ma sinceramente non ho mica ben capito la differenza...(e da come l'ha posta TheInq non so manco se c'è veramente questa differenza...:D )
...ciao!
ps. aspetto anch'io ulteriori spiegazioni da chi ne sa più di me...:)
Anche secondo me è così.....la cosa che mi infastidisce di più se così fosse è come ho già detto l'impatto che una feature del genere potrebbe avere sulla programmazione dei giochi (su xenos chissene, ma su pc siamo punto e a capo) dove mi ero un pò illuso si arrivasse ad una standardizzazione quasi totale (margini di manovra solo per la fisica) :rolleyes:
Certo bisognerà vedere se ci abbiamo visto giusto è come/quanto quella caratteristica si diffonderà nei giochi ( e anche se presente come impatta su schede che non supportano la tesselletion, ad esempio se è come Ageia dove la sua mancanza --tipo GRAW-- si fà sentire relativamente non mi importa più di tsanto...)
...comunque queste prestazioni in ambito Workstation sono impressionanti. :eek: La Quadro FX 5500 ha gpu G80. Mai vista una ATi andare così forte in queste situazioni. Mi sa che R600 avrà delle sorprese che manco ci immaginiamo...
http://www.techpowerup.com/img/07-04-24/hd2900xt_2.PNG
:)
mi immagino una bella firegl con gpu r600 cosa potrebbe fare :asd:
appleroof
24-04-2007, 19:04
...comunque queste prestazioni in ambito Workstation sono impressionanti. :eek: La Quadro FX 5500 ha gpu G80. Mai vista una ATi andare così forte in queste situazioni. Mi sa che R600 avrà delle sorprese che manco ci immaginiamo...
http://www.techpowerup.com/img/07-04-24/hd2900xt_2.PNG
:)
hehe...ma non è che adesso quei risultati sono definitivi e prima erano da confermare ecc... anche perchè parliamo di una vga da gioco...:asd: :asd:
(a parte che come sappiamo sono mondi totalmente diversi quelli)
hehe...ma non è che adesso quei risultati sono definitivi e prima erano da confermare ecc... anche perchè parliamo di una vga da gioco...:asd: :asd:
(a parte che come sappiamo sono mondi totalmente diversi quelli)
io ho usato il condizionale.
Alexkidd85
24-04-2007, 19:10
hehe...ma non è che adesso quei risultati sono definitivi e prima erano da confermare ecc... anche perchè parliamo di una vga da gioco...:asd: :asd:
(a parte che come sappiamo sono mondi totalmente diversi quelli)
Mi quoti questo!? "r600 è un cesso di scheda"
Almeno sei contento :D
appleroof
24-04-2007, 19:12
Mi quoti questo!? "r600 è un cesso di scheda"
Almeno sei contento :D
:eh:
quotami questo allora: "R600 è la vga definitiva, esente da difetti, nulla dopo potrà uguagliarla"
Così saresti contento tu? :boh:
...comunque queste prestazioni in ambito Workstation sono impressionanti. :eek: La Quadro FX 5500 ha gpu G80. Mai vista una ATi andare così forte in queste situazioni. Mi sa che R600 avrà delle sorprese che manco ci immaginiamo...
http://www.techpowerup.com/img/07-04-24/hd2900xt_2.PNG
:)
vero...magari sarà una scheda non solo adatta al gioco ma anche perfettamente idonea nell'utilizzo professionale. 2 prodotti in uno diciamo
Ecco i risultati del tanto discusso test comparativo casalingo su Infernal tra la X1900XT e la HD2600XT (?): un grazie ad Alexkidd85. :)
La sua configurazione è nella sua firma, mentre la configurazione della presunta HD2600 l'avevo postata varie pagine fa: comunque comprende un Conroe E6600.
Le impostazioni dovrebbero essere: 1280x1024, no AA (o AA2x), tutti i dettagli al max.
Risultato: 88fps
http://img102.imageshack.us/img102/8153/88lu2.th.jpg (http://img102.imageshack.us/my.php?image=88lu2.jpg)
X1900XT@default, 1280x1024, noAA.
http://img102.imageshack.us/img102/3802/1280x1024noaaom1.th.jpg (http://img102.imageshack.us/my.php?image=1280x1024noaaom1.jpg)
X1900XT@720/800 (meglio che una X1900XTX), 1280x1024, noAA.
http://img399.imageshack.us/img399/1156/1280x1024noaa720800pw2.th.jpg (http://img399.imageshack.us/my.php?image=1280x1024noaa720800pw2.jpg)
X1900XT@default, 1280x1024, AA2x.
http://img352.imageshack.us/img352/9793/1280x1024aa2xxw8.th.jpg (http://img352.imageshack.us/my.php?image=1280x1024aa2xxw8.jpg)
X1900XT@720/800 (meglio che una X1900XTX), 1280x1024, AA2x.
http://img356.imageshack.us/img356/6703/1280x1024aa2x720800zn5.th.jpg (http://img356.imageshack.us/my.php?image=1280x1024aa2x720800zn5.jpg)
Con le dovute precauzioni e i dovuti distinguo, in Infernal la HD2600XT sembrerebbe andare un po' meno di una X1900XT (quindi un po' più di una X1950Pro?).
Azz oggi non sono riuscito ad essere online spesso iniziamo con lo scarrellamento dei vari siti. :)
Credo che mi terro' la mia EVGA 8800 GTS acquistata a Febbraio .. :ciapet:
N.B : sempre pronto ad un eventuale upgrade, ma se ne vale la pena.:mc:
Beh la "tessellation" è un processo grazie al quale una determinata superficie poligonale composta da pochi poligoni viene per così dire "arricchita" di poligoni.
Truform? Di nuovo?
Ecco i risultati del tanto discusso test comparativo casalingo su Infernal tra la X1900XT e la HD2600XT (?): un grazie ad Alexkidd85. :)
La sua configurazione è nella sua firma, mentre la configurazione della presunta HD2600 l'avevo postata varie pagine fa: comunque comprende un Conroe E6600.
Le impostazioni dovrebbero essere: 1280x1024, no AA (o AA2x), tutti i dettagli al max.
Risultato: 88fps
http://img102.imageshack.us/img102/8153/88lu2.th.jpg (http://img102.imageshack.us/my.php?image=88lu2.jpg)
X1900XT@720/800 (meglio che una X1900XTX), 1280x1024, AA2x.
http://img356.imageshack.us/img356/6703/1280x1024aa2x720800zn5.th.jpg (http://img356.imageshack.us/my.php?image=1280x1024aa2x720800zn5.jpg)
In prima immagine la porta tonda è intatta e si vedono perfettamente i riflessi della luce in più e sicuramente sta cosa fa calare i fps..
X me la hd2600xt (se è vero il banch) va come 1900xtx o come 1950xt… speriamo :ciapet:
TecnoWorld8
24-04-2007, 20:02
Credo che mi terro' la mia EVGA 8800 GTS acquistata a Febbraio .. :ciapet:
N.B : sempre pronto ad un eventuale upgrade, ma se ne vale la pena.:mc:
beh ma penso che nessuno che già abbia una scheda DX10 possa essere seriamente interessato ad upgradare verso R600. Questo è il prezzo da pagare arrivando sul mercato così in ritardo rispetto ai concorrenti...
edito, la ricerca nn funge mai quando la uso chechez
Bastava leggere il thread e scoprire che sono già stati postati. Tra l'altro in modo da non sformattare tutto il forum...
TecnoWorld8
24-04-2007, 20:38
infatti erano già stati postati da tempo
Mister Tarpone
24-04-2007, 20:46
Ecco i risultati del tanto discusso test comparativo casalingo su Infernal tra la X1900XT e la HD2600XT (?): un grazie ad Alexkidd85. :)
La sua configurazione è nella sua firma, mentre la configurazione della presunta HD2600 l'avevo postata varie pagine fa: comunque comprende un Conroe E6600.
negli screen fatti con la radeon x1900XT manca completamente il filtro anisotropo. in quello della hd2600XT invece è presente... ;)
:fagiano:
Mi quoti questo!? "r600 è un cesso di scheda"
Almeno sei contento :D
ahahahahahahah :D
Foglia Morta
24-04-2007, 21:46
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
2.0 GHz memory frequencies? No problem.
Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.
Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
direi che ocka bene questa XT
Alexkidd85
24-04-2007, 21:48
In prima immagine la porta tonda è intatta e si vedono perfettamente i riflessi della luce in più e sicuramente sta cosa fa calare i fps..
X me la hd2600xt (se è vero il banch) va come 1900xtx o come 1950xt… speriamo :ciapet:
Ti assicuro che ci ho fatto caso anche io alla luce quando "shootavo" l'immagine e non gliene frega niente alla mia vga di quella luce :D Comunque grazie della precisazione
negli screen fatti con la radeon x1900XT manca completamente il filtro anisotropo. in quello della hd2600XT invece è presente... ;)
:fagiano:
C'è scritto che in uno c'è a 2x e in un altro non c'è.
E mi sa proprio che è questo il test comparativo quindi l'amico A.L.M. ci ha indovinato (IMHO) perché tanto farà la 2600xt(o almeno spero).
Anche perché quando per errore avevo forzato tutto da cc facevo in OC sui 66 e senza OC sui 44....fai te...sarebbe stata una bomba quella vga ed infatti la mia espressione era ovviamente :eek:
:D
Alexkidd85
24-04-2007, 21:50
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
2.0 GHz memory frequencies? No problem.
Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.
Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
direi che ocka bene questa XT
Ohu non scherziamo...non bene...molto bene! :D Ci metto una firma se quegli OC sono fatti con dissi stock... :D
Ohu non scherziamo...non bene...molto bene! :D Ci metto una firma se quegli OC sono fatti con dissi stock... :D
:eek: valori impressionanti... se fosse tutto vero naturalmente ;)
fai una prova così facciamo un confronto, cmq solitamente le Nvida al 3dmark 2006 fanno registrare un punteggio più alto rispetto alle Ati, che poi ovviamente non si riflette sui game in quanto poi quest'ultime vanno meglio
Ecco i risultati miei (ot per un secondo)
X1800XL 256MB + 3500+ e 1GB Corsair 2-3-2-5 400
Score 3491
SM2.0 1537
HDR/SM3 1615
CPU 849
Mi sento gia' obsoleto.. :stordita:
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
2.0 GHz memory frequencies? No problem.
Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.
Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
direi che ocka bene questa XT
2900XT 14005 con driver beta
8800GTX 14128 con driver maturi e ottimizzati per i bench.
Risultati più che eccellenti, sono contento. :D
Foglia Morta
24-04-2007, 22:07
2900XT 14005 con driver beta
8800GTX 14128 con driver maturi e ottimizzati per i bench.
Risultati più che eccellenti, sono contento. :D
aspe raga... è una mia deduzione che si tratti della XT perchè il core clock è 745 Mhz e la memora 1600Mhz e fino ad oggi i rumours riportavano queste freq. per la XT . dailytech nello stesso articolo parla di mem. a 1600mhz per la XT
Però riguardando il test che hanno fatto questa mattina il 3d'06 a 1280 gli dava 11447 a default . Dicono anche di avere una XTX e che la testeranno. Non so se quei risultati siano della XT o XTX , il fatto che siano partiti con memoria a 800Mhz mi fa pensare alla XT.
Attendiamo sviluppi :O
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
[
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266[/I]
direi che ocka bene questa XT
Aggiunge infatti: Per riferimento, il mio GeForce 8800 GTX (clock a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
Foglia Morta
24-04-2007, 22:13
Aggiunge in fine : Per riferimento, il mio GeForce 8800 GTX (orologio di nucleo a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
non è una novità che il 3dmark '06 è stato scritto per le nvidia... e comunque resta pur sempre un 3d mark... un test che si fa più per sport che per altro
Aggiunge infatti: Per riferimento, il mio GeForce 8800 GTX (orologio di nucleo a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
Gli stream processor di G80 sono cloccati a 1,35 Ghz a default. In una scheda overcloccata in quella misura potrebbero essere a 1,7 Ghz. Inoltre l'ultimo update dei driver ha regalato a G80 più o meno 2000 punti in più al 3DMark06.
:)
non è una novità che il 3dmark '06 è stato scritto per le nvidia... e comunque resta pur sempre un 3d mark... un test che si fa più per sport che per altro
E piu' che altro non sono i 100 punti in piu' o in meno ad essere oggetto di interesse, almeno da parte mia. Sono altri i valori da considerare interessanti e purtroppo non se ne vedono ancora.
Aggiunge infatti: Per riferimento, il mio GeForce 8800 GTX (orologio di nucleo a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
...lasciando perdere per un attimo le 8800GTX e le 8800GTS, nei 3dmark è vero che nVidia supera ATI... ma nei giochi (ed è quello che conta) nella magior parte delle volte ATI ha sempre superato nVidia... ;)
devo dire che (se quei dati vengono confermati) la scheda rulla di brutto in ambito workstation :eek:
bisogna aspettare l'atto pratico però ;)
Kharonte85
24-04-2007, 22:35
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
2.0 GHz memory frequencies? No problem.
Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.
Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
direi che ocka bene questa XT
Direi che quelli di dailytech non scherzavano...sembrano avere davvero la scheda...:yeah:
Avevo ragione allora :D va come 8800gtx (nei giochi credo di piu) e costerà come 8800gts :ciapet:
e la 2900XTX :D Mi sa nemmeno Ultra potrà starle dietro :sofico:
Kharonte85
24-04-2007, 22:44
Avevo ragione allora :D va come 8800gtx (nei giochi credo di piu) e costerà come 8800gts :ciapet:
e la 2900XTX :D Mi sa nemmeno Ultra potrà starle dietro :sofico:
Si ma se esce con 240w se la possono pure tenere...:rolleyes:
Poi questa faccenda non è chiara...ma esce o no questa scheda (la xtx)...:boh:
negli screen fatti con la radeon x1900XT manca completamente il filtro anisotropo. in quello della hd2600XT invece è presente... ;)
:fagiano:
Forse hai ragione, ma mi pare di ricordare che non ci sia un settaggio in Infernal apposito per l'AF... al massimo ha forzato i drivers con ATT/CCC.
Quindi forse ha fatto i test con no AA e AF8x/16x. Comunque a certi livelli la perdita di fps col filtro anisotropico attivato è minima, al max qualche fps. In quel caso significherebbe che la HD2600XT va proprio come una X1900XT. ;)
C'è scritto che in uno c'è a 2x e in un altro non c'è.
E mi sa proprio che è questo il test comparativo quindi l'amico A.L.M. ci ha indovinato (IMHO) perché tanto farà la 2600xt(o almeno spero).
Anche perché quando per errore avevo forzato tutto da cc facevo in OC sui 66 e senza OC sui 44....fai te...sarebbe stata una bomba quella vga ed infatti la mia espressione era ovviamente :eek:
:D
Mister Tarpone parlava del filtro anisotropico, non dell'anti-aliasing. ;)
Comunque i tuoi test rimangono validi. :)
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
2.0 GHz memory frequencies? No problem.
Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.
Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
Core Clock Memory Cloc 3DMark06 1280x1024 3DMark06 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
direi che ocka bene questa XT
aspe raga... è una mia deduzione che si tratti della XT perchè il core clock è 745 Mhz e la memora 1600Mhz e fino ad oggi i rumours riportavano queste freq. per la XT . dailytech nello stesso articolo parla di mem. a 1600mhz per la XT
Però riguardando il test che hanno fatto questa mattina il 3d'06 a 1280 gli dava 11447 a default . Dicono anche di avere una XTX e che la testeranno. Non so se quei risultati siano della XT o XTX , il fatto che siano partiti con memoria a 800Mhz mi fa pensare alla XT.
Attendiamo sviluppi :O
Mah, secondo me questi qui dicono balle e basta...
Ma come, stamattina la scheda faceva nemmeno 11500 punti e poi stasera (con gli stessi drivers) ne fa oltre 2000 in più? :mbe:
Ma a che frequenze allora avevano fatto il test?
Certo che se fossero veri i 13500 (con una ATi, con drivers davvero embrionali) sarebbero davvero tanti, e presagirebbero prestazioni stupefacenti.
Aggiunge infatti: Per riferimento, il mio GeForce 8800 GTX (clock a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
Come ti ha risposto Foglia Morta il 3DMark è parecchio pro-nVidia, ma aggiungo anche che le 8800GTX coi primi drivers facevano sì e no 12500 (col quad core). ;)
Direi che quelli di dailytech non scherzavano...sembrano avere davvero la scheda...:yeah:
Sì, ma a questo punto nei test di stamattina l'avevano underclockata di brutto: 2100 punti in meno al 3DMark con gli stessi drivers (e non penso con una cpu meno potente, visto che parlavano di un QX6700)? :mbe:
Kharonte85
24-04-2007, 22:53
Mah, secondo me questi qui dicono balle e basta...
Ma come, stamattina la scheda faceva nemmeno 11500 punti e poi stasera (con gli stessi drivers) ne fa oltre 2000 in più? :mbe:
E' strano, pero' il test di stamane era fatto con un Intel Core 2 Extreme QX6700 questi invece sono fatti con un Intel Core 2 Extreme QX6800...
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Troppo poca la differenza, c'è qlcsa che non quadra...:what:
Forse si è dimenticato di dire che lo tiene in overclock pesante...:boh:
Sì, ma a questo punto nei test di stamattina l'avevano underclockata di brutto: 2100 punti in meno al 3DMark con gli stessi drivers (e non penso con una cpu meno potente, visto che parlavano di un QX6700)? :mbe:
...il processore era diverso: QX6700 vs QX6800
:)
edit: vi siete già risposti...! lol
TecnoWorld8
24-04-2007, 22:54
infatti stavo per dire che qui la CPU è più potente.
Piuttosto la cosa strana è un'altra...come mai a fronte di un overclock di oltre 13% del core e quasi 25% della memoria, il 3D Mark aumenta soltanto del 2% a 1600x1200 e 3% a 1280x1024? nessuno l'ha notato? possibile sia così tanto CPU limited nonostante quel popò di processore che hanno sotto???
hehe...ma non è che adesso quei risultati sono definitivi e prima erano da confermare ecc... anche perchè parliamo di una vga da gioco...:asd: :asd:
(a parte che come sappiamo sono mondi totalmente diversi quelli)
...io questi messaggi proprio non li capisco. Vanno bene solo quelli che dicono che XT va poco più di GTS e bla bla bla...?! :mbe: Trovami una solo parola in quello che ho scritto in quel post in cui dico "siamo davanti alla verità, la XT è una belva".
Se quei risultati sono veri, R600 è estremamente performante in ambito workstation. Mai vista una vga ATi andare così bene in quell'ambito. E questa è una grossa sorpresa che merita attenzione.
Così va bene?! :asd:
http://www.hwupgrade.it/articoli/cpu/1699/3dmark_2006_2.png
Troppo poca la differenza, c'è qlcsa che non quadra...:what:
...qui la differenza è del 10%, potrebbero anche essere giusti i valori dell'altro test. Potrebbero.
:)
...il processore era diverso: QX6700 vs QX6800
:)
edit: vi siete già risposti...! lol
E no...
Come puoi vedere dal grafico che ha postato Kharonte85, l'incremento di punteggio cpu al 3DMark06 che si ha passando da un QX6700 ad un QX6800 è di circa 350 punti.
Ora (aiutandomi con un utile programmino, il 3DMark06 Calculator, http://mekk.homeip.net/3DMark2006Calc1.1.zip, che serve per calcolare i punteggi finali al bench impostando i punteggi parziali), per avere un risultato finale di 13500 circa, la HD2900XT fa segnare circa 5700 punti al test SM2 e circa 5900 al SM3 (presupponendo 3900 di punteggio cpu, cioè il QX6800: la ram e gli altri componenti contano davvero poco). Se io imposto sul 3DMark06 Calculator 3550, che è il punteggio cpu di un QX6700, ottengo 13241, non 11500. E' vero che la cpu conta tanto nel 2006, ma non così tanto: QX6700 e QX6800 sono cpu analoghe.
Questo vuol dire che o stamattina l'altro giornalista era in vena di caxxate (e mi pare possibile, visti pure i test della GTS), o c'è qualcosa che non quadra... ;)
TecnoWorld8
24-04-2007, 23:05
oppure il QX6800 era pesantemente overclockato.
nessuno però ha ancora spiegato il modesto incremento di punteggio finale nonostante l'ampio overclock effettuato sulla GPU.
Ora (aiutandomi con un utile programmino, il 3DMark06 Calculator, http://mekk.homeip.net/3DMark2006Calc1.1.zip, che serve per calcolare i punteggi finali al bench impostando i punteggi parziali), per avere un risultato finale di 13500 circa, la HD2900XT fa segnare circa 5700 punti al test SM2 e circa 5900 al SM3 (presupponendo 3900 di punteggio cpu, cioè il QX6800: la ram e gli altri componenti contano davvero poco). Se io imposto sul 3DMark06 Calculator 3550, che è il punteggio cpu di un QX6700, ottengo 13241, non 11500. E' vero che la cpu conta tanto nel 2006, ma non così tanto: QX6700 e QX6800 sono cpu analoghe.
Questo vuol dire che o stamattina l'altro giornalista era in vena di caxxate (e mi pare possibile, visti pure i test della GTS), o c'è qualcosa che non quadra... ;)
...mi inchino al potere del programmino, non lo conoscevo. A questo punto non saprei dare un giudizio sul punteggio di stamattina.
:)
oppure il QX6800 era pesantemente overclockato.
nessuno però ha ancora spiegato il modesto incremento di punteggio finale nonostante l'ampio overclock effettuato sulla GPU.
Impossibile.
Mantenendo fissi i valori dei punteggi SM2/SM3 (dei punteggi fittizi plausibili per ottenere 11450 circa, io ho impostato SM2=4750, SM3=4900, cpu=3450, che è il punteggio che si ha nella tabella postata da Kharonte85), e modificando solo la cpu, sai che valore dovrei avere di cpu per ottenere 2100 punti in più? Te lo dico io: 15000.
Ora, sicuro al 100%, non esiste alcun processore occato in grado di fare 15000 punti al test cpu del 3DMark06.
Per i bassi incrementi, le ATi migliorano pure poco ockandole al 2006, rispetto alle nVidia: inoltre potrebbe pure essere un problema di drivers, nonchè potrebbe essere possibile che tutti (sia quelli di stamattina che i più recenti) i "test" di DailyTech siano fasulli.
...mi inchino al potere del programmino, non lo conoscevo. A questo punto non saprei dare un giudizio sul punteggio di stamattina.
:)
Eh eh, è utile soprattutto per sgamare chi bara... :sofico:
Kharonte85
24-04-2007, 23:22
Quoto A.L.M. c'è qualcosa che non quadra...
Eh eh, è utile soprattutto per sgamare chi bara... :sofico:
Ma tu guarda se uno deve pure barare al 3dMark allucinante il livello di certa gente...:doh:
aspe raga... è una mia deduzione che si tratti della XT perchè il core clock è 745 Mhz e la memora 1600Mhz e fino ad oggi i rumours riportavano queste freq. per la XT . dailytech nello stesso articolo parla di mem. a 1600mhz per la XT
Però riguardando il test che hanno fatto questa mattina il 3d'06 a 1280 gli dava 11447 a default . Dicono anche di avere una XTX e che la testeranno. Non so se quei risultati siano della XT o XTX , il fatto che siano partiti con memoria a 800Mhz mi fa pensare alla XT.
Attendiamo sviluppi :O
Nell'articolo comunque c'è scritto che la scheda usata è una HD2900XT 512MB.
The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver. The card used was a Radeon HD 2900 XT 512MB.
Ma tu guarda se uno deve pure barare al 3dMark allucinante il livello di certa gente...:doh:
Lo so, ma che ce devi fa', certa gente si diverte così... :stordita:
Fico però il programmozzo, no? :Perfido:
...aspettate un attimo: Anh, se non sbaglio, è l'abbreviazione di Anandtech.
L'articolo di DailyTech riporta: Anh beat me to R600 benchmarks by a few mere hours (Anh ha battuto i benchmark di R600 in poche veloci ore). Spero d'aver capito bene.
:)
Se sono veri sti test allora per €399 (cercando la troviamo a €350) porti a casa una bomba di vga :eek:
Cmq sono concentrato su una 2600XT :Perfido: o sperando su una 2900gt/gto :sperem:
Kharonte85
24-04-2007, 23:41
Fico però il programmozzo, no? :Perfido:
Si'
...aspettate un attimo: Anh, se non sbaglio, è l'abbreviazione di Anandtech.
L'articolo di DailyTech riporta: Anh beat me to R600 benchmarks by a few mere hours (Anh ha battuto i benchmark di R600 in poche veloci ore). Spero d'aver capito bene.
:)
Quindi? :mc:
io lo tradurrei con Anh mi ha battuto di solo poche ore nel benchare la R-600 :D
Se non sbaglio Foglia morta è quello piu' pignolo nelle traduzioni...dicci un po' tu :)
...zio Google m'ha aiutato a risolvere il mistero.
Guadate qui: Radeon 2900 XTX HD arriving Anandtech for testing (http://r800.blogspot.com/2007/04/radeon-2900xtx-hd-arriving-anandtech.html)
E qui: HD 2900XT 3DMark06 14005 scores! (http://r800.blogspot.com/2007/04/hd-2900xt-3dmark06-14005-scores.html) in cui c'è scritto "Anandtech test guys have tested the oc capability of AMDATI's Radeon HD 2900XT. The result is very promising"; ed i risultati sono quelli che abbiamo visto prima.
:)
...aspettate un attimo: Anh, se non sbaglio, è l'abbreviazione di Anandtech.
L'articolo di DailyTech riporta: Anh beat me to R600 benchmarks by a few mere hours (Anh ha battuto i benchmark di R600 in poche veloci ore). Spero d'aver capito bene.
:)
No, credo si riferisca molto più semplicemente al fatto che Anh Huynh (un altro "giornalista" di DailyTech, l'autore dei "test" precedenti) sia riuscito a testare la sua HD2900XT prima di lui (il giornalista che parla in questo caso è Sven Olsen).
Guarda sotto i titoli e troverai i loro nomi...
http://www.dailytech.com/article.aspx?newsid=7043
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
Tra l'altro DailyTech appartiene ad Anandtech, se non sbaglio. ;)
Tornando invece al discorso precedente della famosa "tessellation", ho trovato un documento molto interessante sul sito di Microsoft, una presentazione avvenuta durante la Game Developers Conference 2007. Su quelle slides si parla di un fixed function tessellator e della tessellation in genere come di componenti chiave delle DX10.1... :eek: (assieme alla fisica gestita direttamente dalla scheda grafica).
Fosse vero, la storia di un R600 DX10.1 compliant potrebbe addirittura essere vera... :sofico:
Comunque, leggete e fatevi una cultura... :D :p
The Future of DirectX (http://download.microsoft.com/download/e/5/5/e5594812-cdaa-4e25-9cc0-c02096093ceb/the%20future%20of%20directx.zip)
No, credo si rifersica molto più semplicemente al fatto che Anh Huynh (un altro "giornalista" di DailyTech, l'autore dei "test" precedenti) sia riuscito a testare la sua HD2900XT prima di lui (il giornalista che parla in questo caso è Sven Olsen).
Guarda sotto i titoli e troverai i loro nomi...
http://www.dailytech.com/article.aspx?newsid=7043
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
Tra l'altro DailyTech appartiene ad Anandtech, se non sbaglio. ;)
Tornando invece al discorso precedente della famosa "tessellation", ho trovato un documento molto interessante sul sito di Microsoft, una presentazione avvenuta durante la Game Developers Conference 2007. Su quelle slides si parla di un fixed function tessellator e della tessellation in genere come di componenti chiave delle DX10.1... :eek: (assieme alla fisica gestita direttamente dalla scheda grafica).
Fosse vero, la storia di un R600 DX10.1 compliant potrebbe addirittura essere vera... :sofico:
Comunque, leggete e fatevi una cultura... :D :p
The Future of DirectX (http://download.microsoft.com/download/e/5/5/e5594812-cdaa-4e25-9cc0-c02096093ceb/the%20future%20of%20directx.zip)
Ho sentito anche io sta storia di DX10.1 e R600.. :eek:
Tra l'altro DailyTech appartiene ad Anandtech, se non sbaglio. ;)
...esatto, DailyTech è un pò la parte "rumors" del gruppo, Anandtech è sempre stato un sito molto tecnico e, secondo me, imparziale. E se hanno già una XTX... :ave:
Il documento MS l'ho letto qualche tempo fa, non me lo ricordavo, hai fatto bene a ripostarlo.
;)
Kharonte85
24-04-2007, 23:55
No, credo si rifersica molto più semplicemente al fatto che Anh Huynh (un altro "giornalista" di DailyTech, l'autore dei "test" precedenti) sia riuscito a testare la sua HD2900XT prima di lui (il giornalista che parla in questo caso è Sven Olsen).
Guarda sotto i titoli e troverai i loro nomi...
http://www.dailytech.com/article.aspx?newsid=7043
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
Tra l'altro DailyTech appartiene ad Anandtech, se non sbaglio. ;)
Questo è piu' veritiero e cosi' anche la mia traduzione acquista un po' piu' di senso...;)
Tornando invece al discorso precedente della famosa "tessellation", ho trovato un documento molto interessante sul sito di Microsoft, una presentazione avvenuta durante la Game Developers Conference 2007. Su quelle slides si parla di un fixed function tessellator e della tessellation in genere come di componenti chiave delle DX10.1... :eek: (assieme alla fisica gestita direttamente dalla scheda grafica).
Fosse vero, la storia di un R600 DX10.1 compliant potrebbe addirittura essere vera... :sofico:
Comunque, leggete e fatevi una cultura... :D :p
The Future of DirectX (http://download.microsoft.com/download/e/5/5/e5594812-cdaa-4e25-9cc0-c02096093ceb/the%20future%20of%20directx.zip)
:boh: non ci conterei troppo...
Mister Tarpone
24-04-2007, 23:59
Ho sentito anche io sta storia di DX10.1 e R600.. :eek:
:eek: !!
mi domando se questo miglioramento dell'architettura ati vale anche per le x2600
cmq se fosse vero: :eek: :eek: :eek: !!
...esatto, DailyTech è un pò la parte "rumors" del gruppo, Anandtech è sempre stato un sito molto tecnico e, secondo me, imparziale. E se hanno già una XTX... :ave:
Il documento MS l'ho letto qualche tempo fa, non me lo ricordavo, hai fatto bene a ripostarlo.
;)
e se amd presentasse tutta la gamma il 14? :eek:
:eek: !!
mi domando se questo miglioramento dell'architettura ati vale anche per le x2600
cmq se fosse vero: :eek: :eek: :eek: !!
è sempre serie R6xx..., direi di si :sofico:
cmq seza overvolt tira 800/2200 :D
Mister Tarpone
25-04-2007, 00:03
è sempre serie R6xx..., direi di si :sofico:
cmq seza overvolt tira 800/2200 :D
;)
piglia di lusso!! ;)
;)
e se amd presentasse tutta la gamma il 14? :eek:
...secondo me presenteranno più cose: HD 2900 series, HD 2600 series, HD 2400 series ed anche i nuovi chipset come RD790. Non so...ho questo presentimento...
;)
Mister Tarpone
25-04-2007, 00:05
:boh: non ci conterei troppo...
perchè?? :stordita:
;)
piglia di lusso!! ;)
;)
In ke senso :stordita:
Mister Tarpone
25-04-2007, 00:07
In ke senso :stordita:
;)
che sta scheda promette bene
;)
che sta scheda promette bene
Asp asp.. mi sa ke è di default 800/2200 :D :D :D
''AMD ATI will show Radeon HD 2000 series graphic cards at Tunis today. But now it's said that the mainstream DX10 warrior from AMD ATI would run at 800MHz core speed and 2200MHz video ram speed. But 128-bit GDDR4 may hurt its performance under 16x 12 resolutions with AA and AF on.''
Da immaginare in oc.. mi vegono i brividi.. :eek:
http://r800.blogspot.com/2007/04/radeon-hd-2600xt-runs-at-8002200mhz.html
TecnoWorld8
25-04-2007, 00:11
queste prestazioni a 399$ sarebbero davvero il modo per farci dimenticare il ritardo rispetto a G80
cmq senza overvolt tira 800/2200 :D
...e soprattutto lo fa in piena stabilità e col dissy stock. Se la recensione dice il vero, questo OC "senza problemi" è indice di un consumo e calore prodotto nella norma. Fate caso alle immagini: le heatpipes in rame del dissy XT retail sono la metà della versione OEM.
:)
TecnoWorld8
25-04-2007, 00:14
come 128bit gddr4???
Asp asp.. mi sa ke è di default 800/2200 :D :D :D
''AMD ATI will show Radeon HD 2000 series graphic cards at Tunis today. But now it's said that the mainstream DX10 warrior from AMD ATI would run at 800MHz core speed and 2200MHz video ram speed. But 128-bit GDDR4 may hurt its performance under 16x 12 resolutions with AA and AF on.''
come 128bit gddr4???
...quella è la 2600 XT, noi stavamo parlando dell'oc della 2900 XT.
:)
Certo che sto NDA mi sa che è 'na mezza barzelletta: su www.pcgameshardware.de stanno pubblicando tutte le foto delle slides di Tunisi, anche se per ora niente di compromettente... tranne una, opportunamente taroccata, su cui ci dovrebbe essere la data di lancio. :read:
http://img78.imageshack.us/img78/6417/dsc03780de9.th.jpg (http://img78.imageshack.us/my.php?image=dsc03780de9.jpg)
...e soprattutto lo fa in piena stabilità e col dissy stock. Se la recensione dice il vero, questo OC "senza problemi" è indice di un consumo e calore prodotto nella norma. Fate caso alle immagini: le heatpipes in rame del dissy XT retail sono la metà della versione OEM.
:)
Secondo te con Atitool si potrà modificare i voltaggi della 2600xt?? Non mi va di nuovo saldare della roba sopra :D
...è impossibile rispondere a questa domanda adesso. Non ti saprebbe dire nulla neppure Wizzard (l'autore di ATITool)
:)
...buona notte a tutti, ora a Tunisi si dorme, vado anch'io. :ronf:
Free Gordon
25-04-2007, 00:45
Aggiunge infatti: Per riferimento, il mio GeForce 8800 GTX (clock a 650 megahertz, memoria a 2.0 gigahertz) nota 14128 sullo stesso sistema con ForceWare 158.19.
Con 200 mhz in piu di frequenza ed interfaccia a 512 bit ... :confused:
Considera anche che gli shader del G80, oltretutto a 650mhz, girano a frequenze molto più alte. ;)
Il 3Dmark05/06 cmq, è l'ultimo dei test significativi per queste schede.... :D
Sempre considerando il fatto, che questi test potrebbero essere delle bufale gigantesche..
Free Gordon
25-04-2007, 00:49
...il processore era diverso: QX6700 vs QX6800
Non basta a giustificare il divario con gli altri test.
Continuo a pensare che siano fake-test.
Alexkidd85
25-04-2007, 02:15
Certo che sto NDA mi sa che è 'na mezza barzelletta: su www.pcgameshardware.de stanno pubblicando tutte le foto delle slides di Tunisi, anche se per ora niente di compromettente... tranne una, opportunamente taroccata, su cui ci dovrebbe essere la data di lancio. :read:
http://img78.imageshack.us/img78/6417/dsc03780de9.th.jpg (http://img78.imageshack.us/my.php?image=dsc03780de9.jpg)
Che occhio e croce il gioco delle "indovina le parole" io do 10 a 1 che sono "r600" e "soon",anche se sulla seconda sono più sicuro ma ripeto,il mio inglese è solo scolastico e spastico ed ecclesiastico che non ci stà ma in quanto finisce per "stico" glielo metto,comunque sia per niente fantastico.... :doh: :asd: è l'orario...comunque mi auto auspico un :banned: per queste battute :D
TecnoWorld8
25-04-2007, 02:25
la parte sopra credo sia "HD2000 family" o "HD2xxx"
la seconda credo sia "May 14th" o "May 2007"
Foglia Morta
25-04-2007, 08:08
nei test di dailytech pochi giorni prima la presentazione ufficiale della GTX a default ( e i driver erano quelli che erano come ovvio ) questa faceva segnare 11200 punti con un QX6700. http://www.dailytech.com/article.aspx?newsid=4812
Quindi c'è da rimanere perplessi per i bench riguardanti i giochi... imho dei driver fatti meglio contribuiranno parecchio :D
http://www.pcgameshardware.de/screenshots/medium/Pr%EF%BF%BDso_7_copy.jpg
Refreshing your hw don't have to cost 699$
Sono confermati prezzi di lancio più bassi della norma. Vediamo di quanto però :D
appleroof
25-04-2007, 08:59
Tornando invece al discorso precedente della famosa "tessellation", ho trovato un documento molto interessante sul sito di Microsoft, una presentazione avvenuta durante la Game Developers Conference 2007. Su quelle slides si parla di un fixed function tessellator e della tessellation in genere come di componenti chiave delle DX10.1... :eek: (assieme alla fisica gestita direttamente dalla scheda grafica).
Fosse vero, la storia di un R600 DX10.1 compliant potrebbe addirittura essere vera... :sofico:
Comunque, leggete e fatevi una cultura... :D :p
The Future of DirectX (http://download.microsoft.com/download/e/5/5/e5594812-cdaa-4e25-9cc0-c02096093ceb/the%20future%20of%20directx.zip)
per quanto riguarda la fisica gestita direttamente dalla vga non è una novità, nvidia ha già il quantum phisics lancato con G80, anche se è tutto da "sperimentare" ancora....
...molto interessante invece (per la "preoccupazione" che avevo legata all'implementazione di features presenti su ati e non su nvidia e viceversa) la storia della tesselletion/dx10.1 invece, perchè immagino che prima di vedere un gioco full dx10.1 ce ne vuole di strada...
pierluigi86
25-04-2007, 09:04
After tons of 'leaked' news pieces about Nvidia and its ignored NDAs we have stumbled upon a test with the upcoming performance crown-craving AMD Radeon HD 2900XT. The results have surfaced over @ the pcinlife.com forums and show the R600-powered heavy-weight running Futuremark's 3DMark06 and receiving a score of 9685. The score might seem disappointing but please note that the test has been conducted on a computer boasting a Core 2 Duo E6600 with 2 GB of RAM and Windows Vista Ultimate. Also, the driver used was 8.351 while AMD already has version 8.361, driver that helps the 2900XT reach the results we talked about here.
Do take these tests with a pinch of salt although they look like the real deal (remember the test system and older under-performing driver), unlike some other tests that have spread through the global web. Hype it!
http://www.tcmagazine.com/images/news/Hardware/AMD_Radeon/R600_3dmark06_01_pcinlife.jpg
per quanto riguarda la fisica gestita direttamente dalla vga non è una novità, nvidia ha già il quantum phisics lancato con G80, anche se è tutto da "sperimentare" ancora....
...molto interessante invece (per la "preoccupazione" che avevo legata all'implementazione di features presenti su ati e non su nvidia e viceversa) la storia della tesselletion/dx10.1 invece, perchè immagino che prima di vedere un gioco full dx10.1 ce ne vuole di strada...
E se Ati controllasse la tessellation attraverso i driver?
Ad esempio ho un modello di 20.000 poligoni in-game:
-vengono renderizzati i vertici -> passa alla tessellation che aggiunge automaticamente dei vertici in più rendendo più dettagliato il modello.
Se non sbaglio in Xenos si passa da 48 vertici a 64 vertici per ciclo di clock grazie alla tessellation. Un aumento del 25%.
After tons of 'leaked' news pieces about Nvidia and its ignored NDAs we have stumbled upon a test with the upcoming performance crown-craving AMD Radeon HD 2900XT. The results have surfaced over @ the pcinlife.com forums and show the R600-powered heavy-weight running Futuremark's 3DMark06 and receiving a score of 9685. The score might seem disappointing but please note that the test has been conducted on a computer boasting a Core 2 Duo E6600 with 2 GB of RAM and Windows Vista Ultimate. Also, the driver used was 8.351 while AMD already has version 8.361, driver that helps the 2900XT reach the results we talked about here.
Do take these tests with a pinch of salt although they look like the real deal (remember the test system and older under-performing driver), unlike some other tests that have spread through the global web. Hype it!
http://www.tcmagazine.com/images/news/Hardware/AMD_Radeon/R600_3dmark06_01_pcinlife.jpg
Come dice l'articolo con i nuovi driver cambia tutto. ;)
appleroof
25-04-2007, 09:10
E se Ati controllasse la tessellation attraverso i driver?
Ad esempio ho un modello di 20.000 poligoni in-game:
-vengono renderizzati i vertici -> passa alla tessellation che aggiunge automaticamente dei vertici in più rendendo più dettagliato il modello.
Se non sbaglio in Xenos si passa da 48 vertici a 64 vertici per ciclo di clock grazie alla tessellation. Un aumento del 25%.
Certo potrebbe essere, ma qui si parla insistentemente di "unità dedicata" cosa che farebbe pensare ad un'implementazione hw.....
e cmq a mio modo di vedere il risultato (che ho detto finora) non cambierebbe...:rolleyes:
Robbysca976
25-04-2007, 09:20
:D :D :D :D
some shops (in holland) get it listed pre order at 380 euro (Sapphire Radeon HD2900 XT) compared to a 8800GTS 640mb wich is 370 euro it doesent seem like a bad price at all
Fonte Xtreme System
pierluigi86
25-04-2007, 09:20
Problemi di dogana alla presentazione di AMD in Tunisia
L'IMPIEGATO di un importante partner di AMD, è rimasto bloccato alla dogana cercando di far entrare in Tunisia un campionario di sample non funzionanti delle schede R600.
Le autorità doganali hanno chiesto di sapere il valore dei sample e li hanno fermati ieri in aeroporto bloccandoli con del nastro. Dovrebbero essere restituiti stamattina.
Un'altro partner di AMD ha evitato il problema facendosi spedire le schede direttamente da Hong Kong due giorni prima in un hotel diverso da quello dove si trovano i giornalisti.
Il problema è che anche loro non li hanno ancora ricevuti.
Nel frattempo il vostro corrispondente è stato interrogato da un funzionario in abiti civili dell'ufficio immigrazione che voleva più informazioni su una certa azienda chiamata AMD.
Si chiedeva come mai arrivassero così tanti giornalisti e chi fosse esattamente responsabile di AMD ad aver invitato i 120 partecipanti alla conferenza. Della risposta a questa domanda non ero del tutto sicuro.
Ci hanno chiesto anche se AMD aveva intenzione di aprire un ufficio a Tunisi e noi non abbiamo saputo che dire.
Ora sappiamo che altri 50 giornalisti tunisini sono stati invitati all'evento e gli ufficiali dell'immigrazione sono stati in ogni caso gentili, anche perché non portavamo con noi nessuna scheda.
http://it.theinquirer.net/2007/04/problemi_di_dogana_alla_presen.html
halduemilauno
25-04-2007, 09:22
http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1
HD2900 XTX with 1GB scores 13,5k+ <!--[if !supportLineBreakNewLine]-->
<!--[endif]-->R600XTX or the faster iteration of Radeon HD 2900 series clocked at 800 MHz core and 2200 MHz GDDR4 memory will score 13.500+ in 3Dmark06 default settings. You will achieve this from QX6800 quad core and 8.36 drivers.
Geforce 8800 Ultra (at 650 – 2160 MHz memory will score about 500 faster or about 14.000 marks. It would not with the old driver but with Forceware 158.19 it scores much better in this test.
The ATI's final driver the one that fixes the Audio bit should make Radeon HD 2900 XTX to perform at the same level as G80 Ultra. Not all hopes are lost.
si lo so se per voi ati non vince è falso.
pierluigi86
25-04-2007, 09:27
http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1
HD2900 XTX with 1GB scores 13,5k+ <!--[if !supportLineBreakNewLine]-->
<!--[endif]-->R600XTX or the faster iteration of Radeon HD 2900 series clocked at 800 MHz core and 2200 MHz GDDR4 memory will score 13.500+ in 3Dmark06 default settings. You will achieve this from QX6800 quad core and 8.36 drivers.
Geforce 8800 Ultra (at 650 – 2160 MHz memory will score about 500 faster or about 14.000 marks. It would not with the old driver but with Forceware 158.19 it scores much better in this test.
The ATI's final driver the one that fixes the Audio bit should make Radeon HD 2900 XTX to perform at the same level as G80 Ultra. Not all hopes are lost.
si lo so se per voi ati non vince è falso.
se fosse vero la situazione di amd diventa critica
some shops (in holland) get it listed pre order at 380 euro (Sapphire Radeon HD2900 XT) compared to a 8800GTS 640mb wich is 370 euro it doesent seem like a bad price at all
Fonte Xtreme System
...notizia molto interessante. 380€ per una vga high-end nei primi giorni di vendita è un'ottima cosa. Ora cerco un pò quali sono questi shop.
:)
halduemilauno
25-04-2007, 09:39
se fosse vero la situazione di amd diventa critica
come gia detto mille volte aspettiamo rece esaustive. se no si cade nel ridicolo di etichettare un sito pallonaro per poi in parte riabilitarlo vedendo altri dati per poi promuoverlo a pieni voti vedendo altri dati ancora.
;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1
HD2900 XTX with 1GB scores 13,5k+ <!--[if !supportLineBreakNewLine]-->
<!--[endif]-->R600XTX or the faster iteration of Radeon HD 2900 series clocked at 800 MHz core and 2200 MHz GDDR4 memory will score 13.500+ in 3Dmark06 default settings. You will achieve this from QX6800 quad core and 8.36 drivers.
Geforce 8800 Ultra (at 650 – 2160 MHz memory will score about 500 faster or about 14.000 marks. It would not with the old driver but with Forceware 158.19 it scores much better in this test.
The ATI's final driver the one that fixes the Audio bit should make Radeon HD 2900 XTX to perform at the same level as G80 Ultra. Not all hopes are lost.
si lo so se per voi ati non vince è falso.
ti fissi col 3dmark eh..
500 punti in più poi.. :asd: dicci anche quanto costa in più la ultra, se fai informazione falla completa
bYeZ!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1
HD2900 XTX with 1GB scores 13,5k+ <!--[if !supportLineBreakNewLine]-->
<!--[endif]-->R600XTX or the faster iteration of Radeon HD 2900 series clocked at 800 MHz core and 2200 MHz GDDR4 memory will score 13.500+ in 3Dmark06 default settings. You will achieve this from QX6800 quad core and 8.36 drivers.
Geforce 8800 Ultra (at 650 – 2160 MHz memory will score about 500 faster or about 14.000 marks. It would not with the old driver but with Forceware 158.19 it scores much better in this test.
The ATI's final driver the one that fixes the Audio bit should make Radeon HD 2900 XTX to perform at the same level as G80 Ultra. Not all hopes are lost.
si lo so se per voi ati non vince è falso.
E' molto simile al test sulla XT. Io credo che la 2900XT e la 2900XTX faranno registrare punteggi simili se non identici a 1280x1024, avendo praticamente la stessa architettura. Il vantaggio delle GDDR4 si vedrà solo a risoluzioni più alte.
E' un dato di fatto che al 3DMark nvidia faccia sempre punteggi superiori, quindi questi test non mi preoccupano.
some shops (in holland) get it listed pre order at 380 euro (Sapphire Radeon HD2900 XT) compared to a 8800GTS 640mb wich is 370 euro it doesent seem like a bad price at all
:oink:
bluefrog
25-04-2007, 09:42
http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1
HD2900 XTX with 1GB scores 13,5k+ <!--[if !supportLineBreakNewLine]-->
<!--[endif]-->R600XTX or the faster iteration of Radeon HD 2900 series clocked at 800 MHz core and 2200 MHz GDDR4 memory will score 13.500+ in 3Dmark06 default settings. You will achieve this from QX6800 quad core and 8.36 drivers.
Geforce 8800 Ultra (at 650 – 2160 MHz memory will score about 500 faster or about 14.000 marks. It would not with the old driver but with Forceware 158.19 it scores much better in this test.
The ATI's final driver the one that fixes the Audio bit should make Radeon HD 2900 XTX to perform at the same level as G80 Ultra. Not all hopes are lost.
si lo so se per voi ati non vince è falso.
Come è stato ribadito più volte, la prova su strada reale sono i giochi e non il 3DMark. Quindi per questo aspettiamo le recensioni. E se proprio si vuol prendere il 3DMark come metro di paragone, aspettiamo il 2007 che sarà basato sulle DX10 e allora sì che ne vedremo delle belle. ;)
per quanto riguarda la fisica gestita direttamente dalla vga non è una novità, nvidia ha già il quantum phisics lancato con G80, anche se è tutto da "sperimentare" ancora....
...molto interessante invece (per la "preoccupazione" che avevo legata all'implementazione di features presenti su ati e non su nvidia e viceversa) la storia della tesselletion/dx10.1 invece, perchè immagino che prima di vedere un gioco full dx10.1 ce ne vuole di strada...
a meno che..a furia di aspettare il 10 si passa direttamente al 10.1 questo era ed é l'incubo di chi ha acquistato il g80:)
Darkgift
25-04-2007, 09:47
Ragazzi sapete x caso le misure della 2900 XT ?? in lunghezza intendo. Piu corta o piu lunga di una 88xx GTX ?
Differenze con la XTX non dovrebbero essercene credo a livello di PCB giusto ?
se fosse vero la situazione di amd diventa critica
...hai capito poco o niente del mercato delle vga. ;) Avercelo "più lungo" con il 3Dmark06 e con una vga da almeno €600 può fare la felicità dei fanboy sparsi nei vari forum. Come è stato più volte detto i guadagni, il volume di vendite, i profitti, li fanno tutte le altre vga. Nvidia e ATi si battono con un occhio per avercelo più lungo, ma con l'altro per fare prodotti ottimi in tutte le fasce. E' molto più importante sapere che una R600XT costerà 380€ (ma sai quante ne vendi se applichi questo prezzo???) o che una fascia bassa RV610 sarà a 128 bit (come sembra dalle notizie di stamattina) o che una RV670 a 256bit non è poi così lontana (...secondo voi lasciavano scoperta la fascia dei 256bit??! :fagiano: ) , che non vedere la XTX vincere o perdere contro la Ultra di 500 punti al 3Dmark06.
:)
halduemilauno
25-04-2007, 09:47
ti fissi col 3dmark eh..
500 punti in più poi.. :asd: dicci anche quanto costa in più la ultra, se fai informazione falla completa
bYeZ!
quello ho trovato e quello ho postato. se la metti su questo tono dicci tu.
halduemilauno
25-04-2007, 09:52
...hai capito poco o niente del mercato delle vga. ;) Avercelo "più lungo" con il 3Dmark06 e con una vga da almeno €600 può fare la felicità dei fanboy sparsi nei vari forum. Come è stato più volte detto i guadagni, il volume di vendite, i profitti, li fanno tutte le altre vga. Nvidia e ATi si battono con un occhio per avercelo più lungo, ma con l'altro per fare prodotti ottimi in tutte le fasce. E' molto più importante sapere che una R600XT costerà 380€ (ma sai quante ne vendi se applichi questo prezzo???) o che una fascia bassa RV610 sarà a 128 bit (come sembra dalle notizie di stamattina) o che una RV670 a 256bit non è poi così lontana (...secondo voi lasciavano scoperta la fascia dei 256bit??! :fagiano: ) , che non vedere la XTX vincere o perdere contro la Ultra di 500 punti al 3Dmark06.
:)
ma neanche tu hai capito tutto. devi aspettare i risultati e i prezzi esaustivi e ufficiali e poi...
some shops (in holland) get it listed pre order at 380 euro (Sapphire Radeon HD2900 XT) compared to a 8800GTS 640mb wich is 370 euro it doesent seem like a bad price at all
...notizia molto interessante. 380€ per una vga high-end nei primi giorni di vendita è un'ottima cosa. Ora cerco un pò quali sono questi shop.
--> Sapphire VGA Radeon HD2900 XT (Pre Order!) 512 MB (http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021) - 380,00 €
:cool:
halduemilauno
25-04-2007, 09:57
--> Sapphire VGA Radeon HD2900 XT (Pre Order!) 512 MB (http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021) - 380,00 €
:cool:
adesso vedi a quanto(sempre li ovviamente) danno le 8800gts/gtx(per curiosità) e aspetta i prezzi del 14 maggio. poi ancora non solo nvidia ma ti pare che i commercianti che hanno scorte di schede nvidia non abbasseranno loro stessi i prezzi? che fanno se le tengono in magazzino?
gianni1879
25-04-2007, 09:59
some shops (in holland) get it listed pre order at 380 euro (Sapphire Radeon HD2900 XT) compared to a 8800GTS 640mb wich is 370 euro it doesent seem like a bad price at all
Fonte Xtreme System
Very Good ;)
--> Sapphire VGA Radeon HD2900 XT (Pre Order!) 512 MB (http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021) - 380,00 €
:cool:
Significa anche che il prezzo tra un mese sarà ancora più basso! Potremmo trovarle in italia intorno ai 330-350€. Eccezionale! Con quello che risparmio sulla vga, posso tirare su un sistema super :D
adesso vedi a quanto(sempre li ovviamente) danno le 8800gts/gtx(per curiosità) e aspetta i prezzi del 14 maggio. poi ancora non solo nvidia ma ti pare che i commercianti che hanno scorte di schede nvidia non abbasseranno loro stessi i prezzi? che fanno se le tengono in magazzino?
...ma che c'entra?! ho mai detto questo io?! non scrivere cose che gli altri non pensano. Ovviamente scenderanno i prezzi delle 8800, logica conseguenza della bontà di R600XT proposto a 380€.
Comunque in quello stesso shop:
8800 GTX - 526€ / 542 € / 584 €
8800 GTS 640 - 370 € / 385 € / 428 € / 450 €
8800 GTS 320 - 279 € / 291 €
adesso vedi a quanto(sempre li ovviamente) danno le 8800gts/gtx(per curiosità) e aspetta i prezzi del 14 maggio. poi ancora non solo nvidia ma ti pare che i commercianti che hanno scorte di schede nvidia non abbasseranno loro stessi i prezzi? che fanno se le tengono in magazzino?
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021
;)
halduemilauno
25-04-2007, 10:11
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021
;)
probabilmente non hai capito quello che ho detto. mi ha capito e risposto belin.
adesso vedi a quanto(sempre li ovviamente) danno le 8800gts/gtx(per curiosità) e aspetta i prezzi del 14 maggio. poi ancora non solo nvidia ma ti pare che i commercianti che hanno scorte di schede nvidia non abbasseranno loro stessi i prezzi? che fanno se le tengono in magazzino?
se un commerciante la compra dal grossista ad un prezzo, non sarà tanto pazzo da rimetterci solo per venderla. aspetterà un po' e terrà il prezzo alto... parlo dell'immediato... aspetterà qualche mese cercando di venderla ad un prezzo che gli consenta di guadagnarci. le schede non ammuffiscono.
nel sito cmq il prezzo minimo della 8800gtx è di 506€
una differenza di 126€ :sofico:
impressionante!
halduemilauno
25-04-2007, 10:12
se un commerciante la compra dal grossista ad un prezzo, non sarà tanto pazzo da rimetterci solo per venderla. aspetterà un po' e terrà il prezzo alto...
nel sito cmq il prezzo minimo della 8800gtx è di 506€
una differenza di 126€ :sofico:
impressionante!
di più impressionantissimo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.