View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
Athlon 64 3000+
04-05-2007, 10:18
sicuramente sarà una versione overclocckata, normalmente nelle VGA non OC Sapphire non si discosta mai dalla reference :boh:
puo essere infatti che sia un versione particolare di HD 2900XT,mentre quella "normale" sarà indentica a quella reference.
ah e ti sembrano pochi?:rolleyes:
beh, la gente che se li prende a fare gli alimentatori da millemila watt? per non usarli? :asd:
e ricordo che con la 2900 ne basterà uno da 450/500 BUONO.
bYeZ!
Kharonte85
04-05-2007, 10:19
Nvidia dichiara 177watt per le 8800 GTX in full-load. 23watt in più in full-load non mi sembrano una tragedia.
;)
Si' ma se la scheda va di meno...:mc:
L'ho provato con la mia vga e funziona.
:)
Come fa a funzionarti?!? :eek:
Si' ma se la scheda va di meno...:mc:
...e se mia nonna avesse le ruote?!
:D
ps. non sappiamo quanto andrà, ma ricordatevi le parole di chi ha la vga ed è sotto NDA...;)
Le vendono le VGA senza dissipatore?!? :D quel catafalco tanto durerebbe solo il tempo di prendere un cacciavite a stella! gia immagino quanto pesera' quell' affare...
infatti gli stavo rispondendo, quell'ali ha 2 linea da 12v con 20A ciascuna, cioè tantissimo, e mi sembra difficile fare una vga a cui non basti tale potenza, nel caso poi esista davero uan vga che consuma così tanto, comprarla è da idioti.
le linee 2x20a le ha anche il mio tagan 530w, ma sono valori teorici. l'amperaggio compessivo sui 12v è pari a 33 sul mio quindi un po' inferiore sul 480w.
se le voci che sono trapelate sui consumi di HD2900 sono reali allora il problema della ventola a parte passa un po' in secondo piano. magari si potrà scegliere la velocità di rotazione tramite downvolt come sui vecchi zalman vf700! a parte questo lo svantaggio del consumo complessivo a mio avviso potrebbe essere compensato dall'a presenza di tutte le funzionalità aggiuntive, come il supporto alla fisca o le funzionalità audio. in questo caso avremmo di fronte una scheda di nuova concezione che potrebbe almeno in parte far passare in secondo piano l'attesa più volte prolungata
Come fa a funzionarti?!? :eek:
...mi vede la vga, mi dice la gpu e mi rileva le frequenze. E' un tool che non si installa, molto leggero. Non ho provato a overcloccare, ma i pulsanti sono tutti disponibili. Di più non saprei che dire...!
:)
Foglia Morta
04-05-2007, 10:25
Si' ma se la scheda va di meno...:mc:
eventualmente è già stato spiegato il perchè: architettura pensata per shader complessi = architettura più complessa ed esosa.
Ovviamente ci sono i pro e i contro.
Portocala
04-05-2007, 10:26
infatti è esagerata quella scheda :D
forza 2400/2600, datemi info su quelle :p
...comunque, se non sbaglio:
2*6 pin = max 75 watt
2*6 pin = max 75 watt
pci-ex = max 75 watt
Totale = max 225 watt
...ecco svelato quanto al massimo della puuuutenza potrà consumare R600. Imho 200 watt in full-load potrebbe essere un valore reale.
:)
Appunto, di x2600xt si sa nulla, io non ho ancora capito se il 14 vale o no anche per lei.
Kharonte85
04-05-2007, 10:29
...e se mia nonna avesse le ruote?!
:D
ps. non sappiamo quanto andrà, ma ricordatevi le parole di chi ha la vga ed è sotto NDA...;)
Quali parole? Se è sotto NDA vedrai che granche' non potra' aver parlato...:D parla molto di piu' Nvidia con la sua ultra...cmq vedremo, per me 200w sono troppi...
eventualmente è già stato spiegato il perchè: architettura pensata per shader complessi = architettura più complessa ed esosa.
Ovviamente ci sono i pro e i contro.
Forse, oppure + semplicemente nvidia ci sa fare sul lato consumi...o ancora è AMD ATI che è imbranata...:boh:
...mi vede la vga, mi dice la gpu e mi rileva le frequenze. E' un tool che non si installa, molto leggero. Non ho provato a overcloccare, ma i pulsanti sono tutti disponibili. Di più non saprei che dire...!
:)
Te l'ho chiesto perchè a me dice "Failed: No valide devices found!"
non avrai mica una 2900 per caso!? :D
Nvidia dichiara 177watt per le 8800 GTX in full-load. 23watt in più in full-load non mi sembrano una tragedia.
;)
Infatti. Lo ha confermato anche in una slide ufficiale per la presentazione della Ultra (che invece consuma 175W in full load, dichiarati). 200W e 225W sono i valori dichiarati, bisognerà vedere quelli effettivi nei test. ;)
leoneazzurro
04-05-2007, 10:35
...comunque, se non sbaglio:
2*6 pin = max 75 watt
2*6 pin = max 75 watt
pci-ex = max 75 watt
Totale = max 225 watt
...ecco svelato quanto al massimo della puuuutenza potrà consumare R600. Imho 200 watt in full-load potrebbe essere un valore reale.
:)
Bisogna anche tenere conto dei fattori di sicurezza. Poi 200W sono tanti in genere, ad un fanatico dell'HW poi può non importare. Del resto c'è chi ha a casa televisori al plasma e LCD che magari consumano molto di più...
Io direi che TUTTE le schede top attuali consumano un bel pò (quando uscì la 6800 Ultra si gridò allo scandalo per i 100W di consumo, ora sembra quasi che sia normale per schede di fascia media...
Non è un bel trend, chiaro, ma d'altronde potenza elaborativa e consumi vanno di pari passo, anche se processi produttivi migliori possono dare una mao.
A parte questo, ovviamente il confronto lo si andrà a fare sempre con la concorrenza.
gianni1879
04-05-2007, 10:45
ah e ti sembrano pochi?:rolleyes:
ti appena risposto belin ;)
Nvidia dichiara 177watt per le 8800 GTX in full-load. 23watt in più in full-load non mi sembrano una tragedia.
;)
Il problema e' che 20w di qua e 20 di la siamo gia' quasi a 300w per il futuro ormai prossimo.
Direi che c'e' (e da entrambe le aziende) un enorme bisogno di ricorrere a integrazione e ottimizzazione dell'architettura sacrificando anche un refresh cosi' come venne fatto con la 7900. Noto pero' che per rincorrere l'ultimo frames per secondo ci si spinge ben oltre le capacita' date dall'attuale tecnologia che sicuramente risultera' acerba (rispetto alle vecchie architetture non unificate) anche per TMSC e & e non li invidio per tutto il lavoro che avranno dovuto fare insieme a questi clienti per fare dei tape out funzionanti.
Il solo die shink a (es) 65nm potrebbe non essere sufficiente per tornare a livelli di normalita' che ci si aspetta da un componente simile.
Athlon 64 3000+
04-05-2007, 10:57
Il problema e' che 20w di qua e 20 di la siamo gia' quasi a 300w per il futuro ormai prossimo.
Direi che c'e' (e da entrambe le aziende) un enorme bisogno di ricorrere a integrazione e ottimizzazione dell'architettura sacrificando anche un refresh cosi' come venne fatto con la 7900. Noto pero' che per rincorrere l'ultimo frames per secondo ci si spinge ben oltre le capacita' date dall'attuale tecnologia che sicuramente risultera' acerba (rispetto alle vecchie architetture non unificate) anche per TMSC e & e non li invidio per tutto il lavoro che avranno dovuto fare insieme a questi clienti per fare dei tape out funzionanti.
Il solo die shink a (es) 65nm potrebbe non essere sufficiente per tornare a livelli di normalita' che ci si aspetta da un componente simile.
200 W per la HD 2900XT se saranno veri sono tanti,però il mio alimentatore che è un Enermax da 485W che da 32A sulla 12V e credo che reggerà benissimo.
Tu pensi che sia G80 che R600 con un die shink a 65 nm i consumi caleranno ma non troppo per farli arrivare a dei livelli decenti?
E poi mi chiedo come mai R600 che è a 80 nm come possa consumare di più di G80 che è a 90 nm.
:confused:
Quella ventola è identica ad una turbina di un 767, speriamo che il rumore non sia lo stesso :D
Mah, il fatto che la ventola sia grande non lo vedo come un elemento per forza negativo... A parità di velocità di rotazione smuove più aria, quindi una ventola del genere potrebbe rendere la scheda più silenziosa. :stordita:
Come fa a funzionarti?!? :eek:
...mi vede la vga, mi dice la gpu e mi rileva le frequenze. E' un tool che non si installa, molto leggero. Non ho provato a overcloccare, ma i pulsanti sono tutti disponibili. Di più non saprei che dire...!
:)
Riconosce pure le X1000 Mobility, provato sulla mia. Peccato che anche solo aumentando un paio di MHz sul core mi si blocca il pc... :confused:
Mentre con ATi Tool l'oc mi funziona tranquillamente.
Il problema e' che 20w di qua e 20 di la siamo gia' quasi a 300w per il futuro ormai prossimo.
Direi che c'e' (e da entrambe le aziende) un enorme bisogno di ricorrere a integrazione e ottimizzazione dell'architettura sacrificando anche un refresh cosi' come venne fatto con la 7900. Noto pero' che per rincorrere l'ultimo frames per secondo ci si spinge ben oltre le capacita' date dall'attuale tecnologia che sicuramente risultera' acerba (rispetto alle vecchie architetture non unificate) anche per TMSC e & e non li invidio per tutto il lavoro che avranno dovuto fare insieme a questi clienti per fare dei tape out funzionanti.
Il solo die shink a (es) 65nm potrebbe non essere sufficiente per tornare a livelli di normalita' che ci si aspetta da un componente simile.
Hai ragione. Secondo me però se volessero (sia ATi che nVIDIA) i consumi potrebbero ridurli tranquillamente, basta vedere i prodigi che fanno per le gpu da notebook, che di solito consumano la metà (se non meno) dell'equivalente da desktop. Ovviamente i costi salirebbero ancora. :(
@ tutti: bisogna comunque ricordare che quello che conta veramente è il consumo in 2D ed in idle. Non credo che voi giochiate per 10 ore al giorno tutti i giorni... :mbe:
Io direi che TUTTE le schede top attuali consumano un bel pò (quando uscì la 6800 Ultra si gridò allo scandalo per i 100W di consumo, ora sembra quasi che sia normale per schede di fascia media...
Non è un bel trend, chiaro, ma d'altronde potenza elaborativa e consumi vanno di pari passo, anche se processi produttivi migliori possono dare una mao.
Il problema e' che 20w di qua e 20 di la siamo gia' quasi a 300w per il futuro ormai prossimo.
...d'accordissimo con voi. Tanto per sgombrare il campo da "pensieri sbagliati", io già ora considero i 177watt della 8800 GTX un consumo abbastanza elevato. Ma allo stesso tempo mi rendo conto che questo step di vga (G80\R600) non è ancora pronto per vedere consumi normali, quindi mi "accontento" anche dei 200watt in full-load. Probabilmente con le vga a 65nm o 55nm scenderanno i consumi, con gli 80/90nm si è capito che è impossibile. Vedremo. Per ora mi tengo stretto il mio tranquillo alimentatore da 420watt (e non lo cambio!).
:)
Athlon 64 3000+
04-05-2007, 11:01
http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=1
We created a lot of noise with the 100 Degrees Celsius article. You can check the original part here.
Luckily we have friends who wanted to help us out in our quest for truth. It turns out that outside of the case on a 20 degrees Celsius environment temperature Radeon HD 2900 XT will heat up to 82 Celsius.
There is a catch in 2D mode temperature will be about 58 Celsius almost all the time. In 3Dmode R600 chip heats up to average 68.4 or in worst case scenario 71.3 degrees Celsius.
In closed case the situation gets even worst so you can expect even more than 82 Degrees Celsius close to 100 degrees that we originally reported.
Here is the picture below.
vicius80
04-05-2007, 11:04
Ragazzi ve lo dico quale sarà la cosa migliore da fare per eliminare il problema CALORE:
************* ZALMAN *********************
:D :
leoneazzurro
04-05-2007, 11:10
http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=1
We created a lot of noise with the 100 Degrees Celsius article. You can check the original part here.
Luckily we have friends who wanted to help us out in our quest for truth. It turns out that outside of the case on a 20 degrees Celsius environment temperature Radeon HD 2900 XT will heat up to 82 Celsius.
There is a catch in 2D mode temperature will be about 58 Celsius almost all the time. In 3Dmode R600 chip heats up to average 68.4 or in worst case scenario 71.3 degrees Celsius.
In closed case the situation gets even worst so you can expect even more than 82 Degrees Celsius close to 100 degrees that we originally reported.
Here is the picture below.
http://forum.beyond3d.com/showpost.php?p=981276&postcount=4413
Uno dei motivi per non dare retta a FUAD :rolleyes:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=1
We created a lot of noise with the 100 Degrees Celsius article. You can check the original part here.
Luckily we have friends who wanted to help us out in our quest for truth. It turns out that outside of the case on a 20 degrees Celsius environment temperature Radeon HD 2900 XT will heat up to 82 Celsius.
There is a catch in 2D mode temperature will be about 58 Celsius almost all the time. In 3Dmode R600 chip heats up to average 68.4 or in worst case scenario 71.3 degrees Celsius.
In closed case the situation gets even worst so you can expect even more than 82 Degrees Celsius close to 100 degrees that we originally reported.
Here is the picture below.
http://www.fudzilla.com/images/stories/2007/May/graphics/r600_temp.jpg
C'è anche un altro update: controordine, ora basta pure un ali da 400-500W... LOL, senza parole. :rolleyes:
Update: Works with a good 400-500W as well
Since some of our readers didn't actually believe that their bellowed R600XT might need a 750W or higher PSU, here is some proof. AMD clearly states that you need a 750W or better power supply for this hot beast. You also need an Athlon or Pentium 4 or better CPU, 512MB for it to work and 1024MB for optimal performance, or more. You can read the original part here.
The card supports Windows XP, 2000 and Vista both 32 and 64 bit versions. We still have hope that the card might work with a good 500W PSU, but this is what AMD recommends. Well, it's all here.
Update: We still stay behind the picture we posted, but several sources close to AMD, partners and retailers who has had cards confirmed that a single Radeon HD 2900 XT works with a good quality 450 - 500W PSU as well. One of the sources confirmed the slide we posted, but said that this is actually the Crossfire Radeon HD 2900XT with a Quad core CPU requirements. Some of our friends will test the card for us and we will let you know if it works with a 500W PSU. Stay tuned. Gibbo from Overclockers has tested his card and he said it will run with 400-500W PSU and you can read about it here.
gianni1879
04-05-2007, 11:13
Ragazzi ve lo dico quale sarà la cosa migliore da fare per eliminare il problema CALORE:
************* ZALMAN *********************
:D :
ma dalla mia esperienza con gli zalman sulle x1900 non andavano proprio bene, immagino su queste vadano ancora peggio, cmq una ventola dello stock molto grande significa meno rpm, meno rumore e più cfm, un pò come quelli che si mettono nel case, non a caso si preferiscono ventole da 120mm al posto delle 80mm :)
gianni1879
04-05-2007, 11:15
http://www.fudzilla.com/images/stories/2007/May/graphics/r600_temp.jpg
C'è anche un altro update: controordine, ora basta pure un ali da 400-500W... LOL, senza parole. :rolleyes:
tra poco ci sarà altro contrordine, orami su sta scheda si è detto veramente di tutto, ormai nemmeno li considerò più aspetto tranquillo il 12 maggio :)
Kharonte85
04-05-2007, 11:17
C'è anche un altro update: controordine, ora basta pure un ali da 400-500W... LOL, senza parole. :rolleyes:
Ci mancherebbe altro che un 450/500w di marca non la facesse girare...:D
Del resto se i consumi sono un po' piu' alti della 8800gtx le specifiche saranno simili: 450w con 30A sui +12v credo basteranno...
vicius80
04-05-2007, 11:18
tra poco ci sarà altro contrordine, orami su sta scheda si è detto veramente di tutto, ormai nemmeno li considerò più aspetto tranquillo il 12 maggio :)
QUOTO ALLA GRANDE.....raga basta co ste supposizioni, io non credo più a niente e a nessun sito o recensione non ufficiale....:mad:
Ragazzi ve lo dico quale sarà la cosa migliore da fare per eliminare il problema CALORE:
************* ZALMAN *********************
:D :
Ma proprio no......Come fai a pensare che uno Zalman possa essere tanto efficace quanto il dissipatore progettato per R600? Nel caso non avessi nemmeno letto te lo ricordo: 3 heatpipes su di un heatsink interamente in rame, ventolone da 2A a 12V....il tutto sparato fuori dal case...lo Zalman tra l'altro dissiperebbe 200W sparando aria in giro per lo chassis....
...evitiamo sparate di sto tipo và ;)
CIaO
yossarian
04-05-2007, 11:44
Tornando a bomba, la questione che ho postato della maggiore difficoltà di ottimizzare i drivers per l'architettura R600 ti pare corretta?
in parte si; d'altro canto, il SW attuale è pensato per architetture tradizionali (shader non particolarmente complessi e mancanza di ottimizzazioni per codice dx10). In questa situazione è più difficile ottimizzare il lavoro di un chip che presenta un approccio meno "classico".
Da quello che ho capito, comunque, G80 ha 64 texture samplers, e R600 16, però a quanto pare una unità di R600 fa più lavoro di una di G80, visto che entrambe possono produrre un valore filtrato bilineare FP64 per ciclo.
quello si riferisce alla possibilità di effettuare texture filtering a fp16 per canale nelle tmu (feature richiesta dallo sm4.0) e non è un indice della capacità di calcolo delle tmu
anche se la limitazione è che su G80 se non erro si può avere un filtraggio trilineare anisotropico per ogni ciclo di clock e su R600 no
direi di aspettare i test con archmark prima di arrivare a conclusioni di qualunque natura sulle capacità di fare texture filtering di R600
(anche se poi le TU su R600 hanno frequenza maggiore - o dovrebbero avere frequenza maggiore).
si lavorano alla stessa frequenza del resto del chip, mentre quelle di G80 sono a 575 MHz (612 quelle della versione ultra)
Ragazzi ve lo dico quale sarà la cosa migliore da fare per eliminare il problema CALORE:
************* ZALMAN *********************
:D :
E giu soldi e via garanzia.
ma quanta pubblicita gratis si sta facendo amd?
altro che stoppare i rumors
Kharonte85
04-05-2007, 11:49
Ma proprio no......Come fai a pensare che uno Zalman possa essere tanto efficace quanto il dissipatore progettato per R600? Nel caso non avessi nemmeno letto te lo ricordo: 3 heatpipes su di un heatsink interamente in rame, ventolone da 2A a 12V....il tutto sparato fuori dal case...lo Zalman tra l'altro dissiperebbe 200W sparando aria in giro per lo chassis....
...evitiamo sparate di sto tipo và ;)
CIaO
E giu soldi e via garanzia.
Quoto in pieno...;)
ma quanta pubblicita gratis si sta facendo amd?
altro che stoppare i rumors
Da Fudzilla sono usciti rispettivamente : che la scheda è più lenta di una GTX, che scalda come un ossessa, che consuma come due ossesse, che è rumorosa e non ricordo cos'altro ancora di negativo...
Di certo se pagava la pubblicità era un pelo migliore....
yossarian
04-05-2007, 12:00
quindi le tue conclusioni sul confronto R600 e G80 sono diverse rispetto a quelle messe in luce su techpowerup? o ritieni che ati abbia fatto il passo più lungo della gamba, a questo giro? magari doveva aspettare i 65nm?
bYeZ!
l'ottimizzazione delle operazioni su chip con vect4+scalar è diversa da quella per chip superscalari.
Piuttosto direi di aspettare le dx10
Da Fudzilla sono usciti rispettivamente : che la scheda è più lenta di una GTX, che scalda come un ossessa, che consuma come due ossesse, che è rumorosa e non ricordo cos'altro ancora di negativo...
Di certo se pagava la pubblicità era un pelo migliore....
Essendo rumors ormai cosi' vicini alla smentita o conferma, questa pubblicita' sebbene negativa entra in tasca positivamente ad AMD. Non e' certo ora che gli acquirenti passerebbero alla concorrenza a 10 giorni dalla verita'. ;)
Portocala
04-05-2007, 12:01
Da Fudzilla sono usciti rispettivamente : che la scheda è più lenta di una GTX, che scalda come un ossessa, che consuma come due ossesse, che è rumorosa e non ricordo cos'altro ancora di negativo...
Di certo se pagava la pubblicità era un pelo migliore....
sono talmente lamers che adesso dicono che degli amici quà e degli amici di là stanno testando la scheda e funziona con 450-500w, e non scalda tanto.
MonsterMash
04-05-2007, 12:05
Ragazzi ve lo dico quale sarà la cosa migliore da fare per eliminare il problema CALORE:
************* ZALMAN *********************
:D :
Io direi piuttosto: YBRIS!
Mi chiedo se il mio WB k5 possa essere montato anche su una hd2900
vicius80
04-05-2007, 12:05
Ma proprio no......Come fai a pensare che uno Zalman possa essere tanto efficace quanto il dissipatore progettato per R600? Nel caso non avessi nemmeno letto te lo ricordo: 3 heatpipes su di un heatsink interamente in rame, ventolone da 2A a 12V....il tutto sparato fuori dal case...lo Zalman tra l'altro dissiperebbe 200W sparando aria in giro per lo chassis....
...evitiamo sparate di sto tipo và ;)
CIaO
intanto lo stesso problema si è avuto con x1900 e x1950 e l'unica soluzione per diminuire le temperature era quella dello zalmino. anche questa volta ATI come anche NVIDIA hanno messo come la chiamo io una bella coperta in plastica (che fa calore solo quella) sopra tutta la scheda. E il ventolone veloce per quanto puo andare non dissiperà mai perfettamente.Se levi questa "copertina" e lasci tutto all'aperto mettendo il ventolone da 80 di zalman poi mi dici se le temperature sono uguali.....il fatto che spari l'aria calda nel case, non significa nulla, perchè se hai un case decente, pulito, con un buon riciclo d'aria il problema non si pone.....e poi aridaglie co sti 200sa...ANCORA NON SI SA NULLA:D
PS: Posso solo dare ragione a chi ha detto della garanzia....ma questo si sa....a tuo rischio e pericolo, è sempre stato cosi, poi chi preferisce un nuovo fornetto dentro il case buon per voi:D
l'ottimizzazione delle operazioni su chip con vect4+scalar è diversa da quella per chip superscalari.
Piuttosto direi di aspettare le dx10
quindi sei pessimista per quanto riguarda le prestazioni in Dx9?
bYeZ!
vicius80
04-05-2007, 12:06
Io direi piuttosto: YBRIS!
Mi chiedo se il mio WB k5 possa essere montato anche su una hd2900
beh direi che sicuramente andrebbe meglio ma li ci vogliono i soldini...:D :sofico:
Essendo rumors ormai cosi' vicini alla smentita o conferma, questa pubblicita' sebbene negativa entra in tasca positivamente ad AMD. Non e' certo ora che gli acquirenti passerebbero alla concorrenza a 10 giorni dalla verita'. ;)
esatto, l'hype montato dalle case e dagli utenti, da diversi anni ormai riveste un ruolo a dir poco fondamentale per il mercato.
e dal momento che per antonomasia esso si fonda su notizie senza fondamento e non verificabili, maggiormente queste ultime ricalcano tale tipologia, maggiormente l'hype aumenta.
se ATi avesse già tirato giù tutte le carte, anche se per ipotesi R600 andasse "il doppio" di G80, secondo me non ne ricaverebbe gli stessi benefici rispetto al "lasciar circolare" rumors di tutti i tipi.
vicius80
04-05-2007, 12:13
esatto, l'hype montato dalle case e dagli utenti, da diversi anni ormai riveste un ruolo a dir poco fondamentale per il mercato.
e dal momento che per antonomasia esso si fonda su notizie senza fondamento e non verificabili, maggiormente queste ultime ricalcano tale tipologia, maggiormente l'hype aumenta.
se ATi avesse già tirato giù tutte le carte, anche se per ipotesi R600 andasse "il doppio" di G80, secondo me non ne ricaverebbe gli stessi benefici rispetto al "lasciar circolare" rumors di tutti i tipi.
quoto:O
Mi chiedo se il mio WB k5 possa essere montato anche su una hd2900
Non credo ci siano differenze con la serie X1xx...ma farsi una staffa da soli (o farsela fare da un fabbro) è lavoro da 2 minuti ;)
ma sono arcisicuro,a vedere dalle varie pics postate fin'ora,che la distanza è la stessa delle X1xx
leoneazzurro
04-05-2007, 12:38
quindi sei pessimista per quanto riguarda le prestazioni in Dx9?
bYeZ!
IMHO probabilmente ci vorranno ancora parecchi mesi per avere drivers ottimizzati per le DX9 su R600.
Soprattutto se l'architettura è organizzata su 4-4-4-5 anzichè 8-2-8 come G80 (Yoss, tu avevi detto 8-4-4 ma secondo Rys nell'analisi di B3D ogni cluster da 16 SP è organizzato come un 2x8 anzichè 4x4).
intanto lo stesso problema si è avuto con x1900 e x1950 e l'unica soluzione per diminuire le temperature era quella dello zalmino. anche questa volta ATI come anche NVIDIA hanno messo come la chiamo io una bella coperta in plastica (che fa calore solo quella) sopra tutta la scheda. E il ventolone veloce per quanto puo andare non dissiperà mai perfettamente.Se levi questa "copertina" e lasci tutto all'aperto mettendo il ventolone da 80 di zalman poi mi dici se le temperature sono uguali.....il fatto che spari l'aria calda nel case, non significa nulla, perchè se hai un case decente, pulito, con un buon riciclo d'aria il problema non si pone.....e poi aridaglie co sti 200sa...ANCORA NON SI SA NULLA:D
PS: Posso solo dare ragione a chi ha detto della garanzia....ma questo si sa....a tuo rischio e pericolo, è sempre stato cosi, poi chi preferisce un nuovo fornetto dentro il case buon per voi:D
Guarda, senza volere offendere ma da quello che hai scritto non mi pare tu ci capisca un granché di dissipatori....Sorvoliamo sul discorso della "copertura in plastica che fa caldo" (:doh: ), come possa uno zalman competere con un heatsink da 3 heatpipe come quello appena visto nell'immagine postata ce lo devi proprio spiegare.... :rolleyes:
Inoltre se avessi letto un po'in giro (ma anche solo qui sul forum, eh..) ti saresti accorto che sulle x1800/1900 l'accelero X2 si è rivelato più efficiente dello Zalman a parità di silenziosità e che lo stesso dissipatore stock è più performante se tenuto al massimo regime....
..quindi per favore, evitiamo sparate simili tanto per postare eh? ;)
CIaO
esatto, l'hype montato dalle case e dagli utenti, da diversi anni ormai riveste un ruolo a dir poco fondamentale per il mercato.
e dal momento che per antonomasia esso si fonda su notizie senza fondamento e non verificabili, maggiormente queste ultime ricalcano tale tipologia, maggiormente l'hype aumenta.
se ATi avesse già tirato giù tutte le carte, anche se per ipotesi R600 andasse "il doppio" di G80, secondo me non ne ricaverebbe gli stessi benefici rispetto al "lasciar circolare" rumors di tutti i tipi.
Appunto: io da sempre dico e ripeto che se esistono rumors e' solo perche' nel 70% dei casi sono le case stesse a buttarli in rete con (finte) leaked images,pdf,slide ecc a fomentare discussioni e a far parlar di se.
Free Gordon
04-05-2007, 12:42
ma la GTX, a titolo di confronto, quanto consuma in full?
comunque non capisco la gente che prima si lamenta che la scheda scalderà troppo, e poi che ha un sistema di raffreddamento troppo corposo (che probabilmente la farà scaldare sensibilmente di meno). Insomma volete sempre la botte piena e la moglie ubriaca? per un chip come R600 (80nm) è un miracolo che non si sia ricorsi al raffreddamento a liquido.
bYeZ!
L'unico confronto che possiamo fare, è sui TDP.
La GTX sta a 177W.
Il TDP della 2900XT a quanto pare starà invece sui 200W circa.
Per cui stavolta penso ci potrebbero essere delle sorprese dal lato consumi (perlomeno non così alti per le ATI, come invece si dice oggi).
Paragonare test su test (a distanza), non è propriamente sensato, dato che ogni gioco può stressare un hw più o meno a seconda della logica e del chip/sistema preso in esame.
Se fai confronti diretti invece (come hwup) è già più veritiero, ma non hai cmq delle risposte complete sull'effettivo consumo dei chip in condizioni di carico massimo.
vicius80
04-05-2007, 12:46
Guarda, senza volere offendere ma da quello che hai scritto non mi pare tu ci capisca un granché di dissipatori....Sorvoliamo sul discorso della "copertura in plastica che fa caldo" (:doh: ), come possa uno zalman competere con un heatsink da 3 heatpipe come quello appena visto nell'immagine postata ce lo devi proprio spiegare.... :rolleyes:
Inoltre se avessi letto un po'in giro (ma anche solo qui sul forum, eh..) ti saresti accorto che sulle x1800/1900 l'accelero X2 si è rivelato più efficiente dello Zalman a parità di silenziosità e che lo stesso dissipatore stock è più performante se tenuto al massimo regime....
..quindi per favore, evitiamo sparate simili tanto per postare eh? ;)
CIaO
guarda io senza fare tanta teoria ti dico che l'ho provato personalmente sulla x1900. L'ho comprata col dissi stock e raggiungeva temperature troppo elevate, appena ho levato la coperta di plastica che a quanto pare a te piace molto:doh: mettendo lo zalman sono sceso di circa 10° in load e una 15° in full. come vedi dalla firma l'ho ancora montato quindi un motivo ci sarà.....io preferisco la pratica alla teoria.....by:)
Free Gordon
04-05-2007, 12:48
Consumerebbe poco meno di un intero PC in full con una 8800GTX :sofico:
Eh? :mbe:
Se guardi gli ultimi test di hwup, non pare proprio così.. :D
Free Gordon
04-05-2007, 12:49
(lo so che è difficile che sia a 1 Ghz, non rispondetemi in millemila!, ma una versione OC da 850 Mhz potrebbe essere...)
Io, se mai la prenderò, prenderò quella stock-frequency cmq. :D
L'unico confronto che possiamo fare, è sui TDP.
La GTX sta a 177W.
Il TDP della 2900XT a quanto pare starà invece sui 200W circa.
Per cui stavolta penso ci potrebbero essere delle sorprese dal lato consumi (perlomeno non così alti per le ATI, come invece si dice oggi).
Infatti. A questo proposito vorrei far notare come le Ultra, che hanno un TDP inferiore (seppur di poco) alle GTX, poi all'atto pratico consumino parecchio di più delle GTX (da quanto risulta dal test di HWUpgrade). Quindi per capirci qualcosa bisognerà aspettare comunque le recensioni ufficiali. :)
Free Gordon
04-05-2007, 12:51
Edit: io mi sono intestardito con Fast14... http://www.hardwareirc.com/news.php?ID=9366&PHPSESSID=becad187a...
Molto interessante.
Si sa nulla dell'effettiva implementazione di questa tecnologia in Xenos e in R600?
Bisognerebbe fare la domanda a chi sappiamo noi. :D
Ora lo "evoco" :asd: : ...se ci sei, batti un colpo!!! :sofico:
guarda io senza fare tanta teoria ti dico che l'ho provato personalmente sulla x1900. L'ho comprata col dissi stock e raggiungeva temperature troppo elevate, appena ho levato la coperta di plastica che a quanto pare a te piace molto:doh: mettendo lo zalman sono sceso di circa 10° in load e una 15° in full. come vedi dalla firma l'ho ancora montato quindi un motivo ci sarà.....io preferisco la pratica alla teoria.....by:)
Vabbé chiudo visto che si sta andando troppo OT comunque la "teoria" che tanto schifo ti fa ha un senso se si utilizza per progettare qualsiasi cosa, che sia un componente informatico od una struttura...In ogni caso dici di non giudicare in base a quello che non si conosce (in questo caso i consumi di R600) eppure sbandieri la superiorità dello Zalman sul nuovo dissipatore stock di cui non conosci minimamente le prestazioni....no comment
PS: le prove di cui ti ho parlato sono prove PRATICHE, fatti un giro di recensioni per la rete prima di venir qui a fare affermazioni fondate solo sulla tua soddisfazione di aver montato uno Zalman ok?
CIaO
Free Gordon
04-05-2007, 12:55
...comunque, se non sbaglio:
2*6 pin = max 75 watt
2*6 pin = max 75 watt
pci-ex = max 75 watt
Totale = max 225 watt
Quello però è il massimo erogabile, non il potenziale TDP che imho sarà sui 200W.
Apix_1024
04-05-2007, 13:02
Edit: io mi sono intestardito con Fast14... http://www.hardwareirc.com/news.php?ID=9366&PHPSESSID=becad187a...
forse questo spiega qualcosa:
questa feature sarebbe un colpo da maestro se fosse implementata in R600! da sbavo! reti logiche!!!:eek: :eek:
cmq fino al 14 dubito che si possa sapere molto di più:muro: :muro:
Foglia Morta
04-05-2007, 13:02
Molto interessante.
Si sa nulla dell'effettiva implementazione di questa tecnologia in Xenos e in R600?
Bisognerebbe fare la domanda a chi sappiamo noi. :D
Ora lo "evoco" :asd: : ...se ci sei, batti un colpo!!! :sofico:
hai la memoria corta :D
avevi partecipato anche tu a questa discussione: http://www.hwupgrade.it/forum/printthread.php?t=1036964&page=34&pp=20
praticamente aveva detto che in R600 sarebbe stata usata in modo massiccio.
Magari scaduto l' NDA ne sapremo di più :sperem:
Apix_1024
04-05-2007, 13:04
Quello però è il massimo erogabile, non il potenziale TDP che imho sarà sui 200W.
cmq se il massimo con 2x6pin +pci-e è di 225watt e la scheda sta già sui 200 che oc si può fare?? nulla!!!:muro: :muro: basta alzare il voltaggio di 0.1volt sul core e si va fuori!!!:doh: :doh:
DakmorNoland
04-05-2007, 13:06
cmq se il massimo con 2x6pin +pci-e è di 225watt e la scheda sta già sui 200 che oc si può fare?? nulla!!!:muro: :muro: basta alzare il voltaggio di 0.1volt sul core e si va fuori!!!:doh: :doh:
Ad overcloccare le schede video si guadagna quasi sempre pochissimo! Soprattutto le versioni top già tirate al limite.
Quindi il problema non si pone! Niente overclock, punto!
Free Gordon
04-05-2007, 13:06
ma sono arcisicuro,a vedere dalle varie pics postate fin'ora,che la distanza è la stessa delle X1xx
anche a me pare così.
Cmq c'è da considerare che il chip è DECISAMENTE più grosso che quello di r580.. :D per cui bisogna aspettare...
Free Gordon
04-05-2007, 13:09
hai la memoria corta :D
avevi partecipato anche tu a questa discussione: http://www.hwupgrade.it/forum/printthread.php?t=1036964&page=34&pp=20
praticamente aveva detto che in R600 sarebbe stata usata in modo massiccio.
Magari scaduto l' NDA ne sapremo di più :sperem:
Cassarola, i 30 si fanno sentire... :asd: sto perdendo colpi... :rotfl:
per cui in R600 sì e in Xenos no? (perdonami ma non ho riletto il link)
intanto lo stesso problema si è avuto con x1900 e x1950 e l'unica soluzione per diminuire le temperature era quella dello zalmino. anche questa volta ATI come anche NVIDIA hanno messo come la chiamo io una bella coperta in plastica (che fa calore solo quella) sopra tutta la scheda. E il ventolone veloce per quanto puo andare non dissiperà mai perfettamente.Se levi questa "copertina" e lasci tutto all'aperto mettendo il ventolone da 80 di zalman poi mi dici se le temperature sono uguali.....il fatto che spari l'aria calda nel case, non significa nulla, perchè se hai un case decente, pulito, con un buon riciclo d'aria il problema non si pone.....e poi aridaglie co sti 200sa...ANCORA NON SI SA NULLA:D
PS: Posso solo dare ragione a chi ha detto della garanzia....ma questo si sa....a tuo rischio e pericolo, è sempre stato cosi, poi chi preferisce un nuovo fornetto dentro il case buon per voi:D
:eek:
C'è un "dissipatorino" che si chiama HR-03 che tiene passiva la XTX
Ora ce n'è uno nuovo, che si chiama HR-03 plus che tiene passive (o quasi) le 8800GTX :eek:
L'unico dissi ad aria che può provare a dissipare 200W è il thermalright HR-03 plus (ovviamente ci vorrà una ventola da 92mm perchè in passivo è improponibile, la GTX è già al limite)
Purtroppo righello alla mano sembrerebbe non essere montabile su R600 a causa del geniaccio :muro: che ha montato la GPU troppo vicina alla staffa della scheda (maledetto il vino :hic: )
TecnoWorld8
04-05-2007, 13:11
Anche se rivelasse falso? Scritto così' sembra quasi una minaccia :mbe:
Io ho anche scritto che la verità assoluta non ce l'ha nessuno, nemmeno io. In giro ci sono molti rumors e molte fonti diverse, nessuno sa se quelle da cui attingo io o se quelle da cui attingono gli altri siano vere o false. Infatti ho detto staremo a vedere dopo la presentazioe ufficiale, così capiremo la verità. Inutile continuare a farsi seghe mentali sulle prestazioni di questa scheda. ok. ;)
ci mancherebbe che fosse stata una minaccia :) scusa se era parsa tale..
dicevo solo che dicevi le cose con una tal sicurezza da sembrare che tu avessi la scheda in mano o quasi. Se invece nemmeno tu hai sicurezze, dico solo che forse avresti dovuto farlo capire più chiaramente, anzichè fare il misterioso ;)
ora cmq è tutto chiarito. Ne sai quanto noi :)
Apix_1024
04-05-2007, 13:11
Ad overcloccare le schede video si guadagna quasi sempre pochissimo! Soprattutto le versioni top già tirate al limite.
Quindi il problema non si pone! Niente overclock, punto!
è vero anche quello... però la voglia di tirarla su rimane, almeno a me...:D :D
gianni1879
04-05-2007, 13:11
guarda io senza fare tanta teoria ti dico che l'ho provato personalmente sulla x1900. L'ho comprata col dissi stock e raggiungeva temperature troppo elevate, appena ho levato la coperta di plastica che a quanto pare a te piace molto:doh: mettendo lo zalman sono sceso di circa 10° in load e una 15° in full. come vedi dalla firma l'ho ancora montato quindi un motivo ci sarà.....io preferisco la pratica alla teoria.....by:)
scusate per OT ma devo metterlo in risposta click (http://www.xtremehardware.it/forum/f14/guida_ridurre_il_consumo_e_o_il_calore_prodotto_dalle_x1900series-1717/)
dalle mie esperienze ti posso dire che lo stock (anche con semplici modifiche) va molto meglio dello Zalman ;)
Free Gordon
04-05-2007, 13:13
Ad overcloccare le schede video si guadagna quasi sempre pochissimo!
Nel caso di R600 potrebbe essere quanto mai errata questa cosa.. :ciapet:
ps.
Cmq anche io, per i giochi, non le tengo cloccate le VGA. ;)
DakmorNoland
04-05-2007, 13:15
Nel caso di R600 potrebbe essere quanto mai errata questa cosa.. :ciapet:
ps.
Cmq anche io, per i giochi, non le tengo cloccate le VGA. ;)
Sì ma quando ti arriva la prima bolletta con la scheda in overclock, vedi che poi ti passa la voglia! :D
Questo dissi della 8800 ULTRA OC, non assomiglia a quello visto in una fiera che era hand-made e dedicato a R600 ?
http://www.hwupgrade.it/news/skvideo/geforce-8800-ultra-overcloccata-da-sparkle_21046.html
Foglia Morta
04-05-2007, 13:21
Cassarola, i 30 si fanno sentire... :asd: sto perdendo colpi... :rotfl:
per cui in R600 sì e in Xenos no? (perdonami ma non ho riletto il link)
Per R600 penso di si , per Xenos direi di no... era andato in tape out nei primi mesi del 2005 , intuitivamente tempi troppo ristretti , poi non posso saperlo ( in quel thread non lo dice )
Foglia Morta
04-05-2007, 13:22
Questo dissi della 8800 ULTRA OC, non assomiglia a quello visto in una fiera che era hand-made e dedicato a R600 ?
http://www.hwupgrade.it/news/skvideo/geforce-8800-ultra-overcloccata-da-sparkle_21046.html
quel dissi è stato usato per la prima volta da gecube per non mi ricordo quale gpu ( forse RV570 )
yossarian
04-05-2007, 13:24
IMHO probabilmente ci vorranno ancora parecchi mesi per avere drivers ottimizzati per le DX9 su R600.
Soprattutto se l'architettura è organizzata su 4-4-4-5 anzichè 8-2-8 come G80 (Yoss, tu avevi detto 8-4-4 ma secondo Rys nell'analisi di B3D ogni cluster da 16 SP è organizzato come un 2x8 anzichè 4x4).
ha ragione; in questo caso i conti tornano con il filtraggio trilineare in un solo ciclo (l'organizzazione delle 4 tmu sarebbe di tipo 2x2 e non 1x4, con 2 filtraggi bilineari e un'interpolazione in un ciclo)
scusate per OT ma devo metterlo in risposta click (http://www.xtremehardware.it/forum/f14/guida_ridurre_il_consumo_e_o_il_calore_prodotto_dalle_x1900series-1717/)
dalle mie esperienze ti posso dire che lo stock (anche con semplici modifiche) va molto meglio dello Zalman ;)
anche l'acceleroX2 spesso lo è LINK (http://www.hwupgrade.it/forum/showthread.php?t=1424464).comunque non per niente si è assistito ad una proliferazione di soluzioni a liquido di serie integrate sulle vga, si parla di quantità ingenti di calore da dissipare! a me il dissipatore della HD290xt ricorda vagamente quello della 780gtx
Questo dissi della 8800 ULTRA OC, non assomiglia a quello visto in una fiera che era hand-made e dedicato a R600 ?
http://www.hwupgrade.it/news/skvideo/geforce-8800-ultra-overcloccata-da-sparkle_21046.html
ma nooo..pure la peltier sotto i dissi ad aria?
deve scaldare tantino sta ultra
Eh? :mbe:
Se guardi gli ultimi test di hwup, non pare proprio così.. :D
Quelli sono fatti con un 680i che da solo consuma quasi 80W :eek:
Comunque un C2D con una GTX su 965 consuma poco più di 200W (max 220-230) + il consumo dell'ali che porta il tutto ad un valore leggermente inferiore ai 300W. (quello che vedi anche nei test di HU dove si usa un qualsiasi chipset che non sia un nVidia :D )
Quando si parla di consumo delle schede video si parla sempre di consumo in uscita dall'ali non dalla rete ;) (come i famosi 115-145.5W delle GTX)
200W dall'ali sono oltre 250W dalla rete, molto simile al PC che ho descritto sopra.
La differenza non sarebbe superiore a qualche decina di Watt :eek: :eek:
Personalemte trovo la cosa scandalosa (sempre che sia tutto vero)
ma nooo..pure la peltier sotto i dissi ad aria?
deve scaldare tantino sta ultra
Le sparkle calibre hanno sempre usato dissipatori con TEC (pure con le GTS e le GTX)
L'ultra e R600 non hanno bisogno di nessuna TEC, che per la cronaca aggiungono qualche decina di Watt a quelli che ci mettono già le schede video (e sono tanti)
Le celle peltier sulle GPU sono cose da utonti. :muro: , inutili all'inverosimile, infatti le varie sparkle con TEC si occano come tutte le altre schede, l'unica differenza è che consumano molto di più, fanno più rumore ma hanno le temperature del die un pò più basse (cosa peraltro inutile :mc: )
Ci manca pure una HD2900XT con una TEC e siamo apposto :D (in bundle verrà dato un estintore omologato RINA :sofico: )
hai la memoria corta :D
avevi partecipato anche tu a questa discussione: http://www.hwupgrade.it/forum/printthread.php?t=1036964&page=34&pp=20
praticamente aveva detto che in R600 sarebbe stata usata in modo massiccio.
Magari scaduto l' NDA ne sapremo di più :sperem:
Ma la tecnologia Fast14 non è solo per chip RISC? Ed R600 non è invece VLIW? :confused:
ale0bello0pr
04-05-2007, 13:49
Originariamente inviato da Sampsa
I will stick with NDA unlike some other people who attended Tunis event and already posted pretty much all the details of the card. There are also quite alot false information floating around the internet regarding Radeon HD 2900 XT.. main source is one particular site which is not so hard to guess.
Anyway, there is actually quite alot overclocking headroom in R600 GPU and AMD GPU Clock Tool seems to be working just fine. I had a problem with Powerstrip beta-version which was limited to driver's limits. Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week.
PS. 1000/1000 MHz clock speeds at techPowerUp!'s screenshot are pretty modest [...]I have Enermax Galaxy PSU with all necessary PCIe connectors (6 pin and 8 pin)
IMHO penso che il caro buon vecchio Sampas si stia riferendo a un certo FUDZILLA e ai vari Dailytech :blah:;)
Kharonte85
04-05-2007, 13:51
IMHO penso che il caro buon vecchio Sampras si stia riferendo a un certoi FUDZILLA;)
:asd: se si riferisce solo a quello significa che invece i test di daylitech sono veri? :D
Le sparkle calibre hanno sempre usato dissipatori con TEC (pure con le GTS e le GTX)
L'ultra e R600 non hanno bisogno di nessuna TEC, che per la cronaca aggiungono qualche decina di Watt a quelli che ci mettono già le schede video (e sono tanti)
Le celle peltier sulle GPU sono cose da utonti. :muro: , inutili all'inverosimile, infatti le varie sparkle con TEC si occano come tutte le altre schede, l'unica differenza è che consumano molto di più, fanno più rumore ma hanno le temperature del die un pò più basse (cosa peraltro inutile :mc: )
Ci manca pure una HD2900XT con una TEC e siamo apposto :D (in bundle verrà dato un estintore omologato RINA :sofico: )
appunto..già le ati pappano watt di suo..immaginate con le peltier su :asd:
ale0bello0pr
04-05-2007, 13:58
:asd: se si riferisce solo a quello significa che invece i test di daylitech sono veri? :D
parla di vari siti, specialmente uno :D la faccia tosta che hanno e che però le foto vere della schedozza le mettono...ovviamente per rendere piu' credibile la cosa....:D
Foglia Morta
04-05-2007, 14:02
Ma la tecnologia Fast14 non è solo per chip RISC? Ed R600 non è invece VLIW? :confused:
non lo so... non devi chiederlo a me :mc: , comunque da quel che è stato detto probabilmente c'entra con R600 , aspettiamo il 14
...questa è la cosa che più m'ha lasciato :eek: . Sampsa dice:
Anyway, there is actually quite alot overclocking headroom in R600 GPU and AMD GPU Clock Tool seems to be working just fine.
Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week.
PS. 1000/1000 MHz clock speeds at techPowerUp!'s screenshot are pretty modest
...va bene che lui è forse il miglior overclockers del mondo, però...1000 Mhz are pretty modest!?! sti ca**i.
Free Gordon
04-05-2007, 14:07
L'unico dissi ad aria che può provare a dissipare 200W è il thermalright HR-03 plus (ovviamente ci vorrà una ventola da 92mm perchè in passivo è improponibile, la GTX è già al limite)
R600 consumerebbe 200W, ma questo valore non è direttamente proporzionale a quanto potrebbe scaldare il chip. ;)
Perchè una parte della potenza se ne va sempre in calore ma la percentuale di potenza che va in calore è differente da chip a chip.
...va bene che lui è forse il miglior overclockers del mondo, però...1000 Mhz are pretty modest!?! sti ca**i.
ha incuriosito anche me quell'affermazione..
Foglia Morta
04-05-2007, 14:09
...questa è la cosa che più m'ha lasciato :eek: .
Sampsa dice: Anyway, there is actually quite alot overclocking headroom in R600 GPU and AMD GPU Clock Tool seems to be working just fine.
Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week.
PS. 1000/1000 MHz clock speeds at techPowerUp!'s screenshot are pretty modest
...va bene che lui è forse il miglior overclockers del mondo, però...1000 Mhz are pretty modest!?! sti ca**i.
come immaginavo qui http://www.hwupgrade.it/forum/showpost.php?p=16985338&postcount=5290 :D , un fondo di verità imho c'è
http://img503.imageshack.us/img503/7011/icannotcommentonunannouyl7.jpg
ale0bello0pr
04-05-2007, 14:11
appunto ;) con queste schede magari chiunque può essere un ottimo overclocker? :D
e quindi ....kissà ke OC raggiungono come top del top...:eek:
-10 :D e intanto si tiene d'occhio il suo blog e thread in extremeoverclocking :D
e ancora....:O
non è ke per caso ...la XTX non è stata lanciata,....xkè la XT col costo che ha....arriva ad una XTX in OC come frequenze??:rolleyes:
:sofico:
non penso ke le differenze tra xt e xtx siano solo nelle freq
Free Gordon
04-05-2007, 14:22
Quelli sono fatti con un 680i che da solo consuma quasi 80W :eek:
Comunque un C2D con una GTX su 965 consuma poco più di 200W (max 220-230) + il consumo dell'ali che porta il tutto ad un valore leggermente inferiore ai 300W. (quello che vedi anche nei test di HU dove si usa un qualsiasi chipset che non sia un nVidia :D )
Il 965 quanto consumerebbe in meno di un 680i?
Quando si parla di consumo delle schede video si parla sempre di consumo in uscita dall'ali non dalla rete ;) (come i famosi 115-145.5W delle GTX)
200W dall'ali sono oltre 250W dalla rete, molto simile al PC che ho descritto sopra. La differenza non sarebbe superiore a qualche decina di Watt :eek: :eek:
Personalemte trovo la cosa scandalosa (sempre che sia tutto vero)
Non ho capito cosa trovi scandaloso.. :p spiegamelo.
relo@ded
04-05-2007, 14:24
josha puoi scrivere quello che ti pare, ma se continui a tenere quell'avatar nessuno ti ascolta
josha puoi scrivere quello che ti pare, ma se continui a tenere quell'avatar nessuno ti ascolta
ci provo a cambiarlo ma non ci riesco :sofico:
dalla foto poco sopra vedo ke la vga ha 2 connettori 4 pin da 12v.non si sa se ha bisogno di 22Ampere per canale vero?
Free Gordon
04-05-2007, 14:30
Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week.
Questo potrebbe anche voler dire che i risultati in OC visti in precedenza (il famoso Ghz) son fatti ad aria/liquido??? :oink: :oink: :oink:
ale0bello0pr
04-05-2007, 14:33
Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week.
Questo potrebbe anche voler dire che i risultati in OC visti in precedenza (il famoso Ghz) son fatti ad aria/liquido??? :oink: :oink: :oink:
ad aria....non è ancora stato fatto un sistema a liquido..e quindi immaginiamoci cosa ne uscirà in Watercooling.... già me lo vedo Kingpin con l'azoto...e le nuove R600:asd:
Portocala
04-05-2007, 14:36
josha puoi scrivere quello che ti pare, ma se continui a tenere quell'avatar nessuno ti ascolta
ci provo a cambiarlo ma non ci riesco :sofico:
dalla foto poco sopra vedo ke la vga ha 2 connettori 4 pin da 12v.non si sa se ha bisogno di 22Ampere per canale vero?
:asd: NESSUNO ha detto di cambiarlo. Per me se lo ingrandisci un pochino è meglio.
quindi è confermato il posticipo delle 2600? (giusto per non essere OT)
josha puoi scrivere quello che ti pare, ma se continui a tenere quell'avatar nessuno ti ascolta
Assolutamente!... :O ( ahhhh... Keyraaaa.... sbavaaaaz!!! :sbav: )
appleroof
04-05-2007, 14:37
Interessante.
Pare che le 8800 necessitino almeno di un 8x in generale, mentre alle 1950 basta un 4x (in quei due giochi analizzati).
Nel professionale invece, la situazione pare molto simile e necessita di ALMENO un 8x per tutte e due.
I motivi sono da ricercarsi nei driver dei due produttori, a mio modo di pensare. Probabilmente i driver nVidia stressano di più la CPU rispetto a quelli ATI. Perlomeno parrebbe così, in base al livello di utilizzo dell'unico bus di comunicazione fra CPU e GPU...
Oppure sono proprio le 8800 che necessitano di più input, per stabilire ciò però bisognerebbe fare la stessa prova con le 7900.
Anche a me interessa molto, finalmente il pci-ex 16x serve a qualcosa (infatti gia passano al pci ex 2.0 :doh: ) e poi anche perchè (ma è una cosa che riguarda solo me :D ) ho il bus a 8x quando non va in sli quindi c'è ulteriore margine quando cambierò sistema per la mia scheda...:D
Per un'azienda con un fatturato da milioni di euro? Scherzi? E' la cosa basilare!
Si è una cosa basilare ma non l'unica, in quanto "strategia" può essere cambiata se non stravolta (nel bene e nel male) da eventi più o meno imprevisti (e se fatta bene si adegua subito :) )
Davvero (fin) troppo esagerata. Stiamo sempre parlando dei due ormai canonici slot, ma pesera' un chilo. :eek:
Rispetto alle reference images viste finora sembrava meno complesso il sistema di raffreddamento. E quel ventolone da 2.0A per 12V gia' mi fa pensare.
Ricordo i primi rumors di quest'inverno che parlavano di dissi "mostruoso" (vabbè i rumors devono fare sensazione, anche) per la retail, collegati a calore/potenza di R600....
in parte si; d'altro canto, il SW attuale è pensato per architetture tradizionali (shader non particolarmente complessi e mancanza di ottimizzazioni per codice dx10). In questa situazione è più difficile ottimizzare il lavoro di un chip che presenta un approccio meno "classico".
Quindi si potrebbe dire che Nvidia abbia fatto una scheda più di "transizione" rispetto ad Ati....questo mi suggerisce una nuova lettura del ritardo Ati....
esatto, l'hype montato dalle case e dagli utenti, da diversi anni ormai riveste un ruolo a dir poco fondamentale per il mercato.
e dal momento che per antonomasia esso si fonda su notizie senza fondamento e non verificabili, maggiormente queste ultime ricalcano tale tipologia, maggiormente l'hype aumenta.
se ATi avesse già tirato giù tutte le carte, anche se per ipotesi R600 andasse "il doppio" di G80, secondo me non ne ricaverebbe gli stessi benefici rispetto al "lasciar circolare" rumors di tutti i tipi.
Quoto
Vabbé chiudo visto che si sta andando troppo OT comunque la "teoria" che tanto schifo ti fa ha un senso se si utilizza per progettare qualsiasi cosa, che sia un componente informatico od una struttura...In ogni caso dici di non giudicare in base a quello che non si conosce (in questo caso i consumi di R600) eppure sbandieri la superiorità dello Zalman sul nuovo dissipatore stock di cui non conosci minimamente le prestazioni....no comment
PS: le prove di cui ti ho parlato sono prove PRATICHE, fatti un giro di recensioni per la rete prima di venir qui a fare affermazioni fondate solo sulla tua soddisfazione di aver montato uno Zalman ok?
CIaO
E ariquoto ;)
p.s.:ammazza quanto scrivete, stare dietro a sto tread è nà fatica :asd: :asd:
appleroof
04-05-2007, 14:38
josha puoi scrivere quello che ti pare, ma se continui a tenere quell'avatar nessuno ti ascolta
Straquoto!!! :sofico: (il miglior :ciapet: che abbia mai visto...:read: ) :D
Il 965 quanto consumerebbe in meno di un 680i?
20-30W in idle :eek:
30-50W in full
Rispetto a 965/975
Non ho capito cosa trovi scandaloso.. :p spiegamelo.
Che una scheda video consumi quasi come un intero PC con dentro una scheda video che sarà probabilmete più potente, piu che scandaloso lo trovo "grottesco" :)
Spero in consumi reali intorno ai 150W altrimenti, per me, R600 può starsene sugli scaffali a fare polvere.
http://img503.imageshack.us/img503/7011/icannotcommentonunannouyl7.jpg
2 connettori da 6 pin? X2900XL? :)
bYeZ!
Quindi si potrebbe dire che Nvidia abbia fatto una scheda più di "transizione" rispetto ad Ati....questo mi suggerisce una nuova lettura del ritardo Ati....
ottima osservazione :)
bYeZ!
2 connettori da 6 pin? X2900XL? :)
bYeZ!
a me sembra uno da 6 e uno da 8..:mbe:
leoneazzurro
04-05-2007, 14:56
20-30W in idle :eek:
30-50W in full
Rispetto a 965/975
Che una scheda video consumi quasi come un intero PC con dentro una scheda video che sarà probabilmete più potente, piu che scandaloso lo trovo "grottesco" :)
Spero in consumi reali intorno ai 150W altrimenti, per me, R600 può starsene sugli scaffali a fare polvere.
Ehm.. c'è un errore di fondo nei tuoi calcoli. Un PC con 8800 GTX consuma i ben più di 200W (a meno che tu non stia facendo confronti tra PC+8800 in idle con 2900XT in full)...
http://www.hwupgrade.it/articoli/skvideo/1714/nvidia-geforce-8800-ultra_12.html
Se anche la XT consumasse 50W in più della 8800 GTX, le proporzioni non sarebbero quelle da te presentate.
a me sembra uno da 6 e uno da 8..:mbe:
cazz sò cecato :mbe: grazie wil :stordita:
@belin edita quella foto, è peggio di un'illusione ottica :asd:
bYeZ!
2 connettori da 6 pin? X2900XL? :)
bYeZ!
:confused:
Io ne conto uno da 8 e uno da 6.. :stordita:
Fudzilla ritratta - 2 :asd:
€80 PSU enough for 2900XT
Our sources confirmed that the Radeon HD 2900 XT works great with a Silverstone element 500W. This PSU has two power rails and each can provide 18 Amps. So this should be enough and the card works well under these conditions.
This PSU has two separate rails for the graphic card and it is doing the job well and it can power the Core 2 Duo system at the same time.
The good news is that at least in Germany this PSU costs under €80. You can buy it here.
But for Crossfire you need 750W+.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=830&Itemid=34
Se non altro ogni tanto postano qualche foto carina...
http://www.fudzilla.com/images/stories/2007/May/graphics/radeon_hd2400.jpg
This is what the Radeon HD 2400 card looks like. The card based on ATI's RV610 low end chip and uses 64 bit memory only. The memory on the card will work from 400 to 800 MHz, while the card has 4 Texture memory units and four render backbends.
The chip itself will be clocked between 525 MHz and 700 MHz, depending on the version of the card. Of course it will cost below $ 99, it will be introduced at Computex and available a few weeks after.
This is how it looks, the good news is that the card supports hardware Crossfire and that it looks small. We wonder where is the rest of it.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=832&Itemid=34
Purtroppo anche della xl nessuna news, per me i 430-450 per la 2900xt son troppi.
Free Gordon
04-05-2007, 15:02
Spero in consumi reali intorno ai 150W altrimenti, per me, R600 può starsene sugli scaffali a fare polvere.
Ah, allora avevo capito. :D
Ma da che cosa lo deduci che consumerà come un sistema intero + 8800GTX?
SE il TDP della GTX è 177W e quello della 2900XT sarà 200W (al di là di quelli che saranno i consumi effettivi), come farà il resto del sistema (CPU+mobo+ram+hd ecc) a consumare soli 23W in più? (dato che tu dici che 2900XT da sola = sistema + 8800GTX).
Ma mettiamo anche che non siano 23, ma 40 i Watt (TDP) che separano 8800 e 2900... come farà a consumare anche soli 40W in più un qualsiasi sistema moderno, in load? :D
ale0bello0pr
04-05-2007, 15:02
Fudzilla ritratta - 2 :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=830&Itemid=34
Se non altro ogni tanto postano qualche foto carina...
http://www.fudzilla.com/images/stories/2007/May/graphics/radeon_hd2400.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=832&Itemid=34
Ma infatti per le foto sono fra i migliori come scelta....per il contenuto delle info e che mi pare abbiano battuto The Inquirer:O
per fare un esempio è come dire
Prodi > Il Corriere della Sera > Berlusconi
Berlusconi > Unita' > Prodi
:fagiano:
2 connettori da 6 pin? X2900XL? :)
bYeZ!
...veramente a me sembrano uno da 6 ed uno da 8...
edit: neanche il tempo di rispondere...t'han dato proprio addosso ati7500.. :asd:
CIaO
Ma infatti per le foto sono fra i migliori come scelta....per il contenuto delle info e che mi pare abbiano battuto The Inquirer:O
Quanto siano inaffidabili si nota da piccole cose, tipo nell'articolo che ho postato "But for Crossfire you need 750W+"... E grazie al ca... direi io. :asd: :sofico:
Fudzilla ritratta - 2 :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=830&Itemid=34
...è la stessa cosa che ho scritto io qualche pagina fa. Fuad è veramente un incapace. O meglio, è capacissimo a raccogliere pubblicità, ma per il resto...:rolleyes:
bluefrog
04-05-2007, 15:11
This is how it looks, the good news is that the card supports hardware Crossfire and that it looks small. We wonder where is the rest of it.
:sbonk:
Ma infatti per le foto sono fra i migliori come scelta....per il contenuto delle info e che mi pare abbiano battuto The Inquirer:O
...comunque vorrei spezzare una lancia a favore di TheInq. Da quando Fuad se n'è andato (o l'hanno cacciato?! :asd: ) le cavolate su TheInq sono diventate molte meno. E quest'anno stanno pure rispettando l'NDA di R600. Notevole, se pensiamo a com'erano solo un anno fa.
:)
Dal forum di guru3d:
http://benchmark.co.yu/news/2007-05/3/HIS01.png
http://benchmark.co.yu/news/2007-05/3/HIS02.png
http://benchmark.co.yu/news/2007-05/3/HIS03.png
Mi scuso nel caso che qualcuno l'avesse giá postata,
Ehm.. c'è un errore di fondo nei tuoi calcoli. Un PC con 8800 GTX consuma i ben più di 200W (a meno che tu non stia facendo confronti tra PC+8800 in idle con 2900XT in full)...
http://www.hwupgrade.it/articoli/skvideo/1714/nvidia-geforce-8800-ultra_12.html
Se anche la XT consumasse 50W in più della 8800 GTX, le proporzioni non sarebbero quelle da te presentate.
Ho già spiegato nel post precedente che mi riferisco alla potenza in uscita dall'ali e non dalla rete elettrica.
Faccio l'esempio perchè sei Mod e mi banni :D (faccio i due casi)
1) efficienza dell'ali del 70% (valore realistico, visto l'ali del cavolo usato nel test) 348W*0.7 - 40W = 203.6
2) efficienza dell'ali dell'80% (super-ali) 348W*0.8 -40W = 238.4
Più o meno i conti tornano con quelli che ho scritto. (a dire il vero sono perfetti :sofico: )
Ripeto che "consumi" e TDP delle gpu (o cpu o qualsiasi altra cosa) è sempre riferita a quella in uscita dall'ali.
Per la cronaca una GTX che consuma 145W in realtà ne paghiamo più di 200 all'ENEL :eek: (145/0.7)
Fatevi voi il conto di R600 che io ho paura.
cazz sò cecato :mbe: grazie wil :stordita:
@belin edita quella foto, è peggio di un'illusione ottica :asd:
bYeZ!
mi riquoto prima che mi bombardino la casa :asd:
bYeZ!
appleroof
04-05-2007, 15:17
ottima osservazione :)
bYeZ!
Aspetta :asd: :asd:
diciamo che se Ati (seguendo quello che dice yossaran) ha progettato una struttura più complessa (leggi più adatta alle dx10) capisco che questo abbia influito sulla presentazione sul mercato, accanto ad altri fattori
però mi fà pensare alle "scuse" ufficiali che facevano riferimento al fatto "che si aspettavano applicazioni dx10" per far uscire la nuova gamma: che sia una conferma che loro sapevano che, per sua natura, il nuovo chip sarebbe andato peggio in dx9 di G80? (questo tra l'altro farebbe il paio con i bench ufficiosi che circolano in rete)
tutto ciò non toglie che secondo me G80 non abbia da mostrare più niente, in dx10, anzi
ale0bello0pr
04-05-2007, 15:19
...comunque vorrei spezzare una lancia a favore di TheInq. Da quando Fuad se n'è andato (o l'hanno cacciato?! :asd: ) le cavolate su TheInq sono diventate molte meno. E quest'anno stanno pure rispettando l'NDA di R600. Notevole, se pensiamo a com'erano solo un anno fa.
:)
Eh si Fuad si è preso il trono di CIARLATAN IT Site :D o cmq ripeto.... PRO-Nvidia IT Site ... Non so voi ma leggendo attentamente gli ultimi articoli di AMD.... snobbano quasi ogni cosa che fanno e li definiscono mediocri etc...... smentitemi se nn è vero... ;)
appleroof
04-05-2007, 15:20
Dal forum di guru3d:
cut
Mi scuso nel caso che qualcuno l'avesse giá postata,
per quello che vale, nessun riferimento alle dx10.1
Poliphilo
04-05-2007, 15:22
esatto, l'hype montato dalle case e dagli utenti, da diversi anni ormai riveste un ruolo a dir poco fondamentale per il mercato.
e dal momento che per antonomasia esso si fonda su notizie senza fondamento e non verificabili, maggiormente queste ultime ricalcano tale tipologia, maggiormente l'hype aumenta.
se ATi avesse già tirato giù tutte le carte, anche se per ipotesi R600 andasse "il doppio" di G80, secondo me non ne ricaverebbe gli stessi benefici rispetto al "lasciar circolare" rumors di tutti i tipi.
E' proprio quello che dico io da un po'. :)
bluefrog
04-05-2007, 15:22
quel buffone evidentemente sarà stato pagato da "qualcuno"... altrimenti cosa ne guadagnerebbe a dare contro l'una o l'altra azienda? ;)
bluefrog edita l'offesa all'istante.
Dal forum di guru3d:
http://benchmark.co.yu/news/2007-05/3/HIS01.png
http://benchmark.co.yu/news/2007-05/3/HIS02.png
http://benchmark.co.yu/news/2007-05/3/HIS03.png
Mi scuso nel caso che qualcuno l'avesse giá postata,
...già postate, ma va bene lo stesso...sono sempre belle a vedersi. :)
Da queste immagini direi che la Sapphire vista qualche pagina fa si conferma al 90% come una versione "speciale". Io direi overcloccata...
:fiufiu:
Aspetta :asd: :asd:
diciamo che se Ati (seguendo quello che dice yossaran) ha progettato una struttura più complessa (leggi più adatta alle dx10) capisco che questo abbia influito sulla presentazione sul mercato, accanto ad altri fattori
però mi fà pensare alle "scuse" ufficiali che facevano riferimento al fatto "che si aspettavano applicazioni dx10" per far uscire la nuova gamma: che sia una conferma che loro sapevano che, per sua natura, il nuovo chip sarebbe andato peggio in dx9 di G80? (questo tra l'altro farebbe il paio con i bench ufficiosi che circolano in rete)
tutto ciò non toglie che secondo me G80 non abbia da mostrare più niente, in dx10, anzi
ma infatti io comincio a credere che le potenzialitá di R600 non si vedranno in ambito Dx9 (almeno coi titoli attuali); credo piuttosto che ATi si sia "portata avanti" come e' solita fare, da R600 in poi le serviranno piccoli refresh per stare al passo con nVidia, visto che il chip in questione e' in progetto da anni (basti pensare che la prima bozza venne chiamata R400, chip mai uscito sul mercato) e che il vantaggio architetturale dipendera' esclusivamente dalla strada che i programmatori di VG imboccheranno.
A questo punto sono molto curioso delle prestazioni di G80 in Dx10: chiedo a yoss, possono due chip "filosoficamente" diversi, fornire prestazioni simili nel panorama Directx10, considerate le informazioni sull'architettura di cui siamo tutti (chi piu chi meno) in possesso?
bYeZ!
appleroof
04-05-2007, 15:26
:fiufiu:
Stai pensando ai post di ieri sera eh? :asd: :asd: Ti sono rimasti impressi, di la verità...:D :sofico:
fenicered
04-05-2007, 15:26
Dal forum di guru3d:
quindi per la xt è confermato 80 micro
leoneazzurro
04-05-2007, 15:27
Ho già spiegato nel post precedente che mi riferisco alla potenza in uscita dall'ali e non dalla rete elettrica.
Faccio l'esempio perchè sei Mod e mi banni :D (faccio i due casi)
1) efficienza dell'ali del 70% (valore realistico, visto l'ali del cavolo usato nel test) 348W*0.7 - 40W = 203.6
2) efficienza dell'ali dell'80% (super-ali) 348W*0.8 -40W = 238.4
Più o meno i conti tornano con quelli che ho scritto. (a dire il vero sono perfetti :sofico: )
Ripeto che "consumi" e TDP delle gpu (o cpu o qualsiasi altra cosa) è sempre riferita a quella in uscita dall'ali.
Per la cronaca una GTX che consuma 145W in realtà ne paghiamo più di 200 all'ENEL :eek: (145/0.7)
Fatevi voi il conto di R600 che io ho paura.
Ehm.. quelli che ho postato io sono già i dati presi a monte dell'alimentatore, quindi l'efficenza dell'alimentatore è inclusa. Anche considerando l'efficenza dell'alimentatore a 0.7 (PS: è bassa)e 50W la differenza di potenza alla scheda, avremmo a monte dell'alimentatore 50/0.7=circa 70W di differenza. Tu hai detto che R600 è una scheda che da sola consuma più di un sistema con la 8800. Ora la 8800 GTX consuma -in media in full- più del doppio di questo valore da sola. Un sistema high-end con 8800 consuma 300+W da solo. Un sistema con R600 e i medesimi componenti consumerà 370+W. A meno che tu non voglia dire semplicemente che R600 consuma di più, ma credo che a quello ci siamo arrivati bene o male tutti.
PS: OK, ho capito quello che intendi, ma comunque il tuo calcolo si basa sul fatto che il sistema CPU+MB+RAM consumi MENO della differenza tra 8800 e R600. Beh, 50-60W sono pochini per un sistema high end in full, forse con delle piattaforme a basso consumo potrebbe anche essere, ma non credo nessuno metterebbe una scheda high-end con una piattaforma EPIA.
appleroof
04-05-2007, 15:30
ma infatti io comincio a credere che le potenzialitá di R600 non si vedranno in ambito Dx9 (almeno coi titoli attuali); credo piuttosto che ATi si sia "portata avanti" come e' solita fare, da R600 in poi le serviranno piccoli refresh per stare al passo con nVidia, visto che il chip in questione e' in progetto da anni (basti pensare che la prima bozza venne chiamata R400, chip mai uscito sul mercato) e che il vantaggio architetturale dipendera' esclusivamente dalla strada che i programmatori di VG imboccheranno.
Bè anche G80 non penso sia stato in progettato in un mese...:D
A questo punto sono molto curioso delle prestazioni di G80 in Dx10: chiedo a yoss, possono due chip "filosoficamente" diversi, fornire prestazioni simili nel panorama Directx10, considerate le informazioni sull'architettura di cui siamo tutti (chi piu chi meno) in possesso?
bYeZ!
Secondo me (chiaramente non mi voglio sostituire a yossaran :D :D ) la differenza se c'è (intendo dire se c'è in maniera forte) verrà fuori con giochi full dx10 (e già ci sono le dx10.1 alle porte....), per cui molto probabilmente (se le mie speculazioni fatte finora sono esatte) chi come me ha una GTX fà in tempo a cambiare scheda dopo aver sfruttato appieno questa (insomma, almeno metà 2008)
Kharonte85
04-05-2007, 15:31
Se non altro ogni tanto postano qualche foto carina...
http://www.fudzilla.com/images/stories/2007/May/graphics/radeon_hd2400.jpg
:mbe: non posso crederci... :rotfl:
Cmq il bus a 64 bit è scandaloso...ma vabbe'...:stordita:
Questo è quello che dice Corsini della questione dx9 - dx10
http://www.hwupgrade.it/forum/showpost.php?p=16963712&postcount=95
Fino a che non ci sara' un game dx10 non di parte non sapremo...
appleroof
04-05-2007, 15:34
quel buffone evidentemente sarà stato pagato da "qualcuno"... altrimenti cosa ne guadagnerebbe a dare contro l'una o l'altra azienda? ;)
A bè da :oink: a buffone, lo hai proprio graziato eh? :D :D
Bè anche G80 non penso sia stato in progettato in un mese...:D
beh certo, quello che intendevo io è che ATi si è programmata da un bel pò di anni uno stravolgimento delle architetture a cui siamo abituati, e ha potuto effettuarlo solo ora (e usando come "ponte" R5x0) per il progressivo superamento di limiti tecnologici. Altresì mi è sembrato di capire che G80 è dotato di un'architettura di stampo ancora abbastanza "classico". Insomma, nVidia il "grande passo" secondo me lo deve ancora compiere, anche se nell'immediato le sue scelte pagano (storicamente direi) più di quelle di ATi.
Secondo me (chiaramente non mi voglio sostituire a yossaran :D :D ) la differenza se c'è (intendo dire se c'è in maniera forte) verrà fuori con giochi full dx10 (e già ci sono le dx10.1 alle porte....), per cui molto probabilmente (se le mie speculazioni fatte finora sono esatte) chi come me ha una GTX fà in tempo a cambiare scheda dopo aver sfruttato appieno questa (insomma, almeno metà 2008)
insomma convieni col fatto che l'appellativo Dx10 per G80 sia solo uno specchietto per le allodole? cioè che il "bonus" Dx10 in realtà non valga molto?
bYeZ!
bluefrog
04-05-2007, 15:37
A bè da :oink: a buffone, lo hai proprio graziato eh? :D :D
Si, gli ho fatto il 50% di sconto :D
Kharonte85
04-05-2007, 15:37
Secondo me (chiaramente non mi voglio sostituire a yossaran :D :D ) la differenza se c'è (intendo dire se c'è in maniera forte) verrà fuori con giochi full dx10 (e già ci sono le dx10.1 alle porte....), per cui molto probabilmente (se le mie speculazioni fatte finora sono esatte) chi come me ha una GTX fà in tempo a cambiare scheda dopo aver sfruttato appieno questa (insomma, almeno metà 2008)
Vero (se fosse cosi')
insomma convieni col fatto che l'appellativo Dx10 per G80 sia solo uno specchietto per le allodole? cioè che il "bonus" Dx10 in realtà non valga molto?
bYeZ!
comincia a venirmi qualche sospetto, vedremo..
comincia a venirmi qualche sospetto, vedremo..
non sono un tecnico del settore, ma il fatto che G80 sia così tremendamente forte in Dx9 non mi può non far pensare a dei limiti che verranno fuori col cambio generazionale delle DirectX. Insomma mi pare che nVidia abbia ottimizzato "un pò troppo" per le Directx9 senza lasciare troppo spazio, almeno per ora, ad un ambiente Dx10. D'altronde la storia ci insegna che nVidia è molto pragmatica, ATi ama buttarsi nelle "sfide", e nonostante le vinca sempre dal punto di vista tecnologico, l'arido mercato non le da sempre ragione. Sono certo però che, nel bene e nel male, di R600 si parlerà MOLTO a lungo :)
bYeZ!
be io le 8800 le considero dx9 (ce solo quello da fare girare quindi quello sono) se ne parlera più avanti in ambiente dx10 :)
Kharonte85
04-05-2007, 15:45
insomma convieni col fatto che l'appellativo Dx10 per G80 sia solo uno specchietto per le allodole? cioè che il "bonus" Dx10 in realtà non valga molto?
bYeZ!
Io non credo, diciamo che al momento G80 sta dimostrando il suo valore in dx9 ma si vede che è sottosfruttato...128 SP non hanno mai lavorato imho...forse potrebbe essere meno efficiente di R600 in dx10 ma non credo a tal punto da definirsi uno specchietto per le allodole (chi ha detto fx? :stordita: )...tutti questi discorsi lasciano il tempo che trovano come ha fatto notare Corsini...
ale0bello0pr
04-05-2007, 15:47
non sono un tecnico del settore, ma il fatto che G80 sia così tremendamente forte in Dx9 non mi può non far pensare a dei limiti che verranno fuori col cambio generazionale delle DirectX. Insomma mi pare che nVidia abbia ottimizzato "un pò troppo" per le Directx9 senza lasciare troppo spazio, almeno per ora, ad un ambiente Dx10. D'altronde la storia ci insegna che nVidia è molto pragmatica, ATi ama buttarsi nelle "sfide", e nonostante le vinca sempre dal punto di vista tecnologico, l'arido mercato non le da sempre ragione. Sono certo però che, nel bene e nel male, di R600 si parlerà MOLTO a lungo :)
bYeZ!
non so perkè ma si parlerà molto fino a G90....voi ke dite....:D
Athlon 64 3000+
04-05-2007, 15:47
SI potrebbe anche dire che R600 può essere più portato per le dx 10 rispetto a G80 e che quest'ultimo essendo più "tradizionale" abbia dei vantaggio con i titoli attuali e per i prossimi mesi,mentre magari con i titoli dx 10 dovrebbe spuntarla R600.
Non vorrei che questo presunto vantaggio vada a farsi benedire perchè quando ci saranno veri titoli dx 10 anche R600 non avrà abbastanza potenza elaborativa e che serviranno R700 e G90 per far girare decentemente.
be io le 8800 le considero dx9 (ce solo quello da fare girare quindi quello sono) se ne parlera più avanti in ambiente dx10 :)
la domanda che mi pongo è: se le 8800 fossero state create puramente come schede Dx9, sarebbe cambiata l'opinione che ce ne siamo fatti finora? Se la risposta è no, come facciamo a dire che in Dx10 andranno comunque bene? Se lo diciamo, ci basiamo essenzialmente sull'assunto che l'architettura di G80, in Directx9, è a dir poco poderosa.
bYeZ!
infatti e piu per chiaccierare che altro :D
Io non credo, diciamo che al momento G80 sta dimostrando il suo valore in dx9 ma si vede che è sottosfruttato...128 SP non hanno mai lavorato imho...forse potrebbe essere meno efficiente di R600 in dx10 ma non credo a tal punto da definirsi uno specchietto per le allodole (chi ha detto fx? :stordita: )...tutti questi discorsi lasciano il tempo che trovano come ha fatto notare Corsini...
da cosa "si vede" che è sottosfruttato?
bYeZ!
Athlon 64 3000+
04-05-2007, 15:48
non sono un tecnico del settore, ma il fatto che G80 sia così tremendamente forte in Dx9 non mi può non far pensare a dei limiti che verranno fuori col cambio generazionale delle DirectX. Insomma mi pare che nVidia abbia ottimizzato "un pò troppo" per le Directx9 senza lasciare troppo spazio, almeno per ora, ad un ambiente Dx10. D'altronde la storia ci insegna che nVidia è molto pragmatica, ATi ama buttarsi nelle "sfide", e nonostante le vinca sempre dal punto di vista tecnologico, l'arido mercato non le da sempre ragione. Sono certo però che, nel bene e nel male, di R600 si parlerà MOLTO a lungo :)
bYeZ!
Può essere,forse come R580 è più portato per le dx 9 rispetto a G71.
non so perkè ma si parlerà molto fino a G90....voi ke dite....:D
mi sfugge la base della tua affermazione.
bYeZ!
Può essere,forse come R580 è più portato per le dx 9 rispetto a G71.
mi sembra di ricordare che R300 in path Dx8 andasse meno di NV30. G71 andava molto bene in Directx9 ma R580 sembrava costruito apposta su di esse. Che la storia si ripeta?
bYeZ!
Fosse vero g80 sarebbe una scheda stile fx, portentosa con le dx8, carente nelle 9 (io continuo a sostenere che a parità di registri con fp16, come era stata pensata, andava bene o male come una 9800 in fp24, quando era forzata a 32 perdeva parecchio, ecco perchè i driver ricompilavano tutto a 16 o fixed.)
Nvidia con 6800 però superò tecnologicamente Ati, che si riprese lo scettro con x19xx, è un tira e molla insomma.
yossarian
04-05-2007, 15:51
Quindi si potrebbe dire che Nvidia abbia fatto una scheda più di "transizione" rispetto ad Ati....questo mi suggerisce una nuova lettura del ritardo Ati....
non è improbabile e non sarebbe la prima volta che accade. ATi, ad ogni step (tranne nel passaggio tra R3x0 e R4x0), ha sempre apportato grandi innovazioni ai chip, mentre nVidia utilizza una strategia più conservativa. Ad esempio, NV3x era ancora, per molti aspetti, legato alla "tradizione" dei chip dx7 e dx8 (e non a caso, con lo sm1.x era molto veloce); il salto si è avuto con NV40 di cui G7x è stato un'evoluzione. La filosofia è molto differente: ATi preferisce partire con un'architettura già orientata allo shader model di riferimento, su cui lavorare nei successivi step (ottimizzazioni, aumento delle unità ecc, ma con una base di partenza che, a livello architetturale resta la medesima), nVidia preferisce passare attraverso più fasi di transizione. Il primo approccio premia a medio/lungo termine, il secondo è più gratificante a breve termine (e permette uno sviluppo più rapido delle architetture). Anche se, in effetti, in R6x0 c'è più di qualcosa di R5x0.
ale0bello0pr
04-05-2007, 15:51
mi sfugge la base della tua affermazione.
bYeZ!
sempre IMHO R600 è molto di piu' di G80...non so perkè ma ha caratteristiche tali da portare Nvidia a G90 per controbbattere....
ok ammetto.. giusto qualke decine di ore fa ho assistito a un test...... sono ankio sotto NDA....(mi pagassero almeno :doh:)
ma infatti io comincio a credere che le potenzialitá di R600 non si vedranno in ambito Dx9 (almeno coi titoli attuali); credo piuttosto che ATi si sia "portata avanti" come e' solita fare, da R600 in poi le serviranno piccoli refresh per stare al passo con nVidia, visto che il chip in questione e' in progetto da anni (basti pensare che la prima bozza venne chiamata R400, chip mai uscito sul mercato) e che il vantaggio architetturale dipendera' esclusivamente dalla strada che i programmatori di VG imboccheranno.
A questo punto sono molto curioso delle prestazioni di G80 in Dx10: chiedo a yoss, possono due chip "filosoficamente" diversi, fornire prestazioni simili nel panorama Directx10, considerate le informazioni sull'architettura di cui siamo tutti (chi piu chi meno) in possesso?
bYeZ!
rinnovo la domanda per yossarian :)
bYeZ!
Portocala
04-05-2007, 15:54
sempre IMHO R600 è molto di piu' di G80...non so perkè ma ha caratteristiche tali da portare Nvidia a G90 per controbbattere....
ok ammetto giusto qualke decine di ore fa ho assistito a un test...... sono ankio sotto NDA....mi pagassero almeno :doh:
alla fine è tutto un blah blah :mc:
aspettiamo, visto che altro non ci fanno fare :fagiano:
Fosse vero g80 sarebbe una scheda stile fx, portentosa con le dx8, carente nelle 9 (io continuo a sostenere che a parità di registri con fp16, come era stata pensata, andava bene o male come una 9800 in fp24, quando era forzata a 32 perdeva parecchio, ecco perchè i driver ricompilavano tutto a 16 o fixed.)
Nvidia con 6800 però superò tecnologicamente Ati, che si riprese lo scettro con x19xx, è un tira e molla insomma.
nel confronto con Nv40 ATi IMHO fu frenata dal mancato sviluppo di R400, ripiegando così su un più classico R420
bYeZ!
alla fine è tutto un blah blah :mc:
aspettiamo, visto che altro non ci fanno fare :fagiano:
i forum sono fatti per parlare, non per aspettare ;)
bYeZ!
Kharonte85
04-05-2007, 15:55
da cosa "si vede" che è sottosfruttato?
bYeZ!
Dal fatto che sia molto Cpu-limited a risoluzioni "umane"...dal fatto che abbia un'architettura a shader unificati a cui i giochi dx9 non sono abituati...credo :fagiano:
nel confronto con Nv40 ATi IMHO fu frenata dal mancato sviluppo di R400, ripiegando così su un più classico R420
bYeZ!
mancato sviluppo che dici potrebbe ripagare ora?
la domanda che mi pongo è: se le 8800 fossero state create puramente come schede Dx9, sarebbe cambiata l'opinione che ce ne siamo fatti finora? Se la risposta è no, come facciamo a dire che in Dx10 andranno comunque bene? Se lo diciamo, ci basiamo essenzialmente sull'assunto che l'architettura di G80, in Directx9, è a dir poco poderosa.
bYeZ!
E' indubbio che Nvidia nella progettazione sapendo che se ne sarebbe uscita a Novembre del 2006 si sarebbe trovata nel pieno dei titoli Directx9 e per evitare di fare l'errore del Geforce3 battuta dalla propria ex high end card, una ottimizzazione pro Dx9 era indispensabile e infatti e' stata la chiave del suo successo. Come si comportera' in Dx10 pero' e' tutto da vedere e impossibile da dire ora sia per G80 e R600. Chissa' che non ci saranno inaspettate risvolte.
sempre IMHO R600 è molto di piu' di G80...non so perkè ma ha caratteristiche tali da portare Nvidia a G90 per controbbattere....
ok ammetto.. giusto qualke decine di ore fa ho assistito a un test...... sono ankio sotto NDA....(mi pagassero almeno :doh:)
il test riguardava Dx9 o Dx10? questo credo tu possa dircelo
bYeZ!
nel confronto con Nv40 ATi IMHO fu frenata dal mancato sviluppo di R400, ripiegando così su un più classico R420
bYeZ!
Se nvidia avesse sbagliato su nv40 rischiava il fallimento, Ati veniva da 2 anni (9700 pro) di dominio assoluto. Secondo me ha scelto in quel caso un approccio conservativo perchè seduta un po' sugli allori :D
Dal fatto che sia molto Cpu-limited a risoluzioni "umane"...dal fatto che abbia un'architettura a shader unificati a cui i giochi dx9 non sono abituati...credo :fagiano:
e allora PERCHE' R600 è così "diverso"? L'argomento ora mi affascina non poco, devo dire grazie ad appleroof per avermi fatto guardare in questa direzione :p
bYeZ!
mancato sviluppo che dici potrebbe ripagare ora?
tutto sta in mano a microsoft e agli sviluppatori IMHO :)
bYeZ!
tutto sta in mano a microsoft e agli sviluppatori IMHO :)
bYeZ!
in che senso? intendi a livello di sistema operativo e applicazione dx10?
sempre IMHO R600 è molto di piu' di G80...non so perkè ma ha caratteristiche tali da portare Nvidia a G90 per controbbattere....
ok ammetto.. giusto qualke decine di ore fa ho assistito a un test...... sono ankio sotto NDA....(mi pagassero almeno :doh:)
Nei test erano presenti x2600 o x2900xl, se puoi rispondere mi preparo al 14 più fiducioso :D
appleroof
04-05-2007, 16:01
insomma convieni col fatto che l'appellativo Dx10 per G80 sia solo uno specchietto per le allodole? cioè che il "bonus" Dx10 in realtà non valga molto?
bYeZ!
No, proprio perchè ancora non si è visto nulla (o quasi) che lo metta alla prova in dx10, quindi non direi proprio, ancora
In ogni caso, se fosse vero quello che dico, avrò avuto una scheda che per mesi mi ha permesso di giocare come se avessi una consolle (che poi alla fine è quello che conta) e direi che se se la "caverà" (ripeto tutto da vedere, andiamo piano come lo si fà con R600) in dx10 direi che mai acquisto fu più azzeccato, per me :)
non è improbabile e non sarebbe la prima volta che accade. ATi, ad ogni step (tranne nel passaggio tra R3x0 e R4x0), ha sempre apportato grandi innovazioni ai chip, mentre nVidia utilizza una strategia più conservativa. Ad esempio, NV3x era ancora, per molti aspetti, legato alla "tradizione" dei chip dx7 e dx8 (e non a caso, con lo sm1.x era molto veloce); il salto si è avuto con NV40 di cui G7x è stato un'evoluzione. La filosofia è molto differente: ATi preferisce partire con un'architettura già orientata allo shader model di riferimento, su cui lavorare nei successivi step (ottimizzazioni, aumento delle unità ecc, ma con una base di partenza che, a livello architetturale resta la medesima), nVidia preferisce passare attraverso più fasi di transizione. Il primo approccio premia a medio/lungo termine, il secondo è più gratificante a breve termine (e permette uno sviluppo più rapido delle architetture). Anche se, in effetti, in R6x0 c'è più di qualcosa di R5x0.
Grazie della risposta :)
cmq alla fine non dimentichiamo (e lo dico solo per riportare la discussione al "centro") che poi tutto stà a vedere come agiranno le sh, inoltre è vero che le dx10 portano più complessità, ma è anche vero che favoriscono moltissimo l'ottimizzazione generale del gioco cmq in maniera molto più forte delle dx9....
Se nvidia avesse sbagliato su nv40 rischiava il fallimento, Ati veniva da 2 anni (9700 pro) di dominio assoluto. Secondo me ha scelto in quel caso un approccio conservativo perchè seduta un po' sugli allori :D
io non credo alle grandi aziende che si siedono sugli allori..insomma capitò a 3Dfx ma oggettivamente questa, pur essendo una grande azienda, non era un'azienda grande :D Si disse anche di Intel che si sedette sugli allori durante lo sviluppo dei P4; non credo nemmeno a quello, semplicemente è stato un errore di valutazione in prospettiva futura, esattamente come fu Nv30 per nVidia. Essendo che ATi mette sempre il massimo impegno per il futuro, l'unico punto dove può (ed è solita) sbagliare è il presente :fagiano:
bYeZ!
Kharonte85
04-05-2007, 16:03
E' indubbio che Nvidia nella progettazione sapendo che se ne sarebbe uscita a Novembre del 2006 si sarebbe trovata nel pieno dei titoli Directx9 e per evitare di fare l'errore del Geforce3 battuta dalla propria ex high end card, una ottimizzazione pro Dx9 era indispensabile e infatti e' stata la chiave del suo successo. Come si comportera' in Dx10 pero' e' tutto da vedere e impossibile da dire ora sia per G80 e R600. Chissa' che non ci saranno inaspettate risvolte.
Crysis doveva uscire a Marzo e pure r-600...non credo abbia fatto i conti pensando che non si sarebbe vista l'ombra ne' di ATI ne di giochi DX10 (tanto che si sta convertendo lost planet da sola :D ) per cosi' tanto tempo...per me ha puntato sulla potenza bruta: ci ha infilato 128 SP che in dx9 in qualche modo vista la quantità avrebbero reso lo stesso...i 64 SP (anche se fossero vec 50) se non sono fatti per le dx9 e non funzionano a dovere non hanno speranze in dx9...:fagiano:
in che senso? intendi a livello di sistema operativo e applicazione dx10?
intendo dire che se decideranno di "aspettare" che nVidia rivoluzioni l'architettura, per ATi si metterà molto ma molto male.
bYeZ!
AMD is Throwing a Party!
On the evening of May 10th, AMD is throwing a party in San Francisco for you! There will be demos of the soon-to-market Barcelona and Radeon 2900 XT as well as the chance the play SupCom on some of the newest AMD hardware. AMD staff will be there to answer your questions. Our own HardForum members will get priority and are encouraged to take pictures and post about the event. Please email Kyle@HardOCP.com with an invitation request for you and a guest. I will be there as well as other Web journalists to partake in the fun. You must be 21 and IDs will be checked at the door. See you there, Kyle!
http://www.hardocp.com/
;)
No, proprio perchè ancora non si è visto nulla (o quasi) che lo metta alla prova in dx10, quindi non direi proprio, ancora
In ogni caso, se fosse vero quello che dico, avrò avuto una scheda che per mesi mi ha permesso di giocare come se avessi una consolle (che poi alla fine è quello che conta) e direi che se se la "caverà" (ripeto tutto da vedere, andiamo piano come lo si fà con R600) in dx10 direi che mai acquisto fu più azzeccato, per me :)
ma allora perchè tutta questa "diversità"?
vorrei fare un'altra domanda a yoss: puoi parlarci dei punti di contatto tra G80 e R600, ammesso che ce ne siano?
bYeZ!
intendo dire che se decideranno di "aspettare" che nVidia rivoluzioni l'architettura, per ATi si metterà molto ma molto male.
bYeZ!
non c'è dubbio, ma penso non convenga troppo nemmeno alle SH..
io non credo alle grandi aziende che si siedono sugli allori..insomma capitò a 3Dfx ma oggettivamente questa, pur essendo una grande azienda, non era un'azienda grande :D Si disse anche di Intel che si sedette sugli allori durante lo sviluppo dei P4; non credo nemmeno a quello, semplicemente è stato un errore di valutazione in prospettiva futura, esattamente come fu Nv30 per nVidia. Essendo che ATi mette sempre il massimo impegno per il futuro, l'unico punto dove può (ed è solita) sbagliare è il presente :fagiano:
bYeZ!
Nvidia, Ati, Intel e Amd in momenti diversi si sono tutte sedute, l'unica azienda che non sbaglia mai che io conosca è Blizzard :O
Mi scuso per l'off topic, ho visto che in austria le vendono a 360 le x2900xt, ottimo prezzo. :)
appleroof
04-05-2007, 16:08
intendo dire che se decideranno di "aspettare" che nVidia rivoluzioni l'architettura, per ATi si metterà molto ma molto male.
bYeZ!
Aspetta: dai troppo per scontato che l'architettura di G80 sia completamente "sbagliata" per le dx10...:)
poi penso alle dx10.1: forse nvidia messa al corrente (microsoft ovviamente ha il dovere/beneficio a farlo) di queste ha concentrato su queste le future innovazioni, ma a quel punto le 8800 e 2900 saranno già lontane...in altre parole Nvidia forse ha calibrato l'attuale architettura su dx9/prime dx10, riservandosi poi il successivo step per le dx10.1, mentre Ati si è già portata avanti (ricordate la tassellation & co.?) e questo corrisponderebbe alla filosofia delle 2 case..
tutto IMHO
Crysis doveva uscire a Marzo e pure r-600...non credo abbia fatto i conti pensando che non si sarebbe vista l'ombra ne' di ATI ne di giochi DX10 (tanto che si sta convertendo lost planet da sola :D ) per cosi' tanto tempo...per me ha puntato sulla potenza bruta: ci ha infilato 128 SP che in dx9 in qualche modo vista la quantità avrebbero reso lo stesso...i 64 SP (anche se fossero vec 50) se non sono fatti per le dx9 e non funzionano a dovere non hanno speranze in dx9...:fagiano:
il discorso è che l'utente normale (intendo, non il fanatico che cambia ogni 3 mesi) prende una scheda in prospettiva sopratutto futura. Se R600 fa 10 frame in meno su un gioco rispetto a G80, e poi ne fa 20 in più in Dx10, questo è un compromesso che a mio parere si può benissimo accettare. Il problema è che non si sa NULLA di eventuali prestazioni in Dx10. E vista la presenza di Vista (scusate il gioco di parole) questo mi dà molto da pensare. Insomma ci sono le schede, ci sono le directx, c'è il sistema operativo: quanto pensate che ci voglia a sviluppare un benchmark, anche non accuratissimo, in Dx10? o un techdemo o quel che volete voi.. l'assenza totale di software Dx10, ripeto, mi dà molto da pensare.
bYeZ!
ale0bello0pr
04-05-2007, 16:10
Nei test erano presenti x2600 o x2900xl, se puoi rispondere mi preparo al 14 più fiducioso :D
no sono stato 1 oretta;) nn posso dire altro :( (ci va dell'amicizia di un mio amico che mi ha dato fiducia e mi ha fatto assistere)
appleroof
04-05-2007, 16:11
Nvidia, Ati, Intel e Amd in momenti diversi si sono tutte sedute, l'unica azienda che non sbaglia mai che io conosca è Blizzard :O
Mi scuso per l'off topic, ho visto che in austria le vendono a 360 le x2900xt, ottimo prezzo. :)
Quoto: è quello che ora è successo ad Amd con il K8
@ati7500
tra l'altro dire "sedere sugli allori", sbagliare previsione/strategia è sinonimo, in questo caso :)
Aspetta: dai troppo per scontato che l'architettura di G80 sia completamente "sbagliata" per le dx10...:)
poi penso alle dx10.1: forse nvidia messa al corrente (microsoft ovviamente ha il dovere/beneficio a farlo) di queste ha concentrato su queste le future innovazioni, ma a quel punto le 8800 e 2900 saranno già lontane...in altre parole Nvidia forse ha calibrato l'attuale architettura su dx9/prime dx10, riservandosi poi il successivo step per le dx10.1, mentre Ati si è già portata avanti (ricordate la tassellation & co.?) e questo corrisponderebbe alla filosofia delle 2 case..
tutto IMHO
ritorni a quello che ho detto io, le Dx10 per G80 sono solo un bonus, per cui l'architettura può non essere stata ottimizzata per queste ultime.
Altrimenti come spiegheresti l'enorme differenza concettuale tra R600 e G80? credi davvero che ATi stia solo "provandoci" sperando che vada a segno?
bYeZ!
Quoto: è quello che ora è successo ad Amd con il K8
@ati7500
tra l'altro dire "sedere sugli allori", sbagliare previsione/strategia è sinonimo, in questo caso :)
anche Einstein ha sbagliato su alcune teorie, vuoi dire che si è seduto sugli allori? semplicemente Errare Humanum Est :)
bYeZ!
appleroof
04-05-2007, 16:13
il discorso è che l'utente normale (intendo, non il fanatico che cambia ogni 3 mesi) prende una scheda in prospettiva sopratutto futura. Se R600 fa 10 frame in meno su un gioco rispetto a G80, e poi ne fa 20 in più in Dx10, questo è un compromesso che a mio parere si può benissimo accettare. Il problema è che non si sa NULLA di eventuali prestazioni in Dx10. E vista la presenza di Vista (scusate il gioco di parole) questo mi dà molto da pensare. Insomma ci sono le schede, ci sono le directx, c'è il sistema operativo: quanto pensate che ci voglia a sviluppare un benchmark, anche non accuratissimo, in Dx10? o un techdemo o quel che volete voi.. l'assenza totale di software Dx10, ripeto, mi dà molto da pensare.
bYeZ!
Ci sono le schede....ma solo le nvidia, se capisci cosa intendo...
no sono stato 1 oretta;) nn posso dire altro :( (ci va dell'amicizia di un mio amico che mi ha dato fiducia e mi ha fatto assistere)
quindi non sei sotto NDA :asd: lo è solo il tuo amico :asd:
joina il forum con altro nick e spiffera tutto va :sofico:
bYeZ!
più che Crisys, a questo punto la scossa al mercato la potrebbe dare il 3dMark 07..
Ci sono le schede....ma solo le nvidia, se capisci cosa intendo...
capisco che non ci sarebbe stato confronto, ma capisco altresì che nVidia non ha voluto mostrare le prestazioni in Directx 10, a te questo non ti da' da pensare?
bYeZ!
appleroof
04-05-2007, 16:15
ritorni a quello che ho detto io, le Dx10 per G80 sono solo un bonus, per cui l'architettura può non essere stata ottimizzata per queste ultime.
Altrimenti come spiegheresti l'enorme differenza concettuale tra R600 e G80? credi davvero che ATi stia solo "provandoci" sperando che vada a segno?
bYeZ!
Assolutamente no (per il neretto).
Però il fatto è che non vedo questa enorme differenza concettuale tra R600 e G80....la vedevo molto di più tra G70 e R580..
più che Crisys, a questo punto la scossa al mercato la potrebbe dare il 3dMark 07..
che guarda caso sta "attendendo" anche lui..quanto scommettiamo che verrà fuori col primo refresh di G80?
bYeZ!
Kharonte85
04-05-2007, 16:17
il discorso è che l'utente normale (intendo, non il fanatico che cambia ogni 3 mesi) prende una scheda in prospettiva sopratutto futura. Se R600 fa 10 frame in meno su un gioco rispetto a G80, e poi ne fa 20 in più in Dx10, questo è un compromesso che a mio parere si può benissimo accettare. Il problema è che non si sa NULLA di eventuali prestazioni in Dx10. E vista la presenza di Vista (scusate il gioco di parole) questo mi dà molto da pensare. Insomma ci sono le schede, ci sono le directx, c'è il sistema operativo: quanto pensate che ci voglia a sviluppare un benchmark, anche non accuratissimo, in Dx10? o un techdemo o quel che volete voi.. l'assenza totale di software Dx10, ripeto, mi dà molto da pensare.
bYeZ!
Io la vedo piu' semplicemente...stanno aspettando AMD/ATI...:)
Assolutamente no (per il neretto).
Però il fatto è che non vedo questa enorme differenza concettuale tra R600 e G80....la vedevo molto di più tra G70 e R580..
per questo ho chiesto a yoss di individuare i punti di contatto tra le due architetture (ma puoi iniziare a farlo tu, se vuoi)
bYeZ!
che guarda caso sta "attendendo" anche lui..quanto scommettiamo che verrà fuori col primo refresh di G80?
bYeZ!
se G80 fosse effettivamente debole in dx10, è probabile..
appleroof
04-05-2007, 16:17
capisco che non ci sarebbe stato confronto, ma capisco altresì che nVidia non ha voluto mostrare le prestazioni in Directx 10, a te questo non ti da' da pensare?
bYeZ!
E come fa? con un techdemo? Sai benissimo quanto vale un techdemo fatto in casa....
cmq non volevo dire che non ci sarebbe stato confronto (ovvio, le x19xx sono dx9 :p ) ma che i legami di mercato "costringono" ad aspettare Ati (come avrebbero aspettato Nvidia nella situazione opposta)
Io la vedo piu' semplicemente...stanno aspettando AMD/ATI...:)
a che pro? imposizione di AMD ATI dici?
bYeZ!
appleroof
04-05-2007, 16:18
Io la vedo piu' semplicemente...stanno aspettando AMD/ATI...:)
Esattamente quello che volevo dire ;)
E come fa? con un techdemo? Sai benissimo quanto vale un techdemo fatto in casa....
cmq non volevo dire che non ci sarebbe stato confronto (ovvio, le x19xx sono dx9 :p ) ma che i legami di mercato "costringono" ad aspettare Ati (come avrebbero aspettato Nvidia nella situazione opposta)
ma io non ho mica detto che nVidia non abbia tirato fuori qualcosa..io ho detto che NESSUN ALTRO (third party) abbia tirato fuori qualcosa :p
bYeZ!
yossarian
04-05-2007, 16:19
rinnovo la domanda per yossarian :)
bYeZ!
siamo solo al primo step di chip dx10.
G7x e R5x0, concettualmente, sono molto differenti; tu ti sentiresti di affermare che il secondo sia superiore con tutte le applicazioni e in ogni condizione di impiego?
cmq non volevo dire che non ci sarebbe stato confronto (ovvio, le x19xx sono dx9 :p ) ma che i legami di mercato "costringono" ad aspettare Ati (come avrebbero aspettato Nvidia nella situazione opposta)
secondo me nessun legame di mercato può fermare una SH che può già monetizzare con una delle due case, deve esserci dell'altro..
E come fa? con un techdemo? Sai benissimo quanto vale un techdemo fatto in casa....
cmq non volevo dire che non ci sarebbe stato confronto (ovvio, le x19xx sono dx9 :p ) ma che i legami di mercato "costringono" ad aspettare Ati (come avrebbero aspettato Nvidia nella situazione opposta)
quindi nemmeno il mercato, a parer tuo, vuole ritrovarsi in una situazione di monopolio da parte di una delle due aziende?
bYeZ!
secondo me nessun legame di mercato può fermare una SH che può già monetizzare con una delle due case, deve esserci dell'altro..
esattamente quello che intendevo. Se una casa può distruggere la concorrente, lo fa senza troppi complimenti.
bYeZ!
yossarian
04-05-2007, 16:21
ma allora perchè tutta questa "diversità"?
vorrei fare un'altra domanda a yoss: puoi parlarci dei punti di contatto tra G80 e R600, ammesso che ce ne siano?
bYeZ!
domanda quanto mai paracula, a cui posso rispondere in un solo modo: hanno entrambi gli shader unificati :D
appleroof
04-05-2007, 16:22
secondo me nessun legame di mercato può fermare una SH che può già monetizzare con una delle due case, deve esserci dell'altro..
Io sono convinto che proprio la forza dei soldi (le sh sono anche supportate da Ati e Nvidia come sai) ha determinato questa situazione...
siamo solo al primo step di chip dx10.
G7x e R5x0, concettualmente, sono molto differenti; tu ti sentiresti di affermare che il secondo sia superiore con tutte le applicazioni e in ogni condizione di impiego?
se con G7x e R5x0 eravamo alla fine dello sviluppo in Dx9, se ne deduce chiaramente che le differenze non sono assolute ma relative ad uno specifico campo di impiego, dopo mesi di ottimizzazioni da una parte e dall'altra. Ma per la nuova generazione, come hai detto anche tu, siamo solo all'inizio. Chi ci ha visto più lontano? :sofico:
bYeZ!
Kharonte85
04-05-2007, 16:24
capisco che non ci sarebbe stato confronto, ma capisco altresì che nVidia non ha voluto mostrare le prestazioni in Directx 10, a te questo non ti da' da pensare?
bYeZ!
E allora perche' darsi cosi' tanto da fare a convertire un gioco come lost planet? E poi i filmati visti finora di crysis credo girassero su g80 (e non mi sembrano vadano male) quindi non penso ci sia nulla da nascondere...piuttosto le SWH che mirano a fare + utili possibili aspettano che il mercato (AMD/ATI) sia pronto...
appleroof
04-05-2007, 16:24
quindi nemmeno il mercato, a parer tuo, vuole ritrovarsi in una situazione di monopolio da parte di una delle due aziende?
bYeZ!
Non è che non vuole, è che non può, secondo me
domanda quanto mai paracula, a cui posso rispondere in un solo modo: hanno entrambi gli shader unificati :D
questa me la segno al dito, spiegazione coi fiocchi rimandata al 14 un minuto dopo la scadenza dell'NDA ;)
certo che sei peggio di techpowerup...Gameboy GPU :asd:
l'ultimissima domanda: è possibile che ATi si sia ritrovata "costretta" a lanciare R600 pur con le sue limitazioni in Dx9, poichè era l'unica direzione in cui poteva andare? (Intendo la finalizzazione del progetto R400). Insomma ATi aveva realmente altre carte da giocarsi oltre R600? e nVidia oltre G80?
bYeZ!
Io sono convinto che proprio la forza dei soldi (le sh sono anche supportate da Ati e Nvidia come sai) ha determinato questa situazione...
spiegati meglio :)
appleroof
04-05-2007, 16:27
questa me la segno al dito, spiegazione coi fiocchi rimandata al 14 un minuto dopo la scadenza dell'NDA ;)
certo che sei peggio di techpowerup...Gameboy GPU :asd:
bYeZ!
Forse voleva dire che hanno gli shader unificati ma diversi come struttura, bus diverso, e già questo basta e avnza per differenziarle
però molto meno che tra nv40 e r5xx...
Io sono convinto che proprio la forza dei soldi (le sh sono anche supportate da Ati e Nvidia come sai) ha determinato questa situazione...
e tu sai meglio di me che sono supportate da nVidia in misura MOLTO maggiore ;)
bYeZ!
Forse voleva dire che hanno gli shader unificati ma diversi come struttura, bus diverso, e già questo basta e avnza per differenziarle
però molto meno che tra nv40 e r5xx...
naaa..quando lui è così sintetico significa che si sta trattenendo a malapena dal farci un resoconto di 200 righe :asd: e non lascia trapelare nulla da quel poco che dice :D
bYeZ!
E allora perche' darsi cosi' tanto da fare a convertire un gioco come lost planet? E poi i filmati visti finora di crysis credo girassero su g80 (e non mi sembrano vadano male) quindi non penso ci sia nulla da nascondere...piuttosto le SWH che mirano a fare + utili possibili aspettano che il mercato (AMD/ATI) sia pronto...
beh se R600 sarà un cesso (cosa che non credo) non se lo compreranno in molti eh..il mercato rimarrebbe in mano a nVidia
bYeZ!
chissa perchè ma è un po che lo dico r600 fara il botto in senso positivo:)
appleroof
04-05-2007, 16:32
spiegati meglio :)
Insomma, si sà che Ati e Nvidia supportano (finanziano) le swh che non hanno quindi molto interesse a favorire l'una o l'altra in maniera così totalizzante come sarebbe fare uscire un gioco full dx10 a gennaio 2007 (pardon...febbraio --Vista-- :D ), a mesi dal lancio di vga dx10 da parte di Ati....io credo che Crysis (non lo cito a caso) sia bello che pronto e non è un caso che lo abbiano rimandato così tanto (approfittando per ottimizzarlo ancora di più, si spera :) ) poi è solo una mia teoria, ovvio. Il discorso poi potrebbe essere allargato a sw come il 3dmark2007
Ati (ora Amd) non è esattamente xgi per essere "ignorata" in maniera così netta
Kharonte85
04-05-2007, 16:33
beh se R600 sarà un cesso (cosa che non credo) non se lo compreranno in molti eh..il mercato rimarrebbe in mano a nVidia
bYeZ!
Fatto sta che sto "cesso" lo stanno aspettando in molti :D e il mercato dei DX10 ready è molto, troppo ristretto...non è un imposizione di amd/ati sulle swh è un imposizione del mercato :read:
appleroof
04-05-2007, 16:34
e tu sai meglio di me che sono supportate da nVidia in misura MOLTO maggiore ;)
bYeZ!
Allora dovremmo aspettarci che R600 vada male in dx10....? non credo...
naaa..quando lui è così sintetico significa che si sta trattenendo a malapena dal farci un resoconto di 200 righe :asd: e non lascia trapelare nulla da quel poco che dice :D
bYeZ!
a bè...:D
Insomma, si sà che Ati e Nvidia supportano (finanziano) le swh che non hanno quindi molto interesse a favorire l'una o l'altra in maniera così totalizzante come sarebbe fare uscire un gioco full dx10 a gennaio 2007, a mesi dal lancio di vga dx10 da parte di Ati....io credo che Crysis (non lo cito a caso) sia bello che pronto e non è un caso che lo abbiano rimandato così tanto (approfittando per ottimizzarlo ancora di più, si spera :) ) poi è solo una mia teoria, ovvio. Il discorso poi potrebbe essere allargato a sw come il 3dmark2007
Ati (ora Amd) non è esattamente xgi per essere "ignorata" in maniera così netta
ma se è come dici tu, perchè stiamo a preoccuparci per le prestazioni in Dx9?
bYeZ!
Insomma, si sà che Ati e Nvidia supportano (finanziano) le swh che non hanno quindi molto interesse a favorire l'una o l'altra in maniera così totalizzante come sarebbe fare uscire un gioco full dx10 a gennaio 2007, a mesi dal lancio di vga dx10 da parte di Ati....io credo che Crysis (non lo cito a caso) sia bello che pronto e non è un caso che lo abbiano rimandato così tanto (approfittando per ottimizzarlo ancora di più, si spera :) ) poi è solo una mia teoria, ovvio. Il discorso poi potrebbe essere allargato a sw come il 3dmark2007
Ati (ora Amd) non è esattamente xgi per essere "ignorata" in maniera così netta
mi sembra uno scenario un pò troppo idilliaco, le SH che "prendono" tot soldi da entrambe le case e aspettano buone buone che tutti siano pronti.
imho se il sw è pronto per essere giocato decentemente e per fare cassa, esce, punto. se non esce c'è dell'altro..
Kharonte85
04-05-2007, 16:40
ma se è come dici tu, perchè stiamo a preoccuparci per le prestazioni in Dx9?
bYeZ!
Perche' ora che ci saranno piu' giochi in dx10 rispetto a quelli in dx9 passera' un po' di tempo...quindi se le prestazioni in dx9 non sono garantite sono scaxxi...
appleroof
04-05-2007, 16:40
ma se è come dici tu, perchè stiamo a preoccuparci per le prestazioni in Dx9?
bYeZ!
Bè....intanto vuoi per un motivo vuoi per l'altro, è questo il "campo di battaglia", per ora....la fregatura per Ati (se e sottolineo se i bench ufficiosi saranno confermati) è che adesso il mercato leggerà i risultati con i giochi, chissenefrega (cioè il 90% degli acquirenti) se fra sei mesi andrà da dio...e per calcare la mano ecco che Nvidia fa uscire la Ultra, che sarà giocoforza inserita in tutti i bench onesti come riferimento, accanto alle altre, mentre invece le versioni oc della gtx non è detto che lo siano...
Comunque a me interessano anche le prestazioni in dx9, ok il futuro, ma vorrei avere una scheda che in quello che gioco (oblivion) sia anche più veloce di quella che già ho, vista la 8600 Gts che spinge proprio li, sono particolarmente fiducioso della x2600xt che possa darmi molte soddisfazioni, come me ne ha date in ambito dx9 la x1650xt ad esempio, che terrò nel secondo pc ;)
Perche' ora che ci saranno piu' giochi in dx10 rispetto a quelli in dx9 passera' un po' di tempo...quindi se le prestazioni in dx9 non sono garantite sono scaxxi...
ma come, prima mi dici che le SH stanno attendendo l'uscita di ATi (ricordo che le prime soluzioni DX10 sono uscite a fine 2006) e poi che ci vorrà ancora un pò di tempo? insomma questi che fanno, nel tempo libero giocano a pes e al lavoro pure? :banned:
bYeZ!
appleroof
04-05-2007, 16:43
mi sembra uno scenario un pò troppo idilliaco, le SH che "prendono" tot soldi da entrambe le case e aspettano buone buone che tutti siano pronti.
imho se il sw è pronto per essere giocato decentemente e per fare cassa, esce, punto. se non esce c'è dell'altro..
Bè accanto a quello potrebbe esserci anche l'ottimizzazione di Vista e dx (non ricordo quale responsabile nvidia ha dichiarato che i driver per vista li fanno sudare il doppio di quelli per xp) e sopratutto la maggiore diffusione di vista stesso (sempre soldi)
E' un circolo virtuoso (per loro) maggiori giochi dx10 ci sono maggiore richiesta di Vista e schede video ci sarà, ma se uno degli attori non è ancora pronto, aspettiamo un attimo, tanto chi ci perde (relativamente) per ora è solo proprio quell'attore...
Bè....intanto vuoi per un motivo vuoi per l'altro, è questo il "campo di battaglia", per ora....la fregatura per Ati (se e sottolineo se i bench ufficiosi saranno confermati) è che adesso il mercato leggerà i risultati con i giochi, chissenefrega (cioè il 90% degli acquirenti) se fra sei mesi andrà da dio...e per calcare la mano ecco che Nvidia fa uscire la Ultra, che sarà giocoforza inserita in tutti i bench onesti come riferimento, accanto alle altre, mentre invece le versioni oc della gtx non è detto che lo siano...
beh però se ATi supera la fase iniziale di indifferenza alla sua architettura, poi è avvantaggiata in quanto ha una base solida su cui impostare i refresh architetturali
bYeZ!
Bè accanto a quello potrebbe esserci anche l'ottimizzazione di Vista e dx (non ricordo quale responsabile nvidia ha dichiarato che i driver per vista li fanno sudare il doppio di quelli per xp) e sopratutto la maggiore diffusione di vista stesso (sempre soldi)
E' un circolo virtuoso (per loro) maggiori giochi dx10 ci sono maggiore richiesta di Vista e schede video ci sarà, ma se uno degli attori non è ancora pronto, aspettiamo un attimo, tanto chi ci perde (relativamente) per ora è solo proprio quell'attore...
in che modo ATi ci perderebbe dall'assenza di software Dx10, se ancora non ha presentato un hw compatibile Dx10?
bYeZ!
mi sembra uno scenario un pò troppo idilliaco, le SH che "prendono" tot soldi da entrambe le case e aspettano buone buone che tutti siano pronti.
imho se il sw è pronto per essere giocato decentemente e per fare cassa, esce, punto. se non esce c'è dell'altro..
magari in questa fase le SH sono in una sorta di terra di mezzo, con anche Vista che si deve diffondere per supportare le DX10, far uscire un gioco ha dei costi molto alti e sbagliare tempisticamente l'uscita può essere un danno finanziario enorme, sembra ci sia una sorta di semi-immobilità, tutti in attesa degli eventi.
Se non fosse uscito Vista credo che lo scenario sarebbe stato ben differente.
beh però se ATi supera la fase iniziale di indifferenza alla sua architettura, poi è avvantaggiata in quanto ha una base solida su cui impostare i refresh architetturali
bYeZ!
della serie, meglio la gallina domani ;)
magari in questa fase le SH sono in una sorta di terra di mezzo, con anche Vista che si deve diffondere per supportare le DX10, far uscire un gioco ha dei costi molto alti e sbagliare tempisticamente l'uscita può essere un danno finanziario enorme, sembra ci sia una sorta di semi-immobilità, tutti in attesa degli eventi.
Se non fosse uscito Vista credo che lo scenario sarebbe stato ben differente.
e immagina lo scenario di Directx 10 su XP..terza guerra mondiale :asd:
IMHO hanno fatto proprio TUTTE le dovute considerazioni sti bast@rdi :asd: :asd: :asd:
bYeZ!
appleroof
04-05-2007, 16:47
beh però se ATi supera la fase iniziale di indifferenza alla sua architettura, poi è avvantaggiata in quanto ha una base solida su cui impostare i refresh architetturali
bYeZ!
Questo potrebbe essere sicuramente uno scenario plausibile (non credo proprio che R600 sarà una ciofeca, nè in dx9 nè tantomeno in dx10, sarebbe stupidissimo pensarlo), però manca ancora di vedere come effettivamente và, accanto a come effettivamente si comporta sempre in dx10 G80.....
della serie, meglio la gallina domani ;)
il concetto è questo infatti, ma a me ed anche ad altrri non fa piacere vedere ATi sempre in continua attesa del futuro..sotto questo punto di vista nVidia mi dà un senso maggiore di sicurezza.
bYeZ!
Kharonte85
04-05-2007, 16:49
ma come, prima mi dici che le SH stanno attendendo l'uscita di ATi (ricordo che le prime soluzioni DX10 sono uscite a fine 2006) e poi che ci vorrà ancora un pò di tempo? insomma questi che fanno, nel tempo libero giocano a pes e al lavoro pure? :banned:
bYeZ!
E' inevitabile...ad essere buoni quanti giochi basati su dx10 potrebbero uscire entro fine anno? Escludendo le patch di giochi vecchi (FS X, Call of juarez, Company Of Heroes ed eventuali altri...) Lost planet, Crysis...ehm non me ne vengono in mente altri :mc: che cmq spero ci saranno...eppure g80 non è stato un acquisto sbagliato per chi lo ha fatto poiche' in dx9 è una sicurezza...ecco perche' è fondamentale che AMD/ATI con r600 vada bene anche in dx9...
appleroof
04-05-2007, 16:51
in che modo ATi ci perderebbe dall'assenza di software Dx10, se ancora non ha presentato un hw compatibile Dx10?
bYeZ!
Infatti ho scritto "relativamente": ci perde in immagine e ci guadagna (non solo in immagine) il concorrente (500.000 G80 venduti, non ordinati, al 31 gennaio scorso, ora saremo vicini al milione forse, che se non fà la fortuna della casa sicuramente porta molti liquidi in cassa)
tutto senza polemica :)
E' inevitabile...ad essere buoni quanti giochi basati su dx10 potrebbero uscire entro fine anno? Escludendo le patch di giochi vecchi (FS X, Call of juarez, Company Of Heroes ed eventuali altri...) Lost planet, Crysis...ehm non me ne vengono in mente altri :mc: che spero ci saranno...eppure g80 non è stato un acquisto sbagliato per chi lo ha fatto poiche' in dx9 non ha problemi...ecco perche' è fondamentale che AMD/ATI vada bene anche in dx9...
a questo punto o ATi/AMD ha fatto calcoli che noi nemmeno ci immaginiamo, o davvero R600 era l'UNICA arma da contrapporre a G80
bYeZ!
:eek: ma quanto scrivete?
Scommetto 5€ che sto thread arriva a 500pagine per il 14 maggio :sofico: Si accettano sfide :asd:
A parte gli scherzi... ci sono novità per quanto riguarda la x2600xt? Lo sò qui si aspetta la X2900XT ma dato che siete avanti... :p
Infatti ho scritto "relativamente": ci perde in immagine e ci guadagna (non solo in immagine) il concorrente (500.000 G80 venduti, non ordinati, al 31 gennaio scorso, ora saremo vicini al milione forse, che se non fà la fortuna della casa sicuramente porta molti liquidi in cassa)
tutto senza polemica :)
bhe i liquidi in cassa li portano pure le 1950 a prezzo da regalo, e non sono le cosiddette schede da 4 soldi..imho il problema che hai sollevato non si pone nemmeno.
bYeZ!
Kharonte85
04-05-2007, 16:54
a questo punto o ATi/AMD ha fatto calcoli che noi nemmeno ci immaginiamo, o davvero R600 era l'UNICA arma da contrapporre a G80
bYeZ!
Magari era il ritardo l'arma segreta...http://www.lshwupgrade.com/images/smiles/look.gif
appleroof
04-05-2007, 16:54
il concetto è questo infatti, ma a me ed anche ad altrri non fa piacere vedere ATi sempre in continua attesa del futuro..sotto questo punto di vista nVidia mi dà un senso maggiore di sicurezza.
bYeZ!
Ma sopratutto quella di Nvidia paga (letteralmente) più nell'immediato (che poi è il senso delle aziende): quelli di Ati sono bellissimi esercizi tecnici (e non fraintendetemi in questo) e quella filosofia finora (tranne che l'unica volta per l'errore dell'avversario --nv30--) non è che riveli una superiorità schiacciante (non relativa) dove interessa davvero alla fine, cioè nei giochi.
ale0bello0pr
04-05-2007, 16:55
:eek: ma quanto scrivete?
Scommetto 5€ che sto thread arriva a 500pagine per il 14 maggio :sofico: Si accettano sfide :asd:
A parte gli scherzi... ci sono novità per quanto riguarda la x2600xt? Lo sò qui si aspetta la X2900XT ma dato che siete avanti... :p
E' l'hype... :D
come dicevano quei truzzari tedeschi...
:ciapet: HYPER ! HYPER !:ciapet:
appleroof
04-05-2007, 16:55
bhe i liquidi in cassa li portano pure le 1950 a prezzo da regalo, e non sono le cosiddette schede da 4 soldi..imho il problema che hai sollevato non si pone nemmeno.
bYeZ!
bè per ati vendere una 19xx a 200 euro o 2 a 100 euro non cambia nulla, le permette solo di "restare a galla" in attesa di tornare al top
Ma sopratutto quella di Nvidia paga (letteralmente) più nell'immediato (che poi è il senso delle aziende): quelli di Ati sono bellissimi esercizi tecnici (e non fraintendetemi in questo) e quella filosofia finora (tranne che l'unica volta per l'errore dell'avversario --nv30--) non è che riveli una superiorità schiacciante (non relativa) dove interessa davvero alla fine, cioè nei giochi.
esatto, ma il fascino è fascino :) io certe volte mentre gioco all'ultima meraviglia grafica uscita non sto a pensare a come passare il livello, ma piuttosto a pensare a quella serie infinita di bit che circolano nelle arterie dell'architettura che ho scelto. Per questo molto spesso mi oriento su ATi, anche magari rinunciando alle pure prestazioni nell'immediato (che poi riguadagnerò in futuro), perchè mi affascina.
bYeZ!
bè per ati vendere una 19xx a 200 euro o 2 a 100 euro non cambia nulla, le permette solo di "restare a galla" in attesa di tornare al top
chiamalo poco "restare a galla" in questo mondo di squali (o di ladri come disse Venditti)
bYeZ!
Kharonte85
04-05-2007, 16:59
esatto, ma il fascino è fascino :) io certe volte mentre gioco all'ultima meraviglia grafica uscita non sto a pensare a come passare il livello, ma piuttosto a pensare a quella serie infinita di bit che circolano nelle arterie dell'architettura che ho scelto. Per questo molto spesso mi oriento su ATi, anche magari rinunciando alle pure prestazioni nell'immediato (che poi riguadagnerò in futuro), perchè mi affascina
bYeZ!
Tu sei malato...:asd:
In senso buono...:D
Io a queste cose proprio manco ci penso...è come se mi chiedessi in un film mentre lo sto guardando...chissa' quale pellicola hanno usato...:sofico:
Portocala
04-05-2007, 17:03
bhe i liquidi in cassa li portano pure le 1950 a prezzo da regalo, e non sono le cosiddette schede da 4 soldi..imho il problema che hai sollevato non si pone nemmeno.
bYeZ!
sicuro?
vai in Consigli e dimmi quante persone consigliano di aspettare invece di prendersi una 1950 Pro assieme a quelli che suggeriscono di prendere le 8800.
Sono soldi in cassa quelli, vero?
Dai dai, :mc:
esatto, ma il fascino è fascino :) io certe volte mentre gioco all'ultima meraviglia grafica uscita non sto a pensare a come passare il livello, ma piuttosto a pensare a quella serie infinita di bit che circolano nelle arterie dell'architettura che ho scelto. Per questo molto spesso mi oriento su ATi, anche magari rinunciando alle pure prestazioni nell'immediato (che poi riguadagnerò in futuro), perchè mi affascina.
bYeZ!
se se, :asd: come no
bYeZ! :D
appleroof
04-05-2007, 17:05
esatto, ma il fascino è fascino :) io certe volte mentre gioco all'ultima meraviglia grafica uscita non sto a pensare a come passare il livello, ma piuttosto a pensare a quella serie infinita di bit che circolano nelle arterie dell'architettura che ho scelto. Per questo molto spesso mi oriento su ATi, anche magari rinunciando alle pure prestazioni nell'immediato (che poi riguadagnerò in futuro), perchè mi affascina.
bYeZ!
Forse per questo in G80 hanno implementato i migliori filtri mai visti finora :D ...a parte gli scherzi, ognuno fà le proprie scelte, se quella è la tua passione va benissimo così :)
chiamalo poco "restare a galla" in questo mondo di squali (o di ladri come disse Venditti)
bYeZ!
Infatti non dico che sia poco, solo che regalare l'attuale gamma abbassando paurosamente i margini è una scelta forzata (esattamente come i K8 di Amd, nemmeno a farlo apposta), finanziariamente non è il massimo (unita alla fusione e ai debiti di Amd per farla), ma il tempo per recuperare c'è tutto, aivoglia ;)
E' l'hype... :D
come dicevano quei truzzari tedeschi...
:ciapet: HYPER ! HYPER !:ciapet:
Gli Scooter. E non sono truzzi :fagiano:
sicuro?
vai in Consigli e dimmi quante persone consigliano di aspettare invece di prendersi una 1950 Pro assieme a quelli che suggeriscono di prendere le 8800.
Sono soldi in cassa quelli, vero?
Dai dai, :mc:
io parlo di utente comune e tu mi tiri in ballo il forum, dove siamo tutto fuorchè comuni? :asd:
se se, :asd: come no
bYeZ! :D
questa non l'ho capita :asd:
bYeZ!
Forse per questo in G80 hanno implementato i migliori filtri mai visti finora :D ...a parte gli scherzi, ognuno fà le proprie scelte, se quella è la tua passione va benissimo così :)
quindi se ti dicessi che sto seriamente pensando alla 8800GTS 320MB ti stupiresti? :p
Infatti non dico che sia poco, solo che regalare l'attuale gamma abbassando paurosamente i margini è una scelta forzata (esattamente come i K8 di Amd, nemmeno a farlo apposta), finanziariamente non è il massimo (unita alla fusione e ai debiti di Amd per farla), ma il tempo per recuperare c'è tutto, aivoglia ;)
eh beh, speriamo (come disse il mosconi)
[niente, ormai sono fumato] :asd: :asd:
bYeZ!
ale0bello0pr
04-05-2007, 17:09
AVVISO X TUTTI I POSSESSORI DI FEAR COMBAT E PRESI DA R600 :D
C'E' UN "PLAYER" DAL NICK PALESEMENTE RICONOSCIBILE CHE STA UTILIZZANDO LA HD 2900 XT IN OC....ED E' ITALIANO..... LA STA TESTANDO AL TOP DELLA RISOLUZIONE.... CHIEDETE A LUI.... :p
Tu sei malato...:asd:
In senso buono...:D
Io a queste cose proprio manco ci penso...è come se mi chiedessi in un film mentre lo sto guardando...chissa' quale pellicola hanno usato...:sofico:
sono così da piccolo :sofico: (meglio o peggio?) :asd:
bYeZ!
AVVISO X TUTTI I POSSESSORI DI FEAR COMBAT E PRESI DA R600 :D
C'E' UN "PLAYER" DAL NICK PALESEMENTE RICONOSCIBILE CHE STA UTILIZZANDO LA HD 2900 XT IN OC....ED E' ITALIANO..... LA STO TESTANDO AL TOP DELLA RISOLUZIONE.... CHIEDETE A LUI.... :p
ma quei cannoni col marchio AMD puntati sulla tua casa prima di questo post non c'erano, o sbaglio?
:sofico: :sofico: :sofico:
bYeZ!
Kharonte85
04-05-2007, 17:12
AVVISO X TUTTI I POSSESSORI DI FEAR COMBAT E PRESI DA R600 :D
C'E' UN "PLAYER DAL" NICK PALESEMENTE RICONOSCIBILE CHE STA UTILIZZANDO LA HD 2900 XT IN OC....ED E' ITALIANO..... LA STO TESTANDO AL TOP DELLA RISOLUZIONE.... CHIEDETE A LUI.... :p
:mbe: Cioè?
sono così da piccolo :sofico: (meglio o peggio?) :asd:
bYeZ!
Meglio, vuol dire che non peggiori...:D
ale0bello0pr
04-05-2007, 17:16
ma quei cannoni col marchio AMD puntati sulla tua casa prima di questo post non c'erano, o sbaglio?
:sofico: :sofico: :sofico:
bYeZ!
TI VEDI TROPPI PETER PAN :asd:
E' inevitabile...ad essere buoni quanti giochi basati su dx10 potrebbero uscire entro fine anno?
Oltre alle patch (ci dovrebbe essere pure quella per Just Cause), i giochi DX10 "veri" (anche se comunque saranno probabilmente più dei DX9+DX10) del 2007saranno: Lost Planet, Crysis, Bioshock, Hellgate: London e Age of Conan. Pochi titoli, ma che hanno tutte le carte per essere dei bestseller. ;)
leoneazzurro
04-05-2007, 17:18
non è improbabile e non sarebbe la prima volta che accade. ATi, ad ogni step (tranne nel passaggio tra R3x0 e R4x0), ha sempre apportato grandi innovazioni ai chip, mentre nVidia utilizza una strategia più conservativa. Ad esempio, NV3x era ancora, per molti aspetti, legato alla "tradizione" dei chip dx7 e dx8 (e non a caso, con lo sm1.x era molto veloce); il salto si è avuto con NV40 di cui G7x è stato un'evoluzione. La filosofia è molto differente: ATi preferisce partire con un'architettura già orientata allo shader model di riferimento, su cui lavorare nei successivi step (ottimizzazioni, aumento delle unità ecc, ma con una base di partenza che, a livello architetturale resta la medesima), nVidia preferisce passare attraverso più fasi di transizione. Il primo approccio premia a medio/lungo termine, il secondo è più gratificante a breve termine (e permette uno sviluppo più rapido delle architetture). Anche se, in effetti, in R6x0 c'è più di qualcosa di R5x0.
A proposito delle similitudini con R580, se non erro anche in quel caso le TU erano riunite in 4 gruppi (con le dovute differenze ). Possiamo quindi ipotizzare che 5*SP di R600 siano quello che per R580 erano le shader unit 2*(vec3+1), adesso in rapporto di 4:1 anzichè 3:1 con le TFU. In realtà bisognerebbe vedere anche come i thread vengono gestiti, in R580 il controllo era gestito se non erro per ogni gruppo di 3 shader unit. In R600 credo dovrebbe essere fatto per ogni cluster di 5 SP, anche se il fatto di avere una struttura "4-4-4-5" immagino indichi uno schema di controllo ben più complesso.
Anche l'"ultrathreaded dispatch processor" nello schema ricorda molto l'omonimo di R580 (anche se la complessità sarà sicuramente superiore)
Guardando lo schema quindi abbiamo 4 blocchi principali da 80 SP, ossia 16 "shader unit" da 5 stream processors. Stando a quanto detto da Yoss, questi 16 gruppi a loro volta sono organizzati secondo una struttura 4x4 (per gestire 4 quads per gruppo, presumo). Ora, in R600 non so se le ogni TU "serva" uno dei 4 blocchi principali oppure siano totalmente ortgonali, ossia ogni TU possa servire tutti e 4 i blocchi. Ma credo che le modalità di accesso siano simili a quelle di R580, pur con le dovute differenze funzionali e al fatto che ora le Shader unit operano anche sui vertici. le ROPS invece credo siano state completamente riviste.
appleroof
04-05-2007, 17:19
Oltre alle patch (ci dovrebbe essere pure quella per Just Cause), i giochi DX10 "veri" (anche se comunque saranno probabilmente più dei DX9+DX10) del 2007saranno: Lost Planet, Crysis, Bioshock, Hellgate: London e Age of Conan. Pochi titoli, ma che hanno tutte le carte per essere dei bestseller. ;)
Alan Wake: mi basterebbero questi 5 per stare apposto per un almeno un anno :asd:
Kharonte85
04-05-2007, 17:20
Oltre alle patch (ci dovrebbe essere pure quella per Just Cause), i giochi DX10 "veri" (anche se comunque saranno probabilmente più dei DX9+DX10) del 2007saranno: Lost Planet, Crysis, Bioshock, Hellgate: London e Age of Conan. Pochi titoli, ma che hanno tutte le carte per essere dei bestseller. ;)
Bioshock è dx9 ...:(
Alan Wake: mi basterebbero questi 5 per stare apposto per un almeno un anno :asd:
Alan Wake esce il 2008... :)
Ovviamente l'anno prossimo ne usciranno un sacco: proprio oggi ho letto del prossimo Splinter Cell. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.