View Full Version : nVidia GeForce FX: NV30 finalmente svelato
Redazione di Hardware Upg
18-11-2002, 14:55
Link all'Articolo: http://www.hwupgrade.it/articoli/734/index.html
Presentato ufficialmente quest'oggi il nuovo chip video nVidia, che continua la serie GeForce ma focalizza l'attenzione sulla qualità della rappresentazione 3D. Pieno supporto DirectX 9 e grande potenza di calcolo, ma per le prime schede finali sarà necessario attendere ancora sino ad inizio 2003
Click sul link per visualizzare l'articolo.
Primoooooooooooooooooooo!
winnertaco
18-11-2002, 14:58
Paolo, non avevi detto alle 15?
NOooooo sono arrivato terzo
ZioJimmy
18-11-2002, 15:01
eccola ci siamo...inviterei tutti a controllare tutte le cose che si sono dette un mese prima di questa rece...certo che se ne sentono di cazzate in rete!!!
Cmq...la scheda è oltre le mie e ripeto le mie aspettative!!!
mi sa che questa volta superiamo i 100 post!!
ZioJimmy
18-11-2002, 15:01
eccola ci siamo...inviterei tutti a controllare tutte le cose che si sono dette un mese prima di questa rece...certo che se ne sentono di cazzate in rete!!!
Cmq...la scheda è oltre le mie e ripeto le mie aspettative!!!
mi sa che questa volta superiamo i 100 post!!
Peach1200
18-11-2002, 15:03
...ok, adesso mi leggo tutto con calma!!;)
Io non riesco ad ingrandire le immagini....
Peccato ke non ci siano i bench. Corsini quando hai un po di tempo puoi approfondire il discorso FSAA e delle altre migliorie?
Ma ke cazz di recensione, neanche un punticino di benchmark
Mica è colpa di Corsini, le skede ancora non ci sono :)
Cmq Anandtech e Tom's ancora nulla...
Non vale... io postavo sulla vecchia news "NV30: molto rumore..."
Li ero io il primo...
Bastardi!!! :( ;)
Andrea Bai
18-11-2002, 15:12
Originariamente inviato da nail k6
[B]Ma ke cazz di recensione, neanche un punticino di benchmark
:rolleyes:
volendo si può anche leggere prima l'articolo e poi commentare in modo coerente invece di scrivere parole a vanvera
Buona giornata
Io stavo refreshando la pagina a manetta da 2 minuti :p
pipozzolo
18-11-2002, 15:15
Niente da fare, eh?
BOMBAA!!! :D
Ho fatto la palestra a tutto foo per arrivare all 15:15! :D Ora mi leggo tutto l'articolo :D:D:D
Speravo in piu' dati alla mano. Inutile fare tanta atmosfera e poi saperne tra un po' meno di prima.. Nvidia mi delude sempre piu'. :rolleyes:
Cosa annunciano a fare allora un prodotto se poi rivelano solo il nome a momenti? Manco uno screenshots serio di qualche TechDemo.. :(
come volevasi dimostrare: niente di nuovo rispetto a quello che si è detto per mesi e mesi :) Carino il Core blindato, il layout è "antico" (nessuna specifica sul numero di layers). Non dico che mancano i bench perché tanto nessuno se li aspettava, dopotutto è un paperlaunch in grande style. Ne riparliamo a gennaio :P
kazz.. devo andare a pagare l'IVA !!:mad:
Me la leggo dopo...
Non scrivete troppe fesserie nel frattempo...
Ciao.:)
ZioJimmy
18-11-2002, 15:20
Cmq io aspetto la nuova nv40 quella si che sarà una scheda...altro che FX...
ahahahahahah :) :) :)
pipozzolo
18-11-2002, 15:27
Meno male che avrebbero dovuto cambiar nome....
la potevano chiamare anche GeFx
andrewxx
18-11-2002, 15:28
BLAH BLAH BLAH BLAH BLAH BLAH:o
897387892378 unità di calcolo in curva a manetta barra anti rollio per la ventola ecc.....:p
Ninvidia comincia a perdere colpi.......uhauhauhauha:D
La scheda, da noi, se tutto va bene arriva a marzo aprile cioe' 4, 5 mesi....... 5 mesi a oggi per l'hardware e' troppo tempo
anche se c'e' da tener presente che le dx9 nn ci sono(official) e ancor meno giochi, e chissà quando uscirà il 1° gioco x dx9(forse fine 2003 inizio 2004) :rolleyes:
Comunque i numeri sulla carta nn impressionano + nessuno:D
prendere per il cu@o non e' + così facile;) come prima..!!
E poi parliamoci chiaro..... quanto cacchio costerà una NVidia di questo tipo?????
I gamer che si comprano schede così sono veramente pochi la maggior parte compra la scheda con miglior compromesso prezzo prestazione ed i + con il minor prezzo:p
Tornando ai +/- 5 mesi di ritardo di Nvidia, si traducono in un abbassamento di prezzo delle ATI 9700, a tutto favore dei gamer che nn aspettano altro;)
Così quando nv30 esce costa un casino le prestazione sono allineate a 9700, la gente intelliggentemente cosa compra????............... povera InVidia:D
p.s. nn tifo ATI, semplicemente preferisco le aziende che nn cercano di impollare i consumatori;)
Staremo a vedere......................
sanitarium
18-11-2002, 15:28
Sinceramente mi aspettavo qualcosa in più da NVidia, non credevo che non avrebbero portato neanche un sample funzionante della scheda... Neanche una tech-demo per soddisfare la nostra curiosità... Mah, una presentazione un po' deludente. :rolleyes:
Ma questa anteprima non è che aggiunga granchè alle nostre conoscenze: tutti i dati pubblicati erano già conosciuti da tempo (mi riferisco al numero delle istruzioni supportate ed al superamento delle specifiche DX9) non si parla della lightspeed memory architecture 3 (che ritengo sia la cosa più interessante data la probabile collaborazione con gigapixel), non si parla approfonditamente dei nuovi effetti di vertex e pixel shading come anche dell'antialiasing...insomma mi aspettavo abbastanza di più, mi sembra un pò superficiale per essere l'anteprima del prodotto che avrebbe dovuto sconvolgere il mondo :)
Saluti.
PS: Che peccato rovinare le discussioni con commenti così superficiali...in molti dovrebbero collegare il cervello alle manine prima di scrivere.
Demetrius
18-11-2002, 15:32
CNET has posted a news story on NVIDIA's new NV30 based graphics products. The two chips launched will be the GeForce FX 5800 ($399) and the GeForce FX 5800 Ultra ($499):
The new GeForce FX will run at 500MHz, faster than the 325MHz Ti 4600 chip. A new feature lets developers program their own shaders, which are what give graphics their unique look. That means game developers can make graphics more realistic. Using Nvidia's CG language, for example, developers can make things such as skin look more like something you could touch, Vivola said.
The first two versions of the new chip, the GeForce FX 5800 and 5800 Ultra are in production. They will be available in January and will be priced between $399 and $499 at retail.
alex 4.8
18-11-2002, 15:32
Poi le prestazioni sono uguali alla 9700pro.Perchè? Perchè è tutto CPU limited, queste saranno fillrate limited con Tejas, quando ci sarà NV40 ed è sempre la stessa storia
pipozzolo
18-11-2002, 15:33
sono d'accordo, non è emersa nessuna novità su ciò che già sapevamo... che so, nuove features o cose simili.
Fino a che non vedremo qualche prova, è tutto inutile :)
ZioJimmy
18-11-2002, 15:34
Per Andrewxx
Prima di dire quanto costa e se i risultati saranno allineati...aspettiamo quei 3 o 4 mesi, poi si potrà valutare...
Per il tempo d'attesa concordo con te è un pò tantino...
Blindman
18-11-2002, 15:35
Troppo hype per una presentazione che non dice nulla di nuovo...Neache un bench e la scheda non si vedra prima di 3-4 mesi...mi aspettavo qualcosa di più
Fino a che nVidia non farà girare qualcosa di funzionante, per me resta tutto fumo!!! Cosa c'entra se DICHIARANO di andare 3 volte più forte delle geffo4 se non hanno ancora fatto vedere nulla?
Anche io dichiaro in questa sede che ho realizzato un chip grafico (ZNICK FX2 Titanium+) con 36 pipeline, 384Mb di ram DDRII a 256 bit, chip a 1Ghz e pronto per l'AGP 16x. Appena riusirò a produrlo a 0.09 micron andrà al triplo di una 9700.
chi si prenota??
Direi che con tutti questi valori non riesco nemmeno a capire quali analogie e quali differenze ci sono con R300!!
Certo è che ATI a tutto il tempo di pompare l'R300 per contrastare NV30.
.............e speriamo che ATI prima dell'uscita di NV30 renda dignitose le prestazioni in OpenGL "non gaming" chè è l'unico tallone d'achille di ATI!!
Sciaooooo
andrewxx
18-11-2002, 15:45
Pienamente concorde ZIOJimmy;)
sono il primo ad attendere, ma come molti sottolineano, il mio sarcasmo è riferito ad, una presentazione ufficiale di un prodotto di punta che di presentazione nn ha altro che il nome
E come se ad un salone dell'auto, la mercedes ti presenta la classe xy con motore 1000cc che fa 35km/l, e tutti:...eh:eek:
Poi ti giri attorno,..... ma l'auto dov'e'?????? e sapete...ehm... e' in fase di verniciatura.....:rolleyes:
Mi sa che nn erano nemmeno in grado di mostrare proprio nulla.. secondo me per nn fare figuracce:cool:
pipozzolo
18-11-2002, 15:45
Speriamo che ATI faccia uscire la versione economica del 9700, visto che non sono molti quelli propensi a spendere 400 e passa euri per una 9700...
ed è con quelle che si guadagna (ad GeForce 2 MX - GTS, 8500LE - 8500, 4200 - 4600)
Tanto non é che serva a molto agitarsi tanto, con le prime NV30 saremo a febbraio/marzo, già in piena ERA PALLADIUM, per cui, chi ha testa e cuore si terrà le macchine che ha adesso, non sfruttando appieno questi mostri (parlo anhe del futuro r400)... sigh!!
Eppoi qualcuno sa se le DX9 andranno anche sul 98SE/Me??? o solo dall'XP in su (Longhorn.... grrrrrr)?
Filippo75
18-11-2002, 15:46
Anch'io speravo di avere qualche notizia in più. Pensavo venissero annunciate le varie versioni da mettere in commercio e relativi prezzi, e magari poter vedere qualche benchmark fatto da Nvidia.
Comunque resto fiducioso, Nvidia non ha mai deluso, credo che per il 2003 usciranno con la scheda più potente del momento, e salvo flop clamorosi la comprerò.
Speriamo di avere altre notizie al più presto, nel frattempo non ci rimane che stare a guardare cosa combinano Nvidia ed Ati e poi scegliere di conseguenza :)
halduemilauno
18-11-2002, 15:46
Originariamente inviato da sanitarium
[B]Sinceramente mi aspettavo qualcosa in più da NVidia, non credevo che non avrebbero portato neanche un sample funzionante della scheda... Neanche una tech-demo per soddisfare la nostra curiosità... Mah, una presentazione un po' deludente. :rolleyes:
la scheda non è ancora stata presentata.lo sarà fra qualche ora a LasVegas.ci sono 8 ore di differenza.senza contare che il Comdex dura 4 giorni.45 minuti fa scadeva solo il NDA di Corsini.aspettiamo.
ClawHammer85
18-11-2002, 15:46
Dai, non esageriamo, evitiamo di scrivere commenti "poco opportuni" per una volta... :rolleyes:
L'articolo è, come di consueto su hwupgrade :) , di ottima realizzazione... Per i dati bisognerà lamentarsi con nVidia, che li lascia filtrare con il contagocce...
Per la disponibilità, considerando che l'Italia è il fanalino di coda dell'Europa, vedo Febbraio come una data molto ottimistica... speriamo che arrivi a Gennaio-Febbraio in qualche vicino paese europeo, tipo Germania ;) ...
supermario
18-11-2002, 15:49
se lo dichiarano vuol dire che lo hanno provato(potevano mettere anche 5 vole superiore ;))
forse nn lo sai ma alla nvida ne hanno abbastanza di gffx per i loro test
manseeverard
18-11-2002, 15:49
Scusate se non parlo da sapiente (letterlamente: colui che sa), ma ho una perplessità; nell'articolo dell'ottimo Corsini c'è la sezione dedicata al processo produttivo che in particolare riporta che questa gpu è la prima che viene fabbricata con tale processo...
Devo desumere che la 9700 di Ati sia fabbricata a 0.15... ma allora, considerando che in entrambe le schede è presente un sistema per bypassare l'alimentazione (presa molex) e che tempo addietro si era parlato che il passaggio al processo produttivo di dimensioni inferiori avrebbe consentito di rimuovere questo sistema... ora come ora la Ati non è in forte vantaggio tecnologico rispetto alla NVIDIA?
morellone
18-11-2002, 15:50
bah...effetivamente anche io mi aspettavo qualcosina di più dettagliato.d'altronde ce da pensare che aziende del calibro di nvidia non possano certamente sparare ca**ate, non ad un certo livello(se dicono che sarà 2 o 3 o etc.. volte più velove della gef4 credo proprio che sarà così, pena un danno d'immagine notevole).si sapeva anche che l'occasione di oggi sarebbe stata più un lancio pubblicitario che qualcosa altro,nvidia dopo l' r300 ha perso secondo me un buonissimo treno, quello di fine anno e di natale, quindi ognuno rimedia come può, il mercato funziona così.leggendo è stato significativo vedere le "traccie" di 3dfx nel progetto nvidia,mi piace pensare che ci sia anche un pò di questa azienda in questa nuova scheda, un azienda senza la quale forse oggi non saremmo arrivati già a dei livelli di grafica 3d impensabili 5 o più anni fa.
Che dire aspettiamo benchmark ufficiali ma nel frattempo non siamo troppo duri con questa nuova scheda, il cui progetto a me sembra di tutto rispetto.
PS sono sempre stto uno che legge tutti i post dei forum ma alcuni sono sintomo di una cretineria che si ci potrebbe anche risparmiare(sembra quasi che sia Corsini il colpevole della mancanza dei bench in questa recensione...sono perplesso)
pipozzolo
18-11-2002, 15:54
Guardate che il discorso 2/3 volte + veloce è specificatamente in alcuni ambiti di utilizzo es 1600x1200 AA4x AF16x... in queste condizioni anche R300 da parecchia feccia a NV25, quindi non c'è da sorprendersi.
Cmq sono sicuro che sarà più veloce del 9700, altrimenti non avrebbero aspettato tanto.
Ciao
Come volevasi dimostrare, non è emerso nulla, e questo dovrebbe cominciare a preoccupare, possibile che non esista uno stralcio di sample da montare in un Pc ?
Un bechmarks, magari a confronto con la scarsissima R300 non lo vogliamo fare ?
Magari a 1600x1200 con AA max e aniso :cool:
Scusate ma questa storia comincia a non quadrare, il ritardo sta diventando biblico, questa VPU alla sua uscita mica se la dovrò vedere con l'R300!!
Ma noooooo!!!!! Mancano tantissime cose...
Neanche avete un sample... Certe informazioni senza certificare, neanche un clock sicuro della GPU e Memoria... Corsini Cos'è questo?????
Sinceramente, sono propio deluso.
Spero che con la recensione presto Hwupgrade ritorni al trono.
Mmmm... Sembra che la colpa la abbia hwupgrade...
Ma il ritardo è di nVidia Certo!
pipozzolo
18-11-2002, 15:58
Corsini ha semplicemente illustrato le caratteristiche ufficiali del chipset! Preferivate sapere che ha le DDR-II a 500MHZ solo quando avrebbe potuto fare un test... a dicembre inoltrato immagino????
C'è un piccolo dettaglio che sfugge a tutti.. Corsini precisa che le prestazioni indicate sdi riferiscono a filtro anisotropico e aa attivati.. ma.. ma.. una 9700 pro con fsaa e aniso attivati a 1600x1200 va già 3x di una gefo4 4600... cioè usciranno tra 4 mesi (forse) con una scheda che costerà un enormità... e con prestazioni allineate ad una 9700di oggi? Bella scheda davvero!!
Se penso all'hype che si era creato e alle attese degli utenti nVidia mi vien da ridere :D
Sono proprio curioso di vederla davanti ad un'R350!! :D
almeno sulla carta le caratteristiche per spaccare ci sono, speriamo che arrivi presto nei negozi e soprattutto escano versioni + alla portata di tutti come la ti4200. (DDR II a 1 ghz WOW!!!!!!!!!!)
SikShady
18-11-2002, 16:02
volevo i benchhhhhh
pipozzolo
18-11-2002, 16:05
Originariamente inviato da paul71
[B]C'è un piccolo dettaglio che sfugge a tutti.. Corsini precisa che le prestazioni indicate sdi riferiscono a filtro anisotropico e aa attivati.. ma.. ma.. una 9700 pro con fsaa e aniso attivati a 1600x1200 va già 3x di una gefo4 4600...
Veramente lo avevo scritto io qualche post sopra....
Originariamente inviato da PnKman
[B]almeno sulla carta le caratteristiche per spaccare ci sono, speriamo che arrivi presto nei negozi e soprattutto escano versioni + alla portata di tutti come la ti4200. (DDR II a 1 ghz WOW!!!!!!!!!!)
La carta di sicuro non muove poligoni, senza bench questa presentazione in pompa magna non serve ad una ceppa di nulla.
Qua c'è ancora da capire la storia sulla banda, aspettiamo a dire che non avrò problemi... non so, ma ho dei dubbi.
suppostino
18-11-2002, 16:07
Vedo concretizzarsi sempre di più ciò che sospettavo. La posizione di Nvidia rispetto ad Ati questa volta è particolarmente difficile, sia per l'oggettiva bontà del R300 che per il vantaggio temporale rispetto all'uscita del NV30 (R300 disponibile a natale e il NV30 no).
Viene da chiedersi se all'uscita dell'ultimo nato Nvidia non seguirà una versione potenziata della 9700pro con l'immediata RIperdità della leadership (si scrive così?) da parte di Nvidia che oramai era abituata da anni a tenerla saldamente in proprie mani.
Non cè che dire, ci aspetta un periodo di indecisione su quale scheda scegliere, come non si vedeva ormai da anni, sarà un bene o un male???
Per ultimo vorrei sottolineare la dichiarazione che ha fatto Dave Kirk nell'intervista di maggio:
.....Negli ultimi anni la risoluzione media di gioco è via via aumentata, sino ad ottenere con le ultime generazioni di schede video una elevata fluidità alla risoluzione di 1600x1200. Il nostro obiettivo, a questo punto, non è quello di offrire un superiore quantitativo di pixel, quanto di aumentare la qualità complessiva di ogni pixel visualizzato.....
Io la vedo come una notizia estremamente positiva per chi la pensa come me, perchè significa finalmente che il rinnovo della propria scheda video sarà dettato dalla voglia di una miglior visualizzazione del videogioco e non dall'impossibilità di farlo girare ad una velocità decente.
Che ne pensate?
Bo, sono scettico, sapremo fra 2 mesi...
Anche dire che la banda passante sarà di 48Gb/s grazie a LMA3 mi pare poco credibile, cioè possibile, ma se così fosse anche la GFti4600 ha 20.8Gb/s (Nvidia parla del 200% di ncremento nei datasheet) e l'R300 verosimilmente con HiperZ 3 oltre i 50Gb/s...
Mi sa troppo di marketing questa presentazione...
Speriamo che nel frattempo che esce NV30, ATI si allinei con le prestazioni OpenGL "non gaming" dell'R300!
Speriamo che ATI colmi la sua ultima lacuna!
Speriamo!!!
Filippo75
18-11-2002, 16:08
Perchè dite che NV30 se la vedrà con R350? Io non credo proprio che a Marzo R350 sarà già pronto.
E poi la finiamo di criticare HWUpgrade? Se Nvidia ha rilasciato poche informazioni non è mica colpa di Corsini.
nooooooooooooooooo, non ci credo, nVidia è meglio che si metta a fare chipset perchè sulle sk video fa ridere tutto e tutti... (anche se sono un felicissimo possessore di una 4200 che va una bomba...)
nn ho fatto in tempo a commentare che già ci sono altri 4-5 commenti!!!! cmq d'accordo sulle critiche, è nVidia che fa ridere, non il mitico Paolo!!! :D :D :D :D :D :D :D :D :D :D :D :D
Io spero che nel tempo che ATI aspetterà di vedere NV30 nei negozi, si decida a colmare la sua ultima lacuna!!!!!
Dai ATI fai l'ultimo sforzo!!!! Dai, dai regalaci prestazioni anke in OpenGL "non gaming"!!
bah, speravo che nvidia mettesse gli addetti ai lavori in condizione di dare almeno qualche informazione nuova... invece niente, neanche un bench fatto in laboratorio...
con quello che hanno investito rischiano di prendere una bella scoppola: già si perdono il mercato di natale in più rischiano di arrivare sul mercato in un momento in cui ati sarà in grado di far uscire una risposta adeguata con rese più elevate (e quindi con prezzi più bassi)...
sulla carta è una bellissima scheda ma rischia seriamente di arrivare nei negozi troppo tardi...
PS certo che è paradossale dire che una scheda arriva troppo tardi quando non ci sono ancora i titoli per sfruttarla...:rolleyes: :D
Karandas
18-11-2002, 16:14
Con tutto il movimento che hanno fatto mi aspettavo qualcosa di + radicale!
andrewxx
18-11-2002, 16:14
Per chi ha da ridire sui post(certe frasi ,certi commenti,cretinerie..)...: c'e' un regolamento, e finchè lo si rispetta si dice cio' che si pensa liberamente:o
Pare che il Corsini abbia semplicemente fatto cio' che sempre fà....riportare la notizia, e in cio' credo nessuno abbia dubbi o malintesi, il Corsini con Nvidia nn ha niente da spartire(credo),
perciò il suo operato credo nn sia in discussione,idem per la redazione hwupgrade.
Tornando al topic,Chiariamo che:
Nvidia ha semplicemente spazzato via dal mercato 3dfx, sennò l'avrebbe finanziata. Alcuni ingegneri sono stati assunti ed i progetti in forno sono stati rilevati, ma niente di +, con la fine dell'azienda e' finito il lavoro di un gruppo di ingegneri con le palle che avevano intenzione di bruciare le tappe(ed in parte ci stavano riuscendo), ma l'hanno pagata cara, ed infatti....... oggi e oggi:cool:
Fatti nn bruschette:D
Byez!
Originariamente inviato da SikShady
[B]volevo i benchhhhhh
... senza scheda è difficle... :rolleyes:
Mi sa che molti non hanno letto l'articolo con lo spirito giusto... vi aspettavate forse che nv30 uscisse oggi?! :)
Io spero che questa scheda oltre che alle prestazioni nei giochietti porti un incremento in OpenGL 2.0...!
E' vero che ad oggi non ci sono giochi che sfuttino queste schede in DX9.0 ma ci dimentichiamo che queste skede lavorano bene anke in OpenGL 2.0!!
Perciò ad oggi potremmo già, in parte godere, di queste skede performanti!!
Dai ATI fai l'ultimo sforzo e regalaci il primato anke in OpenGL 2.0!!
Paolo Corsini
18-11-2002, 16:25
Originariamente inviato da Cosimo
[B]Ma noooooo!!!!! Mancano tantissime cose...
Neanche avete un sample... Certe informazioni senza certificare, neanche un clock sicuro della GPU e Memoria... Corsini Cos'è questo?????
Sinceramente, sono propio deluso.
Spero che con la recensione presto Hwupgrade ritorni al trono.
Che bello vedere persone che sparano sentenze senza prendere il tempo di leggere tutto. Quello che leggi sono informazioni certe che ho; le speculazioni le lascio in questo caso molto volentieri ad altri.
Le mie conclusioni
http://www.hwupgrade.it/articoli/734/11.html
"Il lancio delle nuove schede GeForce FX lascia da una parte stupiti, per la notevole complessità dell'architettura, dall'altra con un notevole amaro in bocca: mancano dati certi su troppi elementi per poter avere un quadro chiaro. Nessun benchmark prestazionale, anche se i numeri si possono intuire; una certa incertezza in merito al periodo nel quale le prime schede faranno la loro comparsa sugli scaffali; mancanza d'informazioni precise su quali prodotti verranno commercializzati; nessun dato ufficiale sulle frequenze di lavoro; mancanza di informazioni certe su eventuali versioni di fascia media (NV31).
E' ovvio che questa presentazione al Comdex 2002 è stata organizzata da nVidia per coprire buona parte dei problemi incontrati durante lo sviluppo del progetto NV30; il notevole impegno dal lato marketing profuso in queste ultime settimane, con il rilascio progressivo di varie informazioni direttamente sul sito nVidia così da creare notevole attesa, non fa altro che mascherare il netto ritardo con il quale nVidia si presenterà sul mercato. ATI è sempre rimasta alle spalle di nVidia in termini di capacità di presentare prodotti innovativi ma con la GPU R300 ha definitivamente cambiato trend, introducendo la prima GPU pienamente compatibile con le API DirectX 9 e soprattutto rendendola disponibile da mesi in volumi sul mercato.
Vero è che l'introduzione di un nuovo progetto, carico di novità assolute (0.13 micron di processo produttivo, compatibilità DirectX 9, memoria DDR-II), può sempre riservare dei ritardi e dei problemi ma rispetto alle iniziali previsioni nVidia il delay è molto elevato, soprattutto pensando che le schede non verranno ottimisticamente commercializzate prima di Gennaio 2003.
L'attesa verso le schede GeForce FX è comunque altissima e non potrà che crescere nelle prossime settimane; speriamo con questa preview tecnologica di avervi fornito sufficienti elementi di analisi, preparando il terreno ad una recensione prestazionale del nuovo "king of the hill" di nVidia."
Giusto per sdrammatizzare, anche qui in ufficio abbiamo un trono.
Si trova in un'apposita stanza, piena di piastrelle bianche e azzurre sulle pareti. Sono solito passarci i miei bravi "15 minuti d'impero" ogni mattina; a volte ho slanci di ottimismo e ci vado più volte al giorno.
Non vedo quindi quale sia il trono al quale tu fai riferimento, e cosa dovrei fare per salirci. Che sia più bello di quello che già ho qui?
Pippo1975
18-11-2002, 16:26
Secondo me tutte ste cose che dichiarano ancora le devono mettere in pratica (visto il brutto ritardo), la scheda uscirà a marzo e Ati sfornerà un nuovo mostro che determinerà la sconfitta di Nvidia.
Cmq. non ci lamentiamo e diciamo un GRAZIE SINCERO A CORSINI che ha mantenuto la parola.....Magari quelli della Nvidia fossero precisi come te...Sei Grande.
Originariamente inviato da Cosimo
[B]Ma noooooo!!!!! Mancano tantissime cose...
Neanche avete un sample... Certe informazioni senza certificare, neanche un clock sicuro della GPU e Memoria... Corsini Cos'è questo?????
Sinceramente, sono propio deluso.
Spero che con la recensione presto Hwupgrade ritorni al trono.
:rolleyes:
Buttiamola sul ridere: mi dicono che Paolo stia ultimando di costruire la sua macchina del tempo per sapere in anteprima i bench delle schede che devono ancora uscire...
Così va bene?! Siete contenti??!!
:(
pipozzolo
18-11-2002, 16:28
In questo clima da stadio ci manca solo che un tifoso di Nvidia impazzito rifili un pugno al Corsini...:D :D :D
scusate... posto da Cagliari...
andrewxx
18-11-2002, 16:32
huahuahuahuahuahuha!!!! un pugno al corsini:D
anch'io Cagliari.....(che figura di mer@a):rolleyes:
Continuo a sperare che ATI colmi la sua ultima lacuna dell'R300 aumentando le prestazioni in OpneGL "non gaming"!!!
Blindman
18-11-2002, 16:34
[quote]...diciamo un GRAZIE SINCERO A CORSINI che ha mantenuto la parola.....Magari quelli della Nvidia fossero precisi come te...Sei Grande.[/quote ]
Sottoscrivo...
ErPazzo74
18-11-2002, 16:35
Non sò a voi, ma a me questa presentazione non ha impressionato per niente. Si tante parole che già sapevamo, anche se non con certezza. Quella della banda di memoria mi fà ridere, la banda HW è una cosa oggettiva e quella ottenibile con tecniche di ottimizzazione della banda è un'altra cosa.
Il ritardo sarà enorme, così lo allinenano al prezzo :D
Sul fatto che spingono tanto per la qualità ottenibile, mi ricordano un'altra marca che lo ha fatto ultimamente e non ha fatto bella figura, la matrox.
Le immagini sulla gamma correction mi sembrano tanto false.
Le immagini sulla precisione a 32bit di colore mi fanno ridere (NB l'occhio umano vede 5 milioni di colori). Come è possiile che io ho il desktop a 16bit e vedo la differenza?
Second me c'è 1 errore la precisione è a 128bit x i floating point e a 10bit per il colore come matrox e mi sembra anche ATI.
Per cui quelle immagini si riferirebbero al miglioramento ottenibile, grazie ai 128bit, nella precisione dell'immagine e non grazie ai colori.
Paolo se puoi dare una controllata, che ne dici?
Comunque quella dei bit è solo una trovata commerciale.
Aspetto i benchmark, ma la vedo molto scura per nvidia si è legata allo .13 e non riesce a fare neanche dei sample. Si è legata alle DDR-II e non se ne vedono in giro o sbaglio?
Insomma tutte cose innovative ma anche immature, per cui devo dire BRAVA ATI ;)
Corsini dice anche che ha dubbi che l'architettura ATI possa digerire facilmente le DDR-II, beh io direi che almeno ATI ha fatto già vedere un sample funzionante, la NVIDIA NO!
Ho letto che com la ATI aspetta la distribuzione in massa dell'NV30 per presentare a primavera il suo nuovo chip, in modo da creare suspence e magari non far comprare, a chi è già in procinto, una nuova scheda video NV30 attendendo almeno di vedere le prestazioni dell'R350 ;) Insomma risponde con le stesse armi alla NVIDIA :D
Beh scusate il post lungo, ma sarà che stò scrivendo la tesi e i caratteri vanno giù che è un amore...:D
Ma figuriamoci se LMA3 ha una tale efficenza da permettere 48 GByte/Sec di banda, ma per piacere dai!!
Se era così efficace si poteva usare delle memorie ben piu' semplici, invece si è fatto ricorso alle DDR-II.
Non per nulla il Kyro dall'alto del suo maestoso TBR usa della SDR da quattro mhz..., questo funziona!
Quincy_it
18-11-2002, 16:39
Ho letto quasi tutti post (sono davvero tanti), e a parte alcuni commenti inutili, io dico che sì, Nvidia è indietro rispetto d Ati, è vero che le schede le vedremo fra un paio di mesi (e tanti che sparano numeri così a caso), ma il ritardo accumulato è solamente sul piano della commercializzazione!
Sul piano tecnologico è nettamente avanti, non solo perchè offrirà una scheda che, sulla carta presenta innovative caratteristiche (DDR-II, LightSpeed Memory Architecture, ecc..), che Ati già ha intezione di implementare sulle future revisioni del core R300, ma soprattutto perchè il chip è già a 0,13 micron! Non dimentichiamoci che i passaggi a processi produttivi migliori sono sempre stati traumatici, dolorosi ma soprattutto lunghi per molte compagnie (AMD è una di queste), e Ati tutto questo deve ancora affrontarlo! I mesi di ritardo che ha accumulato il chip NV30 non dipendono solamente dalla progettazione del chip e delle sue features, ma anche e soprattutto dalla difficoltà del costruttore di chip Taiwanese (a cui Nvidia si affida per la produzione dei suoi chip), a produrre a 0,13 micron. ;)
Certo, un pochino sono rimasto deluso anche io (per carità, Corsini ha fatto un ottimo articolo, se Nvidia non fornisce materiale mica può inventarsi le cose!), mi aspettavo qualche benchmark vero ma pazienza, aspetterò un altro mese e poi si vedrà.
Sono sicuro che con questa scheda Nvidia si riprenderà la leadership del settore, e il prezzo delle schede ahimeè, non sarà di certo basso.. :rolleyes:
halduemilauno
18-11-2002, 16:40
Originariamente inviato da Pippo1975
[B]Secondo me tutte ste cose che dichiarano ancora le devono mettere in pratica (visto il brutto ritardo), la scheda uscirà a marzo e Ati sfornerà un nuovo mostro che determinerà la sconfitta di Nvidia.
"le devono mettere in pratica""mostro""sconfitta"
ma ti rendi conto di quello che dici?
Bravi ragazzi, don't feed the lamer ;)
ErPazzo74
18-11-2002, 16:41
Originariamente inviato da Maury
[B]Ma figuriamoci se LMA3 ha una tale efficenza da permettere 48 GByte/Sec di banda, ma per piacere dai!!
Se era così efficace si poteva usare delle memorie ben piu' semplici, invece si è fatto ricorso alle DDR-II.
Non per nulla il Kyro dall'alto del suo maestoso TBR usa della SDR da quattro mhz..., questo funziona!
Non capisco se la tua è una critica o una conferma :D
Com si ti dò ragione xchè usare le costosissime DDR-II?
E poi con che computer la proviamo la scheda con 1 Cray :D
Wing_Zero
18-11-2002, 16:42
Ragazzi penso che sarete tutti d'accordo nel dire che le specifiche di queta scheda sono impressionati, sicuramente superiori alla radeon 9700(le specifiche).
Pero' non si potra confermare niente fino a che nn si avranno alcuni samples??? giusto??? quindi e' inutile dire che e' emglio questa o l'altra; bisogna aspettare i test.
Cmq se nvidia manterra' le promesse(come ha sempre fatto riguardo le prestazioni) questa scheda a mio parere sara' unaati radeon 9700 killer!
Xo' dato che e' uscita molto in ritardo enso(e spero) che ati faccia usire un altro gioiellino dei suoi(anche se adottare la tecnologia a o,13 u potrebbe essere piu' compliato per ati dato che il chip e' a 0.15) cosi' da aumentare la concorrenza che nel mercato fa sempre bene!!!
ASPETTIAMO..E VEDREMO!! :D :D
FORXA NVIDIA!!! FORZA ATI!!! W al CONCORRENZA
P.S.:
Ragazzi spiegatemi sto fatto del palladium! che significa che si potra usare solo software registrato???
p.p.s.:
Ma se uno monta la geffo FX su una skeda agp 4x, verrano notevolemte ridottel el prestazioni???aiuto!
magomerlinopaolo
18-11-2002, 16:43
ragazzi la cosa certa è che questa scheda sarà una bomba . e basta :) :) :)
anche se ci sarà da aspettare...cmq sono felice che Nvidia sia un pò in difficoltà, se ati riesce a raggiungerla come volumi vendita è meglio x tutti :)
Originariamente inviato da enrico
[B]Continuo a sperare che ATI colmi la sua ultima lacuna dell'R300 aumentando le prestazioni in OpneGL "non gaming"!!!
Sei off-topic (ed è il tuo 3° post in questo thread in cui "stranamente" parli dell'OpenGL di Ati...)
Originariamente inviato da ErPazzo74
[B]
Non capisco se la tua è una critica o una conferma :D
Com si ti dò ragione xchè usare le costosissime DDR-II?
E poi con che computer la proviamo la scheda con 1 Cray :D
Dico che LMA3 non è potente come si dice, assolutamente, ma assolutamente!!
La banda è la cosa piu' difficile da ottenere, non esistono miracoli, 48 gbyte, ... roba da Zelig :D
Originariamente inviato da Raven
[B]
Sei off-topic (ed è il tuo 3° post in questo thread in cui "stranamente" parli dell'OpenGL di Ati...)
Tipico atteggiamento da lamer, basta ignorarli. :)
andrewxx
18-11-2002, 16:51
Sul piano tecnologico è nettamente avanti, non solo perchè offrirà una scheda che sulla carta presenta innovative caratteristiche (DDR-II, LightSpeed Memory Architecture, ecc..), che Ati già ha intezioni di implementare sulle future revisioni del core R300, ma soprattutto perchè il chip è già a 0,13 micron!
-----------------------------------------------------------------------------------
Cacchi loro,
certo che ATI e' stata + accorta a non buttarsi sul 0.13, anche perchè lavorare su un 0.15 e' + facile che su un 0.13, ragion per cui ati ha continuato a sfruttarlo, ed i risultati si vedono. E poi il margine di sfruttamento del 0.15 e' vasto, e nn e' neccessario ora come ora, per andare avanti, il 0.13 , servira fra un annetto e forse + .
morellone
18-11-2002, 16:51
trovo incredibile che ci sia gente che malata di protagonismo posta la stessa cosa 4 o 5 volte soltanto perchè di solito i suoi post suscitano polveroni(a mio parere inutili).allora e ora di capire quando le paranoie di una persona diventano veramente insopportabili, sopratutto in dei post in cui l'argomento è tutt'altro.faccio un appello all'ignorare le stupide provocazioni di altrettanto stupide ed infantili persone
Quincy_it
18-11-2002, 16:53
Originariamente inviato da Maury
[B]
Dico che LMA3 non è potente come si dice, assolutamente, ma assolutamente!!
La banda è la cosa piu' difficile da ottenere, non esistono miracoli, 48 gbyte, ... roba da Zelig :D
Marò certe volte mi sembriamo (io in primis), i bambini dell'asilo: "Il mio è più bello!" "No, è più bello il mio!";) :D
Aspettiamo i bench e poi vediamo se i dati snocciolati da Nvidia sono "tutto fumo" o se c'è anche l'arrosto :)
Tasslehoff
18-11-2002, 16:53
Originariamente inviato da supermario
[B]se lo dichiarano vuol dire che lo hanno provato(potevano mettere anche 5 vole superiore ;))
forse nn lo sai ma alla nvida ne hanno abbastanza di gffx per i loro test ma scusa che vuol dire? e tu pigli per oro colato qualsiasi cosa ti dicano? quante volte quello che è stato dichiarato in una presentazione alla stampa poi è risultato vero al 100%?
Credo mai nella storia dell'informatica...
Cmq non ci sono ancora news importanti perke la presentazione si sta svolgendo in questo momento, i dati verrano fuori anke tra poco :)
Nightmare the Dark
18-11-2002, 16:58
secondo il mio punto di vista...
ok... ati ha una superscheda pronta x il natale.. e nvidia? non scordatevi che x i giocatori non estremi nvidia è una marcona.. mentre ati manko la conoscono.. quindi se devono comprare una skeda video cosa scelgono? nvidia, e ati rimane a bocca asciutta...
e cmqsia... non tutti compreranno la 9700... molti compreranno la 9000 ma ki vuole qualkosa piu della 9000? compra gf4ti4200 in mancanza della 9500.. quindi ati deve solo abbozzare, sono inutili le storie che fate tutti voi, xke ati non è un marchio conosciuto come nvidia (almeno x un normale essere umano, non per me).
poi x quanto riguarda questa anteprima, a me interessa molto piu la qualita d'immagine che la velocita, visto che vedere Nmila fotogrammi al secondo ed avere una qualita pessima, non mi esalta molto.. preferisco andare a miseri 60 frame con dettagli e mikroscopici dettaglini al massimo.
certo mancano i benchmark... ma seocndo me questa è una ottima mossa di nvidia, se facesse uscire i benchmark ora, entro 3-4 mesi ati avrebbe tutto il tempo di potenziare la sua R350 in modo da superare nvidia mentre se li tiene segreti.........
secondo voi xke ati aspetta che nvidia lanci questa skeda? x non buttare sul mercato una nuova skeda video non all'altezza della concorrenza e quindi non RISKIARE.... meditate ragazzi
non sparate cazzate senza pensarci
Quincy_it
18-11-2002, 16:59
Originariamente inviato da andrewxx
[B]
Cacchi loro,
certo che ATI e' stata + accorta a non buttarsi sul 0.13, anche perchè lavorare su un 0.15 e' + facile che su un 0.13, ragion per cui ati ha continuato a sfruttarlo, ed i risultati si vedono. E poi il margine di sfruttamento del 0.15 e' vasto, e nn e' neccessario ora come ora, per andare avanti, il 0.13 , servira fra un annetto e forse + .
Saranno anche "cacchi loro" come li definisci te, ma prima o poi il passo lo dovrà fare anche Ati! ;)
Oltretutto i 0,13 micron farebbero più che bene alla Raddy 9700 (ottima scheda, nessun dubbio) dato che è un piccolo fornetto.
Ripeto, se Ati ha già annunciato di avere intenzione di integrare DDR-II e altre cosuccie nel suo chip un motivo ci sarà no? Evidentemente sa anche lei che sono le scelte giuste per l'aumento di prestazioni. :)
Nandozzi
18-11-2002, 17:00
x enrico
La vuoi smettere con quella frase: "Continuo a sperare che ATI colmi la sua ultima lacuna dell'R300 aumentando le prestazioni in OpneGL "non gaming"!!! "
Se hai tanti problemi, cambia la tua scheda e non rompre con queste cose... Non è possibile vedere 10 post uguali !!!
x tutti
Trovo francamente ingiusto riservare un simile trattamento a Corsini. In passato molti hanno parlato di lui e di HWUpgrade sostenendo che sia di parte e invece lui vi ha dimostrato che nella redazione di HWUpgrade non scentolano bandiere di nessuna società !!!.
L'articolo forse non aggiunge grosse novità o bench sulla futura GeForce FX, ma dovete smetterla di dare tutte le colpe a Paolo. Purtroppo questo sito e relativo forum è frequentato da troppi utenti dotati solo di una mano veloce e scollegata dal cervello. Alcuni volevano dei bench da parte di Nvidia e io mi chiedo se non avrebbero poi detto che erano falsati !!!
Vorrei per una volta vedere dei post intellogenti e non le solite stupide lamentele (ritarda troppo, Ati farà una GPU + potente, costerà troppo, etc...).
Pochi di voi hanno fatto presente che questa GPU sarà limitata dai giochi e dalla CPU e invece la maggior parte si sono limitati a dire che la Nvidai fa schifo... Scusatemi se una società non ha intenzione di buttare dalla finestra miliardi investiti in ricerca in un qualcosa di instabile e magari anti-economico... Vi siete forse dimenticati che stiamo parlando di società e non di opere di carità !!!
sanitarium
18-11-2002, 17:00
Originariamente inviato da halduemilauno
[B]
la scheda non è ancora stata presentata.lo sarà fra qualche ora a LasVegas.ci sono 8 ore di differenza.senza contare che il Comdex dura 4 giorni.45 minuti fa scadeva solo il NDA di Corsini.aspettiamo.
Pardon, pensavo che l'articolo si basasse sulla scheda già presentata... Non sapevo che ancora deve essere mostrata al Comdex, credevo l'avessero già fatto! :p
P.S.: Vorrei far notare anche un'altra cosa: dicendo che sono rimasto deluso non mi riferivo all'articolo, peraltro come al solito di ottima fattura, ma al fatto che credevo che la scheda fosse stata già presentata e non avevano mostrato uno straccio di test.
la voglio vedere all'opera questro mostrooooooooo
;)
ALT!!
Che mi viene un dubbio...
Non vorrei essere frainteso, i miei commenti non hanno nulla a che fare con l'ottimo lavoro svolto da Paolo, io parlo di nVidia!!
Sia chiaro ;)
Paolo Corsini
18-11-2002, 17:06
Originariamente inviato da halduemilauno
[B]
la scheda non è ancora stata presentata.lo sarà fra qualche ora a LasVegas.ci sono 8 ore di differenza.senza contare che il Comdex dura 4 giorni.45 minuti fa scadeva solo il NDA di Corsini.aspettiamo.
Sai che sono il primo ad essere sorpreso del fatto che l'unica analisi dell'NV30 on line è la mia? Ero addirittura convinto di aver sbagliato l'ora dell'NDA, ma ho controllato attentamente ed è a posto.
Credo che in Europa l'NDA che hanno fatto firmare differisca di qualche ora da quello americano, a volte capita; il mio scadeva alle 15 CET. Comunque on line chi farà un pezzo metterà informazioni che ha avuto prima, non di certo quello che viene detto in questo momento al Comdex a Las Vegas
Originariamente inviato da enrico
[B]Continuo a sperare che ATI colmi la sua ultima lacuna dell'R300 aumentando le prestazioni in OpneGL "non gaming"!!!
E perchè dovrebbe farlo ? :confused:
Per l'OpenGl professionale c'è la linea Fire ...
Mi sono letteralmente PRECIPITATO in ufficio alle 15 in punto [con sconcerto dei miei colleghi che non mi avevano mai visto in orario! :D ] per vedermi qualche coloroso bench, e invece .... sigh!
Tocca attendere ancora! :(
Cmq invito tutti coloro che stanno già tirando le somme circa questa scheda e pensarci due volte: non vi sembra "un tantino" presto per farlo? ;)
Comunque spero che NV30 superi, in prestazioni, R300 di ATI: questo continuo rincorrersi dei due leaders non è solo una gara appassionante per chi la segue come me, ma anche un il modo migliore per godere di prodotti sempre migliori che si avvicendano velocemente.
Brava NVIDIA, brava ATI! :)
andrewxx
18-11-2002, 17:09
Originariamente inviato da Quincy_it
[B]
Saranno anche "cacchi loro" come li definisci te, ma prima o poi il passo lo dovrà fare anche Ati! ;)
Oltretutto i 0,13 micron farebbero più che bene alla Raddy 9700 (ottima scheda, nessun dubbio) dato che è un piccolo fornetto.
Ripeto, se Ati ha già annunciato di avere intenzione di integrare DDR-II e altre cosuccie nel suo chip un motivo ci sarà no? Evidentemente sa anche lei che sono le scelte giuste per l'aumento di prestazioni. :)
DDRII ha un senso,.... 0.13 nn so fino a che punto, certo permette frequenze + elevate e scalda meno, ma basta guardare le cpu amd a 0.18 , che ne hanno sfornato frequenze, per presumere che 0.15 abbia ancora tanto da dire.
Quincy_it
18-11-2002, 17:11
Originariamente inviato da Paolo Corsini
[B]
Comunque on line chi farà un pezzo metterà informazioni che ha avuto prima, non di certo quello che viene detto in questo momento al Comdex a Las Vegas
Intanto complimenti per l'articolo! :)
Ma questo significa, secondo te, che possiamo aspettarci qualche altro dettaglio dalla presentazione ufficiale al Comdex oppure verrano presentate le informazioni già in tuo / nostro possesso?
Fate conto che la Radeon 9700 sta ad oltre 300 Mhz di core e non ha manco il dissy coincidente con il core.
Fate voi di quanto può salire come niente...
Tasslehoff
18-11-2002, 17:13
Originariamente inviato da suppostino
[B]Io la vedo come una notizia estremamente positiva per chi la pensa come me, perchè significa finalmente che il rinnovo della propria scheda video sarà dettato dalla voglia di una miglior visualizzazione del videogioco e non dall'impossibilità di farlo girare ad una velocità decente.
Che ne pensate? Mah io invece non la vedo come una grande cosa questa, e non lo dico per mia personale antipatia vs NVidia :)
E' una cosa che ho sempre affermato, imho una nuova qualità grafica non serve assolutamente a nulla se non è supportata da un frame rate ottimo, e la cosa stupefacente è la contraddizione di fondo che sta nelle dichiarazioni dei produttori proprio come in questa anteprima (ah tra l'altro complimenti per la solita ottima qualità degli articoli di hwupgrade :) ), ovvero del fatto che la scheda sia dedicata agli hardcore gamers...
ma non sono proprio questi quelli che abbassano i dettagli al max, tolgono texture, giocano in gourard shading per poter vedere prima e meglio gli avversari senza avere stupide texture che non fanno altro che confondere e nascondere gli avversari?
Quindi a che serve tutto questo, mi chiedo?
NB per i talebani Nvidia: queste stesso discorso l'ho fatto anche per l'R300, quindi non pensiate che sia una semplice presa di posizione contro NVidia eh :)
Quincy_it
18-11-2002, 17:15
Originariamente inviato da andrewxx
[B]
DDRII ha un senso,.... 0.13 nn so fino a che punto, certo permette frequenze + elevate e scalda meno, ma basta guardare le cpu amd a 0.18 , che ne hanno sfornato frequenze, per presumere che 0.15 abbia ancora tanto da dire.
Con il solo, "piccolo" particolare che le cpu odierne hanno circa la metà dei transistor di un R300 o NV30.. ;)
andrewxx
18-11-2002, 17:21
ma non sono proprio questi quelli che abbassano i dettagli al max, tolgono texture, giocano in gourard shading per poter vedere prima e meglio gli avversari senza avere stupide texture che non fanno altro che confondere e nascondere gli avversari?
Quindi a che serve tutto questo, mi chiedo? [/B][/QUOTE]
Adesso nn esagerare con ma tutto questo a che serve;)
Certo che i dettagli si abbassano ma solo per essere + fluidi, e nn laggare, sennò quando sei in rete tu vedi l'avversario ma lui nel frattempo ti ha già impallinato:D parola di gamer!!!! se avessi una cpu 2.5ghz mem ddr2700cas2 2 hd in raid ed una ti4600 o una 9700 i dettagli nn li terrei bassi, ma a manetta:D
ZioBilly
18-11-2002, 17:21
GeforceFX 5800@500mhZ $ 399
GeforceFX 5800ultra $ 499
Azz.. 101 post alle 17.20... Voglio proprio vedere quanti ce ne saranno una volta visibili i bench... Cmq è bello vedere tanta gente che aspetta il Messia... Salùt a tout le monde...
(p.s. Complimenti Corsini...:-))
Quincy_it
18-11-2002, 17:22
Originariamente inviato da Tasslehoff
[B]
ma non sono proprio questi quelli che abbassano i dettagli al max, tolgono texture, giocano in gourard shading per poter vedere prima e meglio gli avversari senza avere stupide texture che non fanno altro che confondere e nascondere gli avversari?
Quindi a che serve tutto questo, mi chiedo?
Da quello che ho letto nell'anteprima, mi sembra che l'obiettivo di Nvidia sia un pochino cambiato: mentre prima si sono concentrati sul fornire schede che permettessero di giocare a elevate risoluzioni (1600*1280) con frame elevati a scapito di texture e aliasing, adesso invece puntano a migliore le prestazioni con un netto incremento della qualità visiva.
Vuoi mettere giocare a certe risoluzioni senza il minimo segno di scalettature, texture perfette (vabbè, non esageriamo) e senza il benchè minimo sentore "di calo di frame rate"? Certo, a patto di avere cpu potenti altrimenti si rischia di essere "cpu limited".
E poi, come viene ripetuto dapertutto, finchè non vedremo DirectX9 e relativi giochi non potremo apprezzare del tutto le differenze tra la nuova generazione di GPU e le precedenti. :)
suppostino
18-11-2002, 17:29
Il frame rate DEVE essere ottimo con schede come questa, altrementi vuol dire che il programmatore deve cambiare mestiere e mettersi ad asfaltare le strade della mia cittadina che ne hanno bisogno.
Per scheda dedicata agli hard-core gamers secondo me intende considerare anche tutti quelli che comprano la scheda migliore, la cpu più veloce è così via che probabilmente sono la maggioranza.
buzzbomb
18-11-2002, 17:30
Visto che , purtroppo, non ci sono bench o informazioni tali per poter giudicare l'nv30 o per paragonarla alla 9700 ( e darla come allineata alle prestazioni se non inferiore) non sarebbe meglio aspettare di vederne una..??
pipozzolo
18-11-2002, 17:31
Originariamente inviato da Quincy_it
[B]
Con il solo, "piccolo" particolare che le cpu odierne hanno circa la metà dei transistor di un R300 o NV30.. ;)
Ma con il non trascurabile particolare che le GPU vanno da 1/5 a 1/8 della frequenza delle CPU...
anche secondo me i 0.13 non sono ancora necessari.
E' + una questione di costi, perchè costa meno produrre una GPU a 0.13 rispetto ad una a 0.15 o 0.18, ed inoltre produce meno calore.
halduemilauno
18-11-2002, 17:33
Originariamente inviato da Paolo Corsini
[B]
Sai che sono il primo ad essere sorpreso del fatto che l'unica analisi dell'NV30 on line è la mia? Ero addirittura convinto di aver sbagliato l'ora dell'NDA, ma ho controllato attentamente ed è a posto.
Credo che in Europa l'NDA che hanno fatto firmare differisca di qualche ora da quello americano, a volte capita; il mio scadeva alle 15 CET. Comunque on line chi farà un pezzo metterà informazioni che ha avuto prima, non di certo quello che viene detto in questo momento al Comdex a Las Vegas
intanto desidero chiarire che in tutti i miei post sull'argomento non c'è alcuna critica a quanto da te detto nella tua anteprima.per carità.
con la mia precisazione intendevo dire che alle ore 15(italiane)il Comdex non era ancora iniziato.e magari una volta iniziato addetti ai lavori(in particolare Tom's e Anand)potevano sul posto godere di più info tutto qui.non è certo colpa tua se non hai a disposizione una scheda.però magari altri(come i siti citati)che possono godere di qualche possibilità in più......tutto qui.detto questo invitavo alla calma e di aspettare.
ti faccio i complimenti e rinnovo il buon lavoro.
Originariamente inviato da Paolo Corsini
[B]
Che bello vedere persone che sparano sentenze senza prendere il tempo di leggere tutto. Quello che leggi sono informazioni certe che ho; le speculazioni le lascio in questo caso molto volentieri ad altri.
Le mie conclusioni
http://www.hwupgrade.it/articoli/734/11.html
"Il lancio delle nuove schede GeForce FX lascia da una parte stupiti, per la notevole complessità dell'architettura, dall'altra con un notevole amaro in bocca: mancano dati certi su troppi elementi per poter avere un quadro chiaro. Nessun benchmark prestazionale, anche se i numeri si possono intuire; una certa incertezza in merito al periodo nel quale le prime schede faranno la loro comparsa sugli scaffali; mancanza d'informazioni precise su quali prodotti verranno commercializzati; nessun dato ufficiale sulle frequenze di lavoro; mancanza di informazioni certe su eventuali versioni di fascia media (NV31).
E' ovvio che questa presentazione al Comdex 2002 è stata organizzata da nVidia per coprire buona parte dei problemi incontrati durante lo sviluppo del progetto NV30; il notevole impegno dal lato marketing profuso in queste ultime settimane, con il rilascio progressivo di varie informazioni direttamente sul sito nVidia così da creare notevole attesa, non fa altro che mascherare il netto ritardo con il quale nVidia si presenterà sul mercato. ATI è sempre rimasta alle spalle di nVidia in termini di capacità di presentare prodotti innovativi ma con la GPU R300 ha definitivamente cambiato trend, introducendo la prima GPU pienamente compatibile con le API DirectX 9 e soprattutto rendendola disponibile da mesi in volumi sul mercato.
Vero è che l'introduzione di un nuovo progetto, carico di novità assolute (0.13 micron di processo produttivo, compatibilità DirectX 9, memoria DDR-II), può sempre riservare dei ritardi e dei problemi ma rispetto alle iniziali previsioni nVidia il delay è molto elevato, soprattutto pensando che le schede non verranno ottimisticamente commercializzate prima di Gennaio 2003.
L'attesa verso le schede GeForce FX è comunque altissima e non potrà che crescere nelle prossime settimane; speriamo con questa preview tecnologica di avervi fornito sufficienti elementi di analisi, preparando il terreno ad una recensione prestazionale del nuovo "king of the hill" di nVidia."
Giusto per sdrammatizzare, anche qui in ufficio abbiamo un trono.
Si trova in un'apposita stanza, piena di piastrelle bianche e azzurre sulle pareti. Sono solito passarci i miei bravi "15 minuti d'impero" ogni mattina; a volte ho slanci di ottimismo e ci vado più volte al giorno.
Non vedo quindi quale sia il trono al quale tu fai riferimento, e cosa dovrei fare per salirci. Che sia più bello di quello che già ho qui?
Allora:
1º Nel post che ho scritto, sembra che faccio una dura critica a HwUpgrade e propio al Sr. Corsini. Cosa che non è propio certa, se è questo quello che sembra chiedo scusa publicamente non era propio la mia intenzione. So perfettamente che tutto questo ritardo, è colpa di nvidia, e hwupgrade ha fatto un articolo eccezzionale anche posso dire che uno dei primi al mondo. Complimenti a tutti. Specialmente a Paolo.
2º Il post faceva riferimento alla tecnica commerciale di nvidia, è il mio sconcordo con tutto quello che ci vogliono fare credere. Poi tutte le ragioni di questo marketing, presa dal ritardo delle nuove tecnologie DDR-II 0.13 ecc, non credo che sia il più grande segno di potere dentro nvidia.
3º Il trono a qui facevo riferimento era al leader in news su hardware che certo non se perso per niente. (1 News di FX) Ma nel senso propio positivo, per questo trovo esaggerata la tua risposta ad un fedele lettore hwupgrade rule'zzz. Nessuna mala intenzione.
Spero non entrare in nessuna polemica, e che tutti i malintesi abiano stato risolti.
Non è così?
sanitarium
18-11-2002, 17:35
Originariamente inviato da Nightmare the Dark
[B]secondo il mio punto di vista...
ok... ati ha una superscheda pronta x il natale.. e nvidia? non scordatevi che x i giocatori non estremi nvidia è una marcona.. mentre ati manko la conoscono.. quindi se devono comprare una skeda video cosa scelgono? nvidia, e ati rimane a bocca asciutta...
e cmqsia... non tutti compreranno la 9700... molti compreranno la 9000 ma ki vuole qualkosa piu della 9000? compra gf4ti4200 in mancanza della 9500.. quindi ati deve solo abbozzare, sono inutili le storie che fate tutti voi, xke ati non è un marchio conosciuto come nvidia (almeno x un normale essere umano, non per me).
poi x quanto riguarda questa anteprima, a me interessa molto piu la qualita d'immagine che la velocita, visto che vedere Nmila fotogrammi al secondo ed avere una qualita pessima, non mi esalta molto.. preferisco andare a miseri 60 frame con dettagli e mikroscopici dettaglini al massimo.
certo mancano i benchmark... ma seocndo me questa è una ottima mossa di nvidia, se facesse uscire i benchmark ora, entro 3-4 mesi ati avrebbe tutto il tempo di potenziare la sua R350 in modo da superare nvidia mentre se li tiene segreti.........
secondo voi xke ati aspetta che nvidia lanci questa skeda? x non buttare sul mercato una nuova skeda video non all'altezza della concorrenza e quindi non RISKIARE.... meditate ragazzi
non sparate cazzate senza pensarci
Certo che è proprio bello vedere come, pur di difendere il proprio beniamino, si sappia rigirare la frittata di volta in volta... :rolleyes:
Prima, la ATI era inferiore alla NVidia perché non riusciva a tenere testa al top della gamma di quest'ultima, e quindi non era assolutamente all'altezza ma andava bene soltanto per il mercato mainstream.
Adesso, la ATI ha la 9700Pro come modello di punta, che per quanto riguarda il gioco estremo (AA e FA sempre attivati) sbriciola ogni bench, e cosa viene fuori? Che NVidia è superiore ad ATI perché vende di più nel mercato mainstream, mentre ATI ha "soltanto" il modello di punta a suo favore!
No, dico, stiamo scherzando?? Poi gli altri dovrebbero non sparare ca@@ate senza pensarci?? Ma non vi rendete conto che voi che dovete difendere sempre NVidia, anziché guardare in modo distaccato all'evolversi delle tecnologie di entrambe le case, dovete trovare sempre il modo di giustificare NVidia e di dire che ATI fallisce sempre? Ma cercate di essere un attimo più coerenti, perché sono sicuro che se al posto della NVidia si comportava così la ATI, tu (e quelli che la pensano come te) non avresti assolutamente perso l'occasione di crocifiggerla!
Io non sono un difensore della ATI, e non mi viene nulla in tasca quando ne prendo le difese, e oggi sono stato il primo a mettermi davanti al computer alle 15 in punto per vedere cosa sarebbe successo, nonostante abbia una 9700pro, perché ero (sono) curioso di vedere cosa tira fuori NVidia con sto NV30... Invece voi state soltanto a fare tifo da stadio...
Tasslehoff
18-11-2002, 17:37
Originariamente inviato da andrewxx
[B]Adesso nn esagerare con ma tutto questo a che serve;)beh si un po' la mia era un provocazione, imho l'ideale è una via di mezzo, e infatti gioco a CS con dettagli bassi nonostante la mia configurazioni mi permetta di giocare a 100 fps anche a dettagli alti, non visualizzo le armi che ho in mano (questo proprio per una questione di visibilità), però arrivo a usare modelli cubettosi a dettagli rasenti lo zero o addirittura senza texture.
Ciò non toglie che parecchie persone lo facciano anche con pc decisamente pompati.
[b]Certo che i dettagli si abbassano ma solo per essere + fluidi, e nn laggare, sennò quando sei in rete tu vedi l'avversario ma lui nel frattempo ti ha già impallinato:D parola di gamer!!!! se avessi una cpu 2.5ghz mem ddr2700cas2 2 hd in raid ed una ti4600 o una 9700 i dettagli nn li terrei bassi, ma a manetta:D se sei un giocatore multiplayer però saprai che tantissime persone giocano senza texture e coi modelli avversari con la testa fluorescente per poterli vedere meglio in qualsiasi situazione, anche avendo a disposizione configurazioni di fasci alta :)
Per fare un es, all'NGILan era pieno di situazioni di questo tipo, insomma, quando la competizione sale le texture scendono :D :D
andrewxx
18-11-2002, 17:40
Re: Re: Re: Re: Forse vi dimenticate che..
quote:
--------------------------------------------------------------------------------
--------------------------------------------------------------------------------
ATI R300 0.15micron circa 110milioni di transistor
NV25 0.15micron circa 63milioni di transistor
Si vede che ATI si e' dotata di "nano" manine per inserire il doppio :eek: , dei transistor che nn e' riuscita a farci stare Nvidia:p
Originariamente inviato da ZioJimmy
[B]eccola ci siamo...inviterei tutti a controllare tutte le cose che si sono dette un mese prima di questa rece...certo che se ne sentono di cazzate in rete!!!
Cmq...la scheda è oltre le mie e ripeto le mie aspettative!!!
mi sa che questa volta superiamo i 100 post!!
azz..non mi ero ricordato un evento cosi importante e per punizione sono il 100esimo e + a commentarlo:( (vabbe come magra consolazione sono stato il primo al tempo a commentare la preview della 9700:D ).
Che dire, i 100 post l' abbiamo belli che superati,ma di caxxate sull' nv30 non l' ho mai sentite,anzi la scheda ha superato(e di molto) le aspettative di ognuno come caratteristiche tecniche.Benchmark non ce ne sono ma non mi stupirei se facesse piu del doppio della 4600 e un 40% in piu della 9700,(anche se la qualità di immaggine è a favore di nvidia).Sta diventando di moda la sovralimentazione no xche...?
Gli screen sono molto belli, accidenti non so quanto incida la scheda video pero fanno paura:eek: il massimo del dettaglio grafico.Si preannunciano grandio cose per il 2003(peccato che solo per quello :rolleyes:,be daltra parte l' avete voluta voi la ddr: ).:p
andrewxx
18-11-2002, 17:45
Originariamente inviato da Tasslehoff
[B]beh si un po' la mia era un provocazione, imho l'ideale è una via di mezzo, e infatti gioco a CS con dettagli bassi nonostante la mia configurazioni mi permetta di giocare a 100 fps anche a dettagli alti, non visualizzo le armi che ho in mano (questo proprio per una questione di visibilità), però arrivo a usare modelli cubettosi a dettagli rasenti lo zero o addirittura senza texture.
Ciò non toglie che parecchie persone lo facciano anche con pc decisamente pompati.
se sei un giocatore multiplayer però saprai che tantissime persone giocano senza texture e coi modelli avversari con la testa fluorescente per poterli vedere meglio in qualsiasi situazione, anche avendo a disposizione configurazioni di fasci alta :)
Per fare un es, all'NGILan era pieno di situazioni di questo tipo, insomma, quando la competizione sale le texture scendono :D :D
Se il server nn e' dedicato col cacchio giochi con testa fluorescente:D
e poi che gusto c'e'????? mah
L'unica cosa che tengo a palla di effetto e' la definizione delle skin il resto al max indispensabile perche' il game giri fluido;)
Nightmare the Dark
18-11-2002, 17:47
...sanitarium... sto x comprarmi una radeon 9000, non sono assolutamente dalla parte di nvidia, ho solo PENZATO al perche di certe scelte di nVIDIA..
la ati ha la skeda piu potente al mondo, ma i soldi non li fara con quella... al masismo con la 9000 visto che come me molta gente la comprera, (costa poco e x quello che devo fare va benissimo)
poi se il mio discorso puo sembrare id parte (e rileggendolo mi pare anche a me) sappi che no osno di parte anche xke a me non ne viene in tasca nulla
è solo ciò che penzo io riguardo i benchmark inesistenti, e soprattuto al fatto del periodo natalizio (vedete x caso delle 9500 in giro?)
Non Credo ci sia altro da dire se nn:
PROFESSIONALE VERAMENTE !!!!
cazzo mi frega ati nvidia nvidia ati
questa ad okkio e croce è una scheda con i co@@@XXXoni!
nn vedo l'ora di vederne il comportamento su strada
tom's l'ha tirata fuori adesso...
l'ho capito mentre vedevo passare 2 minuti per caricare la pagina nonostante l'adsl... :D
Nandozzi
18-11-2002, 18:16
Perchè c'è ancora gente convinta che un gioco a 300 fps sia meglio di uno a 100 fps !!! L'occhio umano (sarà la 700 volta che lo ripeto) NON può distinguere più di 30 frame al sec (secondo voi quanti ne usa la TV e il cinema ?) e quindi non ha senso volere tutta questa potenza. Per una volta che Nvidia ha deciso di puntare più sulla qualità che sulla potenza pura, ecco tanti idioti (come definireste chi è convinto di poter vedere la differenza tra 100 e 300 fps !!!) che dicono che Nvidia fa schifo. Mi spiegate che diavolo ve ne fate di una GPu capace di 300 fps a 2048*1840 con refresh di 200 HZ (è una provocazione) se al massimo avete un misero 17 o 19". Certo se avete un monitr al plasma da poter attaccare al PC...
Che ne direste di una scheda video con memoria Rambus PC1066, chissaà perchè non ci hanno mai pensato?
Maaaa nooo!!! Avete visto il cooler??? Su tom's ce una foto!!
Nandozzi
18-11-2002, 18:22
x marci
tanto ormai le Rambus te le regalano vero ?
Ma dai...
WhiteParty
18-11-2002, 18:26
Correva l'anno 2002, mese di Maggio. Matrox presentava al mondo la Parhelia 512. Su HwUpgrade venne postato che Matrox avrebbe "schiacciato" tutti concorrenti. Seguirono poi le recensioni e i benchmark.... Tutti quelli che l'avevano acclamata per prima furono anche i primi a sotterrarla. Non mi stupisco se tra qualche settimana, con la recensione dei benchmark della Geffo Fx, ci sarà un'ennesima sepoltura.......
WhiteParty
18-11-2002, 18:27
Correva l'anno 2002, mese di Maggio. Matrox presentava al mondo la Parhelia 512. Su HwUpgrade venne postato che Matrox avrebbe "schiacciato" tutti concorrenti. Seguirono poi le recensioni e i benchmark.... Tutti quelli che l'avevano acclamata per prima furono anche i primi a sotterrarla. Non mi stupisco se tra qualche settimana, con la recensione dei benchmark della Geffo Fx, ci sarà un'ennesima sepoltura.......
WhiteParty
18-11-2002, 18:27
Correva l'anno 2002, mese di Maggio. Matrox presentava al mondo la Parhelia 512. Su HwUpgrade venne postato che Matrox avrebbe "schiacciato" tutti concorrenti. Seguirono poi le recensioni e i benchmark.... Tutti quelli che l'avevano acclamata per prima furono anche i primi a sotterrarla. Non mi stupisco se tra qualche settimana, con la recensione dei benchmark della Geffo Fx, ci sarà un'ennesima sepoltura.......
WhiteParty
18-11-2002, 18:27
Correva l'anno 2002, mese di Maggio. Matrox presentava al mondo la Parhelia 512. Su HwUpgrade venne postato che Matrox avrebbe "schiacciato" tutti concorrenti. Seguirono poi le recensioni e i benchmark.... Tutti quelli che l'avevano acclamata per prima furono anche i primi a sotterrarla. Non mi stupisco se tra qualche settimana, con la recensione dei benchmark della Geffo Fx, ci sarà un'ennesima sepoltura.......
Nandozzi
18-11-2002, 18:30
1 post bastava White Party (ovviamente hai avuto problemi e ti capisco...;-D)
Cmq dubito che sarà un flop...
Forse ne uscirà soltanto un po' meno performante rispetto alle aspettative... Cmq aspettiamo...
da tom's:
To finish up, here is a summary/timeline of the GeForceFX's production status:
Tapeout: complete - First samples: November 2002 - Mass production: December 2002 - Retail launch: February 2003.
Paolo Corsini
18-11-2002, 18:41
Originariamente inviato da WhiteParty
[B]Correva l'anno 2002, mese di Maggio. Matrox presentava al mondo la Parhelia 512. Su HwUpgrade venne postato che Matrox avrebbe "schiacciato" tutti concorrenti. Seguirono poi le recensioni e i benchmark.... Tutti quelli che l'avevano acclamata per prima furono anche i primi a sotterrarla. Non mi stupisco se tra qualche settimana, con la recensione dei benchmark della Geffo Fx, ci sarà un'ennesima sepoltura.......
Mi dici dove avrei scritto che Parhelia 512 avrebbe "schiacciato" tutti i concorrenti?
Sai, non mi piace molto quando mi si mettono sulel labbra parole che non sono mie.
da quello che ho letto dovrebbe essere una meraviglia. certo, mi sarebbe piaciuto qualche test, ma se nn c sono nn c sono. pensate che al comdex li facciano vedere e che poi magari qualche sito li pubblichi??? sapete magari quale... l'attesa è stata snervante e questa rece mi fa snervare ancora d+ xè mi tocca aspettare ancora... sigh...
ps. complimenti a Corsini, ottimo lavoro.
(domani mattina mi aspetto nelle news qualche collegamento a siti che hanno bench (se esistono) :) )
Riuscireste a rendere disponibili le imamgini ingrandite dei screenshot dei giochi? :-)
Grazie!
su anand c'è un bench (fatto da nvidia)...
doom III
ErPazzo74
18-11-2002, 19:00
Originariamente inviato da Nandozzi
[B]Perchè c'è ancora gente convinta che un gioco a 300 fps sia meglio di uno a 100 fps !!! L'occhio umano (sarà la 700 volta che lo ripeto) NON può distinguere più di 30 frame al sec (secondo voi quanti ne usa la TV e il cinema ?) e quindi non ha senso volere tutta questa potenza. Per una volta che Nvidia ha deciso di puntare più sulla qualità che sulla potenza pura, ecco tanti idioti (come definireste chi è convinto di poter vedere la differenza tra 100 e 300 fps !!!) che dicono che Nvidia fa schifo. Mi spiegate che diavolo ve ne fate di una GPu capace di 300 fps a 2048*1840 con refresh di 200 HZ (è una provocazione) se al massimo avete un misero 17 o 19". Certo se avete un monitr al plasma da poter attaccare al PC...
E io è la 701esima che ti dico che l'occhio umano ne vede 50 :D!!! E ti posso garantire che è così....il motivo per cui il PAL è 25FPS (il cinema a 24) e l'NTSC 30) è che è interlacciato, per cui la cosa inganna l'occhio. Infatti il PAL fa 25FPS su immagini intere, ma 50FPS di mezze immagini. Spero che mi sono spiegato.
Concordo con te comunque sulla necessita di far notare alle persone la non necessità dei 200FPS....o giù di lì ;)
Comunque è probabile che l'occhio nel caso di un monitor riesca a vederne una 40ina, ma siccome noi vogliamo che il frame-rate non scenda mai sotto i 40, direi che dai 60 (meglio 80 x esser sicuri ;)) in sù vanno bene :)
Paolo Corsini
18-11-2002, 19:16
Originariamente inviato da gico
[B]Riuscireste a rendere disponibili le imamgini ingrandite dei screenshot dei giochi? :-)
Grazie!
Ciao,
a me funzionano, le abbiamo testate prima di mettere tutto on line.
Non vorrei fosse qualche problema con i browser, che cosa usi?
(con voce da vecchia suocera)
Mmm... Sig. Corsini, vorrei ricordarle che non tutti abbiamo le NV30 in SLI montate sul pc come lei, quindi le immagini le metta a modino, ci siamo capiti???
Si, ok, nn c'entra niente... Ma ogni tanto bisogna sdrammatizzare... Mi candido a Clown ufficiale del forum... ;)))
Ciao a tutti...
(cmq io me la compro... e aspetto anche il portatile... ;)))
8 pixel rendering pipelines, 1 texture unit per pipeline, can do 16 textures per pass
Ma allora l'NV30 ha 1 TMU, non due, paro paro alla Radeon 9700 Pro ...
E famo già un passo indietro nelle performance...
Noto solo ora il dissy che ha l'NV30...pare una stufa :D
Piu' grosso no ? Alla faccia dei 0.13 micron...
}DrSlump{
18-11-2002, 19:54
Signori miei io aggiungo ben poco a quanto é stato giá detto: ho da poco acquistato una Geffo4200 con 128mb di ram, e me la godo per almeno un annetto. Tempo minimo necessario per vedere dei drivers decenti e dei processori in grado di sfruttare la nv30. Senza contare ke applicazioni e giochi é troppo presto x parlarne (ke sono ste foto di giochi?? a bassa risoluzione e sono tutti dx8.1), quindi io mi tengo il mio TB1200 e la mia bella geffo4... ci risentiamo tra un anno BYEZ
}DrSlump{
18-11-2002, 19:54
Signori miei io aggiungo ben poco a quanto é stato giá detto: ho da poco acquistato una Geffo4200 con 128mb di ram, e me la godo per almeno un annetto. Tempo minimo necessario per vedere dei drivers decenti e dei processori in grado di sfruttare la nv30. Senza contare ke applicazioni e giochi é troppo presto x parlarne (ke sono ste foto di giochi?? a bassa risoluzione e sono tutti dx8.1), quindi io mi tengo il mio TB1200 e la mia bella geffo4... ci risentiamo tra un anno BYEZ
Quincy_it
18-11-2002, 19:55
Ho visto ora le foto su Tom's.. :eek: :confused: :eek: :confused:
Ma che diavolo ci hanno messo?
Con un dissy del genere chissà quanto sale la 9700 Pro, sarebbe bello provare :)
Lud von Pipper
18-11-2002, 19:57
...
Lud von Pipper
18-11-2002, 20:02
...
Lud von Pipper
18-11-2002, 20:03
...
Lud von Pipper
18-11-2002, 20:04
Dal sito di AnandTech:
Inerestingly enough, NVIDIA did not make many performance numbers available to us prior to the GeForce FX announcement. In fact, the majority of the performance numbers won't be revealed until after this article is published. Right now NVIDIA is claiming a 30 - 50% performance advantage over the Radeon 9700 Pro across the board. We will be able to put those claims to the test as soon as we have a card in hand.
Ma UT2003 non era quel Gioco/Demo con un grosso logo Nvidia che compariva al lancio? :rolleyes:
E per chi afferma che Nvidia è stata furba ad introdurre la tecnologia a 0.13 al posto della "Obsoleta" 0.15, e che adesso ATI dovrà impazzire per passare a sua volta al nuovo processo:
As we've mentioned before, the kicker is that the GeForce FX won't be available until February of next year. The chip itself is done and production is ramping up at TSMC; one of the causes for the delay is that producing the 0.13-micron wafers apparently takes several more weeks at TSMC than the older 0.15-micron process.
Non è forse vero che TSMC produce Chip per ATI e molti altri, e che ora che ha acquisito la tecnologia per il processo a 0.13 gli basterà applicarlo su tutti i nuovi prodotti che le verranno proposti?
In realtà la difficoltà nel realizzare wafer a 0.13 sta nel processo meccanico e chimico: una volta che gli strumenti sono stati messi a punto, non penso che un chip ATI presenti grosse differenze nella produzione rispetto ad uno Nvidia (considerando che è anche leggermente meno complesso 107mio contro 125mio).
Consideriamo ora il fatto che le specifiche teoriche del chip NV30 si riferiranno senz'altro alla versione "Ultra", quella che per intenderci viene data a 499$, contro i 399$ della versione standard.
Se consideriamo che la 9700Pro veniva offerta dal ATI a 399$ al lancio, e che quì in Italia la si è poi avuta a 525€, c'e qualcuno che spera di vedere la "Ultra" a meno di 750€ (circa un milione e mezzo di vecchie lire) nel negozio di fiducia?
LvP
losqualobianco
18-11-2002, 20:23
Ma avete visto il cooler? Alla faccia, se l'R300 è una stufetta l'NV30 cos'è?
E poi chi l'ha detto ad nvidia che tutti sono disposti a sacrificare uno slot pci? Io utilizzo sk scsi, audio, lan, pctv, dxr3 (dvd playback con ottima uscita svideo) e non ho slot liberi da utilizzare per un dissipatore. Spostare la gpu sull'altro lato della scheda no eh?
Cmq io gioco a counter-strike e la mia vecchia voodoo3 (con driver opengl aggiornati) va bene (ho dato un calcio alla vecchia geffo2mx (che m*rd@ di scheda).
Quando uscirà doom3 cambierò la scheda video con una che mi permetterà di giocare a 1024x768 con una fluidità decente. Pare che l'ati 9700pro stenti parecchio e altrettanto farà l'nv30 (anche ottimisticamente non sarà mai il doppio più veloce della 9700pro). Se la prima fa 20 fps la seconda non ne farà 40. Quindi le storie sul fatto che gli fps non servono a nulla lasciamole perdere (nessuno gioca con immagini statiche).
Ora come ora se l'acquisto di una scheda video non è legata ad un software attualmente esistenze non ha senso acqistarle in previsione di quello che verrà. Probabilmente quando uscirà doom3 ci saranno già i successori del'R300 e NV30 a prezzi accettabili (o quasi). Forse a natale prenderò una 9500pro o una 4400 se decido di acquistare UnrelT3 altrimenti resto così.
La concorrenza fa bene, schierarsi senza un tornaconto è un po' da tifo da stadio (sono di Cagliari ero in curva nord e spero che diano l'ergastolo (e tanti calci nel c**o) a quel c0gli0n3 che domenica ha dato un pugno al portiere del Messina)
Gran bella scheda come sempre....anche se oggi come oggi i titoli full directx 8.0 si contano sulle dita di una mano come gli effetti di geforce3,4 ati e soci....
Wing_Zero
18-11-2002, 20:34
O magnifico paolo corsini mitico recensitore di hardwre di tutti i tempi, ti invoco per chiderti aiuto!!! ;) ;) ;)
Ecco quello che viene riportato su toms:"The memory interface of the GeForceFX has been designed with DDR-II in mind from the start. It will most likely use memory modules clocked at 500MHz (1GHz DDR-II) on a 128-Bit bus, offering a solid memory bandwidth of about 16GB/s. While this is an improvement over the GeForce4 Ti's 10.4GB/s, it's still a far cry from ATi's Radeon 9700 PRO, whose 256-Bit DDR memory interface offers a full 19.6GB/s. "
allora ma questa BENEDETTA NV30 DI QUANTO AVRA' LA BANDWITH DI 16 O DI 48 ???????????
AIUTO!!!! NN CI CAPISCO + NIENTE!! quindi in sostanza..chi 'e che ha ragione hwupgrade o toms???
La realtà vede per l'NV30 16 Giga/Sec, poi c'è nVidia che dopo un bicchiere di troppo afferma di arrivare a 48 :D
Ahahah bellissima :D
sanitarium
18-11-2002, 21:13
Originariamente inviato da Nightmare the Dark
[B]...sanitarium... sto x comprarmi una radeon 9000, non sono assolutamente dalla parte di nvidia, ho solo PENZATO al perche di certe scelte di nVIDIA..
la ati ha la skeda piu potente al mondo, ma i soldi non li fara con quella... al masismo con la 9000 visto che come me molta gente la comprera, (costa poco e x quello che devo fare va benissimo)
poi se il mio discorso puo sembrare id parte (e rileggendolo mi pare anche a me) sappi che no osno di parte anche xke a me non ne viene in tasca nulla
è solo ciò che penzo io riguardo i benchmark inesistenti, e soprattuto al fatto del periodo natalizio (vedete x caso delle 9500 in giro?)
Ok, scusa se sono stato troppo duro, ma non riesco a sopportare chi vede le cose soltanto da un punto di vista; e come tu stesso hai riconosciuto, il tuo messaggio sembrava schierato da una parte ben precisa ;) ... Comunque sono contento che ci siamo chiariti, ma vorrei puntualizzare una cosa: tu hai detto che la ATI non fa uscire una nuova scheda high-end e che aspetta che esca l'NV30, perché ha paura di buttare fuori una scheda che poi non sarebbe all'altezza dell'NV30: beh, non sta facendo altro che i suoi interessi, visto che:
1- Non ha nessun motivo valido per commercializzare una scheda più potente della 9700Pro, visto che è ancora il punto di riferimento (e lo sarà ancora per un po') per i giocatori high-end, e che l'unica scheda in grado di superarla sarà proprio la GeppoFx.
2- Sta facendo lo stesso, identico gioco di NVidia, che ha atteso l'uscita del 9700Pro per raddrizzare il tiro, proprio perché non si aspettava che la 9700Pro fosse così performante (secondo me la storia che la NV30 sia stata riprogettata da capo dopo aver saputo quanto sarebbe stata potente la 9700Pro ha un fondamento di verità...): insomma, questa volta la ATI ha fatto le cose che in passato ha fatto NVidia, e cioè anziché inseguire la concorrenza ha dettato un nuovo standard. E sono sicuro che all'uscita della NV30, la ATI sarà già pronta a deliziarci con qualche altra novità! E' un ciclo "naturale" delle cose, e fa bene al mercato! ;)
losqualobianco
18-11-2002, 21:23
2- Sta facendo lo stesso, identico gioco di NVidia, che ha atteso l'uscita del 9700Pro per raddrizzare il tiro, proprio perché non si aspettava che la 9700Pro fosse così performante (secondo me la storia che la NV30 sia stata riprogettata da capo dopo aver saputo quanto sarebbe stata potente la 9700Pro ha un fondamento di verità...): insomma, questa volta la ATI ha fatto le cose che in passato ha fatto NVidia, e cioè anziché inseguire la concorrenza ha dettato un nuovo standard. E sono sicuro che all'uscita della NV30, la ATI sarà già pronta a deliziarci con qualche altra novità! E' un ciclo "naturale" delle cose, e fa bene al mercato!
Ma quel dissi non sembra una cosa da overclockers per spremere il max da una gpu con interfaccia memoria da 128 bit? ??????
Ma non è che all'ultimo per riconquistare il primato sulla 9700pro hanno spremuto l'FX già al max?
cmq, complimenti a Paolino per la splendida Preview! Molto ben fatta, rende bene l'idea!
Continuo a pensare che HWUpgrade sia non solo il miglior sito italiano di hardware (e su questo non ci piove), ma se la può giocare per avere quello mondiale!
Cmq, NV30 sarà una rivoluzione, ma ATI nno starà a guardare: se una 9700, col giusto dissi, si iresce a portare a 430 MHz, una volta migliorato il processo ed abbinata alla DDR-II, sarà in grado di resistere all'attacco nVidia a testa alta, almeno sino all'uscita dell'R350...
Aspettiamo...
non credo proprio, con tutte le ottimizzazioni e gli effetti grafici hardware introdotti con questa scheda mi sa che questo GeForceFX terrà il primato per un bel pò! :D
Secondo me 2 sono le cose:
se davvero pista 3 volte una TI4600 con in più FSAA e AF, allora salutatela pure perchè costera milioni
altrimenti sono le solite banfe pre lancio, farà 1,5 volte la 4600 (come la 9700 fa 1,5 la 8500) e costerà le solite 450euro...
Per curiosità: ma tutta st'abbufata di pseudo-notizie, da dove verrebbe?
Da una press release?
Se è così stiamo freschi :p
E' dalla prima geforce256 che con la storia del T&L nvidia banfa del vero realismo grafico, ed è dal gf2 che si banfa di assoluta qualità video...
Sinceramente non mi piacciono queste recensioni basate sulle parole dei PR, che come tali gonfiano a dismisura...
Cmq leggo nelle conclusioni:
[b]ATI è sempre rimasta alle spalle di nVidia in termini di capacità di presentare prodotti innovativi ma con la GPU R300 ha definitivamente cambiato trend, introducendo la prima GPU pienamente compatibile con le API DirectX 9 e soprattutto rendendola disponibile da mesi in volumi sul mercato.
Vero è che l'introduzione di un nuovo progetto, carico di novità assolute (0.13 micron di processo produttivo, compatibilità DirectX 9, memoria DDR-II),
Il processo 0,13 non è una novità assoluta
le dx9 nemmeno e l'hai anche scritto 3 righe sopra :p
le ddr-II (sta gran novità) sono solo ddr + veloci...
Non dico che sta scheda faccia schifo, però mi sembra poco professionale pubblicare una quasi recensione entusiastica di 9 pagine basata solo su dati non sperimentali :)
beh se nVidia ha presentato la scheda con queste caratteristiche....e con questi numeri di prestazioni....beh possiamo stare tranquilli...nn dovrebbero essere (notare il condizionale) baggianate...a me questa scheda piace proprio....bisogna vedere come sta su un pc...! :D la mia paura è il fattore CPU....troppo poco prestazionali gli ultimi....nvidia dovrebbe se vuole andare veramente controcorrente cercare di trovare una soluzione a questo problema...
una cosa mi ha lasciato perplesso:
"I valori prestazionali attualmente disponibili, provenienti direttamente da nVidia, parlano di prestazioni velocistiche 2,5 superiori a quelle della scheda GeForce 4 Ti 4600 con Quake 3, 3,5 volte superiori con Doom 3 e 3 volte superiori con il benchmark 3D Mark 2001 SE. Si tratta di valori estremamente elevati ma che devono essere inquadrati in un'ottica molto chiara: questi incrementi prestaizonali sono ottenibili con filtraggio anisotropico e abilitando Anti Aliasing, modalità che sfruttano al meglio la GPU e soprattutto permettono di ottenere una superiore qualità d'immagine complessiva.
questo cosa vuol dire??? che quegli incrementi si avranno con FSAA e anisotropici attivati???? capperi!!...l'ho letto 10ine di volte ma nn ci credo...sarebbe troppo bello per essere vero....qui nn è più caso di dire forza nVidia...ma per una buona volta forza 3dFX!!!
una cosa nn mi convince...nn so esattamente quante ore ci siano di distacco...ma le 15 in italia erano le 8/9 del mattino in america....veniva presentato a quell'ora?? tutto questa roba?? (per molti poca..)
Lud von Pipper
18-11-2002, 22:14
Originariamente inviato da erupter
[B]
Sinceramente non mi piacciono queste recensioni basate sulle parole dei PR, che come tali gonfiano a dismisura...
Cmq leggo nelle conclusioni:
Non dico che sta scheda faccia schifo, però mi sembra poco professionale pubblicare una quasi recensione entusiastica di 9 pagine basata solo su dati non sperimentali :)
Guarda che questa non è un "recensione", è una "PREVIEW" di un prodotto che sarà disponibile sul mercato a febbraio.
Inoltre non credo che sia "ENTUSIATICA": si limita a riportare le informazione fornite da Nvidia (che, come tutti lo fa tramite i propri PR) e cerca di riportare il discorso sul pianeta Terra quando le iperboli dei suddetti PR sono "fuori dal mondo".
La cosa squallida è la campagna bellica incominciata da Nvidia per cercare di salvare qulllo che rimane del mercato natalizio dalle urfide mani di ATI, pur cercando di promuovere qualcosa che, a tutt'oggi, è solo "Vaporware" (non esistono esemplari funzionanti del prodotto disponibili).
Mi ricorda tanto i "gloriosi" tempi di Sony contro SEGA, quando si riuscì a bloccare il mercato con una consolle (PS2) che sarebbe uscita solo da li a due anni grazie al bombardamento delle press release.
LvP
Lud von Pipper
18-11-2002, 22:20
Originariamente inviato da seccio
una cosa mi ha lasciato perplesso:
[B]"I valori prestazionali attualmente disponibili, provenienti direttamente da nVidia, parlano di prestazioni velocistiche 2,5 superiori a quelle della scheda GeForce 4 Ti 4600 con Quake 3, 3,5 volte superiori con Doom 3 e 3 volte superiori con il benchmark 3D Mark 2001 SE. Si tratta di valori estremamente elevati ma che devono essere inquadrati in un'ottica molto chiara: questi incrementi prestaizonali sono ottenibili con filtraggio anisotropico e abilitando Anti Aliasing, modalità che sfruttano al meglio la GPU e soprattutto permettono di ottenere una superiore qualità d'immagine complessiva.
questo cosa vuol dire??? che quegli incrementi si avranno con FSAA e anisotropici attivati???? capperi!!...l'ho letto 10ine di volte ma nn ci credo...sarebbe troppo bello per essere vero....qui nn è più caso di dire forza nVidia...ma per una buona volta forza 3dFX!!!
Vuole solo dire che, essendo quello della Geffo4600 uno slideshow quando è attivato il filtro aniso al massimo e i vari FSAA, GeffoFX non farà un grande sforzo ad ottenere i risultati previsti: in queste particolari condizion, già una Raddy 9700Pro raggiunge quei valori... :rolleyes:
sanitarium
18-11-2002, 22:23
Originariamente inviato da GHz
[B]non credo proprio, con tutte le ottimizzazioni e gli effetti grafici hardware introdotti con questa scheda mi sa che questo GeForceFX terrà il primato per un bel pò! :D
Questo è tutto da vedere, anche perché gli effetti grafici che dici tu, da quel che ho capito leggendo l'articolo, non nascono dal nulla ma devono essere applicati dai programmatori... e si sa che questo tipo di innovazioni ci mettono un po' ad essere prese in considerazione seriamente e ad essere applicate ai giochi, oltre che alle immagini pubblicitarie e ai tech demo...
sanitarium
18-11-2002, 22:24
Originariamente inviato da Lud von Pipper
[B]
Vuole solo dire che, essendo quello della Geffo4600 uno slideshow quando è attivato il filtro aniso al massimo e i vari FSAA, GeffoFX non farà un grande sforzo ad ottenere i risultati previsti: in queste particolari condizion, già una Raddy 9700Pro raggiunge quei valori... :rolleyes:
Infatti, ma molti sembrano non accorgersene (non mi riferisco a seccio in particolare)... :rolleyes:
daniele.g
18-11-2002, 22:24
Ipotizziamo che durante il periodo natalizio una persona (io) abbia deciso di upgradre la propria scheda video:
"fidarsi" dell'oggettiva potenza dell'R300 che detiente attualmente la supremazia nel videolucido ma nello stesso tempo supremazia neonata;
oppure adagiarsi sulla pluriennale esperienza Nvidia (NV30) e relativi driver che attraggono un po tutti?
Considerando anche il fatto che attualmete utilizzo ancora una Voodoo 3 3000 3DfX (più per affetto che per altro) oramai defunta anche per opera di Nvidia.
Che ne pensate ragazzi?
sanitarium
18-11-2002, 22:27
Originariamente inviato da daniele.g
[B]Ipotizziamo che durante il periodo natalizio una persona (io) abbia deciso di upgradre la propria scheda video:
"fidarsi" dell'oggettiva potenza dell'R300 che detiente attualmente la supremazia nel videolucido ma nello stesso tempo supremazia neonata;
oppure adagiarsi sulla pluriennale esperienza Nvidia (NV30) e relativi driver che attraggono un po tutti?
Considerando anche il fatto che attualmete utilizzo ancora una Voodoo 3 3000 3DfX (più per affetto che per altro) oramai defunta anche per opera di Nvidia.
Che ne pensate ragazzi?
Secondo me, se aspetti la NV30, altro che cambiare la V3 3000 a Natale... in Italia è più probabile che arriverà a Pasqua! :D
Lud von Pipper
18-11-2002, 22:30
Originariamente inviato da GHz
[b]non credo proprio, con tutte le ottimizzazioni e gli effetti grafici hardware introdotti con questa scheda mi sa che questo GeForceFX terrà il primato per un bel pò!
Inoltre, i suddetti "effetti grafici introdotti da questa scheda" si chiamano Direct X 9.0, sono gia presenti sui prodotti ATI di punta, e lo saranno su tutte le shede grafiche con essi compatibili.
LvP
sanitarium
18-11-2002, 22:32
Originariamente inviato da Lud von Pipper
Inoltre, i suddetti "effetti grafici introdotti da questa scheda" si chiamano [b]Direct X 9.0, sono gia presenti sui prodotti ATI di punta, e lo saranno su tutte le shede grafiche con essi compatibili.
LvP
Beh, non so se intendeva anche il famigerato Cg...
Lud von Pipper
18-11-2002, 22:37
Originariamente inviato da daniele.g
[B]Ipotizziamo che durante il periodo natalizio una persona (io) abbia deciso di upgradre la propria scheda video:
"fidarsi" dell'oggettiva potenza dell'R300 che detiente attualmente la supremazia nel videolucido ma nello stesso tempo supremazia neonata;
oppure adagiarsi sulla pluriennale esperienza Nvidia (NV30) e relativi driver che attraggono un po tutti?
Considerando anche il fatto che attualmete utilizzo ancora una Voodoo 3 3000 3DfX (più per affetto che per altro) oramai defunta anche per opera di Nvidia.
Che ne pensate ragazzi?
Che in entrambi i casi faresti un bel salto di qualità! ;)
Scherzi a parte, compra quello che ti serve quando ne hai bisogno: se aspetti sempre di vedere il prodotto successivo, finisce che non compri mai nulla (e in effetti GeffoFX difficilmente si vedrà da noi prma di Pasqua se i ritardi di consegna delle raddy9700 insegnano qualcosa :rolleyes: )
NVIDIA's main problem is that not even the basic functions of DirectX 9 can be used today. The only DirectX 9 version currently available is a public beta version, and games are even further off in a rather distant future. This constellation will make it hard to sell new products based on the (future) importance of their new features alone. This is exactly the Radeon 9700 PRO's strong suit: It combined the theoretical benefit of DX9 support with superior gaming performance in today's games. The Radeon achieves this through its high memory bandwidth, the high triangle throughput of its vertex shaders, and its extremely fast pixel pipelines. When antialiasing and anisotropic filtering are used in combination, the R300 cuts an especially imposing figure and simply dominates everything available in the market today.
---------
Sostanzialmente, il buon Tom ci fa notare come l'aumento di prestazioni non ci possa far determinare un vincitore vero e proprio, dando x scontato che il 9700 c'è gia e rulla di brutto.
Obbiettivamente, a Marzo, mi darebbe fastidio dare 500euri x una Fx quando una 9700 si aggirerà sui 250maledettieuri.
Già successo no?
Oggi all'Ati qualcuno ha fatto i salti!
Velo dico io!
N i c k O n e
no scusate....io annegherò nella mia ingnoranza...ma illuminatemi.. prendiamo due schede molto diverse...come le 9700 e la 4600...piazzamogli tutti i filtri anisotropici a palla...e mettiamogli un FSAA in Hw come per la 4600 il quincunx...voi mi venite a dire che la 4600 fa 5000punti e la 9700 a quelle condizioni 15000??....siamo sicuri?? so per certo che la 9700 nn perde molto in anisotropico...ma con il FSAA un po' perde sicuramente...(cmq nn mi ricordo di aver visto confronti di 3dmark in FSAA e anisotropico,con le suddette schede)
^TiGeRShArK^
18-11-2002, 23:32
questo per rispondere al fatto ke la 9700 pro non è, secondo te, circa 3 volte + veloce della 4600 nelle condizioni ke hai detto tu.....
http://www.anandtech.com/showdoc.html?i=1686&p=9
se consideri il 3dmark mi sa ke non ha molto senso, visto ke il suo punteggio non cresce LINEARMENTE con la velocità della scheda, ma utilizza un algoritmo ke pesa i vari risultati in maniera diversa, e quindi entrano in gioco anche pesantemente i pixel e vertex shader...
^TiGeRShArK^
18-11-2002, 23:55
sinceramente mi aspettavo qualcosa in più da questa scheda.......
tecnologia .13u e poi ha bisogno di un dissipatore assurdo....mi sa ke anke la 9700 con un dissipatore simile non sarebbe poi tnt lontana dai 500 mhz nonostante la "vecchia" tecnologia a .15 u.
Poi, spiegatemi una cosa. Perchè dovrebbe essere così difficile per ATI effettuare una transizione a .13????
visto ke oramai TSMC ha usato NVidia come cavia, il processo a .13u non è puù così immaturo e ora anche ATI lo potrà adottare con successo utilizzando la stessa fabbrica...e problemi ne avrà sicuramente MOLTI ma MOLTI di meno rispetto a NVidia, a meno di non fare una progettazione dell'R350 da cani.....
Un altro aspetto in cui mi ha deluso l'nv30 è stato il vertex shader.... con tutto ke il chip rulla a 500 mhz esso riesce a fornire solamente 350 MVert/s, mentre la radeon, con soli 325 mhz, riesce a fornirne 325......
un punto in cui SEMBRA sia avvantaggiata l'NV30 è il fill rate max teorico ke dovrebbe essere di 4000 Mpixel/s, contro quello di 2600 Mpixel/s della ATI.... ma io mi kiedo...la tecnica di compressione di NVIDIA sarà davvero così efficiente da feedare le sue pixel pipeline con i dati sufficienti al rendering con una bandwidth max reale pari a 16Gb/s contro quella della ATI di 19.6Gb/s e 2600 MPixel/s da alimentare????
Viene obiettato ke giustamente la tecnica di compressione adottata da nvidia è veramente efficace e d'altronde sarà molto semplice per NVIDIA adottare un bus a 256bit....
allora io mi chiedo...non sarà altrettanto semplice per la ATI adottare un architettura a DDRII????(Tra l'altro ne è stato già presentato un sample funzionante.......)
Infine l'unico vero vantaggio ke secondo me ha questa scheda è dato dalle estensioni Beyond-DX9 ke ritengo siano molto utili. Ma a questo punto sorge una perplessità....visto il tempo ke i programmatori hanno impiegato per sfruttare DX8.1, visto ke ancora i DX9 non sono usciti in versione definitiva, e soprattutto visto ke queste estensioni sono una cosa PROPRIETARIA e che molto probabilmente non saranno utilizzati dagli altri produttori, ki gliela farà fare ai nostri poveri programmatori a lavorare per un hardware specifico andando a perdere la compatibilità con tutte le altre schede video nn NVIDIA????
con questo ho finito ( o almeno mi pare), scusate il post lunghetto, ma ho voluto provare a sintetizzare tutto ciò ke ho capito leggendo le varie "recensioni" su questa scheda.
CMQ 1 precisazione da fare....tutto ciò ke finora è stato detto da me e da tutti è abbastanza "campato in aria" in quanto ci stiamo basando su informazioni non precisissime fornite direttamente dai PR di NVidia, e qdi, come tali, andrebbero prese con le molle e aspettare i tanto attesi bench fatti su schede funzionanti fornite ai nostri siti preferiti. (Speriamo ke corsini sia il primo, come lo è stato oggi battendo tutti i siti americani sul tempo:))
Nicola256
19-11-2002, 00:03
Sono d'accordo sul fatto che l'R300 sia attualmente la soluzione "già sul mercato" più performante per un HighEnd Gaming, ma effettivamente quale gioco "già sul mercato" ne sfrutta tutta la potenza? Attualmente la GeForce4_4600 ci consente di giocare a tutto anche con AA & AF attivati (che mi importa se gli fps non sono i 100 ipotetici di una 9700PRO ma "solo" 50-60,tanto un gioco è fluido gia a 30 fps...)! La necessità di sostituirla con una scheda basata su DX9 ci sarà soltanto quando quei giochi DX9 saranno disponibili!!!!
E' lampante che è semplicemente ridicolo butare ora 500 euro per una 9700PRO, è come acquistare una Ferrari e guidarla su una strada di campagna..
Con Unreal2 e Doom3 già sugli scaffali, allora si lo capirei! Per questo credo che
NVIDIA NON E' IN RITARDO!!
E' ATI CHE E'IN ANTICIPO!
Considerando tutto ciò, credo che Nvidia non sia affatto in una brutta situazione, anzi ha già il prodotto migliore, basta solo aspettare un paio di mesi (..tempo in cui nel campo videoludico non succederà un bel niente..) e Nvidia si riprende la Leadership dell' HighEnd Gaming!!
E tutta questa competizione tra ATI e NVIDIA non potrà far altro che la Fortuna di noi giocatori, perchè esse dovranno tirare fuori prodotti eccellenti a costi (..si spera..) sempre più competitivi..
sono curioso di vedere a che prezzo verranno lanciate le prime schede 1000 euro?
Ma io vorrei sentire tutti quelli che dicevano che Ati non sapeva più fare le schede perchè per dare corrente alla gpu aveva bisogno di un alimentazione che non arrivasse dal connettore agp.........
karakino
19-11-2002, 05:28
NVIDIA RULEZ!!!!!!!!
Originariamente inviato da karakino
[B]NVIDIA RULEZ!!!!!!!!
Bell'esordio! Bravo! :D
:rolleyes:
cdimauro
19-11-2002, 09:13
Si parla tanto di CPU limited e poi si rimarca che nVidia punta non al frame rate, ma alla qualità. Quanti hanno potuto riflettere che tutti questi cambiamenti incidono SOLTANTO sulla GPU, e non sulla CPU?
La CPU elabora le scene sempre e comunque allo stesso modo: se ne frega se poi la GPU dovrà renderizzarla a 800x600 senza effetti o a 1600x1280 con tutto il ben di dio attivato. Di questo se ne occuperà la GPU.
Proprio per questo, IMHO le schede recenti non sono affatto CPU-limited. Se fosse così, un gioco a 800x600 dovrebbe generare gli stessi fotogrammi che a 1600x1280, ma mi sembra che proprio al crescrere della risoluzione si assista, invece, ad un decremento degli fps. Eppure la CPU è sempre la stessa e il gioco che si fa girare idem.
Quanto ai 48GB/s di banda, è pura follia pensare che l'NV30 potrà garantire una simile banda. LMA3 non ha niente a che spartire con la tecnologia GigaPixel: è semplicemente un'evoluzione dell'LMA2. Ma queste tecniche di ottimizzazione della banda, come hanno già fatto notare, sono presenti anche sui concorrenti.
In conclusione, nVidia non ha niente di così innovativo da offrire rispetto a ciò che la concorrenza già possiede. E se i poveri fanatici aspettano di vedere utilizzare le sue tecnologie proprietarie rispetto allo STANDARD DirectX 9, possono stare belli freschi. Con le nuove schede e l'enorme concorrenza, non solo di Ati, è utopistico pensare a giochi sviluppati per funzionare solo con l'NV30...
Vaporware. Pubblicità gratuita. Illusioni.
Queste sono le parole che mi sento di affiancare a questo "lancio" dell'NV30.
Infine, dove sono tutti quelli che hanno smerdato Ati per il connettore ausiliario per l'alimentazione della scheda? Per alimentare questo mostro, anche se a 0,13u, nVidia è stata costretta a fare lo stesso! Abbiate almeno l'umiltà di ammettere le vostre colpe pubblicamente. Gli "attributi" per crocifiggere Ati li avete "mostrati"...
sanitarium
19-11-2002, 10:28
Originariamente inviato da seccio
[B]no scusate....io annegherò nella mia ingnoranza...ma illuminatemi.. prendiamo due schede molto diverse...come le 9700 e la 4600...piazzamogli tutti i filtri anisotropici a palla...e mettiamogli un FSAA in Hw come per la 4600 il quincunx...voi mi venite a dire che la 4600 fa 5000punti e la 9700 a quelle condizioni 15000??....siamo sicuri?? so per certo che la 9700 nn perde molto in anisotropico...ma con il FSAA un po' perde sicuramente...(cmq nn mi ricordo di aver visto confronti di 3dmark in FSAA e anisotropico,con le suddette schede)
Allora, io non ho mai detto che tu stai annegando nell'ignoranza, così come ho già specifiacto che il mio commento non era rivolto soltanto a te, ma a tutti coloro che pensano che la NV30 soltanto sarà un mostro, poiché SULLA CARTA andrà dalle 2 alle 3 volte più veloce di una geffo 4600 con AA e AF attivati; le stesse persone non si accorgono che la 9700pro queste cose le fa già, e da qualche mese, non soltanto sulla carta, ma nella realtà. E vuoi sapere perché "non se ne accorgono"? Primo perché non si chiama NVidia ma ATI, e già per questo è automaticamente inferiore, poiché NVidia butterà sul mercato una scheda sicuramente più potente (come se ATI all'uscita della NV30 se ne starà a guardare e a dire: "oooooooooooh, che bella la geppo fx, noi adesso come facciamo a continuare a vivere? E' più potente della 9700pro, per noi è finita!"); secondo perché intorno alla 9700pro non si è creato tutto l'hype che invece c'è tutt'ora per la NV30 (visto che ancora ruota tutto intorno a voci, per quanto ufficiali, ma sempre voci sono), e qui un plauso va alla sezione marketing della NVidia (veramente con le pa@@e, e non sto dicendo in tono scherzoso).
E poi, stiamo sempre a dire che le vere prestazioni non si vedono sul 3dmarks, ma nei giochi veri, e poi il primo metro di paragone che prendiamo per confrontare la geffo 4600 e la 9700pro è quello?? Ma come mai non ci si accorge che addirittura in un gioco che non è neanche stato provato con la 9700pro, e cioè Unreal Tournament 2K3, questa scheda con AA e AF attivati fa segnare sia nei flyby che nei deathmatch valori dalle 2 alle 3 volte superiori alla geffo 4600, per risoluzioni come 1280X1024 e 1600X1200? Come mai i talebani della NVidia prendono in considerazione risoluzioni come 800X600 e 1024X768 senza AA e AF, per far vedere che la 4600 raggiunge facilmente la 9700pro? Cosa credete, che la NV30 a queste risoluzioni andrà 3 volte più veloce di una geffo 4600? Non credo assolutamente, visto che gli stessi responsabili della NVidia hanno specificato in quali condizioni la NV30 sarà più veloce della geffo 4600, e fra queste non c'erano risoluzioni "basse" e filtri + AA disattivati... Per finire, a chi tifa NVidia non va bene che la 9700pro venga confrontata con la geffo 4600, poiché è di una generazione successiva ed è uscita svariati mesi dopo, però è sacrosanto che venga confrontata con la NV30, che uscirà soltanto a gennaio, quindi 5 mesi dopo la 9700pro (visto che in America ha debuttato ad agosto) e che, a mio modo di vedere, può essere considerata anch'essa di una diversa generazione, visto che addirittura supera le specifiche delle Dx 9 e delle OpenGl implementate nella 9700pro (per non considerare poi il processo costruttivo a 0.13m, la DDR-II ecc.).
Se si usasse lo stesso metro di giudizio per entrambe le case costruttrici, non ci sarebbero tutti questi battibecchi, e sarebbe bello che si guardasse ad ogni uscita di una scheda nuova (che sia essa ATI o NVidia) come ad un evoluzione per goderci meglio i nostri tanto amati videogiochi, anziché non perdere l'occasione di "scannarci"!
come ci si poteva aspettare a Natale niente FX. Questa è la prima grande sfida che nvidia perde. Personalmente ora che sono sicuro che a dicembre non avrò scelta, di sicuro mi prenderò una 9700pro così almeno a Natale giochicchio alla grande :)
Originariamente inviato da UltimateBou
io al momento con la 8500 vado alla grande a 1280*1024 32bi aniso16x e dettaglio max praticamente in tutti i games!
Vorrei tanto vedere come ti gira fs2002 moddato...
A me con Tbird 1400 e 8500le occata a 280/260 a 1024@32 e con AF *solo* a 4, in certe condizioni non supera i 6fps....
E non provare a mettere fs2002 standard che non c'è paragone con quello che ho io :p
andrewxx
19-11-2002, 11:28
Come qualcuno ha già fatto notare, con i prodotti ora presenti geppo ti4600 ati9700 o poco inferiori, siamo al sicuro:
I giochi nn sfruttano manco il 50% delle fetures delle schede su citate(e credo mai le sfrutteranno tutte).
Nn è certo buon affare comprare una scheda da 500€+/- quando ne trovi a 250€+/- che ti permettono di ottenere + che degni risultati, pensate che l'alpha di DOOM3 e la rev0.02 e fa anche 30fps su geppo4ti4600 o su ati9700 con texture grezze e ottimizzazione inesistente:eek: , vi rendete conto che abbiamo già dei prodotti super, nei negozi?????
Giochi dx8.......una rarità, figuriamoci dx9:confused:
certo a noi fa piacere che si scannino a suon di innovazioni, fra un 6mesi probabilmente potremmo comprare ti4600(se ancora la venderanno) o 9700 a prezzi +/- modici(speriamo)!!
Coloro che + traggono gioia da schede tipo R300pro o NV30 sono i grafici per MAYA o 3DSmax4 o PHOSER ecc...
con i rispettivi modelli dedicati, loro si che sfruttano gli effetti hardware:p,.....beati!!!!(ovvio poi ci sono oxigen wilcad ecc.. ma siamo gia' alla nasa!!!).
Personalmente possiedo una ATI 7500 64mb DDR da 3.5 n/s(se nn erro) come da signature, una dx7 hardware con T&L statico, bhe i programmi di grafica(3ds4,addcad7,turbocad,floorplan in render) mi girano abbastanza bene, anche i giochi (UT2003,ravenshield demo, a scendere, persino DOOM3 demo mi gira) se nn fosse per la cpu e la ram che ormai è obsoleta, potrei utilizzare gli effetti con qualità maggiore!!!
Morale che ho una scheda comprata un anno fa che già era dx7 percio' superata, e mi permette di giocare a tutto, certo nn 1600x1200 ma per quello che vale credo sia + che ottimo!
Io credo bisogni vederla da questo punto di vista, poi,ovvio chi ha i soldi, beato lui:p , ma come già detto la ferrari col limitatore per 150km/h nn è gran cosa!!!!
p.s. ma per avere una CPU con sopra un elicottero..., una GPU con sopra un elicottero...., un case con dietro due elicotteri.......
nn è meglio comprarsi un elicottero e metterci dentro il computer???????? fra un po' col pc ti vendono i tappi per le orecchie:p
Byez;)
losqualobianco
19-11-2002, 11:31
Tratto da anandtech
The perfect example we like to use is Doom3; Doom3 was designed around DX8 technology, it will be Doom3's successor that can truly take advantage of the features of GeForce FX. This is why we're not easily sold on advanced pixel and vertex shader support when it comes to GPUs; luckily NVIDIA was able to pack much more into the GeForce FX in order to make it quite attractive.
Sto aspettando impazientemente un gioco che non è ancora uscito e sfrutta appieno solo le DX8. Appena uscirà comprerò la scheda x utilizzarlo. Ora come ora l'unica che lo fa girare a livelli accettabili è la 9700pro (non c'è 4600 che tenga) speriamo in una ottimizzazione del codice ed in un calo dei prezzi con l'uscita della NV30 (almeno da parte di Ati) ma non mi faccio illusioni di sborsare meno di 300€ per giocare a doom3 (gioco a parte). Me ne frego chi terrà lo scettro del "+ veloce", a me serve l'hardware x giocare a doom3 al prezzo più basso possibile e NVIDIA (a parer mio) è la responsabile dell'aumento verticale dei prezzi delle schede video dopo il monopolio acquisito seguito al fallimento della 3DFX. Un gioco come DOOM3 segnerà un solco tra le schede che lo faranno "girare" e le altre che andranno a scatti. Inutile buttare soldi ora in schede video se non avete software per sfruttare quello che acquistate (a maggior ragione ancora più inutile fare tifo da stadio).
Se muore la concorrenza gli unici che se la prendono in c**o siamo noi. Speriamo anche in un KYRO_V...
Infatti mi prenderò sicuramente una 9700 pro ( o una geffo fx se non costerà molto ma ne dubito ) appena uscirà Doom III, nono vedo l'ora :D
Tasslehoff
19-11-2002, 11:49
Originariamente inviato da Nandozzi
[B]Perchè c'è ancora gente convinta che un gioco a 300 fps sia meglio di uno a 100 fps !!! L'occhio umano (sarà la 700 volta che lo ripeto) NON può distinguere più di 30 frame al secA parte la non precisione di questi dati già evidenziata da altri, il fatto è che a prescindere da tutto questo la differenza reale tra giocare a 80 fps e >100 c'è, esiste e si sente, negarlo vuol dire non aver mai provato a giocare a determinati fps...
Io non ti so dire se la ragione sta nella visualizzazione (sempre per la questione degli fps percepiti dall'occhio umano) oppure in altri fattori (per es i dpi del mouse che danno l'impressione di muoversi a scatti o cmq di non "vedere" la precisione effettiva data dai movimenti del topo...), però sta di fatto che i 100 fps si vedono e si sentono, e se vuoi giocare seriamente in qualche competizione tra i requisiti minimo fondamentali c'è un frame rate superiore come minino a 80, ne va veramente della tua precisione..
Paolo Corsini
19-11-2002, 11:51
Originariamente inviato da Wing_Zero
[B]O magnifico paolo corsini mitico recensitore di hardwre di tutti i tempi, ti invoco per chiderti aiuto!!! ;) ;) ;)
Ecco quello che viene riportato su toms:"The memory interface of the GeForceFX has been designed with DDR-II in mind from the start. It will most likely use memory modules clocked at 500MHz (1GHz DDR-II) on a 128-Bit bus, offering a solid memory bandwidth of about 16GB/s. While this is an improvement over the GeForce4 Ti's 10.4GB/s, it's still a far cry from ATi's Radeon 9700 PRO, whose 256-Bit DDR memory interface offers a full 19.6GB/s. "
allora ma questa BENEDETTA NV30 DI QUANTO AVRA' LA BANDWITH DI 16 O DI 48 ???????????
AIUTO!!!! NN CI CAPISCO + NIENTE!! quindi in sostanza..chi 'e che ha ragione hwupgrade o toms???
Ciao,
Lars Weinard, autore del pezzo di Tom's Hardware, ha detto bene: se calcoli la bandwidth effettiva siamo a 16 Gbytes al secondo. Conosco Lars da alcuni anni, è veramente molto bravo e competente (anche se, come tutti i giornalisti tedesci e buona parte degli italiani, ai party dei produttori si concia da buttare via con il bere, eheheh ;))
1.000 Mhz di clock * 128bit di ampiezza bus / 8 (per convertire da bit a byte) fanno proprio 16 Gbytes di banda.
L'indicazione di 48 Gbytes viene data da nVidia come quella massima ottenibile con le ottimizzazioni, Lightspeed Memory Architecture 3 e color compression in primis.
Quando la scheda sarà disponibile per i test vedremo quale sarà la banda effettivamente a disposizione.
Paolo Corsini
19-11-2002, 11:56
Originariamente inviato da seccio
[B]no scusate....io annegherò nella mia ingnoranza...ma illuminatemi.. prendiamo due schede molto diverse...come le 9700 e la 4600...piazzamogli tutti i filtri anisotropici a palla...e mettiamogli un FSAA in Hw come per la 4600 il quincunx...voi mi venite a dire che la 4600 fa 5000punti e la 9700 a quelle condizioni 15000??....siamo sicuri?? so per certo che la 9700 nn perde molto in anisotropico...ma con il FSAA un po' perde sicuramente...(cmq nn mi ricordo di aver visto confronti di 3dmark in FSAA e anisotropico,con le suddette schede)
Ciao,
http://www.hwupgrade.it/articoli/661/17.html
Unreal Tournament 2003
FSAA 4x - filtraggio anisotropico 4x
Radeon 9700PRO: 84,3 fps
GeForce 4 ti 4600: 32,1 fps
Originariamente inviato da Paolo Corsini
[B]
Ciao,
http://www.hwupgrade.it/articoli/661/17.html
Unreal Tournament 2003
FSAA 4x - filtraggio anisotropico 4x
Radeon 9700PRO: 84,3 fps
GeForce 4 ti 4600: 32,1 fps
Detto tutto :D
Ora seccio, continua a giocare con il 3d mark :D
Originariamente inviato da Tasslehoff
[B]A parte la non precisione di questi dati già evidenziata da altri, il fatto è che a prescindere da tutto questo la differenza reale tra giocare a 80 fps e >100 c'è, esiste e si sente, negarlo vuol dire non aver mai provato a giocare a determinati fps...
E' da un lato vero, nel senso che la sensazione di maggior fluidità, non perviene dall'occhio in quanto a fps, ma a una reale maggior fluidità del gioco stesso: stare a 30fps significa che ogni volta che c'è un calcoletto in più, si scende e l'occhio se ne accorge.
Cmq penso che 45 sia ottimo.
Il discorso degli 80 è parte reale e parte fonte di leggende metropolitane: quanti monitor hanno un refresh di più di 85hz?
Ecco, adesso ci si mette anche il monitor :D:D:D
Pure se a Q3 fai 140fps, il monitor non te ne fa vedere più di 85.
Allora l'illusione della maggior precisione deriva non da quelli che chiami dpi del mouse (che sono sempre quelli, in quanto il rapporto del moltiplicatore meccanico, oppure la frequenza del sampler per quelli ottici non cambiano) ma dal fatto che TUTTO il gioco gira bene.
A 30fps siamo un po' risicati e sembra andare a scatti.
Mano mano che si sale, significa che il computer ha potenza in eccesso, e ciò si traduce in fluidità.
Ma non inventiamoci cose scientificamente impossibili, tipo proprio quella del mouse ;)
Originariamente inviato da erupter
[B]
Pure se a Q3 fai 140fps, il monitor non te ne fa vedere più di 85.
Questo se giochi con il v-sync attivato, io personalmente gioco sempre con v-sync disattivato.
Il problema degli FPS dipende molto dalla velocità di aggiornamento del monitor... non si notano rallentamenti se la velocità del gioco è perfettamente identica a quella del monitor. L'esempio lampante sono i giochi della sega in sala giochi (tipo house of the dead) dove tutto sembra iper-fluido e senza tentenammenti. I monitor (che poi sono televisori) dei coin-op in genere vanno a 25hz o 30hz (dipende se sono in pal o ntsc) e il gioco aggiorna ESATTAMENTE 25 o 30 quadri al secondo: in pratica 1 frame esatto per ciascun aggiornamento del cannone.
Dai aspettiamo i BenchMark. Per adesso come feature è il massimo del mercato :)
Avete letto dell'FSAA con praticamente 0 cali di prestazioni?
ErPazzo74
19-11-2002, 13:20
Originariamente inviato da Ligos
[B]
Questo se giochi con il v-sync attivato, io personalmente gioco sempre con v-sync disattivato.
Si per cui 55fps li butti nel cestino :), se il monitor + di 85 non ne fa tu non ne puoi vedere di + :D, a meno che tu non sei 1 mago ;)
cacchione
19-11-2002, 14:18
a quasi 200 commenti sarebbe utile un calcolo statistico sui commenti per individuarne la percentuale di diffusione dei vari tipi:
-opinioni intelligente e utile
-opinioni stupide
-ripetizioni di qualcosa che già sapevano tutti
-adirittura ripetizioni da parte dello stesso autore di un suo commento
-critiche a hwupgrade (o, ancora meglio, di chi ha scritto l'articolo)
-critiche a nvidia
-critiche tecniche (spesso infondate)
-scemenze varie
quanti anni passeranno prima che l' intelligenza artificiale progredisca in modo da permettere via software la selezione e la pubblicazione solamente della prima tipologia? gli altri commenti non fanno altro che inflazionare quella piccola percentuale sensata.
Originariamente inviato da cacchione
[B]a quasi 200 commenti sarebbe utile un calcolo statistico sui commenti per individuarne la percentuale di diffusione dei vari tipi:
-opinioni intelligente e utile
-opinioni stupide
-ripetizioni di qualcosa che già sapevano tutti
-adirittura ripetizioni da parte dello stesso autore di un suo commento
-critiche a hwupgrade (o, ancora meglio, di chi ha scritto l'articolo)
-critiche a nvidia
-critiche tecniche (spesso infondate)
-scemenze varie
quanti anni passeranno prima che l' intelligenza artificiale progredisca in modo da permettere via software la selezione e la pubblicazione solamente della prima tipologia? gli altri commenti non fanno altro che inflazionare quella piccola percentuale sensata.
Perchè un'intelligenza aritificiale possa selezionare un messaggio che risponda alle caratteristiche da te scritte (intelligenza e utilità), necessita prima di tutte le conoscenze possibili ed immaginabili sull'argomento della discussione, onde poter discernere l'infondatezza o la stupidità delle risposte.
Tengo a sottolineare che nemmeno il cervello umano è in grado di fare ciò, ecco perchè hwup è non moderato in tal senso.
Originariamente inviato da ErPazzo74
[B]
Si per cui 55fps li butti nel cestino :), se il monitor + di 85 non ne fa tu non ne puoi vedere di + :D, a meno che tu non sei 1 mago ;)
"a meno che tu non sia un mago" ;)
Bhè quindi tu che lo sei vedi più fps del refresh rate del monitor :D:D:D
Cacchione, come mai che non vorresti anche un filtro sulla correttezza grammatico-sintattico-logica?
Originariamente inviato da cacchione
[b]
-critiche a hwupgrade (o, ancora meglio, di chi ha scritto l'articolo)
Forse xkè anche tu sbagli? ;)
"o,ancora meglio,A chi ha scritto l'articolo" ;)
:p
|CR0T4NUS|
19-11-2002, 15:36
riguardo ai FPS vi offro il mio punto di vista sull'importanza di fare quanti più fotogrammi possibili:
attualmente uno dei pochi giochi con cui si toccano punto astronomiche è quake 3 dove spesso vedidiamo robe da 220 fps in poi.
effettivamente i 220 fps si raggiungono con le mappe della demo che risalgono giusto a 3 anni fa.
quake è l'esempio più lampante della necessità di FPS infatti con la OSP per ottenere una fisica ideale si deve stare sui 125 fps ( indipendentemente se li vediamo o meno ) con mappe che poi spesso hanno il doppio dei poligoni di in più rispetto a quelle della demo.
effettivamente oltre a quake3 in quale gioco si superano i 200 fps ?
Spider Baby
19-11-2002, 16:08
dalla recensione:
[B]FX è acronimo di Effects
non è acronimo, semmai omofono!
l'ho detto solo per partecipare ;)
evvai!!!!!!!!!!!!!!!!!!!!!1 DUECENTESIMOOOOOOOOOO
ErPazzo74
19-11-2002, 17:04
Originariamente inviato da erupter
[B]
"a meno che tu non sia un mago" ;)
Bhè quindi tu che lo sei vedi più fps del refresh rate del monitor :D:D:D
Cacchione, come mai che non vorresti anche un filtro sulla correttezza grammatico-sintattico-logica?
Forse xkè anche tu sbagli? ;)
"o,ancora meglio,A chi ha scritto l'articolo" ;)
:p
Miiiiiiiiiiiiiii come siamo pedanti :D
Perchè siarei 1 mago :D? Mah..................:confused:
Ciaoooooozzzzzzzzzz
Originariamente inviato da ErPazzo74
[B]
Miiiiiiiiiiiiiii come siamo pedanti :D
Perchè siarei 1 mago :D? Mah..................:confused:
Ciaoooooozzzzzzzzzz
Bhè se c'hai l'avatar di Gandalf deduco che fai parte della gilda dei maghi ;) :p :D:D:D:D
ErPazzo74
19-11-2002, 17:34
Scusa ma sai la tesi, sono totalmente fuso..........dormo pochissimo (come tutti i maghi del resto ;))
Paolo Corsini
19-11-2002, 17:34
Originariamente inviato da Spider Baby
[B]
non è acronimo, semmai omofono!
l'ho detto solo per partecipare ;)
Non si smette mai d'imparare; grazie della segnalazione, appena sistemato ;)
Lud von Pipper
19-11-2002, 18:10
Riassunto delle puntate precedenti:
1) Geffo4 non consente di utilizzare risoluzioni tipo 1600x1200 con AA e Aniso attivati, la Raddy 9700 si, ma proprio al limite.
GeffoFX probabilmente migliorerà la situazione, ma "Leggermente".
Se il prezzo di GeffoFX sarà competitivo la scheda troverà la sua ragione d'essere, altrimenti, prendetene una più economica e/o aspettate la nuova generazione (o una sostanziale revisione di quella attuale).
2) Gli FPS hanno senso solo fino a quando il refresh del monitor è in grado di supportarli, oltre vanno perduti (VSinc o meno, che al più influisce sugli FPS generati dalla scheda, non certo sulla visualizzazione del monitor).
Il refresh del monitor può arrivare anche molto in alto (120+Hz), ma oltre gli 85Hz l'occhio umano perde la capacità di cogliere la differenza, quindi, a livello puramente teorico, 85FPS è il limite del buon senso.
Per quanto mi riguarda, 25/30FPS è quello che ritengo il minimo per una buona giocabilità
3) Speriamo anche che i drivers di Nvidia siano all'altezza: è facile avere drivers ottimizzati quando non si sono immessi prodotti rivoluzionari da due anni a questa parte, ma con GeffoFX ci si potrebbe anche ritrovare nella stessa situazione di quando uscirono le varie Geffo1 e Geffo3.
Questa scheda non potra godere dalle ottimizzazioni che bene o male Nvidia ha sempre ottenuto per il proprio hardware direttamente da parte dei vari produttori di software (a svantaggio di ATI e altri), un pò come accadeva una volta con 3DFX.
Geffo FX è un prodotto completamente nuovo, e come tale soffrirà inevitabilmente di difetti di gioventù.
4)Questa presentazione è stata davvero uno squallido circo delle pulci, organizzato dalla divisione di marketing Nvida, che evidentemente è in seria difficoltà per l'evidente vantaggio acquisito da ATI nell'ultimo semestre in termini di Immagine.
Non penso che la stragrande maggioranza delle post negative che si sono lette su questo forum fossero dettate da un effettiva critica nei confronti di questo sito e di chi ci lavora.
Si tratta soprattutto di uno sfogo dettato dalla frustrazione di chi si aspettava notizie più ghiotte da parte di Nvdia, che non ha invece lasciato trapelare nulla di reale, o più probabilmente, era nell'impossibilità di farlo per totale assenza di hardware.
Una volta lo si chiamava Vaporware, e per quanto mi riguarda la GPU sulle schede in visione poteva anche essee fatta di latta.
Certo Paolo Corsini, capirà che con le cose che aveva lasciato trapelare prima della recensione, c'è stata gente che non ha dormito tra domenica e lunedì (e la mancanza di sonno fa brutti scherzi ;))
5) Nessuno per favore parli più di prestazioni di ATI contro Geffo nel 3dProfessionale: spero vivamente che ATI migliori i propri drivers anche in questo campo, ma se si inizia a discutere di quasto argomento, enrico ci fa venire l'orchite a tutti ;) :D
LvP
halduemilauno
19-11-2002, 18:20
X LvP
1)cos'è un ultimatum?
2)vale per tutte anche per la 9700pro.quindi?
3)i drivers nVidia raramente non sono stati all'altezza.ho avuto la geffo 1mai avuto problemi.
4)squallido per te.evidente vantaggio ati.ma se è in calo di vendite.le cose che sono trapelate a mio avviso sono sufficenti per emettere un primo giudizio positivo.per il definitivo siamo in attesa certo. sulla frustrazione................
5)daccordo.
Lud von Pipper
19-11-2002, 18:35
Originariamente inviato da halduemilauno
X LvP
1)cos'è un ultimatum? :confused:
magari dovevo dire "di quelle attuali", comunque se NV30 uscirà al prezzo previsto (499$, cioè, da noi, 750€) non varra la pena di prenderla.
meglio la Raddy
[b]2)vale per tutte anche per la 9700pro.quindi? era una risposta ad un post che trovi nella pagina precedente...
[b]3)i drivers nVidia raramente non sono stati all'altezza.ho avuto la geffo 1mai avuto problemi.
Anche io ho avuto la geffo1, e i problemini c'erano: certo, con il maturare dei drivers le cose sono migliorate, però la memoria ce l'ho buona.
ATI e Nvidia se la giocheranna finalmente alla pari in questo campo
[b]4)squallido per te.evidente vantaggio ati.ma se è in calo di vendite.le cose che sono trapelate a mio avviso sono sufficenti per emettere un primo giudizio positivo.per il definitivo siamo in attesa certo. sulla frustrazione................
Squallido perchè ricorda troppo da vicino la lotta tra Playstation 2 e Dreamcast: Il marketing Sony le mise in competizione da subito, ma PS2 uscì con due anni dopo: chi ne uscì con le ossa rotte fu comunque SEGA e chi ci perse di più fu il consumatore...
[b]5)daccordo. :D
LvP
halduemilauno
19-11-2002, 18:47
Originariamente inviato da Lud von Pipper
:confused:
magari dovevo dire "di quelle attuali", comunque se NV30 uscirà al prezzo previsto (499$, cioè, da noi, 750€) non varra la pena di prenderla.
meglio la Raddy
era una risposta ad un post che trovi nella pagina precedente...
Anche io ho avuto la geffo1, e i problemini c'erano: certo, con il maturare dei drivers le cose sono migliorate, però la memoria ce l'ho buona.
ATI e Nvidia se la giocheranna finalmente alla pari in questo campo
Squallido perchè ricorda troppo da vicino la lotta tra Playstation 2 e Dreamcast: Il marketing Sony le mise in competizione da subito, ma PS2 uscì con due anni dopo: chi ne uscì con le ossa rotte fu comunque SEGA e chi ci perse di più fu il consumatore...
:D
LvP
ciao.
1)per quanto riguarda il prezzo bisogna tener conto della realtà del mercato è ovvio che non si può basare sulla arida conversione diretta.ma si devono vedere diversi fattori l'economia e concorrenza su tutte.
2)si avevo capito.ribadivo che valeva per tutte.
3)i driver della geffo1 ripeto non mi hanno mai dato problemi.
4)mi citi un fatto eclatante con due anni in ballo.qui mi pare che siamo in una situazione ben diversa.
5):D
;)
raga, pekkato ke esca un mese dopo il mio prossimo acquisto del pc nuovo e s video nuova, almeno i prezzi....
cmq ci sono un paio d cose ke non mi piacciono maa...tutto sommato la 5800 ultra dovrebbe andarmi bene (numericamente parlando)
PS: ULTIMOOOOOOOO
Premetto che non ho letto tutti i post precedenti e quindi non so se qualcuno la già postato: a questo link http://images.ukgamer.com/previews/fx/doom3_large.jpg c'è un bench della GFFX rispetto alla 4600Ti su D3, UT2K3 e Nature 3DM2K1(fonte NVitalia).
halduemilauno
20-11-2002, 10:01
Originariamente inviato da UltimateBou
[B]certo che però 0.13 micron, alimentazione aggiuntiva e mega iper dissipatore, mi sa che al momento se lo sognano di fare una GeforceFX ultra...
questa è la geffoFX 5800ultra.
;)
thunderaccio
20-11-2002, 10:53
Ciao ragazzi. Sono nuovo di qui e volevo salutarvi.
Riguardo alle prestazioni di NV30 non montiamoci troppo la testa perche come è successo in precedenza,
sono sempre rimasto un po' deluso passando da geffo256 a geffo2 pro e poi a geffo4ti4200.
Nel senso che sulla carta sembravano molto più potenti delle precedenti.
halduemilauno
20-11-2002, 12:06
Originariamente inviato da UltimateBou
[B]halduemilauno, beh allora qualora ATI facesse un R350 + potente del GeforceFX 5800 Ultra, Nvidia non saprebbe + che fare fino alle prossime schede...
Ora che ATI faccia un R350 + potente di GeforceFX 5800ultra, è probabile visto che R9700 Pro non è distantissima dalla 5800ultra, ed ha un dissi ridicolo, staccato, 0.15, DDR-I. Ora pensala DDR-II, 0.13, dissi pauroso attaccato alla VPU, R300 evoluto con nuove features (e ci stanno lavorando già almeno da 2 mesi, quando uscirà NV30 probabilmente avranno finito, ed il passaggio a 0.13 non dovrebbe essere tanto difficoltoso, addirittura SiS con lo Xabre 600 sarà la prima ad avere lo 0.13 sul mercato!), ed immagina che cosa ne potrà uscirne fuori. Secondo me chi aspetta NV30, appena questo uscirà, si ritroverà a poter scegliere anche R350, o ad aspettarlo nel giro di poco tempo....
vedremo.certo può essere.tutto è possibile anche la geffoFX TI con bus memoria a 256 bit.il tutto prima della NV35.
;)
http://www.3dcenter.org/artikel/2002/11-19_b.php
a me pare un razzo sta scheda.
traete le vostre conlusioni.
ciaoz
sanitarium
20-11-2002, 13:38
Originariamente inviato da Jeff
[B]http://www.3dcenter.org/artikel/2002/11-19_b.php
a me pare un razzo sta scheda.
traete le vostre conlusioni.
ciaoz
Grafici già visti, e ribadisco che secondo me non c'è da gridare al miracolo, almeno per il momento...
sanitarium
20-11-2002, 14:49
dm-asbestos?game=engine.gameinfo exec=..\Benchmark\Stuff\flybyexec.txt -benchmark -seconds=71 -nosound
14.251460 / 100.946167 / 452.239471 fps rand[30167]
Score = 100.997879
Come potete vedere, anche fossero veri i risultati che riguardano i bench di UT2K3 riportati su http://www.3dcenter.org/artikel/2002/11-19_b.php, ripeto che non c'è proprio nulla che ci debba far gridare al miracolo. Infatti con la configurazione in firma, con la 9700 pro e 500MHz di processore in meno, ho totalizzato con AA4X e AF8X 100,9 fps, contro i 108,4 della GeForceFX 5800U...
Se totalizzare 8 fps in più significa stracciare la 9700 pro, allora... :rolleyes:
sanitarium
20-11-2002, 17:33
Originariamente inviato da UltimateBou
[B]sanitarium, il bello che l'hanno potenziata rispetto al progetto originale che a questo punto credo era sicuramente inferiore (o cmq al pari, ma al pari per una scheda che genere tutto questo hype sarebbe stato ridicolo) alla Radeon 9700 Pro. E cmq tu hai 500mhz di meno che anche in una situazione di cpu-limited potrebbero verificarsi...
La cosa divertente è che gli ultrà NVidia, quando hanno visto che la 9700pro DISTRUGGEVA la 4600 con AA e AF a risoluzioni elevate, si ponevano due modalità di commento ai bench:
1- Dicevano che comunque a 800X600 e 1024X768 la 4600 raggiungeva facilmente la 9700pro (e vorrei sottolineare che certe risoluzioni le usavo anche io con la mia mitica voodoo banshee); ovviamente se possibile facevano finta di nulla riguardo ad AA e AF (soprattutto quest'ultimo) attivati...
2- Dicevano: adesso che arriva la NV30 vi facciamo vedere noi cosa significa un salto prestazionale e generazionale (come se fossero i suddetti ultrà ad aver progettato la NV30), vedrete che la NV30 sarà molto più veloce della 9700pro... Addirittura c'è stato uno di questi talebani che ha detto che visto cos'è la 9700pro alla NVidia non sarebbe risultato difficile superare la suddetta scheda con la loro nuova creazione (quando si dice voler negare l'evidenza)...
Ma adesso cominciano ad uscire i primissimi bench (oltretutto di casa NVidia), e siccome si vede che le differenze velocistiche tra NV30 e r300 non sono poi così marcate (basta vedere i 46 fps contro 33 su DoomIII, il flyby di UT2K3 che ho citato prima ecc...), a cosa si aggrappano gli NVidiosi?? ALLA QUALITA' GRAFICA, che improvvisamente diventa punto di forza della NV30, senza considerare poi che finché ATI ha cercato di mirare più alla qualità video che alla potenza bruta, gli ultrà hanno detto che NVidia era meglio perché andava più veloce, mentre ora che la prende in considerazione NVidia, allora la qualità grafica è di fondamentale importanza, anche a scapito della velocità (anche se si parla di riduzioni minime di prestazioni, visto che mostri sono l'r300 e la NV30)!!
Che dire, evviva la coerenza!
Ecco perché con certe persone non ci si può parlare...
nikki--boohh
20-11-2002, 18:44
tu dici che la differenza tra R300 e nv30 in doom 3 non e' molto marcata , nv30 46,5 fps r300 33,1 fps
una differenza di 13,4 fps , ma allora anche tra Ti4600 e R300 non e' cosi' marcata R300 33,1fps , Ti4600 18,9 fps una differenza di 14,2 fps stando al tuo discorso se la nv30 non distacca molto R300 , neanche R300 distacca molto la Ti4600 dato che la differenza e' di 13,4 tra R300 e nv30 e di 14,2 tra r300 e Ti4600
sanitarium
20-11-2002, 19:05
Originariamente inviato da nikki--boohh
[B]tu dici che la differenza tra R300 e nv30 in doom 3 non e' molto marcata , nv30 46,5 fps r300 33,1 fps
una differenza di 13,4 fps , ma allora anche tra Ti4600 e R300 non e' cosi' marcata R300 33,1fps , Ti4600 18,9 fps una differenza di 14,2 fps stando al tuo discorso se la nv30 non distacca molto R300 , neanche R300 distacca molto la Ti4600 dato che la differenza e' di 13,4 tra R300 e nv30 e di 14,2 tra r300 e Ti4600
Dunque, se noi prendiamo un gioco come Doom III, già di per se pesante e poi ad un livello primitivo com'è l'alfa, è ovvio che nessuna scheda riesca a generare un framerate molto alto, ed ecco che le prestazioni si allineano. Se si avesse davanti la versione definitiva e perfettamente ottimizzata del gioco, penso proprio che la musica sarebbe parecchio diversa, poiché la 9700pro e la NV30 prenderebbero seriamente il volo rispetto alla 4600... Anche perché, se proprio vogliamo prendere come attendibile il bench con Doon III, allora possiamo dire che non c'è stata alcuna grande evoluzione nel passare dalla 4600 alla NV30, in quanto la differenza nel framerate è di neanche 30fps! Allora, vogliamo basarci su un'alfa test, o per esempio vogliamo vedere come nel flyby di UT2K3, gioco già uscito e quindi già ottimizzato, la NV30 fa soli 8 fps più di una 9700pro, mentre entrambe staccano di moltissimi fps la 4600? Sono questi i casi da prendere in considerazione (anche se sono dati da prendere con le pinze quelli della NV30, visto che non c'è stato riscontro nella realtà testimoniato da qualcuno fino ad oggi), non delle alfa version di giochi che devono ancora uscire...
Di solito quando c'è una news o una rece interessante mi leggo tutti i post di commento.....credo che questa volta desisterò :)
senza contare che l'alpha di doom3 potrebbe essere un pelo già ottimizzata per nvidia, vista la riga nel cfg del gioco
Originariamente inviato da nikki--boohh
[B]tu dici che la differenza tra R300 e nv30 in doom 3 non e' molto marcata , nv30 46,5 fps r300 33,1 fps
una differenza di 13,4 fps , ma allora anche tra Ti4600 e R300 non e' cosi' marcata R300 33,1fps , Ti4600 18,9 fps una differenza di 14,2 fps stando al tuo discorso se la nv30 non distacca molto R300 , neanche R300 distacca molto la Ti4600 dato che la differenza e' di 13,4 tra R300 e nv30 e di 14,2 tra r300 e Ti4600
In percentuale tra 18 e 33 c'e' quasi il 100% in, ossia il doppio, tra 33 e 46 c'e' solo un misero 40%, che non e' neanche la meta' degli fps della 9700, quindi tra 4600 e 9700 c'e' un abisso, tra 9700 e nv30 c'e' differenza, ma non abissale.
speriamo solo che quella "riga" sia lì perchè nvidia era la piattaforma + affidabile e veloce nel primo periodo di sviluppo del gioco, carmack ha sempre cercato di non favorire i monopoli (vedi 3 per opengl, su linux e mac) cmq per i fan nvidia ico di non credere troppo alle promesse, ricordatevi del tnt (veloce quanto due voodoo 2 in sli siiii come no!!) i 32 bit assolutamente inusabili su tnt uno, il tl di prima generazione che doveva rivoluzionare il mondo del 3d come aveva fatto la prima voodoo (non è cambiato na mazza) i rivoluzionario nforce (qualcuno l'ha visto?) ocio ;)
sanitarium
20-11-2002, 21:46
Originariamente inviato da UltimateBou
[B]Totalmente d'accordo nel post 222, stai a vedere che appena esce NV30, tutti giù a parlare di filtro anisotropico, il quale, se lo cito adesso, viene ignorato ed evitato come la peste perchè getta molte ombre sulla qualità dei "perfetti ed immacolati" DETONATOR.
DoomIII è un preliminare alpha, quindi aspettiamo di vedere cosa succede appena si ottimizza (e purtroppo penso proprio che vedremo quell'odiosissimo logo nvidia al caricamento che ci farà capire quanto sarà ottimizzato per gef FX), mentre per UT2003 8fsp in + non sono tanti per una scheda che uscirà 5 mesi dopo la concorrente. E poi (e qui viene il bello): a chi avete detto "forno"? auhaua termoreattore nucleare per raffreddare la gef fx 0.13, misero dissipatore (STACCATO) per raffreddare la 9700 0.15... Mi sembrano gli stessi discorsi sul riscaldamento di AMD, beh certo che intel non scalda, viene fornito in dotazione un dissi enorme fuori specifica originaria delle schede madri, lo stesso per l'nv30 che non è fuori specifica, ma è cmq enorme...
Te l'ho detto, improvvisamente la qualità va messa al primo posto, perché adesso è importante per NVidia...:rolleyes:
E vedrai adesso come osanneranno l'anisotropico (peraltro mutuato come tecnologia da quei "poveracci" della ATI, ma questa è un'altra storia!), che adesso non viene neanche nominato, sarà la rivelazione del 2003, e bisognerà ringraziare la NVidia e la sua NV30 per questa meraviglia visiva, perché prima di lei chi mai aveva offerto tanta qualità su schermo? Chi, la ATI? Noooooo, impossibile, la ATI non è all'altezza della NVidia... :rolleyes:
Skeletor
20-11-2002, 22:57
Non credo proprio che DooM III sfoggerà un logo NVIDIA da alcuna parte, visto che la id è in stretta collaborazione con ATi per la realizzazione di tale giochillo...
Lud von Pipper
21-11-2002, 00:17
Ragazzi, io non ho trovato grandi odi ed esaltazioni verso NV30 su questo thread, quindi non capisco perchè vi accaniate tanto a bastonare sta GeffoFX.
Ho in ordine una 3DProphet9700Pro (che, vaccaccia boia è in ritardo di un mese :mad: ), ma iniziate a sembrate voi un po troppo talebani nei confronti di ATI :rolleyes:
LvP
sanitarium
21-11-2002, 10:57
Originariamente inviato da Lud von Pipper
[B]Ragazzi, io non ho trovato grandi odi ed esaltazioni verso NV30 su questo thread, quindi non capisco perchè vi accaniate tanto a bastonare sta GeffoFX.
Ho in ordine una 3DProphet9700Pro (che, vaccaccia boia è in ritardo di un mese :mad: ), ma iniziate a sembrate voi un po troppo talebani nei confronti di ATI :rolleyes:
LvP
Ok, forse siamo andati un po' OT, ma stavamo soltanto imbastendo una critica non alla NV30, bensì alla politica marketing della NVidia e al modo di voltare bandiera degli ultrà della suddetta casa...
Inoltre, tu non hai trovato esaltazioni e odi alla scheda soltanto perché non c'era nulla da esaltare e da lodare... basta andare sugli altri thread dove si parla della NV30 (per esempio http://forum.hwupgrade.it/showthread.php?s=&threadid=345948) per vedere che, appena usciti i primissimi bench di casa NVidia, hanno cominciato a denigrare la 9700pro... Noi stiamo dicendo oggettivamente quali sono i difetti dei tifosi NVidia (voltafaccia, incoerenza ecc.), non stiamo certo mettendo in dubbio le capacità della NV30, cosa che invece fanno loro quando parlano della 9700pro... Magari non in questo 3d, ma tant'è...
falcon.eddie
21-11-2002, 12:15
X SKELETOR:
Guarda che la id non collaborerà piu' con ATI dopo lo scherzetto che si sono lasciati scappare(la ATI)...
Originariamente inviato da raph45
[B]
In percentuale tra 18 e 33 c'e' quasi il 100% in, ossia il doppio, tra 33 e 46 c'e' solo un misero 40%, che non e' neanche la meta' degli fps della 9700, quindi tra 4600 e 9700 c'e' un abisso, tra 9700 e nv30 c'e' differenza, ma non abissale.
Ho ottimizzato doom 3 e adesso mi fa 41 fps @1280x1024,contento????
E cmq con UT 2003 mi fa 118 fps @1280x1024 AA4x e AF 8x,poi continuala pure a menare fin che vuoi.........
Originariamente inviato da falcon.eddie
[B]X SKELETOR:
Guarda che la id non collaborerà piu' con ATI dopo lo scherzetto che si sono lasciati scappare(la ATI)...
Da quanto dici sembra che ATI sia una società mingherlina con sede nel Burundi, mentre la ID sia una multinazionale con migliaia di dipendenti, sedi in tutto il mondo, e un'ottima fetta di mercato in mano.
Caso mai è ATI che scarica la ID, non il contrario, non confondiamoci ;)
Originariamente inviato da igiolo
[B]
Ho ottimizzato doom 3 e adesso mi fa 41 fps @1280x1024,contento????
E chi saresti? :confused:
John Carmack? :eek:
Ma valà....
Lud von Pipper
21-11-2002, 15:54
Originariamente inviato da falcon.eddie
[B]X SKELETOR:
Guarda che la id non collaborerà piu' con ATI dopo lo scherzetto che si sono lasciati scappare(la ATI)...
Puoi spiegarti meglio?:confused:
(sai chi se ne frega comunque, l'ultimo giochino ID che ho giocato era DoomII)
LvP
andrewxx
21-11-2002, 17:32
21 November - Nvidia Strongly Dislikes Curved Surfaces: No Displacement Mapping Support in the GeForce FX :eek:
We were very astonished when Nvidia decided to turn off the parametric surfaces (or RT-patches in the DirectX parlance) support in their GeForce3 drivers a year ago. When asked why, Nvidia officials told that the support of curved surfaces should be turned off because several game developers implemented ATI’s TruForm technology in their games and the software decided that the GeForce3 accelerators also supported the N-Patches, whereas the GPU just tried to emulate them through RT-patches causing the performance to drop dramatically. Since the higher order surfaces are not used widely these days, their support is not something the end-users can take any advantages of, we forgot about this fact shortly after it had been revealed.
The higher order surfaces are here to allow game-developers to create very complex 3D-models without using too many triangles. There are many approaches of creating HOS surfaces, however, there are only two of them on the consumer market: RT-Pathes and derivatives and N-Patches in different incarnations. RT-Patches require control points definition over a surface at the stage of creating a model. Another way to achieve complex models and environments is to utilise N-Patches and its derivatives that calculate the control points on-the-fly. Since the latter were introduced by ATI, Nvidia said that they were not going to implement this in their own chips.
What is even more interesting is that they decided not to support Displacement Mapping technology from DirectX 9.0 due to unknown reason, according to sources. Maybe because the approach is based on the notorious N-Pathes?
Microsoft wants IHVs to support Displacement Mapping and points it out in every document they issue in regards DirectX 9.0. Both ATI Technologies’ RADEON 9700/9500 VPUs and Matrox Graphics’ Parhelia 512 graphics processor support the Displacement Mapping.
I now wonder if Displacement Mapping is “must be” function of the DirectX 9.0. If it is, Nvidia may not be able to claim the DirectX 9.0 full hardware support for the GeForce FX VPU.
http://www.reactorcritical.com/#l1270
ZioJimmy
21-11-2002, 17:48
Analiziamo questo raffreddamento, se è possibile, da queste poche foto. Per prima cosa notiamo che il sistema è molto simile a quello otes (é l'unico che conosco fatto così) http://www.hwupgrade.it/articoli/665/2.html
La prima differenza che si può notare dal sistema otes è che l'aria viene presa dall'esterno (aria "fresca") al contrario di otes che prende l'aria dall'interno del case (aria "più calda"), fino qui mi sembra un miglioramento. L'unico svantaggio è che come faceva notare qualcuno, si risucchia più facilmente della povere con problemi a lungo andare di polvere all'interno delle alette e di tutto il sistema di raffreddamento della scheda.
Da queste foto si può vedere che viene sfruttata tutta la larghezza del pcb per gestire l'entrata e l'uscita dell'aria e quindi può darsi che al contrario di otes che faceva girare la propria ventola a oltre 7000 giri, i giri di essa diminuiscano con conseguente diminuzione del rumore. (ripeto sono tutte cose che io penso vedendo queste foto)
Un'altro vantaggio che si può vedere da queste foto è che essendo un sistema di raffreddamento a sè, (chiuso nella sua scatolina), chi vuole aerare il prorpio case con delle ventole non deve preoccuparsi delle turbolenze che potrebbero andare ad infastidire la ventola e l'areazione della scheda video.
Queste sono alcune conclusioni che secondo una mia analisi si possono trarre da queste poche foto, accetto qualsiasi altra analisi.
PS: mi sembra che qualcuno abbia criticato i dissipatori in rame, mi smbra anche che il rame è l'unico e il miglior materiale per la dissipazione di calore che la maggioranza della gente può permettersi!! e poi tutti i migliori dissi e wc sono in rame, se poi siete contro nvidia tanto da criticare un dissipatore in rame, grazie per le risate che ci fate fare!!...miraccomando però, non comprate i dissi in rame un'indomani...
Zio Jimmy
Lud von Pipper
21-11-2002, 17:52
Originariamente inviato da andrewxx
[B]21 November - Nvidia Strongly Dislikes Curved Surfaces: No Displacement Mapping Support in the GeForce FX :eek:
Daccordo, ma perchè Carmack & Co. non lavoreranno più neppure con ATI? :confused:
Quale sarebbe lo "scherzetto che si sono lasciati scappare?"
LvP
Lud von Pipper
21-11-2002, 18:08
Originariamente inviato da ZioJimmy
[B]PS: mi sembra che qualcuno abbia criticato i dissipatori in rame, mi smbra anche che il rame è l'unico e il miglior materiale per la dissipazione di calore che la maggioranza della gente può permettersi!! e poi tutti i migliori dissi e wc sono in rame, se poi siete contro nvidia tanto da criticare un dissipatore in rame, grazie per le risate che ci fate fare!!...miraccomando però, non comprate i dissi in rame un'indomani...
Zio Jimmy
Penso che tu abbia frainteso: le critiche nascono da vecchie ruggini the assatanATI e NVidiosi: all'uscita della Raddy9700Pro si levarono lazzi e sberleffi per la presenza di dissipatori in rame (hercules) e fonti di alimentazione esterne.
L'accusa ad ATI fu che non essendo voluti passare a processi produttivi più spinti, come lo 0.13, la loro GPU erano fornelli e richiedevano alimentazioni fuori specifica limitando così le possibilità di O/C.
Ora si vede sta roba, con un Dissi enorme in rame, heatpipe e un molex sul PCB.
La cosa che smentisce clamorosamente le urla della curva sud (quelli di ATI stanno nella curva a Nord ;)) è che la GPU GefFX è a 0.13, quinìdi da quì le critiche.
Il vero problema delle alimentazioni da Mothrebard sta nel fatto che non si voglia spingere l'AGP Pro anche nel mercato videoludico (scommetto che la Raddy FireGL X1 sarà in formato AGP Pro, così come lo sarà la nuova Quadro1000).
Nessuno sano di mente metterebbe una scheda di questa potenza su una vecchia scheda madre (pre Athlon XP per intenderci) perchè il Processore non sarebbe in grado di fornire i dati alla velocità necessaria, ma a quanto pare sia ATI che Nvidia se ne fregano (la madre degli imbecilli è sempre incinta, quindi perchè togiersi una possibilità?)
La critica non è dunque al Dissi in rame in sè (che è un ottima cosa), ma che una scheda nuova a 0.13 micron lo richieda per funzionare (insieme al connettore Molex)
LvP
andrewxx
21-11-2002, 18:18
Comincio a pensare seriamente che gli sviluppatori(id) stessero utilizzando le 9700 disponibili per sfruttarne tutte le fetures ed ovviamente comprenderne la reale bonta' ed utilita' al fine di passare "qualche" informazione da reali constatazioni, a casa Nvidia:D furbi:eek:
Pero' i rinco.. mi sa che nn hanno badato ad un certo "Displacement Mapping":D , e così Nvidia si d'evessere incazzata parecchio:eek: e allora gli sviluppatori hanno deciso di tirarsi fuori , per nn rimanere con i peli del cu@o bruciati:D
Mah!!!!!
p.s. è solo una mia teoria(tutto e' possibile;) )
Lud von Pipper
21-11-2002, 18:33
Originariamente inviato da andrewxx
[B]Comincio a pensare seriamente che gli sviluppatori(id) stessero utilizzando le 9700 disponibili per sfruttarne tutte le fetures ed ovviamente comprenderne la reale bonta' ed utilita' al fine di passare "qualche" informazione da reali constatazioni, a casa Nvidia:D furbi:eek:
Pero' i rinco.. mi sa che nn hanno badato ad un certo "Displacement Mapping":D , e così Nvidia si d'evessere incazzata parecchio:eek: e allora gli sviluppatori hanno deciso di tirarsi fuori , per nn rimanere con i peli del cu@o bruciati:D
Mah!!!!!
p.s. è solo una mia teoria(tutto e' possibile;) )
Mi riferivo ad un post precedente di falcon.eddie.
Scusa ma non capisco la questione del "Displacement Mapping": intendi dire che dalla ID hanno passato informazioni riservate alla Nvidia sull'R-300?
Eppure alla Nvidia hanno riprogettato NV30 dopo avere visto di che cosa R300 fosse capace, quindi potevano prendere le loro informazioni direttamente da una scheda in commercio... :confused:
LvP
247 commenti , per una cosa che NON ESISTE!
E quando arriveranno i bench?Si dovra' mettere il turnomatic come al supermercato!!!!!
Ebbravi ragazzi!Effettivamente mette l'acquolina in bocca.
cdimauro
21-11-2002, 22:34
Il Displacemente Mapping Hardware è una caratteristiche estremamente interessante che consentirà di ridurre MOLTISSIMO la quantità di poligoni necessari per creare degli oggetti. Questo permetterà di realizzare giochi con un dettaglio grafico estremamente elevato, ma per contro richiederà un minor impiego della CPU (meno vertici/triangoli/oggetti da gestire).
Se nVidia ha deciso di non implementare questa interessantissima caratteristica e forzerà gli sviluppatori a non utilizzarla, i futuri giochi richiederanno sempre più risorse di sistema che graveranno soprattutto sulle tasche dei consumatori.
Non utilizzare il D.M.H. nei futuri giochi DirectX 9 è un crimine, perché i benefici che si hanno sia per gli sviluppatori che per i giocatori sono notevoli. Soprattutto per il fatto che è stata inserita nelle DirectX 9 e non vedo perché se ne dovrebbe fare a meno soltanto perché nVidia ha deciso di fare un dispetto ad Ati e Matrox (che l'ha sviluppata...)
Stiamo toccando il fondo... :rolleyes:
Originariamente inviato da Lud von Pipper
[B]
La critica non è dunque al Dissi in rame in sè (che è un ottima cosa), ma che una scheda nuova a 0.13 micron lo richieda per funzionare (insieme al connettore Molex)
LvP
Accidenti non fate altro che parlare di questo sistema di raffreddamento come se fosse stato messo li per bellezza o perchè l'nVidia abbia progettato male il suo chip che quindi richiede una grossa dissipazione termica. Se non ricordate male, il chip NV30 va a 500Mhz ed ha integrati 125 milioni di transistor, e la scheda monta anche memorie DDR2 a 500Mhz (1Ghz calcolando il doppio fronte di lavoro delle memorie DDR). Questo è un mix ideale per far lievitare la temperatura.
La 9700 si è dimostrata essere una scheda dalle prestazioni eccezionali, ma tuttavia chi la possiede afferma che si tratta di un vero e prorpio fornellino.
Nel PCB di una scheda nessun componente è messo li a caso o senza aver fatto tutte le prove possibili, e non dimentichiamoci che sul progetto di una scheda video lavorano centinaia di ingegnieri con le @@ (sia in casa ATI che in casa nVidia).
Spero di non creare polemiche con queste affermazioni. ;)
.... vorrei ricordarvi come un D1200 o un XP1700 lavoranti a frequenze ben superiori ai 500mhz teorici (non ancora confermati), stanno a loro agio con dissipatori volumetricamente confrontabili, e non si fregiano del processo a 0,13u...
Originariamente inviato da Maury
[B]
Da quanto dici sembra che ATI sia una società mingherlina con sede nel Burundi, mentre la ID sia una multinazionale con migliaia di dipendenti, sedi in tutto il mondo, e un'ottima fetta di mercato in mano.
Caso mai è ATI che scarica la ID, non il contrario, non confondiamoci ;)
Embè........
Originariamente inviato da erupter
[B]
E chi saresti? :confused:
John Carmack? :eek:
Ma valà....
Nn bisogna mica essere John Carmack.......basta oc la 9700 a bestia...:D
Originariamente inviato da Zak84
[B]
Accidenti non fate altro che parlare di questo sistema di raffreddamento come se fosse stato messo li per bellezza o perchè l'nVidia abbia progettato male il suo chip che quindi richiede una grossa dissipazione termica. Se non ricordate male, il chip NV30 va a 500Mhz ed ha integrati 125 milioni di transistor, e la scheda monta anche memorie DDR2 a 500Mhz (1Ghz calcolando il doppio fronte di lavoro delle memorie DDR). Questo è un mix ideale per far lievitare la temperatura.
La 9700 si è dimostrata essere una scheda dalle prestazioni eccezionali, ma tuttavia chi la possiede afferma che si tratta di un vero e prorpio fornellino.
Nel PCB di una scheda nessun componente è messo li a caso o senza aver fatto tutte le prove possibili, e non dimentichiamoci che sul progetto di una scheda video lavorano centinaia di ingegnieri con le @@ (sia in casa ATI che in casa nVidia).
Spero di non creare polemiche con queste affermazioni. ;)
A me che sulla Nv 30 ci sia montata un dissy con collegato un turboelica nn dispiace affatto,anzi.....se c'è vuol dire che ci deve stare no??Che scaldi o no nn mi interessa,basta che sia quello che mi aspetto,nn giudico mica una vga dalla ventolina che monta!:D
Originariamente inviato da erupter
.... vorrei ricordarvi come un D1200 o un XP1700 lavoranti a frequenze ben superiori ai 500mhz teorici (non ancora confermati), stanno a loro agio con dissipatori [b]volumetricamente confrontabili, e non si fregiano del processo a 0,13u...
Diciamo che le differenze tra una Gpu e una Cpu sono "abbastaza" numerose,e nn si fermano certo al processo produttivo.....
Originariamente inviato da igiolo
[B]
Diciamo che le differenze tra una Gpu e una Cpu sono "abbastaza" numerose,e nn si fermano certo al processo produttivo.....
tra le varie differenze che sussistono tra schede video e processori centrali:
le seconde sono alloggiate in uno slot secondario con uno spazio ISO di 2cm, e non possono sviluppare i 70W di un Athlon 1400 0,18u.
Ti basta per dire che sia ATI che nVidia non si sforzano affatto di ridurre i consumi energetici?
Quasi 260 post e neanche un bench, quando ci saranno delle comparazioni mi ci andranno anni per leggere tutti i commenti...:cool:
psychok9
26-11-2002, 19:53
Quindi nVidia ha fatto un bel favore ad Intel disattivando il displacement mapping! cribbio compriamo ATi e incrociamo le dita sperando che venga attivato nei giochi! Non e' giustoooo!!! :(
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.