|
|
|
![]() |
|
Strumenti |
![]() |
#41 |
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17231
|
Sì in effetti vedere post così lunghi (che putroppo non ho letto per mancanza di tempo) e dopo due pagine neanche una donnina con in mano la FX che si asciuga i capelli... bhè credo sia record
![]()
__________________
Twinkle, twinkle, little star how I wonder what you are. |
![]() |
![]() |
![]() |
#42 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#43 | |
Senior Member
Iscritto dal: Jul 2002
Città: Hampstead, London
Messaggi: 2449
|
Quote:
D'accordissimo! ![]() Raga quando si parla di discussioni costruttive, ci si riferisce a questo ![]() ![]() <<Cerco di risponderti brevemente>> ![]() ![]() ![]() ![]() ![]() ![]()
__________________
stabilmente instabile |
|
![]() |
![]() |
![]() |
#44 |
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17231
|
Brevemente.
Non sono d'accordo su una cosa, sul fatto che (mi pare yoss) si sia detto che l'NV35 dai pochi dati che si hanno sia un chip del tutto nuovo rispetto all'Nv30. Io credo che sia un evoluzione nel senso di rifinitura di un progetto iniziale e quindi un miglioramento, non un chip totalmente nuovo. La differenza è sottile e forse è un modo di cercare il pelo nell'uovo, ma da questo punto di vista allora anche il Gf4 è un chip totalmente nuovo rispetto al Gf3. Il primo ha infatti due motori di vertex rispetto al secondo. Ora, la differenza può essere piccola ma riporta ad una progettazione globale (non totale) del chip visto che non sono modulari e non si può prendere un pezzo e "attaccarlo" al chip precedente inventandone uno nuovo. Oltretutto anche il motore di AA è cambiato rendendo disponibile il 4xS che sul Gf3 non c'era (era attivabile via software ma funzionava in maniera diversa) e il Quincunx era molto meno sfocato. Ho letto sui white paper Nvidia che ora c'è anche la possbilità di applicare un anisotropico a 2x per riportare a corretta sfocatura l'immagine direttamente dal motore Intellisample (se non erro si chiama così quello di AA), senza ricorrere al filtro anisotropic attivabile anche senza AA. Detto questo l'Nv35 è in tutto e per tutto uno sviluppo e quindi una rivisitazione dell'NV30 non perchè è un NV30 in tutto e per tutto con bus a 256bit (che NV30 non supporta e quindi non è stato "attivato" ma inserito di nuovo come giustamente è stato detto) ma perchè parte da un progetto (NV30) e cerca di correggere gli errori e quindi porta ad un miglioramento. Oltretutto questo si vede dal fatto che i transistor in più sono molto pochi (circa l'8%) e non c'è una radicale rivoluzione del chip nella sua totalità. Detto questo vorrei far notare che in tante parti e su tanti forum si parla di fallimento totale del chip Nv30. Partendo dal presupposto che come è stato detto oggi come oggi proporre un chip "veloce come" è una sconfitta, non lo giudico un fallimento totale, solo va preso in una determinata maniera. Come? Ve lo spiego ![]() Intanto parto dal presupposto che dai test in rete si vede che l'FX migliora con ogni release dei driver in quanto a velocità i suoi punti deboli saltano fuori nell'uso di AA, anche se da alcune parti non so come risulta molto più veloce della 9700 in ogni risoluzione (vedi Pc Professionale). Prendendo con le pinze i test dove dimostra o tutto o niente (cioè o dove è sempre più lenta o dove è sempre più veloce) si può affermare che si sia tornati a Settembre 2002, nel pieno del confronto 8500 vs Gf3. La prima era un'ottima scheda, castrata da driver orrendi e che ogni tanto batteva la Gf3, ogni tanto le prendeva sonoramente (e lasciamo perdere l'AA, non voglio fare un discorso più veloce quindi migliore ma un discorso più ampio). Per quanto tempo Ati e le sue schede si sono tirate dietro l'eredità di quel confronto? E cioè GF3 sempre e cmq più veloce della 8500 e Ati che fa i driver penosi (a detta di alcuni ancora ora). Credo che ci si trovi ancora in questo caso, dove la Fx "è sempre più lenta" anche se non lo è sempre. E infatti se vedete in giro (anche su altri forum) tutti ad insultare il phon e ad elogiare la 9700 (giustamente). Integro il tutto dicendo che se mi conoscete e avete sleggiucchiato qualcuno dei miei interventi, dubito fortemente di aver preso sempre le difese di una casa piuttosto che di un'altra, quindi cercate di capire il discorso che ho fatto, se vedo qualche intervento tipo "la gf3 vinceva di qua" "la 8500 vinceva di là" "la fx è più veloce la 9700 di più", semplicemente mi avrete fatto perdere del tempo nel leggervi e avrete perso tempo nel leggermi. Concludo (sempre brevemente) portando il discorso sul fatto "Fx = cesso". Tutto sempre IMHO. La vera Fx è la liscia, frequenze di 400/400 per ram e cpu. L'altra è una versione Ultra che doveva uscire prima di Nv35 (o contemporaneamente per la fascia medio bassa del mercato) e quindi le frequenze erano state studiate tenendo conto dell'affinamento del processo di produzione. Dopo tutto guardate anche le cpu, appena uscite scaldano e non si overclockano, poi di colpo salgono che è un piacere. Quindi la Ultra si porta a dietro un peso (il phon) che è diventanto al tempo stesso segno che la distingue e palla al piede. Non l'ho mai provata di persona ma dagli mp3 in rete sembra che faccia rumore come una Delta o giù di lì. Ho visto gente con una Delta@12v criticarla. Insomma non mi sembra il caso. Così come gente ha detto che il rumore è molto personale come idea, il mio pc ad esempio per me è normale per i miei e i miei amici è un trattore. Lasciando perdere questa digressione, NV30 non è un prototipo (come si legge da qualche parte) o un chip che non doveva uscire, così come l'NV35 non è stato anticipato. Secondo me il tutto era previsto per quei tempi, solo che c'è stato un problema. TSMC che non riusciva a produrre chip in quantità e a prezzi accessibili, da qui l'accordo con IBM (che sicuramente produrrà chip in volumi quasi da subito) per i progetti futuri. Ormai l'Nv30 è stato compromesso ma non da scelte sbagliate (o almeno non principalmente) ma da incidenti di percorso che l'hanno fatto ritardare fino ai giorni nostri (e ancora latita). Se fosse uscito quando doveva uscire (data di presentazione + 2/3mesi) sarebbe uscito circa quando la 9700 e ora avrebbe mesi di sviluppo alle spalle e parecchi problemi di meno. Considerate che avere qualche sample fuori che gira su software magari anche futuro e avere un parco schede di milioni di esemplari, testati anche dagli utenti finali è diverso. Ovviamente il tutto è a favore del secondo caso. Quindi direi che i problemi principali non sono imputabili all'architettura anche perchè "se la gioca" a livello di prestazioni, ma da ritardi dovuti a terzi e da Ati. Cosa c'entra? Ha tirato fuori un chip che probabilmente nessuno, neanche il suo più grande estimatore si immaginava, chip non certo perfetto ma talmente buono da reggere il confronto con un altro uscito mesi dopo (ma cmq ripeto pronto ai "suoi tempi") ma che sarebbe risultato pari anche se fosse uscito ad Ottobre 2002. E' un bel vantaggio per Ati e un gran problema per Nvidia. Direi che a parte qualcuno che ancora non se n'è accorto, la situazione si è invertita. Prima R100 e R200 erano visti con diffidenza e si tiravano dietro le varie nomee di cui ho parlato prima. Ora è Nvidia che deve dimostrare qualcosa. Detto questo dubito fortemente che la partita sia chiusa, non perchè non ho voglia di arrendermi da fan estimatore di Nvidia (cosa che non sono ma che non vorrei sembrare dopo questo piccolo post), ma perchè so (e sappiamo) che popò di aziende ci sono in ballo. Nvidia e Ati ![]() Spero che nessuno sia svenuto a leggere il mio breve post, che non ho riletto e quindi spero risulti in italiano ![]()
__________________
Twinkle, twinkle, little star how I wonder what you are. |
![]() |
![]() |
![]() |
#45 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Ciao Dj, ti rispondo, spero brevemente
![]() Nel passaggio tra GF3 e GF4, a parte l'utilizzo della modalità 4xS dell'AA, l'unica vera modifica strutturale è consistita nell'aggiunta di una seconda unità VS che ha sostituito la vecchia unità TL che nel GF3 era ancora operante (in alternativa al motore VS) per questione di compatibilità con i giochi che utilizzavano la modalità TL statica (molto pochi per la verità). Tale modifica non ha costretto a variazioni tecniche particolari, poichè faceva parte di un progetto organico: L'NV20 nasceva già con determinate possibilità di sviluppo che prevedevano anche l'utilizzo di una seconda unità VS (prima dell'NV25 è infatti uscito l'X-Box, il cui X-Chip, una via di mezzo tra GF3 e GF4 e comunque derivato dal progetto NV20, ha due unità VS). Questo è il motivo per cui considero l'NV25 una semplice evoluzione ell'NV20 e non un nuovo chip (come è per l'R350 e l'R300, d'altra parte). Diverso, non tanto dal punto di vista del numero dei transistor quanto da quello della filosofia che lo ha ispirato, è il caso dell'NV30 e dell'NV35. Come hai giustamente detto, il vero NV30 è la versione liscia e io sono d'accordo con te nel non considerarlo assolutamente un cesso. Il fatto è che, al di là dei bench (PC professionale è un'ottima rivista, ma poco obiettiva quando c'è di mezzo nVIDIA), la FX presenta dei limiti nell'architettura, il più evidente dei quali, la limitata bandwidth, si è tentato di aggirare aumentando la frequenza della ram. Nei piani di nVIDIA, la ultra non sarebbe neppure dovuta esistere e si sarebbe passati direttamente dall'NV30 all'NV35. Delle difficoltà di TSMC a produrre chip a 0,13 micron in volumi si sapeva da tempo, come si sapeva che tali difficoltà non sarebbero state superate a breve (se non a costo di riorganizzare completamente le linee di produzione). Se c'era reale volontà di commercializzare subito in volumi il chip, nVIDIA si sarebbe dovuta muovere prima e cercare un nuovo partner (come ha fatto per l'NV35). L'addossare la colpa interamente al passaggio a 0,13 micron è stata una mossa solo in parte riuscita. Come dicevo prima, l'NV30 nasce con limiti architetturali evidenti; per brevità ne elenco solo qualcuno: 1) la bandwidth - era già un limite ai tempi della GF2; si è tentato di superarlo con l'introduzione di tecniche per la rimozione dei poligoni nascosti; si è tentato di aumentare la banda aumentando la frequenza, ma anche qui si è giunti ad un punto morto (per avere la stessa bandwidth della 9700pro, mantenendo un bus a 128 bit, bisognerebbe avere ram da 1,6 ns!); tieni conto che la versione liscia della FX ha una bandwidth di 12,8 Gb, che,se confrontati con i 10,4 della TI4600, non danno l'idea di un grande passo in avanti. 2) la struttura a 4 pipelines; diventa un limite all'aumentare della complessità dei calcoli, perchè permettendo di lavorare solo su 4 pixels per volta, costringe ad accessi troppo frequenti al frame buffer; di contro un numero maggiore di pipelines comporta un maggior trasferimento di dati e richiede una più ampia bandwidth (è un po' il cane che si morde la coda). A parità di frequenze di funzionamento un'architettura 8x1 sarà sempre più veloce di una 4x2, poichè gli accessi al buffer interno del chip, per realizzare il multitexturing, sono molto più veloci degli accessi alla ram video (e la FX dovrà accedere alla ram video sempre il doppio delle volte rispetto all'R300). Da qui la necessità di far lavorare il chip a frequenze più alte. 3) la scelta di un'unica "matrice" che elabora VS e PS in luogo di unità separate, valida sotto l'aspetto teorico ma che avrebbe necessitato di più pipelines per avere una vera efficienza pratica paragonabile a quella dell'R300. Sintetizzando brutalmente, il processo di elaborazione di una scena 3D passa per tre fasi principali: a) calcolo dei vertici; b)rimozione dei poligoni nascosti; c) rendring (applicazione delle textures). Questem operazioni che per un singolo frame avvengono in sequenza, sono, in realtà contemporanee, poichè mentre si sta renderizzando una scena è già iniziato il calcolo della posizione dei vertici della successiva. Ciò comporta, in una struttura ad array, lo storno di parte delle risorse (intese come pipelines) dal processo di rendering. Non è quindi corretto immaginare che le 4x2 pipelines dell'NV30 processino 8 vertici per volta e, successivamente, 4 pixels per volta (contro i 4 vertici e gli 8 pixels effettivi dell'R300). Questa è l'altra ragione che ha spinto nVIDIA a overclockare il core dell'FX5800. Questo spiega l'overclock spinto operato su chip e ram dell'NV30, che ha prodotto la versione Ultra. L'NV35 nasce già con una filosofia diversa (bus a 256 e ram DDR, probabilmente intorno a 350 Mhz o poco più = basta rincorsa alle frequenze per aumentare la bandwidth). In questo non è assolutamente un'evoluzione dell'NV30 ma una sua rivisitazione (con correzione di qualche errore). Che poi l'NV30 introduca una serie di innovazioni che saranno riprese sull'NV35 (e probabilmente anche su altri chip di produttori diversi) è praticamente certo e, in questo senso, l'NV35 si può considerare evoluzione dell'NV30 (come è sempre successo in passato, anche per chip non troppo fortunati, come il Savage 3D con cui è stata introdotta la S3TC, o non sfruttati a dovere, come il Radeon 256 su cui sono stati implementati, per la prima volta, processi quali il Morphing e la Keyframe Interpolation, pur non disponendo di una vera unità TL programmabile, che sono stati alla base dell'unità VS dell'NV20). Insomma, spero di aver chiarito il mio punto di vista e il motivo per cui considero NV30 e NV35 chip diversi (pur avendo molto in comune). Ciao ![]() |
![]() |
![]() |
![]() |
#46 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
vi prego non trascinatemi più in queste discussioni, altrimenti qualcuno potrebbe pensare che io sia logorroico
![]() |
![]() |
![]() |
![]() |
#47 |
Senior Member
Iscritto dal: Jan 2001
Messaggi: 9098
|
Speriamo cmq che ditte come Nvidia dopo batoste prese come l'NV30 che e' il puro esempio che la rincorsa alla palma d'oro per chip con frequenze piu' elevate, non serve assolutamente a niente, si sforzino un pochetto per tirare fuori qualcosa di realmente innovativo. Se ci fate caso quasi c'erano piu' innovazioni tecnologiche anni fa'. Il Kyro2 ne e' il fulgido esempio: ho sempre detto che se studiassero un'architettura basata sul salvataggio della banda come quella del Kyro2 con un motore potente come quello dell'R300 a quest'ora non ci sarebbero piu' problemi di Anti aliasing. Ma ve lo immaginate?
Anche se so che la complessita' del Kyro2 non permetteva integrazioni con engine altrettanto complessi quali il T&L fisso, figurati quello programmabile, penso che ditte che investono centinaia di milioni di dollari in progetti fallimentari o poco meno come l'NV30, potrebbero mettersi a studiare qualcosa di innovativo che a prescindere dalle Directx usate, riesca ad offrire al cliente finale un prodotto che realmente appaga nonostante i soldi spesi. ![]()
__________________
26/07/2003 |
![]() |
![]() |
![]() |
#48 |
Bannato
Iscritto dal: Nov 2001
Messaggi: 333
|
Anche io mi baso su parametri diversi da quelli di yoss e molto più vicini a quelli di dj per giudicare la novità di un prodotto (i miei sono anche molto meno tecnici ed invece rivolti alla effettiva resa finale) e per questo anche secondo me il chip nv35 lo considero soltanto un affinamento di nv30.
Anzi sono più estremo ![]() Dj io non giudico un pessimo chip nv30 se considerato in assoluto. Ma è mia opinione che la percezione relativamente alla sua qualità peggiori pesantemente una volta inserito nel contesto di mercato in cui nvidia ha tentato di collocarlo ed in cui essa stessa si colloca dai tempi del tnt. Per essere chiari, se nvidia fosse ferrari che vuole vincere a tutti i costi il gp (perchè la sua strategia è stata questa sempre fin dai tempi del tnt) non può tirare fuori una macchina a reazione che però va come una aspirata perchè i condotti del carburante sono sottodimensionati, difendendosi però in questo dicendo "ah beh...però una macchina a reazione non l'ha mai fatta nessuno". O al limite lo fai consapevole che una tecnologia nuova (che tra l'altro non è così dissimile da quella del concorrente e quindi non è la novità in assoluto il problema ma la novità relativamente a quella sola casa costruttrice (leggasi _errori_)) sarà vincente una volta affinata e non certo al suo esordio, rinunciando così alla palma della più veloce. Cosa questa assolutamente non avvenuta. Ecco perchè secondo me nv30 è un chip tutto sommato pessimo: preso in un immaginario mercato senza confronti e senza storia del costruttore sarebbe una piccola magia (nella sua versione liscia...in questo credo siamo tutti concordi ![]() Riguardo alle tempistiche di presentazione e uscita dj sono invece ormai assolutamente convinto, ovviamente sempre a livello di opinione personale, che la storia dei problemi ti TSMC nel passaggio a 0,13 sia soltanto frutto di informazioni distorte che abbiamo avuto e su cui abbiamo ricamato. Gli unici problemi che aveva la fabbrica erano quelli di poter ottenere dei wafer con una resa sufficientemente buona da poter spingere la frequenza dei chip fino a 500 per _pure esigenze di marketing_ e per niente altro. Sono sicuro che di versione liscie TSMC ne avrebbe potuti produrre in quantità sin dall'autunno dello scorso anno. E' risaputo che l'affinamento produttivo è questione di tempo e di sperimentazione del processo: una catena appena convertita non darà mai una resa tale per cui i chip possano essere pompati come è stato con nv30...anzi come hanno preteso che fosse per nv30 per presentare una versione ultra a tutti i costi. Questo è il motivo per cui non riescono a produrla in volumi secondo me, perchè la tecnologia 0,13 in 120 milioni di transistori a questo livello di processo produttivo non è in grado di fornire percentuali di chip a 500 mhz accettabili dai wafer che usano. Ecco allora l'esigenza di aspettare per avere dei sample che, ovecloccati e resi stabili dal phon, potessero non sfigurare sotto il profilo delle prestazioni (perchè, ripeto, nvidia solo su quello ha costruito la sua fortuna e venendo meno quello non sa su cosa fare leva...non ha altri elementi di fidelizzazione della sua clientela) Ovviamente non ho dati che confermino questa mia tesi, che si basa solo su riflessioni e opinioni ![]() Milio |
![]() |
![]() |
![]() |
#49 | |
Senior Member
Iscritto dal: Sep 2002
Città: Orizzonte degli eventi
Messaggi: 22729
|
Quote:
__________________
AMD Ryzen 7 9800X3D | Arctic Liquid Freezer 3 420 | ASUS ROG Strix X870E-e | 2x16GB DDR5 6400 CL30 G.Skill | Zotac NVIDIA GeForce RTX 5090 Solid | Seasonic Prime 1,3Kw Titanium | Kingston Fury Renegade 2Tb + SSD vari | Lian li o11 Dynamic Evo XL | ASUS PG42UQ | Razer DeathAdder V3 + Atlas + Huntsman V3 Pro TKL + Leviathan V2 Pro + Blackshark v2 pro (2023) | Synology DS423+ 3x8TB WD Red Pro | MacBook Air 2022 | AVM 5690 Pro | |
|
![]() |
![]() |
![]() |
#50 | |
Bannato
Iscritto dal: Nov 2001
Messaggi: 333
|
Quote:
![]() Milio |
|
![]() |
![]() |
![]() |
#51 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 1631
|
Ragazzi,ammettiamo che verso Settembre siano disponibili per la vendita le schede grafiche basate sull'NV35,a quel punto tutte quelle basate sull'NV30 (quindi dalla 5200 alla 5800 ultra) che fine faranno?In particolare le due 5800 (liscia e ultra) continueranno a campare o saranno pensionate dalla stessa nVidia per prematura "anzianita' di servizio" (e magari destinate al mercato dei collezionisti)?
E i prezzi? C'e' molta confusione e disorientamento in questo momento;forse l'unica cosa da fare e' quella di non correre a fare acquisti azzardati ma aspettare prudenti l'evoluzione rapida che si sta avendo ora. Ciao ![]() |
![]() |
![]() |
![]() |
#52 | |
Senior Member
Iscritto dal: Jan 2001
Messaggi: 9098
|
Quote:
![]() Nvidia stoppera' la creazione di chip NV30 e questa scheda sparira' per sempre.
__________________
26/07/2003 |
|
![]() |
![]() |
![]() |
#53 | |
Senior Member
Iscritto dal: Sep 2002
Città: Orizzonte degli eventi
Messaggi: 22729
|
Quote:
![]()
__________________
AMD Ryzen 7 9800X3D | Arctic Liquid Freezer 3 420 | ASUS ROG Strix X870E-e | 2x16GB DDR5 6400 CL30 G.Skill | Zotac NVIDIA GeForce RTX 5090 Solid | Seasonic Prime 1,3Kw Titanium | Kingston Fury Renegade 2Tb + SSD vari | Lian li o11 Dynamic Evo XL | ASUS PG42UQ | Razer DeathAdder V3 + Atlas + Huntsman V3 Pro TKL + Leviathan V2 Pro + Blackshark v2 pro (2023) | Synology DS423+ 3x8TB WD Red Pro | MacBook Air 2022 | AVM 5690 Pro | |
|
![]() |
![]() |
![]() |
#54 |
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17231
|
Riguardo alle mie puntualizzazioni sul fatto "Fx = cesso" non voleva essere un modo per controbattere quello che avevano detto i partecipanti alla discussione, ma un modo di raccogliere in un post tutto quanto si era sentito dire sull'Fx in forum, newsgroup e altri posti. Chiarito questo.
Sul fatto del dare tutta la colpa a TSMC siamo d'accordo. Le verità sono altre (o posso essere altre visto che cmq ci basiamo su notizie che appaiono in rete ma cmq già filtrate da qualcuno) ma quello che volevo dire io è che tutto sommato, anche considerando le forzature tecnologiche, il chip se fosse uscito quando doveva uscire, non sarebbe stato quel flop che tutti dicono. Riguardo al fatto della produzione in volumi di chip o produzione in volumi di chip che reggono i 500mhz, la storia può sembrare diversa da come l'abbia detta io. Ma sono d'accordo. Ovviamente se si punta su un modello che non si riesce a produrre per problemi vari non si può neanche buttare fuori il suo modelli inferiore (di solito si buttano fuori modelli al top, poi via via si scende nella scala). Sinceramente se le cose sono andate così non lo so, ma se così fosse è un'altra zappata sui piedi che Nvidia si è tirata. Insomma butta fuori una scheda, non è il top ma almeno hai qualcosa sul mercato. Rimane il fatto che le Ultra saranno appannaggio di pochi e che non ho ancora vista una recensione (ma posso anche essermela persa) che confronti le alternative non "pompate" dei due chip. Insomma, come si comporta la 5800 rispetto alla 9700 normale? E rispetto alla Pro? Direi che il punto di discussione è tutt'altro che banale. Ad esempio io ora come ora (anche se non ho intenzione di cambiare, aspetterò alla fine dell'anno quando si parlerà dei nuovi progetti per decidere) non ho 580€ per una Fx Ultra come non ho 400 e rotti € per una Pro. Una 9700 liscia a circa 300€ rappresenta un ottimo prezzo, ma come si comporta in overclock? (ovviamente la comprerei per overclockarla, ci mancherebbe altro). E il confronto 5800 liscia contro 9700 Pro se a tanti può fare storcere il naso, se si considera il prezzo siamo sulla stessa fascia. Detto questo se fosse possibile (cosa che non è) mi piacerebbe veramente vedere una Fx con bus a 256bit, tanto per vedere se le prestazioni aumentano (e quindi se l'NV35 che ci spacciano per un nuovo chip niente altro è che un NV30 con le briglie sciolte e qualche altro miglioramento) o se proprio l'NV30 arriva lì e non va oltre. E' una curiosità che nessuno potrà togliermi così come il dubbio di fondo. Sinceramente non so che fine faranno le 5800 all'introduzione del successore. Potrebbero essere tolte dal mercato o finire al posto delle MX (ovviamente le Ultra saranno le prime a sparire). Una cosa mi da veramente fastidio però che quando esce qualcosa, si comincino a buttare fuori notizie sul suo seguito. Sinceramente le notizie sull'NV35 potrebbero far guadagnare tempo, come toglierlo tutto di un botto (quanti avranno detto "no basta, non mi fido più?". Sinceramente tanti quanti avranno detto "ok, aspetto". E cmq la si guardi non è una gran cosa). Ma non voglio fare previsioni, non sono un mago e mai lo sarò.
__________________
Twinkle, twinkle, little star how I wonder what you are. |
![]() |
![]() |
![]() |
#55 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Sull'ultimo punto posso tentare di darti una risposta. A parte il confronto farsa fatto con Quake3 a1600x1200 32 bit AA 4x aniso 8X, tra NV30 e NV35 alla stessa frequenza (250/250), si è letto in giro che il prossimo chip nVIDIA dovrebbe avere prestazioni che, in alcuni casi (condizioni di impiego estreme), dovrebbe avere prestazioni superiori del 40-50% rispetto all'FX5800 Ultra. Considerando l'utilizzo di ram DDR1 e, quindi, ipotizzando una frequenza di funzionamento di circa 350 Mhz per le ram, la bandwidth ottenuta è esattamente il 40% superiore a quella dell'NV30, e diventa del 50% superiore con frequenza di 375 Mhz. Se, quindi, NV35 è solo un'evoluzione dell'NV30, di cui mantiene la stessa architettura delle pipelines, in condizioni d'impiego in cui la bandwidth è l'unico elemento determinante, un aumento prestazionale del 40-50% sarebbe perfettamente in linea con l'aumento della bandwidth (quindi, in effetti, potresti vedere una FX con bus a 256 bit). C'è solo da vedere se rimarrà inalterata l'architettura 4x2, oppure nVIDIA deciderà di adottare una più efficiente 8x1.
Ciao |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 06:15.