View Full Version : Nuovi dettagli DeltaChrome S3...
http://www.s3graphics.com/DeltaChromeFeatureDescription.html
JENA PLISSKEN
07-01-2003, 21:50
:D
losqualobianco
07-01-2003, 22:12
Questa deltacrome è peggio della nv30 nel senso che di quest'ultima si son viste almeno le foto e un video fantozziano, del deltacrome c'è solo un sito con annunci col contagocce e qualche disegnino fatto con photoshop :mad:
OverClocK79®
07-01-2003, 22:14
te la fanno sudare anke quelli di S3 :D
deve essere na moda :)
BYEZZZZZZZZZZZZ
Ne vedrete di novità a Marzo durante il CeBIT. Ve lo garantisco.
"The Chromotion engine has the flexibility to process MPEG-2/4, Windows Media Video, and other video standards"
Azz, per fare i divx si presume sia nà bomba :sofico:
robbie900
08-01-2003, 00:56
Ben venga. Più concorrenza c'è meglio per noi utenti è :D :D :D
Certo che se poi i driver li fanno i maccellai sotto casa, vedrai che bomba.. :D
Mi ricorda molto il Savage2000.. :rolleyes:
promesse vaniscenti e basta... :o
+Benito+
08-01-2003, 09:52
Originally posted by "^tWiSt^"
"The Chromotion engine has the flexibility to process MPEG-2/4, Windows Media Video, and other video standards"
Azz, per fare i divx si presume sia nà bomba :sofico:
sembra, ad occhio, tipo la soluzione di ATi che utilizza i vertex e pixel shaders per ridurre la pixellatura dei video in streaming
Aggiungo : promesse evanescenti e fuochetti di paglia.
Non e' bastato il flop del Parhelia, non e' bastato il flop del Trident, non e' bastato il flop dello xabre (date un occhio alla recensione su Hardocp e RABBRIVIDITE di fronte allo xabre600), non e' bastato vedere ridimensionata del 200% la famosa rivoluzionaria architettura del P10 che non tiene il passo in molti casi neppure del Quadro, non e' bastato lo svanire del promettentissimo Kyro (grande schedina, ne ho ancora due)... forse sarebbe il caso di realizzare che per andare avanti sul serio serve un investimento MASSICCIO, serve di avere alle spalle un lavoro di sviluppo driver COSTANTE e non saltato fuori dal nulla, una gamma di prodotti COMPLETA e non solo low o ultrahigh-end.
Se Ati e Nvidia stanno dove sono, e' perche' dal 1997 non combinano cavolate tali da riuscire a suicidarsi con le proprie mani.
Non ho la sfera di cristallo ma non ci vuole molto a prevedere 2 flop futuri :)
Originally posted by "CS25"
Aggiungo : promesse evanescenti e fuochetti di paglia.
Non e' bastato il flop del Parhelia, non e' bastato il flop del Trident, non e' bastato il flop dello xabre (date un occhio alla recensione su Hardocp e RABBRIVIDITE di fronte allo xabre600), non e' bastato vedere ridimensionata del 200% la famosa rivoluzionaria architettura del P10 che non tiene il passo in molti casi neppure del Quadro, non e' bastato lo svanire del promettentissimo Kyro (grande schedina, ne ho ancora due)... forse sarebbe il caso di realizzare che per andare avanti sul serio serve un investimento MASSICCIO, serve di avere alle spalle un lavoro di sviluppo driver COSTANTE e non saltato fuori dal nulla, una gamma di prodotti COMPLETA e non solo low o ultrahigh-end.
Se Ati e Nvidia stanno dove sono, e' perche' dal 1997 non combinano cavolate tali da riuscire a suicidarsi con le proprie mani.
Non ho la sfera di cristallo ma non ci vuole molto a prevedere 2 flop futuri :)
parole sante
halduemilauno
08-01-2003, 10:26
Originally posted by "CS25"
Aggiungo : promesse evanescenti e fuochetti di paglia.
Non e' bastato il flop del Parhelia, non e' bastato il flop del Trident, non e' bastato il flop dello xabre (date un occhio alla recensione su Hardocp e RABBRIVIDITE di fronte allo xabre600), non e' bastato vedere ridimensionata del 200% la famosa rivoluzionaria architettura del P10 che non tiene il passo in molti casi neppure del Quadro, non e' bastato lo svanire del promettentissimo Kyro (grande schedina, ne ho ancora due)... forse sarebbe il caso di realizzare che per andare avanti sul serio serve un investimento MASSICCIO, serve di avere alle spalle un lavoro di sviluppo driver COSTANTE e non saltato fuori dal nulla, una gamma di prodotti COMPLETA e non solo low o ultrahigh-end.
Se Ati e Nvidia stanno dove sono, e' perche' dal 1997 non combinano cavolate tali da riuscire a suicidarsi con le proprie mani.
Non ho la sfera di cristallo ma non ci vuole molto a prevedere 2 flop futuri :)
tutto giusto.
2 flop futuri? uno(per Te)S3. l'altro?
:) :)
Originally posted by "CS25"
Se Ati e Nvidia stanno dove sono, e' perche' dal 1997 non combinano cavolate tali da riuscire a suicidarsi con le proprie mani.
E mi viene in mente qualcuno qui.. ;)
Originally posted by "halduemilauno"
tutto giusto.
2 flop futuri? uno(per Te)S3. l'altro?
:) :)
Non mi pronuncero' nemmeno sotto tortura... quando (ahime') prevedevo un futuro incerto per PowerVR m'hanno sbranato nonostante io in un certo senso mi stessi gufando due schede video da me comprate (2 hercules 4500)... se ora io osassi proferir verbo verrei sbranato vivo ed onestamente non ci tengo proprio :)
Mi siedo sulla riva del fiume e aspetto :)
Originally posted by "CS25"
Non mi pronuncero' nemmeno sotto tortura... quando (ahime') prevedevo un futuro incerto per PowerVR m'hanno sbranato nonostante io in un certo senso mi stessi gufando due schede video da me comprate (2 hercules 4500)... se ora io osassi proferir verbo verrei sbranato vivo ed onestamente non ci tengo proprio :)
Mi siedo sulla riva del fiume e aspetto :)
Non c'e' molto da proferir verbo.. stiamo parlando di S3!!!! :D
Credo che giusto un 1% della terra creda che S3 riesca a tornare vincente quando vincente non lo era nemmeno durante i suoi anni d'oro in cui nel mercato era l'unica... :D:rolleyes:
Fa un chip e poi si arrabbia perche' deve anche scrivere i driver.. :o :mc: :sofico:
Originally posted by "CS25"
Aggiungo : promesse evanescenti e fuochetti di paglia.
Non e' bastato il flop del Parhelia, non e' bastato il flop del Trident, non e' bastato il flop dello xabre (date un occhio alla recensione su Hardocp e RABBRIVIDITE di fronte allo xabre600), non e' bastato vedere ridimensionata del 200% la famosa rivoluzionaria architettura del P10 che non tiene il passo in molti casi neppure del Quadro, non e' bastato lo svanire del promettentissimo Kyro (grande schedina, ne ho ancora due)... forse sarebbe il caso di realizzare che per andare avanti sul serio serve un investimento MASSICCIO, serve di avere alle spalle un lavoro di sviluppo driver COSTANTE e non saltato fuori dal nulla, una gamma di prodotti COMPLETA e non solo low o ultrahigh-end.
Stai mischiando troppe cose in un polverone solo , che il chip Trident sia un aborto , siamo tutti d' accordo , il Parhelia é affondato soprattutto per aver messo troppa carne al fuoco , lo Xabre é una scheda dedicata al mercato economico ed é superiore alla schifezza che Nvidia propone col nome di Gf4 Mx allo stesso prezzo , il P10 é una scheda dedicata al mercato professionale e in tale campo si difende assai bene anche rispetto al Quadro , il Kyro III é affondato per cause esterne ( il ritiro di STM ) dovute soprattutto al momento economico piuttosto che alla bontà del progetto , se proprio bisogna dirlo la scheda flop del 2002 é stata soprattutto la pluri-annunciata e ancora non vista GeForce FX .
Originally posted by "CS25"
Se Ati e Nvidia stanno dove sono, e' perche' dal 1997 non combinano cavolate tali da riuscire a suicidarsi con le proprie mani.
Non ho la sfera di cristallo ma non ci vuole molto a prevedere 2 flop futuri :)
Cavolate ne hanno fatte anche loro , la Fury-MAXX e la Geffo FX , tanto per dirne una a testa , la tragedia 3Dfx é figlia di una serie di idiozie e stupidità , alcune delle quali veramente grosse , che fanno pensare che il managment non avesse affatto compreso dove stava andando il mercato e quale sarebbe stato il futuro delle schede video .
I flop in futuro saranno tanti , ma dire quali é difficile , chi ha detto che S3 non possa fare bene ? In fondo in passato ha sempre rilasciato schede con ottime prestazioni ( i driver invece ... :rolleyes: ) .
Sis ha segnato un punto con lo Xabre , non sarà la scheda perfetta ma é abbastanza veloce e costa poco .
Il kyro é momentaneamente fermo , ma se un produttore volesse fare come STM e prendere direttamente la licenza del progetto ?
E se il flop del 2003 fosse il Geppo FX ?
E se il chip Trident definitivo fosse competitivo ? ( Mi sembra più probabile che ghiacci l' inferno piuttosto ma non si può mai sapere :o )
Chi ha la palla di cristallo può vedere bene il futuro , ma il passato mi insegna che spesso quello che appare probabile non si verifica .
Cominciamo con ordine :)
Tutti quelli elencati sono flop, per motivi differenti ma sempre flop. Alcuni sono flop ideologici, visto che tutto sommato il gf4 MX e il radeon9000 hanno venduto piu' di tutte le altre messe insieme...
Se mi vieni a parlare di "scheda flop" del 2002 e parli di GeforceFX, fai un discorso che non vale nemmeno la pena di affrontare. E' *ridicolo* giudicare un prodotto non ancora in commercio ed e' un atteggiamento figlio della mera volonta' di dare addosso senza nemmeno avere motivazioni *tecniche*.
Xabre? Ma per favore. Fatti un giretto sul www.hardocp.com e guardati gli shot di UT2003, dopodiche' se hai ancora il coraggio di confrontare la sua qualita' grafica a quella di un geforce2 (senza scomodare il 4), allora hai una faccia tosta grande cosi' :sofico:
Xabre che NON fa l'anisotropic filtering, Xabre che ha un AA 2x che NON funziona in D3D e che in opengl si limita a blurrare le texture....
Ma ripeto, vai su hardocp, leggiti la recensione, guarda gli shot.
Parhelia? Il motivo per cui ha fatto flop e' semplice : Matrox non ha alcuna tecnologia per il risparmio della banda, ne' compressione/occlusione sull'asse Z. Ti pare poco? Oltretutto, hanno mica introdotto le profondita' ulteriori di anisotropic filtering che mancavano del tutto? A me non risulta, ma ammetto la mia ignoranza al riguardo, se l'avessero fatto lode a Matrox, se non l'hanno fatto allora si aggiunge l'ulteriore onta.
Il P10 si difende bene rispetto al quadro? Evidentemente abbiamo letto recensioni differenti e ci siamo scordati dei proclami di vittoria di fronte alla sua architettura rivoluzionaria. Se la cava col Quadro? In certi test la pareggia, in altri viene spiaccicata, in altri ancora vince, ma se dichiari di voler rivoluzionare il mondo e poi non sorpassi il Quadro, che differenza fai rispetto al Parhelia che voleva rivoluzionare il mondo e non ha superato il gf4 ti4600? In campi diversi son state due belle delusioni.
Non ho la sfera di cristallo, pero' questi eventi sono innegabili. E bada bene, non difendo il gf4 mx, pero' comparalo al radeon9000 se proprio vuoi dimostrare che non sia valido, non certo allo Xabre che nella versione 400 viene massacrato, nella versione 600 non riesce a tenere ne' il passo qualitativo ne' prestazionale di un radeon8500le o di un geforce3 che, ti rammento, e' di GENNAIO/FEBBRAIO 2001.
JENA PLISSKEN
08-01-2003, 11:45
L' altro giorno in TV ho visto la classifica dei techno flop del 2002 su NEAPOLIS programma di RAI3 del primo pomeriggio...nella top ten al 6° posto c' era la FX... :cry: . :cry: ... :cry: .. :cry: ........spero ke diventi la migliore skeda del 2003 :D :D :D .......ci conto
-=Krynn=-
08-01-2003, 11:59
come si fa a dire che la FX è stata il flop del 2002 se ancora non c'è stata?
Al limite, se proprio dovrà essere un flop, lo sarà del 2003...
Ok, fine puntalizzazione.
Ah, un'altra cosa: con questo nno voglio affatto denigrare la fx, anzi.......
JENA PLISSKEN
08-01-2003, 12:19
Originally posted by "-=Krynn=-"
come si fa a dire che la FX è stata il flop del 2002 se ancora non c'è stata?
Al limite, se proprio dovrà essere un flop, lo sarà del 2003...
Ok, fine puntalizzazione.
Ah, un'altra cosa: con questo nno voglio affatto denigrare la fx, anzi.......
X loro è un flop SOLO xkè NN è uscita nel 2002..........ke tristezza!! Ke razza di info fanno questi.......http://digilander.libero.it/doniuccia/faccine/Mad/cattive12.gif
ma ragazzi dove cavolo stiamo arrivando???? diciamo che la FX è un flop ma se nn è ancora uscita? ma che cribbio diciamo azz :eek: :cry:
Originally posted by "umile"
ma ragazzi dove cavolo stiamo arrivando???? diciamo che la FX è un flop ma se nn è ancora uscita? ma che cribbio diciamo azz :eek: :cry:
Credo che prendete un po' troppo seriamente cio' che qualcuno ha detto, magari cosi' alla leggera. Certo che se il Geffo fx aspetta ancora un po' a farsi vedere, non potra' certo essere chissa' quale mostro di potenza.. piu' passano i mesi e piu' Nvidia perde soldi,spazio e fama.. ;)
Pensiamo davvero che vedremo il 20 Gennaio la suddetta scheda? Tra una cosa e l'altra la vedremo sugli scaffali a marzo probabilmente. Online la si potra' comprare a fine febbraio, SE TUTTO VA BENE.
La concorrenza si fa agguerrita e mai come ora Nvidia lascia sulle spine molti clienti. Diciamo che non sta passando i bei tempi d'ora di un'anno e mezzo fa.. ;)
Originally posted by "Simon82"
Credo che prendete un po' troppo seriamente cio' che qualcuno ha detto, magari cosi' alla leggera. Certo che se il Geffo fx aspetta ancora un po' a farsi vedere, non potra' certo essere chissa' quale mostro di potenza.. piu' passano i mesi e piu' Nvidia perde soldi,spazio e fama.. ;)
Pensiamo davvero che vedremo il 20 Gennaio la suddetta scheda? Tra una cosa e l'altra la vedremo sugli scaffali a marzo probabilmente. Online la si potra' comprare a fine febbraio, SE TUTTO VA BENE.
La concorrenza si fa agguerrita e mai come ora Nvidia lascia sulle spine molti clienti. Diciamo che non sta passando i bei tempi d'ora di un'anno e mezzo fa.. ;)
mi ricorda tanto la v5 azzz!! eheheh
Originally posted by "-=Krynn=-"
come si fa a dire che la FX è stata il flop del 2002 se ancora non c'è stata?
... Non facciamo i finti tonti che non é il caso , la Geforce FX doveva uscire ad Agosto 2002 non a febbraio 2003 , uscire con 6 mesi di ritardo é un flop clamoroso che Nvidia paga a caro prezzo , ricordiamoci che 6 mesi di ritardo vuol dire aver saltato un intero ciclo di produzione di una scheda , per un errore simile ( sommato ad altri ) la 3Dfx é fallita .
Originally posted by "CS25"
Cominciamo con ordine :)
Il P10 si difende bene rispetto al quadro? Evidentemente abbiamo letto recensioni differenti e ci siamo scordati dei proclami di vittoria di fronte alla sua architettura rivoluzionaria. Se la cava col Quadro? In certi test la pareggia, in altri viene spiaccicata, in altri ancora vince, ma se dichiari di voler rivoluzionare il mondo e poi non sorpassi il Quadro, che differenza fai rispetto al Parhelia che voleva rivoluzionare il mondo e non ha superato il gf4 ti4600? In campi diversi son state due belle delusioni.
Bella questa! le Wildcat VP rappresentano la fascia medio/bassa del'offerta 3DLabs, ora prendi una schda Quadro di fascia alta la Quadro 4 XGL900 ed una Wildcat VP870 con driver 3.01-0181 dopo di che inizia a lavorare con 3DS MAX, Maya o un altro qualsiasi programma di CAD 3D di comune utilizzo e guarda la differenza! poi parlami ancora della Wildcat spiaccicata :rolleyes: :rolleyes:
Originally posted by "CS25"
Cominciamo con ordine :)
Tutti quelli elencati sono flop, per motivi differenti ma sempre flop.. Alcuni sono flop ideologici, visto che tutto sommato il gf4 MX e il radeon9000 hanno venduto piu' di tutte le altre messe insieme...
Se mi vieni a parlare di "scheda flop" del 2002 e parli di GeforceFX, fai un discorso che non vale nemmeno la pena di affrontare. E' *ridicolo* giudicare un prodotto non ancora in commercio ed e' un atteggiamento figlio della mera volonta' di dare addosso senza nemmeno avere motivazioni *tecniche*.
[cut]
Il P10 si difende bene rispetto al quadro? Evidentemente abbiamo letto recensioni differenti e ci siamo scordati dei proclami di vittoria di fronte alla sua architettura rivoluzionaria. Se la cava col Quadro? In certi test la pareggia, in altri viene spiaccicata,
La recensione di Tom finisce così :
"In almost all benchmark tests, whether synthetic or application-based, 3Dlabs' Wildcat VP 970 is assured first place. The picture in the class comparison is generally clear, too: the Wildcat VP products are mostly quicker than their rivals from NVIDIA and ATi."
Tu che recensione hai letto ?
Se tu ritieni una scheda un flop perché era annunciata come "rivoluzionaria" e invece é soltanto la più veloce cosa si può dire di una scheda "rivoluzionaria" che manco si é vista in giro ?
Io non denigro la fx, anzi mi aspetto che faccia faville.
Quello che posso dire di sicuro è che le faville, se le farà, le farà in ritardo :D
ATI ha assestato due colpi durissimi a Nvidia negli ultimi tre mesi del 2002: le ha sostanzialmente fottuto il mercato low-end ed high-end.
Nvidia ha toppato alla grande con la serie Gf4MX, siamo quasi a livello di vergogna, spacciare per geffo4 delle gf2 ultra directX 7, bah... :confused: :mad: .
L'unica buona mossa di Nvidia è stata la 4200. Davvero una buona scheda. Se fosse uscita prima non avrei comprato la mia 4400.
Quanto a Xabre concordo con CS25: INGUARDABILE.
Credo che Nvidia si sia presa un po' di tempo per mettersi un po' di pomatina sul sederino :D, e rivedere un po' i piani di rilascio dell'FX. Se canna con FX rischia di fare la fine della compianta 3dFX.
Al giorno d'oggi è vietato sbagliare prodotto due volte di fila....
Originally posted by "Vifani"
Ne vedrete di novità a Marzo durante il CeBIT. Ve lo garantisco.
Se lo dice Vifani c'è da fidarsi :)
Ehm...... mi sa che, amico mio, tu hai letto delle rece che comparano la Wildcat VP870 alle Quadro4 980, per la cronaca oltre ad avere la MIGLIORE qualità esisitente, il MIGLIOR supporto esisitente, i MIGLIORI driver esisitenti, la 3Dlabs ha come prodotto di fascia MEDIA la VP970 che mette in ginocchio qualsiasi Quadro esisita (fatti un giro su tom's e poi ritorna!) e come scheda di fascia alta la Wildcat4 (che non so some mai non viene mai tenuta in considerazione e tutt'ora si usa ancora la 3 nei bench).
SIS dal canto suo è riuscita DAL NULLA a creare una sk entry level che garantisce prestazioni ottime in tutti i giochi e con una qualità acettabbile con i nuovi driver. (vediti digit-life).
Della FX non si può ancora parlare perchè non è ancora uscita.
La Parhelia forse è l'unico mezzo flop, visto che era stata annunciata come una sk per gamer invece per colpa di frequenze relativamente basse (220Mhz oggi manco le sk grafiche integrate ce li hanno) e di una gestione della memoria scandalosa è riuscita solo a ritagliarsi un posto tra li appassionati e i maniaci del 2D.
Trident sembra che si sia accorta dell'errore che aveva compiuto infatti della XP4 non si sente parlare da mesi (e doveva uscire a Ottobre).
Per S3 speriamo in un roseo futuro anche se la competizione oramai è diventata dura in tutti i settori.
beh l's3 l'ultimo chip nn è male! speriam che esca presto!
Originally posted by "umile"
beh l's3 l'ultimo chip nn è male! speriam che esca presto!
Speriamo non ci costringano ad installare i driver per "SVGA generica" di Windows per vederla funzionare.. :D:D:D :sofico: :o
SuperCisco
08-01-2003, 15:53
Quando si parla di schede professionali non si può limitare tutto ai FPS come nei giochi.
La qualità è più importante e viene prima perchè il compito di una WildCat, o una FireGl o una P10 o anche una odiatissima (da voi) Parhelia è quello di rendere la scena nella preview lavorativa tanto bene da sembrare un rendering finale.
Infatti nella scena finita e renderizzata (che magari ho ottenuto dopo qualche ora di calcoli da parte della cpu) io professionista non devo trovare "sorprese" inaspettate sennò mi tocca correggere e aspettare ancora qualche ora...
E il tempo è denaro...
Insomma giudicare quelle schede con il solo metro dei FPS è mooooolto sbagliato.
Cisco
Ragazzi, please datemi dei link delle recensioni comparative tra le varie Quadro, il 9700 e della VP870 perche' evidentemente io mi baso su una recensione troppo vecchia. Una e' su Tom, l'altra dove la trovo?
Non c'e' bisogno di altro per dimostrarmi quando sbaglio ;)
Riguardo lo Xabre, rispondo a Betha23, stai parlando di una scheda che ha la PEGGIOR QUALITA' DI RENDERING in senso assoluto, incapace di applicare tutt'ora l'anisotropic filtering, che tweakata (in modalita' T1, quella con la "maggiore" qualita') da' risultati a schermo grotteschi... dove sarebbe la bravura di Sis? Di aver eguagliato col il 600 le prestazioni di un geforce3 datato gennaio 2001 con una qualita' di rendering non alla sua altezza?
Il concetto cardine di una scheda video di fascia bassa l'aveva ben centrato PowerVr con Kyro1 e Kyro2 : avevano una qualita' di rendering eccellente!
Qui con lo Xabre ci troviamo di fronte ad una scheda zoppicante che ha reazioni a dir poco assurde (aa 2x che non funziona in D3D e che si limita a blurrare texture in opengl), che non offre opzioni e filtri praticamente standard... non spenderei nemmeno 50 euro per una scheda del genere, a quel punto anni luce meglio una bella Kyro2 usata.
Rispondo a Supercisco riguardo il parhelia : non mi e' stato risposto (correggetemi se sbaglio) se la scheda finalmente permetta di applicare anisotropic filtering tap 32, 64, 128. Se permetti un qualsiasi GF4 o Radeon9xxx da' una qualita' di rendering superiore. La versione 256 mb del parhelia costa quanto la versione 256 mb del geforcefx, e questo se permetti e' a dir poco scandaloso visto che si parla di normalissima DDR vs DDR-2 alla frequenza di 1 ghz.
Rispondo a Cfranco : come ho detto nell'incipit mi sono basato su una recensione troppo vecchia in cui emergevano tutt'altri risultati. Fatta ammenda della mia svista, ti faccio notare che per come la giri e la rigiri non puoi dire che il GeforceFX sia un flop finche' non sara' stato recensito. I processi alle intenzioni fanno tanto caccia alle streghe.
SuperCisco
08-01-2003, 16:18
Se c'è una cosa che mi fa inc... è quando devo spiegare quello che ho scritto anche se è chiaro.
Anzi sta volta non lo faccio. Arrangiati e tieniti il chiodo fisso di sta parhelia dei miei ********.
Cisco
halduemilauno
08-01-2003, 16:24
Originally posted by "Cfranco"
Non facciamo i finti tonti che non é il caso , la Geforce FX doveva uscire ad Agosto 2002 non a febbraio 2003 , uscire con 6 mesi di ritardo é un flop clamoroso che Nvidia paga a caro prezzo , ricordiamoci che 6 mesi di ritardo vuol dire aver saltato un intero ciclo di produzione di una scheda , per un errore simile ( sommato ad altri ) la 3Dfx é fallita .
dove sta scritto che doveva uscire ad agosto?nVidia non ha mai rilasciato date.sei tu che fomenti polemiche e quant'altro.
come hai detto tu 3dfx è fallita per ben altre ragioni ed errori ben più gravi.
la 3dfx ha fallito anche per il ritardo dell'uscita della v5 ! e rimasta così indietro
Originally posted by "CS25"
...
Rispondo a Cfranco : come ho detto nell'incipit mi sono basato su una recensione troppo vecchia in cui emergevano tutt'altri risultati. Fatta ammenda della mia svista, ti faccio notare che per come la giri e la rigiri non puoi dire che il GeforceFX sia un flop finche' non sara' stato recensito. I processi alle intenzioni fanno tanto caccia alle streghe. Sicuramente sarà una scheda veloce , secondo me sarà più veloce anche dell' ATI R350 , non si può negare tuttavia che Nvidia non sia riuscita a rilasciare nessun chip nuovo per quasi un anno , i primi bench della 4600 risalgono agli inizi di febbraio 2002 , le schede erano in giro per marzo , quindi sono almeno 10 mesi che la scheda video più veloce prodotta da Nvidia é la 4600 , per una azienda che aveva inaugurato il ciclo di 6 mesi di vita per una scheda video si tratta di un periodo straordinariamente lungo , inoltre ATI ha colpito duro mettendo sotto la Gf4 .
Hai ragione quando dici che non si può bollare il Gf FX come un flop prima di vederlo all' opera , ma é anche vero che Nvidia avrebbe dovuto rilasciare una scheda video nuova a agosto/settembre , cosa che non é riuscita , questo é un flop clamoroso e non si discute , dire "La Geffo FX é un flop" ha proprio questo significato , si poteva dire "Nvidia ha fatto fiasco" oppure "la 4800 é una sòla" ( visto che é l'unica cosa "nuova" che ha rilasciato ) ma il significato resta quello , la Geppo FX sarà una grande scheda , ma tra la 4600 e questa c' é un "buco" che ha permesso ad ATI di passare in vantaggio .
Originally posted by "halduemilauno"
dove sta scritto che doveva uscire ad agosto?nVidia non ha mai rilasciato date.sei tu che fomenti polemiche e quant'altro.
... Questa frase merita un commento a parte , ovviamente Nvidia non ha mai fornito date ufficiali , neppure il nome si sapeva , solo il codice ( NV30 ) , ma che avrebbe dovuto uscire la nuova scheda si sapeva , si é saputo persino che parte del ritardo era dovuto ai casini di TSMC con la produzione di wafer a 0.13 micron , il 14 agosto Anandtech pubblicava un articolo che si intitola "NV30 where are you ?" ( link (http://www.anandtech.com/showdoc.html?i=1678) ) dove venivano anticipati i dati tecnici ( forniti da Nvidia già da due mesi ) della futura scheda video .
Il ritardo fu attribuito dai PR Nvidia al fatto che le Dx9 non erano ancora pronte :rolleyes: e che la scheda quindi sarebbe arrivata in "leggero" ritardo , in particolare "NVIDIA's revised schedule for NV30's release called for the GPU to be shipping to retailers in November" quindi la disponibilità era stata già spostata in avanti di 3 mesi .
halduemilauno
08-01-2003, 17:12
Originally posted by "Cfranco"
Questa frase merita un commento a parte , ovviamente Nvidia non ha mai fornito date ufficiali , neppure il nome si sapeva , solo il codice ( NV30 ) , ma che avrebbe dovuto uscire la nuova scheda si sapeva , si é saputo persino che parte del ritardo era dovuto ai casini di TSMC con la produzione di wafer a 0.13 micron , il 14 agosto Anandtech pubblicava un articolo che si intitola "NV30 where are you ?" ( link (http://www.anandtech.com/showdoc.html?i=1678) ) dove venivano anticipati i dati tecnici ( forniti da Nvidia già da due mesi ) della futura scheda video .
Il ritardo fu attribuito dai PR Nvidia al fatto che le Dx9 non erano ancora pronte :rolleyes: e che la scheda quindi sarebbe arrivata in "leggero" ritardo , in particolare "NVIDIA's revised schedule for NV30's release called for the GPU to be shipping to retailers in November" quindi la disponibilità era stata già spostata in avanti di 3 mesi .
e quindi?se anche tu dici che il ritardo(o almeno una parte)è da attribuire alla TSMC.poi aggiungi che le DX 9 sono state rilasciate il 20.12 mica a settembre.
si vede che la necessità di avere il chip con quelle caratteristiche(ritenute indispensabili)ha comportato quelle difficoltà.che all'inizio sembravano di più facile soluzione.
Basta capirsi sui termini : FLOP e RITARDO sono due cose differenti. Il geforce4 ha avuto un mese e mezzo di ritardo, il geforce3 a suo tempo addirittura 2 mesi di ritardo (per via dei problemi che aveva Nvidia col processo costruttivo, tant'e' che la scheda usci' a 200 anziche' 250 mhz)
Ora il geforceFX sta accumulando un ritardo ancora superiore, in quanto secondo la roadmap "classica" di Nvidia avrebbe dovuto essere presentato a settembre, ed invece e' stato presentato a novembre e commercializzato a quanto sembra a fine gennaio.
Di solito Nvidia non presenta schede a Luglio, perche' avrebbe dovuto farlo in questo caso? Ati e' stata bravissima, piu' brava di Nvidia a proporre subito il proprio prodotto, ora bisognera' vedere se una volta arrivato il GFFX e la contromossa R350 quale delle due abbia avuto ragione e se il ritardo di Nvidia si dimostrera' rilevante o no.
Ho fatto casinooooo :) Questa parte del messaggio e' diretta a SuperCisco, non a Cfranco :)
Per il resto, mi spiace per la tua reazione al post riguardo il Parhelia, evidentemente stavamo parlando di due cose differenti, pero' permettimi, non capisco dove volevi andare a parare :
La qualità è più importante e viene prima perchè il compito di una WildCat, o una FireGl o una P10 o anche una odiatissima (da voi) Parhelia è quello di rendere la scena nella preview lavorativa tanto bene da sembrare un rendering finale.
Infatti nella scena finita e renderizzata (che magari ho ottenuto dopo qualche ora di calcoli da parte della cpu) io professionista non devo trovare "sorprese" inaspettate sennò mi tocca correggere e aspettare ancora qualche ora...
Cosa significa? Che secondo te il Quadro fa trovare soprese inaspettate e il parhelia no? Che la preview fatta col Quadro non e' valida e quindi porta ad avere una resa finale inaspettata? O cosa altro? Se sono questi i concetti, potrai immaginare quanto siano gravi come accuse, significa in poche parole sostenere che la scheda NON fa il suo lavoro correttamente, cosa che non e' MAI uscita fuori in alcuna recensione.
Hai visto quanti SE? Questo perche' tu dici che ti incaxxi perche' secondo te il tuo discorso era chiaro, secondo me no.
Io ho ribadito soltanto che il Parhelia NON vanta ne' in opengl ne' in D3D (e ripeto, CORREGGETEMI se sbaglio in quanto a me ancora risulta cosi' ma non seguo passo passo le release dei drive) i livelli superiori di anisotropic filtering. Tutto qui, non c'e' bisogno di ammazzarsi il fegato.
+Benito+
09-01-2003, 08:28
Scusate, ma le wildcat con la parhelia non c'entrano proprio un bel niente!
Le schede di classe home user/gamer hanno come principale obiettivo quello di renderizzare velocemente scene con pochi poligoni.
Quindi serve una modesta capacita' di calcolo geometrico e una grande manda di memoria per farci transitare le textures.
Le schede studiate per la modellazione solida, invece, devono avere una elevata capacita' di calcolo poligonale, spesso con processori geometrici separati dai processori di rasterizzazione, e una elevata possibilita' di gestione delle luci. Il fatto che anche le schede per giochi possano essere ottimizzate per rendere a livello delle piu' economiche schede per la modellazione solida e' un fatto recente, causato dall'enorme sviluppo del settore videoludico, che ha permesso il raggiungimento di frequenze di lavoro e di potenze di calcolo elevate anche in un settore dove fino a 3-4 anni fa non ce n'era necessita'.
Originally posted by "umile"
la 3dfx ha fallito anche per il ritardo dell'uscita della v5 ! e rimasta così indietro
nVidia l'unica cosa ufficiale ke ha detto è distribuzione nei primi tre mesi del 2003 e cosi sara :)
JENA PLISSKEN
09-01-2003, 14:11
Originally posted by "CS25"
Basta capirsi sui termini : FLOP e RITARDO sono due cose differenti. Il geforce4 ha avuto un mese e mezzo di ritardo, il geforce3 a suo tempo addirittura 2 mesi di ritardo (per via dei problemi che aveva Nvidia col processo costruttivo, tant'e' che la scheda usci' a 200 anziche' 250 mhz)
Ora il geforceFX sta accumulando un ritardo ancora superiore, in quanto secondo la roadmap "classica" di Nvidia avrebbe dovuto essere presentato a settembre, ed invece e' stato presentato a novembre e commercializzato a quanto sembra a fine gennaio.
Di solito Nvidia non presenta schede a Luglio, perche' avrebbe dovuto farlo in questo caso? Ati e' stata bravissima, piu' brava di Nvidia a proporre subito il proprio prodotto, ora bisognera' vedere se una volta arrivato il GFFX e la contromossa R350 quale delle due abbia avuto ragione e se il ritardo di Nvidia si dimostrera' rilevante o no.
infatti...i mesi di ritardo sono ""2""........... :pig: :pig:
Siete andati un po OT! :D :muro:
Io aspetto fiducioso! l' ho già detto, S3 mi piace un casino i vari savage li ho molto apprezzati!
OverClocK79®
09-01-2003, 14:32
Originally posted by "Cfranco"
............per una azienda che aveva inaugurato il ciclo di 6 mesi di vita per una scheda video si tratta di un periodo straordinariamente lungo , inoltre ATI ha colpito duro mettendo sotto la Gf4 .
evidentemente per partorire qlkosa di veramente nuovo........
questa volta nVidia ha incontrato qlk problemino in +......e ha dovuto anke ritardare tutto il processo di produzione........
FLOP mi sembra una parola grossissima.........
diciamo che la FX è in ritardo e che nVidia ha perso la battaglia della velocità rispetto ad ATi nel sfornare per prima una skeda DX9.........MATROX con il padella nn la considero nemmeno visto il prodotto di per se..............quello IMHO è un bel flop altro che FX..........
quindi meglio dosare le parole.........
pre le G4MX da quanto skifo fanno di potrebbe dire FLOP.......ma vendono che è un piacere e costano pure poco..........ti pare FLOP rivendere una skeda vekkia come le G2 spacciandole per G4????
oppure anke le ATi 9000 fanno skifetto eppure vendono pure quelle........anke se vanno peggio delle 8500 e allora.........
il FLOP e tutt'altra cosa..........
BYEZZZZZZZZZZZ
+Benito+
09-01-2003, 14:34
Originally posted by "halduemilauno"
e quindi?se anche tu dici che il ritardo(o almeno una parte)è da attribuire alla TSMC.poi aggiungi che le DX 9 sono state rilasciate il 20.12 mica a settembre.
si vede che la necessità di avere il chip con quelle caratteristiche(ritenute indispensabili)ha comportato quelle difficoltà.che all'inizio sembravano di più facile soluzione.
no: tsmc ha l'onere del ritardo tecnico, ma i ritardo commercIALE E' TUTTO DI NVIDIA, aTI HA FIUTATO IL CASINO DELLO 0,13 E LE HA FATTE 0,15.
Originally posted by "+Benito+"
no: tsmc ha l'onere del ritardo tecnico, ma i ritardo commercIALE E' TUTTO DI NVIDIA, aTI HA FIUTATO IL CASINO DELLO 0,13 E LE HA FATTE 0,15.
Abbiamo assistito ad un rovesciarsi delle strategie commerciali : per le dx8 e' stata Nvidia pioniera, con il geforce3, ed Ati ha inseguito mesi dopo col radeon8500 che aveva caratteristiche tecniche superiori. E' stato seguito da gf3 ti500 e dal geforce4...
Ora Ati ha deciso di fare la Nvidia della situazione e rilasciare in anticipo l'R300, aspettare l'NV30 di Nvidia e proporre subito dopo un R350 per parare il colpo.
Non mi sembra che nel 2001 ci si strappasse i capelli annunciando la morte di Ati, che non e' certo fallita nonostante abbia presentato la sua scheda parecchio dopo... mo' perche' gia' partono i canti funebri per Nvidia e per il geforcefx? Non capisco sul serio :)
Se il geforcefx varra' l'attesa, meglio cosi', altrimenti si potra' aspettare l'R350.
+Benito+
10-01-2003, 08:10
Originally posted by "CS25"
Abbiamo assistito ad un rovesciarsi delle strategie commerciali : per le dx8 e' stata Nvidia pioniera, con il geforce3, ed Ati ha inseguito mesi dopo col radeon8500 che aveva caratteristiche tecniche superiori. E' stato seguito da gf3 ti500 e dal geforce4...
Ora Ati ha deciso di fare la Nvidia della situazione e rilasciare in anticipo l'R300, aspettare l'NV30 di Nvidia e proporre subito dopo un R350 per parare il colpo.
Non mi sembra che nel 2001 ci si strappasse i capelli annunciando la morte di Ati, che non e' certo fallita nonostante abbia presentato la sua scheda parecchio dopo... mo' perche' gia' partono i canti funebri per Nvidia e per il geforcefx? Non capisco sul serio :)
Se il geforcefx varra' l'attesa, meglio cosi', altrimenti si potra' aspettare l'R350.
non intendevo esaltare o affondare ne' ATi ne' nVidia, entrambe fanno ottimi prodotti. La mia era una puntualizzazione sull'affermazione "La colpa e' di TSMC".
La colpa, ripeto, del ritardo, e' di nVidia che nonostante fosse certa la difficolta' ad implementare lo 0,13 (vedi AMD con UMC), ha insistito, probabilmente per scelte a livello progettuale, perdendo mezzo anno.
Ciao a tutti! volevo dire che e` sbagliatissimo valutare una scheda professinale in base ai criteri che si usano per le schede fatte per giocare, perche` la cosa piu` inportante per una scheda professionale e` il supporto sia hardware che software per i programmi di grafica 3d per esempio 3d studio, maya, pro engineer ecc... infatti la cosa pricipale e` che la scheda tolga piu` carico possibile alla cpu durante l`uso di questi programmi e difficilmente a uno che deve comprare una di queste schede gli importa se la scheda ha dei filtri potentissimi o se fa 200 fps a ut2003... infatti io ho avuto modo di provare delle 3dlabs e sono schede che riescono a far girare bene pro engineer anche su delle cpu nn troppo pompate ma che gia` faticano a far girare fluido counter strike... e poi volevo ricordare che nei rendering finali la scheda video nn influisce assolutamente e` solo una questione di cpu e ram.
Originally posted by "+Benito+"
no: tsmc ha l'onere del ritardo tecnico, ma i ritardo commercIALE E' TUTTO DI NVIDIA, aTI HA FIUTATO IL CASINO DELLO 0,13 E LE HA FATTE 0,15.
Ati ha solo rimandato il problema, ma quando dovranno per forza di cose passare allo 0.13u avranno anke loro i problemi :)
OverClocK79®
10-01-2003, 14:04
Originally posted by "Zappz"
........ la cosa piu` inportante per una scheda professionale e` il supporto sia hardware che software per i programmi di grafica 3d per esempio 3d studio, maya, pro engineer ecc... infatti la cosa pricipale e` che la scheda tolga piu` carico possibile alla cpu durante l`uso di questi programmi e difficilmente a uno che deve comprare una di queste schede gli importa se la scheda ha dei filtri potentissimi o se fa 200 fps a ut2003...
ok ma allora nn presenti la skeda con 3 proiettori e Surrond Gaming......ma ci fai girare MAYA ed affini nn 3dmark a 16X con 15 Fps
BYEZZZZZZZZZ
Originally posted by "NiKo87"
Ati ha solo rimandato il problema, ma quando dovranno per forza di cose passare allo 0.13u avranno anke loro i problemi :)
Te lo dissi un'altra volta, non è vero!!!
Nvidia non ha avuto problemi nella progettazione del chip (sulla carta e magari in qualche proiezione virtuale fatta a computer) ma nella vera produzione. E qui la colpa è tutta di TSMC che non riusciva a produrre chip a 0.13 micron con prezzi competitivi e qualità elevata. Ora che c'è riuscita, aggiornando le macchine ed entrando in produzione di massa (quindi i prezzi calano), Ati dal canto suo si presenterà da TSMC con il progetto del chip a 0.13 micron e una volta programmate le macchine ne sfornerà in quantità industriale.
Nvidia nella scelta è stata pioniera e ha avuto problemi, Ati non li avrà. E lo sai benissimo pure tu :)
Originally posted by "DjLode"
Te lo dissi un'altra volta, non è vero!!!
Nvidia non ha avuto problemi nella progettazione del chip (sulla carta e magari in qualche proiezione virtuale fatta a computer) ma nella vera produzione. E qui la colpa è tutta di TSMC che non riusciva a produrre chip a 0.13 micron con prezzi competitivi e qualità elevata. Ora che c'è riuscita, aggiornando le macchine ed entrando in produzione di massa (quindi i prezzi calano), Ati dal canto suo si presenterà da TSMC con il progetto del chip a 0.13 micron e una volta programmate le macchine ne sfornerà in quantità industriale.
Nvidia nella scelta è stata pioniera e ha avuto problemi, Ati non li avrà. E lo sai benissimo pure tu :)
Non sono completamente d'accordo, in quanto l'unica difficolta' produttiva di una gpu 0.13 micron non e' certo il mero processo, ma anche la sua complessita'. Come mai il Sis xabre600 non ha avuto tutti i problemi che ha avuto l'NV30? Perche' ha meno della meta' dei suoi transistor? Ipotesi valida, come tante altre.
Non credo Dj che ne' tu ne' io possiamo sapere quali siano state le effettive difficolta' di Nvidia e TSMC e se Ati le incontrera', i confronti tra mele e pere riescono sempre male :)
Ovvio che Ati avra' la vita piu' facile sotto l'aspetto del processo produttivo, SE e' TSMC che produce i core per Ati (cosa che a me personalmente non risulta, ho letto di recente una lista dei produttori per cui lavora TSMC, ovvero Nvidia, Motorola ed alcuni altri...) allora sara' piu' semplice perche' avra' gia' le linee produttive pronte, poi stara' al lavoro congiunto di entrambi riuscire a produrre wafer con una percentuale elevata di core R350 funzionanti, o R400 o cosasara'sara' :)
Originally posted by "CS25"
SE e' TSMC che produce i core per Ati (cosa che a me personalmente non risulta, ho letto di recente una lista dei produttori per cui lavora TSMC, ovvero Nvidia, Motorola ed alcuni altri...) allora sara' piu' semplice perche' avra' gia' le linee produttive pronte, poi stara' al lavoro congiunto di entrambi riuscire a produrre wafer con una percentuale elevata di core R350 funzionanti, o R400 o cosasara'sara' :)
Io sapevo era TSMC che produceva i chip per entrambi ma sinceramente non ricordo dove l'ho letto. Quello che volevo dire io era cmq quello che hai detto tu :) Io magari l'ho detto peggio :)
Originally posted by "DjLode"
Io sapevo era TSMC che produceva i chip per entrambi ma sinceramente non ricordo dove l'ho letto. Quello che volevo dire io era cmq quello che hai detto tu :) Io magari l'ho detto peggio :)
Tesssoro, ultimamente andiamo troppo d'accordo... bisognera' proprio che ci sposiamo :sofico: :sofico:
Jaguar64bit
10-01-2003, 21:32
Originally posted by "CS25"
Tesssoro, ultimamente andiamo troppo d'accordo... bisognera' proprio che ci sposiamo :sofico: :sofico:
Siete gia' sposati........ :D :D :D :pig: ;)
JENA PLISSKEN
10-01-2003, 22:43
Originally posted by "DjLode"
Io sapevo era TSMC che produceva i chip per entrambi ma sinceramente non ricordo dove l'ho letto. Quello che volevo dire io era cmq quello che hai detto tu :) Io magari l'ho detto peggio :)
Si pare anke a me....TSMC produce i chip x entrambi......da quanto ho capito NV sta facendo da cavia....a sue spese!!! :cry: :cry: :cry:
Originally posted by "DjLode"
Te lo dissi un'altra volta, non è vero!!!
Nvidia non ha avuto problemi nella progettazione del chip (sulla carta e magari in qualche proiezione virtuale fatta a computer) ma nella vera produzione. E qui la colpa è tutta di TSMC che non riusciva a produrre chip a 0.13 micron con prezzi competitivi e qualità elevata. [cut]
La colpa non é tutta e solo di TMSC , il primo tape out della GeForce FX é arrivato la prima settimana di Settembre anziché a Giugno , sono tre mesi di ritardo , ma generalmente dal tape out alla produzione di massa passano 2-4 mesi , adesso ne sono già passati 4 e ancora siamo in alto mare , i problemi di Nvidia sono legati all' estrema complessità del progetto che richiede una lavorazione del PCB estremamente difficoltosa e alla enorme produzione di calore della GPU e delle memorie , sembra infatti dalle ultime notizie che neppure l' asciugacapelli che hanno mostrato sia in grado di raffreddare adeguatamente le ram DDR II :eek:
Tornando alla questione il "successo" o "fallimento" di una scheda dipende da molti fattori , le prestazioni sono importanti , ma non sono tutto , il prezzo é altrettanto fondamentale , ma contano , e parecchio , anche il fattore commerciale e le aspettative dei consumatori , tutti abbiamo criticato pesantemente la Geppo4 Mx , ma se invece di essere marchiata "Nvidia GeForce 4" si fosse chiamata " S3 Virge II" avremmo avuto la stassa reazione ? Sicuramente no , anzi avremmo applaudito S3 per le prestazioni eccellenti , il prezzo contenuto e la stabilità dei driver , certamente non era Dx8 , ma in fondo era una scheda onesta , allo stesso modo non si può parlare troppo male della Xabre , Sis non era mai riuscita a fare schede competitive , adesso ne ha prodotta una , non é perfetta , ma fa il suo onesto lavoro .
Cosa dovrà avere la scheda S3 per essere un successo ?
Sicuramente ci si aspettano prestazioni decorose ( non come il Trident XP :rolleyes: ) , prezzo contenuto , ma soprattutto dei driver decenti , S3 é tristemente famosa per i suoi pessimi driver , ha acquisito Diamond famosa all' epoca per fare driver pietosi , é stata incorporata da Via che non ha mai brillato da questo punto di vista ... le premesse non sono incoraggianti , chissà se ci riusciranno , per quel che riguarda i tempi di sviluppo S3 e Via solitamente hanno rispettato i tempi , anche a costo di rilasciare chip buggati :p
+Benito+
11-01-2003, 09:51
Originally posted by "CS25"
Non sono completamente d'accordo, in quanto l'unica difficolta' produttiva di una gpu 0.13 micron non e' certo il mero processo, ma anche la sua complessita'. Come mai il Sis xabre600 non ha avuto tutti i problemi che ha avuto l'NV30? Perche' ha meno della meta' dei suoi transistor? Ipotesi valida, come tante altre.
Non credo Dj che ne' tu ne' io possiamo sapere quali siano state le effettive difficolta' di Nvidia e TSMC e se Ati le incontrera', i confronti tra mele e pere riescono sempre male :)
Ovvio che Ati avra' la vita piu' facile sotto l'aspetto del processo produttivo, SE e' TSMC che produce i core per Ati (cosa che a me personalmente non risulta, ho letto di recente una lista dei produttori per cui lavora TSMC, ovvero Nvidia, Motorola ed alcuni altri...) allora sara' piu' semplice perche' avra' gia' le linee produttive pronte, poi stara' al lavoro congiunto di entrambi riuscire a produrre wafer con una percentuale elevata di core R350 funzionanti, o R400 o cosasara'sara' :)
se su un wafer ci fai stare 300 chip anziche' 150, il numero di chip non funzionanti e' in proporzione molto minore. Per quello chip semplici hanno meno difficolta' ad essere implementati con processi produttivi con rese basse
halduemilauno
11-01-2003, 10:00
Originally posted by "JENA PLISSKEN"
Si pare anke a me....TSMC produce i chip x entrambi......da quanto ho capito NV sta facendo da cavia....a sue spese!!! :cry: :cry: :cry:
no mi pare che ati si dovrà rivolgere all'altra fonderia taiwanese la UMC.che non sarà in grado di ottenere il "famigerato"processo produttivo a 0.13 prima della prossima tarda estate.
ciao
:) :)
Originally posted by "halduemilauno"
no mi pare che ati si dovrà rivolgere all'altra fonderia taiwanese la UMC.che non sarà in grado di ottenere il "famigerato"processo produttivo a 0.13 prima della prossima tarda estate.
ciao
:) :)
Anke io mi ricordo una cosa del genere :)
infatti, ATi ha fatto la sua scelta commerciale (buttare per prima fuori la sk video dx9) mentre nvidia ha "latitato" ma non si puo certo dire che si a in difficoltà o che sia stata con le mani in mano, visto che con la ti4200 sta "dominando" letteralmente il mercato medium (che rappresenta uan bella quota di mercato)
Sia Ati che Nvidia appaltano la progettazione e la realizzazione delle catene produttive a TSMC, da sempre. Quando un prodotto ha particolare successo ed una domanda che ne richiede una maggiore produzione parte di questa viene deviata ad altre fonderie (in primis UMC).
per i + scettici:
http://www.ati.com/companyinfo/press/1999/4196.html
Originally posted by "Cifer"
Sia Ati che Nvidia appaltano la progettazione e la realizzazione delle catene produttive a TSMC, da sempre. Quando un prodotto ha particolare successo ed una domanda che ne richiede una maggiore produzione parte di questa viene deviata ad altre fonderie (in primis UMC).
per i + scettici:
http://www.ati.com/companyinfo/press/1999/4196.html
Ecchime qua! :)
Mi ha tratto in inganno un articolo recente apparso nelle news di Hardocp che parlava del fatto che a dicembre TSMC ha avuto un calo di ordinativi (e quindi una crescita degli stock) e tra i produttori citati nella notizia che ci servono non appariva Ati.
In ogni caso non cambia molto, sembrava strano pure a me vista l'esperienza gia' accumulata nel processo 0.13 micron che Ati si servisse altrove... ma come ripeto sono stato tratto in inganno :D
P.S. Dicevo che non avrei seguito il forum nel weekend... ma mi sono beccato l'influenza e mi e' saltato il viaggetto di piacere :muro:
Pure tu? :rolleyes:
Influenza del ca@@o :mad: :mad:
io sono appena guarito :pig:
+Benito+
12-01-2003, 13:48
Originally posted by "halduemilauno"
no mi pare che ati si dovrà rivolgere all'altra fonderia taiwanese la UMC.che non sarà in grado di ottenere il "famigerato"processo produttivo a 0.13 prima della prossima tarda estate.
ciao
:) :)
mi pare che AMD si appoggi a UMC, quindi se ben mi ricordo UMC e' in grado di produrre chip a 0,13 micron da almeno 7 mesi
halduemilauno
12-01-2003, 13:53
Originally posted by "+Benito+"
mi pare che AMD si appoggi a UMC, quindi se ben mi ricordo UMC e' in grado di produrre chip a 0,13 micron da almeno 7 mesi
che si appoggi a UMC gia detto.tu dici gia da sei mesi io ho letto non prima della prossima estate.vedremo.
;)
OverClocK79®
12-01-2003, 15:29
Originally posted by "pandyno"
Pure tu? :rolleyes:
Influenza del ca@@o :mad: :mad:
mhi tutti appestati :(
io ho beccato la monucleosi :muro:
giornata di ammalati sul forum :D
BYEZZZZZZZZZZ
+Benito+
13-01-2003, 07:30
Originally posted by "halduemilauno"
che si appoggi a UMC gia detto.tu dici gia da sei mesi io ho letto non prima della prossima estate.vedremo.
;)
i processori AMD sono prodotti con transistor dal gate largo 0,13 micron, quindi la tecnologia ce l'hanno da aprile/maggio. Che poi non l'abbiano ancora applicata al settore schede video e' per me dovuto al progetto di NV30, inadeguato ad essere realizzato con lo 0,15 per via dei ritardi elettrici tra i transistor (complessita') e inadeguato allo 0,13 (finora) perche' essendo un chip enorme con le rese attuali il numero di chip da buttare sui chip totali sarebbe estremanete elevato, quindi i costi sarebbero altissimi. Non vedo altri motivi di spingere cosi' ad oltranza il ritardo: o stanno riprogettando la struttura fisica del chip (NON la logica, la struttura) per ridurre le dimensioni, o stanno attendendo che la tecnologia permetta rese produttive piu' elevate.
Io penso che semplicemente ogni scheda video sia un capolavoro di tecnologia......poi poco importa quale sia un pò meglio dell'altra.
E' logico che una e più riuscita e l altra un pò meno......d altronde è come le auto per 20.000.000£ ne trovi di tanti modelli forme e colori...magari la Clio e meglio di una punto che è meglio di una 106 ma tant'è che tutte vendono. Secondo me quindi preso una fascia di budget il resto è solo a gusto di chi compra..........
Che la 9000,lo xabre e il geffo4Mx sono schede dello stesso prezzo.
La 9000 è meglio della Geffo4Mx e dello Xabre ma lo Xabre è meglio del geffo4...........ecc ecc.....
Originally posted by "luckye"
Che la 9000,lo xabre e il geffo4Mx sono schede dello stesso prezzo.
La 9000 è meglio della Geffo4Mx e dello Xabre ma lo Xabre è meglio del geffo4...........ecc ecc.....
Tutto d'accordo sul resto del tuo intervento, ma vista la pressocche' NULLA qualita' video dello xabre, l'inutilizzabilita' e non funzionalita' dell'antialiasing, l'assenza dell'anisotropic filtering... non mi sentirei di definirla migliore neppure del geforce2 gts :D
Gli shots su hardocp sono AGGHIACCIANTI :EEK:
Si infatti :( la xabre poi usando applicativi dx 7 è veloce quanto una ti 4200, ma usando gli effetti EMBM PS sta sotto e di brutto anche alla 9000 non pro.
Originally posted by "CS25"
Tutto d'accordo sul resto del tuo intervento, ma vista la pressocche' NULLA qualita' video dello xabre, l'inutilizzabilita' e non funzionalita' dell'antialiasing, l'assenza dell'anisotropic filtering... non mi sentirei di definirla migliore neppure del geforce2 gts :D
Gli shots su hardocp sono AGGHIACCIANTI :EEK:
Francamente ce l' ho sul muletto e non mi pare niente di terribile , l' AA e l' aniso non funzionano ? E chi se ne frega , le schede di quel prezzo non possono permettersi di usarlo perché sarebbe troppo penalizzante in termini di prestazioni .
Non ho visto gli shot di hardocp ( questo proxy aziendale di m***a pensa che sia un sito porno e lo filtra :mad: ) ma ho visto quelli di Tom e non mi sembrano poi così terribili .
Originally posted by "pandyno"
Si infatti :( la xabre poi usando applicativi dx 7 è veloce quanto una ti 4200, ma usando gli effetti EMBM PS sta sotto e di brutto anche alla 9000 non pro.
Che poi secondo me una scheda ora deve offrire ASSOLUTAMENTE aa ed af utilizzabili, accidenti siamo nel 2003!
Giocare senza alcun filtro aggiuntivo significa ne' piu' ne' meno tornare a periodi antecedenti a gf2 gts e voodoo5... poi ci lamentiamo se i fan 3dfx lodano il v5... come dar loro torto sotto questo aspetto? :)
Cmq un elogio a SIS va fatto, lo xabre è ottimo per chi si vuole staccare d anvidia e ATI, cosa che io ho fatto con S3 e spero di rifare in un prossimoo futuro.
Originally posted by "Cfranco"
Francamente ce l' ho sul muletto e non mi pare niente di terribile , l' AA e l' aniso non funzionano ? E chi se ne frega , le schede di quel prezzo non possono permettersi di usarlo perché sarebbe troppo penalizzante in termini di prestazioni .
Quella scheda, lo xabre600, come prestazioni senza filtri e' sul livello del geforce3, che se permetti faceva AA ed AF tranquillamente. Potevo giocare benissimo con AA2x e in certi giochi perfino 4x.
E' una scheda di gennaio 2001 che ora vale meno di uno xabre nuovo, il gf3 liscio, eppure garantisce ancora una qualita' di rendering, un AA ed un AF che lo xabre si sogna.
Perche' dovrei essere contento del prodotto xabre se a fine 2002 / inizio 2003 propone una scheda con dei punti deboli tanto pesanti?
Conta poco constatare che il gf3 nel 2001 costava oltre mezzo milione, poiche' se lo xabre fosse uscito con queste stesse caratteristiche a quell'epoca, sarebbe costanto tanto quanto.
A chi cerca uno xabre consiglio NETTAMENTE un qualsiasi gf3 o radeon8500 o voodoo5 usati : spende meno ed ha di piu' sotto praticamente tutti gli aspetti.
Appena puoi, butta un occhio sugli shot apparsi su Hardocp, e capirai perche' per la prima volta mi trovo cosi' decisamente disgustato da una scheda :)
http://www.hardocp.com/article.html?art=NDEz
Purtroppo hai ragione, di review ne ho lette tante, su una comparavano la radeon 7500 allo xabre 400 che dire lo xabre usciva nettamente sotto sia in velocità che in qualità :(
anzi vi posto il link cosi' vi rendete conto
http://www.gamingin3d.com/reviews/xabre400/
Uaaaa, io e pandyno siamo d'accordoooo :D
Scherzo eh, non capita _cosi'_ di rado ;)
Beh ma è evidente, peccato perchè lo xabre 600 implementa i VS in hardware al contrario del 400
halduemilauno
13-01-2003, 13:35
altre info su S3
http://firingsquad.gamers.com/hardware/s3_deltachrome/default.asp
:) :)
E bravo hal :D ora me lo gusto con calma :cool:
Ho dato una letta approfondita e sono un po' perplesso. Vi illustro i punti che mi lasciano interdetto :
- disponibilita' "fine del 2° quarto del 2003" O_O Accidenti, stiamo parlando di giugno! Per l'epoca avremo sul mercato NV30, NV31, R350 e avremo gia' le prime notizie succulenti sul R400!
- core a 300 mhz, S3 "spera" di poter fare anche di meglio... visto il ritardo con cui arriva avrebbe dovuto puntare a qualcosa di piu'. Ora come ora il radeon9700pro corre a 325 mhz e si overclocka pure bene!
- 96 bit precision, come sopra : arrivano ultimi e non pensano a introdurre qualsiasi cosa che possa mantenerli competitivi?
- Niente Z-compression : al di la' dell'ottimizzazione nella gestione dello z-buffer e del fast z-clear, va a mancare proprio il tassello fondamentale... speriamo bene visto che (ed inserisco un altro punto) la scheda avra' DDR normale e bus 128 bit. Bisogna sperare che il deferred rendering dia benefici in stile Kyro2, tali da rendere performante la scheda
- scarsita' di notizie riguardo AA ed AF... non per ripetermi ma li trovo due componenti basilari per schede dx8, figuriamoci per le dx9! Il radeon9700pro ha una implementazione di AA ed AF sublime, il GFFX seguira' a ruota... mi auguro che S3 segua la stessa via!
In ogni caso come progetto mi sembra MOLTO piu' "riflettuto" dello Xabre, quindi una punta di ottimismo me l'ha suscitata. Cio' che temo e' che S3 finisca per fare il passo piu' lungo della gamba!
+Benito+
13-01-2003, 16:24
Originally posted by "CS25"
Ho dato una letta approfondita e sono un po' perplesso. Vi illustro i punti che mi lasciano interdetto :
- disponibilita' "fine del 2° quarto del 2003" O_O Accidenti, stiamo parlando di giugno! Per l'epoca avremo sul mercato NV30, NV31, R350 e avremo gia' le prime notizie succulenti sul R400!
- core a 300 mhz, S3 "spera" di poter fare anche di meglio... visto il ritardo con cui arriva avrebbe dovuto puntare a qualcosa di piu'. Ora come ora il radeon9700pro corre a 325 mhz e si overclocka pure bene!
- 96 bit precision, come sopra : arrivano ultimi e non pensano a introdurre qualsiasi cosa che possa mantenerli competitivi?
- Niente Z-compression : al di la' dell'ottimizzazione nella gestione dello z-buffer e del fast z-clear, va a mancare proprio il tassello fondamentale... speriamo bene visto che (ed inserisco un altro punto) la scheda avra' DDR normale e bus 128 bit. Bisogna sperare che il deferred rendering dia benefici in stile Kyro2, tali da rendere performante la scheda
- scarsita' di notizie riguardo AA ed AF... non per ripetermi ma li trovo due componenti basilari per schede dx8, figuriamoci per le dx9! Il radeon9700pro ha una implementazione di AA ed AF sublime, il GFFX seguira' a ruota... mi auguro che S3 segua la stessa via!
In ogni caso come progetto mi sembra MOLTO piu' "riflettuto" dello Xabre, quindi una punta di ottimismo me l'ha suscitata. Cio' che temo e' che S3 finisca per fare il passo piu' lungo della gamba!
e' un chip molto piccolo, costa poco produrlo, il prezzo potra' essere estremamente aggressivo.
Originally posted by "+Benito+"
e' un chip molto piccolo, costa poco produrlo, il prezzo potra' essere estremamente aggressivo.
Per l'epoca il 9700pro sara' dimezzato (ci sara' in giro l'R350) e di conseguenza il discorso non si porra' proprio. Ho veramente paura che faccia la fine dello Xabre, anche se in realta' spero che vada MOLTO bene e crei un terzo polo.
In ogni caso da qui a giugno e' luuuuuuuuuuunga per giudicare fin d'ora... io mi limito a parlare delle feature note ed a indicare quelli che secondo me sono punti deboli per una scheda che esce tanto tardi.
losqualobianco
13-01-2003, 16:45
Ho letto tutte le pagine e in sostanza l'S3 ha il suo punto di forza fondamentale nel prezzo.
Ricordiamoci che è una gpu dx9 con 8 pipeline di rendering.
Peggio di una 9500liscia (che ha solo 4 pipeline) da 64Mb non può andare e produrla costa meno sicuramente.
Se la concorrenza dei chip dx9 a giugno-luglio sarà forte questa gpu potrebbe ritagliarsi un posto a scapito delle 9100 e del successore delle geffo4mx (?).
Potrebbe essere la gpu entrylevel del prossimo Natale come lo sono ora le 9000 (dx8) e le geppo4mx (dx7).
+Benito+
13-01-2003, 17:03
Originally posted by "CS25"
Per l'epoca il 9700pro sara' dimezzato (ci sara' in giro l'R350) e di conseguenza il discorso non si porra' proprio. Ho veramente paura che faccia la fine dello Xabre, anche se in realta' spero che vada MOLTO bene e crei un terzo polo.
In ogni caso da qui a giugno e' luuuuuuuuuuunga per giudicare fin d'ora... io mi limito a parlare delle feature note ed a indicare quelli che secondo me sono punti deboli per una scheda che esce tanto tardi.
per l'epoca l'300 sara' tale e quale quello che e' adesso e l'R350 costera' 400€
per prezzo concorrenziale intendo 150€ e per giugno/luglio le 9500pro non costeranno mica tanto meno
Originally posted by "+Benito+"
per l'epoca l'300 sara' tale e quale quello che e' adesso e l'R350 costera' 400€
per prezzo concorrenziale intendo 150€ e per giugno/luglio le 9500pro non costeranno mica tanto meno
I conti non mi tornano : io pago OGGI una radeon9700pro a 400 euro (da cui sottraggo l'iva, ma e' una prerogativa della mia ttivita') quindi se a giugno c'e' l'R350 a 400 euro, come minimo l'r300 stara' a 200 euro nella sua versione piu' performante e sotto i 200 nella versione liscia.
+Benito+
13-01-2003, 17:15
Originally posted by "CS25"
I conti non mi tornano : io pago OGGI una radeon9700pro a 400 euro (da cui sottraggo l'iva, ma e' una prerogativa della mia ttivita') quindi se a giugno c'e' l'R350 a 400 euro, come minimo l'r300 stara' a 200 euro nella sua versione piu' performante e sotto i 200 nella versione liscia.
avevo capito la meta' in dimensioni....
sorry
Originally posted by "+Benito+"
avevo capito la meta' in dimensioni....
sorry
Ah :D
Non ci eravamo semplicemente capiti :)
Io non capisco le politiche delle case........
Nvidia
Ha fatto le geforce3 std.....poi ha detto no,non va bene dividiamo in Ti200 e Ti500. E' così fù.
Ora facciamo le geforce4.......e fece le ti4200,4400,4600 e le geforce4Mx........ Ma che c@zzo combini ?? Hai le geforce3 che puoi tranquillamente imporre nel mercato low price e FAI LA MX ??? Il progetto geffo3 già l'hai pagato il processo ottimizzato e FAI QUELL ABORTO DELL MX ???? VERGOGNA !
Pensate se l Nvidia imponeva nella fascia low con le geffo3..............
Ati
Creeamo la 8500 per contrastare i rivali (Nvidia) oh che gran bella scheda che ci è uscita.....siamo troppo fighi pensiamo al successore (9700).
Ma ragazzi cosa stiamo proponendo per la fascia bassa ?? le 7500 ??? Naaaaa inventiamoci qualcosa.
Esce la 9700,la 9500,9500pro e visto che nvidia incasina i suoi clienti chi siamo noi per non farlo ?? Facciamo una scheda con qualche feature nuova e la chiamiamo 9000 così non sebmbra un 8500Le castrato......anzi sembra migliore.
Pensate se l'Ati imponeva nella fascia low le 8500...........
S3
Cerchiamo di far qualcosa che possa piacere e costi poco.........non è piaciuto mica tanto.......
Matrox
Cavalchiamo l'onda della ns. fama e stupiamoli con effetti speciali !!!
Infatti è l'unica cosa che hanno fatto......stupirci a parole.
Stm (Kyro)
Abbiamo una buona idea adesso non resta altro che affossarla........
non possiamo mica investire $$$
:D molto triste ma vera quella di stm :D l'italico genio
Originally posted by "luckye"
Io non capisco le politiche delle case........
Nvidia
Ha fatto le geforce3 std.....poi ha detto no,non va bene dividiamo in Ti200 e Ti500. E' così fù.
Ora facciamo le geforce4.......e fece le ti4200,4400,4600 e le geforce4Mx........ Ma che c@zzo combini ?? Hai le geforce3 che puoi tranquillamente imporre nel mercato low price e FAI LA MX ??? Il progetto geffo3 già l'hai pagato il processo ottimizzato e FAI QUELL ABORTO DELL MX ???? VERGOGNA !
Pensate se l Nvidia imponeva nella fascia low con le geffo3..............
Ati
Creeamo la 8500 per contrastare i rivali (Nvidia) oh che gran bella scheda che ci è uscita.....siamo troppo fighi pensiamo al successore (9700).
Ma ragazzi cosa stiamo proponendo per la fascia bassa ?? le 7500 ??? Naaaaa inventiamoci qualcosa.
Esce la 9700,la 9500,9500pro e visto che nvidia incasina i suoi clienti chi siamo noi per non farlo ?? Facciamo una scheda con qualche feature nuova e la chiamiamo 9000 così non sebmbra un 8500Le castrato......anzi sembra migliore.
Pensate se l'Ati imponeva nella fascia low le 8500...........
S3
Cerchiamo di far qualcosa che possa piacere e costi poco.........non è piaciuto mica tanto.......
Matrox
Cavalchiamo l'onda della ns. fama e stupiamoli con effetti speciali !!!
Infatti è l'unica cosa che hanno fatto......stupirci a parole.
Stm (Kyro)
Abbiamo una buona idea adesso non resta altro che affossarla........
non possiamo mica investire $$$
Io ho sempre pensato che dietro di questo ci sia una specie di complotto di reciproca non aggressione delle case di sk video! :D :D
+Benito+
14-01-2003, 08:13
le4 mx non sono "alte schede", ma sono geforce4Ti mocciate. Gli tolgono alcune zone del chip, ma sono geforce4. Cio' pero' non toglie che contrariamente a cio' che fa ATi, cioe' usare i chip parzialmente non funzionanti sulle schede meno performanti, qui nVidia deve fare 2 maschere e due linee produttive, il che non spiega come mai si abbandoni la produzione della 3 in favore della 4mx. Forse il problema e' legato alla dimensione del chip geforce3, che sarebbe troppo costoso da produrre con costi abbastanza bassi da avere margini di guadagno con prezzi finali altrettanto bassi.
Originally posted by "+Benito+"
le4 mx non sono "alte schede", ma sono geforce4Ti mocciate. Gli tolgono alcune zone del chip, ma sono geforce4. Cio' pero' non toglie che contrariamente a cio' che fa ATi, cioe' usare i chip parzialmente non funzionanti sulle schede meno performanti, qui nVidia deve fare 2 maschere e due linee produttive, il che non spiega come mai si abbandoni la produzione della 3 in favore della 4mx. Forse il problema e' legato alla dimensione del chip geforce3, che sarebbe troppo costoso da produrre con costi abbastanza bassi da avere margini di guadagno con prezzi finali altrettanto bassi.
No,no guarda le le 4Mx sono delle geffo2 pompate senò pipeline a parte non si spiega come mai siano directx 7 e non 8.1 come le sorelle......infatti come velocità vanno anche bene...peccato siano preistoriche rispetto la concorrenza.
Kmq il geffo3 secondo me non è stato spostato nella fascia low per non intaccare le vendite delle Ti4200-4400 perchè ti assicuro che la mia T500 va come una 4200 con un pelo di overclock.........se la spingo al Max mi pongo Ti4200<Ti500<Ti4400
Anche xè la Nvidia fa 2 "generazioni"con chip dello stesso progetto.........
Ha fatto le 256 seguite dalle 2 (Le differenze sono poche)
Ha fatto la 3 e le 4 (differenze poche anche quì)
Farà la Fx (e il modello successivo.........) dopodichè cambierà nuovamente architettura........
+Benito+
14-01-2003, 10:41
Originally posted by "luckye"
No,no guarda le le 4Mx sono delle geffo2 pompate senò pipeline a parte non si spiega come mai siano directx 7 e non 8.1 come le sorelle......infatti come velocità vanno anche bene...peccato siano preistoriche rispetto la concorrenza.
Kmq il geffo3 secondo me non è stato spostato nella fascia low per non intaccare le vendite delle Ti4200-4400 perchè ti assicuro che la mia T500 va come una 4200 con un pelo di overclock.........se la spingo al Max mi pongo Ti4200<Ti500<Ti4400
Anche xè la Nvidia fa 2 "generazioni"con chip dello stesso progetto.........
Ha fatto le 256 seguite dalle 2 (Le differenze sono poche)
Ha fatto la 3 e le 4 (differenze poche anche quì)
Farà la Fx (e il modello successivo.........) dopodichè cambierà nuovamente architettura........ d'accordo, il discorso lascia il tempo che trova. Non sono ne' delle2, ne' delle4, come prestazioni sono praticamente al livello della Geforce2Ultra (Mx 440-460) e Geforce2 liscia (mx420).
E' possibile che abbiano ripescato il progetto del 2 e lo abbiano rifatto mettendoci alcune cose in piu' come e' possibile che abbiano preso il 4 e gli abbiano tolto pixel shader, due pipes e altre cosucce. Pero', visto che le 4mx hanno alcune sezione che le 4Ti non hanno, in effetti l'ipotesi piu' accreditata e' che siano delle rivisitazioni delle 2.
Comunque per il loro mercato non e' che siano male, chi spende 100€ non vuole certo l'ultima generazione di schede, e se permettete non ha nemmeno senso che siano dx8 anziche' dx9 perch'e la potenza di calcolo a disposizione dei sistemi su cui vengono montate non e' sufficiente a far girare i giochi con tutti gli effetti al max, ragion per cui la differenza tra il supporto, mettiamo, a certi effetti di nebbia, svaniscono se si disattiva la nebbia. Cio' non toglie che avere il supporto in hw di quelle funzioni aiuta il sistema, ma non permette certo di far girare giochi che sentza il supporto hw non girerebbero.
Originally posted by "luckye"
No,no guarda le le 4Mx sono delle geffo2 pompate senò pipeline a parte non si spiega come mai siano directx 7 e non 8.1 come le sorelle......infatti come velocità vanno anche bene...peccato siano preistoriche rispetto la concorrenza.
Il core del geforce4 mx non e' lo stesso del geforce2, ma il suo design e' partito da li'. Il supporto in hw del multisampling richiede la riprogettazione del chip... ne e' la riprova Ati che non ha potuto implementarlo sul radeon8500 nemmeno nelle sue successive evoluzioni (o involuzioni nel caso del 9000 liscio) in quanto frutto di una mancanza in hw.
Cio' comunque non toglie che il gf4 mx e' una soluzione low end destinata a chi all'epoca non giocava molto e/o non aveva interesse ad avere l'ultimo grido in fatto di prestazioni... e se lo paragoni col radeon9000 che e' dx8.1 ti accorgi che gira uguale in giochi come ut2003, maxpayne, quake3.... in aquanox ci rimette un bel po' d'altrocanto. Mica male tutto sommato per una scheda dx7 no? :)
Originally posted by "+Benito+"
d'accordo, il discorso lascia il tempo che trova. Non sono ne' delle2, ne' delle4, come prestazioni sono praticamente al livello della Geforce2Ultra (Mx 440-460) e Geforce2 liscia (mx420).
E' possibile che abbiano ripescato il progetto del 2 e lo abbiano rifatto mettendoci alcune cose in piu' come e' possibile che abbiano preso il 4 e gli abbiano tolto pixel shader, due pipes e altre cosucce. Pero', visto che le 4mx hanno alcune sezione che le 4Ti non hanno, in effetti l'ipotesi piu' accreditata e' che siano delle rivisitazioni delle 2.
Comunque per il loro mercato non e' che siano male, chi spende 100€ non vuole certo l'ultima generazione di schede, e se permettete non ha nemmeno senso che siano dx8 anziche' dx9 perch'e la potenza di calcolo a disposizione dei sistemi su cui vengono montate non e' sufficiente a far girare i giochi con tutti gli effetti al max, ragion per cui la differenza tra il supporto, mettiamo, a certi effetti di nebbia, svaniscono se si disattiva la nebbia. Cio' non toglie che avere il supporto in hw di quelle funzioni aiuta il sistema, ma non permette certo di far girare giochi che sentza il supporto hw non girerebbero.
Le geffo4Mx sono delle 2Mx con un lifting! ;)
La base (cioè le pipeline) sono identiche spiccicate! Ciò chje cambia sono "pezzi" esterni cioè il controller della memoria, l'antialiasing etc.
Okkio a non confondersi ragazzi, i pixel shader sono degli efetti che comportano una riprogettazione delle pipeline, i vertex shader sono in pratica un evoluzione dell'unità TcL mentre l'AA è un qualcosa a se stante.
Originally posted by "CS25"
Che poi secondo me una scheda ora deve offrire ASSOLUTAMENTE aa ed af utilizzabili, accidenti siamo nel 2003!
Giocare senza alcun filtro aggiuntivo significa ne' piu' ne' meno tornare a periodi antecedenti a gf2 gts e voodoo5... poi ci lamentiamo se i fan 3dfx lodano il v5... come dar loro torto sotto questo aspetto? :)
In quella fascia infatti ci sta il 9000Pro ke lascia usare l'aniso...
Originally posted by "NiKo87"
In quella fascia infatti ci sta il 9000Pro ke lascia usare l'aniso...
Appunto, il radeon9000 ECLISSA lo xabre, a parita' di prezzo :
- maggiore qualita' di rendering
- presenza filtro anisotropico
- qualita' 2d
- qualita' dvd
- antialiasing di tipo supersampling, ma che FUNZIONA!
Originally posted by "CS25"
Appunto, il radeon9000 ECLISSA lo xabre, a parita' di prezzo :
- maggiore qualita' di rendering
- presenza filtro anisotropico
- qualita' 2d
- qualita' dvd
- antialiasing di tipo supersampling, ma che FUNZIONA!
L'FSAA è inutilizzabile cmq pero :p
Se vogliamo dirle tutte sui vari geforce è l' AF inutilizzabile!
Originally posted by "pandyno"
Se vogliamo dirle tutte sui vari geforce è l' AF inutilizzabile!
Guarda che a dire le bugie cresce il naso, non il pisello :D
Battute a parte, la tua affermazione non sta ne' in cielo ne' in terra. E' utilizzabilissimo, semplicemente e' piu' lento della soluzione ati per le schede fino al radeon8500/9000 (che pero' hanno un livello di filtering inferiore poiche' basato su bilinear filtering), ed e' nettamente piu' lento a parita' di qualita' rispetto alla serie 9500-9700.
Il level 8, ovvero il massimo livello di anisotropic garantisce sulle gf4 ti4200 7000 punti e oltre 8000 sulle ti4600, con test PRE-detonator 42.xx che hanno portato un ulteriore incremento del 15% in af.
Se questo e' inutilizzabile, metti il massimo livello di antialiasing su una radeon8500/9000 e dimmi quanto fa :)
Se poi devo sfoderare qualche chilo di recensioni, basta chiedere :)
io c' ho provat ad usarlo a 8x, beh avevo per le mani la velocità della cara e vecchia geppo2mx.....
Ma le prove le fai?
Io non parlo di 3dmark, ma dei giochi nei giochi il livello 8 fa pena! ut2003 mi garantiva 20fps! troppo poco.
Originally posted by "pandyno"
io c' ho provat ad usarlo a 8x, beh avevo per le mani la velocità della cara e vecchia geppo2mx.....
Ma le prove le fai?
Io non parlo di 3dmark, ma dei giochi nei giochi il livello 8 fa pena! ut2003 mi garantiva 20fps! troppo poco.
Non solo le prove le faccio, ma le documento e cerco di aiutare gli utenti ad ottenere il meglio tanto sotto l'aspetto della qualita' quanto sotto quello delle prestazioni mediando tra questi due parametri fondamentali.
Questo articolo e' basato su driver vecchi, eppure parla chiaro : non venirmi a dire che l'AF non e' utilizzabile perche' NON e' vero.
http://www.nvitalia.com/articoli/anisotropic%20filtering/2.htm
Escursus su come ottenere una modalita' "performance" simile a quella del radeon 8500
http://www.nvitalia.com/articoli/anisotropic%20filtering/3.htm
Risultati e confronti qualitativi :
http://www.nvitalia.com/articoli/anisotropic%20filtering/4.htm
Aggiungi il gia' citato 15% ottenuto in molte condizioni coi nuovi 42.xx e ne riparliamo.
Se in Q3 a 1600x1200 a massimo dettaglio si facevano nella modalita' piu' pesante, cioe' level 8 puro, 53 fps, vuoi per caso dire che in UT2003 a massimo dettaglio 1024x768 si hanno gli fps di una mx200, ovvero 10-15?
L'esempio del 3dmark poi non va bene? Mica lo confronto in termini assoluti, io guardo le differenze percentuali, il che e' ben differente.
Ho parlato di mx non di mx200 :P perdiana provati ut2003 senza tanti tweak del cavolo e ti accorgi che non sono un sognatore.
Non so' poi se hai notato che su q3 con af 8 ottengo gli stessi fps sulla mia 7500 con af 16x, fai tu :D
Che ne dici di aprire un bel 3d nel quale possano partecipare tutti sull' argomento? sarebbe carino e diverso dai soliti 3d.
Originally posted by "pandyno"
Ho parlato di mx non di mx200 :P perdiana provati ut2003 senza tanti tweak del cavolo e ti accorgi che non sono un sognatore.
Se mi dici "geforce mx" puo' essere la mx, la mx200, la mx400, la 4 mx420, la 4 mx440 (che fa dei framerate decenti in ut2003, senza filtri si parla), la 4mx460 e un domani (permettimi una battuta :p) una FXMX... io che ne so a QUALE mx ti rivolgevi? :D
E guarda che se vuoi le prove, le posso tranquillamente fare sabato pomeriggio :p
Ho parlato di geppo2mx, come sai prima è uscita la geforce2mx equivalente della mx400, ma certo che per screditare siete forti!
geppo2mx
Fai quante prove ti pare, apri un 3d e ce le metti, poi arrivo io con la 7500 e rifaccio tutte le prove, ah di tweak fanne pochi altrimenti imposto l' AF 8x e mi vedi col binocolo muahahahahhahaha :D (perdita intorno al 3%)
Originally posted by "pandyno"
Ho parlato di geppo2mx, come sai prima è uscita la geforce2mx equivalente della mx400, ma certo che per screditare siete forti!
Fai quante prove ti pare, apri un 3d e ce le metti, poi arrivo io con la 7500 e rifaccio tutte le prove, ah di tweak fanne pochi altrimenti imposto l' AF 8x e mi vedi col binocolo muahahahahhahaha :D (perdita intorno al 3%)
Per niente, la Geffo2Mx400 è più veloce della Mx liscia! ;)
Originally posted by "pandyno"
Ho parlato di geppo2mx, come sai prima è uscita la geforce2mx equivalente della mx400, ma certo che per screditare siete forti!
Fai quante prove ti pare, apri un 3d e ce le metti, poi arrivo io con la 7500 e rifaccio tutte le prove, ah di tweak fanne pochi altrimenti imposto l' AF 8x e mi vedi col binocolo muahahahahhahaha :D (perdita intorno al 3%)
A parte che "screditare" te lo sogni la notte, nel momento stesso in cui mi sono perso un "2" me lo fai notare e chiedo venia, come sempre faccio quando nella lettura mi perdo i pezzi :eek:
Riguardo la seconda affermazione, fatto sta che NON fai un bel test QUALITATIVO, ma ti limiti a parlare della velocita'. Perche'?
T'ho detto di fare dei capture per verificare se la scheda downscalasse, ma t'e' entrato da una parte ed uscito dall'altra.
Ora visto che l'unico tuo scopo era continuare a nutrire una discussione che s'era spostata su pvt, con intenti MOOOOLTO costruttivi ("mi vedi col binocolo muahahahahah" -> vuoi il leccalecca per premio? :D ), ti rispondo chiaro chiaro che mi sono stufato di dover leggere determinate cavolate (AF non utilizzabile) e di dovermi scazzottare con te che hai una radeon7500 e sostieni che a parita' di qualita' (senza averla verificata) il suo AF level 16 causi una perdita del 3%, mentre su un radeon9700pro causa (quality mode) un 20-25%.
O Ati s'e' talmente rincitrullita da aver messo un AF formidabile sul 7500 e averlo peggiorato sul 9700pro, oppure stai confrontando la qualita' tra due schede avendone vista una delle due solo in fotografia o non certo dentro il tuo pc, senza aver fatto un briciolo di comparazione effettiva della suddetta qualita'.
Pensa che scemo che sono, ho comprato una 9700pro quando potevo prendere una 7500 :rolleyes:
è lo stesso prodotto ragazzi! ma io dico......ma che avete sti giorni?
la 400 aveva un core di 200mhz contro i 166 della liscia, le memorie erano clockate allo stesso modo 166, vantaggi nell' ordine dell' 1% cmq se per voi è superiore OK! :D
Originally posted by "CS25"
A parte che "screditare" te lo sogni la notte, nel momento stesso in cui mi sono perso un "2" me lo fai notare e chiedo venia, come sempre faccio quando nella lettura mi perdo i pezzi :eek:
Riguardo la seconda affermazione, fatto sta che NON fai un bel test QUALITATIVO, ma ti limiti a parlare della velocita'. Perche'?
T'ho detto di fare dei capture per verificare se la scheda downscalasse, ma t'e' entrato da una parte ed uscito dall'altra.
Ora visto che l'unico tuo scopo era continuare a nutrire una discussione che s'era spostata su pvt, con intenti MOOOOLTO costruttivi ("mi vedi col binocolo muahahahahah" -> vuoi il leccalecca per premio? :D ), ti rispondo chiaro chiaro che mi sono stufato di dover leggere determinate cavolate (AF non utilizzabile) e di dovermi scazzottare con te che hai una radeon7500 e sostieni che a parita' di qualita' (senza averla verificata) il suo AF level 16 causi una perdita del 3%, mentre su un radeon9700pro causa (quality mode) un 20-25%.
O Ati s'e' talmente rincitrullita da aver messo un AF formidabile sul 7500 e averlo peggiorato sul 9700pro, oppure stai confrontando la qualita' tra due schede avendone vista una delle due solo in fotografia o non certo dentro il tuo pc, senza aver fatto un briciolo di comparazione effettiva della suddetta qualita'.
Pensa che scemo che sono, ho comprato una 9700pro quando potevo prendere una 7500 :rolleyes:
Sono disponibilissimo per qualsiasi test qualitativo, velocità quel che ti pare, scegli l' ora il giorno il dove il come ed il perchè! :D
Di prove ne ho fatte a iosa e di vga ne ho viste un casotto, quando vuoi, a mezzogiorno davanti all' orologio? :D
Cmq a quanto pare sei duro.... evidentemente non capisci quando una persona scherza, figurarsi che c' ero pure cascato che lo capivi.... vabbè fai un po come ti pare io sono qui, vediamo se poi un po di obiettività ti entra in capa ciaozz
Altra inesattezza ho parlato di 5% poi rettificato in PVT in 7% di perdita, ma chi vuoi fare scemo? ma poi dici...
Sono due giorni che ti vengo appresso per iniziare sta comparativa e dai la colpa a me? ma siamo sul ridicolo adesso.
Scusa se ti ho offeso, ma mi fai passare per demente.
Originally posted by "pandyno"
è lo stesso prodotto ragazzi! ma io dico......ma che avete sti giorni?
la 400 aveva un core di 200mhz contro i 166 della liscia, le memorie erano clockate allo stesso modo 166, vantaggi nell' ordine dell' 1% cmq se per voi è superiore OK! :D
Invece te che sostieni che il radeon7500 con la meta' delle pipeline, 1/3 del fillrate e via dicendo ha prestazioni in anisotropic filtering SUPERIORI a quelle del radeon9700pro? Vieni a dire "cosa avete" a noi? :eek:
Ho un sistema piu' veloce del tuo, quindi e' ovvio pensare che la mia 9700pro messa nel tuo sistema con AF level 16 vada piu' lenta della tua attuale radeon7500 secondo la tua logica "brillante".
Ma ti rendi conto di quello che dici? E poi ti meravigli se non ho voglia di stare a sentire certe cose e/o di perdere tempo?
E il geforce4 che striscia in AF a chi la lasciamo?
Ed ora come cerchi di parare botta? Dicendo che eri dispostissimo a fare gli shot dell'anisotropic filtering? Negando quello che tutti sanno riguardo l'AF implementato da Ati prima delle nuove 9500-9700, e cioe' che NON ha quella qualita'?
Ricapitoliamo il "Pandyno dixit" :
- il radeon7500 in AF level 16 perde il 5-7%, la qualita' e' la stessa di quella di gf4 (fino a level 8 ovviamente) e ati radeon9700pro che perde il 20-25% (modalita' quality)
Perche' dico modalita' quality? Perche' io switcho in alcuni giochi nella modalita' performance e noto un calo di qualita', ma e' bassissimo quindi non lo considero un "difetto" quanto invece una buona ottimizzazione. Ma non vado a dire cose non vere, cioe' che in modalita' performance il radeon9700pro ha una qualita' uguale o superiore a quella del gf4. Quality <> Performance, ma Pandyno non ha _mai_ affrontato questa distinzione.
- il gf4 e' inutilizzabile in AF (vedete indirizzi che ho sopra-incluso)
- il gf4 con AF level 8 raggiunge in ut2003 le prestazioni di un gf2 mx... i possessori di quest'ultima stanno urlando di gioia, hanno appena guadagnato il 50% di prestazioni! :D
Tralascio le considerazioni che vertono sul personale, evidentemente le hai dette senza dolo.
P.S. Ti ho detto via pvt che sabato impegni permettendo avrei fatto le prove sul gf4 per la qualita' del filtraggio, riguardo la qualita' di rendering sei tu che devi dimostrare che il radeon7500 perde un 5-7% rispetto al 20-25% del radeon9700pro a parita' di qualita'. Fino a prova contraria un assurdo del genere non posso certo comprovarlo io :rolleyes:
T'ho pure detto che se mi dai preavviso ci metto ZERO ad approntare due sistemi identici, cosicche' se vuoi venire a fare le tue prove di persona io non ho problemi... il fatto che siamo distanti significa che IO HO RIFIUTATO? Basta, qui sta per arrivare un intervento (dovuto, per entrambi) di moderazione e io sono stufo di affrontare una discussione sulla qualita' video di 3 schede, di cui una l'hai avuta per poco tempo e l'altra l'hai vista solo in fotografia, o nel pc di qualcun altro.
P.P.S. Rivolto ai fruitori del thread che fraintendono, il segno <> significa "diverso da"
E allora cominciamo a fare qualche test, la questione mi interessa, non ho detto che hai rifiutati tu hai detto che io mi sono rifitutato che mi è passato dalla testa di fare test qualitativi quando invece li ho fatti.
Smettiamola con queste discussioni sterili è il momento di AGIRE se devo iniziare io basta solo che me lo dici.
ah se non lo sapessi la 9700pro applica l' AF in modo differente, ma visto che mi dai del visionario te l' ho dovuto dire! :D
E datti na calmata che ho notato che molte cose sulle radeon ti sfuggono inutile inquietarsi quando non si sanno certe cose appurate, logico se ti studi solo le nvidia....
I test che ti ho dato ieri li puoi pubblicare.
Originally posted by "pandyno"
E allora cominciamo a fare qualche test, la questione mi interessa, non ho detto che hai rifiutati tu hai detto che io mi sono rifitutato che mi è passato dalla testa di fare test qualitativi quando invece li ho fatti.
Hai fatto test qualitativi... e con cosa li hai confrontati? Radeon9700pro in modalita' quality e/o performance? GF4 in opengl in modalita' quality e/o performance, in D3D con algoritmo classico o manualmente ottimizzato come e' possibile fare tramite rivatuner? Con chi? Su che api e che giochi? Li hai pubblicati o erano per curiosita' personale?
Io ho un difetto, quando faccio i test divento pignolo e cagacaxxo (l'admin di nvitalia ne sa qualcosa, visto che nei 2 giorni successivi all'uscita dei miei articoli gli faccio apportare tutte le modifiche e le correzioni che mi vengono in mente dopo, come i cornuti) tu proponi di fare i test ed io dovrei trovare *qualche ora* poiche' per me un test completo significa :
Radeon9700 pro (af modalita' quality)
Q3 arena, af level 2-4-8-16
3dmark, af level 2-4-8-16
Mafia liscio, af level 2-4-8-16 (per la nostra discussione in privato)
Radeon9700 pro (af modalita' performance)
Q3 arena, af level 2-4-8-16
3dmark, af level 2-4-8-16
Mafia liscio, af level 2-4-8-16 (per la nostra discussione in privato)
Geforce4 ti4600 (devo andare a casa di un mio amico e usare il suo sistema) con lod bias default, ottimale, manuale, AF in modalita' performance/quality per l'opengl, modalita' normale e modalita' modificata per il D3D :
Q3 arena, af level 2-4-8
3dmark, af level 2-4-8
Mafia liscio, af level 2-4-8 (sempre per la nostra discussione privata)
A questo cosa devo aggiungere? Mi sembra tu abbia proposto UT2003 oltre a questi che io considero test "classici" per confrontare la qualita'...
Hai idea di quanto mi ci vorrebbe? Credi che io non voglia fare i test perche' ho "paura" o perche' ti snobbo? No, semplicemente non saprei dove trovare il tempo, questo weekend ce l'ho impegnato tutto eccetto 2 ore sabato.
Ma la cosa che piu' mi dispiace e' che non riesco proprio ad inquadrare il tuo atteggiamento : io non ho preconcetti verso le persone a meno che non mi dimostrino il contrario, se tu ritieni che il mio punto di vista non possa essere obiettivo allora DIMMELO e cosi' evitiamo di perdere tempo. Mi sentirei UN TANTINO preso per il culo a fare il lavorone di cui sopra ed a sentirmi preso per i fondelli subito dopo.
P.S. Io chiusa la discussione privata ho cancellato i messaggi, pubblica tutti i test che vuoi, figurati se ho problemi al riguardo.
Ma perchè ti comporti cosi'? ma che hai la coda di paglia? io rileggendomi tutta la discussione a dire il vero penso he tu mi reputi uno stupido, ma quello che hai detto conferma che tu le radeon 256 e 8500 non l' hai cag@t# manco di striscio!
L' AF è MICIDIALE in tutte e due le schede! e non è da sottovalutare, tutti elogiate l' AA, ma che senso ha avere un game senz scalettature e poi le texture in lontananza a mo' di besciamella?
Mi avevi chiesto di fare test qualitativi per vedere se l' AF scalava, credo che proprio hai frainteso tutto il discorso.
TI RIPETO:
io sono disponibile in un oretta ti faccio constatare la bontà dell' af della 7500/8500 poi magari aggiungi qualche test tu quando trovi tempo.
Indicami i game sui quali vuoi sto' benedetto test che io te li faccio non ho problemi e tra l' altro è pure interessante!!!
Prima che vengo frainteso ulteriormente, quando parlo di test rilevanti non intendo dire che "o si fa in quel modo o non significa un caxxo", ma semplicemente che se mi metto a farli a me viene spontaneo farne quella quantita' per poter avere dati il piu' completo possibile.
Ho gia' detto che sono un pignolo del cavolo.
Fermo restando il resto, ovviamente.
Originally posted by "CS25"
EDIT
Ho modificato il messaggio chiedo venia leggiti la modifica ;)
Originally posted by "CS25"
Prima che vengo frainteso ulteriormente, quando parlo di test rilevanti non intendo dire che "o si fa in quel modo o non significa un caxxo", ma semplicemente che se mi metto a farli a me viene spontaneo farne quella quantita' per poter avere dati il piu' completo possibile.
Ho gia' detto che sono un pignolo del cavolo.
Fermo restando il resto, ovviamente.
Meglio calmarci :D dai rileggiti l' altro messaggio e dimmi che game devo provare... :)
Originally posted by "pandyno"
Ho modificato il messaggio chiedo venia leggiti la modifica ;)
Ho letto, modifico il mio quote al tuo messaggio editato almeno leviamo di torno quella spiacevole parentesi.
Si in effetti avevo letto male, colpa del mio cane che vuole uscire :D :D
Originally posted by "CS25"
Prima che vengo frainteso ulteriormente, quando parlo di test rilevanti non intendo dire che "o si fa in quel modo o non significa un caxxo", ma semplicemente che se mi metto a farli a me viene spontaneo farne quella quantita' per poter avere dati il piu' completo possibile.
Ho gia' detto che sono un pignolo del cavolo.
Fermo restando il resto, ovviamente.
OK per me va bene, quel che non hai capito è che io per la maggior parte dei miei post la buttavo sullo scherzo e te ti sei incaponito dicendomi che mi avresti dato un lecca-lecca per premio :rolleyes:
Il discorso te lo ripeto mi interessa moltissimo!
Dimmi in quali games vuoi fare questo test ed io comincio, 3dmark lo scarto in partenza.
Originally posted by "pandyno"
Ma perchè ti comporti cosi'? ma che hai la coda di paglia? io rileggendomi tutta la discussione a dire il vero penso he tu mi reputi uno stupido, ma quello che hai detto conferma che tu le radeon 256 e 8500 non l' hai cag@t# manco di striscio!
Considerato che non ho avuto il radeon7500 (che c'entra l'8500? :) ) ma che posso rivolgermi a djlode che e' passato da quello al gf4 ti4400 se voglio avere un ulteriore parere, se ti reputassi uno stupido non risponderei. Quando vedo una discussione arenarsi o scendere sul piano personale, la mollo e basta (e cosi' facendo a volte l'interlocutore "crede" di avere avuto ragione... beata gioventu' :) ).
In realta' facendo una somma algebrica di cio' di cui si e' parlato in pvt ed in pubblico, a me sembra di aver semplicemente ARGOMENTATO i miei dubbi ed elencato le cose che concettualmente non mi convincono. Shot comparativi tra un gf4 ti, un radeon9700 e il tuo radeon7500 fugherebbero 'sti dubbi.
A me parallelamente e' sorta la netta sensazione che, cosi' come quando si parlava della qualita' del v5, tu tratti con sufficienza un povero stolto che per 6 mesi ha creduto di avere una qualita' video eccellente... mi suona strano, che ci posso fare? :p
L'AF ati presente nelle schede precedenti al R300 e' micidiale per prestazioni, non per qualita'. Non che sia brutta, santo cielo, a dirla tutta praticamente le differenze non si notano in movimento se non in circostanze veramente "cercate", ma ci sono. Non ho avuto nulla di ati prima del 9700pro quindi non mi metto a confutare cio' che dici, vorrei solo "vedere".
Appena riesco a ricavare un po' di tempo comincio i test e faccio i relativi capture, ma non posso prometterti nulla sul quando :(
Se mi scarti il 3dmark per la qualita', rimangono Q3, UT2003 e Mafia, tra quelli il preferibile forse e' UT2003 perche' e' piu' recente, Mafia al limite lo reinstallo.... vedi tu.
Non ho avuto nulla di ati prima del 9700pro quindi non mi metto a confutare cio' che dici, vorrei solo "vedere".
CACCHIO sono duo ore che ti sto' chiedendo che razza di test vuoi che ti faccia!!!!!!! :D Che te ne do' a prova!!!!! :D
Per la V5 posso benissimo fare un test incrociato...
Mafia nn ce l' ho....
UT2003 hai il demo o la full? cmq vada per questi due ora vedo anche 3dmark anche se non mi sta molto simpatico....
Originally posted by "pandyno"
CACCHIO sono duo ore che ti sto' chiedendo che razza di test vuoi che ti faccia!!!!!!! :D Che te ne do' a prova!!!!! :D
Per la V5 posso benissimo fare un test incrociato...
Ho aggiunto 2 righe :D
Ho ut2003 full originale (per giocare online, rulez!) e ho mafia, per me va benissimo
Pure io :D
Allora io vado! :D anche la V5 avrà la sua gloria, sarebbe interessante che tu alzassi il lod tramie tweak sulla TI in modo da valutare la differenza con la V5...
Io no ho capito il senso di questa discussione. Paragonare una 9700Pro e una 7500 mi sembra da sciocchi :muro: . In ogni applicazione in ogni situazione sarà sempre e di molto superiore la 9700pro, e perderà percentualmente sempre molto ma molto meno.
No lascia stare metà del discorso è avvenuto in PVT la radeon 9700 nn c' entra un fico secco! e cmq hai ragione siamo andati fin troppo OT, apriro' un 3d per trattare l' argomento in maniera seria.
JENA PLISSKEN
15-01-2003, 14:36
Pandyno..........ancora a ROMPERE LE B@LLE con questi confronti ASSURDI??? Tanto poi scappi via a gambe levate come dalla discussione ""NOTIZIUOLE SU NV30""!!
Cmq sono d' accordo con te......sulla % di perdita con AF della 7500 contro 9700pro...infatti con AF16x :
1) La 7500 passa da """4"""fps a """3,999999999"""
2)La 9700pro da """SOLI 100 fps""" a """SOLI 75fps""" :D:D:D
A questo punto io consiglio a TUTTI di cambiarvi una 9700pro con una 7500 ke con AA attivato però SALTA IN ARIA!!! Le usa pure BIN LADEN!! :D:D
ROBA DA MATTI!!!!!!!!!!!!!
Originally posted by "pandyno"
No lascia stare metà del discorso è avvenuto in PVT la radeon 9700 nn c' entra un fico secco! e cmq hai ragione siamo andati fin troppo OT, apriro' un 3d per trattare l' argomento in maniera seria.
Perche' non c'entra? Perche' l'ho proposto io? Il discorso c'entra eccome, se la radeon7500 perde il 5-7% e il radeon9700pro perde il 20-25% *a parita' di qualita'*, o Ati ha fatto una 7500 eccezionale o una 9700pro peggiore della 7500 in af.
E' una delle cose che si scopriranno.
Considerato che e' cosa assodata che il filtro AF del gf4 e' piu' pesante di quello delle ati 7500-8500-9000, e' stato anche assodato che queste ultime non lo applicano con la stessa qualita' anche se le differenze non sono notabili se non in casi particolari.
Ecco il fulcro della discussione dal mio punto di vista, se per te non c'entra un fico secco non so cosa dirti, e' quello che sostenevo in pvt riguardo il gf4 ed ora sul forum ho aggiunto la 9700pro visto che trovo tutto questo molto bizzarro.
Tu cosa c' entri? Primo non hai capito una mazza perchè metà del discorso tra me e cs25 è avvenuto in PVT poi impara a comportarti come si deve poi puoi parlare.
no AF =131,3
AF4x =122,9
AF8x =121.1
AF16x=120,3
questi sono i risultati della 7500 con quake3, (timedemo1 1024x768 tutto al max) fanne qualcuno con AF a 8x sulla tua ti 4400 per favore.
Originally posted by "pandyno"
Tu cosa c' entri? Primo non hai capito una mazza perchè metà del discorso tra me e cs25 è avvenuto in PVT poi impara a comportarti come si deve poi puoi parlare.
no AF =131,3
AF4x =122,9
AF8x =121.1
AF16x=120,3
questi sono i risultati della 7500 con quake3, (timedemo1 1024x768 tutto al max) fanne qualcuno con AF a 8x sulla tua ti 4400 per favore.
Quale versione di Quake3? I timedemo dopo la 1.25 cambiano (o era dopo la 1.17? mo' mi sfugge)
P.S. Concordo con Pandyno stavolta, NON immettiamo altre provocazioni, confrontiamo i dati, ok Jena?
P.P.S. Pandyno, please, io inserisco a pieno diritto la 9700pro nel confronto per il discorso sopracitato.
Originally posted by "CS25"
Perche' non c'entra? Perche' l'ho proposto io? Il discorso c'entra eccome, se la radeon7500 perde il 5-7% e il radeon9700pro perde il 20-25% *a parita' di qualita'*, o Ati ha fatto una 7500 eccezionale o una 9700pro peggiore della 7500 in af.
E' una delle cose che si scopriranno.
Considerato che e' cosa assodata che il filtro AF del gf4 e' piu' pesante di quello delle ati 7500-8500-9000, e' stato anche assodato che queste ultime non lo applicano con la stessa qualita' anche se le differenze non sono notabili se non in casi particolari.
Ecco il fulcro della discussione dal mio punto di vista, se per te non c'entra un fico secco non so cosa dirti, e' quello che sostenevo in pvt riguardo il gf4 ed ora sul forum ho aggiunto la 9700pro visto che trovo tutto questo molto bizzarro.
Si ma se ti ricordi il discorso è partito dalla ti cmq se vuoi includerlo ok come ti ho detto il discorso mi interessa e parecchio.
Il discorso del fico secco era riferito alle pure performance della 9700pro che è inimmaginabile arrivarci.
Originally posted by "CS25"
Quale versione di Quake3? I timedemo dopo la 1.25 cambiano (o era dopo la 1.17? mo' mi sfugge)
Parlavo con quel parassita di jena! :D versione demo timedemo01
Originally posted by "pandyno"
Si ma se ti ricordi il discorso è partito dalla ti cmq se vuoi includerlo ok come ti ho detto il discorso mi interessa e parecchio.
Il discorso del fico secco era riferito alle pure performance della 9700pro che è inimmaginabile arrivarci.
BTW mi e' APPENA impazzita la radeon, non mi applica piu' i refresh correttamente... mi tocca reinstallare tutti i driver :rolleyes:
Ma tutte a me capitano? :D
JENA PLISSKEN
15-01-2003, 14:48
Originally posted by "pandyno"
Parlavo con quel parassita di jena! :D versione demo timedemo01
Grazie x il PARASSITA...............detto da te è un COMPLIMENTO!! :D :D
E a me fa gli shoot di Q3 scurissimi nn si vede una cippa!! :eek: poi se alzo il brightness dal gioco me lo abbassa!!!!!!! :eek:
What the hell??
Originally posted by "JENA PLISSKEN"
Grazie x il PARASSITA...............detto da te è un COMPLIMENTO!! :D :D
Lo so! :D per una volta vedi di stare serio, anzi già che ci sei contribuisci pure tu! :) almeno risparmi a cs25 la fatica di organnizzarsi ;)
JENA PLISSKEN
15-01-2003, 14:53
Cmq se proprio ti interessa sulla mia 4400 si può utilizzare un 4x OTTIMIZZATO!!
INOLTRE.... ancora ancora con questa benedetta TIMEDEMO di Q3....mamma mia.........ma xkè NN RIESUMATE PONG x benchare!! :D
Non l' ho scelto io Q3 rileggiti la discussione
Originally posted by "pandyno"
Non l' ho scelto io Q3 rileggiti la discussione
Se volete cambiare gioco basta dirlo, ho tutto... :)
JENA PLISSKEN
15-01-2003, 15:00
Fatelo con UT........??
Ma per me è anche + semplice....
Cmq aprite una disussione o suggeritemi un titolo che andiamo li, siamo già andati abbastanza OT.....
TEORIA FINALE SULL' AF :D no fa troppo PSYCO.... :D
venite qui:
http://forum.hwupgrade.it/viewtopic.php?p=4203876#4203876
ok il titolo fa cagare lo ammetto :D
Originally posted by "pandyno"
è lo stesso prodotto ragazzi! ma io dico......ma che avete sti giorni?
la 400 aveva un core di 200mhz contro i 166 della liscia, le memorie erano clockate allo stesso modo 166, vantaggi nell' ordine dell' 1% cmq se per voi è superiore OK! :D
Ue ciccio....la MIA MX400...viaggia a 250/270.......... PARLIAMONE ! :D :D
Originally posted by "pandyno"
ASUS v7100pro? azz :D
Certo....e aggiungo ad aria e con il solo dissi modifcato con quello di un vecchio pentium :D 3200 e rotti punti 3Dk2001 su un duron 650....... MUHAHAHHA
Beh ti credo tutt' altra cosa! :D quella schedina dalle mie parti nn si trovava :(
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.