View Full Version : GeForce 7900 molto al disotto delle attese??!?!
DarKilleR
27-02-2006, 14:16
Riporto paro paro da Toms...
A quanto pare tutto il grosso hype che stava dietro alla 7900 GTX sembra essere infondato, in quanto a prestazioni doppie rispetto alla 7800 non c'è neanche l'ombra e non è superiore in tutto e per tutto alla X1900 XTX.
"TheInquirer torna a parlare della nuova serie di schede video nVidia, che sarà presentata ufficialmente al CeBIT di Hannover.
Secondo quanto riportato dal sito, i partner asiatici non sarebbero così contenti delle prestazioni della scheda di punta Geforce 7900 GTX. Molte aziende sono state già raggiunte dai sample e i primi test hanno rivelato un incremento, nei casi più felici, dell'8/10 % rispetto alla Geforce 7800 GTX 512.
Seguendo questo rumor le prestazioni della 7900 GTX sarebbero molto vicine a quelle della rivale ATi X1900 XTX, tuttavia si vocifera che potrebbero addirittura in molti casi essere inferiori. Probabilmente la soluzione di ATi manterrà il trono delle prestazioni con FSAA 4X FSAA e filtro anisotropico 8/16, tuttavia sono solo supposizioni.
Per la 7900 GT si parla invece di prestazioni simili all'attuale modello 7800 GTX 256.
Se questi risultati fossero confermati, la situazione high end non cambierebbe in modo sostanziale. Tuttavia il passaggio al processo produttivo a 90 nm potrebbe far di G71 un chip estremamente overcloccabile e, seguendo gli ultimi rumor, dal prezzo veramente allettante."
A voi la palla...comunque sarebbe ottimo una 7900 GT con le prestazioni di una 7800 256 GTX a 300€
yossarian
27-02-2006, 14:52
direi che è prematuro trarre qualsiasi conclusione. Se si trattasse di una semplice operazione di scaling, allora potrebbe avere buone prestazioni alle medie e basse risoluzioni, ma avrebbe difficoltà (anche più della GTX 512 MB) nel gestire le situazioni bandwidth limited. Se, invece, contenesse ottimizzazioni atte a gestire meglio il flusso di dati e le operazioni di texturing, sarebbe difficile fare valutazioni a priori.
ma quando verranno commercializzate in italia?
Da quello che ho potuto constatare dalle recensioni delle 7800 GTX 512, sono rimasto molto deluso, senza filtri sono imbattibili (o quasi) ma con, hanno un calo di prestazioni notevolissimo, e quello che non capisco io: uno che spende 750€ per una scheda video hi-end gioca senza filtri?
io se dovessi mai investire tutti quei soldi su una vga pretenderei il massimo della risoluzione e del dettaglio. Non di certo i record ai benchmark.
Ma poi ognuno è libero di pensarla come meglio crede, io aspetto l'uscita delle prossime schede nvdia per vedere che cosa si inventerà per trascinare ancora avanti la sua stra-nota architettura N40 ==> N47 ==> ??
Romeo D.
Concordo con yossarian. E' chiaramente prematuro, oltre che poco corretto nei confronti del prodotto stesso, fare una qualsiasi valutazione basandosi su rumours.
Anche ammesso che quanto dice The Inquirer sia vero, resta comunque da valutare il rapporto prezzo/prestazioni che resta il parametro più importante per l'acquirente finale.
Prezzo / prestazioni-qualita'. Quando si spende 650 anziche' 750 euro o viceversa la qualita' _deve_ diventare un parametro di scelta.
Si parlasse di schede budget capirei... :)
My 2 cents.
P.S. Certo che sarebbe strano un mero die shrink da parte di Nvidia in un momento tanto "caldo"...
Concordo con yossarian. E' chiaramente prematuro, oltre che poco corretto nei confronti del prodotto stesso, fare una qualsiasi valutazione basandosi su rumours.
Anche ammesso che quanto dice The Inquirer sia vero, resta comunque da valutare il rapporto prezzo/prestazioni che resta il parametro più importante per l'acquirente finale.
Quello che mi ha stupito e che c'è stata molta gente che ha acquistato una 7800 GTX 512 quando si sa che con i filtri al massimo diventa molto lenta, meglio a questo punto cambiare architettura. Penso.
ripeto: se io dovessi spendere tutta quella quantità di soldi ESIGO che la scheda mi possa permettere di giocare decentemente con tutti i filtri attivati (decentemente dico: 1280*960 AA MAX, AF MAX a 60FPS).
Sembra che la qualità non importi più a nessuno, solo i benchmark e il fillrate :)
Romeo D.
Skullcrusher
27-02-2006, 17:21
Vedremo quando uscirà....io sono molto tentato di prenderla, oppure nel caso si rivelasse "lenta", di prendere la x1900xtx...in qualsiasi caso, finchè non usciranno test ufficiali, mi pare inutile discuterne...
Piuttosto, non ho capito una cosa: esce la 7900GTX a 500 dollari e in contemporanea esce una 7900 con 2 gpu? Oppure nell'articolo fanno riferimento allo sli? Non mi è molto chiara come notizia... :confused:
DarKilleR
27-02-2006, 17:26
Certo va tutto preso con le pinze e con cautela, però la frase che mi ha colpito di più è questa....
Secondo quanto riportato dal sito, i partner asiatici non sarebbero così contenti delle prestazioni della scheda di punta Geforce 7900 GTX. Molte aziende sono state già raggiunte dai sample e i primi test hanno rivelato un incremento, nei casi più felici, dell'8/10 % rispetto alla Geforce 7800 GTX 512.
Quindi si tratta di test fatti su schede funzionanti e non sparati a naso...comunque la predica arriva da The Inquirer quindi non si sa mai :sofico: LOL
yos una domanda perchè dici questo?? Se si trattasse di una semplice operazione di scaling, allora potrebbe avere buone prestazioni alle medie e basse risoluzioni, ma avrebbe difficoltà (anche più della GTX 512 MB) nel gestire le situazioni bandwidth limited.
Perchè difficolta in più anche rispetto alla GTX 512?? Avrebbe comunque oltre 100 Mhz in più sulla GPU, ed avere ram a 1600 Mhz non dovrebbe portare quasi alcuna perdita rispetto ad avere ram a 1800 Mhz viste le 16 TMU (sempre se la 7900 ne ha 16).
Quello che mi ha stupito e che c'è stata molta gente che ha acquistato una 7800 GTX 512 quando si sa che con i filtri al massimo diventa molto lenta, meglio a questo punto cambiare architettura. Penso.
ripeto: se io dovessi spendere tutta quella quantità di soldi ESIGO che la scheda mi possa permettere di giocare decentemente con tutti i filtri attivati (decentemente dico: 1280*960 AA MAX, AF MAX a 60FPS).
Sembra che la qualità non importi più a nessuno, solo i benchmark e il fillrate :)
Romeo D.
Beh guarda, innanzitutto c'è da considerare che dall'uscita della 7800 GTX 512 all'uscita della X1900XTX sono passati poco più di due mesi e, anzi, immagino che chi ha acquistato la 7800 GTX 512 non immaginava un arrivo così precoce di R580 e tantomeno le sue prestazioni. Noi stessi non avevamo indicazioni in merito.
In ogni caso, ad esclusione di chi fa i suoi acquisti a modi tifo (per la serie compro "sempre e solo ATI" o "sempre e solo NVIDIA"), al momento del suo lancio la 7800 GTX 512 era effettivamente la scheda più veloce e le sue prestazioni erano (e lo sono ancora) ottime anche con i filtri. E' chiaro che per filtri intendo un antialiasing 4x, perché fino a quando NVIDIA non introdurrà un AA con + di 4 samples completamente multisampling, le prestazioni della modalità 8xS non potranno che essere deludenti per ovvii motivi tecnici. E' vero che anche in modalità a 4x l'impatto sulle prestazioni delle schede NVIDIA è tradizionalmente superiore a quello delle corrispondenti schede ATI, ma è anche vero che, nonostante l'utente all'acquisto pretenda di poter giocare con i filtri a palla dopo aver speso simili cifre, arriverà un giorno in cui i filtri non si potranno più usare (ad esempio Unreal Tournament 2007) ed ecco che la potenza bruta senza filtri ha la sua utilità.
Chiaro che questo discorso vale per chi fa un acquisto simile e lo mantiene nel tempo, non per chi lo vende all'uscita della nuova generazione di GPU.
E' vero che anche in modalità a 4x l'impatto sulle prestazioni delle schede NVIDIA è tradizionalmente superiore a quello delle corrispondenti schede ATI, ma è anche vero che, nonostante l'utente all'acquisto pretenda di poter giocare con i filtri a palla dopo aver speso simili cifre, arriverà un giorno in cui i filtri non si potranno più usare (ad esempio Unreal Tournament 2007) ed ecco che la potenza bruta senza filtri ha la sua utilità.
Dubito che la "potenza bruta" di nvidia e di G70, completamente basata sul pixel fillrate e sul multitexturing possa servire ai fini di un engine come si prospetta essere quello di UT2007. La presenza di shaders complessi e piu' lunghi potrebbe andare di nuovo a favorire l'architettura di R580. A dipendere inoltre di come verra' implementato l'HDR, potrebbe non essere utilizzabile su G70 (se ad esempio lo implementano con blending in fp16...)
Tutto cio', almeno per le poche informazioni che abbiamo al momento, potrebbe valere o non valere per G71 : dipende se Nvidia oltre alle frequenze ha anche previsto l'aggiunta di unita' di calcolo come Ati a fatto per R580 rispetto ad R520.
Continuo a rimanere dubbioso che G71 sia un mero die shrink...
potrebbe non essere utilizzabile su G70 (se ad esempio lo implementano con blending in fp16...)
Come no? Già da NV40 il blending in FP è supportato.
Come no? Già da NV40 il blending in FP è supportato.
Dj se leggi e quoti l'intera frase senza spezzarmela a meta' ( crudele :cry: ) ti accorgi che parlavo dell'HDR + Antialiasing. Se fatto con blending in FP16 NV40 e il diretto discendente G70 non possono applicare l'antialiasing per il fatto che l'unita' o fa l'uno o fa l'altro. Questa limitazione e' assente in R520 ed R580.
No sul serio, ok che sono le 19.15 e sono ancora in ufficio (sigh) ma nel tuo post non menzioni l'AA!!!
EDIT: Forse ti riallacciavi al discorso di Raffaele. Non ci ero arrivato :fagiano:
No sul serio, ok che sono le 19.15 e sono ancora in ufficio (sigh) ma nel tuo post non menzioni l'AA!!!
EDIT: Forse ti riallacciavi al discorso di Raffaele. Non ci ero arrivato :fagiano:
Effettivamente ho tenuto implicito che io stessi parlando dell'antialiasing per tutta la prima parte del post, mettiamola cosi' : siamo sul rincoglionito andante entrambi :D
Beh guarda, innanzitutto c'è da considerare che dall'uscita della 7800 GTX 512 all'uscita della X1900XTX sono passati poco più di due mesi e, anzi, immagino che chi ha acquistato la 7800 GTX 512 non immaginava un arrivo così precoce di R580 e tantomeno le sue prestazioni. Noi stessi non avevamo indicazioni in merito.
In ogni caso, ad esclusione di chi fa i suoi acquisti a modi tifo (per la serie compro "sempre e solo ATI" o "sempre e solo NVIDIA"), al momento del suo lancio la 7800 GTX 512 era effettivamente la scheda più veloce e le sue prestazioni erano (e lo sono ancora) ottime anche con i filtri. E' chiaro che per filtri intendo un antialiasing 4x, perché fino a quando NVIDIA non introdurrà un AA con + di 4 samples completamente multisampling, le prestazioni della modalità 8xS non potranno che essere deludenti per ovvii motivi tecnici. E' vero che anche in modalità a 4x l'impatto sulle prestazioni delle schede NVIDIA è tradizionalmente superiore a quello delle corrispondenti schede ATI, ma è anche vero che, nonostante l'utente all'acquisto pretenda di poter giocare con i filtri a palla dopo aver speso simili cifre, arriverà un giorno in cui i filtri non si potranno più usare (ad esempio Unreal Tournament 2007) ed ecco che la potenza bruta senza filtri ha la sua utilità.
Chiaro che questo discorso vale per chi fa un acquisto simile e lo mantiene nel tempo, non per chi lo vende all'uscita della nuova generazione di GPU.
Io vorrei fare solo una piccola considerazione: non tifo per nessuno, e per ultimo: se Nvidia mi mette a disposizione un filtro 8xS io lo tengo attivo e le prestazioni mi calano anche del 60%, bè non è un problema mio, lo togli e non me lo fai vedere, se l'Nvidia non è in grado di gestirlo che vada a cercare una alternativa, cambi architettura, non lo so. Basta che si trovi una soluzione valida. E' troppo semplice dire: le prestazioni della modalità 8xS non potranno che essere deludenti per ovvii motivi tecnici.
A me dei LORO problemi tecnici poco mi importa, io ribadisco: sono rimasto deluso parecchio dalla 7800 GTX 512, mi aspettavo qualcosa di meglio. Tutto qui :)
Romeo D.
Sia chiaro, non l'ho acquistata, ma ero ad un passo nel farlo.
Dubito che la "potenza bruta" di nvidia e di G70, completamente basata sul pixel fillrate e sul multitexturing possa servire ai fini di un engine come si prospetta essere quello di UT2007. La presenza di shaders complessi e piu' lunghi potrebbe andare di nuovo a favorire l'architettura di R580. A dipendere inoltre di come verra' implementato l'HDR, potrebbe non essere utilizzabile su G70 (se ad esempio lo implementano con blending in fp16...)
Tutto cio', almeno per le poche informazioni che abbiamo al momento, potrebbe valere o non valere per G71 : dipende se Nvidia oltre alle frequenze ha anche previsto l'aggiunta di unita' di calcolo come Ati a fatto per R580 rispetto ad R520.
Continuo a rimanere dubbioso che G71 sia un mero die shrink...
Beh quello che dici è vero, però riguardo l'HDR non penso esista un produttore abbastanza folle da implementarlo solo ed esclusivamente con antialiasing abilitato :) Già di per sè l'HDR è pesante, farlo solo con AA ha poco senso e riduce di molto la sua applicabilità in termini di parco macchine. Poi per sua natura ti assicuro che il lavoro grosso in un motore grafico è fare l'HDR. Aggiungergli l'AA è una banalità.
ma quando verranno commercializzate in italia?
:sofico:
Forse fine marzo, FORSE :D
Romeo D.
yossarian
27-02-2006, 22:02
yos una domanda perchè dici questo??
Perchè difficolta in più anche rispetto alla GTX 512?? Avrebbe comunque oltre 100 Mhz in più sulla GPU, ed avere ram a 1600 Mhz non dovrebbe portare quasi alcuna perdita rispetto ad avere ram a 1800 Mhz viste le 16 TMU (sempre se la 7900 ne ha 16).
proprio a causa della bandwidth: il rapporto banda/fillrate, scende da 6,5 a 4,9. Faccio una breve considerazione: il rapporto bandwidth/fillrate per la 7800 GTX era pari a circa 6,5; per la 512 MB si sono adoperate frequenze elevatissime (che pochi chip a 0,11 potevano reggere senza troppi problemi), per poter superare R520, ma per non ottenere crolli prestazionali alle alte risoluzioni e con i filtri, si sono adoperate ram da 1800 MHz che lasciavano inalterato il rapporto (6,51 per la 256 MB, 6,52 per la 512). Sembrerebbe evidente l'importanza di conservare un valore prossimo a 6,5 per l'indice di tale rapporto. Con una 7900 da 650 MHz con ram da 1600 MHz, il valore di questo indice subisce un calo molto netto; quindi, non solo vale il discorso sui valori relativi (la frequenza di clock del chip troppo elevata rispetto alla bandwidth), ma anche quello in senso assoluto (la banda della 7900 è inferiore a quella della 7800 512 MB). Alle alte risoluzioni, con filtri attivi, ci si trova spesso in situazioni di tipo bandwidth limited, piuttosto che fillrate limited.
La 7900 ha 16 rop's (a questo punto le 24 mi sempbrano utopistiche) ma 24 tmu
Effettivamente ho tenuto implicito che io stessi parlando dell'antialiasing per tutta la prima parte del post, mettiamola cosi' : siamo sul rincoglionito andante entrambi :D
ma bene; e io che contavo su uno di voi due come bastone per la vecchiaia :D
Beh quello che dici è vero, però riguardo l'HDR non penso esista un produttore abbastanza folle da implementarlo solo ed esclusivamente con antialiasing abilitato :) Già di per sè l'HDR è pesante, farlo solo con AA ha poco senso e riduce di molto la sua applicabilità in termini di parco macchine. Poi per sua natura ti assicuro che il lavoro grosso in un motore grafico è fare l'HDR. Aggiungergli l'AA è una banalità.
L'antialiasing e' attivabile o meno in ogni engine a meno che non porti problemi grafici (vedi i problemi che sorsero con Splinter Cell e il tipo di illuminazioni implementato che faceva a cazzotti col multisampling se implementato senza centroid sampling), idem per l'hdr.
Su quest'ultimo pero', in base a come viene abilitato, si lascia o non si lascia la possibilita' alle schede Nvidia di generazione NV40-G70 (G71?) di utilizzarlo in congiunzione con l'antialiasing, o alle schede basate R3xx - R4xx di attivarlo con o senza AA. Questa sorta di limitazioni sono del tutto assenti nella generazione attuale di R580. Se G71 come si "ipotizza" sia solo un die shrink (e non lo auguro a Nvidia, sono sempre contento se c'e' concorrenza, nel bene e nel male) allora si portera' dietro quella che a tutti gli effetti e' una limitazione.
Ora, per quanto io ritenga pesanterrimo UT2007, e' tutto da dimostrare che non siano utilizzabili AA ed HDR congiunti in esso, in quanto come ben sappiamo tra una generazione e l'altra oramai il salto prestazionale si aggira sul 30% effettivo.
Va da se che se scendesse sotto i 30 fps (soglia infima di giocabilita') su una X1900XT(x) o su una 7800GTX (512 mb) di sicuro non farebbe miracoli una scheda di generazione successiva a meno di raddoppiare seccamente le performance.
Cmq dotto' lo sai, stiamo disquisendo del sesso degli angeli, chi vivra' vedra' :)
Magari seguendo la falsariga dei titoli precedenti anche UT2007 sara' piu' "liscio" prestazionalmente di quello che sembra, che poi e' sempre stata la filosofia di Epic per gli fps frenetici da giocare online :)
ma bene; e io che contavo su uno di voi due come bastone per la vecchiaia :D
Fossi in te prenoterei un paio di stampelle :D
ma bene; e io che contavo su uno di voi due come bastone per la vecchiaia :D
:cry: :old: :sofico:
Vabe', faremo del nostro meglio, ma non ci abbandonareeeee :cry:
Tornando in topic... novita' nel vecchio crossbar memory controller di Nvidia potrebbero essere il dato che non abbiamo?
O che stia tenendo in serbo una 7900 ultra? Oramai e' la banfa del secolo, lo so, ma mi sembra _veramente_ strano che G71 sia una soluzione tanto poco ragionata...
yossarian
28-02-2006, 10:53
:cry: :old: :sofico:
Vabe', faremo del nostro meglio, ma non ci abbandonareeeee :cry:
Tornando in topic... novita' nel vecchio crossbar memory controller di Nvidia potrebbero essere il dato che non abbiamo?
O che stia tenendo in serbo una 7900 ultra? Oramai e' la banfa del secolo, lo so, ma mi sembra _veramente_ strano che G71 sia una soluzione tanto poco ragionata...
l'utilizzo di ram meno veloci rispetto alla versione da 512 MB della 7800, potrebbe anche indurre a pensare ad un nuovo memory controller, magari associato ad un ring bus (di quelli che adesso vanno tanto di moda; sai com'è..............R5x0, cell e via discorrendo :D ); altre cose su cui potrebbero essere intervenuti:
1) le operazioni di texturing, in cui G70, pur disponendo di un maggior numero di tmu, è meno efficiente nelle operazioni di texture fetch (anche a causa della non ottimale gestione nella circolazione dei dati); in tal caso potrebbero aver fatto ricorso a cache fully o set associative, anzichè a mappatura diretta, oppure aver ampliato le cache interne alle pipeline (L1 e L2)
2) dipendenza alu-tmu (potrebbero aver finalmente eliminato l'handicap che riduce la capacità matematica del chip, anche in maniera pesante, in presenza di contemporanee operazioni di texturing)
3) ortogonalità delle rop's (finalmente potrebbero aver reso possibile abilitare il MSAA in presenza di hdr, senza dover ricorrere a tecniche alternative)
4) normalizzazione a fp32 (oltre che a fp16)
5) miglioramento del circuito di db con utilizzo di batch di dimensioni inferiori
alcuni punti sono di difficile realizzazione, perchè prevedono una riorganizzazione delle operazioni e del flusso di dati all'interno del chip anche se, comunque, sarebbero auspicabili.
l'utilizzo di ram meno veloci rispetto alla versione da 512 MB della 7800, potrebbe anche indurre a pensare ad un nuovo memory controller, magari associato ad un ring bus (di quelli che adesso vanno tanto di moda; sai com'è..............R5x0, cell e via discorrendo :D ); altre cose su cui potrebbero essere intervenuti:
1) le operazioni di texturing, in cui G70, pur disponendo di un maggior numero di tmu, è meno efficiente nelle operazioni di texture fetch (anche a causa della non ottimale gestione nella circolazione dei dati); in tal caso potrebbero aver fatto ricorso a cache fully o set associative, anzichè a mappatura diretta, oppure aver ampliato le cache interne alle pipeline (L1 e L2)
2) dipendenza alu-tmu (potrebbero aver finalmente eliminato l'handicap che riduce la capacità matematica del chip, anche in maniera pesante, in presenza di contemporanee operazioni di texturing)
3) ortogonalità delle rop's (finalmente potrebbero aver reso possibile abilitare il MSAA in presenza di hdr, senza dover ricorrere a tecniche alternative)
4) normalizzazione a fp32 (oltre che a fp16)
5) miglioramento del circuito di db con utilizzo di batch di dimensioni inferiori
Conoscendo la filosofia dei quad di G70,mutuata da NV40, ho la netta sensazione che i punti 2-3 siano quelli in assoluto meno probabili, se non addirittura impossibili.
Dubito fortemente Nvidia sia in grado di inserire un ring bus, complicato, in un hw che a priori neanche lo prevedeva, di conseguenza impreparato alle sue prerogative.
In ogni caso, manca cosi' poco che oramai dovrebbe letteralmente pioverci addosso 'sto g71 :)
secondo me sarà solo uno shrink, se avrà qualche ottimizzazione sarà molto marginale, nulla di rivoluzionario.
L'antialiasing e' attivabile o meno in ogni engine a meno che non porti problemi grafici (vedi i problemi che sorsero con Splinter Cell e il tipo di illuminazioni implementato che faceva a cazzotti col multisampling se implementato senza centroid sampling), idem per l'hdr.
Su quest'ultimo pero', in base a come viene abilitato, si lascia o non si lascia la possibilita' alle schede Nvidia di generazione NV40-G70 (G71?) di utilizzarlo in congiunzione con l'antialiasing, o alle schede basate R3xx - R4xx di attivarlo con o senza AA. Questa sorta di limitazioni sono del tutto assenti nella generazione attuale di R580. Se G71 come si "ipotizza" sia solo un die shrink (e non lo auguro a Nvidia, sono sempre contento se c'e' concorrenza, nel bene e nel male) allora si portera' dietro quella che a tutti gli effetti e' una limitazione.
Ora, per quanto io ritenga pesanterrimo UT2007, e' tutto da dimostrare che non siano utilizzabili AA ed HDR congiunti in esso, in quanto come ben sappiamo tra una generazione e l'altra oramai il salto prestazionale si aggira sul 30% effettivo.
Va da se che se scendesse sotto i 30 fps (soglia infima di giocabilita') su una X1900XT(x) o su una 7800GTX (512 mb) di sicuro non farebbe miracoli una scheda di generazione successiva a meno di raddoppiare seccamente le performance.
Cmq dotto' lo sai, stiamo disquisendo del sesso degli angeli, chi vivra' vedra' :)
Magari seguendo la falsariga dei titoli precedenti anche UT2007 sara' piu' "liscio" prestazionalmente di quello che sembra, che poi e' sempre stata la filosofia di Epic per gli fps frenetici da giocare online :)
D'accordo. Quello che tenevo a precisare è che indipendentemente da G71, è estremamente improbabile che arriveranno giochi con i quali l'HDR non sarà attivabile su schede NV40 o superiori perché disponibile solo in congiunzione con l'AA.
D'accordo. Quello che tenevo a precisare è che indipendentemente da G71, è estremamente improbabile che arriveranno giochi con i quali l'HDR non sarà attivabile su schede NV40 o superiori perché disponibile solo in congiunzione con l'AA.
Beh anche perche' non avrebbe senso :)
Piuttosto, ti giro la palla e ti faccio una domanda : tra le varie ipotesi fatte da yoss, me ed altri, tu cosa ritieni piu' probabile riguardo G71? Ovviamente se gia' siete in possesso di un sample e siete sotto NDA, lascia cadere la domanda :)
Beh anche perche' non avrebbe senso :)
Piuttosto, ti giro la palla e ti faccio una domanda : tra le varie ipotesi fatte da yoss, me ed altri, tu cosa ritieni piu' probabile riguardo G71? Ovviamente se gia' siete in possesso di un sample e siete sotto NDA, lascia cadere la domanda :)
Lascio cadere la domanda :D
Lascio cadere la domanda :D
Marrano :D
Ok segnati la mia teoria : die shrink e aggiunta di unita' di calcolo in stile R580, se vinco mi offri una birra, se vinci te ne offro una io se ci facciamo una sbevazzata in 3 col buon swarzy se capitiamo tutti a Roma contemporaneamente :)
Marrano :D
Ok segnati la mia teoria : die shrink e aggiunta di unita' di calcolo in stile R580, se vinco mi offri una birra, se vinci te ne offro una io se ci facciamo una sbevazzata in 3 col buon swarzy se capitiamo tutti a Roma contemporaneamente :)
Beh ma io sono avvantaggiato, non è un confronto equo. Comunque sono sempre disponibile per un birra io :D A Roma vengo ogni tanto: ci lavora mia sorella.
P.S. Scusate OT.
Beh ma io sono avvantaggiato, non è un confronto equo. Comunque sono sempre disponibile per un birra io :D A Roma vengo ogni tanto: ci lavora mia sorella.
P.S. Scusate OT.
Chiudo l'OT : quando scade l'NDA? (se si puo' sapere ovviamente!)
Volevo chiarire un punto riguardo alle schede video del settore high end, ora tutti voi che avete acquistato una scheda di fascia alta ovvero quel segmento di mercato che assorbe 7% del mercato totale vga, non si è mai posto la domanda di chi veramente assembla queste vga?
Perché nelle riviste del settore non si approfondisce mai questo discorso, la soluzione è più semplice del previsto, 80% le aziende brand compera queste vga da terzi assemblatori che poi marchiano con il loro nome, quante volte ho visto vga su cui si notava sotto l’adesivo principale, il vecchio adesivo del fornitore…. Questo accade perché per un’azienda, installare una linea produttiva solo per una vga, di cui si venderanno poche decine di migliaia di pezzi, è un’operazione troppo costosa, allora si demanda ad un terzo produttore oem per reperire il prodotto, le vga 7800gtx512 sono "diventate fantasma" proprio perché il produttore era uno solo è tutti dovevano attingere ad un'unica fonte….
Voi messi nei loro panni cosa avreste fatto? Avreste speso milioni per produrre vga che ormai vendono solo per qualche mese?
Da quanto non vedete vga high end con interpretazioni diverse del pcb dalla line up sample?
Ormai le vga high end sono tutti cloni di loro stessi, qualunque marca sono…..
Riagganciandomi al discorso 7900, era molto prevedibile, che nvidia non avrebbe prodotto un chip ex novo in cosi poco tempo, ma una semplice miglioria dello stesso, dobbiamo considerare l’arrivo delle DX10 e delle texture uniche come gia comunicato da john carmack, l’ausilio di queste nuove applicazioni, porterà il livello di dettaglio dei futuri video games, a livelli inimmaginabili, ma allo stato attuale, non ci sono ancora vga certificate al 100% dx10, dunque questo spiega il perché di una 7900 solo cosi per dire riveduta è corretta, se io fossi stato l’amministratore di nvidia avrei optato proprio per le sue stese scelte, fornendo una gpu 7900 con ottime caratteristiche, e attaccando il nemico nel suo punto più debole, proprio sul margine di profitto abbassando i prezzi di lancio aumentando la concorrenza, e nello stesso tempo mi sarei concentrato nello sviluppare una nuova gpu che supporterà in pieno il nuovo sistema operativo è le nuove routine grafiche.
Un saluto a tutti è buon lavoro… :p
Questo accade perché per un’azienda, installare una linea produttiva solo per una vga, di cui si venderanno poche decine di migliaia di pezzi, è un’operazione troppo costosa, allora si demanda ad un terzo produttore oem per reperire il prodotto, le vga 7800gtx512 sono "diventate fantasma" proprio perché il produttore era uno solo è tutti dovevano attingere ad un'unica fonte….
Se e' per questo, facciamo i nomi : la maggior parte delle schede le produce MSI.
Il caso della 7800gtx 512mb e' differente e rasenta il paradossale : la scheda e' stata prodotta in pochissimi esemplari ed ora e' difficilmente reperibile se non a prezzi MOSTRUOSI. Oltretutto e' anche stata superata prestazionalmente dalle X1900, che costa pure meno, di conseguenza abbiamo assistito ad una meteora, seppur architetturalmente valida, dalla vita piu' breve perfino della mai digerita FX 5800 Ultra.
Voi messi nei loro panni cosa avreste fatto? Avreste speso milioni per produrre vga che ormai vendono solo per qualche mese?
Da quanto non vedete vga high end con interpretazioni diverse del pcb dalla line up sample?
Ormai le vga high end sono tutti cloni di loro stessi, qualunque marca sono…..
Questo discorso e' complicato. La 7800 GTX 512 mb era antieconomica praticamente per tutti, il suo lancio serviva solo a mantenere la corona "virtuale" velocistica, necessaria a trainare tutte le schede nelle fasce sottostanti sotto il falso credo de "Se la scheda di punta e' piu' veloce, allora sono tutte meglio quelle dello stesso marchio".
Solo che se tu produttore dici a Nvidia "No, la gtx 512 mb non te la commercializzo" di certo non ci fai una gran bella figura... non mi permetto di discutere quali siano le condizioni tra essa e i vari marchi... ma se e' una filosofia ferrea come quella che anni fa impediva di commercializzare altre gpu oltre le proprie (rientrata grazie alle spallate di asus / msi europa ed asus / msi Asia che hanno infranto il dictat vendendo in un mercato Ati e nell'altro Nvidia...) magari si corre il rischio di perdere il "treno".
Tutte speculazioni ovviamente le mie, sebbene basate su piccoli indizi ;)
halduemilauno
01-03-2006, 10:30
http://www.theinquirer.net/?article=29983
prezzi. 492€ per la 7900gtx. 293€ per la 7900gt e 197€ per la 7600gt.
aspettiamo.
;)
http://www.theinquirer.net/?article=29983
prezzi. 492€ per la 7900gtx. 293€ per la 7900gt e 197€ per la 7600gt.
aspettiamo.
;)
Ciao hal :)
They listed GeForce 7900 GTX Gigabyte 512MB ViVO & DVI (PCI-E) with a product number, GRGF79GTXGANX79X512VB for 3100 Polish Zloty, approx €821
Questo SI che e' allucinante, signori ci si avvicina alla soglia dei MILLE euro!
halduemilauno
01-03-2006, 10:51
Ciao hal :)
Questo SI che e' allucinante, signori ci si avvicina alla soglia dei MILLE euro!
Ciao.
:)
DarKilleR
01-03-2006, 14:09
può essere che nVidia e ATI si lanceranno in una guerra serrata ai prezzi con un notevole guadagno da parte nostra.
Daltronde ATI si è potuta permettere di tenere i prezzi delle X1900 XTX poco sotto i 700€ proprio perchè le 7800 GTX 512 costavano di più ed andavano meno, con un notevole guadagno %.
Credo che ATI possa fare una mossa del tipo posizionare le X1600 sui 130€, le X1800 un riposizionamento verso il basso nella fascia media, con una X1800 GTO particolarmente competitiva, e poi seguire a ruota l'abbassamento generale dei prezzi fatto anche da nVidia.
Via in estate si potrà cambiare PC LOL ^^
Sembra proprio che ATI riuscirà mantenere il suo nuovo mostro al top delle schede video di fascia alta.
Certo che se i prezzi delle 7900 dovessero corrispondere a realtà, assisteremo ad una riduzione dei prezzi generale che ci farà solo che bene :D
...da oggi le X1800XL sono in vendita in Italia a 299€...mi sa che ci sarà un generale abbassamento dei prezzi.
...ciao!
Athlon 64 3000+
01-03-2006, 16:59
come dico ormai sempre per dare un primo giudizio definitivo della 7900GTX e 7900GT bisognerà aspettare il 9 marzo e per vedere come andranno nei contronti delle X1900XT e XTX.
Athlon 64 3000+
01-03-2006, 17:00
...da oggi le X1800XL sono in vendita in Italia a 299€...mi sa che ci sarà un generale abbassamento dei prezzi.
...ciao!
A quel prezzo per me la X1800XL è preferibile sia alla 7800GT che 7800GTX per via delle sue ottime prestazioni e sopratutto per la sua ottima qualità d'immagine.
...da oggi le X1800XL sono in vendita in Italia a 299€...mi sa che ci sarà un generale abbassamento dei prezzi.
...ciao!
Sempre troppo se consideriamo che la 7900GT costerà uguale e sembra sarà potente come una 7800GTX (che se la giocava con la sorella maggiore della xl).
EVGA GF7800GTX Black Pearl 946,68€
Questo è ancora più allucinante :eek: :eek: :eek:
EVGA GF7800GTX Black Pearl 946,68€
Questo è ancora più allucinante :eek: :eek: :eek:
:muro:
A quanto pare i 1000 euro sono piu' vicini di quello che sembra.... mi auguro di cuore che rimangano tutte sugli scaffali.
EVGA GF7800GTX Black Pearl 946,68€
Questo è ancora più allucinante :eek: :eek: :eek:
non è una novita quella scheda esiste da parecchio è la versione con raffreddamento a liquido e se vuoi ti dico anche dove costa 1150€ ma ti posso anche dire dove costa 800€ così come ti posso dire dove si trovano le x1900xtx sopra gli 800€ io sarò "cattivo" ma non vedo il problema se c'è qualche "fesso" che compra quelle schede a quei prezzi affaracci suoi...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.