View Full Version : G71: 32 pipeline e 16 ROPs per la nuova architettura NVIDIA
Redazione di Hardware Upg
30-12-2005, 08:56
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16080.html
Il debutto della prossima generazione di schede video top di gamma NVIDIA si avvicina, parallelamente al debutto delle soluzioni concorrenti R580 di ATI
Click sul link per visualizzare la notizia.
tisserand
30-12-2005, 09:00
Quando finirà questa continua rincorsa? I consumatori medi sono sempre più spaesati da sigle, tecnologie che si ripetono e che producono soli pochi vantaggi rispetto al momento precedente, ecc.
Due strade differenti quindi. Ma allora è meglio avere più pipeline o 48 schader process unit ? ne và a discapito della qualità o della volictà ?
webmaster22wright
30-12-2005, 09:04
Quando finirà questa continua rincorsa? I consumatori medi sono sempre più spaesati da sigle, tecnologie che si ripetono e che producono soli pochi vantaggi rispetto al momento precedente, ecc.
Mai finchè ci sarà gente che spende 700€ per una scheda che non va molto di più della parente stretta da 300 e che dopo 3 mesi diventa obsoleta.
Megasoft
30-12-2005, 09:10
Ma vedete che non vi capisco...Secondo voi è meglio un monopolio in cui le schede video avrebbero una crescita in potenza praticamente a ZERO?
Dal canto mio apprezzo questa concorrenza fra ATI e nVidia, non fa altro che portare buoni prodotti nelle nostre case (e fa abbassare i prezzi dei vecchi pezzi :D)
Bluknigth
30-12-2005, 09:11
Ati regina dei bench sotto il 1600x1200 e Nvidia sopra.
In effetti oggi come oggi le schede di fascia alta gestiscono già un numero di pixel vertiginoso, i problemi nascono quando vengono applicati filtri.
Personalmente ritengo nel breve periodo più furba la strada di ATI.
1600x1200 a 60 fotogrammi al minuto con tutti i filtri attivati mi sembrerebbe già il top.
Piuttosto spero che implementino qualche altra funzione (calcolo fisico, aiuti nella compressione e decodifica tipo AVIVO)
Sono pronto ad essere contraddetto dai fatti.
webmaster22wright
30-12-2005, 09:13
Ma vedete che non vi capisco...Secondo voi è meglio un monopolio in cui le schede video avrebbero una crescita in potenza praticamente a ZERO?
Dal canto mio apprezzo questa concorrenza fra ATI e nVidia, non fa altro che portare buoni prodotti nelle nostre case (e fa abbassare i prezzi dei vecchi pezzi :D)
Io non ho detto questo assolutamente ben venga la concorrenza e ben venga la crescita tecnologica, quello che voglio dire è che fare uscire ogni 3/4 mesi una generazione nuova(che ha le stesse tecnologie della precedente semplicemente più esasperate) è inutile, molto megio sarebbe rinnovare le schede una volta all'anno con delle novità tecnologiche significative.
MaxFun73
30-12-2005, 09:14
Personalmente ritengo nel breve periodo più furba la strada di ATI.
1600x1200 a 60 fotogrammi al minuto con tutti i filtri attivati mi sembrerebbe già il top.
Beh.. magari al secondo :D
tisserand
30-12-2005, 09:21
Sono concorde con webmaster22 in quanto con la mia precedente intendevo dire esattamente questo e cioè che non c'è alcuna utilità per i consumatori da questo continuo sfornare schede che non apportano che centesimi di innovazioni nella migliore delle ipotesi. Anzi si trovano sempre più spaesati dal fiorire di sigle e codici vari e per i meno attenti spesso questa confusione si traduce in pessima scelta.
Poi ben vengano i progressi tecnici purchè siano reali e tangibili anche in termini di portafoglio.
Quando finirà questa continua rincorsa? I consumatori medi sono sempre più spaesati da sigle, tecnologie che si ripetono e che producono soli pochi vantaggi rispetto al momento precedente, ecc.
Mi sà che ti stai confondendo con la 7800gtx 512MB e la X1800XT. :rolleyes:
La 7800gtx è uscita a giuno e dal suo predecessore,NV40 ha avuto una grande evoluzione.
http://www.hwupgrade.it/articoli/skvideo/1311/2.html
Stessa cosa x la X1800XT che purtroppo ha avuto la sfortuna di uscire in ritardo ma che a giugno era già bello che progettato.
http://www.hwupgrade.it/articoli/skvideo/1361/index.html
Si è vero che di sv ne escono di nuove ogni 10 mesi (lasciamo stare la 7800 da 512 che è stata un'edizione futile quanto i calzini di lana in estate :D ,senza offese ma 700 euri mi pare troppo azzardato).
Ma cerchiamo di vedere anche un'altra cosa.
in quel lasso di tempo ti hanno inserito dall' NV40 al G70 , 80 milioni di di transistor, 8 pipeline in più e un processo da 0.13 a 0.11 micron. Scusate se è poco in 10 mesi. :rolleyes:
Io non ho detto questo assolutamente ben venga la concorrenza e ben venga la crescita tecnologica, quello che voglio dire è che fare uscire ogni 3/4 mesi una generazione nuova(che ha le stesse tecnologie della precedente semplicemente più esasperate) è inutile, molto megio sarebbe rinnovare le schede una volta all'anno con delle novità tecnologiche significative.
la 7800GTX è uscita a giugno.
mi pare che siano ben più di 3-4 mesi. o sbaglio?
wolfnyght
30-12-2005, 09:32
sono curioso di veder quale delle 2 strade porterà prestazioni migliori!
ed intanto continuo a sognare una 7800gs agp.........oppure una x1800xl agp.........
speriamo ed incrociamo le dita!
comunque sia ora come ora credo che le 6800gt ed ultra (ormai nella fascia media)subiranno un'altro tracollo di prezzo!
e comunque sia son ottime vga!
meglio molto meglio delle fascie medie odierne!
bhe mica è detto che perchè lanciano una vga nuova quelle più vecchie diventino delle ciofeche?
anzi alla fine chi ci guadagna son gli utenti che han i soliti 200 250 euri da spendere..........
certo, sono passati + di 3/4 mesi, ma le schede di fascia media e bassa basate su quel progetto dove sono?
che percentuale di vendita ricoprono queste due fasce rispetto a quella alta? penso che siano preponderanti, però novità in questi settori sono dati col contagocce (rispetto alla fascia alta, si intende).
Per questo mi appare sempre + come un'operazione di marketing piuttosto che di veri vantaggi per i consumatori delle fasce medio-basse
certo, sono passati + di 3/4 mesi, ma le schede di fascia media e bassa basate su quel progetto dove sono?
che percentuale di vendita ricoprono queste due fasce rispetto a quella alta? penso che siano preponderanti, però novità in questi settori sono dati col contagocce (rispetto alla fascia alta, si intende).
Per questo mi appare sempre + come un'operazione di marketing piuttosto che di veri vantaggi per i consumatori delle fasce medio-basse
su questo ti do' ragione. Pare che della serie 7 non ci siano schede medium level. Come lo fu stato per le precedenti.
Gerardo Emanuele Giorgio
30-12-2005, 09:39
Mah sinceramente data la natura modulare dei sistemi digitali ho l'impressione che ATI e NVIDIA si limitino a fare varie combinazioni di copia e incolla in applicazioni CAD. Un modello ha 16 pipe e 48 shader, un altro 32 e 16 e cosi via in base alla fantasia di chi dirige. In tal caso la corsa non finirà mai. Non costa nulla cliccare con i mouse. Si tratta solo di modificare le mask per la fase di produzione. I costi maggiori, si sa, sono in fase di ingegnerizzazione e di stesura dei layout dei singoli sottosistemi.
Ben venga per chi vuol spendere 200 euro dico io...
Mah sinceramente data la natura modulare dei sistemi digitali ho l'impressione che ATI e NVIDIA si limitino a fare varie combinazioni di copia e incolla in applicazioni CAD. Un modello ha 16 pipe e 48 shader, un altro 32 e 16 e cosi via in base alla fantasia di chi dirige. In tal caso la corsa non finirà mai. Non costa nulla cliccare con i mouse. Si tratta solo di modificare le mask per la fase di produzione. I costi maggiori, si sa, sono in fase di ingegnerizzazione e di stesura dei layout dei singoli sottosistemi.
Ben venga per chi vuol spendere 200 euro dico io...ù
Secondo mè non un discorso di progettare su carta ,ma di mettere in pratica.
le gpu sono molto più raffinate rispetto ad un'architettura di una cpu dove quest'ultima deve anche essere in grado di processare ogni tipo di dato,video audio ecc. Si possono accorgere di aver sbagliato solo durante la fase di fabbricazione
Se fosse come dici ATI non avrebbe dovuto avere problemi con R520.
halduemilauno
30-12-2005, 09:46
Mi sà che ti stai confondendo con la 7800gtx 512MB e la X1800XT. :rolleyes:
La 7800gtx è uscita a giuno e dal suo predecessore,NV40 ha avuto una grande evoluzione.
http://www.hwupgrade.it/articoli/skvideo/1311/2.html
Stessa cosa x la X1800XT che purtroppo ha avuto la sfortuna di uscire in ritardo ma che a giugno era già bello che progettato.
http://www.hwupgrade.it/articoli/skvideo/1361/index.html
Si è vero che di sv ne escono di nuove ogni 10 mesi (lasciamo stare la 7800 da 512 che è stata un'edizione futile quanto i calzini di lana in estate :D ,senza offese ma 700 euri mi pare troppo azzardato).
Ma cerchiamo di vedere anche un'altra cosa.
in quel lasso di tempo ti hanno inserito dall' NV40 al G70 , 80 milioni di di transistor, 8 pipeline in più e un processo da 0.13 a 0.11 micron. Scusate se è poco in 10 mesi. :rolleyes:
e pensare che quella è la vera 7800. quella pensata fin dall'inizio.
Certo. ma Nvidia l'ha fatto apposta. Ha aspettato l'uscita dell'R520. E in ogni caso parliamo di un incremento del 25% ma con GDDR3 che a giugno avrebbe fatto schizzare la scheda da 512MB non a 700 euri ma a 900 euri. . Quando il modello da 256 poteva cmq bastare.
edit..... il discorso delle GDDR3 da 1700mhz è che allora erano degli esemplari costosi.
Foglia Morta
30-12-2005, 09:50
e pensare che quella è la vera 7800. quella pensata fin dall'inizio.
si vede che voleva anche produrle le schede :D
halduemilauno
30-12-2005, 09:51
Certo. ma Nvidia l'ha fatto apposta. Ha aspettato l'uscita dell'R520. E in ogni caso parliamo di un incremento del 25% ma con GDDR3 che a giugno avrebbe fatto schizzare la scheda da 512MB non a 700 euri ma a 900 euri. . Quando il modello da 256 poteva cmq bastare.
e tutto questo tu lo stai dicendo a me?
DarKilleR
30-12-2005, 09:51
interessante il fatto che vengono lasciate le 16 rop's....praticamente a nVidia hanno potenziato dove la scheda video era già ai massimi livelli e lasciato il loro punto debole....
Come dire ho una macchina di formula 1 dove devo sistemare le sospenzioni e mettere nuove gomme per migliorare la tenuta in curva (quando nel rettilineo va fortissimo), e mi ci mettono un motore con 80 cv in +...(ora qui è un po' esagerato, se faccio una cosa del genere il pilota muore ^^ )
Su cosa è meglio 48 shader o 32 pixel pipeline non so, andrebbe chiesto a chi i videogiochi li fa :P FEK???? :)
per le frequenze non credo che possano salire molto di più dell'attuale 7800 GTX512 (visto che questa è un G70 strapompato..più che altro lavora a volt un po' più alti di quelli nominali ottenendo veramente ottimi risultati). Tenendo l'architettura dell'attuale G70 ma con 8 pipeline in + (32)...le frequenze bene o male credo resteranno sempre sui 550 Mhz
e tutto questo tu lo stai dicendo a me?
non capisco cosa vuoi dire?
tolgo il quote per non fraintendere
ken Falco
30-12-2005, 09:54
mah qua mi sembra che le uniche prestazioni che avanzano sono le scritte sulle scatole delle vga ... troooppo lente queste gpu altro che legge di moore .... qua al limite c è la legge dell early adopter piu cazzate ti scrivono nella scatolozza piu comprano -.. secondo me cambiano solo le scatole le vga son sempre quelle fin dal 98 .. beh sempre meglio che quelle che mettono nelle console almeno pfiu
halduemilauno
30-12-2005, 09:57
non capisco cosa vuoi dire?
tolgo il quote per non fraintendere
che quelle cose le stai dicendo ad uno che le sapeva gia prima che uscisse la 7800gtx 256 a giugno. ben prima.
Foglia Morta
30-12-2005, 09:59
interessante il fatto che vengono lasciate le 16 rop's....praticamente a nVidia hanno potenziato dove la scheda video era già ai massimi livelli e lasciato il loro punto debole....
Come dire ho una macchina di formula 1 dove devo sistemare le sospenzioni e mettere nuove gomme per migliorare la tenuta in curva (quando nel rettilineo va fortissimo), e mi ci mettono un motore con 80 cv in +...(ora qui è un po' esagerato, se faccio una cosa del genere il pilota muore ^^ )
Su cosa è meglio 48 shader o 32 pixel pipeline non so, andrebbe chiesto a chi i videogiochi li fa :P FEK???? :)
per le frequenze non credo che possano salire molto di più dell'attuale 7800 GTX512 (visto che questa è un G70 strapompato..più che altro lavora a volt un po' più alti di quelli nominali ottenendo veramente ottimi risultati). Tenendo l'architettura dell'attuale G70 ma con 8 pipeline in + (32)...le frequenze bene o male credo resteranno sempre sui 550 Mhz
io mi ero fatto l idea che sarebbero state sprecate 24 rop's con 24 pipe , ora con 32 pare grossa la sproporzione ,ma bisognerà vedere la scheda all opera :)
halduemilauno
30-12-2005, 10:01
interessante il fatto che vengono lasciate le 16 rop's....praticamente a nVidia hanno potenziato dove la scheda video era già ai massimi livelli e lasciato il loro punto debole....
Come dire ho una macchina di formula 1 dove devo sistemare le sospenzioni e mettere nuove gomme per migliorare la tenuta in curva (quando nel rettilineo va fortissimo), e mi ci mettono un motore con 80 cv in +...(ora qui è un po' esagerato, se faccio una cosa del genere il pilota muore ^^ )
Su cosa è meglio 48 shader o 32 pixel pipeline non so, andrebbe chiesto a chi i videogiochi li fa :P FEK???? :)
per le frequenze non credo che possano salire molto di più dell'attuale 7800 GTX512 (visto che questa è un G70 strapompato..più che altro lavora a volt un po' più alti di quelli nominali ottenendo veramente ottimi risultati). Tenendo l'architettura dell'attuale G70 ma con 8 pipeline in + (32)...le frequenze bene o male credo resteranno sempre sui 550 Mhz
ma ti pare che non mettono mano alla frequenza del core?
;)
Tuvok-LuR-
30-12-2005, 10:02
la solita sparata di the inquirer...
Sono molto contento di questa rincorsa fra nvidia e ati, il loro duello è sempre più affascinate!! Per quanto riguarda l'utilità bisogna dire che il problema stà nel software palesemente impossibilitato a stare dietro a questo continua rincorsa tecnologica.
Probabilmente usciranno giochi in grado di sfruttare tutta questa potenza solo tra 2 anni quando queste schede saranno obsolete.
aspetto ati con la versione della x1800xt con 24 pipe e tutto si pareggerà nuovamente!!
che quelle cose le stai dicendo ad uno che le sapeva gia prima che uscisse la 7800gtx 256 a giugno. ben prima.
appunto ho tolto il quote per non fraintedere. In ogni caso non sono un mago che posso sapere cosa una persona sà o non sà.
webmaster22wright
30-12-2005, 10:09
la 7800GTX è uscita a giugno.
mi pare che siano ben più di 3-4 mesi. o sbaglio?
Si ma non c'è stato nè un travaso tecnologico verso soluzioni inferiori nè un arretramento tangibile dei prezzi.
ErminioF
30-12-2005, 10:11
Mah...il problema non sono le nuove schede, perchè da un lato abbassano i prezzi del nuovo, ma dall'altro svalutano pesantemente quelle già in (nostro) possesso da vendere, semmai è il software che su pc dovrà tenere conto di schede con 8 pipeline e 4 rops, o 16 e 8, o 16 e 48...insomma vedo sempre meno ottimizzazione e più "adattamenti" alla buona, a meno di non scrivere 3-4 codici da 0, cosa impossibile :)
oltretutto se io fossi una software house ottimizzerei i videogiochi per girare degnamente sulla fascia media del mercato altrimenti ne venderei veramente pochi...
Si ma non c'è stato nè un travaso tecnologico verso soluzioni inferiori nè un arretramento tangibile dei prezzi.
Penso che sia dovuto al fatto che non abbiano fatto schede entry e medium level. il guadagno lo hanno solo sulla 7800gtx e 7800gt. per quenato riguarda la settima generazione intendo.
Mah...il problema non sono le nuove schede, perchè da un lato abbassano i prezzi del nuovo, ma dall'altro svalutano pesantemente quelle già in (nostro) possesso da vendere, semmai è il software che su pc dovrà tenere conto di schede con 8 pipeline e 4 rops, o 16 e 8, o 16 e 48...insomma vedo sempre meno ottimizzazione e più "adattamenti" alla buona, a meno di non scrivere 3-4 codici da 0, cosa impossibile :)
anche questo è vero. Cavoli, ora che mi ci fai pensare. Non è detto che un gioco sfrutti a pieno le pipeline e i filtri delle sv. Come i dual core di ora ,senza un adeguata riscrittura di un codice non lo si sfrutta.
Mannaggia.... :doh: . La potenza non è tutto senza il controllo.
Sawato Onizuka
30-12-2005, 10:22
oltretutto se io fossi una software house ottimizzerei i videogiochi per girare degnamente sulla fascia media del mercato altrimenti ne venderei veramente pochi...
:nono: peccato che talvolta le SH sono anche ben sponsorizzate dai produttori di hardware stessi, quindi gli forniscono macchine adeguate a sviluppare il gioco senza problemi e gli fanno qualche discorsetto di marketing :asd:
quindi lo sviluppatore si trova con il fiato sul collo dei produttori da un lato e dall'altro cercare di fare il miglior lavoro nel minor tempo possibile [vedi ritardi di lancio]
Io mi terrò ben stretta la mia 6800gt almeno fino al 2007, e sono sicuro che giocherò al massimo dettaglio magari abbassando qualche filtro. Apetto le schede wf10
ok ma a tutto c'è un limite perchè se poi di quel gioco ne vendi 1000 copie....voglio vedere dove se lo mettono il loro discorsino di marketing.
A mio parere i titoli a cui ti riferisci saranno il 5%
Io mi terrò ben stretta la mia 6800gt almeno fino al 2007, e sono sicuro che giocherò al massimo dettaglio magari abbassando qualche filtro. Apetto le schede wf10
Se non fosse per i prosimi giochi che sfruttano UE3 o altri che saranno alquanto pesantucci (Oblivion,Gothic 3, Prey , UT2k7 si parla di giugno) ti darei ragione. QUesti ultimi giochi usciranno prima della metà del 2006.
penso che nel 2006 usciranno schede medium level da 200 euri che andranno di più della 6800gt.
Vedrai che con una spesa di 100euri + la 6800gt ti potrai accaparrare anche una 7800gt. :)
ok ma a tutto c'è un limite perchè se poi di quel gioco ne vendi 1000 copie....voglio vedere dove se lo mettono il loro discorsino di marketing.
A mio parere i titoli a cui ti riferisci saranno il 5%
ah mè sembra che i titoli di punta dietro abbiano il bollino di Nvidia o ati. Poi vai a saperlo che cosa c'è dietro a tutto questo,a parte le ottimizzazioni per l'una o l'altra. Peggio della mafia sono..minghiaaa. :D
Il logo che vedi nei giochi penso sia solo un fatto pubblicitario anche perchè sia che tu abbia una 6600gt o una x700pro ti gira praticamente tutto al massimo del dettaglio o poco sotto(ovviamente senza filtri).
Si ma non c'è stato nè un travaso tecnologico verso soluzioni inferiori nè un arretramento tangibile dei prezzi.
in effetti sembra proprio che ati e nvidia siano solo interessati alle soluzioni di fascia alta (chissà magari la fascia media ati la recupera con i volumi dei chip montati su xbox360) e come detto da molti, il progresso tecnologico è un bene per tutti, però i commenti di questa news e di quella di ieri sul R580 evidenziano come sia un bene per chie deve ancora comperare e non per chi ha appena comprato..... ma è un giro e prima o poi ognuno di noi si troverà nella situazione di poter sfruttare questo progresso.
Qui nessuno ha capito che bisogna cambiare il monitor prima della scheda grafica di questi tempi... :asd: Non so voi ma io ho un 17" e certamente nn mi sogno di giocare a 1280x1024@60hz...
Il fatto sta che più aumenti la dimensione del monitor e più sale la risoluzione ottimale da utilizzare, il che vuol dire che è possibile che io a 1280x1024 su un 17" abbia una definizione maggiore rispetto ad uno con un 19" alla stessa (o sbaglio?) tralsciando per un attimo il fattore refresh.
Quindi alla fine secondo me l'acquisto della scheda grafica dev'essere proporzionale al monitor ora come ora... nn mi sognerei mai di comprare un G71 (magari pure in SLi) e poi usare un monitor 17" :asd:
andreamarra
30-12-2005, 10:59
sarebbe interessante sapere se il G71 renderizzerà HDRfp16+AA.
E ovviamente sarà interessante valutare chi avrà avuto ragione: ati con le quad pipeline e il triplo di unità shader o nvidia con 8 pipeline tradizionali in più e rop's immutate.
Il logo che vedi nei giochi penso sia solo un fatto pubblicitario anche perchè sia che tu abbia una 6600gt o una x700pro ti gira praticamente tutto al massimo del dettaglio o poco sotto(ovviamente senza filtri).
Se fosse cosi allora dovrebbe starci anche il logo ati. :)
in ogni caso UT non ha mai avuto loghi ati, come la valve non ha mai avuto loghi nvidia. C'è anche da dire che ogni software house si fà fà mandare dagli stessi ingegneri di schede video per farsi dare dei driver per determinati effetti grafici. Almeno questo è quanto ho sentito da un fornitore di hardware che và al Cebit di berlino.
Ragazzi scusate l' ot ma secondo voi può essere arrivato il momento di aggiornare un athlon 64 3500 con un athlon x2 4200?
Qualcuno di voi ha già fatto il passaggio al dual core e se si, ha riscontrato vantaggi tangibili in alcuni programmi (vmware,pinnacle)
sarebbe interessante sapere se il G71 renderizzerà HDRfp16+AA.
E ovviamente sarà interessante valutare chi avrà avuto ragione: ati con le quad pipeline e il triplo di unità shader o nvidia con 8 pipeline tradizionali in più e rop's immutate.
Vero., sarà interessante.
Ma non so' quali delle due andrà a scapito della qualità e velocità.
ErminioF
30-12-2005, 11:05
Si ok ma un buon monitor, almeno crt, con meno di 200euro te lo porti a casa: per chi ha appena speso 400-500euro di scheda video non credo sia un grosso problema (non parliamo di chi ha lo sli :asd: )
andreamarra
30-12-2005, 11:09
Vero., sarà interessante.
Ma non so' quali delle due andrà a scapito della qualità e velocità.
per quel poco che riesco a capire, quindi leggendo solo articoli che non si sa fino a quanto corrispondono a verità, la ati in R580 ha migliorato (e molto) dove r520 era indietro alla concorrenza: il numero di unità di PS. In R580 saranno tre volte tanto.
La nvidia invece pare aver migliorato dove era fortissima, ma tralasciando il discorso rop's. Ovviamente non essendo ingegnere, può essere che ciò non porti a squilibri ma a grandissime performance.
Insomma, altra bella lotta :D!!
Cmq credo che anche a questo giro nvidia non gestirà HDRpf16 + AA nei giochi. Personalmente, se così fosse, io questa cosa la valuterei come discriminante per l'acquisto.
Si ok ma un buon monitor, almeno crt, con meno di 200euro te lo porti a casa: per chi ha appena speso 400-500euro di scheda video non credo sia un grosso problema (non parliamo di chi ha lo sli :asd: )
Si . in effetti un philips da 0.24 DOT, 1920 di ris., flat , 19" ,anti riflesso ..cioè il meglio che si puo' avere , lo trovi a quel prezzo. Due anni fà costavano il doppio. ora te li tirano dietro nonostante la qualità che hanno. :)
per quel poco che riesco a capire, quindi leggendo solo articoli che non si sa fino a quanto corrispondono a verità, la ati in R580 ha migliorato (e molto) dove r520 era indietro alla concorrenza: il numero di unità di PS. In R580 saranno tre volte tanto.
La nvidia invece pare aver migliorato dove era fortissima, ma tralasciando il discorso rop's. Ovviamente non essendo ingegnere, può essere che ciò non porti a squilibri ma a grandissime performance.
Insomma, altra bella lotta :D!!
Cmq credo che anche a questo giro nvidia non gestirà HDRpf16 + AA nei giochi. Personalmente, se così fosse, io questa cosa la valuterei come discriminante per l'acquisto.
si quoto in pieno. Ma poi il discorso di HDR + AA ho sentito dire che è solo una questione che sul G70 non era stato ,come dire attivato, o altre voci dicevano che potevano attivarlo mettendolo semplicemente nei driver pero' da quanto ho sentito da un programamtore il discorso era dovuto propio alla costruzione hardware ma che volendo potrbbero metterla in una prossima revisione.
Bè... se Nvidia ha avuto il coraggio di far uscire la 7800 512 solo per il gusto di dire " io sono la migliore, io sono la migliore" allora saprà già come agire.
Pero' non hanno parlato di Shader unificati , in quanto R580 invece sarà fornito. E su questo potrebbe uscirne vincitrice ati.
edito... puo' uscirne vincitrice
andreamarra
30-12-2005, 11:23
si quoto in pieno. Ma poi il discorso di HDR + AA ho sentito dire che è solo una questione che sul G70 non era stato ,come dire attivato, o altre voci dicevano che potevano attivarlo mettendolo semplicemente nei driver pero' da quanto ho sentito da un programamtore il discorso era dovuto propio alla costruzione hardware ma che volendo potrbbero metterla in una prossima revisione.
Bè... se Nvidia ha avuto il coraggio di far uscire la 7800 512 solo per il gusto di dire " io sono la migliore, io sono la migliore" allora saprà già come agire.
Pero' non hanno parlato di Shader unificati , in quanto R580 invece sarà fornito. E su questo potrebbe uscirne vincitrice ati.
ALT :D!
R580 NON avrà shader unificati, il salto ci sarà con R620 :) che avrà unità ps e vertex unificate, come l'R500 di xbox360.
Il G70 non può gestire HDRfp16 (che sarà il tipo di HDR più usato dai videogiochi, vedi l'unreal 3 engine) + AA poichè non ha unità di calcolo separate come R520 e R580. Quindi il G70 o gestisce HDRfp16, o AA. E' proprio una sua mancanza hardware che le impedisce ciò. Driver o altro, non possono far nulla. Bisogna mettere mano al progetto.
Alla nvidia non conveniva mettere mano al progetto G70 (derivato di NV40) quando entro "pochi" mesi usciranno le prime schede a shader unificati! Sarebbe stato un esborso davvero troppo esagerato e inutile.
Ah, ovviamente dico questo perchè da quel poco che ne capisco mi pare che neanche G71 riesca a gestire hdrfp16+aa, ma aspettiamo magari fek e yossarian chese intendono un pelo di più :D!
ALT :D!
R580 NON avrà shader unificati, il salto ci sarà con R620 :) che avrà unità ps e vertex unificate, come l'R500 di xbox360.
Il G70 non può gestire HDRfp16 (che sarà il tipo di HDR più usato dai videogiochi, vedi l'unreal 3 engine) + AA poichè non ha unità di calcolo separate come R520 e R580. Quindi il G70 o gestisce HDRfp16, o AA. E' proprio una sua mancanza hardware che le impedisce ciò. Driver o altro, non possono far nulla. Bisogna mettere mano al progetto.
fek e yossarian chese intendono un pelo di più :D!
emmhh.. si infatti è stato fek a dirmi che è un discorso hardware. quel fek è peggio del diavolo in persona. Le sà tutte. :D
Ma cavoli pensavo che il discorso del R580 che prendeva degli spunti del R500 era anche per i Shader unificati. :what: COn tutte ste news dei chip grafici mi sto incasinando per bene.
Almeno se ne stessero un po' zitti fino ad un mese prima del lancio di un prodotto. Non fanno altro che confonderci.. 32 24 pipe 16 ROP shader unificati poi ne escono con una scheda amho di pizza, con su un po' di tutto. :asd:
andreamarra
30-12-2005, 11:31
emmhh.. si infatti è stato fek a dirmi che è un discorso hardware. quel fek è peggio del diavolo in persona. Le sà tutte. :D
Ma cavoli pensavo che il discorso del R580 che prendeva degli spunti del R500 era anche per i Shader unificati. :what: COn tutte ste news dei chip grafici mi sto incasinando per bene.
bhè, è grafico alla lionhead... :D!
cmq diciamo che R520 e R580 prendono da R500. Ma non per il discorso di vertex e shader unificati, ma perchè hanno una struttura di "pipeline" a metà strada tra le "vecchie" gpu ati (e le nuove nvidia, che ancora persiste con le pipeline tradizionali) e le future pipeline.
R520 e R580 sono nella scala evolutiva a metà strada, l'anello di congiunzione tra vecchie pipeline di ati e le nuove pipeline di R500 e R620 su pc.
bhè, è grafico alla lionhead... :D!
cmq diciamo che R520 e R580 prendono da R500. Ma non per il discorso di vertex e shader unificati, ma perchè hanno una struttura di "pipeline" a metà strada tra le "vecchie" gpu ati (e le nuove nvidia, che ancora persiste con le pipeline tradizionali) e le future pipeline.
R520 e R580 sono nella scala evolutiva a metà strada, l'anello di congiunzione tra vecchie pipeline di ati e le nuove pipeline di R500 e R620 su pc.
si R520 lo sapevo che non aveva gli shader unificati ma almeno R580 ero' più ottimista.
mmmmhh... bè. Penso che la cosa itneressante sarà con l'arrivo de R620 e il G80 che forse integreranno anche le DX10 e chissà quali altre diabolerie. :)
brrrrrr .... che pura... parlo di dx10 e mi viene in mente il vista. :asd:
e pensare che quella è la vera 7800. quella pensata fin dall'inizio.
scusa questa nn l'ho capita, stai dicendo che la 7800gtx512 è la VERA gt70 pensata fin dall'inizio???
xchè se è questo che intendi allora siamo messi veramente male
scusa questa nn l'ho capita, stai dicendo che la 7800gtx512 è la VERA gt70 pensata fin dall'inizio???
bè come core si. Per le ram dubito. (frequenza non capacità)
(§) The Avatar (§)
30-12-2005, 11:42
*yawn*
bè come core si. Per le ram dubito. (frequenza non capacità)
il core?
che differenza c'è scusa tra le 2 schede? hanno core diversi?
ci tengo a farvi notare che la notizia è di inquirer quindi è da prendere con le pinze i guanti e la mascherina ;)
Secondo me avranno prestazioni simili... come al solito!!!
Uniche due cose che non capisco:
- Perchè tutte stè pipeline se i giochi più pesanti sul mercato come quake4 e fear girano alla grande già con una 6800GT (...previo aver un A64)???
- Che ipermegaalimentatore ci vorrà? Minimo 500w suppongo...
Ma... io resterò per almeno un'altro anno con la mia 6800le, aspettando con impazienza la PS3!!!
Non comprerò mai una di queste schede per giocare a 1920x1440 AA6X AF16X!!!!!!!!!!!! e spendere 600 euro.
Ciauz!!!!!!!!!!!!!!!!
il core?
che differenza c'è scusa tra le 2 schede? hanno core diversi?
nono. Intendevo che il core è lo stesso. Hai detto che la 7800 512 è il vero G70 pensato fin dall'inizio. Penso che l'hanno buttato fuori a freq. da 420mhz mentr sapevano che poteva fare di meglio per una questione di affari. In modo da farne uscira un'altra con frequ. più alte.
Secondo me avranno prestazioni simili... come al solito!!!
Uniche due cose che non capisco:
- Perchè tutte stè pipeline se i giochi più pesanti sul mercato come quake4 e fear girano alla grande già con una 6800GT (...previo aver un A64)???
- Che ipermegaalimentatore ci vorrà? Minimo 500w suppongo...
Ma... io resterò per almeno un'altro anno con la mia 6800le, aspettando con impazienza la PS3!!!
Non comprerò mai una di queste schede per giocare a 1920x1440 AA6X AF16X!!!!!!!!!!!! e spendere 600 euro.
Ciauz!!!!!!!!!!!!!!!!
dubito che quake 4 a 1280 AA4x e alta qualità ti giri fisso a 60 frame con una 6800gt.
Se parli di prestazioni simili anche la PS3 allora dovrà averne con la PS2. Visto che monterà una GPU basata su hardware pc . :asd:
Il salto di qualità nei videogiochi si avrà verso giugno quando verranno finalmente sfruttati i processori dual core e non solo le schede video
nono. Intendevo che il core è lo stesso. Hai detto che la 7800 512 è il vero G70 pensato fin dall'inizio. Penso che l'hanno buttato fuori a freq. da 420mhz mentr sapevano che poteva fare di meglio per una questione di affari. In modo da farne uscira un'altra con frequ. più alte.
la 7800gtx512 è una scheda pompata e con un core spremuto fino al midollo, è uscita solo x una questione di immagine.
una scheda che costa + di 700 euro nn può essere la vera g70 xchè sarebbe un suicidio commerciale x una casa che deve vendere schede video x vivere.
la 7800gtx512 è una scheda pompata e con un core spremuto fino al midollo, è uscita solo x una questione di immagine.
una scheda che costa + di 700 euro nn può essere la vera g70 xchè sarebbe un suicidio commerciale x una casa che deve vendere schede video x vivere.
il prezzo alto è da imputare alle ram. chip da 1700mhz 512MB costano un bel po'.
Foglia Morta
30-12-2005, 12:25
il prezzo alto è da imputare alle ram. chip da 1700mhz 512MB costano un bel po'.
fino a un certo punto però: nVidia consigliava una prezzo di 650 euro e non si riesce a trovarla a 800 euro
il prezzo alto è da imputare alle ram. chip da 1700mhz 512MB costano un bel po'.
daiiiii :D
ci sono 200 euro di differenza non possono essere le ram!
come nn potevano essere le ram la causa dello scarso numero di schede disponibili....
ritornando IT
le "indiscrezioni" dell'inq. nn mi sembrano nulla di trascendentale si sapeva già che sarebbero passati a 32 pipe
il punto è se cambiano anche il resto o se rimane tutto come nel g70 (freq del core e delle ram a parte), anche se mi sembra improbabile dato il numero di transistor e lo spazio disponibile.
Secondo me dipenderà tutto da Fek e dai suoi colleghi, era da un po' di tempo che nn c'erano così tante differenze tra le 2 case... :D
daiiiii :D
ci sono 200 euro di differenza non possono essere le ram!
come nn potevano essere le ram la causa dello scarso numero di schede disponibili....
ritornando IT
le "indiscrezioni" dell'inq. nn mi sembrano nulla di trascendentale si sapeva già che sarebbero passati a 32 pipe
il punto è se cambiano anche il resto o se rimane tutto come nel g70 (freq del core e delle ram a parte), anche se mi sembra improbabile dato il numero di transistor e lo spazio disponibile.
Secondo me dipenderà tutto da Fek e dai suoi colleghi, era da un po' di tempo che nn c'erano così tante differenze tra le 2 case... :D
fidati. sono le ram. la X1800XCt monta quelle da 1500mhz a 512MB. Questa a 1700mhx che oltretutto hanno prodotto le schede in quantità limitata.
aaasssdddfffggg
30-12-2005, 12:45
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
Foglia Morta
30-12-2005, 12:52
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
per la cronaca : è tornato colui che dice di aver avuto esperienza da ingegnere elettronico ed è poi sparito quando c era da discutere seriamente con Fek e yoss di argomenti tecnici .
fidati. sono le ram. la X1800XCt monta quelle da 1500mhz a 512MB. Questa a 1700mhx che oltretutto hanno prodotto le schede in quantità limitata.
fidati non sono le ram il prezzo reale è decisamente fuori scala confrontato al prezzo dichiarato dalla casa madre e non credo proprio che abbiano sbagliato a fare i conti alla nvdia.
la quantità limitata è in relazione al numero di chip che tengono quelle frequenze, che poi è l'unico dato che ci fa capire la bassa disponibilità di schede che poi ci porta a superare i 750 euro, ricapitolando, basso numero di chip, basso numero di schede, alto prezzo x i furbi che la vogliono avere a tutti i costi.
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
questione di gusti direi ma in questo caso ci aggiungerei anche di educazione e arroganza...
quà si parla di schede video e Fek ne sa sicuramente + di te quindi preferisco avere 100 volte un suo commento utile piuttosto che un flame inutile come il tuo.
fai così /vanish
fidati non sono le ram il prezzo reale è decisamente fuori scala confrontato al prezzo dichiarato dalla casa madre e non credo proprio che abbiano sbagliato a fare i conti alla nvdia.
la quantità limitata è in relazione al numero di chip che tengono quelle frequenze, che poi è l'unico dato che ci fa capire la bassa disponibilità di schede che poi ci porta a superare i 750 euro, ricapitolando, basso numero di chip, basso numero di schede, alto prezzo x i furbi che la vogliono avere a tutti i costi.
questione di gusti direi ma in questo caso ci aggiungerei anche di educazione e arroganza...
quà si parla di schede video e Fek ne sa sicuramente + di te quindi preferisco avere 100 volte un suo commento utile piuttosto che un flame inutile come il tuo.
fai così /vanish
si ma nvidia di listino ha dato 650 euri. il resto è stato sciacallaggio.
Concordo per quanto riguarda fek e la softwarehouse in cui lavora che fà giochi degni di nota.
lo sciacallaggio c'è perchè nvdia non può fornire un numero adeguato di schede, la colpa di questo numero nn adeguato nn può attribuirsi alle ram come disse qualche pr tempo fa...
le ram sono disponibili, quindi il cerchio si restringe...
halduemilauno
30-12-2005, 13:14
scusa questa nn l'ho capita, stai dicendo che la 7800gtx512 è la VERA gt70 pensata fin dall'inizio???
xchè se è questo che intendi allora siamo messi veramente male
si esatto. pensata dall'inizio a 500/1500. 1500 era la ram più veloce pensata per l'epoca. poi usci a 430/1200 per mancanza di concorrenza in attesa di quella vera ovvero l'R520 e infatti quando usci la x1800xt nVidia fece uscire la 550/1700. 550 per adeguamento a quanto poi fatto vedere da ati e 1700 perchè era la ram più veloce in quel momento e purtroppo anche la più costosa.
Sawato Onizuka
30-12-2005, 13:14
ok ma a tutto c'è un limite perchè se poi di quel gioco ne vendi 1000 copie....voglio vedere dove se lo mettono il loro discorsino di marketing.
A mio parere i titoli a cui ti riferisci saranno il 5%
scusa non mi son spiegato, intendevo a quelle software house che magari non hanno sufficienti finanziamenti o vogliono qualche fondo in più :rolleyes: ;)
Circochecco
30-12-2005, 13:37
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
Nemesis avere i propri gusti sui videogiochi mi sembra quanto meno legittimo, ma offendere il lavoro altrui mi sembra davvero di cattivo gusto, tra l'altro in questo caso è pure gratuito, mi sembra pure gratuito. :O
Circochecco
30-12-2005, 13:43
Tornando in topic, mi sembra però interessante questa news, perchè saremmo allora davvero innanzi a due architetture che seguono approcci realmente differenti, con ciascuna che ha i suoi punti di forza e le inevitabili debolezze.. trovo che sia interessante poi alla fine capire chi avrà ragione. ;)
Tuttavia non capisco la scelta conservativa sulle rops, qualcuno mi potrebbe dire come mai potrebbe esserci stata una simile scelta (ops, mi sono ripetuto :D )???
andreamarra
30-12-2005, 13:43
Nemesis avere i propri gusti sui videogiochi mi sembra quanto meno legittimo, ma offendere il lavoro altrui mi sembra davvero di cattivo gusto, tra l'altro in questo caso è pure gratuito, mi sembra pure gratuito. :O
*
Beh , se lavorare per uno dei piu grandi geni dell informatica ludica come il grande Peter che mi ha fatto capolavori assoluti come Magic Carpet ,Popolus,Sindicate etc etc , e una gran cazzata ,allora sara sicuramente piu motivante il tuo lavoro , se lavori .
Veramente ,certi atteggiamenti di certe persone resentano il ridicolo.
Dove sara mai finita l educazione .
B&W 2 forse sara un gioco troppo complesso per la mente di certe persone.
si esatto. pensata dall'inizio a 500/1500. 1500 era la ram più veloce pensata per l'epoca. poi usci a 430/1200 per mancanza di concorrenza in attesa di quella vera ovvero l'R520 e infatti quando usci la x1800xt nVidia fece uscire la 550/1700. 550 per adeguamento a quanto poi fatto vedere da ati e 1700 perchè era la ram più veloce in quel momento e purtroppo anche la più costosa.
già ma il core è sempre quello.
cambiano le frequenze ma nn puoi dire che pensava a 550mhz e 1700 di ram
queste sono frequenze limite cercate solo x il pure marketing, quindi nn esiste un vero g70 esiste un g70 la cui frequenza dovrebbe essre come hai detto tu di 500 mhz.
in ogni caso se l'avessero fatta uscire a 500 mhz e 1500 di ram credo che nn avrebbero ottenuto il loro scopo.
Tornando in topic, mi sembra però interessante questa news, perchè saremmo allora davvero innanzi a due architetture che seguono approcci realmente differenti, con ciascuna che ha i suoi punti di forza e le inevitabili debolezze.. trovo che sia interessante poi alla fine capire chi avrà ragione.
Tuttavia non capisco la scelta conservativa sulle rops, qualcuno mi potrebbe dire come mai potrebbe esserci stata una simile scelta (ops, mi sono ripetuto )???
già...
x questo dicevo che dipenderà da fek e i suoi colleghi
quanto vi piacciono gli shader? :)
imho se il futuro dei giochi sarà roba tipo f.e.a.r. allora r580 dovrebbe avere un bel vantaggio in teoria anche su un g71 a 32 pipe e freq maggiori ma sostanzialmente uguale alla precedente gpu, ledifferenze si possono già vedere sullo stesso f.e.a.r. come si comporta l'r530 rispetto agli altri.
andreamarra
30-12-2005, 13:48
Tornando in topic, mi sembra però interessante questa news, perchè saremmo allora davvero innanzi a due architetture che seguono approcci realmente differenti, con ciascuna che ha i suoi punti di forza e le inevitabili debolezze.. trovo che sia interessante poi alla fine capire chi avrà ragione. ;)
Tuttavia non capisco la scelta conservativa sulle rops, qualcuno mi potrebbe dire come mai potrebbe esserci stata una simile scelta (ops, mi sono ripetuto :D )???
stando così le cose (ripeto, ovviamente le notizie sono da prendere con le pinze) anche a me lascia un pò stranito il discorso di G71.
Cioè, aumenti dove già sei forte e non migliori dove hai "limiti" (se così si possono chiamare)?
R520 va fortissimo ma aveva il "limite" di avere poche unità di calcolo di PS. Nonostante tutto, nei giochi ciò non si notava e riusciva a tenere testa a G70 che ha maggior numero di unità. Solo nei bench sintetici si notava la discrepanza. Con R580, come pronosticato da yossarian :ave: le unità di calcolo delle pipeline saranno triplicate rispetto a R520.
Alla fine però credo che bene o male le due gpu saranno "simili", magari la nvidia sarà più performante senza filtri e la ati le starà sopra con i filtri e risoluzioni elevate. Da vedere come si comporterà il G71 con HDRfp16 e massive HDRfp16. Con G70 stava decisamente sotto R520.
Dando per scontato, almeno credo, che G71 con l'HDR fp16 non potrà gestire anche l'AA. Mentre l'R580 sicuramente lo gestirà meglio di R520.
Circochecco
30-12-2005, 13:54
Cioè, aumenti dove già sei forte e non migliori dove hai "limiti" (se così si possono chiamare)?
eastto, è la stessa cosa che ho pensato io.. perchè???
JohnPetrucci
30-12-2005, 13:55
Interessante, vedremo chi la spunterà.
Mi intristisce però vedere come una scheda top da 700€ che qualche anno fa si svalutava dopo 6-8 mesi, adesso si svaluti in appena 3 mesi circa.
Non è piacevole, ma mi ha aiutato a puntare su schede da 300€ immediatamente sotto alle più blasonate da 600-700€ che alla fine sono più una gara a chi c'è l'ha più grosso che sostanza, visto che come prestazioni non sono mica il doppio (come il prezzo) rispetto alle sorelle minori, anzi in genere si parla di un 30-40% max di differenza.
Insomma ho acquistato solo una volta una scheda da 500€ che dopo 4 mesi ne costava 250€ e mi è bastato.
Adesso ho una 7800gt e gioco felice, quando non sarà più all'altezza, dubito che lo saranno anche le più blasonate 7800gtx e x1800Xt, allora punterò di nuovo alla nuova scheda da 300€ di turno, se ne avrò voglia e soprattutto un motivo prestazionale vero.
andreamarra
30-12-2005, 13:58
eastto, è la stessa cosa che ho pensato io.. perchè???
...bho :D!
Se davvero ci saranno 32 pipeline (!) e 16 rops, vorrà dire che gli ingegneri nvidia hanno ritenuto che la scheda fosse in "equilibrio". E che mettere altre rops sarebbe stato controproducente!
feeeekkkk....!
yossiiiiii....!
:D
halduemilauno
30-12-2005, 14:00
già ma il core è sempre quello.
cambiano le frequenze ma nn puoi dire che pensava a 550mhz e 1700 di ram
queste sono frequenze limite cercate solo x il pure marketing, quindi nn esiste un vero g70 esiste un g70 la cui frequenza dovrebbe essre come hai detto tu di 500 mhz.
in ogni caso se l'avessero fatta uscire a 500 mhz e 1500 di ram credo che nn avrebbero ottenuto il loro scopo.
già...
x questo dicevo che dipenderà da fek e i suoi colleghi
quanto vi piacciono gli shader? :)
imho se il futuro dei giochi sarà roba tipo f.e.a.r. allora r580 dovrebbe avere un bel vantaggio in teoria anche su un g71 a 32 pipe e freq maggiori ma sostanzialmente uguale alla precedente gpu, ledifferenze si possono già vedere sullo stesso f.e.a.r. come si comporta l'r530 rispetto agli altri.
certo il chip è sempre G70. non hai capito a 500/1500 ci doveva uscire all'inizio a maggio/giugno. ma non essendoci una valida concorrenza è stata fatta uscire a 430/1200. quando la concorrenza(5 mesi dopo) si è manifestata nella x1800xt l'hanno fatta uscire nella versione originaria comprensiva dell'adeguamento. la ram disponibile era la 1700 e l'hanno fatta uscire con la ram a 1700(provocando un netto aumento dei costi)e per il chip i 500 iniziali son stati elevati a 550.
più chiaro ora?
;)
OverClocK79®
30-12-2005, 14:00
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
modera i termini PLEASE!!!
i gusti sono gusti ma questo non è di certo il modo di eporli, soprattutto perchè B&W2 per molti è stato un capolavoro, e poi perchè stai offendento l'altrui lavoro .
Per il resto, capisco che ogni casa stia intraprendendo le proprie strade
ma così ci troveremo in situazioni in cui ci sarà più la scheda definitiva ma si accentueranno le differenze da game a game
BYEZZZZZZZZZZZ
che quelle cose le stai dicendo ad uno che le sapeva gia prima che uscisse la 7800gtx 256 a giugno. ben prima.
Potresti fare il mago. Manda un curriculum a Mediaset, magari ti prendono.
^TiGeRShArK^
30-12-2005, 14:03
Io mi terrò ben stretta la mia 6800gt almeno fino al 2007, e sono sicuro che giocherò al massimo dettaglio magari abbassando qualche filtro. Apetto le schede wf10
onestamente mi pare un pò difficile.....
http://www.hwupgrade.it/articoli/1387/fear_3.png
già arranca una 7800 gtx 512 MB con fear e le soft shadow.... vuoi farmi credere ke la tua 6800 gt è + veloce della skeda di cui sopra???
e secondo te fino al 2007 non usciranno gioki MOLTO ma MOLTO + pesanti di FEAR?? ;)
halduemilauno
30-12-2005, 14:05
Potresti fare il mago. Manda un curriculum a Mediaset, magari ti prendono.
nessuna magia. eppoi per tanti motivi prenderebbero altri.
certo il chip è sempre G70. non hai capito a 500/1500 ci doveva uscire all'inizio a maggio/giugno. ma non essendoci una valida concorrenza è stata fatta uscire a 430/1200. quando la concorrenza(5 mesi dopo) si è manifestata nella x1800xt l'hanno fatta uscire nella versione originaria comprensiva dell'adeguamento. la ram disponibile era la 1700 e l'hanno fatta uscire con la ram a 1700(provocando un netto aumento dei costi)e per il chip i 500 iniziali son stati elevati a 550.
più chiaro ora?
;)
guarda che c'è poco da capire...
la gpu uscita a maggio/giugno scaldava poco e si poteva overclockare facilmente quindi era logico che le freq fossero basse rispetto alle capacità del chip.
quello che ti contesto io è quando affermi che questa ultima versione sia la vera scheda.
questa è una scheda che esiste in pochi modelli e che sarebbe stata un suicidio commerciale, vale solo ed esclusivamente x i benchmark.
pochi modelli a causa del numero ridotto di chip che riescono a tenere quelle frequenze le ram costano di + certo ma nn abbastanza da giustificare le varie centinaia di euro di differenza
550mhz x questo chip sono troppi x una produzione decente.
hanno tirato il collo il + possibile al g70.
!SengiR!86!
30-12-2005, 14:12
ma quando dovrebbero uscire le schede con supporto alle dx10, fine 2006 o nel 2007?
halduemilauno
30-12-2005, 14:35
guarda che c'è poco da capire...
la gpu uscita a maggio/giugno scaldava poco e si poteva overclockare facilmente quindi era logico che le freq fossero basse rispetto alle capacità del chip.
quello che ti contesto io è quando affermi che questa ultima versione sia la vera scheda.
questa è una scheda che esiste in pochi modelli e che sarebbe stata un suicidio commerciale, vale solo ed esclusivamente x i benchmark.
pochi modelli a causa del numero ridotto di chip che riescono a tenere quelle frequenze le ram costano di + certo ma nn abbastanza da giustificare le varie centinaia di euro di differenza
550mhz x questo chip sono troppi x una produzione decente.
hanno tirato il collo il + possibile al g70.
la vera G70 era a 500/1500. quella di maggio/giugno a 430/1200 ne era una versione volutamente tarpata per mancanza di concorrenza. quella di adesso 550/1700 è la versione originale adeguata a una concorrenza ora presente. la ram a 1700 è solo una conseguenza.
FEK fa il grafico alla LIONHEAD?Sbaglio o è la software house che ha fatto quelle schifezza di BLACK & WHITE 2? Per carità!Mai provato una cazzata di game del genere!!!!!!!!!!!Se è così ci vuole coraggio a lavorare in una software house del genere.
Prima di criticare il lavoro degli altri, devi dimostrare di saper fare di meglio...
E se per assurdo tu sapessi fare anche di meglio, non sarebbe comunque un buon motivo, per un post così arrogante e offensivo verso un utente di questo forum, in questo caso FEK, che leggo con piacere, perché i suoi post insegnano molto, anche a chi come me, non ha dimestichezza con l'informatica.
Quindi fai un piacere a te stesso e a tutti quelli che leggono il forum, evita di scrivere questi post inutili e provocatori e se non ci riesci, non scrivere proprio.
Ma la GTX 512 sale ancora in OC... Non mi sembra proprio tirata per il collo... E' vero, ha un overvolt di 0,2 per il processo produttivo che ha, ma anche la 1800XT ha un overvolt di 0,2V. Per correttezza, anche la X1800XT sale ancora in OC, anche se 1,5V contro 1,3V (GTX 512) sono meno, in percentuale di overvolt rispetto agli 1,3 contro 1,1 della 1800XT... La GTX della redazione, sale da 550 a 600, di core, quasi un 10%, la XT della redazione, con il bios modificato, è arrivata a 725, partendo da 625, più del 10%... Possiamo dire che la XT è meno "tirata" della GTX 512... Ma sono entrambe tirate...
halduemilauno
30-12-2005, 15:00
Prima di criticare il lavoro degli altri, devi dimostrare di saper fare di meglio...
E se per assurdo tu sapessi fare anche di meglio, non sarebbe comunque un buon motivo, per un post così arrogante e offensivo verso un utente di questo forum, in questo caso FEK, che leggo con piacere, perché i suoi post insegnano molto, anche a chi come me, non ha dimestichezza con l'informatica.
Quindi fai un piacere a te stesso e a tutti quelli che leggono il forum, evita di scrivere questi post inutili e provocatori e se non ci riesci, non scrivere proprio.
a quindi per poter dire quella macchina è un cesso devo essere un costruttore di automobili e obbligatoriamente migliori.
spero che si capisca quel che volevo dire.
la vera G70 era a 500/1500. quella di maggio/giugno a 430/1200 ne era una versione volutamente tarpata per mancanza di concorrenza. quella di adesso 550/1700 è la versione originale adeguata a una concorrenza ora presente. la ram a 1700 è solo una conseguenza.
Vorrei sapere chi ti ha confermato o che prove hai per poter dire che era volutamente tarpata per mancanza di concorrenza.
Tra l'altro far uscire una GTX 512 a maggio, visto che cmq era la vera G70 avrebbe fatto fare il botto a NVidia a livello di immagine e bench vari, visto la mancanza di concorrenza come dici.
Quale occasione migliore di "sbeffeggiare" ATI presentando una magnifica 512mb????
Sinceramente mi sento di dire che ci sono scelte commerciali ed accordi con fornitori che noi non conosciamo e che portano a questo o a quello.
Ovviamente una smentita di quel che ho detto e benvenuta, portando delle prove concrete in merito.
BB
a quindi per poter dire quella macchina è un cesso devo essere un costruttore di automobili e obbligatoriamente migliori.
spero che si capisca quel che volevo dire.
Sinceramente non si capisce dove vuoi arrivare e l'esempio che hai portato, non e' attinente con il post di nemensis elite, dove la critica al gioco era solo un pretesto per attaccare FEK.
Evidentemente nemensis elite porta rancore a FEK per -->questo<-- (http://www.hwupgrade.it/forum/showthread.php?t=1087542&page=10&pp=20) e altri topic dove non ne e' uscito bene.
Poi se vuoi fare l'avvocato di nemensis, fai pure. Io chiudo qui, anche perché siamo OT.
zerothehero
30-12-2005, 16:41
mah qua mi sembra che le uniche prestazioni che avanzano sono le scritte sulle scatole delle vga ... troooppo lente queste gpu altro che legge di moore .... qua al limite c è la legge dell early adopter piu cazzate ti scrivono nella scatolozza piu comprano -.. secondo me cambiano solo le scatole le vga son sempre quelle fin dal 98 .. beh sempre meglio che quelle che mettono nelle console almeno pfiu
ma le leggi le recensioni?
Siamo passati dalle 9700-9800 con 8 pipeline alle 6800 con 16pipeline (+100%), poi neanche 10 mesi dopo sono arrivate le 7800gtx con 24pipeline(+50%) e prestazioni di molto superiori...adesso tra 7-8 mesi arriveranno gpu a 32pipeline...non lo so cosa pretendi... la singolarità di Vinge?
Saltando 10 pagine di reply...
Qualcuno ha ben chiaro cosa comportano le 2 diverse soluzioni?
Sono veramente 2 strade diverse oppure la nVidia continua con le 32 pipe perchè il G71 non è un chip progettato da 0 ?
L' R580 ha un'occhio all'architettura unificata o non c'entra nulla?
^TiGeRShArK^
30-12-2005, 17:14
a quindi per poter dire quella macchina è un cesso devo essere un costruttore di automobili e obbligatoriamente migliori.
spero che si capisca quel che volevo dire.
non c'entra 'na mazza.
se uno è tanto idiota da dire cose così offensive nei riguardi del lavoro di qualcuno SI SUPPONE ke lui sia + bravo a fare le stesse cose.....
o sbaglio?
ma d'altronde è facile "fare sputazza" come si dice dalle mie parti riempiendosi la bocca di giudizi sommari...:rolleyes:
Boogey_man
30-12-2005, 17:32
@ halduemilauno
Da quel che ricordo di un discorso di yossarian, da molti riconosciuto come il più esperto in materia di Vga qui nel forum, la gtx 512 ha un chip overvoltato, quindi dubito fortemente che fosse la vera 7800 dei piani di Nvidia, anche perché i chip in grado di supportare l'o.v. sono pochissimi e questo spiega la mancanza di schede sul mercato....
piquet81
30-12-2005, 18:00
ma conoscete le regole del mercato?
perche i prezzi scendono?
secondo voi, io se produco un prodotto e nessuno mi fa concorrenza, abbassero' mai i prezzi?
nelle skede video la concorrenza non si fa' proponendo un nuovo modello + performante ad un costo pari se non superiore giustificato dagli investimenti fatti?
ci capirete di chip, cpu e via dicendo ma di come funziona il mondo "libero"....... , ragionate secondo regole etiche che nemmeno voi vi sognate di seguire nella vita di tutti i giorni!
halduemilauno
30-12-2005, 18:45
Vorrei sapere chi ti ha confermato o che prove hai per poter dire che era volutamente tarpata per mancanza di concorrenza.
Tra l'altro far uscire una GTX 512 a maggio, visto che cmq era la vera G70 avrebbe fatto fare il botto a NVidia a livello di immagine e bench vari, visto la mancanza di concorrenza come dici.
Quale occasione migliore di "sbeffeggiare" ATI presentando una magnifica 512mb????
Sinceramente mi sento di dire che ci sono scelte commerciali ed accordi con fornitori che noi non conosciamo e che portano a questo o a quello.
Ovviamente una smentita di quel che ho detto e benvenuta, portando delle prove concrete in merito.
BB
con quella mossa nVidia ha fatto il "botto" due volte a giugno con la 430/1200 e a novembre con la 550/1700. a che prò farlo solo una volta con la 500/1500.
;)
@ halduemilauno
Da quel che ricordo di un discorso di yossarian, da molti riconosciuto come il più esperto in materia di Vga qui nel forum, la gtx 512 ha un chip overvoltato, quindi dubito fortemente che fosse la vera 7800 dei piani di Nvidia, anche perché i chip in grado di supportare l'o.v. sono pochissimi e questo spiega la mancanza di schede sul mercato....
infatti in origine era 500(/1500). poi visto che a quel punto concorrenza vera c'era ecco che con l'ov è passata a 550 e per la ram si è adottata quella più veloce in quel momento disponibile ovvero la 1700.
PS ma son cose talmente ovvie e tral'altro trite e ritrite che mi viene spontanea una domanda, ma voi dove eravate?
Boogey_man
30-12-2005, 19:00
è semplice...a 500/1500 non avrebbe avuto la leadership delle prestazioni, solo con successive revisioni del chip ( quindi non era il progetto iniziale) che comunque erano in programma come per tutte le vga ha ottenuto la freq di 550 che le ha permesso di superare la 1800xt....
halduemilauno
30-12-2005, 19:11
è semplice...a 500/1500 non avrebbe avuto la leadership delle prestazioni, solo con successive revisioni del chip ( quindi non era il progetto iniziale) che comunque erano in programma come per tutte le vga ha ottenuto la freq di 550 che le ha permesso di superare la 1800xt....
poche idee ma in compenso molto molto confuse.
che ti devo dire continua cosi.
Boogey_man
30-12-2005, 19:40
Sempre pronto a imparare......spiegati...
poche idee ma in compenso molto molto confuse.
che ti devo dire continua cosi.
Le idee confuse le hai proprio tu. In seguito all'affinamento del processo produttivo, alla mask della gpu e all'introduzione di memorie più veloci è stato possibile immettere questi pochi pezzi.
halduemilauno
30-12-2005, 19:52
Le idee confuse le hai proprio tu. In seguito all'affinamento del processo produttivo, alla mask della gpu e all'introduzione di memorie più veloci è stato possibile immettere questi pochi pezzi.
le idee confuse invece le hai tu. per il semplice motivo che non hai capito neanche quello che vado dicendo.
ti rendi conto che sto parlando di altro?
aaasssdddfffggg
30-12-2005, 19:54
Conta solo e sempre il prodotto finale.La geforce 7800 gtx 512 così come esce dalla fabbrica spacca il culo a qualsiasi altra scheda attualmente sul mercato.Questo conta alla fine e nVIDIA lo sa gestire molto bene questo concetto.
Boogey_man
30-12-2005, 19:58
Vero quello che scrivi Nemesis, il problema della gtx512 semmai è che dalla fabbrica non ne escono più.....
^TiGeRShArK^
30-12-2005, 19:59
:rotfl:
appunto COME esce dalla fabbrica???
altro che phantom edition della ATI... questa è completamente scomparsa dopo l'immissione iniziale....
aaasssdddfffggg
30-12-2005, 19:59
fortuna che 2 di quelle sono finite dentro il mio case!
aaasssdddfffggg
30-12-2005, 20:00
dovevate svegliarvi prima ragazzi.a novembre si trovavano eccome queste schede!
dovevate svegliarvi prima ragazzi.a novembre si trovavano eccome queste schede!
E dire che pensavo che fosse un forum tecnico. Con gente seria e preparata :D
le idee confuse invece le hai tu. per il semplice motivo che non hai capito neanche quello che vado dicendo.
ti rendi conto che sto parlando di altro?
Ti faccio una domanda: tu hai capito di cosa stai parlando? :D
aaasssdddfffggg
30-12-2005, 20:03
il problema è che qui dentro ci sono troppi ingegneri che lavorano a SANTA CLARA.Altro che forum tecnico...Si sentono certe cazzate !!
halduemilauno
30-12-2005, 20:04
Sempre pronto a imparare......spiegati...
mi devo spiegare? son quattro volte che lo dico.
nVidia fa la G70 suppone di metterla in commercio a maggio con valori 500/1500. ma prima di tutto questo viene a sapere che ati è in difficoltà non presenterà per lo stesso periodo la sua scheda allora che fa nVidia non presenta la sua nella forma originale(per non far vedere tutte le sue carte)ma la presenta in versione tarpata invece di 500/1500 la presenta in versione 430/1200. facendo questo cmq aumenta la sua leadership, fa vedere di cosa è capace e contemporaneamente non presenta tutte le sue carte perchè non c'è ne bisogno. poi dopo il 5 ottobre ati annuncia la sua scheda e dichiara la sua disponibilità per il 5 novembre. e che fa allora nVidia? presenta la sua scheda nella versione originale con degli accorgimenti. il core da 500 lo eleva a 550 e la ram che inizialmente prevista a 1500 come la più veloce disponibile allora ora si è resa disponibile la 1700 e zacchete il gioco è fatto ed ecco la 7800gtx a 550/1700.
tutte cose ovvie, trite e ritrite.
buonanotte.
halduemilauno
30-12-2005, 20:04
Ti faccio una domanda: tu hai capito di cosa stai parlando? :D
buonanotte anche a te.
Foglia Morta
30-12-2005, 20:08
mi devo spiegare? son quattro volte che lo dico.
nVidia fa la G70 suppone di metterla in commercio a maggio con valori 500/1500. ma prima di tutto questo viene a sapere che ati è in difficoltà non presenterà per lo stesso periodo la sua scheda allora che fa nVidia non presenta la sua nella forma originale(per non far vedere tutte le sue carte)ma la presenta in versione tarpata invece di 500/1500 la presenta in versione 430/1200. facendo questo cmq aumenta la sua leadership, fa vedere di cosa è capace e contemporaneamente non presenta tutte le sue carte perchè non c'è ne bisogno. poi dopo il 5 ottobre ati annuncia la sua scheda e dichiara la sua disponibilità per il 5 novembre. e che fa allora nVidia? presenta la sua scheda nella versione originale con degli accorgimenti. il core da 500 lo eleva a 550 e la ram che inizialmente prevista a 1500 come la più veloce disponibile allora ora si è resa disponibile la 1700 e zacchete il gioco è fatto ed ecco la 7800gtx a 550/1700.
tutte cose ovvie, trite e ritrite.
buonanotte.
ho dei dubbi... a 1,4v moltissime schede ( la maggior parte ) di quelle prodotte nei primi mesi non arrivavano a 500Mhz , a 1,5v sarebbe da verificare ma anche se fosse nelle sue possibilità sarebbe tirata un po troppo secondo me.
Boogey_man
30-12-2005, 20:20
Quoto foglia Morta....poi per il resto "presenta la sua scheda nella versione originale con degli accorgimenti"??? Questa me la devi spiegare...la versione 550/1700 non è quella originale con accorgimenti..ma una versioni speciale (o meglio i chip migliori della seconda revisione) che possono reggere un vcore aumentato...
Boogey_man
30-12-2005, 20:22
ovviamente cose trite e ritrite...
LukeHack
30-12-2005, 20:25
... come fate a vedere tutta questa differenza tra una g70 (500/1500) e una nv40 (400/1200) ?
certo, la prima va meglio indubbiamente, ma visto che il core deriva direttametne da nv40 con l'aggiunta di 8 pipes in più, tutto sto incremento sinceramente non lo vedo O_o..
basta solo vedere come girano entrambe su fear..
quando una arrancherà, l'altra non andrà poi tanto meglio...
MiKeLezZ
30-12-2005, 20:28
La Asus AN32-SLI Deluxe è assente dal panorama mondiale da metà di dicembre, Asus ha detto che sarà nuovamente disponibile da metà gennaio.
Purtroppo il periodo natalizio non è il migliore per fare previsioni di disponibilità.
Foglia Morta
30-12-2005, 20:37
La Asus AN32-SLI Deluxe è assente dal panorama mondiale da metà di dicembre, Asus ha detto che sarà nuovamente disponibile da metà gennaio.
Purtroppo il periodo natalizio non è il migliore per fare previsioni di disponibilità.
ma non avevi detto che non saresti più intervenuto in un thread di schede video ? :D , vabbe scherzo , è evidente che ti sei sbagliato ;)
MiKeLezZ
30-12-2005, 20:57
ma non avevi detto che non saresti più intervenuto in un thread di schede video ? :D , vabbe scherzo , è evidente che ti sei sbagliato ;)
Perchè mi son sbagliato? Io ho parlato solo di una scheda madre, poi potete continuare con i vostri discorsi.
Foglia Morta
30-12-2005, 21:21
Perchè mi son sbagliato? Io ho parlato solo di una scheda madre, poi potete continuare con i vostri discorsi.
allora... come lo vedi il girone dell Italia ai mondiali ? :p
MiKeLezZ
30-12-2005, 21:58
allora... come lo vedi il girone dell Italia ai mondiali ? :p
Non ci è andata bene ma neppure male.. Ma io più che altro mi preoccupo della gente che popola la nostra nazionale, ogni volta li vedo sempre meno motivati... e questo conta molto più che la classifica FIFA
Foglia Morta
30-12-2005, 22:16
Non ci è andata bene ma neppure male.. Ma io più che altro mi preoccupo della gente che popola la nostra nazionale, ogni volta li vedo sempre meno motivati... e questo conta molto più che la classifica FIFA
oddio... tra le squadre africane ci siamo beccati la più forte , la repubblica ceka non scherza e gli americani son quelli che dicevano che nel 2010 vogliono vincere il mondiale...
per andarci peggio dovevamo prenderci il portogallo e poi eravamo a posto
comunque io non penso che la nostra nazionale sia forte come un tempo . Poi mi sembra si faccia troppo affidamento su Toni , a me non mi ispira gli va tutto bene , sarà che sono delle sue parti e quando giocava qui intorno non faceva la differenza , poi la preparazione atletica di certe squadre fanno il loro lavoro ma non sono convinto , secondo me le partite ce le risolverà Pirlo con le sue punizioni... Poi anche la difesa è calata molto negli ultimi anni, mi aspettavo di più da Lippi , spero che in futuro Capello accetti di allenare la nazionale
Circochecco
30-12-2005, 23:24
Conta solo e sempre il prodotto finale.La geforce 7800 gtx 512 così come esce dalla fabbrica spacca il culo a qualsiasi altra scheda attualmente sul mercato.Questo conta alla fine e nVIDIA lo sa gestire molto bene questo concetto.
perfettamente d'accordo a metà, nella parte in cui dici che la 7800gtx "spacca il culo" alla concorrenza.. mi sembra un po' eccessivo, il divario prestazionale c'è, nessuno lo nega, ma la x1800xt non è poi sta schifezza.. EH!
Vero quello che scrivi Nemesis, il problema della gtx512 semmai è che dalla fabbrica non ne escono più.....
Quotissimo!!!!!!!!!
^TiGeRShArK^
30-12-2005, 23:44
allora... come lo vedi il girone dell Italia ai mondiali ? :p
:confused::eek::rotfl:
Free Gordon
31-12-2005, 01:57
ho dei dubbi... a 1,4v moltissime schede ( la maggior parte ) di quelle prodotte nei primi mesi non arrivavano a 500Mhz , a 1,5v sarebbe da verificare ma anche se fosse nelle sue possibilità sarebbe tirata un po troppo secondo me.
Quoto, era quello che volevo dire io.
A 500mhz molte GTX256 erano al limite dell'OC. ;)
aaasssdddfffggg
31-12-2005, 08:09
E' chiaro che non escono più adesso dalla fabbrica.Sono a pieno regime con il G71 a SANTA CLARA.Tra un mese e mezzo saranno in tutto il mondo come sempre all'atto della presentazione subito disponibili.Adoro nVIDIA nei suoi metodi di marketing.
aaasssdddfffggg
31-12-2005, 08:10
Tranquilli ragazzi.Poi sarò io a rendere di nuovo disponibili le 7800 gtx 512.Come arriva il G71 mi trovate su ebay con le mie offerte di 2 7800 gtx 512.Buon anno a tutti.
io dico solo che le gtx le trovi a 680 700 euro mentre le 1800 xt a 580 euro...secondo mè sono fasce di prezzo troppo a veramente troppo diverse per essere confrontate.Buon anno
andreamarra
31-12-2005, 10:15
dovevate svegliarvi prima ragazzi.a novembre si trovavano eccome queste schede!
ciao, premetto che ognuno può spendere i suoi soldi come meglio crede.
Sinceramente non so però quanto sia opportuno dire "dovevate svegliarvi" considerando che hai speso praticamente tre milioni di vecchie lire (!) per due schede video che servono praticamente solo per i numeri al 3D merd.
Insomma, una "semplice" GT o XL bastava e avanzava nei giochi attuali e futuri.
Poi, sinceramente io cerco più la qualità che le prestazioni nude e crude: quanto G70/G71 devi mettere in SLI per poter visualizzare HDR fp16 e filtri di antialiasing?
Risposta: nemmeno una. E l'HDR sarà il futuro dei videogiochi.
andreamarra
31-12-2005, 10:17
io dico solo che le gtx le trovi a 680 700 euro mentre le 1800 xt a 580 euro...secondo mè sono fasce di prezzo troppo a veramente troppo diverse per essere confrontate.Buon anno
è un concetto tanto semplice, qanto difficile da far capire :D!
Leggo in giro cose del tipo: va bhè, se uno spende 500 euro per una scheda video, non ha problemi a mettere altri 120-150 euro!
La verità è che alla fascia di prezzo di 500-550 euro la ati ha una scheda con 512 mega di ram. La nvidia no, e con oltre cento euro in più io sinceramente punterei a un bel banco da un giga performante...
Senza dimenticare che le XT sono schede in mercato, le GTX512 sono in pochi sample e servono giusto a dire "siamo i più veloci".
aaasssdddfffggg
31-12-2005, 10:35
Il problema io non me lo pongo proprio perchè nVIDIA correrà ai ripari per l'HDR e fsaa con le prossime schede ed io le cambio in continuazione!Come vedi,il problema non esiste!
aaasssdddfffggg
31-12-2005, 10:41
fai un po' di confusione.Il 7800 gtx supporto al livello hardware l'HDR.non lo gestisce onsieme al fsaa.Ma questo è un altro discorso.Io che faccio girare i titoli a 1920x1200 a 100 hz che senso ha di applicare pure il fsaa?Ti assicuro che vedi una cartolina in movimento e l'HDR me lo godo in tutto il suo splendore.
aaasssdddfffggg
31-12-2005, 10:48
una semplice gt oppure una xl bastano e avanzano se ti accontenti dfi avere un monitor da 17".Non rientra nella mia ottica.Per carità.Prova a far girare una di queste scheda a risoluzioni top tipo 1920x1200 oppure 2048x1400 e vedi come si siedono per terra.Per questo sfrutto tutta la potenza dello SLI.Per me 1600x1200 è il tetto minimo.
E' chiaro che non escono più adesso dalla fabbrica.Sono a pieno regime con il G71 a SANTA CLARA.Tra un mese e mezzo saranno in tutto il mondo come sempre all'atto della presentazione subito disponibili.Adoro nVIDIA nei suoi metodi di marketing.
perla della settimana/anno nuovo
Free Gordon
31-12-2005, 11:34
le GTX512 sono in pochi sample e servono giusto a dire "siamo i più veloci".
Ce l'ho più lungo di Ati... :sofico:
ciao, premetto che ognuno può spendere i suoi soldi come meglio crede.
Sinceramente non so però quanto sia opportuno dire "dovevate svegliarvi" considerando che hai speso praticamente un milione e mezzo di vecchie lire (!) per due schede video che servono praticamente solo per i numeri al 3D merd.
3 milioni vorrai dire.
andreamarra
31-12-2005, 11:54
3 milioni vorrai dire.
si :D!
aaasssdddfffggg
31-12-2005, 11:55
1440 euro per l'esattezza e sono felicissimo del risultato che mi sanno dare anche se tra 2 mesi li dovrò abbandonare per migrare sul g71.
Free Gordon
31-12-2005, 12:00
1440 euro per l'esattezza e sono felicissimo del risultato che mi sanno dare anche se tra 2 mesi li dovrò abbandonare per migrare sul g71.
Ma se mai R580 fosse migliore, cosa faresti?
aaasssdddfffggg
31-12-2005, 12:04
e che faccio il corssfire dopo?Per carità!!Lo SLI è davvero una tecnologia collaudata.La m ia ottica prevede sempre 2 schede ormai.Io upgro 2 alla volta.
Foglia Morta
31-12-2005, 12:08
Ma se mai R580 fosse migliore, cosa faresti?
che domande... meglio 150 fps con tutti i filtri o 100 fps con filtri e hdr ? :D
ovvio... la prima :rolleyes:
aaasssdddfffggg
31-12-2005, 12:28
scontato la prima!sopratutto se ti devi godere titoli a risoluzioni altissime dove il fsaa non serve più e l'hdr lo attivi tranquillamente.
^TiGeRShArK^
31-12-2005, 22:57
una semplice gt oppure una xl bastano e avanzano se ti accontenti dfi avere un monitor da 17".Non rientra nella mia ottica.Per carità.Prova a far girare una di queste scheda a risoluzioni top tipo 1920x1200 oppure 2048x1400 e vedi come si siedono per terra.Per questo sfrutto tutta la potenza dello SLI.Per me 1600x1200 è il tetto minimo.
:eek:
cioè ti vedi pure i giochi sformati???
le risoluzioni in 4:3 sarebbero 2048X1536 e 1920X1440...
a dir la verità anke 1280X1024 sarebbe lievemente sformato dato ke la risoluzione 4:3 corrispondente sarebbe 1280X960.
cmq...
tanti auguri a tutti! :D
BlackBug
31-12-2005, 23:39
Mi pare che le sorelline Ati e Nvidia per farsi concorrenza piùttosto che investire su progetti realmente nuovi tentino di spremere al massimo le tecnologie attuali. Secondo me converrebbe sedersi a tavolino e pensare a qualcosa di nuovo...un po' come ha fatto amd con athlon64!Fermorestando che un giro con una belva tipo questa lo farei volentieri!!!!
aaasssdddfffggg
01-01-2006, 09:17
ma io ho il 16:10.Altro che sformato.Metti call of duty 2 a 1920x1200 a 16:10 e poi ne riparliamo.L'ho detto prima...qui dentro lavorate tutti a SDANTA CLARA.
Giovannino
01-01-2006, 12:16
Ma sto R580 le gestisce finalmente le texture rettangolari (magari dotate di mipmapping e non po2) oppure siamo ancora all'epoca dei cavernicoli con tutte le parole reserved in fragment shader?
Free Gordon
01-01-2006, 13:45
e che faccio il corssfire dopo?Per carità!!Lo SLI è davvero una tecnologia collaudata.La m ia ottica prevede sempre 2 schede ormai.Io upgro 2 alla volta.
E sticazzi! :sofico:
Free Gordon
01-01-2006, 13:47
ma io ho il 16:10.Altro che sformato.Metti call of duty 2 a 1920x1200 a 16:10 e poi ne riparliamo.L'ho detto prima...qui dentro lavorate tutti a SDANTA CLARA.
Anch'io ho quel monitor, lo uso con il mio pc e la Xbox360. :D
Non sei obbligato ad usarlo a 1920x1200 eh... :D si vede benissimo cmq!
ma io ho il 16:10.Altro che sformato.Metti call of duty 2 a 1920x1200 a 16:10 e poi ne riparliamo.L'ho detto prima...qui dentro lavorate tutti a SDANTA CLARA.
sisi...
il problema secondo me sta in quelle persone che pensano che l'innovazione tecnologica stia nello SLi e si vantano di aver comprato 2 schede uguali con un prezzo fuori mercato, possiamo prevedere con certezza che i modelli di punta di r580 e g71 non costeranno quanto costano le gtx512 eppure qui c'è gente che pontifica dall'alto dei 1500 euro di spesa.
ognuno coi soldi ci può fare ciò che vuole ma almeno si dovrebbe avere un po' di onestà "culturale".
nn possiamo permettere di farci abbindolare dal marketing in questo modo, io voglio che un gioco giri bene su 1 scheda non su 2.
ma io ho il 16:10.Altro che sformato.Metti call of duty 2 a 1920x1200 a 16:10 e poi ne riparliamo.L'ho detto prima...qui dentro lavorate tutti a SDANTA CLARA.
ma di quanti pollici è ?
24" immagino
l'unica vera diagonale x la quale valga la pena avere un 16/10 a quella risoluzione
aaasssdddfffggg
01-01-2006, 15:59
bravo.esatto.24"
Free Gordon
01-01-2006, 16:29
24" immagino
l'unica vera diagonale x la quale valga la pena avere un 16/10 a quella risoluzione
Sì, è un 24". ;)
Star trek
01-01-2006, 19:09
Evvai un'altra scheda da 1.000.000.000.000.000 di € .
E' bello fare dei mutui per le sched video. :-)
certo il chip è sempre G70. non hai capito a 500/1500 ci doveva uscire all'inizio a maggio/giugno. ma non essendoci una valida concorrenza è stata fatta uscire a 430/1200. quando la concorrenza(5 mesi dopo) si è manifestata nella x1800xt l'hanno fatta uscire nella versione originaria comprensiva dell'adeguamento. la ram disponibile era la 1700 e l'hanno fatta uscire con la ram a 1700(provocando un netto aumento dei costi)e per il chip i 500 iniziali son stati elevati a 550.
più chiaro ora?
;)
Esattamente, la GTX (256) era quanto bastava per mantenere la leadership, immise sul mercato la versione depotenziata dell'NV47, semplicemente perche' bastava. In questo modo aveva al contempo rese di produzione eccellenti (specialmente se comparate alla XT PE) e possibilita' di vendere in futuro lo stesso progetto in formati piu' potenti. nVidia non poteva sapere quando ATI avrebbe risposto e dunque gli assegno' una sigla nuova ed ambigua GTX (notare che la X in genere indica le versioni meno preformanti e depotenziate della casa, tipo XT o MX). ATI ritardo' ed addirittura nVidia si trovò nelle condizioni di poter immettere una versione ancora meno potente (assegnando cosi' alla sigla GTX, la palma di TOP class).
La versione a 550Mhz e' sicuramente tirata, ma cio' non toglie che l'originale fosse sicuramente stata ideata per lavorare attorno ai 500Mhz.
Ma la GTX 512 sale ancora in OC... Non mi sembra proprio tirata per il collo... E' vero, ha un overvolt di 0,2 per il processo produttivo che ha, ma anche la 1800XT ha un overvolt di 0,2V. Per correttezza, anche la X1800XT sale ancora in OC, anche se 1,5V contro 1,3V (GTX 512) sono meno, in percentuale di overvolt rispetto agli 1,3 contro 1,1 della 1800XT... La GTX della redazione, sale da 550 a 600, di core, quasi un 10%, la XT della redazione, con il bios modificato, è arrivata a 725, partendo da 625, più del 10%... Possiamo dire che la XT è meno "tirata" della GTX 512... Ma sono entrambe tirate...
Non e' vero, la XT e' percentualmente piu' overvoltata, che il valore assoluto (1,3 contro 1,5) sia inferiore non vuol dire nulla, si sta parlando di processi produttivi differenti, il primo richiederebbe 1,1v il secondo 1,3v.
Dunque la X1800XT e' overvoltata del 18% mentre la GTX 512 del 15%.
ho dei dubbi... a 1,4v moltissime schede ( la maggior parte ) di quelle prodotte nei primi mesi non arrivavano a 500Mhz , a 1,5v sarebbe da verificare ma anche se fosse nelle sue possibilità sarebbe tirata un po troppo secondo me.
Dipende da molti fattori, non solo dal DIE, primo tra tutti il ponte d'alimentazione. Inutile sprecare soldi per sovradimensionare cio' che basta "piu' economico e fiacco".
... come fate a vedere tutta questa differenza tra una g70 (500/1500) e una nv40 (400/1200) ?
certo, la prima va meglio indubbiamente, ma visto che il core deriva direttametne da nv40 con l'aggiunta di 8 pipes in più, tutto sto incremento sinceramente non lo vedo O_o..
basta solo vedere come girano entrambe su fear..
quando una arrancherà, l'altra non andrà poi tanto meglio...
Non e' vero, ci sono stati degli affinamenti tecnici (potenziamento di alcune ALU).
Quoto, era quello che volevo dire io.
A 500mhz molte GTX256 erano al limite dell'OC. ;)
E volevi dire una cosa sbagliata, perche' nonostante tutte le componenti ridimensionate, raggiungevano minimo i 480-500Mhz. Per il resto leggi sopra.. :)
è un concetto tanto semplice, qanto difficile da far capire :D!
Leggo in giro cose del tipo: va bhè, se uno spende 500 euro per una scheda video, non ha problemi a mettere altri 120-150 euro!
La verità è che alla fascia di prezzo di 500-550 euro la ati ha una scheda con 512 mega di ram. La nvidia no, e con oltre cento euro in più io sinceramente punterei a un bel banco da un giga performante...
Senza dimenticare che le XT sono schede in mercato, le GTX512 sono in pochi sample e servono giusto a dire "siamo i più veloci".
Se qualcuno spende 150 € in piu' per la GTX 512, avra' i suoi motivi, anche se tu non li vedi (basterebbe un occhio ai risultati).. Fermo restando che per me sono fessi tutti quelli che prendono una delle due VGA in questione adesso.
La ATI dà 512Mb nella fascia dei 550€ (fascia alla quale nVidia non partecipa), ma oltre che in Q4 alla massima qualita' (che per altro e' identica a quella subito prima), a che altro servono?? :) Per quando usciranno giochi che richiederanno simili quantitativi di RAM, non andra piu' bene nemmeno una GTX 512 senza filtri.
______________________
Per quanto riguarda la notizia..
Innanzi tutto, direi che si sia dato tropo peso ad un rumor per altro molto incompleto.
Poi dovreste anche considerare il fatto che le ROPs (se fosse vero il quantitativo ancora pari a 16), potrebbero essere migliorate in termini di efficienza o clock.
Per quanto riguarda invece i clock della VPU, sulla “notizia” non sono riportati valori, ma con 90nm si porta' salire ben oltre i 550Mhz attuali, anzi direi che si partira' dai 650 come minimo (per le versioni d'alta gamma, perche' per le medie, le frequenze non c'entrano nulla con i limiti fisici).
Guarda che è proprio quello che ho detto io :) ... Cioè, se leggi bene, ho detto che la XT è più overvoltata, in percentuale, della GTX (anche se è lo stesso in valore assoluto), ma anche che è probabilmente per questo che sale anche di più in OC (anche se teoricamente un solo esemplare di GTX e un solo esemplare di XT non fanno statistica, ma anche su altre recensioni on line l'OC è simile, dunque ... ;) )
L'ho letto anche io il post di Yossarian che spiegava le tensioni dei processi produttivi... ;)
Ciao e buon anno. :)
Free Gordon
03-01-2006, 10:11
E volevi dire una cosa sbagliata, perche' nonostante tutte le componenti ridimensionate, raggiungevano minimo i 480-500Mhz. Per il resto leggi sopra
Infatti ho detto 500mhz.. perchè era quello il loro limite... :rolleyes:
Se poi ti attacchi a presunti assurdi limiti imposti da nVidia, solo per giustificare la tua tesi... :D
x bjt2 Scusa, mi sono confuso!! :)
x free Gordon
Io ho fatto notare come non salisse per altri motivi, non certo per differenza di progetto. Dire che il G70 non fosse stato ideato per lavorare a frequenze superiori sin da subito, perche' le prime GTX non superavano i 500Mhz e' sbagliato per i motivi sopra elencati.
Free Gordon
03-01-2006, 17:04
x bjt2 Scusa, mi sono confuso!! :)
x free Gordon
Io ho fatto notare come non salisse per altri motivi, non certo per differenza di progetto. Dire che il G70 non fosse stato ideato per lavorare a frequenze superiori sin da subito, perche' le prime GTX non superavano i 500Mhz e' sbagliato per i motivi sopra elencati.
Anche R300 ha una rev che si chiama R350/360 e che è cloccata a freq diverse... ma sono lo stesso identico chip. ;)
Spesso ho fatto riconoscere la la 9700 come una 9800 dai driver, senza alcun problema nei giochi. ;)
Stesso discorso si può fare addirittura sul bios.
Nvidia ha fatto la stessa cosa (anche se in una scala enormemente più piccola, dato che le GTX512 sono delle pure samples-gpu dal prezzo allucinante, tirate fuori ad hoc per dire: "io ce l'ho più grosso" :D ) solo che non ha rinominato il chip.
Anche R300 ha una rev che si chiama R350/360 e che è cloccata a freq diverse... ma sono lo stesso identico chip. ;)
Spesso ho fatto riconoscere la la 9700 come una 9800 dai driver, senza alcun problema nei giochi. ;)
Stesso discorso si può fare addirittura sul bios.
Nvidia ha fatto la stessa cosa (anche se in una scala enormemente più piccola, dato che le GTX512 sono delle pure samples-gpu dal prezzo allucinante, tirate fuori ad hoc per dire: "io ce l'ho più grosso" :D ) solo che non ha rinominato il chip.
Non e' esattamente la stessa cosa, in tali casi il chip era identico se non ricordo male ed a volte anche il PCB. In questo caso e' identico solo il DIE, il chip come il PCB sono stati invece creati "a risparmio", perche' bastavano a battere in tutto la concorrenza, mantenendo costi e produzione su livelli ottimali (per la fascia).
Non e' vero nemmeno che la GTX512 e' proposta ad un prezzo allucinante, quello consigliato da nVidia e' di 650€, al lancio, (ora non so), il prezzo allucinante lo ha fatto la richiesta.
Se una versione PE di ATI avesse mai avuto una simile richiesta, (e non e' mai successo) avrebbe vuto un rialzo del prezzo dettato dal mercato, simile a quello che vediamo in questo caso. Ovviamente ad nVidia non importa nulla di produrre maggiori volumetrie di tale VGA, tra poco arriva qualcosa di molto piu' potente ad un prezzo inferiore.
Si possono accorgere di aver sbagliato solo durante la fase di fabbricazione
:rotfl:
Ha ha :sofico:
Ma chi sei?
Mr TSMC?
C'hai na fonderia tua?
Mai tu hai la benchè minima idea di come si progetti un qualsiasi integrato?
Di quali problemi si devono risolvere?
Secondo me no...
Meglio perchè mi sono sbellicato dalle risate :D
Free Gordon
03-01-2006, 22:26
Non e' esattamente la stessa cosa, in tali casi il chip era identico se non ricordo male ed a volte anche il PCB. In questo caso e' identico solo il DIE, il chip come il PCB sono stati invece creati "a risparmio", perche' bastavano a battere in tutto la concorrenza, mantenendo costi e produzione su livelli ottimali (per la fascia).
Non e' vero nemmeno che la GTX512 e' proposta ad un prezzo allucinante, quello consigliato da nVidia e' di 650€, al lancio, (ora non so), il prezzo allucinante lo ha fatto la richiesta.
Se una versione PE di ATI avesse mai avuto una simile richiesta, (e non e' mai successo) avrebbe vuto un rialzo del prezzo dettato dal mercato, simile a quello che vediamo in questo caso. Ovviamente ad nVidia non importa nulla di produrre maggiori volumetrie di tale VGA, tra poco arriva qualcosa di molto piu' potente ad un prezzo inferiore.
Prima di dire ciò che hai detto tu, bisognerebbe avere i dati di vendita alla mano, io non ti posso controbattere (non avendoli), per cui tralascio.
Resto però della mia idea: GTX512 è un chip tirato ad-hoc per fare la "guerra dei numeri" ad Ati, che dal canto suo però, se ne sbatte allegramente e continua nella sua ricerca della miglioria architetturale, più che della forza bruta.
Per questo GTX512 ha quel dissipatore, per questo non si trova. ;)
Prima di dire ciò che hai detto tu, bisognerebbe avere i dati di vendita alla mano, io non ti posso controbattere (non avendoli), per cui tralascio.
Resto però della mia idea: GTX512 è un chip tirato ad-hoc per fare la "guerra dei numeri" ad Ati, che dal canto suo però, se ne sbatte allegramente e continua nella sua ricerca della miglioria architetturale, più che della forza bruta.
Per questo GTX512 ha quel dissipatore, per questo non si trova. ;)
E' solo un tampone d'immagine, ecco perche' non viene prodotta in grandi quantita'. Per 2 o 3 mesi va benissimo cosi'. In fin dei conti la guerra commerciale nVidia la fa con la GTX256 e la GT, che sono vendute a circa 100€ meno delle concorrenti.
Foglia Morta
04-01-2006, 15:22
E' solo un tampone d'immagine, ecco perche' non viene prodotta in grandi quantita'. Per 2 o 3 mesi va benissimo cosi'. In fin dei conti la guerra commerciale nVidia la fa con la GTX256 e la GT, che sono vendute a circa 100€ meno delle concorrenti.
tutta la fascia alta è per lo più una questione d immagine... altrimenti si vedrebbero moltissime X1800XT 256 MB ( il miglior rapporto prezzo prestazioni della fascia alta ) , la GTX 512 MB lo è spudoratamente giacchè appunto esiste quasi solo l immagine , e non viene prodotta in volumi decenti perchè non riescono .
LukeHack
04-01-2006, 15:43
Quote:
Originariamente inviato da LukeHack
... come fate a vedere tutta questa differenza tra una g70 (500/1500) e una nv40 (400/1200) ?
certo, la prima va meglio indubbiamente, ma visto che il core deriva direttametne da nv40 con l'aggiunta di 8 pipes in più, tutto sto incremento sinceramente non lo vedo O_o..
basta solo vedere come girano entrambe su fear..
quando una arrancherà, l'altra non andrà poi tanto meglio...
Non e' vero, ci sono stati degli affinamenti tecnici (potenziamento di alcune ALU).
eh mej cojoni, una rivoluzione! :asd:
leoneazzurro
04-01-2006, 16:11
eh mej cojoni, una rivoluzione! :asd:
una rivoluzione assolutamente no, però questo piccolo accorgimento permette a G70 in alcuni test di andare anche a più di 2 volte più veloce di NV40 (test pixel shader, giochi pesantemente shader-limited con molte operazioni MADD) a parità di frequenza.
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=10
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=8
mi sa ke ati è rimasta indietro :rolleyes "A contrasto, l'architettura R580 di ATI dovrebbe integrare 16 pipeline di rendering" non acquisterò mai + skede ati in vita mia :sofico:
mi sa ke ati è rimasta indietro :rolleyes "A contrasto, l'architettura R580 di ATI dovrebbe integrare 16 pipeline di rendering" non acquisterò mai + skede ati in vita mia :sofico:
Grazie di averci reso partecipi della tua scelta.
LukeHack
05-01-2006, 15:10
mi sa ke ati è rimasta indietro :rolleyes "A contrasto, l'architettura R580 di ATI dovrebbe integrare 16 pipeline di rendering" non acquisterò mai + skede ati in vita mia :sofico:
straquoto, ma non per le 16 pipe,bensì per i drivers scandalosi in OGL :asd:
eh mej cojoni, una rivoluzione! :asd:
Menomale che ti ha risposto Leo, io non sarei stato cosi' sintetico e delicato. :p
__________
Ma perche' non pensano almeno due volte?? :(
LukeHack
06-01-2006, 14:52
Menomale che ti ha risposto Leo, io non sarei stato cosi' sintetico e delicato. :p
__________
Ma perche' non pensano almeno due volte?? :(
puoi essere sintetico e galante quanto ti pare, non cambiano i risultati: una 7800gt arranca lì dove le 6800(gt e ultra) arrancano (vedi Fear)...
un'ottimizzazione della circuiteria e poco altro servono, ma a poco,se le architetture sono pressocchè le stesse ;)
Free Gordon
06-01-2006, 15:27
E' solo un tampone d'immagine..
beh, su questo non ho più dubbi. :D
aaasssdddfffggg
06-01-2006, 18:47
Da quanto riportato, e sempre se tutto ciò troverà riscontri oggettivi nei prossimi giorni, sembrerebbe dunque che la fonte di questa indiscrezione sia la stessa NVIDIA, la quale, oltre a sostenere di essere in grado di anticipare il sampling del nuovo chip (che di fatto sottintende come questo fosse originariamente previsto in un momento successivo), altresì si mostrerebbe anche molto confidente sul fatto che tale sampling sia in grado non solo di contrastare l'incremento di prestazioni che è lecito aspettarsi date le presunte caratteristiche del nuovo chip di ATI, ma addirittura di annichilirlo completamente!
Da quanto riportato, e sempre se tutto ciò troverà riscontri oggettivi nei prossimi giorni, sembrerebbe dunque che la fonte di questa indiscrezione sia la stessa NVIDIA, la quale, oltre a sostenere di essere in grado di anticipare il sampling del nuovo chip (che di fatto sottintende come questo fosse originariamente previsto in un momento successivo), altresì si mostrerebbe anche molto confidente sul fatto che tale sampling sia in grado non solo di contrastare l'incremento di prestazioni che è lecito aspettarsi date le presunte caratteristiche del nuovo chip di ATI, ma addirittura di annichilirlo completamente!
:stordita: e se fosse il contrario? ti butterai dalla finestra eh? :stordita:
aaasssdddfffggg
06-01-2006, 19:57
COL CAZZO!
aaasssdddfffggg
06-01-2006, 19:58
MI PREPARARO AL PROSSIMO SLI G71.
aaasssdddfffggg
06-01-2006, 20:04
ormai il momento della verità si avvicina :
"NVIDIA will be showing off the G71 performance to their partners in within a week and they promised an ATi R580 killer. We shall see about it."
ormai il momento della verità si avvicina :
"NVIDIA will be showing off the G71 performance to their partners in within a week and they promised an ATi R580 killer. We shall see about it."
fonte? intanto leggi questo...
http://www.theinquirer.net/?article=28792
:mbe:
Free Gordon
07-01-2006, 00:23
COL CAZZO!
E non sarebbe nemmeno la prima volta che succede! :ciapet:
Free Gordon
07-01-2006, 00:27
fonte? intanto leggi questo...
http://www.theinquirer.net/?article=28792
:mbe:
Sinceramente di Inquirer mi fido poco... :D
aaasssdddfffggg
07-01-2006, 08:43
anzi,visto che è stato ormai certificato quasi quas passo al quad sli G71 appena escono.
anzi,visto che è stato ormai certificato quasi quas passo al quad sli G71 appena escono.
uuuuh ma come sei bravo tuuuuuu
aaasssdddfffggg
07-01-2006, 12:19
POTENZA ASSOLUTA!
aaasssdddfffggg
07-01-2006, 12:20
CARO FEK TORNA A FARTI UNA PARTITINA AL TUO NUOVO XBOX 360 E GODITI LA MIGLIORE GRAFICA IN CIRCOLAZIONE.....contento tu...
sopravvivero'.... (e mi accontento di giocare con l'r580)
aaasssdddfffggg
07-01-2006, 12:42
Grande!Sarai superato a breve di nuovo....
sopravvivero', tanto non l'ho pagata, e magari mi mandano il G80
Ma crescere un po' è così offensivo per i vostri giganteschi ego a 0.003um?
Ma crescere un po' è così offensivo per i vostri giganteschi ego a 0.003um?
Dai che si scherza :)
aaasssdddfffggg
07-01-2006, 13:41
concordo
Dark Schneider
07-01-2006, 14:52
anzi,visto che è stato ormai certificato quasi quas passo al quad sli G71 appena escono.
Scusa ma che vga hai adesso?
Scusa ma che vga hai adesso?
Due misere 7800GTX 512. :rolleyes:
aaasssdddfffggg
07-01-2006, 15:22
si, ma ancora per pochi giorni ...
Dark Schneider
07-01-2006, 17:27
Scusa ma perchè te le vendi? :confused: Son uscite nemmeno 1 mese e mezzo fa le GTX da 512 MB.
OverClocK79®
07-01-2006, 17:36
POTENZA ASSOLUTA!
Nemesis puoi anche finirla con le frasi da FanBoy
è una scheda video non una squadra di calcio.
:rolleyes:
in più le tue frasi tendono a scatenare il flame e destabilizzano la tranquillità della discussione
BYEZZZZZZZZZZZZZ
Nemesis puoi anche finirla con le frasi da FanBoy
è una scheda video non una squadra di calcio.
:rolleyes:
in più le tue frasi tendono a scatenare il flame e destabilizzano la tranquillità della discussione
BYEZZZZZZZZZZZZZ
concordo... finalmente un moderatore se ne accorge. Grazie :rolleyes:
aaasssdddfffggg
07-01-2006, 18:06
concordo
Quando finirà questa continua rincorsa? I consumatori medi sono sempre più spaesati da sigle, tecnologie che si ripetono e che producono soli pochi vantaggi rispetto al momento precedente, ecc.
Io spero mai. Chiediti piuttosto quando finiranno gli utenti deficienti che comprano le schede ad ogni generazione. Che il progresso vada avanti è normale. Procede a piccoli passi perchè è la tecnica che va cosi. Se comprassi una scheda ogni anno/anno e mezzo non parleresti cosi.
Scusa ma perchè te le vendi? :confused: Son uscite nemmeno 1 mese e mezzo fa le GTX da 512 MB.
Sono ancora introvabili a quanto pare.... A dispetto dei sistemi QUAD-SLI di Dell...
Free Gordon
11-01-2006, 21:48
Sono curioso di vedere come sarà lo scontro R580 x2 (cross) vs G71 x2 (sli)! :D
Prezioso
23-01-2006, 16:14
il chip verrà presentato a marzo o febbraio?
le nuove generazioni solitamente escono a giugno\luglio....quindi il g71 è una soluzione solo per arrangiare 5 mesi fino al g80 o il g80 ritarderà???
chiedo questo xkè devo cambiare scheda video e non so se aspettare il g71 o prendere cmq ora il g70(7800 gtx 512,ordinata a dicembre e ancora non disponibile!!!!!!)....cambierei la scheda in tutti i casi non appena esce una scheda dx10....diciamo che quella che acquisterei ora la userei un annetto.....
!SengiR!86!
23-01-2006, 16:27
non so quando uscirà il g80 ma considerando che in ogni caso tra un anno la cambi ti direi di prendere la 7800 gtx dato che penso farà andare tutti i giochi più o meno al massimo per un anno...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.