View Full Version : NVIDIA GeForce GTX 470, le prime immagini
Redazione di Hardware Upg
10-03-2010, 11:03
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-470-le-prime-immagini_31874.html
Emergono le prime immagini di GeForce GTX 470, la scheda di NVIDIA in grado di supportare DirectX 11 e caratterizzata dalla presenza di 448 stream processor
Click sul link per visualizzare la notizia.
Bl4ck-D3m0n
10-03-2010, 11:05
non c'avranno mica fatto vedè un po troppo da ste foto :|
helmen84
10-03-2010, 11:06
Almeno due news a settimana per mantenere alto l'hype...e la qualità delle immagini questa volta batte tutto, anche il ceo con in mano una scatoletta vuota!
Che stiano buoni e tornino a fare concorrenza seria!
La ram è settata a 2 Ghz, quindi 4 effettitivi, meglio del previsto.
Simedan1985
10-03-2010, 11:14
Aspettiamo il 26.....
Ok ragazzi, pronti per farci tutti una bella teglia di pasta al forno ? :D
Sabato sera tutti a casa mia :asd:
io sto impazzendo XD quando diamine esconooooo!!!??? (era uno sfogo XD ovviamente ho letto l'articolo)
illidan2000
10-03-2010, 11:19
secondo me c'è un errore nella news.
Non credo ci sia il bisogno di due schede in SLI per il 3D surround
longhorn7680
10-03-2010, 11:23
La ram è settata a 2 Ghz, quindi 4 effettitivi, meglio del previsto.
Meglio di cosa???? Sono GDDR5 percio i 4 Ghz sono il minimo per una fascia alta!
longhorn7680
10-03-2010, 11:24
secondo me c'è un errore nella news.
Non credo ci sia il bisogno di due schede in SLI per il 3D surround
Invece sei male informato! Ci vogliono 2 schede per il 3D surround!
Invece Ati con eyefinity lo gestisce con una sola VGA!:read: :read:
non c'avranno mica fatto vedè un po troppo da ste foto :|
Ormai quando esce una news su fermi, il 90% dei post riguarda i ritardi, l'arretratezza rispetto ad ati, ecc.
Ogni news diventa un covo di fan boy. Non vi interessano? Che commentate a fare?
PS Bl4ck-D3m0n non so se appartieni alla categoria di cui sopra; il mio è discorso generale. Ho solo approfittato del tuo post per dire la mia.
mackillers
10-03-2010, 11:28
invece sembra prorpio serva una configurazione SLI per il 3D sorround, lo ha confermato anche Nvidia.
onestamebnte però se vuoi giocare con 3 monitor probabilmente hai prorpio bisogno di almeno 2 VGA in molti giochi quindi..
mackillers
10-03-2010, 11:32
La ram è settata a 2 Ghz, quindi 4 effettitivi, meglio del previsto.
Uhm ma la GDDR5 non moltiplicava la frequenza per 4?.. per esempio la mia 5870 ha la ram settata a 1200 e reali 4800mhz..
se la frequenza di quella ram è davvero 2000Mhz la frequenza reale sarebbe 6ghz??
forse ho un po' le idee confuse
MiKeLezZ
10-03-2010, 11:32
Invece sei male informato! Ci vogliono 2 schede per il 3D surround!
Invece Ati con eyefinity lo gestisce con una sola VGA!:read: :read:Te sei informato anche peggio visto che il 3D è prerogativa di NVIDIA... Con ATI c'hai il Surround, ma non il 3D.
Ormai quando esce una news su fermi, il 90% dei post riguarda i ritardi, l'arretratezza rispetto ad ati, ecc.
Ogni news diventa un covo di fan boy. Non vi interessano? Che commentate a fare?
PS Bl4ck-D3m0n non so se appartieni alla categoria di cui sopra; il mio è discorso generale. Ho solo approfittato del tuo post per dire la mia.
Beh, ma se la sono cercata. Sarebbe come pretendere che in una news su Duke Nukem Forever tutti rimangano seri. Se la Nvidia avesse gestito meglio la situazione...
D'altra parte, se poi queste Fermi supereranno le aspettative (ho i miei dubbi, ma vedremo), allora la cosa si potrebbe calmare.
Human_Sorrow
10-03-2010, 11:34
Te sei informato anche peggio visto che il 3D è prerogativa di NVIDIA... Con ATI c'hai il Surround, ma non il 3D.
... mi sa che hanno fatto un po' di confusione con Eyefinity ;)
appleroof
10-03-2010, 11:37
Ormai quando esce una news su fermi, il 90% dei post riguarda i ritardi, l'arretratezza rispetto ad ati, ecc.
Ogni news diventa un covo di fan boy. Non vi interessano? Che commentate a fare?
PS Bl4ck-D3m0n non so se appartieni alla categoria di cui sopra; il mio è discorso generale. Ho solo approfittato del tuo post per dire la mia.
quoto, hanno stancato.
Te sei informato anche peggio visto che il 3D è prerogativa di NVIDIA... Con ATI c'hai il Surround, ma non il 3D.
Esatto. Inoltre il 3D sorround è una tecnologia praticamente nata giocare in 3D sui 3 monitor previsti, mentre con Eyefinity ciò non è (ancora) possibile.
http://www.tgdaily.com/hardware-features/48769-amd-launches-open-3d-initiative
halduemilauno
10-03-2010, 11:37
Meglio di cosa???? Sono GDDR5 percio i 4 Ghz sono il minimo per una fascia alta!
questo può forse valere con il bus a 256 bit. con il bus a 320 bit sono ben + del minimo.
darthrevanri
10-03-2010, 11:40
@mackillers 2 x 4 fa 8ghz il sonno fa brutti scherzi eh :D
questo può forse valere con il bus a 256 bit. con il bus a 320 bit sono ben + del minimo.
Cosa c'entra l'interfaccia del bus con la frequenza di funzionamento?
ma scusate, 2Ghz sulla memoria GDDR5 non va moltiplicato per 4? perchè quel programma ne vede 4di Ghz effettivi?
appleroof
10-03-2010, 11:44
Cosa c'entra l'interfaccia del bus con la frequenza di funzionamento?
la banda (non quella musicale :D )
appleroof
10-03-2010, 11:50
Si tratta di una news fresca fresca...Non credo che la lineup di prodotti di cui si parla verrà lanciata tanto presto. :)
si, credo anche io
era solo per dire che sono saliti sul carro pure loro :)
MiKeLezZ
10-03-2010, 11:50
ma scusate, 2Ghz sulla memoria GDDR5 non va moltiplicato per 4? perchè quel programma ne vede 4di Ghz effettivi?
La frequenza della RAM effettiva è 1 GHz => quella DDR è 2 GHz, e quella GDDR5 è 4 GHz.
Ovvero (e questo è il valore importante), grazie al bus a 320-bit, la GTX 470 avrà 160 GBps di banda teorica.
Più dei 153,6 GBps di banda teorica della HD 5870, che usa addirittura memorie a 4,8 GHz (1,2 GHz effettivi).
Se tanto mi da tanto, la GTX 480 avrà da 192 GBps a 230,4 GBps di banda teorica, un'enormità.
questo può forse valere con il bus a 256 bit. con il bus a 320 bit sono ben + del minimo.
La frequenza della memoria è indipente dal bus del controller.
Praticamente ogni modulo di memoria dovrebbe (non ne sono esperto, ma qualcun'altro potrà spiegare meglio) avere un bus da 32 bit, aumentando i canali di comunicazione verso la ram si passa a 64 bit, 128, 256,512bit.
320 bit implica invece 10 linee di comunicazione gestite dal controller, per un totale di 320 bit appunto, ma il singolo modulo di memoria deve comunque conservare gli stessi standard indipendentemente dal controller (frequenza di lavolo e canale di comunicazione).
Felice di essere smentito (così mi acculturo un altro po' che non guasta mai).
halduemilauno
10-03-2010, 11:55
La frequenza della RAM effettiva è 1 GHz => quella DDR è 2 GHz, e quella GDDR5 è 4 GHz.
Ovvero (e questo è il valore importante), grazie al bus a 320-bit, la GTX470 avrà 160 GBps di banda teorica.
Più dei 153,6 GBps di banda teorica della HD5870, che usa addirittura memorie a 4,8 GHz (1,2 GHz effettivi).
Se tanto mi da tanto, la GTX 480 potrebbe arrivare ad avere 230,4 GBps di banda teorica, un'enormità.
esatto. per questo prima dicevo con il bus a 320 bit ben + del minimo.
La frequenza della RAM effettiva è 1 GHz => quella DDR è 2 GHz, e quella GDDR5 è 4 GHz.
Ovvero (e questo è il valore importante), grazie al bus a 320-bit, la GTX 470 avrà 160 GBps di banda teorica.
Più dei 153,6 GBps di banda teorica della HD 5870, che usa addirittura memorie a 4,8 GHz (1,2 GHz effettivi).
Se tanto mi da tanto, la GTX 480 avrà da 192 GBps a 230,4 GBps di banda teorica, un'enormità.
Bisogna vedere se la gpu avrà realmente bisogno di quella banda, o saranno solo numeroni ed esperienza per schede future.
Anche se non mi sembra che la banda della 5870 crei problemi. ;)
hanno win7 x64 con i driver che uccidono le GPU.
non è che le hanno bruciate tutte??
questo può forse valere con il bus a 256 bit. con il bus a 320 bit sono ben + del minimo.
Quoto, la bandwidth si calcola come:
Frequenza memoria effettiva (in GHz) x bus (in bit) / 8 (per ottenere i bytes) = bandwidth (in GB/s).
Esempio HD5850: 4 GHz (4 x 1000 MHz GDDR5) x 256 bit / 8 = 128 GB/s
Mettiamo che la GTX 470 abbia come la 5850 4 GHz di frequenza effettiva GDDR5 (che mi sembra realistica e proporzionata al bus di 320 bit) il calcolo diventa:
4 GHz x 320 bit / 8 = 160 GB/s
:)
[ITA]SEREUPIN80
10-03-2010, 12:02
dai che per il 23 settembre secondo me escono :O
:p
MiKeLezZ
10-03-2010, 12:04
La frequenza della memoria è indipente dal bus del controller.
Praticamente ogni modulo di memoria dovrebbe (non ne sono esperto, ma qualcun'altro potrà spiegare meglio) avere un bus da 32 bit, aumentando i canali di comunicazione verso la ram si passa a 64 bit, 128, 256,512bit.
320 bit implica invece 10 linee di comunicazione gestite dal controller, per un totale di 320 bit appunto, ma il singolo modulo di memoria deve comunque conservare gli stessi standard indipendentemente dal controller (frequenza di lavolo e canale di comunicazione).
Felice di essere smentito (così mi acculturo un altro po' che non guasta mai).E' così, il "bus" non è altro la quantità di canali dedicati alle RAM. Ad esempio 320-bit di bus significa ci sono 10 canali da 32-bit disponibili, per altrettanti moduli di RAM (o un valore doppio, si possono infatti mettere in cascata), per questo anche la quantità di RAM montata sulle schede NVIDIA arriva a valori "non standard" come 1,2 GB (10 moduli RAM da ognuno 128MB, oppure 20 moduli di RAM ognuno da 64MB), oppure 1,5GB (12 moduli RAM da ognuno 128MB), al posto dei canonici 1GB (8 moduli di RAM da ognuno 128MB).
La frequenza operativa e la tensione di alimentazione è uguale per ogni modulo.
longhorn7680
10-03-2010, 12:04
questo può forse valere con il bus a 256 bit. con il bus a 320 bit sono ben + del minimo.
Mi spieghi come relazioni le frequenze con il BUS???
Se usano moduli GDDR5 che ad oggi reggono benissimo i 5Ghz e loro li cloccano solo a 4Ghz??? Perche dovrebbero castrarli ulteriormente? Hanno banda in sovrabbondanza ma questo non e un limite! Ripeto metterle a meno di 4Ghz e ridicolo!
longhorn7680
10-03-2010, 12:07
Te sei informato anche peggio visto che il 3D è prerogativa di NVIDIA... Con ATI c'hai il Surround, ma non il 3D.
Il surround su Ati e supportato con 1 sola VGA e anche il 3D (introdotto con i 10.2) sara supportato a breve con 1 sola VGA, mentre con nVidia bisogna comunque usare 2 VGA! Poi io ho risposto all'utente che sul fatto che ci fosse un errore nel'articolo!:read: :read: :read:
halduemilauno
10-03-2010, 12:07
Quoto, la bandwidth si calcola come:
Frequenza memoria effettiva (in GHz) x bus (in bit) / 8 (per ottenere i bytes) = bandwidth (in GB/s).
Esempio HD5850: 4 GHz (4 x 1000 MHz GDDR5) x 256 bit / 8 = 128 GB/s
Mettiamo che la GTX 470 abbia come la 5850 4 GHz di frequenza effettiva GDDR5 (che mi sembra realistica e proporzionata al bus di 320 bit) il calcolo diventa:
4 GHz x 320 bit / 8 = 160 GB/s
:)
esatto e infatti per eguagliare la BW della 5850 alla GTX470 basterebbe ram a 3200.
3.2 GHz x 320 bit / 8 = 128 GB/s.
esatto. per questo prima dicevo con il bus a 320 bit ben + del minimo.
Ma ancora non ho capito che centra il bus del controller con la frequenza del modulo ram?
Se utilizziamo allora un bus da 512bit con ram da 1600mhz (800 mhz x 4 =3200mhz) avremo 408gb/sec quindi un bandwidth enorme con una freq della ram ridicola.
Non possiamo certo parlare della freq della ram legata al bus del controller, significa soltando che non verranno utilizzati chip-ram top certificati per lavorare a 1200mhz, ma i più economici (relativamente economici) chip certificati per lavorare a 1000 mhz.
Meglio di cosa???? Sono GDDR5 percio i 4 Ghz sono il minimo per una fascia alta!
Doveva essere 3.2 Ghz se non sbaglio.
longhorn7680
10-03-2010, 12:12
Ma ancora non ho capito che centra il bus del controller con la frequenza del modulo ram?
Assolutamente nulla! Solo che qualcuno si ostina a voler dimostrare il contrario :doh: :doh:
longhorn7680
10-03-2010, 12:14
Doveva essere 3.2 Ghz se non sbaglio.
Sarebbe stata una barzelletta! A meno che nVidia non avesse valutato di prendere tutti i chip di scarto e rifilarli su una VGA da 400EUR :muro: :muro:
PrototypeR
10-03-2010, 12:16
@longhorn
Il fatto che sia supportato...non significa che sia gestibile...ti voglio vedere a giocare a Crysis con una 5870 su 3 monitor a risoluzione di 5000 e passa x 2000 e passa con il 3d abilitato!
Anche le schede video integrate della Intel supportano lo shader model 4.0....ma ti voglio vedere a usarlo!!!
La nvidia ha imposto l'utilizzo di 2 schede video xche probabilmente sa che una scheda sola non ce la farà mai...mentre ATI sta andando in giro dicendo "ce l'ho piu grosso io perche supporto il 3d con una sola scheda"...e poi non ti garantisce il giusto numero di fps.
E comunque il bus centra eccome con la frequenza di funzionamento...perchè è la banda passante quella che conta...non solo la frequenza.
Ma ancora non ho capito che centra il bus del controller con la frequenza del modulo ram?
Se utilizziamo allora un bus da 512bit con ram da 1600mhz (800 mhz x 4 =3200mhz) avremo 408gb/sec quindi un bandwidth enorme con una freq della ram ridicola.
Non possiamo certo parlare della freq della ram legata al bus del controller, significa soltando che non verranno utilizzati chip-ram top certificati per lavorare a 1200mhz, ma i più economici (relativamente economici) chip certificati per lavorare a 1000 mhz.
512 * 3,2 / 8 = 204,8
non 408
;)
Sarebbe stata una barzelletta! A meno che nVidia non avesse valutato di prendere tutti i chip di scarto e rifilarli su una VGA da 400EUR :muro: :muro:
Potrebbe anche essere che la banda data da moduli ram da 800mhz bastino a soddisfare la sete di dati della gpu, oppure che erano voci semplicemente infondate.
Certo che tutte le notizie trapelate su questa famiglia di gpu sono solo rumors che hanno creato un sacco di confusione.
Sarebbe stata una barzelletta! A meno che nVidia non avesse valutato di prendere tutti i chip di scarto e rifilarli su una VGA da 400EUR :muro: :muro:
Ora ha banda pari a una 5870, prima era leggermente sotto, ma non penso sarebbe stata una barzeletta, dipende quanto scalda, se hanno portato le ram a 1000 Mhz penso sia un dato positivo.
MiKeLezZ
10-03-2010, 12:22
Il surround su Ati e supportato con 1 sola VGA e anche il 3D (introdotto con i 10.2) sara supportato a breve con 1 sola VGA, mentre con nVidia bisogna comunque usare 2 VGA! Poi io ho risposto all'utente che sul fatto che ci fosse un errore nel'articolo!:read: :read: :read:Il 3D su NVIDIA funziona perfettamente da... anni... e su singola scheda.
La necessità dello SLI e delle 2 VGA è solo una cagata commerciale per uguagliare la cagata commerciale di ATI dei 3 schermi (e in ogni caso a far girare un giochino in 3 schermi a risoluzioni fantascientifiche vedrai che avrai anche lì necessità del Crossfire).
Ma ancora non ho capito che centra il bus del controller con la frequenza del modulo ram?
Se utilizziamo allora un bus da 512bit con ram da 1600mhz (800 mhz x 4 =3200mhz) avremo 408gb/sec quindi un bandwidth enorme con una freq della ram ridicola.
Dov'è la cosa strana? La ATI X2900XT aveva un bud da 512-bit e usava RAM con frequenze infime (se rapportate alle GDDR5 di ora): con soli 1,65 GHz arrivava a 105 GBps.
p.s. Il tuo conto è errato, la banda sarebbe in quel caso di 204,8 GBps.
invece sembra prorpio serva una configurazione SLI per il 3D sorround, lo ha confermato anche Nvidia.
onestamebnte però se vuoi giocare con 3 monitor probabilmente hai prorpio bisogno di almeno 2 VGA in molti giochi quindi..
si ma.... giocare a cosa?
Qui sfornano solo hardware da primato, e manca la materia prima: giochi validi su cui impiegare tutta quella potenza.
ho come l'impressione che la chicca del triplo monitor altro non sia che un pretesto per legittimare hardware che vista la valanga di porting corrente, non avrebbe ragion d'esistere.
Auguro loro di non fare lo stesso passo falso di Ati con la HD2900XT ed il suo bus a 512bit per le memorie. Bisogna cercare i giusti equilibri e non puntare tutto sui numeroni di specifica.
longhorn7680
10-03-2010, 12:33
E comunque il bus centra eccome con la frequenza di funzionamento...perchè è la banda passante quella che conta...non solo la frequenza.
Eppure penso di essermi spiegato in ITALIANO (ah che sconosciuto), ho chiesto perche relazioni il BUS con le frequenze??? Proviamo per gradi..... il BUS a 320 bit limita le frequenze in qualche modo???
helmen84
10-03-2010, 12:35
Non credo proprio
g.luca86x
10-03-2010, 12:35
Bisogna vedere se la gpu avrà realmente bisogno di quella banda, o saranno solo numeroni ed esperienza per schede future.
Anche se non mi sembra che la banda della 5870 crei problemi. ;)
infatti molte volte la banda è volutamente esagerata sulle top di gamma. Ricordate la 3870 con una banda a dir poco spropositata? Una 4670 dalle stesse prestazioni aveva una banda molto minore. Può essere test o anche solo marketing come appunto la 3870...
longhorn7680
10-03-2010, 12:36
Il 3D su NVIDIA funziona perfettamente da... anni... e su singola scheda.
La necessità dello SLI e delle 2 VGA è solo una cagata commerciale per uguagliare la cagata commerciale di ATI dei 3 schermi (e in ogni caso a far girare un giochino in 3 schermi a risoluzioni fantascientifiche vedrai che avrai anche lì necessità del Crossfire).
Certo! Ma questo e gia un altro discorso :) Pero ti posso dire che a parte Crysis con 3 monitor ci giochi abbastanza fluidamente con una 5870! Che sia una cosa utile solamente a farti venire attacchi di epilessia e un altra cosa!
Stesso discorso vale per il 3D!
Lunar Wolf
10-03-2010, 12:37
@longhorn
Il fatto che sia supportato...non significa che sia gestibile...ti voglio vedere a giocare a Crysis con una 5870 su 3 monitor a risoluzione di 5000 e passa x 2000 e passa con il 3d abilitato!
Anche le schede video integrate della Intel supportano lo shader model 4.0....ma ti voglio vedere a usarlo!!!
La nvidia ha imposto l'utilizzo di 2 schede video xche probabilmente sa che una scheda sola non ce la farà mai...mentre ATI sta andando in giro dicendo "ce l'ho piu grosso io perche supporto il 3d con una sola scheda"...e poi non ti garantisce il giusto numero di fps.
E comunque il bus centra eccome con la frequenza di funzionamento...perchè è la banda passante quella che conta...non solo la frequenza.
E' giusto che su 3 monitor ed una sola scheda non potrai giocarci per bene ecc a quella risoluzione, ma avendo una dual gpu credo che basti no? E poi non tutti giocherano a 3 o 6 monitor, infatti sara molto utile usarla per motivi di lavoro e cio nvidia non puo farlo perchè per usare piu di due schermi con nvidia ti serve uno sli e quindi aumenti i consumi invece con ati ti basta una sola scheda per pilotare 5 schermi (intendo la 5770 xfx e powercolor custom).
C'è da dire che non si capisce perchè rileva 2Ghz le mem che poi di effettivo dichiara 4Ghz.
Io da quando ho preso la 4870 e adesso la 5770 la frequenza di memoria base viene moltiplicata per 4, quindi se la freq base è di 2Ghz x 4 = 8Ghz effettivi collegati ad un bus di 320bit mette KO anche una 5970 in XfireX...perchè come tutti i gamer sanno che la scheda piu veloce per guadagnare e avere piu fps è il bus della schega grafica, infatti per questo nvidia nelle sue schede ha sempre bus che ati se li sogna o non vuole applicare per tenere costi bassi!
Comunque c'è ancora da vedere i consumi di queste schede e chi sa se cisara una dual visto che gia questa ha bisogno di due connettori di alimentazioni da 6pin!
longhorn7680
10-03-2010, 12:40
Ora ha banda pari a una 5870, prima era leggermente sotto, ma non penso sarebbe stata una barzeletta, dipende quanto scalda, se hanno portato le ram a 1000 Mhz penso sia un dato positivo.
Credimi che le DDR5 a 800 o 1000 scaldano lo stesso e consumano uguale (cioe le differenze sono impercettibili)
Ho detto che sarebbe stata una barzelletta perche ho fatto il seguente ragionamento (spero non sia una castroneria): se le mettono a 800Mhz allora tanto faceva mantenere le GDDR3 se come per le DDR normali vale il discorso dei timing..... percio le GDDR5 hanno dei timing piu alti e una latenza maggiore che con soli 3.2Ghz avrebbe dato risultati uguali alle GDDR3.... se qualcuno e in grado di dare qualche delucidazione in merito ne sarei molto felice:)
a me interesserebbe sapere la lunghezza della vga e il suo prezzo approssimativo.
Almeno il primo dato lo ha qualcuno?
Kharonte85
10-03-2010, 12:48
a me interesserebbe sapere la lunghezza della vga e il suo prezzo approssimativo.
Almeno il primo dato lo ha qualcuno?
Dovrebbe essere lunga 24cm, il prezzo non si sa...
Comunque questa è la scheda che sto aspettando, le memorie @2000 garantirebbero un bel po' di banda passante in più per le situazioni estreme (questo potrebbe avvantaggiare rispetto alla concorrenza in qualche caso)
halduemilauno
10-03-2010, 12:51
a me interesserebbe sapere la lunghezza della vga e il suo prezzo approssimativo.
Almeno il primo dato lo ha qualcuno?
24.13 cm. il prezzo(approssimativo)sui 350€.
non c'avranno mica fatto vedè un po troppo da ste foto :|
Mica possono farti vedere tutto oggi, altrimenti nella news di domani cosa mostreranno?! :mc:
E' giusto che su 3 monitor ed una sola scheda non potrai giocarci per bene ecc a quella risoluzione, ma avendo una dual gpu credo che basti no? E poi non tutti giocherano a 3 o 6 monitor, infatti sara molto utile usarla per motivi di lavoro e cio nvidia non puo farlo perchè per usare piu di due schermi con nvidia ti serve uno sli e quindi aumenti i consumi invece con ati ti basta una sola scheda per pilotare 5 schermi (intendo la 5770 xfx e powercolor custom).
C'è da dire che non si capisce perchè rileva 2Ghz le mem che poi di effettivo dichiara 4Ghz.
Io da quando ho preso la 4870 e adesso la 5770 la frequenza di memoria base viene moltiplicata per 4, quindi se la freq base è di 2Ghz x 4 = 8Ghz effettivi collegati ad un bus di 320bit mette KO anche una 5970 in XfireX...perchè come tutti i gamer sanno che la scheda piu veloce per guadagnare e avere piu fps è il bus della schega grafica, infatti per questo nvidia nelle sue schede ha sempre bus che ati se li sogna o non vuole applicare per tenere costi bassi!
Comunque c'è ancora da vedere i consumi di queste schede e chi sa se cisara una dual visto che gia questa ha bisogno di due connettori di alimentazioni da 6pin!
Guarda che il bandwidth verso la ram sono solo numeri nella maggiorparte dei casi.
Nvidia ha iniziato ad alzare il bus della ram perchè i suoi vecchi controller non gestivano le gddr5 ma solo le 3 e per andare su ha avuto bisogno di alzare il bus di comunicazione (altrimenti con la gpu stava a girarsi i pollici in attesa dei dati da processare).
Credo anche che se uscisse una gtx 470 con le ram a 3200mhz che vada uguale a quella con ram da 4000mhz e costasse 50€ in meno nessuno se la cagarebbe perchè ha la ram a poca freq, più o meno quando si preferische prendere una 9500gt da 1 gb di ram al posto di una 9800gts da 512 gb perchè la prima è più veloce perchè ha un "gigabitte di ramme" invece che 512 mb.
Spesso critichiamo i produttori per prodotti con grossi numeroni per vendere (tipo le vga di fascia bassa con 2 gb di ram), ma ancora più spesso sono gli utenti, anche i più "evoluti", a guardare più ai numeroni che all'equilibrio totale di un sistema o sottosistema di un pc.
quoto, hanno stancato.
quoto e stra quoto ... parli di nVidia e saltano sempre fuori le ATI che ce l'hanno più duro ... và bè
http://www.tgdaily.com/hardware-features/48769-amd-launches-open-3d-initiative
infatti, a proposito, ma il 120Hz di nVidia non era preistoria riciclata da 20 anni? e adesso lo voglio usare anche sulle ATI/AMD ?? :eek: :eek:
Bè permettetemi, almeno in questo nVidia è avanti di 1 anno abbondante su AMD :D :D
E poi cerchiamo di essere chiari: 3 monitor in 3D di nVidia x lavorare a 120Hz con gli occhialini DEVONO ESSERE SINCRONIZZATI TRA LORO (frame pari, e frame dispari), nVidia lo fà.
La soluzione ATI/AMD, anche se supporta fino a 6 monitor, non è attualmente confrontabile, non sò se garantisce i 120Hz x canale e tantomeno se sono sincronizzati, sono semplicemente cose diverse.
Ciauzz
CarmackDocet
10-03-2010, 13:08
...per ME, è la foto dove si vede la presenza di 2 connettori a 6 poli anzikè 1 da 6 ed 1 da 8.
tifo ancora per il mio alimentatore... sperando anche che la 470 rikieda molto meno dei 42A sui 12V della 480.
Bye
helmen84
10-03-2010, 13:12
No, scusa e di cosa dovremmo parlare allora? Prosciutto?
Ovviamente si paragona all'alternativa, che purtroppo per noi utenti ora è solo ATi.
Per il discorso del 3D, io credo che per ora sia solo marketing, in casa dell'utente arriverà tra un annetto ad essere ottimisti...vedremo!
Faster_Fox
10-03-2010, 13:16
ma che caspio di foto sono???? LOL :D cercano solo di aumentare l'hipe....
ndrmcchtt491
10-03-2010, 13:29
lool sono tornati rinvigoriti da un paio di foto.
"il 3d con nvidia funziona da anni", con anni si intendono gli occhialini 3d dell'asus v3800 deluxe (tnt2 ultra) di non so quanti anni fa, del tutto inutili (li ho avuti!) o il 3dvision lanciato ad aprile 2009 ? ......... -.-'
e con "la cagata dell'eyeinfinity" e del "3d non supportato da ati", si intende forse quello introdotto con i cat 10.2 ed i prossimi 10.3 che funziona senza bisogno di comprare occhialini e kit marchiati nvidia solo esclusivamente per questo e solo con le schede nvidia, qualora sia rimasta integra dopo l'avvento dei forceware "abbronzanti" (che poi prendersi un'abbronzatura con gli occhiali non è estetico)?
beh...
domani ci sarà la news che mi farà vedere il condensatore della 480 o magari che mi fa vedere lo score di 3dmark 2001 nvidia paragonato allo score 3dmark vantage ati serie hd2900?
LoL Ma che paragoni fai?
Funboy??
Poi senza gli occhiali polarizzati o simili come fai a vedere il 3D sui monitor?vedi tutto SFUOCATO a meno che non usi un proiettore 3D, ma anche qui ci vogliono gli occhiali...
Poi queste foto non dicono niente sono d' accordo, per me potrebbe benissimo essere una scheda gtx200...
quoto e stra quoto ... parli di nVidia e saltano sempre fuori le ATI che ce l'hanno più duro ... và bèVabbè, c'è chi direbbe proprio il contrario :)
Faster_Fox
10-03-2010, 13:33
LoL Ma che paragoni fai?
Funboy??
Poi senza gli occhiali polarizzati o simili come fai a vedere il 3D sui monitor?vedi tutto SFUOCATO a meno che non usi un proiettore 3D...
Poi queste foto non dicono niente sono d' accordo, per me potrebbe benissimo essere una scheda gtx200...
:stordita: :tapiro:
AceGranger
10-03-2010, 13:35
LoL Ma che paragoni fai?
Funboy??
Poi senza gli occhiali polarizzati o simili come fai a vedere il 3D sui monitor?vedi tutto SFUOCATO a meno che non usi un proiettore 3D...
Poi queste foto non dicono niente sono d' accordo, per me potrebbe benissimo essere una scheda gtx200...
senza occhiali vedi sfocato anche dal proiettore. gli occhiali sono obbligatori
Non vi interessano? Che commentate a fare?
si che ci inetressano.
perchè le GTX400 sono l'unica speranza per far abbassare i perzzi delle HD5000.
ovviamente dando per scontato che le GTX400 siano valide.
@mackillers 2 x 4 fa 8ghz il sonno fa brutti scherzi eh :D
eh, magari ad avere 8ghz...
No, scusa e di cosa dovremmo parlare allora? Prosciutto?
Ovviamente si paragona all'alternativa, che purtroppo per noi utenti ora è solo ATi.
ma COSA vuoi paragonare??
le ATI sono in commercio da 6 mesi, e quindi sono un prodotto REALE.
delle FERMI si sa certamente:
-che sono schede video
-che chi le fa è appassionato di fotografia
-che hanno 2 connettori da 6 pin
cioè, se ne sa di più degli UFO. è allucinante, manco Mulder e Scully saprebbero qualcosa di queste vga.
in più: la BW alta non fa si che le perstazioni siano elevate. ANZI.
la HD2900XT aveva una BW paurosa per il tempo(106gb/s), e tuttavia era una vga che faceva schifo.
non fatevi dunque le pippe sulla BW.
ndrmcchtt491
10-03-2010, 13:47
:stordita: :tapiro:
Ho corretto:cool: :cool: :cool: (in 3d)
Credimi che le DDR5 a 800 o 1000 scaldano lo stesso e consumano uguale (cioe le differenze sono impercettibili)
Ho detto che sarebbe stata una barzelletta perche ho fatto il seguente ragionamento (spero non sia una castroneria): se le mettono a 800Mhz allora tanto faceva mantenere le GDDR3 se come per le DDR normali vale il discorso dei timing..... percio le GDDR5 hanno dei timing piu alti e una latenza maggiore che con soli 3.2Ghz avrebbe dato risultati uguali alle GDDR3.... se qualcuno e in grado di dare qualche delucidazione in merito ne sarei molto felice:)
Con ram Gdr3, avrebbe avuto metà della banda perchè si moltiplica il valore solo x2, per me questi 1000 Mhz sono positivi, di solito quando ci sono problemi si limita il clock (successe con r600 a 800 mhz di ram e 732 mi pare di core, doveva essere 800-1000).
elfonero
10-03-2010, 14:04
Basta foto fatti...
Dany_M82
10-03-2010, 14:09
si che ci inetressano.
perchè le GTX400 sono l'unica speranza per far abbassare i perzzi delle HD5000.
ovviamente dando per scontato che le GTX400 siano valide.
eh, magari ad avere 8ghz...
ma COSA vuoi paragonare??
le ATI sono in commercio da 6 mesi, e quindi sono un prodotto REALE.
delle FERMI si sa certamente:
-che sono schede video
-che chi le fa è appassionato di fotografia
-che hanno 2 connettori da 6 pin
cioè, se ne sa di più degli UFO. è allucinante, manco Mulder e Scully saprebbero qualcosa di queste vga.
in più: la BW alta non fa si che le perstazioni siano elevate. ANZI.
la HD2900XT aveva una BW paurosa per il tempo(106gb/s), e tuttavia era una vga che faceva schifo.
non fatevi dunque le pippe sulla BW.
E come non quotarti.
Primo perchè a sentirli parlare di banda passante teorica anche io volevo ricordargli la 2900 XT, e secondo perchè mi hai fatto morire dalle risate.
Sembra che gridino al miracolo, ma manco si rendono conto che sta 470 sarà in mezzo alle 5850 e 5870, solo che Ati ha 2 frecce al suo arco ancora da scoccare: Riduzione dei prezzi e lancio di nuove GPU(sia nuovi modelli come una possibile 5890, sia come review dell'architettura che arriverà a breve).
Basta foto fatti...
E che foto poi....:eek:
Ce ne sono talmente tante e sono così dettagliate che non saprei dove cliccare prima :rolleyes:
supereos1
10-03-2010, 14:39
ma uno, da queste foto, che cazzo dovrebbe capire?
Che succhia corrente, avrà prestazione uguli agli altri e costerà di più.
Scaffale a marcire!
E che finiscano di pigliarci per il culo, culo che assomiglia alla faccia del GIallo, il CEO Nvidia.
http://img341.imageshack.us/img341/5350/filephph.jpg
Faccela veddè, faccela toccà!
Ragazzi cerchiamo di fare chiarezza su lacuni punti su cui mi pare si stia dibattendo da un po' troppe pagine.
- Frequenza delle Vram e BUS.
Ovviamente la seconda non influenza la prima, ma entrambi contribuiscono a determinare quel valore che è la banda passante.
Non importa cioè se una certa banda passante sia ottenuta con un bus ampio o con memorie veloci, ma il valore finale di tale parametro.
Per capirci, in linea di massima su una stessa architettura e con lo stesso tipo di memorie, ottenere una banda di 64GB/s con 128bit x 4ghz o con 256bit x 2ghz è praticamente la stessa cosa.
- Usare memoria da 3,2ghz (800x4) sulle "top di gamma"
Non vedo perchè no, se forniscono una banda sufficiente per quella scheda.
Riducendo le frequenze si risparmia sulle memorie e si riducono i consumi (che sia molto o poco non importa, se la banda è comunque più che abbondante).
- Nvidia, Ati e 3D
Come già dichiarato prima dell'uscita dei Catalyst 3.2, anche ati supporterà via driver il 3D, senza però fornire soluzioni hardware proprietarie come fa nvidia.
Se non sbaglio il supporto al 3D dovrebbe essere disponibile dai Catalyst 10.3
Ad Ati non occorrerà costruire nuove schede come qualcuno ha commentato leggendo l'articolo linkato in precedenza.
- Nvidia, Ati e multimonitor
Solo Ati può gestire 3 monitor in game con una sola scheda per ora con la tecnologia che chiamiamo eyefinity.
Nvidia ha risposto ad eyefinity permettendo l'utilizzo di 3 monitor, ma non potendo disporre dell'hardware necessario, deve necessariamente appoggiarsi a due schede.
Difatti era impensabile rimettere mano al progetto di fermi ormai in dirittura d'arrivo per integrare una tecnologia che come quella Ati consentisse l'uso dei 3 display con una scheda sola. Insomma, non è la stessa cosa ma ci si accontenta.
Come valore aggiunto ha inserito il supporto 3D, che ati ha dichiarato sarà disponibile con i nuovi driver anche sulle proprie schede.
Sull'utilità o meno di queste tecnologie e sulle capacità di una sola scheda di gestirle lascio l'ardua sentenza a chi le userà. Ati ha comunque mostrato in più di un'occasione una 5870 gestire 6 monitor in maniera dignitosa.
Spero di non essere stato troppo ripetitivo :p
ESembra che gridino al miracolo, ma manco si rendono conto che sta 470 sarà in mezzo alle 5850 e 5870, solo che Ati ha 2 frecce al suo arco ancora da scoccare: Riduzione dei prezzi e lancio di nuove GPU(sia nuovi modelli come una possibile 5890, sia come review dell'architettura che arriverà a breve).
appunto. e in pochi se ne rendono conto.
ma uno, da queste foto, che cazzo dovrebbe capire?
che il progetto FERMI riguarda le schede video.
che dire, una news che fornisce dati decisivi sull'uscita di questa nuova architettura.
ghiltanas
10-03-2010, 15:10
quindi confermati i 448 sp per la 470...e il fatto che mostrino sempre + questa scheda, rafforza il mio dubbio che sarà l'unica che vedremo realmente in commercio (e anche su questo è da vedere, 10K unità nn vuol dire realmente in commercio)
finalmente ... ati è gia un po che ha in commercio schede compatibli con le directx 11
PESCEDIMARZO
10-03-2010, 15:11
ma uno, da queste foto, che cazzo dovrebbe capire?
Che succhia corrente, avrà prestazione uguli agli altri e costerà di più.
Scaffale a marcire!
E che finiscano di pigliarci per il culo, culo che assomiglia alla faccia del GIallo, il CEO Nvidia.http://img341.imageshack.us/img341/5350/filephph.jpg
Faccela veddè, faccela toccà!
:rolleyes:
(e anche su questo è da vedere, 10K unità nn vuol dire realmente in commercio)
10k soli è impossibile. troppo pochi.
10k, anche se si parla di vga di fascia alta(quindi un target poco ampio), non fanno neppure statistica.
10k sono quelle che vendono nella sola Bay Area, nei pressi di Santa Clara.
l'unità di misura di vga di questa fascia, sono le centinaia di migliaia.
ghiltanas
10-03-2010, 15:23
10k soli è impossibile. troppo pochi.
10k, anche se si parla di vga di fascia alta(quindi un target poco ampio), non fanno neppure statistica.
10k sono quelle che vendono nella sola Bay Area, nei pressi di Santa Clara.
l'unità di misura di vga di questa fascia, sono le centinaia di migliaia.
io mi baso sui rumor emersi fin'ora ;) . So bene che 10K unità sono niente, ma al momento indicano tale quantità...NN è da escludere infatti che prima di maggio la vera commercializzazione nn avverà, e cmq bisogna attendere un respin per un quantitativo accettabile
ma chi è che se le compra quanto le ATI costano un rene in meno e rendono già benissimo?
ArteTetra
10-03-2010, 17:30
Scommetto che i server di pctuning.tyden.cz stanno bollendo.
halduemilauno
10-03-2010, 18:51
approposito di immagini della GTX470...
http://www.expreview.com/img/news/2010/03/10/galaxyfermi/1.jpg
la potevano fare anche nera eh nessuno si sarebbe dispiaciuto... -.-'
sto grigino mi deprime.
ma vabbè, chissene frega del colore. ci manca solo di mettersi a sindacare anche su questo.
MadJackal
10-03-2010, 19:22
la potevano fare anche nera eh nessuno si sarebbe dispiaciuto... -.-'
sto grigino mi deprime.
ma vabbè, chissene frega del colore. ci manca solo di mettersi a sindacare anche su questo.
Però bisogna ammettere che almeno è piuttosto bella come scheda, se quei dettagli non sono disegnati. Ammia piace, almeno :O
approposito di immagini della GTX470...
http://www.expreview.com/img/news/2010/03/10/galaxyfermi/1.jpg
Sembra un render: niente riflessi, ombre uniformi... mah.
Ale55andr0
10-03-2010, 19:29
non per flammare, ma non trovate da un paio d'anni a questa parte che i tagli di memoria sulla vga di nVidia siano strani? Prima schede come la 8800 da 320 e 640mb, la più veloce 768, ora 1280mb...voglio dire, a quando 1765,88MB? :O
Ma fate come si faceva una volta, raddoppiate e via, almeno fate cifra tonda a che diamine servono ste vie di mezzo? :confused:
Personalmente a me solo a leggere 1280 sulla scatola mi fa strano :p
int main ()
10-03-2010, 19:37
xkè non è dentro il mio case?:bsod:
MiKeLezZ
10-03-2010, 19:39
non per flammare, ma non trovate da un paio d'anni a questa parte che i tagli di memoria sulla vga di nVidia siano strani? Prima schede come la 8800 da 320 e 640mb, la più veloce 768, ora 1280mb...voglio dire, a quando 1765,88MB? :OQuando usciranno (se mai usciranno) schede con bus da 448-bit... Poichè significherà quantitativo di RAM pari a 1792MB
8-)
leoneazzurro
10-03-2010, 20:25
ma uno, da queste foto, che cazzo dovrebbe capire?
Che succhia corrente, avrà prestazione uguli agli altri e costerà di più.
Scaffale a marcire!
E che finiscano di pigliarci per il culo, culo che assomiglia alla faccia del GIallo, il CEO Nvidia.
http://img341.imageshack.us/img341/5350/filephph.jpg
Faccela veddè, faccela toccà!
Vabbé, di lá mi ero limitato a darti 4 giorni, qui invece mi confermi la tua irrecuperabilitá. Utenza bannata definitivamente.
Markk117
10-03-2010, 21:02
e vabè sn ancora indietro e FERMI XDDDDDDDDDDDDDDDDDDDDDDDD
daedin89
10-03-2010, 22:59
ragazzi...ma questo: http://www.expreview.com/img/news/2010/03/10/galaxyfermi/1.jpg secondo me è chiaramente un render...
non c'avranno mica fatto vedè un po troppo da ste foto :|
L'Alfa Romeo per sfornare la Giulietta ha impiegato meno tempo... lenti... anzi...fermi...
L'Alfa Romeo per sfornare la Giulietta ha impiegato meno tempo... lenti... anzi...fermi...
si però è una macchina della madonna.
ragazzi...ma questo: http://www.expreview.com/img/news/2010/03/10/galaxyfermi/1.jpg secondo me è chiaramente un render...
Zero dubbi su questo, sono quelli che si fanno per i volantini :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.