View Full Version : Nvidia GT212, ecco le specifiche
Redazione di Hardware Upg
05-01-2009, 14:09
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-gt212-ecco-le-specifiche_27607.html
Emergono i dettagli circa la prossima generazione di GPU che il colosso americano immetterà più avanti nel corso del 2009, caratterizzato da un processo produttivo a 40nm
Click sul link per visualizzare la notizia.
Quindi in sostanza sarà migliore di molto di una gtx285?Vale la pena scegliere ora il gt200b?
paulgazza
05-01-2009, 14:20
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)
marchigiano
05-01-2009, 14:23
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)
già... il bus a 512 bit lo vedo come un mostro troppo costoso e con pochi vantaggi prestazionali... stanno facendo qualche passettino indietro, bene così, la gpu a 40nm dovrebbe essere comunque potentissima
se le frequenze saranno altine potrebbe andare il doppio di una attuale gtx280
per il bus se proprio 256bit saranno pochi facciamo 384 e non se ne parla più, anche per supportare 1.5gb di ram, perchè con 256 penso che fai o 1 o 2 gb, non penso siano possibili vie di mezzo
ma non capisco perchè ridurre il bus di memoria da 512 a 256?
paolox86
05-01-2009, 14:23
Tenendo conto che questo gt212 uscirà tra 5-6 mesi (di solito sempre maggio-giugno), non sarebbe poi inutilissimo l'acquisto del gt200b se si necessita di una scheda potente. Certo uno come me che ha una radeon 4850 può benissimo attendere quella data per gt212 o per una eventuale risposta nello stesso periodo di Ati.
Micene.1
05-01-2009, 14:30
beh mi sembra un riconoscimento all'ottimo lavoro di amd visto che hanno ripreso molte caratteristiche del progetto rv700
marchigiano
05-01-2009, 14:30
gli SP sono il doppio esatto della vecchia gtx260, se hanno un filo più di frequenza dovrebbero tranquillamente andare il doppio della gtx260-216 e penso come due 280 in sli, dato che scala sicuramente meglio
attualmente come scheda di "parcheggio" ci vedo bene una 4850 o una 4870...
ah una cosa importante... sarà dx11 spero :eek:
tigershark
05-01-2009, 14:33
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)
ma veramente se questo fosse vero cambierebbe ben poco, Nvidia continua a preferire chip monolitici ipercomplessi, le ridotte dimensioni sarebbero solo frutto del processo produttivo ulteriormente affinato e non di una diminuzione della complessità...salvo per quanto riguarda la circuiteria adibita al bus verso le memorie..evidentemente i costi delle GDDR5 si stanno abbassando rendendo svantaggioso l'uso delle "vecchie" GDDR3 unite ad un bus molto ampio.
tigershark
05-01-2009, 14:36
gli SP sono il doppio esatto della vecchia gtx260, se hanno un filo più di frequenza dovrebbero tranquillamente andare il doppio della gtx260-216 e penso come due 280 in sli, dato che scala sicuramente meglio
non puo andare il doppio di una soluzione singola, non hanno doppiato numericamente ne SP ne TMU
ah una cosa importante... sarà dx11 spero :eek:
io invece credo sarà l'ultima scheda dx 10 prima di GT300
Mister Tarpone
05-01-2009, 14:38
io invece credo sarà l'ultima scheda dx 10 prima di GT300
quoto
MiKeLezZ
05-01-2009, 14:38
ma non capisco perchè ridurre il bus di memoria da 512 a 256?perchè così mettono ram che vanno 3 volte più veloci delle attuali ottenendo stesso risultato o meglio e risparmiano in complessità di chip, complessità scheda e probabilmente anche consumi
beh mi sembra un riconoscimento all'ottimo lavoro di amd visto che hanno ripreso molte caratteristiche del progetto rv700non c'entra nulla
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)siamo sempre di fronte agli enormi chip monolitici tipici nvidia e quei 1,8 miliardi di transistor è un ulteriore record in grandezza
Camelvam
05-01-2009, 14:39
Considerando che vado ancora con un opteron 185 dual core, posseggo due 8800 gts 640 in sli,che pensate è il caso di tenere tutto così comè, o se acquistando una di queste gt212 posso ancora avere il meglio con il socket 939?
che ne pensate!
Buon anno informatico a tutti!!!:)
ma non capisco perchè ridurre il bus di memoria da 512 a 256?
più la gpu è piccola, più difficili sono i collegamenti al pcb, e con un bus da 512 i collegamenti sono davvero tanti ;)
Athlon 64 3000+
05-01-2009, 14:41
A vedere le presunte specifiche di GT212 oltre al processo produttivo a 40 nm ci sono della novità come la modifa del rapporto shader:tmu che passa da 3:1(come in GT200) a 4:1 come è attualmente in R600,RV670 e RV770 e il controller di memoria a 256 bit e può darsi che anche la struttura dello shader core possa cambiare come è gia successo da G80 a GT200.
C'è comunque una grossa incognita perchè il controller di memoria di GT200 è ancora di tipo crossbar che da quello che so è incompatibile con le gddr5 e per poter ospitare le gddr5 dovrebbero riprogettare completamente il controller di memorie e le rop's perchè in G8x e GT200 sono legate al bus della memoria.
Se fossero veri quei dati sarebbe mostruoso la sua potenza di calcolo rispetto a GTX280/285 solo che mi chiedo quanto senso eventualmente un'aumento di cosi tante unità di calcolo quando a fine 2009 uscirà GT300 che sarà una nuova gpu compatibile anche con le dx11.
Bisognerebbe chiedere a yossarian se eventualmente possone essere veritieri questi dati o sono solo campati per aria solo per fare notizia.
Stech1987
05-01-2009, 14:43
...ero intenzionato a prendere una gtx285 a gennaio, ma a questo punto se si tratta di soli 2 mesi di attesa preferisco aspettare questa e poi vedere: in teoria, con l'uscita di gt212, gt200b dovrebbe calare un bel po' di prezzo, senza contare che già da sè dovrebbe costare meno di gt200 dati i 55nm vs 65... La cosa si fa parecchio interessante...
halduemilauno
05-01-2009, 14:43
beh mi sembra un riconoscimento all'ottimo lavoro di amd visto che hanno ripreso molte caratteristiche del progetto rv700
e quali? poi addirittura molte.
:D
halduemilauno
05-01-2009, 14:48
...ero intenzionato a prendere una gtx285 a gennaio, ma a questo punto se si tratta di soli 2 mesi di attesa preferisco aspettare questa e poi vedere: in teoria, con l'uscita di gt212, gt200b dovrebbe calare un bel po' di prezzo, senza contare che già da sè dovrebbe costare meno di gt200 dati i 55nm vs 65... La cosa si fa parecchio interessante...
chi ha detto due mesi? Q2 sta per secondo trimestre che comprende giugno ed è infatti il mese più probabile.
tigershark
05-01-2009, 14:49
più la gpu è piccola, più difficili sono i collegamenti al pcb, e con un bus da 512 i collegamenti sono davvero tanti ;)
scusa ma non è proprio vero, cosa intendi per gpu piccola?? A parte il fatto che tecnicamente GT200 non ha un bus a 512 bit di ampiezza reali, ma 2 bus a 256 bit usati contemporaneamente per operazioni di lettura e scrittura, ci sono praticamente due controller fisici separati.
Ne consegue sicuramente una minore complessità, ma praticamente non un effettivo dimezzamento dei transistor impiegati, in quanto comunque un controller di memoria con bus a 256 bit per GDDR3 è meno complesso dell'equivalente per GDDR5.
Se fosse vera la quantità di transistor citata, 1.8 miliardi (400 milioni in piu di GT200) penso che abbiano deciso oltre che aumentare fisicamente il numero di SP eTMU anche di aumentare i buffer di memoria a disposizione di ogni cluster, rendendo la GPU ancora più performante nell'ambito delle applicazioni GPPU
tigershark
05-01-2009, 14:50
e quali? poi addirittura molte.
:D
in effetti dire molte mi sembra alquanto azzardato, hanno semplicemente deciso di utilizzare le nuove memorie grafiche, magari in seguito a riduzione costi e/o ottimizzazioni a livello di resa e latenze
halduemilauno
05-01-2009, 15:00
in effetti dire molte mi sembra alquanto azzardato, hanno semplicemente deciso di utilizzare le nuove memorie grafiche, magari in seguito a riduzione costi e/o ottimizzazioni a livello di resa e latenze
e secondo te adottare le gddr5 naturale evoluzione delle gddr3 significa:
"beh mi sembra un riconoscimento all'ottimo lavoro di amd che hanno ripreso molte caratteristiche del progetto rv700"
e tra l'altro visto i tempi saranno ben + performanti delle attuali adottate da ati da 3600 ed ecco quindi possibile l'eventuale connubio con il bus da 256 bit.
A vedere le presunte specifiche di GT212 oltre al processo produttivo a 40 nm ci sono della novità come la modifa del rapporto shader:tmu che passa da 3:1(come in GT200) a 4:1 come è attualmente in R600,RV670 e RV770 e il controller di memoria a 256 bit e può darsi che anche la struttura dello shader core possa cambiare come è gia successo da G80 a GT200.
In effetti bisognerà capire come e quanto influenzerà questa differenza l'incremento prestazionale, sempre che i dati siano veri...
Già nel passaggio G92 -> G200 si era notato come un (quasi) raddoppio di shaders ma un incremento ben più piccolo delle TMU non avesse portato chissà quanti benefici, laddove la banda di G92 fosse ancora sufficiente. Se la proporzionalità rimanesse la stessa (considerando anche che la banda tra G200 e G212 non cambierà di moltissimo), credo che l'incremento prestazionale rispetto ad una GTX280 potrebbe essere inferiore al 50%.
Ovvio che si tratta sempre di ipotesi.
C'è comunque una grossa incognita perchè il controller di memoria di GT200 è ancora di tipo crossbar che da quello che so è incompatibile con le gddr5 e per poter ospitare le gddr5 dovrebbero riprogettare completamente il controller di memorie e le rop's perchè in G8x e GT200 sono legate al bus della memoria.
Se fossero veri quei dati sarebbe mostruoso la sua potenza di calcolo rispetto a GTX280/285 solo che mi chiedo quanto senso eventualmente un'aumento di cosi tante unità di calcolo quando a fine 2009 uscirà GT300 che sarà una nuova gpu compatibile anche con le dx11.
Non credo che il crossbar sia incompatibile per natura con le GDDR5, solo che il controller di memoria attuale di G200 non è compatibile.
Il controller di RV770 potrebbe essere definito un "crossbar distribuito".
MarkManson
05-01-2009, 15:25
L'unità di misura che indica i miliardi è MLD non MIL che indica i Milioni.
Saluti
macca4motion
05-01-2009, 15:29
A vostro parere su che fascia di prezzo andranno a collocarsi? Mi interessa più che altro la versione incarnata ora dalla gtx 260...
scusa ma non è proprio vero, cosa intendi per gpu piccola?? A parte il fatto che tecnicamente GT200 non ha un bus a 512 bit di ampiezza reali, ma 2 bus a 256 bit usati contemporaneamente per operazioni di lettura e scrittura, ci sono praticamente due controller fisici separati.
Ne consegue sicuramente una minore complessità, ma praticamente non un effettivo dimezzamento dei transistor impiegati, in quanto comunque un controller di memoria con bus a 256 bit per GDDR3 è meno complesso dell'equivalente per GDDR5.
Se fosse vera la quantità di transistor citata, 1.8 miliardi (400 milioni in piu di GT200) penso che abbiano deciso oltre che aumentare fisicamente il numero di SP eTMU anche di aumentare i buffer di memoria a disposizione di ogni cluster, rendendo la GPU ancora più performante nell'ambito delle applicazioni GPPU
intendo 576 mm² contro i 300 mm²
Magari adesso le GDDR5 possono essere garantite con forniture sufficienti ed Nvidia s'è decisa al passaggio.
A spanne, se ha il 60% di SU in più ed il 20% di TMU, insieme ad un clock di 700/1600 (forse più, chissà), significa che come prestazioni è sui livelli della GTX295 ed i sui 575/1242 (dual 240SU ma che non "valgono" certo 480SU, visto il discorso SLI).
Con 300mmq non è neanche un die così grande considerati i canoni attuali, ed immagino che il TDP si assesterà sui 180W (la bontà dei 40nm di TSMC è tutta da verificare).
Cavolo. Certo che nvidia in questo ultimo periodo sta passando da una tecnologia produttiva ad un'altra ad una velocità impressionante. Sanno benissimo che per superare il gt200 occorre passare necessariamente ai 40 nm. La cosa che mi lascia perplesso e che non mi aspettavo che il gt212 , se i rumors si riveleranno fondati ,sarà disponibile dal Q2 tenendo conto che adesso nvidia sta lanciando le gpu a 55 nm. Di conseguenza le gtx 285 , 265 avranno vita breve. Chissa cosa stanno preparando in casa ATI/AMD ?
Cavolo. Certo che nvidia in questo ultimo periodo sta passando da una tecnologia produttiva ad un'altra ad una velocità impressionante. Sanno benissimo che per superare il gt200 occorre passare necessariamente ai 40 nm. La cosa che mi lascia perplesso e che non mi aspettavo che il gt212 , se i rumors si riveleranno fondati ,sarà disponibile dal Q2 tenendo conto che adesso nvidia sta lanciando le gpu a 55 nm. Di conseguenza le gtx 285 , 265 avranno vita breve. Chissa cosa stanno preparando in casa ATI/AMD ?
Firedraw
05-01-2009, 15:48
Secondo me, come al solito si avrà l'aumento del 20-30%, con un 40-50% in rarissimi casi. Ormai i tempi del 100% di prestazioni in più non si vede da molto tempo.
Kharonte85
05-01-2009, 15:51
Le specifiche sono molto interessanti, anche il passaggio alle gddr5 sarebbe positivo (specie se diminuirà le dimensioni del chip e della scheda) vedremo se si riveleranno veritiere.
Comunque se le specifiche del gt212 sono queste non oso immaginare cosa possa essere il gt300.
Quanti mega migliardi di transistor vogliono integrare ? Probabilmente il supporto delle dx11 permetterà ad ogni singolo "shader processor" di elaborare algoritmi più complessi riducendo così la necessità di integrare nel chip un numero spropositato di sp. Non vedo l'ora di avere qualche notizia in merito. HWUPGRADE indaga perfavore !!!! :)
Mister Tarpone
05-01-2009, 15:54
Magari adesso le GDDR5 possono essere garantite con forniture sufficienti ed Nvidia s'è decisa al passaggio.
A spanne, se ha il 60% di SU in più ed il 20% di TMU, insieme ad un clock di 700/1600 (forse più, chissà), significa che come prestazioni è sui livelli della GTX295 ed i sui 575/1242 (dual 240SU ma che non "valgono" certo 480SU, visto il discorso SLI).
Con 300mmq non è neanche un die così grande considerati i canoni attuali, ed immagino che il TDP si assesterà sui 180W (la bontà dei 40nm di TSMC è tutta da verificare).
quoto tutto.
Kharonte85
05-01-2009, 15:56
Comunque se le specifiche del gt212 sono queste non oso immaginare cosa possa essere il gt300.
Se si mantiene lo stesso rapporto di crescita delle prestazioni per generazioni successive è probabile che GT300 superi la attuale Dual GPU (gtx295) come successe per la 7950gx2 superata da G80 e per la 9800Gx2 superata da GT200
Athlon 64 3000+
05-01-2009, 15:57
In effetti bisognerà capire come e quanto influenzerà questa differenza l'incremento prestazionale, sempre che i dati siano veri...
Già nel passaggio G92 -> G200 si era notato come un (quasi) raddoppio di shaders ma un incremento ben più piccolo delle TMU non avesse portato chissà quanti benefici, laddove la banda di G92 fosse ancora sufficiente. Se la proporzionalità rimanesse la stessa (considerando anche che la banda tra G200 e G212 non cambierà di moltissimo), credo che l'incremento prestazionale rispetto ad una GTX280 potrebbe essere inferiore al 50%.
Ovvio che si tratta sempre di ipotesi.
Non credo che il crossbar sia incompatibile per natura con le GDDR5, solo che il controller di memoria attuale di G200 non è compatibile.
Il controller di RV770 potrebbe essere definito un "crossbar distribuito".
Bentornato,era un bel pezzo che non ti vedevo sul forum:)
Grazie per avermi ricordato che è il tipo controller di memoria di GT200 ad essere incompatibile e non un controller di tipo crossbar generico.
Per esempio da RV670 e RV770 il controller di memoria lo hanno completamente riprogettato passando da un 256 bit di tipo ring bus ad un 256 bit di tipo "crossbar" aperto che è più efficiente e semplice da programmare di quello di RV670.
La butto giù lì, tanto per fare ipotesi :-)
E se GT212 non fosse già Directx11, e la futura GT300 (ovviamente sempre a 40 nm) non fosse altro che una scheda dual gpu?
Come tempistica ci saremmo: giugno 2009 al Cebit per GT212 e Vista SP2 con Directx11 e Natale o gennaio 2010 per la dual gpu GT300 con Windows 7.
Athlon 64 3000+
05-01-2009, 16:32
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11232&Itemid=1
Altra sparata di fudzilla che sembra dire che GT212 sarà uno semplice die-shrink a 40 nm.
Poi dopo mister Fud:D riporta la stessa notizia che stiamo già commentando.
Se la prima la ho interpretata bene è l'ennesima contraddizione di fud.:D
Fud ha stabilito un record: s'è contraddetto nel giro di 2 ore e mezza :D
netcrusher
05-01-2009, 16:49
gli SP sono il doppio esatto della vecchia gtx260, se hanno un filo più di frequenza dovrebbero tranquillamente andare il doppio della gtx260-216 e penso come due 280 in sli, dato che scala sicuramente meglio
attualmente come scheda di "parcheggio" ci vedo bene una 4850 o una 4870...
ah una cosa importante... sarà dx11 spero :eek:
scheda di parcheggio???? ma ragà state sempre pronti a declassare tutto.....ma fatemi il piacere..........
e quali? poi addirittura molte.
:D
vabbè dai nvidia ha intuito tutto da sola ok????
in effetti dire molte mi sembra alquanto azzardato, hanno semplicemente deciso di utilizzare le nuove memorie grafiche, magari in seguito a riduzione costi e/o ottimizzazioni a livello di resa e latenze
hanno deciso???? hanno visto le performance della hd4870, per forza non si vuole essere sportivi nell'ammetterlo?????
La butto giù lì, tanto per fare ipotesi :-)
E se GT212 non fosse già Directx11, e la futura GT300 (ovviamente sempre a 40 nm) non fosse altro che una scheda dual gpu?
Come tempistica ci saremmo: giugno 2009 al Cebit per GT212 e Vista SP2 con Directx11 e Natale o gennaio 2010 per la dual gpu GT300 con Windows 7.
sinceramente vi fate troppe paranoie, io penserei al presente e non a quello che succederà da qui ai prossimi 10 anni di vga........mamma mia ma come fate a campare sereni????? mah......
beh mi sembra un riconoscimento all'ottimo lavoro di amd visto che hanno ripreso molte caratteristiche del progetto rv700
Ma dove??
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)
Che discorsi...
Questo si chiama "progresso tecnologico", dopo le GDDR 3 cosa dovevano usare? Le GDDR 6?
E' ovvio che passino alle GDDR 5, la scelta di AMD di usare questo tipo di RAM per le sue schede non è certo una scelta indovinata, quanto piuttosto una decisione ovvia per ottenere buone prestazioni senza dover adottare un bus molto ampio.
A vedere le presunte specifiche di GT212 oltre al processo produttivo a 40 nm ci sono della novità come la modifa del rapporto shader:tmu che passa da 3:1(come in GT200) a 4:1 come è attualmente in R600,RV670 e RV770 e il controller di memoria a 256 bit e può darsi che anche la struttura dello shader core possa cambiare come è gia successo da G80 a GT200.
C'è comunque una grossa incognita perchè il controller di memoria di GT200 è ancora di tipo crossbar che da quello che so è incompatibile con le gddr5 e per poter ospitare le gddr5 dovrebbero riprogettare completamente il controller di memorie e le rop's perchè in G8x e GT200 sono legate al bus della memoria.
Se fossero veri quei dati sarebbe mostruoso la sua potenza di calcolo rispetto a GTX280/285 solo che mi chiedo quanto senso eventualmente un'aumento di cosi tante unità di calcolo quando a fine 2009 uscirà GT300 che sarà una nuova gpu compatibile anche con le dx11.
Bisognerebbe chiedere a yoss se fosse veritieri questi dati o sono solo campati per aria solo per fare notizia.
Cos'è?
La reincarnazione di Nostradamus ai nostri tempi?
Hei! yoss, mi mandi i numeri della prossima estrazione del superenalotto?
Grazie!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11232&Itemid=1
Altra sparata di fudzilla che sembra dire che GT212 sarà uno semplice die-shrink a 40 nm.
Poi dopo mister Fud:D riporta la stessa notizia che stiamo già commentando.
Se la prima la ho interpretata bene è l'ennesima contraddizione di fud.:D
La news riporta Hardware-info (http://www.hardware-infos.com/news.php?news=2629&sprache=1) come fonte.
Comunque è nel DNA di FudZilla riportare qualsiasi voce che circola sul web, e infatti il suo nome è tutto un programma.
Non come The Inquirer che fa la stessa cosa ma ha la presunzione di spacciarlo per certo e di credersi l'unica fonte affidabile e imparziale ed assolutamente indipendente del web.
netcrusher
05-01-2009, 17:01
Ma dove??
Che discorsi...
Questo si chiama "progresso tecnologico", dopo le GDDR 3 cosa dovevano usare? Le GDDR 6?
E' ovvio che passino alle GDDR 5, la scelta di AMD di usare questo tipo di RAM per le sue schede non è certo una scelta indovinata, quanto piuttosto una decisione ovvia per ottenere buone prestazioni senza dover adottare un bus molto ampio.
Cos'è?
La reincarnazione di Nostradamus ai nostri tempi?
Hei! yoss, mi mandi i numeri della prossima estrazione del superenalotto?
Grazie!
progresso tecnologico ahahahahhahaha ma non farmi ridere che se non era per ati a quest'ora la nvidia era ancora ad estorcerti carte da 500 euro per tecnologie oramai che gli costano una cippa................voi comprate nvidia comunque non vi preoccupate...........:cry:
p.s.
mi raccomando ora esce questa 295gtx compratela perchè nvidia riprenderà il primato di velocità sulla hd4870x2............ma non vi rendete conto che lì dentro fanno i capricci e voi fate il loro gioco.........ma va va.......
progresso tecnologico ahahahahhahaha ma non farmi ridere che se non era per ati a quest'ora la nvidia era ancora ad estorcerti carte da 500 euro per tecnologie oramai che gli costano una cippa................voi comprate nvidia comunque non vi preoccupate...........:cry:
Non so se lo sai, ma produrre un chip GT200 costa molto di più che produrre un R770.
Quindi, alla luce di questo, quali sarebbero le "tecnologie" che NVIDIA vende a 500€ e che gli costano "una cippa"?
Se io faccio ridere tu fai piangere, se non conosci minimamente l'argomento che stai discutendo abbi almeno l'onestà di esporre le tue idee come opinioni personali e non come fatti assoluti.
Futura12
05-01-2009, 17:13
Beh dai almeno un po mi rassicura su Nvidia sta notizia,almeno non sarà impegnato come ultimamente a cambiare solo i nomi tenendo sempre le stesse schede video alla fine.
La vorrei proprio provare questo modello con 384SP:cool:
Athlon 64 3000+
05-01-2009, 17:16
Ma dove??
Che discorsi...
Questo si chiama "progresso tecnologico", dopo le GDDR 3 cosa dovevano usare? Le GDDR 6?
E' ovvio che passino alle GDDR 5, la scelta di AMD di usare questo tipo di RAM per le sue schede non è certo una scelta indovinata, quanto piuttosto una decisione ovvia per ottenere buone prestazioni senza dover adottare un bus molto ampio.
Cos'è?
La reincarnazione di Nostradamus ai nostri tempi?
Hei! yoss, mi mandi i numeri della prossima estrazione del superenalotto?
Grazie!
Mi ero espresso male e ora ho corretto il mess.
Non c'è bisogno di scatenare un potenziale flame solo perchè ho scritto un semplice post in cui io non avevo intenzione di esprimere di essere nostradamus oppure pensare che possa essere qualc'altro.
Mi ero espresso male e ora ho corretto il mess.
Non c'è bisogno di scatenare un potenziale flame solo perchè ho scritto un semplice post in cui io non avevo intenzione di esprimere di essere nostradamus oppure pensare che possa essere qualc'altro.
Stavo scherzando ;) , niente flame:)
Mister Tarpone
05-01-2009, 17:28
Non so se lo sai, ma produrre un chip GT200 costa molto di più che produrre un R770.
Quindi, alla luce di questo, quali sarebbero le "tecnologie" che NVIDIA vende a 500€ e che gli costano "una cippa".
Se io faccio ridere tu fai piangere, se non conosci minimamente l'argomento che stai discutendo abbi almeno l'onestà di esporre le tue idee come opinioni personali e non come fatti assoluti.
straquoto.
netcrusher
05-01-2009, 17:47
Non so se lo sai, ma produrre un chip GT200 costa molto di più che produrre un R770.
Quindi, alla luce di questo, quali sarebbero le "tecnologie" che NVIDIA vende a 500€ e che gli costano "una cippa"?
Se io faccio ridere tu fai piangere, se non conosci minimamente l'argomento che stai discutendo abbi almeno l'onestà di esporre le tue idee come opinioni personali e non come fatti assoluti.
se se come no, che dirti fatti spennare da nvidia cavoli tuoi...........adieu
xnetcrusher: in una news in cui si parla di schede che escono tra 6 mesi, tu di che vorresti parlare, così, senza paranoie?
Fino ad ora hai scritto solo per scatenare flame, senza alcun interesse alla news stessa.
SwatMaster
05-01-2009, 17:53
Ma perchè non passano direttamente al GT300, invece che soffermarsi e perdere tempo su questi GT212? Già che c'è il GT200b in arrivo, poi... :mbe:
Speriamo che questa scheda sia almeno il 50% più potente di quelle precedenti, senza magari aumentare ancora i consumi. Ati risponderà a tono (spero) e quindi avremo più potenza nelle GPU e più dindi risparmiati nel portafogli. W il progresso tecnologico e la concorrenza!
gianni1879
05-01-2009, 17:57
si prospetta un bel mostriciattolo la nuova nvidia :)
netcrusher
05-01-2009, 17:57
xnetcrusher: in una news in cui si parla di schede che escono tra 6 mesi, tu di che vorresti parlare, così, senza paranoie?
Fino ad ora hai scritto solo per scatenare flame, senza alcun interesse alla news stessa.
ma quale flame????? hai visto quanti posts nei quali gettano mer... su Ati???
scheda da parcheggio e altre stupidaggini, poi non sentirti offeso ma scusa tutte ste proiezioni che hai fatto fanno venire l'angoscia, qui non si sa se domani ci esplode una bomba sotto il kulo.........comunque non posto più nulla tanto è inutile confrontarsi con gente che vede solo nvidia da tutte le parti e che manco ammette che se Ati non faceva il colpaccio con le gddr5 a quest'ora nvidia stava ancora fregando i propri supporter con le beneamate gddr3 e con le sue 8500 schede nell'arco di una settimana tanto per fare brodo.......ma per favore sì.......
Ma perchè non passano direttamente al GT300, invece che soffermarsi e perdere tempo su questi GT212? Già che c'è il GT200b in arrivo, poi... :mbe:
Perché hanno la possibilità di migliorare GT200 senza rallentare lo sviluppo di GT300, se hanno risorse umane disponibili sarebbe stupido non usarle, sopratutto considerando che costano anche se non fanno niente.
ma quale flame????? hai visto quanti posts nei quali gettano mer... su Ati???
scheda da parcheggio e altre stupidaggini, poi non sentirti offeso ma scusa tutte ste proiezioni che hai fatto fanno venire l'angoscia, qui non si sa se domani ci esplode una bomba sotto il kulo.........comunque non posto più nulla tanto è inutile confrontarsi con gente che vede solo nvidia da tutte le parti e che manco ammette che se Ati non faceva il colpaccio con le gddr5 a quest'ora nvidia stava ancora fregando i propri supporter con le beneamate gddr3 e con le sue 8500 schede nell'arco di una settimana tanto per fare brodo.......ma per favore sì.......
Ciao
Athlon 64 3000+
05-01-2009, 18:28
Se mi ricordo bene Nvidia ha diversi team che sviluppano le varie gpu e penso che lo sviluppo di GT300 corra parallelo alle viarie GT200b/GT212 perchè ci voglioni anni per fare una nuova architettura.
ghiltanas
05-01-2009, 18:42
per me lo fa anche per testare ben bene i 40 nm, cosi da arrivare preparati sotto quest'aspetto con la nuova vera architettura gt300, che inizialmente sarà con buona probabilità a 40nm...
io sono curioso di vedere i consumi che avranno..
NVIDIA vuole rimanere la migliore, ora aspetto solo un rebrand della scheda :asd:
mister-x
05-01-2009, 18:49
Secondo me non ha molto senso fare uscire una scheda del genere 3-4 mesi prima delle dx11 senza contare che avrà mediamente le stesse performance (se non di meno) di una gtx295. Inoltre dubito che la tecnologia a 40nm sia già così matura da permettere un aumento di oltre il 50% degli sp con una riduzione della dimensione del chip da 470->300mm^2. Sinceramente queste specifiche non mi sembrano molto reali. Cmq tutto può essere, speriamo solo che Nvidia abbia dedicato lo stesso impegno allo sviluppo di GT300 ;) .
MiKeLezZ
05-01-2009, 18:53
Secondo me non ha molto senso fare uscire una scheda del genere 3-4 mesi prima delle dx11 senza contare che avrà mediamente le stesse performance (se non di meno) di una gtx295. Inoltre dubito che la tecnologia a 40nm sia già così matura da permettere un aumento di oltre il 50% degli sp con una riduzione della dimensione del chip da 470->300mm^2. Sinceramente queste specifiche non mi sembrano molto reali. Cmq tutto può essere, speriamo solo che Nvidia abbia dedicato lo stesso impegno allo sviluppo di GT300 ;) .i transistor passano da 1,4 miliardi a 1,8 miliardi, è questo il dato da confrontare con la riduzione di processo produttivo, ed infatti torna (e non dimentichiamoci si passa dal half-node del 65nm, il 55nm, al half-node del 45nm, il 40nm, quindi c'è un salto maggiore di quel sembri)
che dite,è il momento buono per cambiare la mia gts320 con qualcosa di superiore ma economico o conviene aspettare ancora un pò??
MiKeLezZ
05-01-2009, 19:03
che dite,è il momento buono per cambiare la mia gts320 con qualcosa di superiore ma economico o conviene aspettare ancora un pò??datosi i giochi sono fortemente veicolati dall'ambiente console e che questo è radicato al 2005 con tecnologie basate su serie 7 nvidia e serie x1 ati, direi che acquistare qualsiasi scheda superiore ai 150 euro sia al momento inutilmente sovradimensionato
il prossimo passo sono le dx11 e se ne riparla a gennaio 2010 (non tanto per l'os che uscità in luglio, ma per avere una adeguato portfolio di schede su cui scegliere)
che dite,è il momento buono per cambiare la mia gts320 con qualcosa di superiore ma economico o conviene aspettare ancora un pò??
Dipende molto dalle tue necessità, in ogni caso ti conviene aspettare almeno l'8 gennaio per decidere cosa fare.
netcrusher
05-01-2009, 19:17
Vabbé, praticamente nVidia è da buttare...al diavolo le 260...le 280...e tutte le altre schede "per fare brodo"..tanto non valgono niente! Ma che discorsi...:rolleyes:
PS: sono un HD 4850CF owner, tanto per intenderci...:rolleyes:
Io non ho mai detto che nvidia è inferiore ad ati come testimoniano i miei posts, sto solo dicendo che quando i meriti sono targati Ati l'obiettività non c'è mai, poi quando nvidia è avanti tutti pronti a gettare fango su Ati, a me sai quanto me ne frega che ci sono tutti fanboy nvidia su questo forum, l'importante è che i fatti parlano chiarissimo, con la serie hd4800 nvidia ha preso un bel palo nel sedere, ed i poverini hanno dovuto tagliare i prezzi per adeguarsi.......e fatemi il piacere chi dice che i prezzi della nvidia sono giustificabili dalla tecnologia usata, hanno sparato sul mercato schede a prezzi da rapina quando con la metà ti compri una gpu con 800 strem processors e memorie gddr5........meditate e poi potete confrontarvi veramente, sono odiose solo le persone che con una realtà palese mentono ancora spudoratamente, a me bastano i dati di vendita..........
NVIDIA vuole rimanere la migliore, ora aspetto solo un rebrand della scheda :asd:
appunto vuole rimanere, al momento il top e hd4870x2 e non si discute, potete farvi tutti gli Sli che volete......andate và.....
Secondo me non ha molto senso fare uscire una scheda del genere 3-4 mesi prima delle dx11 senza contare che avrà mediamente le stesse performance (se non di meno) di una gtx295. Inoltre dubito che la tecnologia a 40nm sia già così matura da permettere un aumento di oltre il 50% degli sp con una riduzione della dimensione del chip da 470->300mm^2. Sinceramente queste specifiche non mi sembrano molto reali. Cmq tutto può essere, speriamo solo che Nvidia abbia dedicato lo stesso impegno allo sviluppo di GT300 ;) .
Ma cosa ha oramai senso in questo mercato fatto di psicopatici, di videogiocatori che hanno lasciato il cervello sul comodino e che comprano ogni strunz......a che mettono sul mercato??????? La novità di quest'anno per me rimarrà sempre la hd4870 punto e basta..........tutto il resto sono stupidaggini per fregare danari agli sprovveduti......
Athlon 64 3000+
05-01-2009, 19:21
Io non ho mai detto che nvidia è inferiore ad ati come testimoniano i miei posts, sto solo dicendo che quando i meriti sono targati Ati l'obiettività non c'è mai, poi quando nvidia è avanti tutti pronti a gettare fango su Ati, a me sai quanto me ne frega che ci sono tutti fanboy nvidia su questo forum, l'importante è che i fatti parlano chiarissimo, con la serie hd4800 nvidia ha preso un bel palo nel sedere, ed i poverini hanno dovuto tagliare i prezzi per adeguarsi.......e fatemi il piacere chi dice che i prezzi della nvidia sono giustificabili dalla tecnologia usata, hanno sparato sul mercato schede a prezzi da rapina quando con la metà ti compri una gpu con 800 strem processors e memorie gddr5........meditate e poi potete confrontarvi veramente, sono odiose solo le persone che con una realtà palese mentono ancora spudoratamente, a me bastano i dati di vendita..........
appunto vuole rimanere, al momento il top e hd4870x2 e non si discute, potete farvi tutti gli Sli che volete......andate và.....
Ma cosa ha oramai senso in questo mercato fatto di psicopatici, di videogiocatori che hanno lasciato il cervello sul comodino e che comprano ogni strunz......a che mettono sul mercato??????? La novità di quest'anno per me rimarrà sempre la hd4870 punto e basta..........tutto il resto sono stupidaggini per fregare danari agli sprovveduti......
Non ti si può dare tutti i torti,ma non è questo il modo di rispondere perchè cosi rischi solo di essere sospeso.
Diciamo che c'è altro modo per esprimersi.
Athlon 64 3000+
05-01-2009, 19:25
Per esempio oggi è apparsa la recensione della His HD 4870 1gb e in confronto alla GTX260-216 a parte Dead Space era di pochi frame davanti e anche la HD 4870 da 512 MB alle risoluzioni di 1280x1024 e 1600x1200 era allineate e quindi questa presunta superiorità della GTX260-216(a 65nm) non c'è più e guardando su trovaprezzi la HD 4870 da 1gb costa di meno e c'è poco da fare,una volta le varie 8800 regnavano incontrastate sulla varie hd 2900/3800 ora le hd 4800 non hanno la superiorità che aveva Nvidia fino a 6 mesi però hanno un rapporto prezzo/prestazioni assolutamente imbattibile che nessuna Nvidia ora come ora non può scalfire.
Vedremo come sarà la GTX260-216 a 55 nm.
Con questo chiudo l'off-topic.
netcrusher
05-01-2009, 19:30
chiudo anche io.........questo poi è il topic della nuova gpu gt212 quindi sono proprio fuori luogo i discorsi che stiamo facendo.......per le critiche ci sono i thread appositi......chiedo scusa ma io ho cominciato solo in risposta a chi aspetta con tanta ansia la nuova vga della nvidia e poi spara stupidaggini del tipo "nel frattempo prendo una hd4870" come se andassi al ristorante e prima che ti arriva il primo piatto prendi gli stuzzichini.....a questo siamo arrivati.......
bollicina31
05-01-2009, 19:51
scusa ma non è proprio vero, cosa intendi per gpu piccola?? A parte il fatto che tecnicamente GT200 non ha un bus a 512 bit di ampiezza reali, ma 2 bus a 256 bit usati contemporaneamente per operazioni di lettura e scrittura, ci sono praticamente due controller fisici separati.
Ne consegue sicuramente una minore complessità, ma praticamente non un effettivo dimezzamento dei transistor impiegati, in quanto comunque un controller di memoria con bus a 256 bit per GDDR3 è meno complesso dell'equivalente per GDDR5.
Se fosse vera la quantità di transistor citata, 1.8 miliardi (400 milioni in piu di GT200) penso che abbiano deciso oltre che aumentare fisicamente il numero di SP eTMU anche di aumentare i buffer di memoria a disposizione di ogni cluster, rendendo la GPU ancora più performante nell'ambito delle applicazioni GPPU
Ok ma lan fatto per ridurre i costa o cosa??, almeno non potevano usare il bus doppio tipo quello della gtx260 a 384bit che di sicuro è più performante, o mantenere il 512 dato che si parla di una schedozza che costerà sempre 600€ appena uscita, per tale prezzo mi sembra il minimo
acquistare qualsiasi scheda superiore ai 150 euro sia al momento inutilmente sovradimensionato
E' giusto sempre ricordarlo, ma qui molti non lo capiscono. Ciao Miké ;)
ninja750
05-01-2009, 20:55
e secondo te adottare le gddr5 naturale evoluzione delle gddr3 significa:
"beh mi sembra un riconoscimento all'ottimo lavoro di amd che hanno ripreso molte caratteristiche del progetto rv700"
e tra l'altro visto i tempi saranno ben + performanti delle attuali adottate da ati da 3600 ed ecco quindi possibile l'eventuale connubio con il bus da 256 bit.
com'è che proprio ieri sminuivi tale connubio in un altro thread? :confused:
già cambiato idea? :confused:
bastaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
Bentornato!
Io non ho mai detto che nvidia è inferiore ad ati come testimoniano i miei posts, sto solo dicendo che quando i meriti sono targati Ati l'obiettività non c'è mai, poi quando nvidia è avanti tutti pronti a gettare fango su Ati, a me sai quanto me ne frega che ci sono tutti fanboy nvidia su questo forum, l'importante è che i fatti parlano chiarissimo, con la serie hd4800 nvidia ha preso un bel palo nel sedere, ed i poverini hanno dovuto tagliare i prezzi per adeguarsi.......e fatemi il piacere chi dice che i prezzi della nvidia sono giustificabili dalla tecnologia usata, hanno sparato sul mercato schede a prezzi da rapina quando con la metà ti compri una gpu con 800 strem processors e memorie gddr5........meditate e poi potete confrontarvi veramente, sono odiose solo le persone che con una realtà palese mentono ancora spudoratamente, a me bastano i dati di vendita..........
In realtà R770 ha 800 ALU, gli SP invece sono 160, ognuno composto da 5 ALU.
Comunque sia, che razza di ragionamento è: "hanno sparato sul mercato schede a prezzi da rapina quando con la metà ti compri una gpu con 800 strem processors e memorie gddr5........"? Gli Stream Processor non sono mica un' unità di misura e nemmeno le ALU, averne di più non significa necessariamente avere un prodotto migliore ed il loro numero non può essere metro di paragone tra diverse architetture.
Per quanto riguarda la RAM vale lo stesso discorso, GDDR 5 non sono sempre e comunque più performanti delle GDDR 3, infatti, GDDR 3 a 2214 MHz abbinate ad un bus di 512 bit (come GTX 280) offrono una banda passante pari a 141,7 GB/s mentre le GDDR 5 a 3600MHz con un bus ampio 256 bit (come 4870) restituiscono una banda di 115,2GB/s.
appunto vuole rimanere, al momento il top e hd4870x2 e non si discute, potete farvi tutti gli Sli che volete......andate và.....
Sai che la 4870X2 è composta da 2 R770 collegate in CrossFire?
Ma cosa ha oramai senso in questo mercato fatto di psicopatici, di videogiocatori che hanno lasciato il cervello sul comodino e che comprano ogni strunz......a che mettono sul mercato??????? La novità di quest'anno per me rimarrà sempre la hd4870 punto e basta..........tutto il resto sono stupidaggini per fregare danari agli sprovveduti......
Queste sono le tue opinioni, ed è normale che ci sia gente che non la pensi come te.
Mister Tarpone
05-01-2009, 22:05
bastaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
:confused: :mbe:
datosi i giochi sono fortemente veicolati dall'ambiente console e che questo è radicato al 2005 con tecnologie basate su serie 7 nvidia e serie x1 ati, direi che acquistare qualsiasi scheda superiore ai 150 euro sia al momento inutilmente sovradimensionato
il prossimo passo sono le dx11 e se ne riparla a gennaio 2010 (non tanto per l'os che uscità in luglio, ma per avere una adeguato portfolio di schede su cui scegliere)
Mah, insomma, un crysis very high in dx 10 con aa aniso a palla a risoluzioni oltre i 1900xetcetc a me pare di vedere dai grafici faccia inginocchiare sotto 20 fps diverse top di gamma messe in sli e triple-quadsli ... il chè significa non giocabile senza compromessi ... quindi ancora la potenza non è mai troppa... :D
Certo poi c'è il vuoto e con un' evergreen come la mia sv si può giocare qualsiasi altro gioco senza tanti compromessi però se uno si intestardisce... :)
Davidepiu
05-01-2009, 22:19
@ stefem.. la4870 ha doppia gpu nn e per niente in crossfire ;)
Mister Tarpone
05-01-2009, 22:36
quoto l'ultimo post di stefen..
@ stefem.. la4870 ha doppia gpu nn e per niente in crossfire ;)
no piano... il funzionamento è lo stesso.
MiKeLezZ
05-01-2009, 22:41
Mah, insomma, un crysis very high in dx 10 con aa aniso a palla a risoluzioni oltre i 1900xetcetc a me pare di vedere dai grafici faccia inginocchiare sotto 20 fps diverse top di gamma messe in sli e triple-quadsli ... il chè significa non giocabile senza compromessi ... quindi ancora la potenza non è mai troppa... :D
Certo poi c'è il vuoto e con un' evergreen come la mia sv si può giocare qualsiasi altro gioco senza tanti compromessi però se uno si intestardisce... :)e tu vai a spenderti 500 euro in vga per farti 10 ore a giocare al massimo dettaglio a crysis? 100 euro a ora in pratica?
che fra 1 anno ci saranno schede da 150 euro che lo fanno girare pure meglio?
beato te.
ghiltanas
05-01-2009, 22:46
la mia 8800gt è una signora scheda e da sempre grandi soddisfazioni anche ora che sono passato ai 1920*1080, e costa 120 euro forse meno (la 9800gt che è la stessa cosa). Fino a una certa cifra è ragionevole spendere (diciamo 250 euro che è la cifra che ho pagato la mia bimba), oltre IMHO nn ha molto senso...
crysis è un disc a parte, finche nn cambiano veramente architetture nn si avrà un salto netto di prestazioni, un pò come è avvenuto con far cry quando introdussero le 7000
Mister Tarpone
05-01-2009, 22:56
e tu vai a spenderti 500 euro in vga per farti 10 ore a giocare al massimo dettaglio a crysis? 100 euro a ora in pratica?
che fra 1 anno ci saranno schede da 150 euro che lo fanno girare pure meglio?
beato te.
io non sono mai andato oltre i 150-160€ per una vga
però vedo che tanti ci spendono decisamente di +..... tra dual varie e top di gamma..
ghiltanas
05-01-2009, 22:59
io non sono mai andato oltre i 150-160€ per una vga
però vedo che tanti ci spendono decisamente di +..... tra dual varie e top di gamma..
mister questo forum nn fa molto testo :asd:
poi il multi si può fare anche in 2 tempi. io personalmente se avessi una scheda madre che lo permetterebbe, un'altra 8800 l'avrei aggiunta, visto il costo attuale
Mister Tarpone
05-01-2009, 23:05
mister questo forum nn fa molto testo :asd:
poi il multi si può fare anche in 2 tempi. io personalmente se avessi una scheda madre che lo permetterebbe, un'altra 8800 l'avrei aggiunta, visto il costo attuale
beh si... questo è un forum di super appassionati.... http://img119.imageshack.us/img119/9810/ammiccaai6.gif (http://imageshack.us)
Pier2204
05-01-2009, 23:06
Chiedo venia... ma..
Posseggo una 8800GTX da ormai...2 anni se la memoria non mi inganna, un mobo 939 con cpu Atlhon 64 X2 4600+ , tutti e due insieme oggi valgono 150 euro
in questo momento mi sto divertendo, nelle poche ore disponibili, con The Witcher, scaricato 900 mega di patch, e risoluzione massima 1920 X 1200 con un monitor da 24, tutti i filtri ombre e più ne ha più ne metta, ebbene è uno spettacolo e va benissimo anche come frame. Alcune volte sembra che si blocchi un attimo, ma non dipende dalla risoluzione perchè lo fa anche con risoluzioni più basse, ma leggendo vari forum dipende dal motore grafico non proprio perfetto. In sostanza, allo stato attuale credo che tutta quella potenza
sia sovradimensionata per divertirsi. L'unico cosa che mette alla frusta la GPU è FSX, ma qui credo che dipenda più dal progetto complesso come quello di un simulatore di volo, dove le dinamiche di volo siano CPU dipendenti. In ogni caso gli effetti atmosferici, le texture, i riflessi, tutto con 25 FPS...
marchigiano
05-01-2009, 23:27
non puo andare il doppio di una soluzione singola, non hanno doppiato numericamente ne SP ne TMU
io invece credo sarà l'ultima scheda dx 10 prima di GT300
ho scritto il doppio della gtx260 e forse pari alla gtx295, mi pare più che probabile, peccato se sarà dx10 invece
scheda di parcheggio???? ma ragà state sempre pronti a declassare tutto.....ma fatemi il piacere..........
parcheggio l'ho messo tra virgolette non a caso, perchè sono comunque signore schede, poi quando ho scritto quel messaggio pensavo sarebbe stata dx11, se rimane dx10 ritiro quello che ho detto, perchè stimo che il costo di questa scheda sarà folle specie se ati nel frattempo non tira fuori qualcosa di paragonabile e spendere un botto in una dx10 non ha senso secondo me, specie tra 7-8 mesi
se invece sarà dx11 penso che uno si compra una scheda del genere e sta a posto fino alle dx12... un piccolo investimento come fu la gtx8800
M@tteo79
05-01-2009, 23:30
per me lo fa anche per testare ben bene i 40 nm, cosi da arrivare preparati sotto quest'aspetto con la nuova vera architettura gt300, che inizialmente sarà con buona probabilità a 40nm...
io sono curioso di vedere i consumi che avranno..
Un gran bel test direi... viste le specifiche e le probabili prestazioni. Cmq ho già espresso la mia opinione a riguardo nel thread ufficiale della GTX295: questo cambio repentino di schede nel corso del 2009 di certo non invoglia l'acquirente a procedere ad un eventuale upgrade nel breve periodo.
A distanza di 3-4 mesi l'una dall'altra assisteremo alla sfilata di GT200b - GT212 - GT300 le quali andranno reciprocamente a sostituirsi rendendo privo di valore di mercato un acquisto fatto solo qualche mese prima e pagato salato.
Non sto esprimendo una critica nei confronti di Nvidia ma sto solo dicendo che molti acquirenti, tra i quali il sottoscritto, un tempo decisi al 200% ad acquistare la GTX285 alla sua uscita, dopo la lettura di queste news, hanno cambiato i loro piani e sono tornati sui propri passi.
Hanno perso l'occasione di vendere in massa il GT200b... il quale ora sembra solo un esercizio di stile dalla longevità decisamente esigua.
E' UN MIO PENSIERO.
@ stefem.. la4870 ha doppia gpu nn e per niente in crossfire ;)
A no?
Spiegami la differenza.
ghiltanas
06-01-2009, 00:43
Un gran bel test direi... viste le specifiche e le probabili prestazioni. Cmq ho già espresso la mia opinione a riguardo nel thread ufficiale della GTX295: questo cambio repentino di schede nel corso del 2009 di certo non invoglia l'acquirente a procedere ad un eventuale upgrade nel breve periodo.
quoto, certo dipende anche da tanti fattori.
Cmq imho se uno ha già una scheda datata, un cosa nn male sarebbe prendersi una gt200b nn troppo costosa, cosi da arrivare alle future gpu dx11 senza problemi. Per chi ha una scheda come la mia, a seconda di che risoluzione gioca, può tranquillamente andare avanti un altro anno
yossarian
06-01-2009, 01:43
queste scelte di nvidia confermano che ati ci aveva visto giusto con la 4870: gddr5, bus memoria a 256 bit e tecnologia aanzata per produrre chip piccoli e economici (per loro, almeno)
queste scelte di nVIDIA, così come quella di non commercializzare l'intera produzione di scarti di GT200 a 65 nm e, se fossero confermate queste indiscrezioni, cosa probabile, visto il secondo renaming della serie 8, l'intera produzione di scarti di GT200 a 55 nm, confermerebbero solo il fatto che produrre chip di quelle dimensioni (580 o anche 470 mm^2) non paga a livello di economie di scala. Motivo per cui si accelera il passaggio a pp con dimensioni inferiori. Questo perchè l'architettura di nVIDIA non si presta alla realizzazione di chip di piccole dimensioni con elevata potenza di calcolo potendo integrare solo un numero relativamente piccolo di alu.
ma non capisco perchè ridurre il bus di memoria da 512 a 256?
perchè integrare un MC con interfaccia a 512 bit su una superficie di 300 mm^2 darebbe seri problemi. E perchè con le gddr5 non servono i 512 bit di bus.
ah una cosa importante... sarà dx11 spero :eek:
credo sarà ancora dx10
ma veramente se questo fosse vero cambierebbe ben poco, Nvidia continua a preferire chip monolitici ipercomplessi, le ridotte dimensioni sarebbero solo frutto del processo produttivo ulteriormente affinato e non di una diminuzione della complessità...salvo per quanto riguarda la circuiteria adibita al bus verso le memorie..evidentemente i costi delle GDDR5 si stanno abbassando rendendo svantaggioso l'uso delle "vecchie" GDDR3 unite ad un bus molto ampio.
un'architettura superscalare rende impossibile realizzare chip monolitici di dimensioni ridotte ma elevate prestazioni
C'è comunque una grossa incognita perchè il controller di memoria di GT200 è ancora di tipo crossbar che da quello che so è incompatibile con le gddr5 e per poter ospitare le gddr5 dovrebbero riprogettare completamente il controller di memorie e le rop's perchè in G8x e GT200 sono legate al bus della memoria.
non è il crossbar ad essere incompatibile con le gddr5 ma il tipo di crossbar utilizzato da nVIDIA (simmetrico e senza particolari accorgimenti per ottimizzare il trasferimento dei dati da e per la memoria).
scusa ma non è proprio vero, cosa intendi per gpu piccola?? A parte il fatto che tecnicamente GT200 non ha un bus a 512 bit di ampiezza reali, ma 2 bus a 256 bit usati contemporaneamente per operazioni di lettura e scrittura, ci sono praticamente due controller fisici separati.
Ne consegue sicuramente una minore complessità, ma praticamente non un effettivo dimezzamento dei transistor impiegati, in quanto comunque un controller di memoria con bus a 256 bit per GDDR3 è meno complesso dell'equivalente per GDDR5.
gt200 ha 8 memory controller, uno per ogni canale da 64 bit (32+32). Ogni canale è composto da 2 canali da 32 bit, uno per i dati in lettura ed uno per quelli in scrittura.
In effetti bisognerà capire come e quanto influenzerà questa differenza l'incremento prestazionale, sempre che i dati siano veri...
Già nel passaggio G92 -> G200 si era notato come un (quasi) raddoppio di shaders ma un incremento ben più piccolo delle TMU non avesse portato chissà quanti benefici, laddove la banda di G92 fosse ancora sufficiente. Se la proporzionalità rimanesse la stessa (considerando anche che la banda tra G200 e G212 non cambierà di moltissimo), credo che l'incremento prestazionale rispetto ad una GTX280 potrebbe essere inferiore al 50%.
Ovvio che si tratta sempre di ipotesi.
la cosa più appariscente e, forse, più importante, è l'ulteriore modifica del rapporto tra alu e tmu. Con un paio d'anni di ritardo (probabilmente più), c'è arrivata anche nVIDIA.
Cos'è?
La reincarnazione di Nostradamus ai nostri tempi?
Hei! yoss, mi mandi i numeri della prossima estrazione del superenalotto?
Grazie!
se per te è la stessa cosa, a livello previsionale, allora si vede che ne mastichi veramente poco.
i transistor passano da 1,4 miliardi a 1,8 miliardi, è questo il dato da confrontare con la riduzione di processo produttivo, ed infatti torna (e non dimentichiamoci si passa dal half-node del 65nm, il 55nm, al half-node del 45nm, il 40nm, quindi c'è un salto maggiore di quel sembri)
forse il salto è ancora maggiore, perchè i 45 nm di TSMC non sono particolarmente adattii a chip ad alte prestazioni. Il che, a detta di molti addetti ai lavori, potrebbe far pensare ad uno shrink più vicino ad un full node che ad un half node.
e tu vai a spenderti 500 euro in vga per farti 10 ore a giocare al massimo dettaglio a crysis? 100 euro a ora in pratica?
che fra 1 anno ci saranno schede da 150 euro che lo fanno girare pure meglio?
beato te.
figurati la penso come te :asd: io come ho detto non sento ancora il motivo di cambiare sv, ho preso la mia 1 anno fà a 180€ e ho giocato di tutto sempre al massimo, l'ho overcloccata solo per giocare a gothic 3 forsaken god ( ma li neanche il dio ci può mettere la pezza :D )
Mi era balenata in mente di fare no sli visto che la sm lo permette e passare da un 19 ad un monitor da almeno 24"ma al massimo andrebbe come con una gtx260...insomma poca roba di differenza... poi però nella comparativa sli-cf ho visto che l'unico gioco per cui poteva valere la pena non girava decentemente al massimo neanche co un triplo sli di gtx 280 o una batteria di 4870 e mi son detto: mi sa che salto pure la prossima famiglia e aspetto la successiva eventuale gtx 300
Tra un anno ancora non ce la faranno a far girare crysis bene al massimo del massimo con schede di fascia media da 150 € secondo me...
Free Gordon
06-01-2009, 03:03
mah.. non capisco.. deve ancora effettivamente uscire lo shrink a 55nm e già si parla di quello a 40nm??
Tra l'altro, se sta cosa fosse vera, G80 sarebbe la prima architettura di base in assoluto a rimanere (quasi) sempre la stessa per ben 4 pp diversi (90, 65, 55 e 40nm... :eek: )
Per R600 invece saranno 3: 80, 55 e 40 (o no? :D ) nm..
Le specifiche sembrano ragionevoli per il processo produttivo.
Presumibilmente Nvidia cerchera' di arrivare almeno ai 2 Teraflops, le frequenze quindi dovrebbero essere 1500+ Mhz.
Mi aspetto anche una dual-gpu, dopotutto 300mm^2 e 256bit sono facilmente gestibili per farla.
Il traguardo dei 1000 Stream Processor non e' troppo lontano. Per le architettura DirectX11 non penso che cambieranno le architetture in una maniera radicale, sopratutto Ati.
Le specifiche sembrano ragionevoli per il processo produttivo.
Presumibilmente Nvidia cerchera' di arrivare almeno ai 2 Teraflops, le frequenze quindi dovrebbero essere 1500+ Mhz.
Mi aspetto anche una dual-gpu, dopotutto 300mm^2 e 256bit sono facilmente gestibili per farla.
Il traguardo dei 1000 Stream Processor non e' troppo lontano. Per le architettura DirectX11 non penso che cambieranno le architetture in una maniera radicale, sopratutto Ati.
non è il crossbar ad essere incompatibile con le gddr5 ma il tipo di crossbar utilizzato da nVIDIA (simmetrico e senza particolari accorgimenti per ottimizzare il trasferimento dei dati da e per la memoria).
In effetti la cosa più importante dovrebbe essere l'ottimizzazione dell'uso della banda... A che serve avere 150GB/s di banda quando poi internamente hai una strozzatura non da poco? Anche lì mi sa che NVidia potrebbe seguire la strada tracciata da ATi.
Tra l'altro, se sta cosa fosse vera, G80 sarebbe la prima architettura di base in assoluto a rimanere (quasi) sempre la stessa per ben 4 pp diversi (90, 65, 55 e 40nm... :eek: )
Beh, in realtà penso che sia ATi che NVidia abbiano ancora seguito la strada del Tick-Tock, almeno per la fascia alta. GT212, se le specifiche che si sentono in giro sono vere, sarà una scheda abbastanza diversa da GT200 e molto diversa da G80. Io non credo sia un "semplice" shrink a 40nm un po' modificato. Sarà a tutti gli effetti la nuova generazione di schede del 2009, e penso anche che NVidia cambierà pian piano la sua strategia, sia in termini di market view (com'è come non è, pure NVidia sta offrendo con sempre maggior frequenza una dual) che di razionalizzazione dell'offerta di prodotti (ha una lineup completamente confusionaria, con millemila rebranding).
Semplicemente per ora non si vede la necessità di fare investimenti forti per stravolgere completamente l'architettura, come fu all'epoca del passaggio alle DX10, visto che come altri hanno detto, la qualità grafica è ormai quasi completamente console-driven, e la potenza delle schede attuali è già enormemente superiore a quella delle consoles.
Diciamo che serve solo un "eccesso di potenza" tale da garantire prestazioni a prova di programmazione penosa con ogni gioco. :D
Inoltre sinceramente non riesco a vedere lo spazio per "stravolgimenti completi" nelle architetture vga, a meno di non abbandonare completamente le fixed units (ora yossarian mi ammazza... :asd: ). Tra l'altro mantenere la stessa filosofia di base della scheda credo porti grossi vantaggi in termine di compilazione dei drivers. Non credo che nemmeno ATi voglia tirarsi la zappa sui piedi proprio ora che pare stia superando gli enormi problemi in quel campo che aveva incontrato con R600 e figli. ;)
Le specifiche sembrano ragionevoli per il processo produttivo.
Presumibilmente Nvidia cerchera' di arrivare almeno ai 2 Teraflops, le frequenze quindi dovrebbero essere 1500+ Mhz.
Mi aspetto anche una dual-gpu, dopotutto 300mm^2 e 256bit sono facilmente gestibili per farla.
Il traguardo dei 1000 Stream Processor non e' troppo lontano. Per le architettura DirectX11 non penso che cambieranno le architetture in una maniera radicale, sopratutto Ati.
Per ATi penso di sì, credo che, dato che pare che i loro SP occupino pochissimo spazio. Mi sembrano abbastanza inverosimili le previsioni di "soli" 900 o 960 SP, proprio in virtù di questa particolarità, e del fatto che l'aumento, anche grande in valore assoluto, di SP, non ha un impatto enrome sulle prestazioni. Invece, se anche raddoppiassero esattamente RV770, potrebbero con tutta probabilità disporre di un die più piccolo della concorrenza, a 40nm, ossia sempre delle dimensioni attuali di RV770, o forse addirittura più piccolo.
Per NVidia mi sa che ci vorrà ancora parecchio tempo per arrivare ai 1000SP, ma d'altro canto non è il numero che conta. ;)
netcrusher
06-01-2009, 12:52
io mi chiedo solo che senso ha continuare a stare dietro a tutte ste str..te di schede, promettono solo meraviglie del cavolo........e questo vale sia per ati che nvidia senza esclusione alcuna, stanno prendendo in giro solo l'intera community mondiale dei videogiocatori, titoli programmati chissà da quali ubriachi, pessime conversioni, oramai dipendiamo dalle conversioni da console e dobbiamo ringraziare il cielo se la conversione è appena sufficiente, e noi che facciamo andiamo a spendere vecchi milioni di lire per allestire piattaforme inutilissime.........facciamoci un serio quadro di analisi.........dove vogliamo andare a finire????? questa storia è patetica come è patetica l'uscita di tutte queste schede siano esse ati che nvidia...........chi è rimasto alla 8800 gtx secondo me è il più intelligente di tutti........bah...
ghiltanas
06-01-2009, 13:21
io mi chiedo solo che senso ha continuare a stare dietro a tutte ste str..te di schede, promettono solo meraviglie del cavolo........e questo vale sia per ati che nvidia senza esclusione alcuna, stanno prendendo in giro solo l'intera community mondiale dei videogiocatori, titoli programmati chissà da quali ubriachi, pessime conversioni, oramai dipendiamo dalle conversioni da console e dobbiamo ringraziare il cielo se la conversione è appena sufficiente, e noi che facciamo andiamo a spendere vecchi milioni di lire per allestire piattaforme inutilissime.........facciamoci un serio quadro di analisi.........dove vogliamo andare a finire????? questa storia è patetica come è patetica l'uscita di tutte queste schede siano esse ati che nvidia...........chi è rimasto alla 8800 gtx secondo me è il più intelligente di tutti........bah...
:rotfl:
ma lo fanno per noi, altrimenti di cosa spettegoleremmo? :Prrr: , le donne hanno la moda e i vestiti e noi abbiamo le gpu :D :
"hai visto la nuova collezione primavera/estate nvidia?"
"mmm nn saprei, preferisco il rosso ati, si intona meglio col mio case.."
:sbonk: :sbonk: :sbonk:
ghiltanas
06-01-2009, 13:24
Le specifiche sembrano ragionevoli per il processo produttivo.
Presumibilmente Nvidia cerchera' di arrivare almeno ai 2 Teraflops, le frequenze quindi dovrebbero essere 1500+ Mhz.
Mi aspetto anche una dual-gpu, dopotutto 300mm^2 e 256bit sono facilmente gestibili per farla.
Il traguardo dei 1000 Stream Processor non e' troppo lontano. Per le architettura DirectX11 non penso che cambieranno le architetture in una maniera radicale, sopratutto Ati.
qui nn saprei...bisogna vedere cosa chiederanno di preciso le dx11
netcrusher
06-01-2009, 13:30
:rotfl:
ma lo fanno per noi, altrimenti di cosa spettegoleremmo? :Prrr: , le donne hanno la moda e i vestiti e noi abbiamo le gpu :D :
"hai visto la nuova collezione primavera/estate nvidia?"
"mmm nn saprei, preferisco il rosso ati, si intona meglio col mio case.."
:sbonk: :sbonk: :sbonk:
devo con somma tristezza ammettere che la tua visione racchiude in sitesi il principio dell'inutilità e del superfluo radicato oramai in tutto......le gpu in fondo sono solo una moda.......verissimo.........che schifezza........
Per ATi penso di sì, credo che, dato che pare che i loro SP occupino pochissimo spazio. Mi sembrano abbastanza inverosimili le previsioni di "soli" 900 o 960 SP, proprio in virtù di questa particolarità, e del fatto che l'aumento, anche grande in valore assoluto, di SP, non ha un impatto enrome sulle prestazioni. Invece, se anche raddoppiassero esattamente RV770, potrebbero con tutta probabilità disporre di un die più piccolo della concorrenza, a 40nm, ossia sempre delle dimensioni attuali di RV770, o forse addirittura più piccolo.
Per NVidia mi sa che ci vorrà ancora parecchio tempo per arrivare ai 1000SP, ma d'altro canto non è il numero che conta. ;)[/
Lo shader core di Ati e' microscopico e per di piu' sono anche avvantaggiati dall'aumentare del rapporto shader:tmu. Piu' questo tende ad aumentare, piu' lo shader core guadagna spazio e aumenta velocemente il numero di stream processor. Ad esempio, se passassero ad un rapporto 6:1 potrebbe inserire 1800sp e 60TMU a 40nm sulla stessa area di RV770.
Nemmeno per Nvidia e' troppo lontano, specifico che parlavo anche di dual-gpu. GT300 probabilmente avra' intorno alle 500 ALU super-scalari e una maggiore efficenza nei calcolo DP.
ghiltanas
06-01-2009, 17:16
che si intende precisamente con half-node e full-node?
Morgan88
06-01-2009, 17:25
Salve a tutti!
Perdonatemi la domanda forse banale:
Per gestire questa nuova nvidia GT212 che requisiti di sitema saranno necessari?
Qual'è la CPU sarà richiesta per gestire una scheda video con così tanta potenza di calcolo?
Il "PCI-E 1.x" sarà ancora compatibile, oppure sarà del tutto obsoleto e motivo di pesanti penalizzazioni prestazionali?
Vi chiedo questo perchè è molto difficile reperire questo tipo di informazioni, che a mio avviso sono importanti ai fini della reale valutazione di un prodotto e del suo eventuale acquisto.
Mi piacerebbe molto poter possedere una scheda simile, anche solo per "moda", ma se poi per sfruttarla devo spendere altri soldi per sostituire tutti (o molti) dei componenti del mio PC, allora davvero sarebbe soltanto un lusso per pochi fortunati che possono aggiornare tutto ogni 6 mesi!
Vi ringrazio tutti in anticipo!... ciao.
halduemilauno
06-01-2009, 17:48
Salve a tutti!
Perdonatemi la domanda forse banale:
Per gestire questa nuova nvidia GT212 che requisiti di sitema saranno necessari?
Qual'è la CPU sarà richiesta per gestire una scheda video con così tanta potenza di calcolo?
Il "PCI-E 1.x" sarà ancora compatibile, oppure sarà del tutto obsoleto e motivo di pesanti penalizzazioni prestazionali?
Vi chiedo questo perchè è molto difficile reperire questo tipo di informazioni, che a mio avviso sono importanti ai fini della reale valutazione di un prodotto e del suo eventuale acquisto.
Mi piacerebbe molto poter possedere una scheda simile, anche solo per "moda", ma se poi per sfruttarla devo spendere altri soldi per sostituire tutti (o molti) dei componenti del mio PC, allora davvero sarebbe soltanto un lusso per pochi fortunati che possono aggiornare tutto ogni 6 mesi!
Vi ringrazio tutti in anticipo!... ciao.
credo che quella compatibilità ci sarà tutta.
;)
che si intende precisamente con half-node e full-node?
Credo che questi articoli possano fare al caso tuo:
http://www.pcmag.com/encyclopedia_term/0,2542,t=process+technology&i=49759,00.asp
http://www.pcmag.com/encyclopedia_term/0,2542,t=half-node&i=58929,00.asp
;)
ghiltanas
06-01-2009, 19:29
Credo che questi articoli possano fare al caso tuo:
http://www.pcmag.com/encyclopedia_term/0,2542,t=process+technology&i=49759,00.asp
http://www.pcmag.com/encyclopedia_term/0,2542,t=half-node&i=58929,00.asp
;)
grazie :) , appena posso li leggo con attenzione
Salve a tutti!
Perdonatemi la domanda forse banale:
Per gestire questa nuova nvidia GT212 che requisiti di sitema saranno necessari?
Qual'è la CPU sarà richiesta per gestire una scheda video con così tanta potenza di calcolo?
Il "PCI-E 1.x" sarà ancora compatibile, oppure sarà del tutto obsoleto e motivo di pesanti penalizzazioni prestazionali?
Vi chiedo questo perchè è molto difficile reperire questo tipo di informazioni, che a mio avviso sono importanti ai fini della reale valutazione di un prodotto e del suo eventuale acquisto.
Mi piacerebbe molto poter possedere una scheda simile, anche solo per "moda", ma se poi per sfruttarla devo spendere altri soldi per sostituire tutti (o molti) dei componenti del mio PC, allora davvero sarebbe soltanto un lusso per pochi fortunati che possono aggiornare tutto ogni 6 mesi!
Vi ringrazio tutti in anticipo!... ciao.
Dipende... Tu che cpu hai? Inoltre non si può definire a priori se una gpu sarà cpu limited o meno...
In questo interessante articolo (http://www.insidehw.com/Reviews/CPU/Gaming-Performance-Core-i7-vs-Core-2-Quad.html) si nota come ad esempio a 1680x1050 AA2x una GTX280 non tragga praticamente alcun beneficio dall'uso di un Core i7 vs un Core 2 Quad. Mentre una HD4870X2 sembra essere cpu limited col pur potente Q9550 persino a 1920x1200 AA4x. :)
Boh ragazzi, qui finchè non usciranno le prossime generazioni di console (e relative conversioni dei videogiochi) stare dietro a nuove schede non serve a una fava :asd:
Già GTX280 e 4870X2 sono sovrabbondantemente potenti per quasi tutte le risoluzioni, figuriamoci GT212 e le 58x0 :D
zerothehero
06-01-2009, 20:05
Mah, io preferisco i mattoni monolitici modello nvidia, non mi piace avere tanti core che comunicano via sli o crossfire perchè c'è sempre il problema dei driver.
Athlon 64 3000+
06-01-2009, 20:21
Mah, io preferisco i mattoni monolitici modello nvidia, non mi piace avere tanti core che comunicano via sli o crossfire perchè c'è sempre il problema dei driver.
Perfettamente d'accordo,semplicemente anche io sono sempre stato contrario a farmi un crossfire o SLI e vale anche per la HD 4870x2 e per la GTX295 dato il problema delle configurazione multi-gpu.
Anche io ho sempre preferito avere scheda video con gpu singola.
L'unica è sperare che presto vengano fatte schede video con delle vere e proprie gpu multi-core con alcuni parti logiche in comune.
Morgan88
06-01-2009, 21:52
Grazie per avermi indicato quell'articolo.
Bhé... forse non sarà necessario sostituire tutto il mio pc.
Posseggo un vecchio Q6600 o.c. in daily a 3.33GhZ (370x9) su chipset 965 ed ho attualmente una 8800gts g92 che ho intenzione di "destinare" alla fisica, appena uscira una scheda nvidia compatibile con le DX11.
Da quell'articolo mi sembra di intuire che i videogiochi non traggano molto vantaggio dalle nuove architetture di CPU, ma siano ancora abbastanza legati solo alla loro frequenza; quindi un utente come me potrebbe supporre di non avere grosse perdite di prestazioni, tali da rendere necessario riassemblare un nuovo pc.
Ma come mai questi dati (le richieste hardware necessarie per un buon rendimento) non vengono esplicitamente dichiarate dai costruttori? Al massimo indicano la potenza necessaria alla PSU, giusto per evitare che la scheda neanche si avvii, ma di suggerire CPU ed altro non se ne parla neanche!
Per fortuna noi poco "ferrati" possiamo consultare ottimi forum (come questo) dove poter chiedere indicazioni per evitare di buttare al vento i nostri soldini.
Grazie!
se per te è la stessa cosa, a livello previsionale, allora si vede che ne mastichi veramente poco.
Ti sei alzato con il piede sbagliato questa mattina?
Come ho già detto, la mia era solo una battuta :), e se lo era anche la tua, devo dire che proprio non l'ho capita.
Io non mi diletto a fare previsioni, preferisco lasciarle ad altri e osservare il presente.
Se poi accenno a qualcosa che avverrà in futuro, mi affido a fonti "sicure", non certo al fud della settimana.
yossarian
07-01-2009, 02:05
Ti sei alzato con il piede sbagliato questa mattina?
Come ho già detto, la mia era solo una battuta :), e se lo era anche la tua, devo dire che proprio non l'ho capita.
Io non mi diletto a fare previsioni, preferisco lasciarle ad altri e osservare il presente.
Se poi accenno a qualcosa che avverrà in futuro, mi affido a fonti "sicure", non certo al fud della settimana.
sono andato a dormire con il piede sbagliato ieri notte, semmai.
Se era una battuta era fuori luogo e fatta nei confronti di qualcuno che non stava neppure partecipando alla discussione: quindi fuori luogo e di cattivo gusto. Il fatto di nascondersi dietro alle cosiddette "battute" non costituisce un'autorizzazione a dire ciò che ci passa per la testa nei confronti di chicchessia.
Anche io mi baso su fonti sicure e quando mi capita di fare previsioni sulle gpu e le loro architetture, difficilmente sbaglio.
questa riduzione a 40nm consentirebbe a Nvidia di forgiare una scheda enthusiast GX2 ATI style, ossia 2 chip su di un unico pcb, ottenendo evidenti vantaggi di dissipazione e forse anchq qualche vantaggio prestazionale, secondo me andrà così....
sono andato a dormire con il piede sbagliato ieri notte, semmai.
Se era una battuta era fuori luogo e fatta nei confronti di qualcuno che non stava neppure partecipando alla discussione: quindi fuori luogo e di cattivo gusto. Il fatto di nascondersi dietro alle cosiddette "battute" non costituisce un'autorizzazione a dire ciò che ci passa per la testa nei confronti di chicchessia.
Anche io mi baso su fonti sicure e quando mi capita di fare previsioni sulle gpu e le loro architetture, difficilmente sbaglio.
Mi spiace che tu l'abbia intesa come un offesa personale ma la battuta non era rivolta a te.
Volevo ironizzare su una frase scritta da Athlon 64 3000+, con la quale, come ha detto lui stesso, si è espresso male.
Non volevo assolutamente offendere nessuno.
Athlon 64 3000+
07-01-2009, 13:53
Mi spiace che tu l'abbia intesa come un offesa personale ma la battuta non era rivolta a te.
Volevo ironizzare su una frase scritta da Athlon 64 3000+, con la quale, come ha detto lui stesso, si è espresso male.
Non volevo assolutamente offendere nessuno.
Infatti avevo scritto male l'ultima frase e dopo che mi avevi quotato avevo corretto il mio post.
Io di solito per quanto riguarda l'analisi dell'architetture delle gpu anche per fare eventuale previsioni mi è capitato più volte di fare il nome di Yossarian che sono da ormai 5-6 anni che ci aiuta a capire le architetture delle gpu e è sempre stato disponibile a qualsiasi domanda o approfondimento.
ma vi rendete conto che per sfruttare al massimo una 8800 gt bisognia avere un processore intel core duo pompato fino a 3giga, pensate a queste bestie a cosa ci vuole.
yossarian
07-01-2009, 23:12
Mi spiace che tu l'abbia intesa come un offesa personale ma la battuta non era rivolta a te.
Volevo ironizzare su una frase scritta da Athlon 64 3000+, con la quale, come ha detto lui stesso, si è espresso male.
Non volevo assolutamente offendere nessuno.
ok, tutto chiaro :mano:
appleroof
08-01-2009, 14:51
cut
la cosa più appariscente e, forse, più importante, è l'ulteriore modifica del rapporto tra alu e tmu. Con un paio d'anni di ritardo (probabilmente più), c'è arrivata anche nVIDIA.
cut
Ritardo rispetto ad Ati, immagino...ma io ho un'altra visione: nessun ritardo, solo forse un rapporto di quel tipo comincia (in prospettiva) a dimostrarsi utile/necessario, mentre prima non lo era (nei giochi senza dubbio)
quanto a gt212 trovo le caratteristiche impressioanti e mi fà piacere vedere che nonostante tutto quel ben di dio il die-size ventilato sia solo sui 300mm°, direi ottimo lavoro, considerando l'architettura Nvidia
Basta avere una scheda DX10.1 per supportare la prossima libreria DX11 che sarà solo un aggiornamento per Win Vista.
M@tteo79
08-01-2009, 16:26
quando mi capita di fare previsioni sulle gpu e le loro architetture, difficilmente sbaglio.
Un inno alla modestia!
Chissà perchè "qualcuno" diceva: "colui che sa di non sapere è il vero sapiente"
:banned:
M@tteo79
08-01-2009, 16:28
Basta avere una scheda DX10.1 per supportare la prossima libreria DX11 che sarà solo un aggiornamento per Win Vista.
Niente di più falso.
Un inno alla modestia!
Chissà perchè "qualcuno" diceva: "colui che sa di non sapere è il vero sapiente"
:banned:
Vabbè, comunque è la verità.
yossarian è uno degli utenti più competenti in assoluto di HWUpgrade, soprattutto per quanto riguarda le vga.
Free Gordon
08-01-2009, 17:27
Ritardo rispetto ad Ati, immagino...ma io ho un'altra visione: nessun ritardo, solo forse un rapporto di quel tipo comincia (in prospettiva) a dimostrarsi utile/necessario, mentre prima non lo era (nei giochi senza dubbio)
In realtà dipende sempre da Nvidia quanto un rapporto vada meglio oppure peggio...
Solo in rari casi (R300 è stato uno di questi) non ha avuto il potere di condizionare particolarmente lo sviluppo dei giochi su larga scala... :D probabilmente perchè lo le Dx9 sono state subito adottate in pieno da molti sviluppatori.
Nel caso di R600 invece ATI si è data proprio la mazzata sui piedi da sola, perchè ha spinto troppo in là il rapporto alu:tex, facendo crescere poco in potenza le texture unit (rispetto a G80).
Yoss penso intenda dire che con lo shader core si possono fare un sacco di cose mirabolanti che con il resto del chip non si fanno. Ed è un gran peccato che solo ora Nvidia punti sempre più sullo shader core quando già da NV30 in poi si era sentita la necessità di privilegiare lo sviluppo di questa parte del chip sul resto (oltre che di incrementare di molto il throughput poligonale dei chip).
Sono filosofie diverse, con G80 e G92 ha vinto quella di Nvidia, da Rv770 in poi pare che le cose stiano di nuovo cambiando.... :fiufiu:
yossarian
08-01-2009, 18:05
Un inno alla modestia!
Chissà perchè "qualcuno" diceva: "colui che sa di non sapere è il vero sapiente"
:banned:
forse perchè, al contrario di te, parlo con cognizione di causa.
Forse perchè ci sono anni di dimostrazioni che quello che ho affermato non è frutto di presunzione ma semplice constatazione dei fatti.
E siccome sono modesto, non starò a ricordare quando poco dopo l'uscita di NV40, quando si parlava di un fantomatico NV50, dissi che la generazione successiva sarebbe stata l'ultima a shader non unificati; oppure quando, due mesi proma che uscisse il primo articolo al riguardo su internet (era luglio 2003), parlai dei probabili problemi di NV30 con la gestione dei registri temporanei. Oppure quando, all'uscita della 7950 x2 dissi che il futuro delle gpu passava per il multichip prima e per il multicore dopo. Previsioni fatte, in alcuni casi, qualche anno prima :D
La falsa modestia è stigmatizzabile quanto se non più della superbia; inoltre sono sicuramente più modesto di chi fa affermazioni perentorie, su architetture e scelte di mercato, senza sapere di cosa sta parlando
marchigiano
09-01-2009, 00:03
è appena uscita la rece della gtx295... secondo voi questa come si posizionerà di prezzo e prestazioni?
veltosaar
09-01-2009, 12:09
Ciao a tutti.
Cortesemente, per accrescimento personale, qualcuno può spiegarmi che senso potrebbe avere la scelta di abbassare il memory bus sino a 256?
Non parlo tanto per conoscenza quanto per esperienza. Seguo da tempo l'evolversi delle schede video e mai ho notato un passo indietro nel fronte "interfaccia di memoria".
Qualcuno può spiegarmi quindi come mai dopo una corsa folle a valori sempre più alti si scelga invece ora di ridurre tale valore??
Per completezza a questo punto qualcuno potrebbe rinfrescarmi il concetto di interfaccia di memoria??
Grazie mille, saluti.
Ciao a tutti.
Cortesemente, per accrescimento personale, qualcuno può spiegarmi che senso potrebbe avere la scelta di abbassare il memory bus sino a 256?
Non parlo tanto per conoscenza quanto per esperienza. Seguo da tempo l'evolversi delle schede video e mai ho notato un passo indietro nel fronte "interfaccia di memoria".
Qualcuno può spiegarmi quindi come mai dopo una corsa folle a valori sempre più alti si scelga invece ora di ridurre tale valore??
Per completezza a questo punto qualcuno potrebbe rinfrescarmi il concetto di interfaccia di memoria??
Grazie mille, saluti.
se hai notato bene oltre alla riduzione del bus c'è l'uso di ram + veloci(si parla di GDDR5) quindi la banda passante risultante non sarà minore ma uguale se non maggiore!
la GeForce
GTX 260 ha la stessa banda passante della 4870 pur avendo la prima un bus di 448 bit!
ciao
Ciao a tutti.
Cortesemente, per accrescimento personale, qualcuno può spiegarmi che senso potrebbe avere la scelta di abbassare il memory bus sino a 256?
Non parlo tanto per conoscenza quanto per esperienza. Seguo da tempo l'evolversi delle schede video e mai ho notato un passo indietro nel fronte "interfaccia di memoria".
Qualcuno può spiegarmi quindi come mai dopo una corsa folle a valori sempre più alti si scelga invece ora di ridurre tale valore??
Per completezza a questo punto qualcuno potrebbe rinfrescarmi il concetto di interfaccia di memoria??
Grazie mille, saluti.
Riducendo la dimensione del die diventa problematico trovare spazio per tutti i collegamenti richiesti da un bus a 512bit
Se noti al bus a 256bit vengono abbinato memorie GDDR5 che permettono una bandwidth teorica doppia rispetto alle GDDR3
In questo modo si riducono consumi e costi pur mantenendo la stessa bandwidth
Un bus a 512bit in abbinamento a memorie GDDR5 darebbe una bandwidth massima enorme ma assolutamente inutile dato che sarebbe sproporzionata alla mole di dati
Ciao a tutti.
Cortesemente, per accrescimento personale, qualcuno può spiegarmi che senso potrebbe avere la scelta di abbassare il memory bus sino a 256?
Non parlo tanto per conoscenza quanto per esperienza. Seguo da tempo l'evolversi delle schede video e mai ho notato un passo indietro nel fronte "interfaccia di memoria".
Qualcuno può spiegarmi quindi come mai dopo una corsa folle a valori sempre più alti si scelga invece ora di ridurre tale valore??
Per completezza a questo punto qualcuno potrebbe rinfrescarmi il concetto di interfaccia di memoria??
Grazie mille, saluti.
Aggiungo solo una cosa a quello che ha detto Tioz90: passando da un processo produttivo di 65 nm a 55 nm non si può realizzare una circuiteria di uguale complessità...pertanto occorre abbassare il memory controller aumentando però il clock delle memorie, in modo da avere sempre un buona banda passante
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.