PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 [53] 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

sickofitall
05-01-2010, 23:27
andrai di 380 (performance permettendo)?

si, ho deciso di restare sulla scheda singola, sli e crossfire non fanno per me :)

quindi vado di 380, a te lascio la coppia di dual :asd:

aaasssdddfffggg
05-01-2010, 23:29
si, ho deciso di restare sulla scheda singola, sli e crossfire non fanno per me :)

quindi vado di 380, a te lascio la coppia di dual :asd:

e si,dovrò valutare bene che compromessi adotterà nvidia per realizzare la dual.Potrei anche aspettare quella soluzione e non adottare subito il triple di 380.Fino a marzo penserò sul da farsi (questo ipotetico GF104 comincia a fischiarmi nelle orecchie)...intanto mi studio i bench che verranno fuori perbenino.Se il GF100 non deluderà le aspettative il gioco è fatto.:)

persa
05-01-2010, 23:44
x quanto mi riguarda, se va tutto bene andrei di GTX380 :fagiano:

Diobrando_21
05-01-2010, 23:45
Mhumm dai,deve essere ancora perfezionata la cosa allora,specie sul terzo punto.:)

si certo deve essere perfezionata ma:

1- dipende da chi programma i giochi e visto che la diffusione del 3d aumenterà si spera in un supporto maggiore delle sw...cmq x leggero intendo impercettibile...

2-avendo gli occhiali è inevitabile, dovremo aspettare gli autostereoscopici :D ...

3-anche questo è inevitabile dovendo renderizzare 2 volte lo stesso frame...1 x l'occhio destro e 1 x il sinistro...ma tanto c'è Fermi :D

;)

fdadakjli
05-01-2010, 23:45
Ma hai capito solo ora che è un cialtrone/buffone? XD

lol... :asd:

aaasssdddfffggg
05-01-2010, 23:48
si certo deve essere perfezionata ma:

1- dipende da chi programma i giochi e visto che la diffusione del 3d aumenterà si spera in un supporto maggiore delle sw...cmq x leggero intendo impercettibile...

2-avendo gli occhiali è inevitabile, dovremo aspettare gli autostereoscopici :D ...

3-anche questo è inevitabile dovendo renderizzare 2 volte lo stesso frame...1 x l'occhio destro e 1 x il sinistro...ma tanto c'è Fermi :D

;)

Ovvio,più la scheda sarà veloce e più il terzo punto tenderà a scomparire.Fermi in tal caso dovrebbe dare una bella mano (perlomeno è quello che ci auguriamo tutti).:)

aaasssdddfffggg
05-01-2010, 23:50
x quanto mi riguarda, se va tutto bene andrei di GTX380 :fagiano:

Azz, la 360 non se fila nessuno.Volete tutti la top di gamma.:D

Diobrando_21
05-01-2010, 23:51
ragazzi vi saluto....vado a scannare gente su MW2 :asd:

buon proseguimento...

aaasssdddfffggg
05-01-2010, 23:52
ragazzi vi saluto....vado a scannare gente su MW2 :asd:

buon proseguimento...

Buon divertimento e lascia in pace i civili all'aeroporto!:D

The_SaN
05-01-2010, 23:53
1920x1080 per un lcd ormai è preistoria(per come ne faccio uso) per quanto mi riguarda.Non ci voglio tornare a quella risoluzione su un monitor.:)Ammazza sono appena passato da un 1440x900 a un 1920x1080 e non mi sono ancora abituato :asd:

aaasssdddfffggg
05-01-2010, 23:55
Ammazza sono appena passato da un 1440x900 a un 1920x1080 e non mi sono ancora abituato :asd:

Ti ci abituerai...ci vuole spirito di adattamento.Non che voglia screditare il fullhd visto che ne faccio uso sul 46" principalmente per la visione dei blue-ray.:)

persa
05-01-2010, 23:55
Azz, la 360 non se fila nessuno.Volete tutti la top di gamma.:D

be dipende da come va...se già la 360 staccasse di un tot la mia... ma dubito :D

Diobrando_21
05-01-2010, 23:55
Buon divertimento e lascia in pace i civili all'aeroporto!:D

azz! non erano nemici? :stordita:
vabbé, la prox volta starò più attento :ciapet:

ciao ;)

aaasssdddfffggg
05-01-2010, 23:57
be dipende da come va...se già la 360 staccasse di un tot la mia... ma dubito :D

Si infatti.Tutto da verificare.;)

The_SaN
06-01-2010, 00:01
Ti ci abituerai...ci vuole spirito di adattamento.Non che voglia screditare il fullhd visto che ne faccio uso sul 46" principalmente per la visione dei blue-ray.:)Sono un po' disorientato in desktop (é gigantesco rispetto a prima).
I giochi sono meravigliosi.

aaasssdddfffggg
06-01-2010, 00:02
Sono un po' disorientato in desktop (é gigantesco rispetto a prima).
I giochi sono meravigliosi.

e lo dici a me?Ti capisco.Hai fatto un bel salto di risoluzione e i giochi sicuramente ne traggono giovamento.;)

persa
06-01-2010, 00:03
e lo dici a me?Ti capisco.Hai fatto un bel salto di risoluzione e i giochi sicuramente ne traggono giovamento.;)

io sono passato da un 23.7 ad un 28 con quasi la stessa risoluzione ( 1080vs 1200) e sono rimasto a bocca aperta durante i giochi :eek:

aaasssdddfffggg
06-01-2010, 00:05
io sono passato da un 23.7 ad un 28 con quasi la stessa risoluzione ( 1080vs 1200) e sono rimasto a bocca aperta durante i giochi :eek:

Che risoluzione è quella?Aliena per caso?:D
Non ho capito che passaggio di ris hai fatto (da 1600x1200 a 1920x1080 dovrebbe essere.)

persa
06-01-2010, 00:08
Che risoluzione è quella?Aliena per caso?:D
Non ho capito che passaggio di ris hai fatto (da 1600x1200 a 1920x1080 dovrebbe essere.)

il passaggio è stato da 1920x1080 @ 1920x1200 ;)

quindi quasi uguale... con la differenza che il 28 è gigantesco rispetto al precedente monitor, in giochi come fallout 3, crysis e vari giochi di auto è spettacolare!

aaasssdddfffggg
06-01-2010, 00:10
il passaggio è stato da 1920x1080 @ 1920x1200 ;)

quindi quasi uguale... con la differenza che il 28 è gigantesco rispetto al precedente monitor, in giochi come fallout 3, crysis e vari giochi di auto è spettacolare!

:)

persa
06-01-2010, 00:11
:)

approvi il discorso? :confused: :D

aaasssdddfffggg
06-01-2010, 00:13
approvi il discorso? :confused: :D

Certo.Un 28" a 1920x1200 è più bello da vedere rispetto ad un 24" + o - alla stessa risoluzione.La vedo così.

persa
06-01-2010, 00:15
Certo.Un 28" a 1920x1200 è più bello da vedere rispetto ad un 24" + o - alla stessa risoluzione.La vedo così.

che poi il precedente non era neanche proprio un 24...era un 23.6... :sofico:

sickofitall
06-01-2010, 00:15
:)

approvi il discorso? :confused: :D

http://4.bp.blogspot.com/_Y2kT_1Dq8pw/R9J1aIU3DqI/AAAAAAAAAH8/Tl31NaMdi-g/s200/Chuck_Norris_Approved.png
:asd:

aaasssdddfffggg
06-01-2010, 00:17
che poi il precedente non era neanche proprio un 24...era un 23.6... :sofico:

Si,ho arrotondato io.:p

Kharonte85
06-01-2010, 00:18
Moltissime nuove info su GF100 e GF104 sempre da quel tizio "uscito" da SANTA CLARA qui :

http://www.overclock.net/nvidia/641156-guru-legit-nvidia-specs-benchmarks.html

No this is not a troll or joke, you can shoot me in 3 months if the info turns out to be false. :p


Il tizio sembra molto convinto...io lo prendo in parola: vado a caricare il fucile...:asd:

A me sembra quasi una fuga di notizie controllata...comunque se i benchmark fossero veri e interni a Nvidia sarebbero comunque poco indicativi delle prestazioni reali dato che di solito fanno i test in condizioni superfavorevoli (nei test ufficiali diffusi da AMD/ATI prima dell'uscita delle sue schede la hd5870 era nettamente superiore alla gtx 295 e la hd5850 pareggiava i conti :sofico: ). direi che togliendo un -15-20% si potrebbe già ragionare.

Quindi a quanto pare GF104 sarebbe la dual GPU...questo non lo aveva ipotizzato nessuno...:what:

persa
06-01-2010, 00:18
http://4.bp.blogspot.com/_Y2kT_1Dq8pw/R9J1aIU3DqI/AAAAAAAAAH8/Tl31NaMdi-g/s200/Chuck_Norris_Approved.png
:asd:

hahaha :D

aaasssdddfffggg
06-01-2010, 00:20
Il tizio sembra molto convinto...io lo prendo in parola: vado a caricare il fucile...:asd:

A me sembra quasi una fuga di notizie controllata...comunque se i benchmark fossero veri e interni a Nvidia sarebbero comunque poco indicativi delle prestazioni reali dato che di solito fanno i test in condizioni superfavorevoli (nei test ufficiali diffusi da AMD/ATI prima dell'uscita delle sue schede la hd5870 era nettamente superiore alla gtx 295 e la hd5850 pareggiava i conti :sofico: ). direi che togliendo un -15-20% si potrebbe già ragionare.

Quindi a quanto pare GF104 sarebbe la dual GPU...questo non lo aveva ipotizzato nessuno...:what:

No,lo avevo ipotizzato io proprio dentro questo Thread.:D

persa
06-01-2010, 00:20
Quindi a quanto pare GF104 sarebbe la dual GPU...questo non lo aveva ipotizzato nessuno...:what:

già.... :asd:

edit:

No,lo avevo ipotizzato io proprio dentro questo Thread.:D

Caz...mi era sfuggito :fagiano:

aaasssdddfffggg
06-01-2010, 00:22
già.... :asd:

edit:



Caz...mi era sfuggito :fagiano:

Basta ritrovare il post.E' su una di queste pagine del Thread.;)

Kharonte85
06-01-2010, 00:25
Basta ritrovare il post.E' su una di queste pagine del Thread.;)

Vista l'immensità del thread....direi che mi fido :D

persa
06-01-2010, 00:26
Vista l'immensità del thread....direi che mi fido :D

si mi fido anche io del nemesis ;)

aaasssdddfffggg
06-01-2010, 00:27
Vista l'immensità del thread....direi che mi fido :D

Te cosa pensi,che ci possa essere un fondo di verità su quell'individuo?O sono tutte cose capate per aria?:)

aaasssdddfffggg
06-01-2010, 00:28
si mi fido anche io del nemesis ;)

Dai,come lo trovo lo riposto.Promesso.;)

persa
06-01-2010, 00:31
Dai,come lo trovo lo riposto.Promesso.;)

ti ripeto mi fido ;)

x il tipo che ha postato quei bench, sarebbe bello se fossero veri ma non mi fido x niente... :D

NOOB4EVER
06-01-2010, 00:34
porca vacca che notizia fenomenale ragazzi,stavo proprio per fare il triplo monitor ,ma dopo aver visto di persona dal vivo il monitor di Andrea a casa mia (sickofitall) mi sono fermato perche vi assicuro che dal mio 40" LCD 100z Serie 6 cambia tutta la storia , i 120 hz rendono il game piu' fluido che mai ,pero' il fatto di prenderli da 22 mi rompeva alquanto ,almeno 24 gia' si ragiona,poi 3 x 120 hz sara' davvero il top ,almeno per quanto riguarda gli fps ...quindi questi nuovi monitor che usciranno fanno proprio al mio caso,speriamo fermi sia in grado di gestire a pennello risoluzioni over 5000x quindi ....forza nvidia che siamo tutti curiosi di vedere rispetto alla 5970 come si comportera ' :)....certo un 30-40" 120hz sarebbe davvero il sogno proibito di un appassionato ...che ne dici Andre' 3 di questi te li immagini?

@Neme : Fidati caro Nemesis che la differenza e' davvero notevole ,tu ne hai visto uno in azione dal vivo? pare raddoppino i frame ;)

aaasssdddfffggg
06-01-2010, 00:36
porca vacca che notizia fenomenale ragazzi,stavo proprio per fare il triplo monitor ,ma dopo aver visto di persona dal vivo il monitor di Andrea a casa mia (sickofitall) mi sono fermato perche vi assicuro che dal mio 40" LCD 100z Serie 6 cambia tutta la storia , i 120 hz rendono il game piu' fluido che mai ,pero' il fatto di prenderli da 22 mi rompeva alquanto ,almeno 24 gia' si ragiona,poi 3 x 120 hz sara' davvero il top ,almeno per quanto riguarda gli fps ...quindi questi nuovi monitor che usciranno fanno proprio al mio caso,speriamo fermi sia in grado di gestire a pennello risoluzioni over 5000x quindi ....forza nvidia che siamo tutti curiosi di vedere rispetto alla 5970 come si comportera ' :)....certo un 30-40" 120hz sarebbe davvero il sogno proibito di un appassionato ...che ne dici Andre' 3 di questi te li immagini?

@Neme : Fidati caro Nemesis che la differenza e' davvero notevole ,tu ne hai visto uno in azione dal vivo? pare raddoppino i frame ;)

Certo che l'ho visto in azione (un samsung 120hz da 22").Si nota eccome la differenza.;)

aaasssdddfffggg
06-01-2010, 00:37
ti ripeto mi fido ;)

x il tipo che ha postato quei bench, sarebbe bello se fossero veri ma non mi fido x niente... :D

Chiaro,non lo conosce nessuno quello.Manco se vai a CHI L'HA VISTO.:D

persa
06-01-2010, 00:40
Chiaro,non lo conosce nessuno quello.Manco se vai a CHI L'HA VISTO.:D

:asd:

Kharonte85
06-01-2010, 00:55
Te cosa pensi,che ci possa essere un fondo di verità su quell'individuo?O sono tutte cose capate per aria?:)
Mi sono fatto l'idea che qualcosa di vero possa anche esserci, lui stesso ha un atteggiamento "prudente" perchè evidentemente sono informazioni di "seconda mano".

Per quanto riguarda i numeri dei test ripeto che sono poco o nulla indicativi come pure quelli sulle temperature (vi immaginate che razza di case con turbine a reazione potrebbero avere usato alla Nvidia? :sofico: ) troppe le variabili in gioco.

Pero' quei numeri non sono esagerati se uno tiene conto che si tratta probabilmente del best case scenario:

GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.

Questo diventerebbe un 20-25% circa in più e tutto si sistemerebbe ;)

Le informazioni che sarebbero utili sono quelle di contorno: Data di lancio e che GF104 è la dual GPU.

Diobrando_21
06-01-2010, 01:29
porca vacca che notizia fenomenale ragazzi,stavo proprio per fare il triplo monitor ,ma dopo aver visto di persona dal vivo il monitor di Andrea a casa mia (sickofitall) mi sono fermato perche vi assicuro che dal mio 40" LCD 100z Serie 6 cambia tutta la storia , i 120 hz rendono il game piu' fluido che mai ,pero' il fatto di prenderli da 22 mi rompeva alquanto ,almeno 24 gia' si ragiona,poi 3 x 120 hz sara' davvero il top ,almeno per quanto riguarda gli fps ...quindi questi nuovi monitor che usciranno fanno proprio al mio caso,speriamo fermi sia in grado di gestire a pennello risoluzioni over 5000x quindi ....forza nvidia che siamo tutti curiosi di vedere rispetto alla 5970 come si comportera ' :)....certo un 30-40" 120hz sarebbe davvero il sogno proibito di un appassionato ...che ne dici Andre' 3 di questi te li immagini?

@Neme : Fidati caro Nemesis che la differenza e' davvero notevole ,tu ne hai visto uno in azione dal vivo? pare raddoppino i frame ;)

ti informo che le tv 40" 120hz stanno per arrivare, nel caso ti interessassero...al CES dovremmo vedere qualcosa ;)

NOOB4EVER
06-01-2010, 01:55
ti informo che le tv 40" 120hz stanno per arrivare, nel caso ti interessassero...al CES dovremmo vedere qualcosa ;)

guarda che le tv gia' arrivano a 200hz vedi serie 8 Led della samsung ma non ingame...non nei giochi pero' ,solo nei video :);)

ertruffa
06-01-2010, 05:52
-1 al grande evento....:D

mapoetti
06-01-2010, 07:05
porca vacca che notizia fenomenale ragazzi,stavo proprio per fare il triplo monitor ,ma dopo aver visto di persona dal vivo il monitor di Andrea a casa mia (sickofitall) mi sono fermato perche vi assicuro che dal mio 40" LCD 100z Serie 6 cambia tutta la storia , i 120 hz rendono il game piu' fluido che mai ,pero' il fatto di prenderli da 22 mi rompeva alquanto ,almeno 24 gia' si ragiona,poi 3 x 120 hz sara' davvero il top ,almeno per quanto riguarda gli fps ...quindi questi nuovi monitor .....

:eek:

ps: perchè gli fps dovrebbero aumentare?....se non ho capito male..

Simedan1985
06-01-2010, 08:54
-1 al grande evento....:D

Speriamo che non ci deludono e fanno trapelare qualcosa......NN mi andrebbe ,fare 2 mesi di totoprestazioni:(

ertruffa
06-01-2010, 09:04
Speriamo che non ci deludono e fanno trapelare qualcosa......NN mi andrebbe ,fare 2 mesi di totoprestazioni:(

spero anch'io.se non trapela niente entro fine gennaio io mi butto sulla 5970.:read:

Simedan1985
06-01-2010, 09:46
spero anch'io.se non trapela niente entro fine gennaio io mi butto sulla 5970.:read:

Stessa tua condizione ...ho già venduto la 295, diretto verso la 5970 ......ma queste indiscrezioni su fermi mi fan tremare(in positivo),dato che già so che poi la cambierò nuovamente...mi roderebbe un po perde ,a mio avviso,250 euro:D

aaasssdddfffggg
06-01-2010, 09:58
spero anch'io.se non trapela niente entro fine gennaio io mi butto sulla 5970.:read:

e allora ti conviene da subito..tanto prima di marzo non le vedrai sul mercato e da come ti esprimi non penso che tu possa resistere altri 2 mesi abbondanti senza vga.:D

ertruffa
06-01-2010, 10:07
e allora ti conviene da subito..tanto prima di marzo non le vedrai sul mercato e da come ti esprimi non penso che tu possa resistere altri 2 mesi abbondanti senza vga.:D

azz...mi hai capito alla perfezione.solo che se fermi va forte vorrei prendere 2*380 per andare di sli.ovviamente tutto dipendera' dalle prestazioni.fai conto che per gennaio il pc fisso non lo tocco quindi alla fine la sofferenza sara' inferiore

aaasssdddfffggg
06-01-2010, 10:09
azz...mi hai capito alla perfezione.solo che se fermi va forte vorrei prendere 2*380 per andare di sli.ovviamente tutto dipendera' dalle prestazioni.fai conto che per gennaio il pc fisso non lo tocco quindi alla fine la sofferenza sara' inferiore

Vediamo cosa e se esce qualcosa dal CES...:)

halduemilauno
06-01-2010, 10:13
Mi sono fatto l'idea che qualcosa di vero possa anche esserci, lui stesso ha un atteggiamento "prudente" perchè evidentemente sono informazioni di "seconda mano".

Per quanto riguarda i numeri dei test ripeto che sono poco o nulla indicativi come pure quelli sulle temperature (vi immaginate che razza di case con turbine a reazione potrebbero avere usato alla Nvidia? :sofico: ) troppe le variabili in gioco.

Pero' quei numeri non sono esagerati se uno tiene conto che si tratta probabilmente del best case scenario:



Questo diventerebbe un 20-25% circa in più e tutto si sistemerebbe ;)

Le informazioni che sarebbero utili sono quelle di contorno: Data di lancio e che GF104 è la dual GPU.

certo se fossero veri. ma lo sono?
cmq passare da 240 a 512 con magari un 150/200 in + sugli shader e un 50/60 in + di banda passante e poi si tenga conto che quelli potrebbero benissimo essere un best scenario ovvero risultati da slide e non da rece. ma rimarrebbero sempre molto molto indicativi.http://www.guildwars2guru.com/forum/rahjas-freeeeeeeeeee-t2238.html?
Copied over from GWG... I am free of my non business NDAs as of midnight, Jan 5th.

At midnight (EST, -5 GMT), I will fill in the blanks.... MUHAHAHAA.

GF100 outperforms ATi's 5870 by 46% on average
GF100 outperforms ATi's 5970 by 8% on average

The GF100 gets 148 fps in DiRT2
The GF100 gets 73 fps in Crysis2
The GF100 gets 82 fps in AvP3

*GTX misnomers removed due to Business NDA*

GF100's maximum load temperature is 55 C.

The release week of GF100 is Mar 02nd

Blackberry ordered about a million Tegra2 units for their 2011 smartphone.
Apple ordered a few million Tegra2 units for the 2011 iPhone.
Nintendo ordered several million Tegra2 units for their next gen handheld (the DS2!)

*Removed: Under business NDA*

That's all for now kiddies! See if you can guess for the time being, each - represents a letter or number

<font color="red" font size="3">Extra spoilers!</font>


•GF100 and GF104 will feature a new 32x Anti Aliasing mode for enthusiast setups.
•GF100 and GF104 can do 100% hardware based decoding for 1080p BluRay and H264 playback.
•GF100 and GF104 feature full SLi capability and a new scaling method for rendering!
•GF100 and GF104 will provide full on chip native C++ operation for Windows and Linux environments. This will be further augmented with CUDA and OpenCL.
•GF104 will feature new technology designed for UHD OLED monitors!
•GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.
sempre in attesa di tutti i riscontri del caso.

quoto e...sempre in attesa di tutti i riscontri del caso.
;)

Diobrando_21
06-01-2010, 10:16
guarda che le tv gia' arrivano a 200hz vedi serie 8 Led della samsung ma non ingame...non nei giochi pero' ,solo nei video :);)

non è proprio così...i 200hz di cui parli sono solo emulati da un algoritmo interno alla tv ed il mercato chiama tali tecnologie Motion Flow di Sony, Motion Plus di Samsung ecc. ecc. ma di fatto sono solo trovate di marketing in quanto a risoluzione nativa del pannello il refresh è sempre a 60hz, quindi non nei giochi e nemmeno con i blu-ray, quindi in finale oltre ad essere tutta una farsa, non lo usi mai...difatti nessuna tv odierna è 3d ready poichè non accetta segnali superiori ai 60hz...;)

aaasssdddfffggg
06-01-2010, 10:17
non è proprio così...i 200hz di cui parli sono solo emulati da un algoritmo interno alla tv ed il mercato chiama tali tecnologie motionflow ecc. ecc. ma di fatto sono solo trovate di marketing in quanto a risoluzione nativa del pannello il refresh è sempre a 60hz, difatti nessuna tv odierna è 3d ready poichè non accetta segnali superiori ai 60hz...;)

Verissimo (se parliamo di TVFULLHD collegate al PC però.Lì si esce sempre a 60hz ad oggi).;)

A.L.M.
06-01-2010, 10:19
Il tizio sembra molto convinto...io lo prendo in parola: vado a caricare il fucile...:asd:

A me sembra quasi una fuga di notizie controllata...comunque se i benchmark fossero veri e interni a Nvidia sarebbero comunque poco indicativi delle prestazioni reali dato che di solito fanno i test in condizioni superfavorevoli (nei test ufficiali diffusi da AMD/ATI prima dell'uscita delle sue schede la hd5870 era nettamente superiore alla gtx 295 e la hd5850 pareggiava i conti :sofico: ). direi che togliendo un -15-20% si potrebbe già ragionare.

Quindi a quanto pare GF104 sarebbe la dual GPU...questo non lo aveva ipotizzato nessuno...:what:

Mi sono fatto l'idea che qualcosa di vero possa anche esserci, lui stesso ha un atteggiamento "prudente" perchè evidentemente sono informazioni di "seconda mano".

Per quanto riguarda i numeri dei test ripeto che sono poco o nulla indicativi come pure quelli sulle temperature (vi immaginate che razza di case con turbine a reazione potrebbero avere usato alla Nvidia? :sofico: ) troppe le variabili in gioco.

Pero' quei numeri non sono esagerati se uno tiene conto che si tratta probabilmente del best case scenario:



Questo diventerebbe un 20-25% circa in più e tutto si sistemerebbe ;)

Le informazioni che sarebbero utili sono quelle di contorno: Data di lancio e che GF104 è la dual GPU.

Veramente il tizio dice "at least", non "best case scenario"... :asd:
Sinceramente ormai io l'ho classificato come megafake.
Oggettivamente non è possibile che vada il doppio di praticamente ogni scheda esistente, in quasi ogni gioco presentato... Per le caratteristiche che avrà GF100 già sarebbe un ottimo risultato se andasse come la HD5970...
Tra l'altro sta riempiendo di post mezzo mondo, non so se questo è stato postato, con altri bench..
http://www.overclock.net/8085586-post389.html
Le altre notizie che ha dato poi sono abbastanza ridicole, dal DS2 all'iPhone...
Poi può darsi che mi sbagli, ma con le info che abbiamo in mano oggi quei risultati non stanno nè in cielo nè in terra...
Ne sapremo probabilmente di più domani o dopodomani.

aaasssdddfffggg
06-01-2010, 10:21
Veramente il tizio dice "at least", non "best case scenario"... :asd:
Sinceramente ormai io l'ho classificato come megafake.
Oggettivamente non è possibile che vada il doppio di praticamente ogni scheda esistente, in quasi ogni gioco presentato... Per le caratteristiche che avrà GF100 già sarebbe un ottimo risultato se andasse come la HD5970...
Le altre notizie che ha dato poi sono abbastanza ridicole, dal DS2 all'iPhone...
Poi può darsi che mi sbagli, ma con le info che abbiamo in mano oggi quei risultati non stanno nè in cielo nè in terra...
Ne sapremo probabilmente di più domani o dopodomani.

Vedo che si comincia a "credere" possibile il fatto di poter riuscire a prendere la dualGPU di ati da parte del GF100.....prima era solo considerato pura fantascienza (non illudiamoci però):D
Si ,quei bench li ho già postati io qualche pagina fa.

Diobrando_21
06-01-2010, 10:26
Verissimo (se parliamo di TVFULLHD collegate al PC però.Lì si esce sempre a 60hz ad oggi).;)

che io sappia nemmeno con i blu-ray...o l'hanno evoluto? (con la mia tv qualsiasi segnale a risoluzione nativa non giova di tale artefatto tecnologico, quindi solo programmi tv e dvd)

ertruffa
06-01-2010, 10:26
Vedo che si comincia a "credere" possibile il fatto di poter riuscire a prendere la dualGPU di ati da parte del GF100.....prima era solo considerato pura fantascienza (non illudiamoci però):D
Si ,quei bench li ho già postati io qualche pagina fa.

sinceramente la vedo dura che vada come la 5970.sarei gia' felicissimo di un bel 30% sulla 5870.:D

aaasssdddfffggg
06-01-2010, 10:28
che io sappia nemmeno con i blu-ray...o l'hanno evoluto? (con la mia tv qualsiasi segnale a risoluzione nativa non giova di tale artefatto tecnologico, quindi solo programmi tv e dvd)

Non ho provato perchè i blueray li lancio dal mio PC.Sui programmi tv,sky hd invece si.;)

A.L.M.
06-01-2010, 10:30
Vedo che si comincia a "credere" possibile il fatto di poter riuscire a prendere la dualGPU di ati da parte del GF100.....prima era solo considerato pura fantascienza (non illudiamoci però):D
Si ,quei bench li ho già postati io qualche pagina fa.

Infatti continua a rimanere abbastanza remota come ipotesi, e rimarrebbe un risultato straordinario. Va detto però che nella fiera dell'assurdo sicuramente è più verosimile che vada uguale piuttosto che "minimo +8% in più". ;)

aaasssdddfffggg
06-01-2010, 10:33
Infatti continua a rimanere abbastanza remota come ipotesi, e rimarrebbe un risultato straordinario. Va detto però che nella fiera dell'assurdo sicuramente è più verosimile che vada uguale piuttosto che "minimo +8% in più". ;)

Ma se dovesse andare uguale + o - ,sarebbe un autentico mostro di potenza.Senza dubbio alcuno (e pensare che lo si dava per progetto fallimentare qui dentro.Adesso invece si comincia a parlare anche di prestazioni assurde.Aspettiamo notizie più concrete comunque....):p

sertopica
06-01-2010, 10:33
"Yes we will post videos and photos!!!"
http://www.facebook.com/profile.php?ref=name&id=1499102503#/NVIDIA?v=feed&story_fbid=234665990387&ref=mf

Riferito a GF100 nel profilo di nVidia. :sperem:

aaasssdddfffggg
06-01-2010, 10:36
"Yes we will post videos and photos!!!"
http://www.facebook.com/profile.php?ref=name&id=1499102503#/NVIDIA?v=feed&story_fbid=234665990387&ref=mf

Riferito a GF100 nel profilo di nVidia. :sperem:

Tenete sott'occhio anche il blog ufficiale che verrà aggiornato per tutti gli appuntamenti di nvidia al CES :

http://blogs.nvidia.com/ntersect/ces/

A.L.M.
06-01-2010, 10:43
Ma se dovesse andare uguale + o - ,sarebbe un autentico mostro di potenza.Senza dubbio alcuno (e pensare che lo si dava per progetto fallimentare qui dentro.Aspettiamo notizie più concrete comunque....):p

Beh, se andasse uguale o addirittura un po' meno, ma con prezzo e consumi superiori a Hemlock (perchè le info che aveva il ciarlatano in questione parlavano di TDP di 250W e oltre) non sarebbe proprio quello che io definisco un affarone, anche se sicuramente l'acquisto avrebbe ancora un perchè, per via della single gpu e delle dimensioni contenute. ;)

appleroof
06-01-2010, 10:45
3 monitor su un unica scheda x il 3d vision? fantastico...quindi le cose sono 2: o nvidia è completamente pazza (ne dubito) o Fermi sarà un mostro tale da gestire una tecnologia così avida di risorse...secondo me questa cosa è di buon auspicio ;)

Ati afferma che eyefinity può essere gestito da una 54xx :asd: :asd:

Iantikas
06-01-2010, 10:45
sarebbe stupendo se GT380 andasse come minimo 8% in + di una HD5970...

...la comprerei circa un ms dopo che compare negli shop :sofico: ...




...però purtroppo è uno scenario che di credibile ha ben poco (già se andasse un 8% in meno sarebbe un risultato molto buono)...


...la speranza comunque l'ultima a morire essa è...loggato al forum mi sono ed un fremito nella forza percepito io ho http://img683.imageshack.us/img683/7990/lightsaber2.gif (http://img683.imageshack.us/i/lightsaber2.gif/)






:sofico:

Diobrando_21
06-01-2010, 10:46
Ati afferma che eyefinity può essere gestito da una 54xx :asd: :asd:

si ma eyefinity non gira a 120hz e in stereoscopia, è quella la tecnologia avida di risorse...:asd: :asd:

Kharonte85
06-01-2010, 10:49
Veramente il tizio dice "at least", non "best case scenario"... :asd:
In realtà quelle frasi sembrano proprio quelle tipiche che appaiono sulla pagina Nvidia di Facebook, se la fonte è Nvidia (e non potrebbe essere altrimenti) è sottointeso il best case scenario :D

Sinceramente ormai io l'ho classificato come megafake.
Oggettivamente non è possibile che vada il doppio di praticamente ogni scheda esistente, in quasi ogni gioco presentato... Per le caratteristiche che avrà GF100 già sarebbe un ottimo risultato se andasse come la HD5970...
Tra l'altro sta riempiendo di post mezzo mondo, non so se questo è stato postato, con altri bench..
http://www.overclock.net/8085586-post389.html
Le altre notizie che ha dato poi sono abbastanza ridicole, dal DS2 all'iPhone...
Poi può darsi che mi sbagli, ma con le info che abbiamo in mano oggi quei risultati non stanno nè in cielo nè in terra...
Ne sapremo probabilmente di più domani o dopodomani.
Da come ne parla sembra essere scettico su questo punto e i dati non sono tutti esaltanti [WoW e F3] (ed è questo che paradossalmente mi fa sospettare che possa esserci un fondo di verità)....io non credo assolutamente che possa succedere che GF100 possa superare HD5970, al massimo potrebbe avvicinarsi (ma al max).

Staremo a vedere, magari se al CES trapelerà la data di lancio in maniera inequivocabile e dovesse rivelarsi giusta potremmo avere una piccola garanzia (o la conferma dell'esistenza della dual GPU gf104) :)

Diobrando_21
06-01-2010, 10:49
Beh, se andasse uguale o addirittura un po' meno, ma con prezzo e consumi superiori a Hemlock (perchè le info che aveva il ciarlatano in questione parlavano di TDP di 250W e oltre) non sarebbe proprio quello che io definisco un affarone, anche se sicuramente l'acquisto avrebbe ancora un perchè, per via della single gpu e delle dimensioni contenute. ;)

anche iquesto caso invece io la vedo positiva visto che con 2 di quelle acchiapperei un crossX di 5970 :asd:

aaasssdddfffggg
06-01-2010, 10:57
si ma eyefinity non gira a 120hz e in stereoscopia, è quella la tecnologia avida di risorse...:asd: :asd:

Appunto.La cosa va puntualizzata per capire le differenze nella gestione multimonitor di ATI e NVIDIA.;)

Kharonte85
06-01-2010, 10:58
Beh, se andasse uguale o addirittura un po' meno, ma con prezzo e consumi superiori a Hemlock (perchè le info che aveva il ciarlatano in questione parlavano di TDP di 250W e oltre) non sarebbe proprio quello che io definisco un affarone, anche se sicuramente l'acquisto avrebbe ancora un perchè, per via della single gpu e delle dimensioni contenute. ;)
Questa me la sono persa...

ma poi la 5970 non ha un TDP di tipo 294W? Avrebbe ancora senso eccome...
Tenete sott'occhio anche il blog ufficiale che verrà aggiornato per tutti gli appuntamenti di nvidia al CES :

http://blogs.nvidia.com/ntersect/ces/


Comunque ormai dovremmo esere vicini (revision A3 e frequenze finali decise) è naturale che qualcosa cominci a muoversi...

aaasssdddfffggg
06-01-2010, 10:58
In realtà quelle frasi sembrano proprio quelle tipiche che appaiono sulla pagina Nvidia di Facebook, se la fonte è Nvidia (e non potrebbe essere altrimenti) è sottointeso il best case scenario :D

Da come ne parla sembra essere scettico su questo punto e i dati non sono tutti esaltanti [WoW e F3] (ed è questo che paradossalmente mi fa sospettare che possa esserci un fondo di verità)....io non credo assolutamente che possa succedere che GF100 possa superare HD5870, al massimo potrebbe avvicinarsi (ma al max).

Staremo a vedere, magari se al CES trapelerà la data di lancio in maniera inequivocabile e dovesse rivelarsi giusta potremmo avere una piccola garanzia (o la conferma dell'esistenza della dual GPU gf104) :)

5970 volevi dire.La 5870 dovrebbe superarla agevolmente direi.;)

halduemilauno
06-01-2010, 11:00
Veramente il tizio dice "at least", non "best case scenario"... :asd:
Sinceramente ormai io l'ho classificato come megafake.
Oggettivamente non è possibile che vada il doppio di praticamente ogni scheda esistente, in quasi ogni gioco presentato... Per le caratteristiche che avrà GF100 già sarebbe un ottimo risultato se andasse come la HD5970...
Tra l'altro sta riempiendo di post mezzo mondo, non so se questo è stato postato, con altri bench..
http://www.overclock.net/8085586-post389.html
Le altre notizie che ha dato poi sono abbastanza ridicole, dal DS2 all'iPhone...
Poi può darsi che mi sbagli, ma con le info che abbiamo in mano oggi quei risultati non stanno nè in cielo nè in terra...
Ne sapremo probabilmente di più domani o dopodomani.

Infatti continua a rimanere abbastanza remota come ipotesi, e rimarrebbe un risultato straordinario. Va detto però che nella fiera dell'assurdo sicuramente è più verosimile che vada uguale piuttosto che "minimo +8% in più". ;)

megafake per un +8% e poi dici straordinario/ottimo se andasse pari. io(rimanendo sempre in attesa di tutti i riscontri del caso)ribadisco quanto detto per un +46% e un +8% che definirei da slide per delle rece a carattere generale/media direi un +30/35% e un -10% e se fosse cosi si sarebbe ottimo.
imho e sempre in attesa.

aaasssdddfffggg
06-01-2010, 11:01
megafake per un +8% e poi dici straordinario/ottimo se andasse pari. io(rimanendo sempre in attesa di tutti i riscontri del caso)ribadisco quanto detto per un +46% e un +8% che definirei da slide per delle rece a carattere generale/media direi un +30/35% e un -10% e se fosse cosi si sarebbe ottimo.
imho e sempre in attesa.

Sarebbe una GPU molto veloce...come sto sempre sostenendo in questo Thread.:p

appleroof
06-01-2010, 11:03
Infatti continua a rimanere abbastanza remota come ipotesi, e rimarrebbe un risultato straordinario. Va detto però che nella fiera dell'assurdo sicuramente è più verosimile che vada uguale piuttosto che "minimo +8% in più". ;)

sto evitando di fare previsioni perchè lo ritengo abbastanza fine a se stesso, in mancanza di dati ufficiali...ma :D

5890 ha 320sp x2 (caso peggiore) altrimenti 3200 (caso che non si verificherà praticamente mai, purtroppo, nella realtà....almeno finora), in entrambi i casi il tutto limitato dal CF; gt100 ha 512sp in teoria maggiormente efficienti....imho gtx380 dovrebbe collocarsi tra 5870 e 5890

:D

persa
06-01-2010, 11:05
Sarebbe una GPU molto veloce...come sto sempre sostenendo in questo Thread.:p

nel caso la prenderemo.

una alien Edition ;)

aaasssdddfffggg
06-01-2010, 11:06
nel caso la prenderemo.

una alien Edition ;)

:asd:

Kharonte85
06-01-2010, 11:06
5970 volevi dire.La 5870 dovrebbe superarla agevolmente direi.;)
Ovviamente, ho corretto...grazie ;)
sto evitando di fare previsioni perchè lo ritengo abbastanza fine a se stesso, in mancanza di dati ufficiali...ma :D

5890 ha 320sp x2 (caso peggiore) altrimenti 3200 (caso che non si verificherà praticamente mai, purtroppo, nella realtà....almeno finora), in entrambi i casi il tutto limitato dal CF; gt100 ha 512sp in teoria maggiormente efficienti....imho gtx380 dovrebbe collocarsi tra 5870 e 5890

:D
La vedo dura dato che non esiste...:asd:

Con questa nomenclatura è facile fare confusione :D

Anche se il ragionamento è un po' semplicistico credo anche io da un bel po' che quelle saranno le sue prestazioni finali.

appleroof
06-01-2010, 11:10
si ma eyefinity non gira a 120hz e in stereoscopia, è quella la tecnologia avida di risorse...:asd: :asd:

ho capito ma per pilotare 3 schermi imho nemmeno una 5770 basta....il principio è: il marketing và preso per quello che è (il famoso video Ati con la voce di Rambo affermava che Ati avrebbe portato le innovazioni -dx11 e eyefinity- sulla fascia bassa, per me sono chiacchere da commercianti) poi magari quando usciranno le rece si appurerà la verità, sia per Ati che per Nvidia (anche io sono perplesso sulla possibilità di gestire 3 schermi a 120hz)

cut

Con questa nomenclatura è facile fare confusione :D

Anche se il ragionamento è un po' semplicistico credo anche io da un bel po' che quelle saranno le sue prestazioni finali.

:doh:

cmq si è capito di cosa parlavo :D

si, ammetto che è molto semplicistico perchè non tiene conto di tanti altri aspetti -infatti premettevo che in mancanza di adti ufficiali è più un passatempo che altro- però ci potrebbe stare imho..:)

halduemilauno
06-01-2010, 11:10
sto evitando di fare previsioni perchè lo ritengo abbastanza fine a se stesso, in mancanza di dati ufficiali...ma :D

5890 ha 320sp x2 (caso peggiore) altrimenti 3200 (caso che non si verificherà praticamente mai, purtroppo, nella realtà....almeno finora), in entrambi i casi il tutto limitato dal CF; gt100 ha 512sp in teoria maggiormente efficienti....imho gtx380 dovrebbe collocarsi tra 5870 e 5890

:D

il gt100 è in realtà gf100 e per la 5890 forse intendevi 5970. in quanto al collocarsi tra quelle penso che siamo un pò tutti d'accordo + o -.
;)

aaasssdddfffggg
06-01-2010, 11:11
il gt100 è in realtà gf100 e per la 5890 forse intendevi 5970.
;)

Si,il ragazzo ha avuto una svista ma abbiamo capito il senso del suo ragionamento;)

appleroof
06-01-2010, 11:11
il gt100 è in realtà gf100 e per la 5890 forse intendevi 5970.
;)

Si,il ragazzo ha avuto una svista ma abbiamo capito il senso del suo ragionamento;)

si ho fatto un bel pò di confusione :stordita: ;)

halduemilauno
06-01-2010, 11:13
Si,il ragazzo ha avuto una svista ma abbiamo capito il senso del suo ragionamento;)

si ho fatto un bel pò di confusione :stordita: ;)

si si per carità certo che si è capito.
;)

aaasssdddfffggg
06-01-2010, 11:20
Annuncio ufficiale NVIDIA :

At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.

Voglio vedere anche io!!!Fatemi entrare!:sbavvv:

http://www.nvidia.com/object/ces2010.html

appleroof
06-01-2010, 11:22
Annuncio ufficiale NVIDIA :

At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.

Voglio vedere anche io!!!Fatemi entrare!:sbavvv:

finalmente, è quello che tutti attendevamo

aaasssdddfffggg
06-01-2010, 11:25
finalmente, è quello che tutti attendevamo

Attendiamo news ,per noi comuni mortali.

Mercuri0
06-01-2010, 11:25
non è proprio così...i 200hz di cui parli sono solo emulati da un algoritmo interno alla tv ed il mercato chiama tali tecnologie Motion Flow di Sony, Motion Plus di Samsung ecc. ecc. ma di fatto sono solo trovate di marketing in quanto a risoluzione nativa del pannello il refresh è sempre a 60hz, quindi non nei giochi e nemmeno con i blu-ray, quindi in finale oltre ad essere tutta una farsa, non lo usi mai...difatti nessuna tv odierna è 3d ready poichè non accetta segnali superiori ai 60hz...;)

Tra l'altro mi sa che aggiungono una certa latenza al video. Penso che giocare sia praticamente impossibile.

Sul mio Philips se abilito le tecnologie di questo tipo è praticamente impossibile muovere il mouse attaccando il piccì su HDMI: è in ritardo e "salta i frame".

sertopica
06-01-2010, 11:25
finalmente, è quello che tutti attendevamo

Meglio non dir nulla prima dei fatti... :tie: :D

appleroof
06-01-2010, 11:27
Meglio non dir nulla prima dei fatti... :tie: :D

già... :)

OT

il tuo avatar è tremendo però nello stesso tempo mi piace :D :D :D

/OT

persa
06-01-2010, 11:27
Attendiamo ,per noi comuni mortali.

bo io ripeto continuo ad essere scettico su quel tipo... prima di tutto trovo poco credibili quelle prestazioni addirittura con SSAA 4x... poi i giochi... Crysis 2, Alien vs predator.. come è possibile se questi giochi non sono neanche usciti? :fagiano:

Kharonte85
06-01-2010, 11:28
Annuncio ufficiale NVIDIA :

At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.

Voglio vedere anche io!!!Fatemi entrare!:sbavvv:

http://www.nvidia.com/object/ces2010.html

Finalmente...:cincin:

Speriamo di carpire il più possibile e che sia interessante :)

aaasssdddfffggg
06-01-2010, 11:31
bo io ripeto continuo ad essere scettico su quel tipo... prima di tutto trovo poco credibili quelle prestazioni addirittura con SSAA 4x... poi i giochi... Crysis 2, Alien vs predator.. come è possibile se questi giochi non sono neanche usciti? :fagiano:

Su quel punto non ce nulla di strano....le aziende come nvidia ed ati possono tranquillamente avere materiale dalle software house ancor prima che arrivino sul mercato.Ricordati che alien è atteso tra un mese esatto(quindi è praticamente ultimato) mentre crysis 2 lo danno per la seconda metà dell'anno (e a febbraio escono gli screen in game) quindi è già in avanzato stato di sviluppo.;)

Diobrando_21
06-01-2010, 11:31
ho capito ma per pilotare 3 schermi imho nemmeno una 5770 basta....il principio è: il marketing và preso per quello che è (il famoso video Ati con la voce di Rambo affermava che Ati avrebbe portato le innovazioni -dx11 e eyefinity- sulla fascia bassa, per me sono chiacchere da commercianti) poi magari quando usciranno le rece si appurerà la verità, sia per Ati che per Nvidia (anche io sono perplesso sulla possibilità di gestire 3 schermi a 120hz)


beh come avevo già postato è ovvio che tutto va preso con le pinze e ben valutato...anche perché se riuscisse davvero a gestire 3 schermi in stereoscopia con una sola vga in full hd con un framerate anche di soli 25 fps, a mio avviso sarebbe un vero mostro...cmq se le performance saranno quelle delle ultime info, questo scenario non sarebbe nemmeno impossibile.

Es: prendiamo RE5 (abbastanza leggero) e mettiamo che giri come detto sopra, facendo il procedimento inverso significherebbe che:

3 monitor senza stereoscpia fps 25x2 = 50 fps (ottimo risultato)

1 monitor senza stereoscpia fps 50x3= 150fps (con una 5970 gira a140 fps)

...quindi tutto molto superficiale, ovvio...potrebbe essere

magari :sbav:

persa
06-01-2010, 11:32
Su quel punto non ce nulla di strano....le aziende come nvidia ed ati possono tranquillamente avere materiale dalle software house ancor prima che arrivino sul mercato.Ricordati che alien è atteso tra un mese esatto(quindi è praticamente ultimato) mentre crysis 2 lo danno per la seconda metà dell'anno (e a febbraio escono gli screen in game) quindi è già in avanzato stato di sviluppo.;)

ah... :fagiano:

halduemilauno
06-01-2010, 11:32
Annuncio ufficiale NVIDIA :

At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.

Voglio vedere anche io!!!Fatemi entrare!:sbavvv:

http://www.nvidia.com/object/ces2010.html

finalmente, è quello che tutti attendevamo

Finalmente...:cincin:

Speriamo di carpire il più possibile e che sia interessante :)

ok in attesa ma cmq quella pagina era gia stata postata. non da me.
;)

sertopica
06-01-2010, 11:33
già... :)

OT

il tuo avatar è tremendo però nello stesso tempo mi piace :D :D :D

/OT
OT
È proprio quello il sentimento che deve suscitare... :asd:
:D ;) :D
/OT

persa
06-01-2010, 11:34
cmq nemesis in effetti hai ragionissima xchè mi sto ricordando che Crysis 2 addirittura fu provato sulle 5800 in modalità multi monitor qualche mese fa.. :fagiano:

appleroof
06-01-2010, 11:34
beh come avevo già postato è ovvio che tutto va preso con le pinze e ben valutato...anche perché se riuscisse davvero a gestire 3 schermi in stereoscopia con una sola vga in full hd con un framerate anche di soli 25 fps, a mio avviso sarebbe un vero mostro...cmq se le performance saranno quelle delle ultime info, questo scenario non sarebbe nemmeno impossibile.

Es: prendiamo RE5 (abbastanza leggero) e mettiamo che giri come detto sopra, facendo il procedimento inverso significherebbe che:

3 monitor senza stereoscpia fps 25x2 = 50 fps (ottimo risultato)

1 monitor senza stereoscpia fps 50x3= 150fps (con una 5970 gira a140 fps)

...quindi tutto molto superficiale, ovvio...potrebbe essere

magari :sbav:

si, realisticamente la vedo molto difficile anche io....cmq, tanto per commentare, rimane il fatto che sulla carta Nvidia risponde ad eyefinity di Ati aggiungendo una feature in più, che poi uno voglia/possa sfruttarla è un altro discorso (io per ora non sono attratto da nessuna di queste possibilità), ma averla a disposizione è senz'altro un plus, almeno secondo me :)

Crysis90
06-01-2010, 11:35
Annuncio ufficiale NVIDIA :

At CES 2010, NVIDIA® will be showcasing the latest NVIDIA® GeForce® GPUs powering the hottest PC games and CUDA™ apps, exciting new ION™ based notebooks, desktops, and all-in-ones, revolutionary Tegra™-based mobile devices, and more.

Voglio vedere anche io!!!Fatemi entrare!:sbavvv:

http://www.nvidia.com/object/ces2010.html

EVVIVAAAAAAAAAAAAAAAAA

aaasssdddfffggg
06-01-2010, 11:36
cmq nemesis in effetti hai ragionissima xchè mi sto ricordando che Crysis 2 addirittura fu provato sulle 5800 in modalità multi monitor qualche mese fa.. :fagiano:

Dove?:confused: Non dovrebbe circolare nulla pubblicamente fino a febbraio che io sappia visto che PC GAMER tedesco ha l'esclusiva su CRYSIS 2.

DVD2005
06-01-2010, 11:38
cmq nemesis in effetti hai ragionissima xchè mi sto ricordando che Crysis 2 addirittura fu provato sulle 5800 in modalità multi monitor qualche mese fa.. :fagiano:

vero, dai che nei prossimi giorni (forse) si saprà qualcosa !!!!

appleroof
06-01-2010, 11:39
vero, dai che nei prossimi giorni (forse) si saprà qualcosa !!!!

fatto l'upgrade della cpu? :D bella mossa :)

persa
06-01-2010, 11:39
Dove?:( Non dovrebbe circolare nulla pubblicament fino a febbraio che io sappia.

guarda l'ho visto da qualche parte tempo fa te lo assicuro, mi ricordo che girava un livello che era pieno di alberi con un fiume.. ;)

aaasssdddfffggg
06-01-2010, 11:40
guarda l'ho visto da qualche parte tempo fa te lo assicuro, mi ricordo che girava un livello che era pieno di alberi con un fiume.. ;)

Azz,questo me lo sono perso (molto grave questo:muro: ).Se ritrovi il link me lo puoi passare? (a tempo perso magari).;)

persa
06-01-2010, 11:40
vero, dai che nei prossimi giorni (forse) si saprà qualcosa !!!!

quindi te lo ricordi anche te? :D

DVD2005
06-01-2010, 11:42
quindi te lo ricordi anche te? :D

credo ci ricordiamo questo

http://www.youtube.com/watch?v=04dMyeMKHp4

aaasssdddfffggg
06-01-2010, 11:42
quindi te lo ricordi anche te? :D

Ah si ho capito!Si ho capito di quale livello parli però girava su console quel video...

aaasssdddfffggg
06-01-2010, 11:43
credo ci ricordiamo questo

http://www.youtube.com/watch?v=04dMyeMKHp4

Ecco.Grazie,questo me lo ero proprio perso.;)

Diobrando_21
06-01-2010, 11:43
si, realisticamente la vedo molto difficile anche io....cmq, tanto per commentare, rimane il fatto che sulla carta Nvidia risponde ad eyefinity di Ati aggiungendo una feature in più, che poi uno voglia/possa sfruttarla è un altro discorso (io per ora non sono attratto da nessuna di queste possibilità), ma averla a disposizione è senz'altro un plus, almeno secondo me :)

daccordo, infatto io stesso non ho mai usato il multi monitor perché non sopporto gli spazi neri della cornice tra un monitor e l'altro, altrimenti già c'avrei fatto un pensierino :asd:...più che altro era per farsi due conti e ammazzare il tempo nell'attesa...;)

aaasssdddfffggg
06-01-2010, 11:43
Azz bello,dai subito dopo le vga devo passare al multimonitor pure io.:Prrr:

persa
06-01-2010, 11:44
credo ci ricordiamo questo

http://www.youtube.com/watch?v=04dMyeMKHp4

esatto :D
Ecco.Grazie,questo me lo ero proprio perso.;)

che facevi non ti fidavi di un alieno come me? :Perfido:;)

spapparo82
06-01-2010, 11:45
CIAO a tutti,
volevo precisare che in confronto a voi sono un pivello ma non specifichiamo quanto.... :D,
non so se già lo avete scritto ma non vorrei esser maligno a pensar bene per nvidia e male per ati, non è che sta gt 300 o come si chiamerà, sia tanto più potente delle rispettive ati, che nvidia abbia deciso per risparmiare wafer per adibire alla produzione di queste schede in modo da essere pronta al lancio con un buon numero di pezzi, senza fare dieci sschedine prima di arrivare al top di gamma per seguire ati e risparmiare soldini?
scusate la tirchia malignità?
Ciao Ciao....:cool:
spero di essere stato chiaro.... :confused:

aaasssdddfffggg
06-01-2010, 11:47
esatto :D


che facevi non ti fidavi di un alieno come me? :Perfido:;)

Seguo CRYSIS 2 molto da vicino eppure mi è scappata una cosa del genere.Molto grave.Tirata d'orecchie.

DVD2005
06-01-2010, 11:47
Ecco.Grazie,questo me lo ero proprio perso.;)

prego ;)

esatto :D


:D

Mercuri0
06-01-2010, 11:54
CIAO a tutti,
volevo precisare che in confronto a voi sono un pivello ma non specifichiamo quanto.... :D,
non so se già lo avete scritto ma non vorrei esser maligno a pensar bene per nvidia e male per ati, non è che sta gt 300 o come si chiamerà, sia tanto più potente delle rispettive ati, che nvidia abbia deciso per risparmiare wafer per adibire alla produzione di queste schede in modo da essere pronta al lancio con un buon numero di pezzi, senza fare dieci sschedine prima di arrivare al top di gamma per seguire ati e risparmiare soldini?
scusate la tirchia malignità?
Ciao Ciao....:cool:

Direi propio di no: in questo periodo nVidia non ha niente da vendere e sta spendendo il suo buon nome: è già stata annunciata la serie 3xx per portatili fino alla 360M (ma è tutta un cambio di nome della 2xx per portatili), nVidia si becca recensioni umilianti come questa
http://www.anandtech.com/video/showdoc.aspx?i=3709 , e sui forum se chiedi "Quale nVidia mi consigliate", ti consigliano una ATI.

Tra l'altro il "Fermi" che si attende qui è quello di fascia alta, di cui è bellissimo discutere, come se ATI & nVidia facessero a gara a chi c'è l'ha più lungo, ma il "succo" sta nella fascia mainstream, dove di Fermi non si hanno ancora neanche rumors.

Se avesse potuto, nVidia avrebbe fatto uscire Fermi il mese scorso, altroché. Anche solo in foto.

devAngnew
06-01-2010, 11:58
ciao dev, quello che hai riportato si riferisce alla possibilità di gestire due thread in parallelo per SP (o se preferite, per cluster di alu) grazie alla presenza di 2 thread processor. Questo dovrebbe servire a favorire le operazioni di thread switching (che secondo nVidia sono 20 volte più veloci rispetto a GT200 e G80). Questo vantaggio, però, dovrebbe essere più evidente con la atomic operations e con CUDA che non con applicazioni grafiche che richiedono spesso un approccio di tipo seriale con molte istruzioni di tipo dependent, soprattutto a livello di pixel shading e di texture ops (il motivo per cui, su una gpu, se si escludono gli stadi fixed function, non è possibile fare data prefetch e le operazioni vanno gestite dinamicamente).

Certo, però converrai con me o è almeno quello che credo di aver capito che con tale possibilità si possono eseguire "shader indipendenti" in parallelo.

yossarian
06-01-2010, 12:25
Certo, però converrai con me o è almeno quello che credo di aver capito che con tale possibilità si possono eseguire "shader indipendenti" in parallelo.

edit doppio

yossarian
06-01-2010, 12:29
Certo, però converrai con me o è almeno quello che credo di aver capito che con tale possibilità si possono eseguire "shader indipendenti" in parallelo.

fermi ha 2 warp scheduler per SP, ovvero per ogni gruppo di 16 alu.
Questo significa che può mandare in esecuzione 2 thread differenti su 2 diversi gruppi di 16 alu. Questo non significa che una singola alu può eseguire 2 thread in parallelo.
Mi spiego meglio: in G80 e GT200, ogni SP può eseguire una istruzione per volta (è un processore di tipo SIMD); questo significa che tutte e 16 le alu di g80 o tutte e 24 quelle di gt200 eseguono la stessa istruzione nello stesso ciclo. In fermi, ogni SP raggruppa 32 alu ma contiene 2 warp scheduler. Un warp equivale a 32 thread. Questo significa che, contrariamente a g80 e gt200, in cui veniva mandato in esecuzione un warp per ogni SP, in fermi si pososno mandare in esecuzione 2 warp per SP, ossia un gruppo di 16 alu può eseguire un'istruzione differente dall'altro gruppo. Questo serve soprattutto epr le operazioni a granularità più fine. Per esempio, se un'operazione richiede un'esecuzione fortemente parallela della stessa istruzione, il vantaggio di avere 2 warp scheduler diventa pari a 0.
In ogni caso, in ciascuna architettura, la singola alu può eseguire una sola istruzione per ciclo.

Jashugan
06-01-2010, 12:56
Ma da un punto di vista gaming, visto che le Geforce sono rivolte a questo ambito, che vantaggi può dare avere 2 warp scheduler?
Immagino sia tutta una questione di come i driver riescano a gestire il flusso dati, in maniera da ottimizzare il "parallelismo".

A meno che non mi sbagli del tutto, e che i giochi siano altamente parallelizzabili. Ma mi sembrerebbe quantomeno difficile. Questo per l'alta correlazione tra istruzioni.

A questo punto mi viene in mente un'altra domanda. Cioè, se la correlazione non mi consente di sfruttare i 2 warp scheduler, come si comporta il chip? Immagino che un gruppo di 16 alu lavora a pieno ritmo, ma l'altro? Succede che la Geforce lavora a metà della sua potenza nel worst case?

yossarian
06-01-2010, 13:04
Ma da un punto di vista gaming, visto che le Geforce sono rivolte a questo ambito, che vantaggi può dare avere 2 warp scheduler?
Immagino sia tutta una questione di come i driver riescano a gestire il flusso dati, in maniera da ottimizzare il "parallelismo".

A meno che non mi sbagli del tutto, e che i giochi siano altamente parallelizzabili. Ma mi sembrerebbe quantomeno difficile. Questo per l'alta correlazione tra istruzioni.

A questo punto mi viene in mente un'altra domanda. Cioè, se la correlazione non mi consente di sfruttare i 2 warp scheduler, come si comporta il chip? Immagino che un gruppo di 16 alu lavora a pieno ritmo, ma l'altro? Succede che la Geforce lavora a metà della sua potenza nel worst case?

Per la grafica i vantaggi reali non sono molti, in quanto spesso si ripete la stessa istruzione addirittura su più SM (o cluster di alu, se preferisci).
In quanto alla gestione, bisogna considerare il warp scheduler come un'estensione del thread processor principale. E' il thread processor che decide quali warp inviare ed a quale cluster. Questo implica che se il thread processor invia la stessa sequenza di istruzione ad entrambi i warp scheduler, su ciascun gruppo di 16 alu gireranno le stesse istruzioni come se ci fosse un unico warp scheduler. Diciamo che averne 2 rappresenta un vantaggio in determinate condizione e non costituisce un handicap nelle altre.

Severnaya
06-01-2010, 13:16
scusa, magari fra le righe l'hai già detto ma fai qualche esempio in che determinate situazioni potrebbe tradursi in un vantaggio?

intendo "Diciamo che averne 2 rappresenta un vantaggio in determinate condizione" in questo pezzo qui

appleroof
06-01-2010, 13:18
Per la grafica i vantaggi reali non sono molti, in quanto spesso si ripete la stessa istruzione addirittura su più SM (o cluster di alu, se preferisci).
In quanto alla gestione, bisogna considerare il warp scheduler come un'estensione del thread processor principale. E' il thread processor che decide quali warp inviare ed a quale cluster. Questo implica che se il thread processor invia la stessa sequenza di istruzione ad entrambi i warp scheduler, su ciascun gruppo di 16 alu gireranno le stesse istruzioni come se ci fosse un unico warp scheduler. Diciamo che averne 2 rappresenta un vantaggio in determinate condizione e non costituisce un handicap nelle altre.

mi sembrerebbe di capire che anche questa innovazione di GF100 è più legata al GPGPU che al gaming...corretto?

DarkNiko
06-01-2010, 13:39
mi sembrerebbe di capire che anche questa innovazione di GF100 è più legata al GPGPU che al gaming...corretto?

Anche se fosse non ci vedo nulla di male. Suvvia ragazzi, siamo onesti. Mi dite, tolto Crysis, quali sono i titoli da richiedere allo stato attuale (e penso pure futuro) una potenza di calcolo così mostruosamente elevata per poter essere giocati appieno ?
Gia con una GTX285 si gioca benissimo anche in full HD con i filtri attivi e, per i più esigenti, una 295 svolge perfettamente il suo compito.
Tutta questa continua ricerca di potenze mostruose sulle nuove GPU la ritengo, a mio modesto parere, abbastanza inutile, soprattutto considerando che da un bel pò di tempo l'hardware è nettamente avanti al software e prima che possano uscire giochi tali da mettere letteralmente in ginocchio le schede video attuali, ce ne vuole.
Ovviamente anche io auspico che Fermi sia potente (e mi sorprenderebbe il contrario) ma quand'anche avessero deciso di orientare le loro attenzioni sul GPGPU che non sul gaming, non mi strapperei i capelli (anche perchè sono calvo :D ). :Prrr:

aaasssdddfffggg
06-01-2010, 13:41
Anche se fosse non ci vedo nulla di male. Suvvia ragazzi, siamo onesti. Mi dite, tolto Crysis, quali sono i titoli da richiedere allo stato attuale (e penso pure futuro) una potenza di calcolo così mostruosamente elevata per poter essere giocati appieno ?
Gia con una GTX285 si gioca benissimo anche in full HD con i filtri attivi e, per i più esigenti, una 295 svolge perfettamente il suo compito.
Tutta questa continua ricerca di potenze mostruose sulle nuove GPU la ritengo, a mio modesto parere, abbastanza inutile, soprattutto considerando che da un bel pò di tempo l'hardware è nettamente avanti al software e prima che possano uscire giochi tali da mettere letteralmente in ginocchio le schede video attuali, ce ne vuole.
Ovviamente anche io auspico che Fermi sia potente (e mi sorprenderebbe il contrario) ma quand'anche avessero deciso di orientare le loro attenzioni sul GPGPU che non sul gaming, non mi strapperei i capelli (anche perchè sono calvo :D ). :Prrr:

Speriamo che Fermi non sia un altro nv30....(anche se vedo ultimanente nel Thread,nascere un pochino di ottimismo su questa nuova GPU):stordita:

yossarian
06-01-2010, 13:41
scusa, magari fra le righe l'hai già detto ma fai qualche esempio in che determinate situazioni potrebbe tradursi in un vantaggio?

intendo "Diciamo che averne 2 rappresenta un vantaggio in determinate condizione" in questo pezzo qui

mi sembrerebbe di capire che anche questa innovazione di GF100 è più legata al GPGPU che al gaming...corretto?

molte delle operazioni legate al gpgpu ma che non fanno uso di fp64. Il doppio warp scheduler equivale ad avere la possibilità di fare dual issue, ossia di schedulare 2 istruzioni differenti per gruppo di alu. In fermi la alu sono 32 per SM divise in 2 gruppi di 16 e accoppiate a 2 a 2 (una di un gruppo con una dell'altro). In caso di fp64 le 2 alu "accoppiate" concorrono ad eseguire un'operazione in DP e quindi si perde il beneficio del doppio scheduler. In single precision è possibile schedulare, ad esempio 2 istruzioni fp32 (ma in grafica è molto frequente che su un gruppo di alu giri la stessa istruzione), oppure una SFU e una INT o una FP, o una FP e una INT, ecc. Le istruzioni di tipo INT sono molto utilizzate per fare codifica e decodifica audio e video. Quindi, diciamo che questa opzione serve in primo luogo per le applicazioni di tipo gpgpu che non richiedono fp64 (il caso tipico è due INT differenbti o una INT e una FP). Per le applicazioni grafiche il vantaggio risidede nella possibilità di velocizzare le operazioni di thread switching rispetto a GT200.

Severnaya
06-01-2010, 13:44
grazie!

yossarian
06-01-2010, 13:55
grazie!

aggiungo che l'idea del doppio scheduler nasce anche dalla necessità di semplificare l'organizzazione interna del chip e l'accesso alle risorse. Ad esempio, in RV870, ATi ha introdotto un commando processor e fa uso di 2 thread processor, uno per ogni blocco di 10 SM (o cluster). In pratica, ha, di fatto, raddoppiato l'architettura di RV770 introducendo un nuovo livello di logica (ossia un processore che organizza e smista il lavoro tra i due core RV770).
In fermi, nVidia ha adottato un'architettura con 32 alu per SM il che aumenta la granularità rispetto a GT200 e G80 (in ATi per ogni cluster, si hanno sempre 16 alu). Questo significa che le operazioni che richiedono una granularità più fine risulterebbero penalizzate su fermi. D'altro canto, utilizzare la stessa granularità di G80 (18 per SM) avrebbe comportato la presenza di 32 SM il che inizia a creare più di qualche problema nella gestione dell'accesso alle risorse ed con particolare riferimento alla gerarchia delle ram. Quindi, il doppio scheduler è una soluzione per ridurre, quando occorre, la granularità, senza introdurre problemi nell'accesso alle memorie o nello scambio di dati tra thread.

ciberbastard
06-01-2010, 14:48
mi iscrivo alla discussione perchè anche io devo cambiare vga ^^

appleroof
06-01-2010, 15:09
Anche se fosse non ci vedo nulla di male. Suvvia ragazzi, siamo onesti. Mi dite, tolto Crysis, quali sono i titoli da richiedere allo stato attuale (e penso pure futuro) una potenza di calcolo così mostruosamente elevata per poter essere giocati appieno ?
Gia con una GTX285 si gioca benissimo anche in full HD con i filtri attivi e, per i più esigenti, una 295 svolge perfettamente il suo compito.
Tutta questa continua ricerca di potenze mostruose sulle nuove GPU la ritengo, a mio modesto parere, abbastanza inutile, soprattutto considerando che da un bel pò di tempo l'hardware è nettamente avanti al software e prima che possano uscire giochi tali da mettere letteralmente in ginocchio le schede video attuali, ce ne vuole.
Ovviamente anche io auspico che Fermi sia potente (e mi sorprenderebbe il contrario) ma quand'anche avessero deciso di orientare le loro attenzioni sul GPGPU che non sul gaming, non mi strapperei i capelli (anche perchè sono calvo :D ). :Prrr:

si si ma infatti la mia domanda era intesa solo a confermare a me stesso se avevo capito bene o meno leggendo gli interventi di yoss, nessun intento o implicazione ulteriore ;)

credevo si capisse al volo

molte delle operazioni legate al gpgpu ma che non fanno uso di fp64. Il doppio warp scheduler equivale ad avere la possibilità di fare dual issue, ossia di schedulare 2 istruzioni differenti per gruppo di alu. In fermi la alu sono 32 per SM divise in 2 gruppi di 16 e accoppiate a 2 a 2 (una di un gruppo con una dell'altro). In caso di fp64 le 2 alu "accoppiate" concorrono ad eseguire un'operazione in DP e quindi si perde il beneficio del doppio scheduler. In single precision è possibile schedulare, ad esempio 2 istruzioni fp32 (ma in grafica è molto frequente che su un gruppo di alu giri la stessa istruzione), oppure una SFU e una INT o una FP, o una FP e una INT, ecc. Le istruzioni di tipo INT sono molto utilizzate per fare codifica e decodifica audio e video. Quindi, diciamo che questa opzione serve in primo luogo per le applicazioni di tipo gpgpu che non richiedono fp64 (il caso tipico è due INT differenbti o una INT e una FP). Per le applicazioni grafiche il vantaggio risidede nella possibilità di velocizzare le operazioni di thread switching rispetto a GT200.

ok, allora avevo capito, almeno a livello di principio :D

aggiungo che l'idea del doppio scheduler nasce anche dalla necessità di semplificare l'organizzazione interna del chip e l'accesso alle risorse. Ad esempio, in RV870, ATi ha introdotto un commando processor e fa uso di 2 thread processor, uno per ogni blocco di 10 SM (o cluster). In pratica, ha, di fatto, raddoppiato l'architettura di RV770 introducendo un nuovo livello di logica (ossia un processore che organizza e smista il lavoro tra i due core RV770).
In fermi, nVidia ha adottato un'architettura con 32 alu per SM il che aumenta la granularità rispetto a GT200 e G80 (in ATi per ogni cluster, si hanno sempre 16 alu). Questo significa che le operazioni che richiedono una granularità più fine risulterebbero penalizzate su fermi. D'altro canto, utilizzare la stessa granularità di G80 (18 per SM) avrebbe comportato la presenza di 32 SM il che inizia a creare più di qualche problema nella gestione dell'accesso alle risorse ed con particolare riferimento alla gerarchia delle ram. Quindi, il doppio scheduler è una soluzione per ridurre, quando occorre, la granularità, senza introdurre problemi nell'accesso alle memorie o nello scambio di dati tra thread.

devo ribadire ancora una volta che i tuoi interventi di questo tipo sono i più interessanti che mi sia capitato di leggere sul forum e non solo, complimenti ;)

persa
06-01-2010, 16:10
devo ribadire ancora una volta che i tuoi interventi di questo tipo sono i più interessanti che mi sia capitato di leggere sul forum e non solo, complimenti ;)

quoto ;)

papafoxtrot
06-01-2010, 16:34
devo ribadire ancora una volta che i tuoi interventi di questo tipo sono i più interessanti che mi sia capitato di leggere sul forum e non solo, complimenti ;)


Quotone anche da parte mia!

Alberello69
06-01-2010, 16:49
Per "granularitá piú fine" intendi operazioni piú parallelizzabili? L'evoluzione non va verso la parallelizzazione?

Iantikas
06-01-2010, 16:57
devo ribadire ancora una volta che i tuoi interventi di questo tipo sono i più interessanti che mi sia capitato di leggere sul forum e non solo, complimenti ;)

quoto :)

fdadakjli
06-01-2010, 17:00
devo ribadire ancora una volta che i tuoi interventi di questo tipo sono i più interessanti che mi sia capitato di leggere sul forum e non solo, complimenti ;)

come non quotare... :)

grande Stefano... :ave:

marco XP2400+
06-01-2010, 17:00
quoto pure io

betha
06-01-2010, 17:10
ok in attesa ma cmq quella pagina era gia stata postata. non da me.
;)

si..x nda

fdadakjli
06-01-2010, 17:19
Speriamo che Fermi non sia un altro nv30....

se fosse così...oltre che per nvidia...sarebbe un disastro pure per noi... :(

ma cmq su un'ipotesi simile non punterei nemmeno 1centesimo...sono invece sicuro che sarà un'ottimo prodotto con la solita stima del 20/30% in più della 5870 per quanto riguarda le prestazioni...per come la vedo io è improbabile sia che vada di più e sia che vada meno di così...;)

ovviamente poi vi sono tanti altri fattori che potrebbero far pendere cmq da una parte piuttosto che dall'altra indipendentemente dal punto di vista delle prestazioni pure...vedi temp/consumi, rapporto prezzo/prestazioni ecc...

NOOB4EVER
06-01-2010, 17:47
quoto ;)

Quotone anche da parte mia!

quoto :)

come non quotare... :)

grande Stefano... :ave:

quoto pure io

beh direi che e' solo che un piacere leggere post del saggio Yossarian ,si apprendono cose che sono addirittura difficili da capire, inizialmente, se non si ha almeno un minimo di base professionale ,grazie dunque per i tuoi interventi,Ultraquotone generale :)

ilcose
06-01-2010, 17:56
se fosse così...oltre che per nvidia...sarebbe un disastro pure per noi... :(

ma cmq su un'ipotesi simile non punterei nemmeno 1centesimo...sono invece sicuro che sarà un'ottimo prodotto con la solita stima del 20/30% in più della 5870 per quanto riguarda le prestazioni...per come la vedo io è improbabile sia che vada di più e sia che vada meno di così...;)

ovviamente poi vi sono tanti altri fattori che potrebbero far pendere cmq da una parte piuttosto che dall'altra indipendentemente dal punto di vista delle prestazioni pure...vedi temp/consumi, rapporto prezzo/prestazioni ecc...

Si ma teniamo conto che ancora nn sappiamo quanto i "nuovi" CUDA core vadano in piu o in meno degli shader di gt200... quindi anche se improbabile puo anche essere che vada di piu... :stordita:

marco XP2400+
06-01-2010, 18:03
ma si sa in quale giorno del ces verrà "svelato" fermi?? ...domani, dopodomani ecc...

dj883u2
06-01-2010, 19:08
Domani è il gran giorno!:)
Nvidia nostrerà sicuramente qualcosa.Finalmente sapremo le reali potenzilità della scheda!;)

davide155
06-01-2010, 19:09
Si sa a che ora più o meno si saprà qualcosa in live?

fdadakjli
06-01-2010, 19:16
Domani è il gran giorno!:)
Nvidia nostrerà sicuramente qualcosa.Finalmente sapremo le reali potenzilità della scheda!;)

bene Jen... :D

dj883u2
06-01-2010, 19:20
Brought to you by; AMD, Intel, Gigabyte, EVGA, MSI, Kingston, OCZ, Corsair, Swiftech, Thermaltake, Kingpincooling, Futuremark and XtremeSystems.

Huge thanks to AMD, Intel, Gigabyte, MSI and Futuremark for splitting the venue rental.
Bulgarian dinner thanks to Kingston Memory
Serbian late lunch by Thermaltake
Transportation provided by Swiftech, thanks Gabe.
LN2 provided by EVGA.
SSD bench drives and memory prizes from OCZ.
Bench memory and power supplies by Corsair.
Futuremark will also have a few licenses for give away.

Lots of prizes from all the companies above, I believe AMD will have a little something extra this year.

Date and Location;

Saturday January 9th from 5PM untill midnight

Pole Position Raceway
4175 S. Arville Rd
Las Vegas NV 89103
702-227-7223

LN2 Overclocking;

LN2 will be allowed in the building, the OC event will be on the main floor.
Many big names are already confirmed, lots of industry related enthusiasts and bloggers.
Both Intel and AMD platforms to be punished.
World Record results is the focus.


Kart Racing and Games;

Races throughtout the day.
Plenty of cars tuned for racing on that track, they go fast.
Racers will get one wrist strap, if you drink the strap will be removed.
A race is 12 Laps at an average of 30 seconds per lap.
Prizes for racing events.
Fastest Lap time and laps.
Manufacture vs Manufacture.
Media vs Media.
Enthusiast vs Everyone.
A large game room is open for everyone.
Video games run on a player tracking card, no need for change as everything is open to play.
A VIP area with leather lounge seats and DirectTV.
Addional second floor balcony overlooking the track with pool tables.
Large conference room with wireless PA overlooking the track.

K|ngp|n and Shamino will be here along with a few other secret AMD benchers from USA and Europe.

Schedule

4:00 setup time, closed to public
5:00 Open registration, benchers start, racing starts.
5:30 Serbian bakery lunch with fresh baked bread, cold cuts, veggies and more.
6:00 Gigabyte
6:20 Kingston
6:40 MSI
7:00 OCZ
7:20 EVGA
7:40 Swiftech
8:00 Bulgarian dinner
8:30 AMD
9:30 Race competition ends, prize announce starts
10:00 Race winner annouce
11:00 Benching and racing end
12:00 Finish

This is an open event, you must know the name of a manufacture or my name to enter the building.
All sites, manufactures and media are welcome except Kyle.

.....ci saranno belle cose.:)

devAngnew
06-01-2010, 19:22
fermi ha 2 warp scheduler per SP, ovvero per ogni gruppo di 16 alu.
Questo significa che può mandare in esecuzione 2 thread differenti su 2 diversi gruppi di 16 alu. Questo non significa che una singola alu può eseguire 2 thread in parallelo.
Mi spiego meglio: in G80 e GT200, ogni SP può eseguire una istruzione per volta (è un processore di tipo SIMD); questo significa che tutte e 16 le alu di g80 o tutte e 24 quelle di gt200 eseguono la stessa istruzione nello stesso ciclo. In fermi, ogni SP raggruppa 32 alu ma contiene 2 warp scheduler. Un warp equivale a 32 thread. Questo significa che, contrariamente a g80 e gt200, in cui veniva mandato in esecuzione un warp per ogni SP, in fermi si possono mandare in esecuzione 2 warp per SP, ossia un gruppo di 16 alu può eseguire un'istruzione differente dall'altro gruppo. Questo serve soprattutto per le operazioni a granularità più fine. Per esempio, se un'operazione richiede un'esecuzione fortemente parallela della stessa istruzione, il vantaggio di avere 2 warp scheduler diventa pari a 0.
In ogni caso, in ciascuna architettura, la singola alu può eseguire una sola istruzione per ciclo.


Ok sono daccordo.

Aspetta un attimo Yoss, però la slide n. 18 del documento precedentemente
lincata dice espressamente che Fermi può eseguire in parallelo al max 16 Kernel e dice pure che questi kernel non sono altro che programmi che girano su GPU.
Questi Kernel a loro volta sono organizzati su delle griglie di thread block (ogni griglia è un vettore di thread block che esegue lo stesso kernel ).
Quindi questi thread block saranno processati dallo Stream Multiprocessor come hai detto.
Ora quello che mi chiedevo e chiedevo a te è:
è possibile fare una cosa del genere con gli shader in particolare con shader che ad esempio lavorano con texture diverse ?
Cioè non ti pare possibile che ogni Stream Multiprocessor o cluster di 32 CUDA core possa eseguire uno shader diverso o kernel slegati tra di loro.
Dopotutto questa mia ipotesi sembrerebbe avvalorata dal fatto che la gpu fermi possa al max processare 16 kernel cioè proprio il numero di cluster di Fermi.


Ovviamente il tutto senza polemiche ne altro.

persa
06-01-2010, 20:15
avremo ottimi risultati o NV30 II chissà http://www.pctunerup.com/up//results/_201001/20100106211418_F_Pau034.gif

Simedan1985
06-01-2010, 20:24
ho sempre pensato che o sarà una cosa mostruosa o un flop ....prestazioni nella media di 5870 a mio avviso sono un flop:O

dj883u2
06-01-2010, 20:27
ho sempre pensato che o sarà una cosa mostruosa o un flop ....prestazioni nella media di 5870 a mio avviso sono un flop:O
Si come no....anche la tua GTX295 allora è un Flop....:asd:

persa
06-01-2010, 20:29
oppure non sapremo proprio nulla da questo CES http://www.pctunerup.com/up//results/_201001/20100106211418_F_Pau034.gif

ertruffa
06-01-2010, 20:36
oppure non sapremo proprio nulla da questo CES http://www.pctunerup.com/up//results/_201001/20100106211418_F_Pau034.gif

spero proprio di no.aspettiamo da troppo tempo....vogliamo FERMIIIIIIIIIIIIIII:D

Simedan1985
06-01-2010, 20:39
Si come no....anche la tua GTX295 allora è un Flop....:asd:

:D ...bè se fosse uscita adesso ,siiiii

davide155
06-01-2010, 20:41
oppure non sapremo proprio nulla da questo CES http://www.pctunerup.com/up//results/_201001/20100106211418_F_Pau034.gif

Si infatti........io ho più paura di questa cosa.......

Tutti a dire "vai domani Nvidia rivela tutto!"........ma siamo proprio sicuri?
C'è caso che faccia vedere le solite due slide del caiser, con scritti numeretti fasulli per gli allocchi, mentre bench live su veri pc nada :rolleyes:

ertruffa
06-01-2010, 20:45
Si infatti........io ho più paura di questa cosa.......

Tutti a dire "vai domani Nvidia rivela tutto!"........ma siamo proprio sicuri?
C'è caso che faccia vedere le solite due slide del caiser, con scritti numeretti fasulli per gli allocchi, mentre bench live su veri pc nada :rolleyes:

purtroppo tutto e' possibile:cry:

AgonizedPhobos
06-01-2010, 21:18
Si infatti........io ho più paura di questa cosa.......

Tutti a dire "vai domani Nvidia rivela tutto!"........ma siamo proprio sicuri?
C'è caso che faccia vedere le solite due slide del caiser, con scritti numeretti fasulli per gli allocchi, mentre bench live su veri pc nada :rolleyes:

Sicuramente qualcosa trapelerà dal CES di LAS VEGAS,ne sono certo.;)

Il CES di Las Vegas inizierà il 7 di gennaio e, tra i presenti, ci sarà NVIDIA, pronta a mostrare al mondo le prime GPU non professionali con architettura Fermi.
Il lancio commerciale di tali GPU è ancora messo in agenda per la parte finale del primo quadrimestre dell’anno e NVIDIA non ha voluto svelare molti dettagli sui prodotti che verranno mostrati al CES, anche perchè poco dopo l’evento, avrà luogo un evento dedicato soltanto a NVIDIA, sempre con sede a Las Vegas e durante il quale l’azienda mostrerà le potenzialità di Fermi.

Mparlav
06-01-2010, 21:24
Per ora hanno mostrato il 3D Vision Surround (in pratica video 3D, Adobe Flash e Blu-ray su 3 monitor. Avevano messo il link sul sito, ma è saltato poco dopo, ma qualcuno ha fatto in tempo a salvarlo ;)

FOR IMMEDIATE RELEASE:

2010 INTERNATIONAL CONSUMER ELECTRONICS SHOW (South Hall 4 – Booth #35912), Las Vegas — Jan. 6, 2010 —It’s clear that 2010 is poised to be the year of 3D and NVIDIA is leading the charge to bring 3D to the computing masses. At this year’s CES show in Las Vegas, NVIDIA is showcasing a host of new products and technologies that show how PCs based on GeForce® GPUs along with the NVIDIA 3D Vision™ hardware and software ecosystem are the platforms best suited to make 3D pervasive for all PC entertainment, including Blu-ray 3D movies, games, photos, and even the Web.

On display in the booth, NVIDIA is demonstrating 3D Vision technology running on:
Desktop PCs using new 3D Vision-Ready, 1080p, 120Hz LCD panels from leading display companies, including Acer, Alienware, and others.
New 3D-Vision-ready notebooks from leading notebook manufacturers, all equipped with new state-of-the-art 120Hz 3D capable displays.
NVIDIA 3D Vision Surround, the world’s first consumer, multi-display 3D solution which allows users to span 3D content across 3 high definition monitors or projectors for a truly breathtaking and immersive gaming experience! NVIDIA 3D Vision Surround does for 3D PC gaming just like what IMAX® 3D does for movies.
In addition to the great 3D hardware, there is also a ton of cool, compelling content on display, all viewed in 3D when used with the 3D Vision active-shutter glasses. Of note:
New Blu-ray 3D software players, including Arsoft’s TotalMedia Theatre 3 and Cyberlink’s PowerDVD Ultra
Blu-ray 3D content, including 3D movie trailers for Disney’s Toy Story 3, A Christmas Carol, Alice in Wonderland, and more.
The hottest PC games running in full 1080p stereoscopic 3D, including James Cameron’s Avatar: The Game, Batman: Arkham Asylum, Dark Void, Just Cause 2, Need for Speed: Shift, and more.
Plus,
The world’s first sneak peek of YouTube 3D, running on a 3D technology demonstration version of the Adobe® Flash® Player software that is viewable with NVIDIA 3D Vision glasses in full color.
For those able to come to CES, NVIDIA will also be hosting a 3D photo booth. Come by and have your picture taken in 3D with the new Fujifilm FinePix REAL 3D W1 digital camera. Pictures from the show will be made available online for viewing.

Also, get a truly immersive, hands-on gaming experience with NVIDIA 3D Vision Surround which can be seen in NVIDIA’s CES booth in the South Hall 4 #35745, running on DepthQ HD 3D projectors and Acer GD245HQ 1080p LCD displays.

aaasssdddfffggg
06-01-2010, 21:34
se fosse così...oltre che per nvidia...sarebbe un disastro pure per noi... :(

ma cmq su un'ipotesi simile non punterei nemmeno 1centesimo...sono invece sicuro che sarà un'ottimo prodotto con la solita stima del 20/30% in più della 5870 per quanto riguarda le prestazioni...per come la vedo io è improbabile sia che vada di più e sia che vada meno di così...;)

ovviamente poi vi sono tanti altri fattori che potrebbero far pendere cmq da una parte piuttosto che dall'altra indipendentemente dal punto di vista delle prestazioni pure...vedi temp/consumi, rapporto prezzo/prestazioni ecc...

Ma si scherzavo,forse qui dentro sono quello che ha più fiducia su questa GPU sin dall'inizio e continuo a ribadire che secondo me Fermi sarà una GPU molto veloce.
Vediamo se trapela qualcosa dal CES a conferma di cio'.Felicissimo di non sbagliarmi ovviamente.:)

Rsdj
06-01-2010, 21:40
Ma si scherzavo,forse qui dentro sono quello che ha più fiducia su questa GPU sin dall'inizio e continuo a ribadire che secondo me Fermi sarà una GPU molto veloce.
Vediamo se trapela qualcosa dal CES a conferma di cio'.Felicissimo di non sbagliarmi ovviamente.:)
Io faccio il mio pronostico: per me Fermi avrà prestazioni quasi identiche alla 295, diciamo un 8/10% massimo sulla 5870 ;)

aaasssdddfffggg
06-01-2010, 21:43
"AMD Is Saying That Fermi Should Be Faster Than 5870"

Si cominciano a riconoscere i meriti dell'avversario in anticipo...:asd:

aaasssdddfffggg
06-01-2010, 21:45
Io faccio il mio pronostico: per me Fermi avrà prestazioni quasi identiche alla 295, diciamo un 8/10% massimo sulla 5870 ;)

;) Vedremo se ci prendi.....io vado al rialzo di un bel po' sul tuo pronostico.Almeno un 30% sulla media bench.

Mparlav
06-01-2010, 21:47
Se ti riferisci a questa intervista:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

c'è scritto:

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

Aggiungo questo pezzo altrettanto importante:

bit-tech: -well if it is then, do you have something else up your sleeve to compete?

RH: Let me say that I suspect that through 2010 it's possible there will be moments where we don't have the fastest graphics card, but I expect that for the majority of 2010 we'll have the fastest card you can buy. I've good reason for believing that but I can't talk about unannounced products or any of the stuff we're doing to secure that. What I can say in reference to what I said earlier: we're working on two thrusts of physics which are very important and also the three companies on enabling GPU physics-

Mi sembra fiducioso sul fatto che non vada più di una HD5970

aaasssdddfffggg
06-01-2010, 21:50
Se ti riferisci a questa intervista:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

c'è scritto:

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

No questa intervista non l'avevo letta.....però se AMD ha detto quella frase potrebbe esserci la posibilità di prendere la dual da parte di Fermi singola GPU (perlomeno qualche dubbio ce l'hanno)....:rolleyes:

Rsdj
06-01-2010, 21:55
;) Vedremo se ci prendi.....io vado al rialzo di un bel po' sul tuo pronostico.Almeno un 30% sulla media bench.
Considerando tutti i problemi e i comportamenti anomali di nVidia in quest'ultimo periodo ritengo impossibile un 30% sulla 5870... lo avrebbe già sbandierato da troppo tempo togliendo così potenziali clienti ad AMD, invece ha promesso e basta cercando di tirare il carro il più possibile dalla loro parte. E secondo me parecchie vga Fermi daranno parecchi problemini, visti i numerosi problemi riscontrati da nVidia... ormai non poteva più aspettare perchè iniziano ad arrivare i primi titoloni in DX11, perciò qualunque siano le prestazioni di Fermi dovrà per forza rilasciarlo ;) Ovviamente IMHO.

aaasssdddfffggg
06-01-2010, 21:57
Considerando tutti i problemi e i comportamenti anomali di nVidia in quest'ultimo periodo ritengo impossibile un 30% sulla 5870... lo avrebbe già sbandierato da troppo tempo togliendo così potenziali clienti ad AMD, invece ha promesso e basta cercando di tirare il carro il più possibile dalla loro parte. E secondo me parecchie vga Fermi daranno parecchi problemini, visti i numerosi problemi riscontrati da nVidia... ormai non poteva più aspettare perchè iniziano ad arrivare i primi titoloni in DX11, perciò qualunque siano le prestazioni di Fermi dovrà per forza rilasciarlo ;) Ovviamente IMHO.

Stai fantasticando.Fermiamoci sui pronostici e aspettiamo di sapere qualcosa dal CES.Vediamo perlomeno se su quello ci hai preso...(8-10% su 5870);)

Rsdj
06-01-2010, 21:59
Stai fantasticando.Fermiamoci sui pronostici e aspettiamo di sapere qualcosa dal CES.Vediamo perlomeno se su quello ci hai preso...(10% su 5870);)
Come fai ad esserne così sicuro? Scusami, c'è chi immagina Fermi andare più forte della 5970 ed io non potrei fantasticare?? :D :D :D

Iantikas
06-01-2010, 22:02
"AMD Is Saying That Fermi Should Be Faster Than 5870"

Si cominciano a riconoscere i meriti dell'avversario in anticipo...:asd:

fonte???


Se ti riferisci a questa intervista:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

c'è scritto:

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

Aggiungo questo pezzo altrettanto importante:

bit-tech: -well if it is then, do you have something else up your sleeve to compete?

RH: Let me say that I suspect that through 2010 it's possible there will be moments where we don't have the fastest graphics card, but I expect that for the majority of 2010 we'll have the fastest card you can buy. I've good reason for believing that but I can't talk about unannounced products or any of the stuff we're doing to secure that. What I can say in reference to what I said earlier: we're working on two thrusts of physics which are very important and also the three companies on enabling GPU physics-

Mi sembra fiducioso sul fatto che non vada più di una HD5970

io quella frase, siccome detta da amd, la leggo così...

...sanno che non raggiungerà la HD5970 e a nvidia gli pestano ancora di più i piedi sottolineando che hanno fatto qualcosa di terribilmente sbagliato per non sorpassarla con un chip grosso il 50% in più...


...mi sembra stupido (anche se fosse vero) che amd dichiari, prima della loro uscita sul mercato, che fermi va meglio delle proprie gpu...


...ciao

Adone_1985
06-01-2010, 22:03
Come fai ad esserne così sicuro? Scusami, c'è chi immagina Fermi andare più forte della 5970 ed io non potrei fantasticare?? :D :D :D

Preparati a cambiare scheda...:Prrr:

Iantikas
06-01-2010, 22:03
Come fai ad esserne così sicuro? Scusami, c'è chi immagina Fermi andare più forte della 5970 ed io non potrei fantasticare?? :D :D :D

beh se devi fantasticare tanto vale che sogni...sempre meglio che far incubi :D

Mparlav
06-01-2010, 22:04
No questa intervista non l'avevo letta.....però se AMD ha detto quella frase potrebbe esserci la posibilità di prendere la dual da parte di Fermi singola GPU (perlomeno qualche dubbio ce l'hanno)....:rolleyes:

Hanno il dubbio, sicuramente :)
Variabili come il clock di debutto e lo stato dei driver di Fermi, possono incidere molto sull'esito finale, al di la' del discorso architetturale.

PConly92
06-01-2010, 22:05
"AMD Is Saying That Fermi Should Be Faster Than 5870"

Si cominciano a riconoscere i meriti dell'avversario in anticipo...:asd:

la fonte????:rolleyes:

Rsdj
06-01-2010, 22:10
Preparati a cambiare scheda...:Prrr:
Già sto preparando l'email per chiedere la sostituzione ;) Anche se non riesco a capire perchè dovrei prendere una vga che va meno della mia... :confused: :boh:


p.s: hai la firma fuori regolamento :read:

io quella frase, siccome detta da amd, la leggo così...

...sanno che non raggiungerà la HD5970 e a nvidia gli pestano ancora di più i piedi sottolineando che hanno fatto qualcosa di terribilmente sbagliato per non sorpassarla con un chip grosso il 50% in più...


...mi sembra stupido (anche se fosse vero) che amd dichiari, prima della loro uscita sul mercato, che fermi va meglio delle proprie gpu...


...ciao
Questa non la sapevo... addirittura il chip più grande del 50%??? Allora anche se andasse quasi come la 5970 sarebbe un flop veramente...

Adone_1985
06-01-2010, 22:17
Già sto preparando l'email per chiedere la sostituzione ;) Anche se non riesco a capire perchè dovrei prendere una vga che va meno della mia... :confused: :boh:


p.s: hai la firma fuori regolamento :read:

Copia l'e-mail e tienila da parte...così domani la spedisci...;)

Iantikas
06-01-2010, 22:17
la fonte????:rolleyes:

già m'aspetto che amd domani modifichi lo slogan nella homepage della serie HD5x00...


"Dopo FERMI, Le GPU tecnologicamente più avanzate ricche di funzioni mai create"



...:D

Rsdj
06-01-2010, 22:21
Copia l'e-mail e tienila da parte...così domani la spedisci...;)
Salvata in "Bozze", grazie del consiglio amico :D
già m'aspetto che amd domani modifichi lo slogan nella homepage della serie HD5x00...


"Dopo FERMI, Le GPU tecnologicamente più avanzate ricche di funzioni mai create"



...:D

:asd: :asd: :asd:

davide155
06-01-2010, 22:22
Questa non la sapevo... addirittura il chip più grande del 50%??? Allora anche se andasse quasi come la 5970 sarebbe un flop veramente...

Ecco io ho paura proprio di questo.

Che il chip è talmente grosso da far schizzare alle stelle i consumi, nonostante avesse delle ottime prestazioni, questo secondo me penalizzerebbe moltissimo l'esito del mio acquisto.

Max1mo
06-01-2010, 22:26
ho sempre pensato che o sarà una cosa mostruosa o un flop ....prestazioni nella media di 5870 a mio avviso sono un flop:O

Daccordissimo, prestazioni uguali sicuramente con prezzi doppi rispetto alle ati:doh:

Rsdj
06-01-2010, 22:26
Ecco io ho paura proprio di questo.

Che il chip è talmente grosso da far schizzare alle stelle i consumi, nonostante avesse delle ottime prestazioni, questo secondo me penalizzerebbe moltissimo l'esito del mio acquisto.
E hai ragione, sai che problemi di raffreddamento e consumo escono fuori con una roba del genere??? Certo che se facessero veramente la dual altro che 5970, sarebbe lunga minimo 50cm :asd: :asd:

Jackaos
06-01-2010, 22:27
fonte???




io quella frase, siccome detta da amd, la leggo così...

...sanno che non raggiungerà la HD5970 e a nvidia gli pestano ancora di più i piedi sottolineando che hanno fatto qualcosa di terribilmente sbagliato per non sorpassarla con un chip grosso il 50% in più...


...mi sembra stupido (anche se fosse vero) che amd dichiari, prima della loro uscita sul mercato, che fermi va meglio delle proprie gpu...


...ciao

Quoto, come si suol dire. E' la stessa mia interpretazione di quell'affermazione.

Mparlav
06-01-2010, 22:41
fonte???




io quella frase, siccome detta da amd, la leggo così...

...sanno che non raggiungerà la HD5970 e a nvidia gli pestano ancora di più i piedi sottolineando che hanno fatto qualcosa di terribilmente sbagliato per non sorpassarla con un chip grosso il 50% in più...


...mi sembra stupido (anche se fosse vero) che amd dichiari, prima della loro uscita sul mercato, che fermi va meglio delle proprie gpu...


...ciao

Con un 50% più grosso, Fermi è obbligata a superare HD5870 il meglio possibile, non a superare una dual gpu come HD5970.
Se riesce anche nel secondo intento, il discorso si fa' interessante.

DarkNiko
06-01-2010, 22:57
Daccordissimo, prestazioni uguali sicuramente con prezzi doppi rispetto alle ati:doh:

Complimenti davvero, grande obiettività di pensiero, poi quel "sicuramente" è imbattibile. :D
Oramai in Italia le sentenze vengono date prima ancora degli eventuali processi e persino senza alcun dato oggettivo in mano.
Ma sì divertitevi ora cari fanboy ATi che poi dopo annegherete in una valle di lacrime. :D

M4R1|<
06-01-2010, 22:57
Già sto preparando l'email per chiedere la sostituzione ;) Anche se non riesco a capire perchè dovrei prendere una vga che va meno della mia... :confused: :boh:


p.s: hai la firma fuori regolamento :read:


Questa non la sapevo... addirittura il chip più grande del 50%??? Allora anche se andasse quasi come la 5970 sarebbe un flop veramente...

:rolleyes: Nn scherziamo ;)
Se andasse veramente quasi come una 5970 sarebbe un successo incredibile.
Nn dimenticare che sono due architetture molto differenti e confrontare le dimensioni tra le due è come confrontare mele con pere ;)

Rsdj
06-01-2010, 22:59
Con un 50% più grosso, Fermi è obbligata a superare HD5870 il meglio possibile, non a superare una dual gpu come HD5970.
Se riesce anche nel secondo intento, il discorso si fa' interessante.
Certo che il 50% più grosso significa avere una 5870 e mezza quindi è veramente d'obbligo umiliare la 5870... dovrebbe anche avvicinare parecchio la 5970 a questo punto per non essere un flop... non capisco proprio come sia potuto succedere che con un chip così grosso alla prima revision Fermi andava come una GTX 285, c'era veramente qualche errore bestiale nel progetto :doh:

Ragazzi voglio superare me stesso: sarò curiosissimo di vedere come farà nVidia a passare al processo produttivo a 28nm... secondo me ci metterà minino un anno e mezzo prima di poter ottenere risultati decenti con questi chipponi che si ritrova ;) Mi raccomando tenente queste parole bene a mente, le tireremo fuori a tempo debito :asd:

:rolleyes: Nn scherziamo ;)
Se andasse veramente quasi come una 5970 sarebbe un successo incredibile.
Nn dimenticare che sono due architetture molto differenti e confrontare le dimensioni tra le due è come confrontare mele con pere ;)
Su questo non sono d'accordo... per quanto possano essere architetture diverse parliamo sempre di schede video per il gaming, quindi di norma avere chip più grandi permette di ottenere prestazioni maggiori... non a caso la tecnologia si impegna tanto per ridurre le dimensioni e aumentare le performance ;)

Adone_1985
06-01-2010, 23:00
Complimenti davvero, grande obiettività di pensiero, poi quel "sicuramente" è imbattibile. :D
Oramai in Italia le sentenze vengono date prima ancora degli eventuali processi e persino senza alcun dato oggettivo in mano.
Ma sì divertitevi ora cari fanboy ATi che poi dopo annegherete in una valle di lacrime. :D

Quoto....solo chiacchiere...

Mercuri0
06-01-2010, 23:03
Questa non la sapevo... addirittura il chip più grande del 50%??? Allora anche se andasse quasi come la 5970 sarebbe un flop veramente...

La 5870 è una scheda progettata per essere "di fascia media", cioè avere costi (e quindi prezzo) da fascia media. E' dalla serie 4xxx che ATI non fa più la "fascia alta", ma usa le X2.

Il Fermi di cui discutiamo è invece il chippone da fascia alta, molto più grande e più costoso.

Per far quadrare le cose deve andare di più e non di poco: se si trovasse troppo vicino alla 5870 nVidia dovrebbe venderlo in perdita o giù di lì, come è stato per la serie GTX2xx.

Nel discorso c'è però il problema del ritardo nell'uscita.

Difatti 'un so perché si stia a discutere se questo vada più veloce di quello, o che ci si meravigli se il tipo di ATI dica che è prevedibile che Fermi vada più veloce.

Cazz, alla nVidia completamente fessi non sono, anche se questa volta hanno la loro dose di problemi.

davide155
06-01-2010, 23:04
Siccome sono tutti in vena di essere Nostradamus dico anche io il mio pronostico.

Fermi andrà un 30-40% in più della 5870. Ma consumerà altrettanto in termini di watt rispetto alla beneamina Ati single gpu. Ed il prezzo sarà sopra i 400€ :O

Rsdj
06-01-2010, 23:06
Complimenti davvero, grande obiettività di pensiero, poi quel "sicuramente" è imbattibile. :D
Oramai in Italia le sentenze vengono date prima ancora degli eventuali processi e persino senza alcun dato oggettivo in mano.
Ma sì divertitevi ora cari fanboy ATi che poi dopo annegherete in una valle di lacrime. :D

Quoto....solo chiacchiere...
Le nostre sono solo chiacchiere, invece quelle che avere fatto voi, nVidia, e gli spacciatori di bench e notizie fake fin'ora cosa cosa?

Gli altri fanboy eh? :rolleyes:

Mah... :doh:

Adone_1985
06-01-2010, 23:06
Certo che il 50% più grosso significa avere una 5870 e mezza quindi è veramente d'obbligo umiliare la 5870... dovrebbe anche avvicinare parecchio la 5970 a questo punto per non essere un flop... non capisco proprio come sia potuto succedere che con un chip così grosso alla prima revision Fermi andava come una GTX 285, c'era veramente qualche errore bestiale nel progetto :doh:

Ragazzi voglio superare me stesso: sarò curiosissimo di vedere come farà nVidia a passare al processo produttivo a 28nm... secondo me ci metterà minino un anno e mezzo prima di poter ottenere risultati decenti con questi chipponi che si ritrova ;) Mi raccomando tenente queste parole bene a mente, le tireremo fuori a tempo debito :asd:

Allora...io sono fan di Nvidia e si era capito.....

Però non capisco come fate a dire queste assurdità...sul "chippone"...i consumi, 28 nanometri, è un flop, se va....ecc..

Non si sa ancora praticamente nulla, tra pochi giorni si saprà con certezza...e poi potrete dire tutto quello che volete....

Mercuri0
06-01-2010, 23:07
Nn dimenticare che sono due architetture molto differenti e confrontare le dimensioni tra le due è come confrontare mele con pere ;)

Hai ragione, però le dimensioni dei circuiti integrati finiscono con il misurarsi in € (in proporzione più che lineare).

E l'€ è una unità di misura, converrai, molto funzionale ed ampiamente usata per fare paragoni. :)

Severnaya
06-01-2010, 23:07
qua i buoi che danno del cornuto agli asini nn si contano più :asd:


:ciapet:

Mercuri0
06-01-2010, 23:12
Però non capisco come fate a dire queste assurdità...sul "chippone"...i consumi, 28 nanometri, è un flop, se va....ecc..

Le dimensioni mi sa che sono note (mi sembra di ricordare che nvidia abbia persino mostrato una foto del chip, ma non ne sono sicure).

Ma il fatto che sia un chippone mica è male in sé!! Anzi, il chip più grande consente di fare la scheda a GPU singola più potente. Anche se più costosa.

Però l'architettura deve comunque essere efficente in termini di spazio e consumi. Perché altrimenti non puoi fare i chip intermedi, o quelli per portatili, ed in ogni categoria devi vendere con margine minore rispetto al concorrente. Ovviamente questo non possiamo saperlo finché Fermi non esce.

Inoltre il chip grosso da più problemi nella produzione. E se il processo produttivo non funziona troppo bene (come sta capitando) succedono bei casini. Come penso stia capitando.

Rsdj
06-01-2010, 23:13
Allora...io sono fan di Nvidia e si era capito.....

Però non capisco come fate a dire queste assurdità...sul "chippone"...i consumi, 28 nanometri, è un flop, se va....ecc..

Non si sa ancora praticamente nulla, tra pochi giorni si saprà con certezza...e poi potrete dire tutto quello che volete....

Secondo te il chippone, che è stata la maggiore causa dei problemi di nVidia, è un'assurdità? Secondo te i 28nm sono un'assurdità? Secondo te i consumi di una scheda video sono un'assurdità?

Beh se è così allora ci rinuncio :asd:

Simedan1985
06-01-2010, 23:14
Ma magari fermi va + della 5970 ...e magari poi ati ne fa un altra che va + di fermi ...ma solo io me le auguro queste cose??

.....ricordatevi che siamo nel forum di hardware upgrade,anche se avrei preso adesso la 5970 io mi auguro che fermi vada di +

Severnaya
06-01-2010, 23:16
Le dimensioni mi sa che sono note (mi sembra di ricordare che nvidia abbia persino mostrato una foto del chip, ma non ne sono sicure).

Ma il fatto che sia un chippone mica è male in sé!! Anzi, il chip più grande consente di fare la scheda a GPU singola più potente.

Però l'architettura deve comunque essere efficiente in termini di spazio e consumi. Perché altrimenti non puoi fare i chip intermedi, quelli per portatili, ed in ogni categoria devi vendere con margine minore rispetto al concorrente. Ovviamente questo non possiamo saperlo finché Fermi non esce.

Inoltre il chip grosso da più problemi nella produzione. E se il processo produttivo non funziona troppo bene (come sta capitando) succedono bei casini. Come penso stia capitando.


senza contare che a chip con una superficie maggiore corrisponde una resa minore

per singolo wafer ati crea più schede ====> abbattimento dei costi più efficiente

Max1mo
06-01-2010, 23:17
Complimenti davvero, grande obiettività di pensiero, poi quel "sicuramente" è imbattibile. :D
Oramai in Italia le sentenze vengono date prima ancora degli eventuali processi e persino senza alcun dato oggettivo in mano.
Ma sì divertitevi ora cari fanboy ATi che poi dopo annegherete in una valle di lacrime. :D

Il sicuramente era riferito al prezzo, riformulo: prestazioni uguali (ipotesi), sicuramente con prezzi doppi rispetto alle ati.

Non era una critica senza alcun dato oggettivo, nonostante le nvidia siano di "vecchia generazione" (seppur ancora molto prestanti) da quando sono uscite le nuove ati hd 58xx la gtx 285 non è scesa di un euro.

Tengo a precisare che non sono un fan boy ati, sono verde fino all'osso, mi lamento solo dei prezzi:cry:

Severnaya
06-01-2010, 23:17
Ma magari fermi va + della 5970 ...e magari poi ati ne fa un altra che va + di fermi ...ma solo io me le auguro queste cose??

.....ricordatevi che siamo nel forum di hardware upgrade,anche se avrei preso adesso la 5970 io mi auguro che fermi vada di +


si ma hardware pistedicoca sta su un altro forum :asd:

PConly92
06-01-2010, 23:18
Complimenti davvero, grande obiettività di pensiero, poi quel "sicuramente" è imbattibile. :D
Oramai in Italia le sentenze vengono date prima ancora degli eventuali processi e persino senza alcun dato oggettivo in mano.
Ma sì divertitevi ora cari fanboy ATi che poi dopo annegherete in una valle di lacrime. :D

secondo te un chip da 3 miliardi di transistor e una superficie quasi doppia quanto costerà a nvidia? per non parlare delle complessità...;)
ahh un ultima cosa: se nvidia fosse al posto di ati adesso, secondo te quanto ti farebbe pagare (novità dx11 etc) una hd 5870 (sui 600euro)?
non sono fanboy di nessuno però apprezzo molto ati per i prezzi che ha imposto alle sue vga, senno adesso saremmo a pagare una 8800gtx rimarchiata mille volte molto di più delle attuali dx11...

Adone_1985
06-01-2010, 23:19
Secondo te il chippone, che è stata la maggiore causa dei problemi di nVidia, è un'assurdità? Secondo te i 28nm sono un'assurdità? Secondo te i consumi di una scheda video sono un'assurdità?

Beh se è così allora ci rinuncio :asd:

Non dico che questi valori sono una assurdità...intendevo dire che non puoi sapere con esattezza queste cose...e non puoi tirare conclusioni sempre negative....

Simedan1985
06-01-2010, 23:21
si ma hardware pistedicoca sta su un altro forum :asd:

Infatti la 5970 ancora nn l'ho presa:asd:

Mercuri0
06-01-2010, 23:22
senza contare che a chip con una superficie maggiore corrisponde una resa minore

per singolo wafer ati crea più schede ====> abbattimento dei costi più efficiente
Entra tutto nel costo, nVidia e ATI, come tutti, fanno pagare sui chip buoni anche quelle che non gli escono :)

Non è che adesso bisogna puntare a progettare un chip con area minima... il discorso è trovare il punto giusto. nVidia mira al "più grande che si può", con tutti i rischi e i vantaggi del caso, AMD ad un chip da fascia media, con tutti i rischi e i vantaggi del caso.

Finora la strategia di AMD sembra pagare, forse anche perché ha indovinato delle buone architetture e certamente perché con questa strategia ha preso di sorpresa nVidia.

Rsdj
06-01-2010, 23:23
Non dico che questi valori sono una assurdità...intendevo dire che non puoi sapere con esattezza queste cose...e non puoi tirare conclusioni sempre negative....
Guarda non tiro conclusioni negative, sono i fatti a farmi pensare così... nessuno dice che saglio o che ho ragione ma credo che almeno un 10% di obiettività in me ci sia ;)

Adone_1985
06-01-2010, 23:23
Entra tutto nel costo, nVidia e ATI, come tutti, fanno pagare sui chip buoni anche quelle che non gli escono :)

Non è che adesso bisogna puntare a progettare un chip con area minima... il discorso è trovare il punto giusto. nVidia mira al "più grande che si può", con tutti i rischi e i vantaggi del caso, AMD ad un chip da fascia media, con tutti i rischi e i vantaggi del caso.

Finora la strategia di AMD sembra pagare, forse anche perché ha indovinato delle buone architetture e certamente perché con questa strategia ha preso di sorpresa nVidia.

Quoto..

Severnaya
06-01-2010, 23:26
Guarda non tiro conclusioni negative, sono i fatti a farmi pensare così... nessuno dice che saglio o che ho ragione ma credo che almeno un 10% di obiettività in me ci sia ;)


sti cazzi direi :asd:


sei generoso con te stesso! ! ! :sofico:

Severnaya
06-01-2010, 23:27
Entra tutto nel costo, nVidia e ATI, come tutti, fanno pagare sui chip buoni anche quelle che non gli escono :)


a questo punto a prescindere dalle prestazioni vedremo quanto costerà fermi :mbe:

Adone_1985
06-01-2010, 23:32
sti cazzi direi :asd:


sei generoso con te stesso! ! ! :sofico:


:D :D :D

okorop
06-01-2010, 23:32
a questo punto a prescindere dalle prestazioni vedremo quanto costerà fermi :mbe:

si saprà a marzo quando lo commercializzeranno :fagiano:

Rsdj
06-01-2010, 23:32
sti cazzi direi :asd:


sei generoso con te stesso! ! ! :sofico:
Beh detto da te è un onore, anche se non ho capito perchè ti sei intromesso visto che non ti avevo proprio caxxto :D Cmq spero che hai finito di prendere per il cxxo sia me che Delly e anche altri utenti perchè ormai ci siamo accorti tutti che in te si nasconde un irrefrenabile spirito fanboy :asd: :asd:

okorop
06-01-2010, 23:40
"Nvidia Is Saying That Fermi Should Be as fast as 5870"

ma manco loro ci credono piu'......

Severnaya
06-01-2010, 23:42
Beh detto da te è un onore, anche se non ho capito perchè ti sei intromesso visto che non ti avevo proprio caxxto :D Cmq spero che hai finito di prendere per il cxxo sia me che Delly e anche altri utenti perchè ormai ci siamo accorti tutti che in te si nasconde un irrefrenabile spirito fanboy :asd: :asd:


davvero irrefrenabile :asd:

Rsdj
06-01-2010, 23:43
"Nvidia Is Saying That Fermi Should Be as fast as 5870"

ma manco loro ci credono piu'......
ma non era "AMD Is Saying That Fermi Should Be as fast as 5870"??

okorop
06-01-2010, 23:44
ma non era "AMD Is Saying That Fermi Should Be as fast as 5870"??

son fonti diverse
;)

yossarian
06-01-2010, 23:44
Ok sono daccordo.

Aspetta un attimo Yoss, però la slide n. 18 del documento precedentemente
lincata dice espressamente che Fermi può eseguire in parallelo al max 16 Kernel e dice pure che questi kernel non sono altro che programmi che girano su GPU.
Questi Kernel a loro volta sono organizzati su delle griglie di thread block (ogni griglia è un vettore di thread block che esegue lo stesso kernel ).
Quindi questi thread block saranno processati dallo Stream Multiprocessor come hai detto.
Ora quello che mi chiedevo e chiedevo a te è:
è possibile fare una cosa del genere con gli shader in particolare con shader che ad esempio lavorano con texture diverse ?
Cioè non ti pare possibile che ogni Stream Multiprocessor o cluster di 32 CUDA core possa eseguire uno shader diverso o kernel slegati tra di loro.
Dopotutto questa mia ipotesi sembrerebbe avvalorata dal fatto che la gpu fermi possa al max processare 16 kernel cioè proprio il numero di cluster di Fermi.


Ovviamente il tutto senza polemiche ne altro.

si dev, non ci siamo capiti, evidentemente; io sto parlando di come lavora il singolo SP. E' naturale che i 16 cluster possano eseguire kernel differenti l'uno dall'altro: questo avviene in tutte le gpu. Ogni gruppo di alu esegue o può eseguire una sequenza di istruzioni differente dagli altri gruppi. La suddivisione in gruppi è fatta a questo scopo.
L'intervento precedente riguardava, invece, il fatto che in fermi, contrarimente a quello che avviene in gt200 o g80, ogni SP può mandare in esecuzione 2 warp ovvero 2 gruppi di 32 thread. Quindi, di fatto, fermi ha una granularità più fine rispetto a quanto lascia presupporre la suddivisione in gruppi di 32 alu

M4R1|<
06-01-2010, 23:44
cut
Su questo non sono d'accordo... per quanto possano essere architetture diverse parliamo sempre di schede video per il gaming, quindi di norma avere chip più grandi permette di ottenere prestazioni maggiori... non a caso la tecnologia si impegna tanto per ridurre le dimensioni e aumentare le performance ;)

Verissimo in ogni caso sono architetture molto diverse. Bho secondo me completamente giusto fare questi confronti, però è la mia opinione ;)

Hai ragione, però le dimensioni dei circuiti integrati finiscono con il misurarsi in € (in proporzione più che lineare).

E l'€ è una unità di misura, converrai, molto funzionale ed ampiamente usata per fare paragoni. :)

Ovviamente nessuno ha mai detto che sarà un chip economico. Se consideriamo 530mm^2, rese nn paragonabili sicuramente a quelle di ATI, maggiore complessità sia del PCB che nei driver (causa il bus molto maggiore) è lecito aspettarsi una GPU cara. Ovviamente per definire l'aggettivo caro bisogna considerare il margine sia sulla 5870 che quello sulla 5970 (a mio parere assolutamente in rosso però...) ed anche i consumi. Certo se la GT380 constasse poco meno di una 5970 andando poco più di una 5870 sarebbe un flop cosa diversa per altri scenari.
Cmq che alla fine sia l'Euro il metro di misura finale è assodato, infatti le distinzioni delle stratificazioni delle fasce di mercato sono basate sul costo del bene ;)

M4R1|<
06-01-2010, 23:45
"Nvidia Is Saying That Fermi Should Be as fast as 5870"

ma manco loro ci credono piu'......

Frase inquietante, cioè nn sanno nemmeno loro se va più o meno della 5870. Perchè dovrebbero scrivere dovrebbe andare come una 5870 :confused: Cieè nn lo sanno nemmeno loro????

Rsdj
06-01-2010, 23:45
davvero irrefrenabile :asd:
Ma certo, ammettilo che la notte non dormi per pensare a come poter contrastare noi fanboy ATI :p :p :p


p.s: senti toglimi una curiosità: ma che vuol dire nella tua firma "Case: culo:"? :mbe:

M4R1|<
06-01-2010, 23:48
Ma certo, ammettilo che la notte non dormi per pensare a come poter contrastare noi fanboy ATI :p :p :p


p.s: senti toglimi una curiosità: ma che vuol dire nella tua firma "Case: culo:"? :mbe:

Il case è rosso :rotfl:

ps: scherzo :D

okorop
06-01-2010, 23:49
Frase inquietante, cioè nn sanno nemmeno loro se va più o meno della 5870. Perchè dovrebbero scrivere dovrebbe andare come una 5870 :confused: Cieè nn lo sanno nemmeno loro????

ovviamente due vga che vanno uguali son rare in alcuni casi va piu' una in altri piu' l'altra, ergo in media ed in certe condizioni dovrebbero essere allineate a livello di performance, ecco come interpreto questa dichiarazione...

Severnaya
06-01-2010, 23:51
Ma certo, ammettilo che la notte non dormi per pensare a come poter contrastare noi fanboy ATI :p :p :p


azz beccato ho il termos di caffè proprio qui davanti :asd:



p.s: senti toglimi una curiosità: ma che vuol dire nella tua firma "Case: culo:"? :mbe:


se lo vedessi forse troveresti una parola migliore per definirlo, magari ti mando una foto che vale più di mille parole :sofico:

Rsdj
06-01-2010, 23:53
ovviamente due vga che vanno uguali son rare in alcuni casi va piu' una in altri piu' l'altra, ergo in media ed in certe condizioni dovrebbero essere allineate a livello di performance, ecco come interpreto questa dichiarazione...
Ma da quale fonte hai preso quella dichiarazione?
azz beccato ho il termos di caffè proprio qui davanti :asd:






se lo vedessi forse troveresti una parola migliore per definirlo, magari ti mando una foto che vale più di mille parole :sofico:
E che sarà mai??? :confused: :confused:

Daytona
06-01-2010, 23:56
secondo mè Nvidia piuttosto che fare uscire una scheda top di gamma che và circa come la 5870, la fà uscire clokkata alla maledetta ... :cool:

e ci piazza un bel turbinone stile geForce 5800 !!!! :eek:


vi ricordate ??!!! :oink:

yossarian
07-01-2010, 00:01
Per "granularitá piú fine" intendi operazioni piú parallelizzabili? L'evoluzione non va verso la parallelizzazione?

granularità più fine significa maggior flessibilità degli stream porcessor. In una gpu uno SP esegue la stessa istruzione su tutte le alu che lo compongono. Questo significhe che, in fermi, girerebbe una sola istruzione su tutte e 32 le alu di un cluster per ogni ciclo. Con il doppio scheduler si ha la possibilità di dividere lo SP in due cluster da 16 alu ciascuno, su ognuno dei quali può girare una differente istruzione.
Vero che in grafica l'evoluzione va verso la parallelizzazione ed è questo il motivo per cui si continua a insistere sulle architetture SIMD, però le gpu moderne devono fare anche altri tipi di calcoli che richiedono una maggior flessibilità (ad esempio le applicazioni di tipo gp) per cui può essere opportuno avere una granularità più fine

Kharonte85
07-01-2010, 00:07
Frase inquietante, cioè nn sanno nemmeno loro se va più o meno della 5870. Perchè dovrebbero scrivere dovrebbe andare come una 5870 :confused: Cieè nn lo sanno nemmeno loro????

Perchè nessuno ha detto quella frase è solo una interpretaziona arbitraria di questo stralcio di intervista ad uno che lavora in AMD:

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

Che non mi pare dica esattamente la stessa cosa.

Daytona
07-01-2010, 00:08
http://onegoodmove.org/1gm/images/blower2.jpg

a parte gli scherzi a me una bella FERMI tirata a bestia non mi dispiacerebbe!!!!

anche se il dissi fà un pò di casino quando giochi non mi dispiace ... mi dà l'idea della potenza dissipata... la 5870 non si sente c@xxo ... sembra che non faccia niente ! :D

...e invece ... ;)

Severnaya
07-01-2010, 00:10
E che sarà mai??? :confused: :confused:


l'avrò pagato si e no 30€


ma di fronte a lui nn è niente http://www.coolermaster.com/product.php?product_id=6600

Kharonte85
07-01-2010, 00:14
Circa.... sì...

http://www.fudzilla.com/images/stories/2009/September/General%20News/fermchip_accred.jpg

550mm2 diceva mr affidabilità ad ottobre...

Rsdj
07-01-2010, 00:17
l'avrò pagato si e no 30€


ma di fronte a lui nn è niente http://www.coolermaster.com/product.php?product_id=6600
Eh beh, che paragoni che mi fai :cool:

http://www.fudzilla.com/images/stories/2009/September/General%20News/fermchip_accred.jpg

550mm2 diceva mr affidabilità ad ottobre...
Cos'è sta immagine?

Severnaya
07-01-2010, 00:18
Eh beh, che paragoni che mi fai :cool:


io sono un fanboy di quel case! ! ! :sofico:

Simedan1985
07-01-2010, 00:27
Eh beh, che paragoni che mi fai :cool:


Cos'è sta immagine?




Bè penso che sia un pass di Fuad per partecipare alla conferenza del ces nvidia

M4R1|<
07-01-2010, 05:30
ovviamente due vga che vanno uguali son rare in alcuni casi va piu' una in altri piu' l'altra, ergo in media ed in certe condizioni dovrebbero essere allineate a livello di performance, ecco come interpreto questa dichiarazione...

Spero che siano dichiarazioni con un peso uguale a zero, cioè un Fermi che ha prestazioni allineate ad una 5870 con tutti questi mesi di ritardo è un po' tanto assurdo :confused:

Perchè nessuno ha detto quella frase è solo una interpretaziona arbitraria di questo stralcio di intervista ad uno che lavora in AMD:



Che non mi pare dica esattamente la stessa cosa.

Certo è vero ma un conto è AMD is sayint... un altro è Nvidia is saying..... nn so se mi sono spiegato, per di più okorop ha detto che sono fonti differenti.
Oggi vedremo cmq nn mi pare bene come antipasto d'apertura

ertruffa
07-01-2010, 05:58
grande giorno.speriamo bene:sperem:

Iantikas
07-01-2010, 06:22
Ma magari fermi va + della 5970 ...e magari poi ati ne fa un altra che va + di fermi ...ma solo io me le auguro queste cose??

.....ricordatevi che siamo nel forum di hardware upgrade,anche se avrei preso adesso la 5970 io mi auguro che fermi vada di +

non sei il solo...



...ogni tanto mi metto a scherzare ma spero davvero che fermi sia eccezionale...


...anche se lo reputo improbabile un GT380 che passa allegramente una HD5970 sarebbe cosa parecchio gradita perchè, oltre a tutti i benefici che la concorrenza porta, significherebbe poter aggiornare la gpu con una abbastanza più potente in caso di necessità...



...ciao

halduemilauno
07-01-2010, 06:32
Già sto preparando l'email per chiedere la sostituzione ;) Anche se non riesco a capire perchè dovrei prendere una vga che va meno della mia... :confused: :boh:


p.s: hai la firma fuori regolamento :read:


Questa non la sapevo... addirittura il chip più grande del 50%??? Allora anche se andasse quasi come la 5970 sarebbe un flop veramente...

la 5970 è molto + grande. sono due.

Foglia Morta
07-01-2010, 06:50
[IMG]http://www.fudzilla.com/images/stories/2009/September/General%20News/fermchip_accred.jpg[IMG]

550mm2 diceva mr affidabilità ad ottobre...

dove avresti letto 500 mm^2 ?

Ad oggi sappiamo che Fermi ha 3,2 miliardi transistors: ( http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php ) , con l' architettura nVidia non penso proprio si possa ottenere la stessa densità di transistors di ATi ( basta vedere quanto hanno già fatto a 55nm )

CJ aveva detto 24x24 , Charlie Demerjan diceva ventitre virgola qualcosa x ventitre virgola qualcosa. Un utente di B3d aveva messo in scala il die di GT215 con quello di Fermi e ricavato che secondo lui sono 550 mm^2 .

50% in più è il numero di transistors ( 2154 + 50% = 3,2 miliardi circa), fino a prova contraria il die size è circa 550 mm^2 ( tra il 60 % e il 70% più grande rispetto a Cypress )

Mparlav
07-01-2010, 08:44
Certo che il 50% più grosso significa avere una 5870 e mezza quindi è veramente d'obbligo umiliare la 5870... dovrebbe anche avvicinare parecchio la 5970 a questo punto per non essere un flop... non capisco proprio come sia potuto succedere che con un chip così grosso alla prima revision Fermi andava come una GTX 285, c'era veramente qualche errore bestiale nel progetto :doh:



Non so' cosa tu abbia capito, ma non centra una mazza con ciò che ho scritto io :D

ciccionamente90
07-01-2010, 08:47
:asd:

Diobrando_21
07-01-2010, 09:01
la 5970 è molto + grande. sono due.

infatti...e aggiungerei: essendo io (noi) un utente finale x me quello che conta sono le prestazioni finali, x quel che mi riguarda può essere grossa anche come la mia testa :asd:

sertopica
07-01-2010, 09:01
Fra quante ore comincia la Conferenza? :stordita:

ertruffa
07-01-2010, 09:03
infatti...e aggiungerei: essendo io (noi) un utente finale x me quello che conta sono le prestazioni finali, x quel che mi riguarda può essere grossa anche come la mia testa :asd:

e aggiungo che personalmente che il tdp sia 200 o 250 watt mi interessa fino a un certo punto,basta che rulla alla grande;)

sickofitall
07-01-2010, 09:03
Fra quante ore comincia la Conferenza? :stordita:

quando sono pronti cominciano :asd:

sertopica
07-01-2010, 09:05
quando sono pronti cominciano :asd:

Poracci, saranno agitati, hanno il fiato di tutti addosso (pensa che puzza :asd: )!! :eekk:

aaasssdddfffggg
07-01-2010, 09:05
infatti...e aggiungerei: essendo io (noi) un utente finale x me quello che conta sono le prestazioni finali, x quel che mi riguarda può essere grossa anche come la mia testa :asd:

e ricordiamo sempre che è NVIDIA l'azienda per cui la leadership prestazionale per le sue vga da sempre resta un punto fondamentale..:)

MirrorsEdge
07-01-2010, 09:12
infatti...e aggiungerei: essendo io (noi) un utente finale x me quello che conta sono le prestazioni finali, x quel che mi riguarda può essere grossa anche come la mia testa :asd:

Il guaio è che se è troppo grossa costa uno sproposito. Se invece pur essendo grossa, costa il giusto....significa che è Nvidia che ci sta guadagnando poco o ci sta perdendo, com'è successo con la serie 200. Non è una strategia che Nvidia può reggere ancora per molto.

faber80
07-01-2010, 09:14
ma a che ora dovremmo avere qualche notizia ?

Kharonte85
07-01-2010, 09:14
dove avresti letto 500 mm^2 ?

Ad oggi sappiamo che Fermi ha 3,2 miliardi transistors: ( http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php ) , con l' architettura nVidia non penso proprio si possa ottenere la stessa densità di transistors di ATi ( basta vedere quanto hanno già fatto a 55nm )

CJ aveva detto 24x24 , Charlie Demerjan diceva ventitre virgola qualcosa x ventitre virgola qualcosa. Un utente di B3d aveva messo in scala il die di GT215 con quello di Fermi e ricavato che secondo lui sono 550 mm^2 .

50% in più è il numero di transistors ( 2154 + 50% = 3,2 miliardi circa), fino a prova contraria il die size è circa 550 mm^2 ( tra il 60 % e il 70% più grande rispetto a Cypress )
E io che ho detto? :confused:

Diobrando_21
07-01-2010, 09:15
e aggiungo che personalmente che il tdp sia 200 o 250 watt mi interessa fino a un certo punto,basta che rulla alla grande;)


Non posso che quotare ;)

e ricordiamo sempre che è NVIDIA l'azienda per cui la leadership prestazionale per le sue vga da sempre resta un punto fondamentale..:)

Infatti è questo il punto fondamentale...condivido pienamente quel tipo di filosofia ;)

Foglia Morta
07-01-2010, 09:20
E io che ho detto? :confused:

Ho trovato un tuo post in cui hai detto 500 mm^2: http://www.hwupgrade.it/forum/showpost.php?p=30043359&postcount=10322 :ciapet:

prima avevo letto male :D

ciccionamente90
07-01-2010, 09:21
quando sono pronti cominciano :asd:

ci stanno mettendo troppo... probabilmente staranno facendo un art attack!

Pike79
07-01-2010, 09:23
Il guaio è che se è troppo grossa costa uno sproposito. Se invece pur essendo grossa, costa il giusto....significa che è Nvidia che ci sta guadagnando poco o ci sta perdendo, com'è successo con la serie 200. Non è una strategia che Nvidia può reggere ancora per molto.

Diciamo che, egoisticamente parlando, che Nvidia ci rimetta o no a me poco ne cale, l' importante è non dover (voler) spendere 700 euro come feci all' epoca per acquistare la mia attuale 280 al D1.

administrator2010
07-01-2010, 09:24
mi aspetto che costi sotto i 400 per la versione castrata

ciccionamente90
07-01-2010, 09:24
Diciamo che, egoisticamente parlando, che Nvidia ci rimetta o no a me poco ne cale, l' importante è non dover (voler) spendere 700 euro come feci all' epoca per acquistare la mia attuale 280 al D1.
Non succederà, sarebbe controproducente... diciamo che è quello che ATI vorrebbe...

DarkNiko
07-01-2010, 09:26
Le nostre sono solo chiacchiere, invece quelle che avere fatto voi, nVidia, e gli spacciatori di bench e notizie fake fin'ora cosa cosa?

Gli altri fanboy eh? :rolleyes:

Mah... :doh:

Primo io non vengo a fare pubblicità occulta a favore di un marchio o di un altro, secondo non ho mai spacciato alcun bench o fake, terzo non so chi tu sia e sono qui, come spero gli altri, per avere informazioni certe e non per continuare le solite chiacchiere da bar come fanno molti.
Se ti sei sentito "piccato", per così dire, è un tuo problema. Non potrai di certo negare che avendo in firma una 5970, uno come te in questo post desta non pochi sospetti.
A buon intenditor poche parole. ;)

Kharonte85
07-01-2010, 09:30
Ho trovato un tuo post in cui hai detto 500 mm^2: http://www.hwupgrade.it/forum/showpost.php?p=30043359&postcount=10322 :ciapet:

prima avevo letto male :D

Ah ok :D

No penso sia giusto 550mm2, probabilmente avro' letto male l'altra volta :)

halduemilauno
07-01-2010, 09:40
Fra quante ore comincia la Conferenza? :stordita:

mi pare ore 9 di Las Vegas.
;)