PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

okorop
27-08-2009, 19:59
Secondo me ormai non lo sanno neanche loro che nomi dare alle VGA :asd:

probabile.....

Foglia Morta
27-08-2009, 20:05
Secondo me ormai non lo sanno neanche loro che nomi dare alle VGA :asd:

Questa è follia :sofico: : http://forum.beyond3d.com/showpost.php?p=1326749&postcount=62

Prima ancora di aver lanciato una gpu questa avrebbe già avuto un rename... se verrà confermato allora è un record

Foglia Morta
28-08-2009, 16:57
http://www.brightsideofnews.com/news/2009/8/28/nvidia-plans-gt300-demos-for-late-september.aspx

After hearing from multiple sources spanning on several continents, we can be fairly certain that the samples of nVidia's first DirectX 11 GPU are going to depart from engineering labs. Just like GT200, GT300 spent several months in the Labs while the drivers were being created.

Given that today's GeForce drivers contain more code than Windows XP core, we aren't surprised that nVidia is taking time to get the product ready for market. Just like some media were suggesting that GT200 taped out in March 2008 [while some developers got the GT200 cards as early as three months before that tape out story], GT300 needs time [and human resources] to finish the development. GT300 is the base graphics architecture not just for the standard desktop or notebook graphics, but also as a future graphics base for the Tegra generation of products. And with recent rumors of nVidia implementing ECC feature into the GPU [which is a given, since GDDR5 comes with ECC], Tesla parts should be quite interesting as well.

But now, we have received words that AIBs are getting time frames forthe demonstrations to their own partners and press, with the firstevents happening in September. The dates are obviously planned to bluntthe katana-sharp market attack from ATI's Radeon 5000 series.

On nVidia's annual gathering of add-in-board manufacturers [happened a while ago], a lot of harsh words were spoken due to renaming policies, OEM positioning and more importantly, how to combat resurgent ATI - it was stated that a lot is expected from the NV70 e.g. GT300 generation.

Now, the only question is how long it will take for nVidia's demo team and software vendors to create traditional launch demos. ATI dropped the practice with the Radeon 4000 series, showing raytraced Ruby in its Cinema 2.0 event, but the demo didn't became available to general public. All in all, computer graphics arena is never boring.

Andrea deluxe
29-08-2009, 11:51
Se è vero si van ben oltre il ridicolo:

http://www.semiaccurate.com/2009/08/28/nvidia-renames-2xx-parts-3xx/

Cito solo:

Words don't often fail me, but this time they do.

cioe' praticamente ati sta continuando con la logica del progresso su tutta la line-up, mentre nvidia quando immette una nuova architettura, per le fasce sotto quella enthusiast smolla le vecchie architetture..... e le rebranda....

appleroof
29-08-2009, 12:21
cioe' praticamente ati sta continuando con la logica del progresso su tutta la line-up, mentre nvidia quando immette una nuova architettura, per le fasce sotto quella enthusiast smolla le vecchie architetture..... e le rebranda....

purtroppo stanno pagando ormai caro l'impostazione a chippone: è per questo motivo imho che sono costretti a queste scelte (e meno male che dal punto di vista puramente prestazionale l'eccellente g80 è ancora tale, sopratutto se destinato alla fascia medio-bassa)

il prezzo però è davvero caro, visto che si stanno davvero facendo una brutta...nomina :D

imho solo quando avranno i 28nm potrebbero uscire da questa impasse...

eXeS
29-08-2009, 12:34
GT300 potrebbe essere mostrato ai partners a settembre

http://www.guru3d.com/news/nvidia-gt300-demonstrations-as-early-as-september/

michelgaetano
29-08-2009, 12:49
purtroppo stanno pagando ormai caro l'impostazione a chippone: è per questo motivo imho che sono costretti a queste scelte (e meno male che dal punto di vista puramente prestazionale l'eccellente g80 è ancora tale, sopratutto se destinato alla fascia medio-bassa)

il prezzo però è davvero caro, visto che si stanno davvero facendo una brutta...nomina :D

imho solo quando avranno i 28nm potrebbero uscire da questa impasse...

Credo anch'io, cioè finchè non scendono coi nm il chip resta enorme... Oddio che è enorme anche da 55 -> 40, quindi non so fino a che punto bastino i 28nm...

Forse dovrebbero rivedere proprio la filosofia del "chippone", o qui g92 ce lo ritroviamo pure nella serie 4 -_-

Andrea deluxe
29-08-2009, 13:01
Credo anch'io, cioè finchè non scendono coi nm il chip resta enorme... Oddio che è enorme anche da 55 -> 40, quindi non so fino a che punto bastino i 28nm...

Forse dovrebbero rivedere proprio la filosofia del "chippone", o qui g92 ce lo ritroviamo pure nella serie 4 -_-

non dirlo...........

tutto e' possibile.....

appleroof
29-08-2009, 13:07
Credo anch'io, cioè finchè non scendono coi nm il chip resta enorme... Oddio che è enorme anche da 55 -> 40, quindi non so fino a che punto bastino i 28nm...

Forse dovrebbero rivedere proprio la filosofia del "chippone", o qui g92 ce lo ritroviamo pure nella serie 4 -_-

bè g200@55nm mi pare essere grande più o meno quanto g80 a 90nm, per cui non credo che il problema sia tanto i costi in sè (legati alle rese) quanto la competitività rispetto ad Ati...

quanto a g300@40nm ignoro qualsiasi rumor sulle dimensioni del die (in realtà latita qualsiasi notizia sopratutto sull'architettura) ma immagino che l'opera di rebrand sia appunto come dicevo dovuta a dimensioni ancora grandi per essere competitive sulla fascia medio-bassa...

Foglia Morta
29-08-2009, 13:08
Credo anch'io, cioè finchè non scendono coi nm il chip resta enorme... Oddio che è enorme anche da 55 -> 40, quindi non so fino a che punto bastino i 28nm...

Forse dovrebbero rivedere proprio la filosofia del "chippone", o qui g92 ce lo ritroviamo pure nella serie 4 -_-

I 28nm non c'entrano nel discorso... il CEO di nVidia poco tempo fa aveva detto che il 25% della produzione nel Q4 2009 sarebbe stato a 40nm e nel Q3 2010 il 75% . I rename sono una pezza temporanea... se vogliono raggiungere quelle percentuali allora o nel Q1 o nel Q2 del 2010 devono introdurre nuove gpu a 40nm ;)

Milotto
29-08-2009, 13:11
purtroppo stanno pagando ormai caro l'impostazione a chippone: è per questo motivo imho che sono costretti a queste scelte (e meno male che dal punto di vista puramente prestazionale l'eccellente g80 è ancora tale, sopratutto se destinato alla fascia medio-bassa)

il prezzo però è davvero caro, visto che si stanno davvero facendo una brutta...nomina :D

imho solo quando avranno i 28nm potrebbero uscire da questa impasse...

Più che pagar caro l'impostazione a chippone pagan caro i "limiti" dell'architettura di G80...: ad un aumento di SP corrisponde un aumento delle unità logiche e quindi di dimensioni della GPU, contemporaneamente non vi è un aumento lineare delle performance...quanto avviene non credo sia una scelta ma una conseguenza...
Però se i rumor relativi alle rese di GT300 fossero veri...con la scelta del rebranding per coprire l'intera line-up tutte le GPU fallate non troveranno collocazione sul mercato....i prezzi saliranno alle stelle....:confused:

Andrea deluxe
29-08-2009, 13:11
Chissà a questo punto se mostreranno i rebrands o effettivamente faranno una early demo di un chip che uscirà se va bene 6 mesi dopo...

non so a voi, ma sembra che nvidia sia un po nella cacchina.....se fa un rebrand per smollare ancora g98 e gt2xx.........

poi la loro situazione economica non e' delle migliori.......

appleroof
29-08-2009, 13:17
Più che pagar caro l'impostazione a chippone pagan caro i "limiti" dell'architettura di G80...: ad un aumento di SP corrisponde un aumento delle unità logiche e quindi di dimensioni della GPU, contemporaneamente non vi è un aumento lineare delle performance...quanto avviene non credo sia una scelta ma una conseguenza...
Però se i rumor relativi alle rese di GT300 fossero veri...con la scelta del rebranding per coprire l'intera line-up tutte le GPU fallate non troveranno collocazione sul mercato....i prezzi saliranno alle stelle....:confused:

era quello che intendevo, detto in altri termini...

cmq c'è una variabile molto importante che si inserisce: g300 dovrebbe avere un'architettura nuova rispetto a g80&derivati, ed è qui che i conti non mi tornano...forse mi sono del tutto sbagliato nella mia ipotesi di prima ed in realtà semplicemente sono in ritardo e quindi per ora concentrano la produzione solo sulla fascia alta, in attesa di andare a regime e quindi produrre pure per le altre fasce

in effetti senza dati certi possiamo fare 1000 ipotesi, al solito...:D

DVD2005
29-08-2009, 15:22
non so a voi, ma sembra che nvidia sia un po nella cacchina.....se fa un rebrand per smollare ancora g98 e gt2xx.........

poi la loro situazione economica non e' delle migliori.......

a mio avviso dipende da come il mercato reagirà all'introduzione delle nuove Ati, attualmente nvidia detiene il 64% del mercato delle schede discrete, quindi ancora una bella fetta. Se si contrarrà in modo sensibile allora .......

Foglia Morta
29-08-2009, 16:17
Il rebrand non dovrebbe essere sulle GPU 40nm?

se ti riferisci ai rebrand dei driver postati prima si , la gpu mobile DX10.1 ( GT216 ) pare che sarà rebrandizzata in modo che sembri della serie GT300 ( per ora solo a giudicare dai driver... si vedrà se sarà confermato ) . Ma per quel che riguarda le gpu desktop secondo me non ci saranno rebrand , forse un cambio di nomi come quello di cui parlavano Digitimes e Theo Valich di BSN , ossia Geforce più un numero di 3 cifre. Un rebrand è una scelta di marketing così come lo è il presentare prima la fascia enthusiast e poi tutto il resto... quindi dopo che hanno lanciato GT300 che senso avrebbe rebrandizzare le schede con le altre gpu ? Tanto vale aspettare le altre gpu DX11 perchè se nel Q3 2010 la produzione a 40nm raggiungerà il 75% del totale allora secondo me poco dopo GT300 devono presentare delle altre gpu a 40nm , quindi DX11.
IMO il rebrand sarà solo per le gpu mobile DX10.1 Considerando che tra non molto, e con ogni probabilità, nVidia dovrà tagliare ulteriormente i prezzi penso che avranno una voglia matta di sostituire le gpu a 55nm il più presto possibile, quasi 500mm^2 su schede mainstream mi pare sconvenientissimo per nVidia. Spero di non sbagliarmi... un rebrand selvaggio su tutta la linea sarebbe troppo troppo ridicolo

_Birbante_
29-08-2009, 18:35
GT300 potrebbe essere mostrato ai partners a settembre

http://www.guru3d.com/news/nvidia-gt300-demonstrations-as-early-as-september/

speriamo sia vero! :D

ciao

gervi
29-08-2009, 20:49
si dice che la ati 5870 dx 11 avrà un motore terascale di seconda generazione e in DP , è capace di 2 tflops di potenza.

dei teraflops di GT 300 singola , si sà qualcosa ??

Andrea deluxe
29-08-2009, 20:56
Nov 09, 1-14th, 500 - 550$ street price

iniziano a girare le date..... su xs......

_Birbante_
30-08-2009, 00:59
Nov 09, 1-14th, 500 - 550$ street price

iniziano a girare le date..... su xs......

ho letto quel thread..... :sperem:


ciao

Athlon 64 3000+
30-08-2009, 02:05
Nov 09, 1-14th, 500 - 550$ street price

iniziano a girare le date..... su xs......

Seil prezzo sarebbe confermato sarebbe da fuori di testa a meno che abbia prestazioni da fuori di testa ben superiori anche a RV870 e che quindi AMD puà controbbattere solo la versione x2.

_Birbante_
30-08-2009, 02:18
Seil prezzo sarebbe confermato sarebbe da fuori di testa a meno che abbia prestazioni da fuori di testa ben superiori anche a RV870 e che quindi AMD puà controbbattere solo la versione x2.

concordo, se avesse quel prezzo li mi augurerei anche delle prestazioni pazzesche :asd:

chissà vedremo

Foglia Morta
30-08-2009, 06:51
ho letto quel thread..... :sperem:


ciao

Hai notato quante ca__ate ha detto in passato ?

Hanno postato qualche esempio:

http://www.xtremesystems.org/forums/showpost.php?p=3985462&postcount=67

http://www.xtremesystems.org/forums/showpost.php?p=3985594&postcount=72

Speriamo sia vero... ma a me pare che quel tipo miri più a indovinare e non sa niente

_Birbante_
30-08-2009, 07:07
il tipo ha scritto qualche cagata, ed altre volte ci ha visto giusto.

ma speriamo che a questo giro abbia ragione :p

Foglia Morta
30-08-2009, 07:30
sarebbe interessante leggere le cose che ha saputo anticipare realmente... pare che tu le abbia lette. linka per favore

_Birbante_
30-08-2009, 07:52
pare che tu le abbia lette. linka per favore

non ho letto le cose che è andato ad indovinare in passato, ho visto un commento dell' utente che ci discuteva, dove cmq ammetteva che il tipo ha avuto alcune fonti piuttosto giuste per quanto riguarda Nvidia!

tutto qua :D

User111
30-08-2009, 12:10
mi iscrivo, in attesa che si faccia viva la gt300 :sofico:

The_SaN
30-08-2009, 14:37
il tipo ha scritto qualche cagata, ed altre volte ci ha visto giusto.

ma speriamo che a questo giro abbia ragione :pAnche fud ha indovinato gli SP della serie 4800...
Dopo aver sparato tutti i numeri possibili da 320 a 800 :asd:

michelgaetano
30-08-2009, 15:10
Anche fud ha indovinato gli SP della serie 4800...
Dopo aver sparato tutti i numeri possibili da 320 a 800 :asd:

:asd:

Andrea deluxe
01-09-2009, 08:26
intanto......... 4-WAY SLI

http://www.evga.com/articles/00501/

User111
01-09-2009, 09:06
speriamo sia vero! :D

ciao

sperando che mettino da parte il rebrand :stordita:

8800gt g92 -> 9800gt -> gts250 :rotfl: (modifica in più modifica in meno) 3 schede in una :asd:

DVD2005
01-09-2009, 09:58
intanto......... 4-WAY SLI

http://www.evga.com/articles/00501/

queste soluzioni sono fatte a scopo di bench ? o che applicazioni possono trovare ? non mi hanno mai attirato (anche se la scheda madre è bella a vedersi :D )

ciccionamente90
01-09-2009, 10:16
mi aggiungo in quanto "voglioso" di GT300 :sofico:

Bastoner
01-09-2009, 10:35
queste soluzioni sono fatte a scopo di bench ? o che applicazioni possono trovare ? non mi hanno mai attirato (anche se la scheda madre è bella a vedersi :D )

Sono fatte solo per i malati. :D

Defragg
01-09-2009, 12:02
queste soluzioni sono fatte a scopo di bench ? o che applicazioni possono trovare ? non mi hanno mai attirato (anche se la scheda madre è bella a vedersi :D )

Possono andare bene pure per workstation di calcolo distribuito, o CUDA :)

A.L.M.
01-09-2009, 14:27
Nov 09, 1-14th, 500 - 550$ street price

iniziano a girare le date..... su xs......

il tipo ha scritto qualche cagata, ed altre volte ci ha visto giusto.

ma speriamo che a questo giro abbia ragione :p

Secondo Digitimes (che, mi sembra inutile dirlo, è una fonte molto più autorevole del tizio di cui sopra) nella migliore delle ipotesi GT300 potrebbe essere sugli scaffali a dicembre.

Nvidia and AMD are preparing to launch their latest DirectX 11 supporting GPUs in the second half of 2009, according to sources at graphics card makers.

Nvidia is scheduled to complete engineering samples of its DirectX 11-based GT300 GPU at the end of September in order to start shipping in December at the earliest, the sources noted.

Meanwhile, AMD is prepared to launch its DirectX 11-based Radeon HD 5800 series (RV870) in late September and will start mass shipping in October. AMD will launch two models initially, the Radeon HD 5850 and 5870, the sources added.

AMD declined the opportunity to respond to this report saying it cannot comment on unannounced products. Nvidia was also contacted, but did not respond by the time of publication.

http://www.digitimes.com/news/a20090901PD204.html

bobinho94
02-09-2009, 06:29
sperando che mettino da parte il rebrand :stordita:

8800gt g92 -> 9800gt -> gts250 :rotfl: (modifica in più modifica in meno) 3 schede in una :asd:

io ci aggiungerei 9800gtx e 9800gtx+ e poi magari qualke GT300 mascherata (come hanno fatto per la gts250) quindi 5 schede in una...e fra un po 6!!!

Foglia Morta
02-09-2009, 06:51
D10 = generazione DX10 , D11 = le gpu a 40nm DX10.1 e D12 = gpu DX11

http://www.semiaccurate.com/static/uploads/2009/09_september/NV_quarter_roadmap.jpg

si sarà sbagliato , forse intendeva GTX 275 al posto di GTX 280:

http://www.semiaccurate.com/static/uploads/2009/09_september/NV_season_roadmap.jpg

http://www.semiaccurate.com/2009/09/01/nvidia-roadmaps-turn/

ma IMHO non può succedere qualcosa del genere...

Foglia Morta
02-09-2009, 08:58
Io continuo a dare G300 in uscita in Q1 o Q2, qui si ipotizza addirittura un Q3, situazione che sarebbe drammatica, circa un anno di ritardo sulla concorrenza...

Forse perchè ancora non è del tutto chiaro se ci sarà bisogno di respin o possono andare con la produzione di massa... IMO sarà Q1 ( intendo per la disponibilità adeguata ) , il problema sarebbe specialmente nella fascia medio - bassa. Potrebbero ritrovarsi con 4 gpu diverse su schede da $30 a $80 , ci sarebbe una confusione senza precedenti

kiriranshelo
02-09-2009, 14:00
Aggiungiamoci anche la GTX280M, che è un G92 pure lei :asd:



Io continuo a dare G300 in uscita in Q1 o Q2, qui si ipotizza addirittura un Q3, situazione che sarebbe drammatica, circa un anno di ritardo sulla concorrenza...

sono fiducioso per la presentazione a Novembre, ed uscita effettiva a metà dicembre (sempre nel Q1 2010 stiamo)

alex oceano
02-09-2009, 17:01
sono fiducioso per la presentazione a Novembre, ed uscita effettiva a metà dicembre (sempre nel Q1 2010 stiamo)

anche io concordo con il tuo pronostico

d.lo
02-09-2009, 18:42
anche io concordo con il tuo pronostico

motivi?

halduemilauno
02-09-2009, 18:46
http://www.tweaktown.com/news/13100/nvidia_to_show_off_its_own_dx11_hardware_on_september_10th/index.html

Foglia Morta
02-09-2009, 18:51
http://www.tweaktown.com/news/13100/nvidia_to_show_off_its_own_dx11_hardware_on_september_10th/index.html


E' ben visibile il link alla fonte di quell'articolo. è l'articolo già postato in precedenza:

Inizia la FUD-campaign di nVidia?

http://www.brightsideofnews.com/news/2009/9/1/nvidia-schedules-an-event-on-the-same-day-as-atis-evergreen-launch.aspx



E non che ad oggi ce ne sia poca :asd:

halduemilauno
02-09-2009, 19:36
per una presentazione/annuncio/rilascio info del GT300 un giorno importante potrebbe essere il prossimo 30 settembre. potrebbe. sempre fermo restando il periodo 10/18 novembre il + probabile per l'ufficialità.
;)

Foglia Morta
03-09-2009, 16:29
I test di G210 ( GT218 , gpu entry level DX10.1 a 40nm ). Hanno preso la scheda su ebay

http://www.pcgameshardware.com/aid,694223/Geforce-G210-Nvidias-first-DirectX-101-card-reviewed/Reviews/

scorpion73
03-09-2009, 17:29
accidenti! La 4350 gli sta sopra un bel po'...

Kharonte85
03-09-2009, 17:50
Leggendo le caratteristiche rispetto alla 9400gt praticamente hanno dimezzato il bus da 128 a 64bit quindi questa scheda sarà pesantemente limitata dalla bandwidth, cosa non esageratamente problematica dato che è una scheda non adatta al gioco ma per lavoro/film speriamo piuttosto ne facciano versioni anche Fanless.

Non è di sicuro la scheda che stiamo aspettando :D

DVD2005
03-09-2009, 20:51
Leggendo le caratteristiche rispetto alla 9400gt praticamente hanno dimezzato il bus da 128 a 64bit quindi questa scheda sarà pesantemente limitata dalla bandwidth, cosa non esageratamente problematica dato che è una scheda non adatta al gioco ma per lavoro/film speriamo piuttosto ne facciano versioni anche Fanless.

Non è di sicuro la scheda che stiamo aspettando :D

mmm no, direi proprio di no :D

kiriranshelo
04-09-2009, 10:48
...Secondo recenti indiscrezioni il bus sarà a 512bit e come abbiamo visto per la serie GT200 l'utilizzo di un bus a 448 o 512 bit costringe all'utilizzo di chipset piuttosto grossi che devono essere in grado di accogliere tutte le connessioni hardware. Si tratta di un fattore che comporta maggior difficoltà di progettazione e maggiori costi quando sono in ballo configurazioni a doppia GPU. Eppure si tratta di una scelta che ha un pregio non da poco considerando che a questo giro anche le schede Nvidia monteranno la RAM GDDR5 che potrà sfruttare a pieno un bus decisamente ampio che è in grado di garantire una banda passante davvero mostruosa...

Andrea deluxe
07-09-2009, 22:18
http://www.fudzilla.com/content/view/15388/34/

Kharonte85
08-09-2009, 14:03
Speriamo non siano rebrand...

atomo37
08-09-2009, 14:49
http://www.fudzilla.com/content/view/15388/34/

sta new secondo me è come il pesce d'aprile, valore informativo <0

michelgaetano
08-09-2009, 14:54
sta new secondo me è come il pesce d'aprile, valore informativo <0

È fudzilla, eh :asd:

atomo37
08-09-2009, 14:55
È fudzilla, eh :asd:

è stata riportata pure su hwupgrade, ma il valore informativo rimane <0 :D

jomaxicarus
09-09-2009, 00:18
prima usciranno le ati, quindi gia si potra vedere di cosa si tratta e poi nvidia gli aggiungera un 10% di prestazioni.. tac.. al solito.. cmq sono solo mie supposizioni..
per che interessa qualche info in piu a video sulle dx 11:
http://vimeo.com/6122205

kiriranshelo
09-09-2009, 11:53
prima usciranno le ati, quindi gia si potra vedere di cosa si tratta e poi nvidia gli aggiungera un 10% di prestazioni.. tac.. al solito.. cmq sono solo mie supposizioni..
per che interessa qualche info in piu a video sulle dx 11:
http://vimeo.com/6122205

Nvidia farà un salto prestazionale più ampio di ATI, è costretta a farlo perchè quando sarà pronta per le dx11 ATI sarà quasi pronta per un refresh del chip. O sarà così o Nvidia perderà molti clienti

kiriranshelo
09-09-2009, 12:44
è vecchia di qualche mese ma non l'avevo mai letta. (19 maggio 2009)

<<Dopo la notizia dell'imminente taped out delle nuove GPU di casa NVIDIA, il sito tedesco “Hardware Infos” svela le frequenze del nuovo chip G300.

I primi sample del G300 step A1 avranno una frequenza operativa di 700-1600-1100MHz di clock rispettivamente per core, shader e memorie. La nuova GPU con i suoi 512 stream processor dovrebbe raggiungere una capacità teorica di calcolo di 2457GFLOPS. Il sito tedesco, secondo stime del tutto teoriche, valuta intorno al 160% di prestazioni in più del nuovo chip G300 rispetto al predecessore G200.

Per quanto riguarda le memorie, grazie all'utilizzo di chip GDDR5 l'ampiezza di banda alla frequenza di 1100MHz sarà pari a 281.6GB/s; come termine di paragone in una GTX280 con frequenze di memoria pari a 1100MHz, la banda passante è di 141GB/s, la metà rispetto alle schede di prossima generazione.>>

kiriranshelo
09-09-2009, 12:49
http://www.techpowerup.com/102608/NVIDIA_Plans_GT300_Demos_in_September.html

EDIT: http://www.brightsideofnews.com/news/2009/9/1/nvidia-schedules-an-event-on-the-same-day-as-atis-evergreen-launch.aspx

EDIT 2:
The GT300 part targets a thermal range of 225W and should feature two 6-pin PEG [PCI Express Graphics] power connectors, same as on the current GTX285 graphics card. The target was not previously rumored 300W, e.g. one 8-pin and one 6-pin PCIe. Then again, nVidia should hold off from opening the champagne, since ATI's Evergreen uses just one 6-pin PEG. Dual Evergreen will probably use the conventional high-end arrangement off one 8-pin and one 6-pin PEG connector.

There you go. You have a 40nm chip targeting clocks of 700 MHz for the core, 1600 MHz for those 512 MIMD shader cores and nice 1.1 GHz QDR, e.g. 4.4 GT/s for the GDDR5 memory... sucking same amount of power as the actual GTX285. Expect Jen-Hsun and Ujesh to be all over the power features inside the chip, since the chip architects sweated blood over this one.

http://www.brightsideofnews.com/news/2009/6/8/nvidia-gt300-targets-225w-tdp.aspx

Foglia Morta
09-09-2009, 12:51
tutta roba già postata nel corso del thread

kiriranshelo
09-09-2009, 12:54
tutta roba già postata nel corso del thread

ah... non l'avevo vista, niente :(

Foglia Morta
09-09-2009, 12:57
ah... non l'avevo vista, niente :(

normale... è roba vecchia e non ci sono news da un po di tempo ;)

michelgaetano
09-09-2009, 12:59
normale... è roba vecchia e non ci sono news da un po di tempo ;)

Foglia, tu di cosa credi parlasse Corsini, tenendo presente che non avremo comunque specifiche tra le rivelazioni di venerdì?

Kharonte85
09-09-2009, 13:10
Foglia, tu di cosa credi parlasse Corsini, tenendo presente che non avremo comunque specifiche tra le rivelazioni di venerdì?

Sarà meglio parlarne nell'altro thread?


Comunque l'unica "novità" degna di nota è questa demo di nvidia che ovviamente vorrà mettere la pulce nell'orecchio al suo concorrente e tenersi buoni i potenziali clienti...cmq anche considerando che la disponibilità delle schede AMD arriverà ad Ottobre sicuramente il ritardo ci sarà quindi dubito che la mossa di nvidia riesca a fare scendere la scimmia (cresciuta a dismisura fra gli appassionati dato il notevole ristagno tecnologico nel settore)

michelgaetano
09-09-2009, 13:10
Sarà meglio parlarne nell'altro thread?


Comunque l'unica "novità" degna di nota è questa demo di nvidia che ovviamente vorrà mettere la pulce nell'orecchio al suo concorrente e tenersi buoni i potenziali clienti...cmq anche considerando che la disponibilità delle schede AMD arriverà ad Ottobre sicuramente il ritardo ci sarà quindi dubito che la mossa di nvidia riesca a distogliere la scimmia (cresciuta a dismisura fra gli appassionati dato il notevole ristagno tecnologico nel settore)

...

:doh:

Ho letto aspettando ed ho sbagliato thread, sorry! :ave: :muro:

Foglia Morta
09-09-2009, 13:14
Foglia, tu di cosa credi parlasse Corsini, tenendo presente che non avremo comunque specifiche tra le rivelazioni di venerdì?

Non ho letto tutto ciò che ha detto Corsini , se ti riferisci a ciò di cui ha parlato relativamente a Giovedì sera o Venerdì mi sembra molto strano che si possa trattare di qualcosa con un elevato potenziale di hype... non esiste novità al mondo di cui non si legga qualcosina prima della data ufficiale ( nemmeno dai cinesi :eek: ) . Si possono solo fare ipotesi, non può essere qualcosa di approfondito perchè sarebbe qualcosa che avviene pochissimo dopo il press event di San Francisco , quindi direi che sia qualcosa di concordato con AMD . Forse una preview dei titoli DX11 che ci saranno a breve... non ne ho idea :boh:

michelgaetano
09-09-2009, 13:17
Non ho letto tutto ciò che ha detto Corsini , se ti riferisci a ciò di cui ha parlato relativamente a Giovedì sera o Venerdì mi sembra molto strano che si possa trattare di qualcosa con un elevato potenziale di hype... non esiste novità al mondo di cui non si legga qualcosina prima della data ufficiale ( nemmeno dai cinesi :eek: ) . Si possono solo fare ipotesi, non può essere qualcosa di approfondito perchè sarebbe qualcosa che avviene pochissimo dopo il press event di San Francisco , quindi direi che sia qualcosa di concordato con AMD . Forse una preview dei titoli DX11 che ci saranno a breve... non ne ho idea :boh:

Ti rispondo nell'altro thread :D

Kharonte85
09-09-2009, 13:20
Ho i miei dubbi, ma qualunque cosa siano, sicuramente non è quello che stiamo aspettando in questo thread :D

(Che fra l'altro se non cambiano idea un'altra volta dovremmo far cambiare il titolo in Aspettando G300, visto che sembrerebbe certo che la sigla GTX non ci sarà più )
Mah, probabilmente saranno gli aggiornamenti delle schede per portatili in dx10.1 derivati a 40nm con GDDR5 delle schede già presenti? Di cui fra l'altro temo e non poco il nome commerciale (che si inventeranno stavolta? http://gaming.ngi.it/images/smilies/afraid.gif)

Questa strategia di nvidia secondo me fa acqua da tutte le parti...:boh:

kiriranshelo
09-09-2009, 13:52
...Questa strategia di nvidia secondo me fa acqua da tutte le parti...:boh:

quello di sicuro perchè sono estremamente in ritardo...se hanno capito che devono cambiare strategia di progressione hardware forse con il tempo potranno recuperare

quello di sicuro perchè sono estremamente in ritardo...

Però dipende anche moltissimo da quanto è potente il G300, se riescono a renderlo talmente prestante da stare davanti ad ATI anche con il refresh del chip previsto per febbraio/marzo non sò chi ha fallito strategia :stordita:

supersalam
11-09-2009, 14:24
Non vorrei dire, ma secondo me è studiato a tavolino questo ritardo. Pensateci, praticamente in questo finale di anno non si aspettano gioconi capaci di mettere in crisi le attuali GTX 275 e superiori. Perchè andare a combattere contro AMD quando è possibile prendere l'avversario in contropiede.

I problemi se li fanno quelli che "come me" devono passare ad una nuova scheda video e non vogliono spendere soldi in GTX200 e quindi vogliono le GTX300 ora.

Horizont
11-09-2009, 14:35
Non vorrei dire, ma secondo me è studiato a tavolino questo ritardo. Pensateci, praticamente in questo finale di anno non si aspettano gioconi capaci di mettere in crisi le attuali GTX 275 e superiori. Perchè andare a combattere contro AMD quando è possibile prendere l'avversario in contropiede.

I problemi se li fanno quelli che "come me" devono passare ad una nuova scheda video e non vogliono spendere soldi in GTX200 e quindi vogliono le GTX300 ora.

la 8800GT rulla ancora più che discretamente ;)
sarà un'attesa non troppo snervante

kiriranshelo
11-09-2009, 15:02
Non vorrei dire, ma secondo me è studiato a tavolino questo ritardo. Pensateci, praticamente in questo finale di anno non si aspettano gioconi capaci di mettere in crisi le attuali GTX 275 e superiori. Perchè andare a combattere contro AMD quando è possibile prendere l'avversario in contropiede.

I problemi se li fanno quelli che "come me" devono passare ad una nuova scheda video e non vogliono spendere soldi in GTX200 e quindi vogliono le GTX300 ora.

uhm... non credo proprio, perderanno comunque un pò di clienti perchè vorranno sfoggiarsi ora della DX11. può darsi che abbiamo un pò più di ritardo per realizzare una piattaforma più performante del necessario per controbattere ATI poi direttamente con il refresh del chip di febbraio/marzo

d.lo
11-09-2009, 16:07
uhm... non credo proprio, perderanno comunque un pò di clienti perchè vorranno sfoggiarsi ora della DX11. può darsi che abbiamo un pò più di ritardo per realizzare una piattaforma più performante del necessario per controbattere ATI poi direttamente con il refresh del chip di febbraio/marzo

Tanto delle dx11 ci Sara ben poco di cui fare mostra

d.lo
11-09-2009, 16:17
http://www.hwupgrade.it/forum/showpost.php?p=28835657&postcount=8924

Appunto tutta roba che uscirà dopo dicembre quando poco mancherà, si spera al gt 300

appleroof
11-09-2009, 17:20
Appunto tutta roba che uscirà dopo dicembre quando poco mancherà, si spera al gt 300

Io avrei detto "appunto" e basta :D

DVD2005
11-09-2009, 18:05
A dire il vero i primi 3 escono proprio a dicembre...

basta che non siano come i primi titoli dx10 usciti :fagiano:

Athlon 64 3000+
11-09-2009, 18:38
Ora che stanno per uscire le HD 5000 series nvidia si deve dare una mossa a far uscire GT300 e spero che sia bello tosto perchè vedere la HD 5870 a 399$ per via della non concorrenza non mi fa per niente piacere.
:(

gervi
13-09-2009, 20:07
si sa se è confermata una architettuta full-mimd x gt 300 ?????

gervi
13-09-2009, 22:17
Per ora in realtà non è confermato nulla, nel senso che non se ne sa niente

ma i primi sample di gt 300 high-end , giungeranno ai partner a fine mese, giusto???

in tal caso da fine mese dovrebbero iniziare a circolare le prime specifiche ufficiali??

d.lo
13-09-2009, 22:25
A dire il vero i primi 3 escono proprio a dicembre...

poco cambia...
per me almeno...

Defragg
13-09-2009, 23:25
Anche per me, visto che non credo che sarà già uscita la scheda che voglio...

Intendi questa http://www.youtube.com/watch?v=TkIytHD5v9c ??

Kharonte85
13-09-2009, 23:46
Ci ho messo un po' a capirla...:asd:

DVD2005
14-09-2009, 10:21
Ci ho messo un po' a capirla...:asd:

è per fini intenditori :D

G80
14-09-2009, 13:24
Iscritto!
salve a tutti.:)

Sono assai curioso di vedere questa vociferata implementazione MIMD su core SIMD (detta grossolanamente).
Una cosa turba la mia piccola mente(catta):nel caso venga confermata la totale assenza di unità tessellator,proprio ora che sono requisito delle dx11,non rischierebbe Nvidia di trovarsi maggiormente in difficoltà in giochi shader limited dovendo condividere le risorse computazionali?
Per quanto é ora speculato,inoltre,pare si sian resi conto che forse la sotto-unità MUL é più utile nello sfoggiare numeri teorici che macinare pixel.
Qualcuno sa se é invece confermata la presenza di unità MADD+MUL?
Chiedo venia se già se n'è parlato,ma la rete da me è arrivata da poco e con un braccio ingessato la navigazione è ardua...:muro:

Grazie in anticipo!

Kharonte85
14-09-2009, 13:27
Purtroppo non si ha nessuna conferma delle questioni che hai sollevato...non c'è altro da fare che aspettare.

hermanss
14-09-2009, 17:16
Qualcuno sa quanti ampere sulla +12V ci vorranno + o - per queste vga?

Andrea deluxe
14-09-2009, 17:35
Qualcuno sa quanti ampere sulla +12V ci vorranno + o - per queste vga?

non si sa ancora niente di niente

Bastoner
14-09-2009, 17:52
Intendi questa http://www.youtube.com/watch?v=TkIytHD5v9c ??

:sbonk:

Simedan1985
14-09-2009, 23:26
Amazza ragazzi...qui si tace di brutto.Ma sicuro che per novembre qualcosa esce?

ippo.g
14-09-2009, 23:43
Iscritto!
salve a tutti.:)

Sono assai curioso di vedere questa vociferata implementazione MIMD su core SIMD (detta grossolanamente).
Una cosa turba la mia piccola mente(catta):nel caso venga confermata la totale assenza di unità tessellator,proprio ora che sono requisito delle dx11,non rischierebbe Nvidia di trovarsi maggiormente in difficoltà in giochi shader limited dovendo condividere le risorse computazionali?
Per quanto é ora speculato,inoltre,pare si sian resi conto che forse la sotto-unità MUL é più utile nello sfoggiare numeri teorici che macinare pixel.
Qualcuno sa se é invece confermata la presenza di unità MADD+MUL?
Chiedo venia se già se n'è parlato,ma la rete da me è arrivata da poco e con un braccio ingessato la navigazione è ardua...:muro:

Grazie in anticipo!
non ciò capito una mazza di quello che hai chiesto :fagiano: cmq dubito che se ne sia parlato, non qui almeno :stordita:

G80
15-09-2009, 00:23
non ciò capito una mazza di quello che hai chiesto :fagiano: cmq dubito che se ne sia parlato, non qui almeno :stordita:

Sono speculazioni fatte da alcuni utenti,ora non ricordo di preciso la fonte ma mi pare di averlo letto su un forum di Beyond3D...:stordita:
In effetti a quanto pare sul fronte Nvidia tutto tace,mentre sul thread riguardante RV870 le novità paiono tante e buone...
Il buon bilanciamento (a mio avviso) di textures unit/stream processor presenti in rv770 pare stia dando buoni frutti anche nella sua nuova incarnazione (rv870).

Legolas84
15-09-2009, 09:22
L'ultima volta che si sapeva poco sul fronte nVIDIA è uscito G80.... una delle schede più rivoluzionarie della storia.... (addirittura si pensava fino all'ultimo che avesse unità Pixel e Vertex separate.....).... speriamo sia così anche questa volta!

DVD2005
15-09-2009, 10:28
La volta prima invece è uscito NV30. Speriamo che sia come dici te, o la vedo dura...

vedremo.....

okorop
15-09-2009, 10:39
A quanto si è capito nemmeno troppo tardi. Nel senso che una preview si dovrebbe vedere prima della fine dell'anno.

a mio avviso una preview almeno a dicembre nvida la farà per riuscire a dissuadere le persone dal comprare ati in concomitanza con il natale visto che poi i mesi piu' difficili per questo mercato sono il q1 e parte del q2.....

kiriranshelo
15-09-2009, 10:54
A quanto si è capito nemmeno troppo tardi. Nel senso che una preview si dovrebbe vedere prima della fine dell'anno.

in questo mese è prevista una demo del G300. Cosa voglia dire però una demo non lo sò :rolleyes:
Sono fiducioso che per natale siano pronti per il commercio

Legolas84
15-09-2009, 13:05
La volta prima invece è uscito NV30. Speriamo che sia come dici te, o la vedo dura...

ai tempi di nv30 si era, al contrario, parlato fin troppo... ricordo ancora cosa ci si aspettava.... c'era un fermento qui sul forum, rumor su rumor....

goldorak
15-09-2009, 13:24
in questo mese è prevista una demo del G300. Cosa voglia dire però una demo non lo sò :rolleyes:
Sono fiducioso che per natale siano pronti per il commercio

Per natale ? :sbonk: Non ci sperare.
Non dico che debbano presentare la scheda seduta stante, ma almeno rilasciare le specifiche.

Legolas84
15-09-2009, 13:50
Per natale ? :sbonk: Non ci sperare.
Non dico che debbano presentare la scheda seduta stante, ma almeno rilasciare le specifiche.

......pure qua sei? Pensavo fossi solo nella sezione console....

kiriranshelo
15-09-2009, 13:58
Per natale ? :sbonk: Non ci sperare.
Non dico che debbano presentare la scheda seduta stante, ma almeno rilasciare le specifiche.

può darsi che stiano tenendo tutto segreto per non farsi 'fregare' da ATI con il refresh. Alla fine anche di ATI non si conosceva granchè prima della presentazione alla stampa (10 settembre)

Andrea deluxe
15-09-2009, 14:12
si era vociferato che nvidia avrebbe fatto trapelare qualcosa in data 10/09/09 ed invece silenzio tomba.....

kiriranshelo
15-09-2009, 14:24
si era vociferato che nvidia avrebbe fatto trapelare qualcosa in data 10/09/09 ed invece silenzio tomba.....

verso fine mese c'è la demo. lì diranno qualcosa.
Comunque, inevitabilmente, dovranno via via rilasciare informazioni per aumentare l'hype, siccome ormai l'hype delle dx11 l'hai già sfruttato ATI

Pat77
15-09-2009, 16:04
verso fine mese c'è la demo. lì diranno qualcosa.
Comunque, inevitabilmente, dovranno via via rilasciare informazioni per aumentare l'hype, siccome ormai l'hype delle dx11 l'hai già sfruttato ATI

Il problema è che imho manca la necessità pratica di qualcosa di più veloce se non per sfizio, e dx11 ho molti dubbi che saranno un standard futuro, anzi penso che si farà tutto in dx9 aggiungendo qualcosina man mano senza mai qualcosa di nativo.

ilratman
15-09-2009, 16:08
iscritto anche qui, vediamo se nvidi mi stupisce con una scheda finalmente inferirore ai 24cm come la mia ottima e attuale 8800gt amp!

appleroof
15-09-2009, 16:16
Il problema è che imho manca la necessità pratica di qualcosa di più veloce se non per sfizio, e dx11 ho molti dubbi che saranno un standard futuro, anzi penso che si farà tutto in dx9 aggiungendo qualcosina man mano senza mai qualcosa di nativo.

io pure la penso come te ma sono più ottimista in merito al fatto che le dx11 arriveranno a sostituire finalmente le dx9 del tutto: imho questo succederà più o meno grazie all'avvento delle nuove consolle :stordita:

nel frattempo cmq credo che gli effetti dx11 "appiccicati" ai giochi dx9 farà si che i giochi prossimi venturi giovino cmq di maggiore potenza elaborativa, in fullhd e filtri attivati, e per ora è l'unico senso che trovo alle nuove vga dx11

poi chissà..

halduemilauno
15-09-2009, 16:48
si era vociferato che nvidia avrebbe fatto trapelare qualcosa in data 10/09/09 ed invece silenzio tomba.....

il 10 09 nulla doveva trapalare. a che scopo poi se le schede amd saranno divulgate il 23? il giorno + probabile potrebbe essere il 30 09.

Pat77
15-09-2009, 16:48
io pure la penso come te ma sono più ottimista in merito al fatto che le dx11 arriveranno a sostituire finalmente le dx9 del tutto: imho questo succederà più o meno grazie all'avvento delle nuove consolle :stordita:

nel frattempo cmq credo che gli effetti dx11 "appiccicati" ai giochi dx9 farà si che i giochi prossimi venturi giovino cmq di maggiore potenza elaborativa, in fullhd e filtri attivati, e per ora è l'unico senso che trovo alle nuove vga dx11

poi chissà..

Esatto, Dx11 saranno la base delle nuove console ed è per questo che chi sostituirà le schede dx9 in questo turno, o meglio, dopo la prima ondata di prodotti, farà un grande affare imho.
Poi io che gioco su note, che ha meno espandibilità, sono interessatoparticolarmente a questo aspetto.

ippo.g
15-09-2009, 17:04
ho appena visto che

S.T.A.L.K.E.R.: Call of Pripyat suporterà le DX11, cio si tradurrà nell'attivazione di quali effetti visivi, se non sbaglio le DX10 consentivano di attivare solo le superfici bagnate dinamiche ed il fumo volumetrico dinamico, con le DX11?

Andrea deluxe
15-09-2009, 22:37
o shit!

http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/

Trokji
15-09-2009, 22:40
o shit!

http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/

ora ho poco tempo.. mi fai un sunto :confused:

Andrea deluxe
15-09-2009, 22:42
ora ho poco tempo.. mi fai un sunto :confused:

rese del 2% a wafer.....

praticamente "se e' vero" sono un saco, ma un sacco di soldi buttati.....

Trokji
15-09-2009, 22:43
rese del 2% a wafer.....

praticamente "se e' vero" sono un saco, ma un sacco di soldi buttati.....

Scusa l'ignoranza.. significherebbe? che producono 100 chips e poi ne funzionano 2...?:mc: :D

Kharonte85
15-09-2009, 22:44
o shit!

http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/

by Charlie Demerjian


Per un attimo avevo temuto...:asd:

Andrea deluxe
15-09-2009, 22:44
Scusa l'ignoranza.. significherebbe? che producono 100 chips e poi ne funzionano 2...?:mc: :D

piu' o meno....

ArCH85
15-09-2009, 22:44
Scusa l'ignoranza.. significherebbe? che producono 100 chips e poi ne funzionano 2...?:mc: :D

circa si...

sono affidabili sti tizi di semiaccurate? o sono a livello fud?

Andrea deluxe
15-09-2009, 22:46
Se questo è vero si rischia di non vedere G300 nemmeno nel Q2:what:
big chip!
big trouble men!:stordita:

Trokji
15-09-2009, 22:46
Secondo alcuni Charlie è un anti-nVidia.

Secondo me si limita a non mandarle a dire.

Vedremo.

Ma l'attuale resa qual è? quanto incide sui costi? :confused: :confused:

Andrea deluxe
15-09-2009, 22:49
Ma l'attuale resa qual è? quanto incide sui costi? :confused: :confused:

una resa pessima e' intorno al 10%

una resa sufficente intorno al 20%

una resa buona intorno al 30%


con i chip di fascia alta....


qui si (sparla) del 2%..... cosa tragica (a dir poco)

Trokji
15-09-2009, 22:50
una resa pessima e' intorno al 10%

una resa sufficente intorno al 20%

una resa buona intorno al 30%


con i chip di fascia alta....


qui si (sparla) del 2%..... cosa tragica (a dir poco)

Può darsi che però riescano a migliorarla.. oppure siano solo voci.. boh :stordita:

ArCH85
15-09-2009, 22:52
Può darsi che però riescano a migliorarla.. oppure siano solo voci.. boh :stordita:


anche perchè altrimenti sono caxxi amari.. molto amari..

Trokji
15-09-2009, 22:53
anche perchè altrimenti sono caxxi amari.. molto amari..

Se fosse vero dovranno far uscire le loro schede a 800 euro vuoi dire...:confused:

Kharonte85
15-09-2009, 22:57
Secondo alcuni Charlie è un anti-nVidia.

Secondo me si limita a non mandarle a dire.

Vedremo.
Maddai...prendi google e un suo articolo a caso e hai la risposta...

E' forse il piu' anti-nvidia sulla faccia della terra ed è peggio di Fudzilla perchè se Fuad non è una cima (non per colpa sua), almeno non è in cattiva fede...perchè questa sembra una mossa per far crollare il titolo in borsa.

DVD2005
15-09-2009, 23:04
Maddai...prendi google e un suo articolo a caso e hai la risposta...

E' forse il piu' anti-nvidia sulla faccia della terra ed è peggio di Fudzilla perchè se Fuad non è una cima (non per colpa sua), almeno non è in cattiva fede...perchè questa sembra una mossa per far crollare il titolo in borsa.

avevo letto tempo fa un suo articolo ed il suo taglio giornalistico non mi era piaciuto, non per il contenuto ma per come esponeva le cose.

Kharonte85
15-09-2009, 23:13
Perché gli investitori guardano quello che scrive Charlie Demerjian prima di decidere se vendere o comprare. Per favore :asd:

Comunque non è una guerra fra chi sostiene che solitamente ha ragione e chi sostiene che è un hateboy nVidia. Alcuni hanno un'idea sul personaggio, altri una diversa. Sopravviveremo.
Ovviamente no, pero' se diffonde l'idea che la nuova scheda nvidia non arriverà mai (perchè a quei livelli un prodotto del genere verrebbe abortito) la gente correrebbe a comprare le nuove fiammanti AMD/ATI senza esitare...
avevo letto tempo fa un suo articolo ed il suo taglio giornalistico non mi era piaciuto, non per il contenuto ma per come esponeva le cose.
Semplicemente sfotte sempre NVIDIA e loda AMD/ATI...dimmi tu se a uno così bisogna pure dare corda :D

The_SaN
15-09-2009, 23:15
Spero davvero che questo 2% sia una bufala.
Anche se facendo 2 conti, il chip della gtx280 aveva una resa iniziale del 10%...
Se mettiamo in conto la grandezza e la complessitá del nuovo chip, i problemi di resa iniziali dei 40nm...il 2% , purtroppo, ci puó stare.

Con i miglioramenti di resa dei 40nm la situazione dovrebbe diventare piú rosea.
Ma credo che ritarderanno un po' per questo.

G80
15-09-2009, 23:35
Se fosse vero dovranno far uscire le loro schede a 800 euro vuoi dire...:confused:

O che il chip subirà brutali abbassamenti d frequenza....
però non conosco l'affidabilità di questa fonte....

bye!

Trokji
15-09-2009, 23:46
O in generale rimaneggiamenti nei numeri grezzi (meno shader, minori frequenze, meno qualcosa).

Oppure chi lo sa, magari rinunciano e poco dopo l'uscita con disponibilità solo di marketing esce lo shrink.

Con tutto il rumore che c'è dall'altra parte se avessero qualcosa di pronto avrebbero appeso gli striscioni pur di attirare l'attenzione.

Se c'è un silenzio di tomba è perché per ora non c'è nulla, visto che si riducono a dire astrusità come che una GTS250 aka 9800GTX aka 8800GTS va più veloce di una HD5870 :asd:

magari semplicemente fanno una mega chippone con la stessa architettura uguale della 8800 gtx.. così tagliano la testa al toro..:) :D

Legolas84
16-09-2009, 09:23
O in generale rimaneggiamenti nei numeri grezzi (meno shader, minori frequenze, meno qualcosa).

Oppure chi lo sa, magari rinunciano e poco dopo l'uscita con disponibilità solo di marketing esce lo shrink.

Con tutto il rumore che c'è dall'altra parte se avessero qualcosa di pronto avrebbero appeso gli striscioni pur di attirare l'attenzione.

Se c'è un silenzio di tomba è perché per ora non c'è nulla, visto che si riducono a dire astrusità come che una GTS250 aka 9800GTX aka 8800GTS va più veloce di una HD5870 :asd:

lol


Be, per fortuna che la notizia della pagina precedente viene da un tizio che come affidabilità ha un valore negativo.

mircocatta
16-09-2009, 09:26
che mazzata che prenderà nvidia :confused:

arrivare in ritardo anche solo di 2 mesi su una nuova generazione di directx l'avrebbe parecchio svantaggiata, ma se le voci sono vere, altro che due mesi, qua si parla di mooolto più tempo, e chi le aspetta le gt300 di nvidia per avere le directx11 ???? le ati andranno a ruba

complici anche le software house che stanno già preparando titoli interessanti directx11.. e nvidia non avrà a disposizione tale offerta sul mercato

ippo.g
16-09-2009, 09:41
che mazzata che prenderà nvidia :confused:

arrivare in ritardo anche solo di 2 mesi su una nuova generazione di directx l'avrebbe parecchio svantaggiata, ma se le voci sono vere, altro che due mesi, qua si parla di mooolto più tempo, e chi le aspetta le gt300 di nvidia per avere le directx11 ???? le ati andranno a ruba

complici anche le software house che stanno già preparando titoli interessanti directx11.. e nvidia non avrà a disposizione tale offerta sul mercato

guarda non sto aspettando altro che spendere 600 euro per le DX11

G80
16-09-2009, 09:48
O in generale rimaneggiamenti nei numeri grezzi (meno shader, minori frequenze, meno qualcosa).

Oppure chi lo sa, magari rinunciano e poco dopo l'uscita con disponibilità solo di marketing esce lo shrink.

Con tutto il rumore che c'è dall'altra parte se avessero qualcosa di pronto avrebbero appeso gli striscioni pur di attirare l'attenzione.

Se c'è un silenzio di tomba è perché per ora non c'è nulla, visto che si riducono a dire astrusità come che una GTS250 aka 9800GTX aka 8800GTS va più veloce di una HD5870 :asd:

Come non quotare!

halduemilauno
16-09-2009, 09:56
ora ho poco tempo.. mi fai un sunto :confused:

solo patetico


è la traduzione del titolo.

halduemilauno
16-09-2009, 09:59
Maddai...prendi google e un suo articolo a caso e hai la risposta...

E' forse il piu' anti-nvidia sulla faccia della terra ed è peggio di Fudzilla perchè se Fuad non è una cima (non per colpa sua), almeno non è in cattiva fede...perchè questa sembra una mossa per far crollare il titolo in borsa.

è persino dichiarato.

halduemilauno
16-09-2009, 10:01
Ovviamente no, pero' se diffonde l'idea che la nuova scheda nvidia non arriverà mai (perchè a quei livelli un prodotto del genere verrebbe abortito) la gente correrebbe a comprare le nuove fiammanti AMD/ATI senza esitare...

Semplicemente sfotte sempre NVIDIA e loda AMD/ATI...dimmi tu se a uno così bisogna pure dare corda :D

quoto.
;)

goldorak
16-09-2009, 10:17
Maddai...prendi google e un suo articolo a caso e hai la risposta...

E' forse il piu' anti-nvidia sulla faccia della terra ed è peggio di Fudzilla perchè se Fuad non è una cima (non per colpa sua), almeno non è in cattiva fede...perchè questa sembra una mossa per far crollare il titolo in borsa.

avevo letto tempo fa un suo articolo ed il suo taglio giornalistico non mi era piaciuto, non per il contenuto ma per come esponeva le cose.

Ovviamente no, pero' se diffonde l'idea che la nuova scheda nvidia non arriverà mai (perchè a quei livelli un prodotto del genere verrebbe abortito) la gente correrebbe a comprare le nuove fiammanti AMD/ATI senza esitare...

Semplicemente sfotte sempre NVIDIA e loda AMD/ATI...dimmi tu se a uno così bisogna pure dare corda :D

solo patetico


è la traduzione del titolo.

Chissa' perche' ogni volta che Charlie Demerjian apre bocca, tutti a criticare il modo in cui dice le cose INVECE di concentrarsi sui DATI OGGETTIVI dei suoi articoli.
Ci siamo dimenticati come sia stato lui a mettere alla luce del sole le gpu diffettate di Nvidia, quando quest'ultima recitava la litania tutto a posto, e' tutto a posto non esiste alcun problema ? :rolleyes:
Se veramente il yield di G300 e' intorno al 2% sono c@zzi amari, e questo vale sia che lo dica Charlie, sia che la notizia venga riportata su Techreport, su Anand o su Hwupgrade. :O

fularino
16-09-2009, 10:18
Leggendo in giro non vedo tutti questi Gran Giochi ottimizzati per le DX 11, anzi a dire il vero sono pochi anche quelli in DX 10.
Secondo me le nuove DX inizieranno ad essere sfruttate a metà 2010.

Trokji
16-09-2009, 10:19
Leggendo in giro non vedo tutti questi Gran Giochi ottimizzati per le DX 11, anzi a dire il vero sono pochi anche quelli in DX 10.
Secondo me le nuove DX inizieranno ad essere sfruttate a metà 2010.

questo è molto probabile anzi quasi scontato.. anche sulle dx 10 non abbiamo avuto grossi usi (giochi nativi forse proprio ancora non ci sono).. ma del resto è stato quasi semrpe così in informatica.. :muro: :rolleyes:

Foglia Morta
16-09-2009, 10:20
Kyle Bennett ( recensore di hardocp ) relativamente a quell'articolo:

FWIW, I heard very similar information from two other sources recently.

http://www.hardforum.com/showpost.php?p=1034622662&postcount=36

halduemilauno
16-09-2009, 10:22
Novità da Corsini:



http://www.hwupgrade.it/articoli/cpu/2281/amd-athlon-ii-x4-620-quad-core-a-meno-di-100_12.html

ebbene dov'è la novità? son 4 mesi che vado dicendo che rispetto a seven amd è in vantaggio di una mesata e nvidia in ritardo di una mesata.
quindi? la mesata di nvidia aumenterà? vedremo.
se DIO vorrà saremo qui.

michelgaetano
16-09-2009, 10:27
Kyle Bennett ( recensore di hardocp ) relativamente a quell'articolo:

FWIW, I heard very similar information from two other sources recently.

http://www.hardforum.com/showpost.php?p=1034622662&postcount=36

Non è un bel sentire :(

halduemilauno
16-09-2009, 10:31
Kyle Bennett ( recensore di hardocp ) relativamente a quell'articolo:

FWIW, I heard very similar information from two other sources recently.

http://www.hardforum.com/showpost.php?p=1034622662&postcount=36
ma significa anche che il chip c'è, che è pronto solo che se dovesse uscire oggi uscirebbe con il contagocce ma fra un 10 settimane???
tutto qui.

Kharonte85
16-09-2009, 10:35
Chissa' perche' ogni volta che Charlie Demerjian apre bocca, tutti a criticare il modo in cui dice le cose INVECE di concentrarsi sui DATI OGGETTIVI dei suoi articoli.
Ci siamo dimenticati come sia stato lui a mettere alla luce del sole le gpu diffettate di Nvidia, quando quest'ultima recitava la litania tutto a posto, e' tutto a posto non esiste alcun problema ? :rolleyes:
Se veramente il yield di G300 e' intorno al 2% sono c@zzi amari, e questo vale sia che lo dica Charlie, sia che la notizia venga riportata su Techreport, su Anand o su Hwupgrade. :O
Invece finche' lo dice lui per me è come se non parlasse...non mi sembra così difficile da capire...:fagiano:

halduemilauno
16-09-2009, 10:42
Anche lui l'ho difficilmente visto sbagliare, ma che vuoi sarà anche lui un hateboy nVidia... :rolleyes:



E' una notizia postata oggi. Se ne hai di più interessanti accomodati...

come gia detto su questo argomento son mesi che lo vado dicendo. poi se leggi bene è anche citato quel che potrebbe accadere fra un paio di settimane(anche questo anticipato da me tempo fa)e per quello che intendono fare di chip ne basta uno o pochissimi. lo stesso cd non sa cosa potrebbe accadere fra diverse settimane magari fra una decina di esse la % potrebbe diventare il 20. chissa?

kiriranshelo
16-09-2009, 10:58
Chissa' perche'...
Se veramente il yield di G300 e' intorno al 2% sono c@zzi amari, e questo vale sia che lo dica Charlie, sia che la notizia venga riportata su Techreport, su Anand o su Hwupgrade. :O

Miseriaccia! mi sa che col cavolo che riescono ad essere pronti per natale. Resa troppo ed esageratamente bassa con una resa così i prezzi competitivi se li sogna, come anche i prezzi di uscita di ATI

Mikele74ap
16-09-2009, 11:12
Perchè i prezzi in uscita di ATI quali sono? ci sono dati ufficiali?

michelgaetano
16-09-2009, 11:14
Perchè i prezzoi in uscita di ATI quali sono? ci sono dati ufficiali?

Dai 249 ai 399$ a quanto sembra. Ma si aspettano conferme.

mircocatta
16-09-2009, 11:14
guarda non sto aspettando altro che spendere 600 euro per le DX11

peccato che invece la maggioranza la pensi così (intendo l'utente medio)

la gente ha comprato schede directx10 o 10.1 quando giochi per quelle api non c'erano, figurati ora che giochi per le dx11 ci saranno a breve..

goldorak
16-09-2009, 11:17
Anche lui l'ho difficilmente visto sbagliare, ma che vuoi sarà anche lui un hateboy nVidia... :rolleyes:


Ci sono troppi indizi che puntano ad una situazione del tipo R600/FX Ultra.
Yields inesistenti (1.7% :asd: )
Mettono l'accento sul PhysX, una tecnologia inutile quanto il Truform, e che verra' resa obsoleta da OpenCL e Havok.
Non aprono bocca, forse perche' non hanno niente da dire.

ilratman
16-09-2009, 11:20
Perchè i prezzi in uscita di ATI quali sono? ci sono dati ufficiali?

dovrebbero essere 249$ per la 5850 che va come la gtx285 e 349$ per la 5870 che va più o meno come la gtx295!

michelgaetano
16-09-2009, 11:21
dovrebbero essere 249$ per la 5850 che va come la gtx285 e 349$ per la 5870 che va più o meno come la gtx295!

Se sono confermati quei bench, va ben oltre: sempre da quei test tra 5850 e 5870 c'era un 15 % o poco più. Ma appunto attendiamo conferme :D

Crysis90
16-09-2009, 12:18
http://www.fudzilla.com/content/view/15535/1/

halduemilauno
16-09-2009, 12:26
http://www.fudzilla.com/content/view/15535/1/

A few people confirm


Nvidia is still not giving and hard details about its chip that we still call GT300 but one thing is getting quite certain. A few people who saw just leaked performance date of ATI's soon to launch Radeon HD 5870 have told Fudzilla that they are absolutely confident that GT300 will win over Radeon HD 5870.

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

nulla di nuovo. tutto gia detto e visto.
;)

Pat77
16-09-2009, 12:46
La base di g80 era ottima e la differenza potrebbe proprio essere di contenuto piuttosto che di "quantità", il che renderebbe il passo avanti notevole.

A.L.M.
16-09-2009, 13:04
A few people confirm


Nvidia is still not giving and hard details about its chip that we still call GT300 but one thing is getting quite certain. A few people who saw just leaked performance date of ATI's soon to launch Radeon HD 5870 have told Fudzilla that they are absolutely confident that GT300 will win over Radeon HD 5870.

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

nulla di nuovo. tutto gia detto e visto.
;)


Io direi che, a prescindere da quello che si sente in giro, se NVidia farà in qualche modo trapelare qualcosa su G300 tra la presentazione di RV870 e quella di R800 (qualcosa tipo quello che fece AMD con le HD4700), allora potrebbe anche essere che prima di fine anno si vedrà qualcosa da NVidia.
Altrimenti se ne parla ad inizio d'anno prossimo: se davvero NVidia ha qualcosa con cui controbattere, direi che è il momento di farsi sentire. Cavolate tipo "noi abbiamo PhysX, la GTS250 va meglio delle DX11 ATI" fanno ridere i polli, sinceramente.
Sulla versione GX2 di GT300, Fudzilla omette di dire una cosa: che 2% o no, come al solito sarà impossibile fare una GX2 di gpu da 500mm2 ed oltre. Considerando che GT300 sarà già a 40nm, la vedo molto ma molto lontana nel tempo, i 32nm sulle gpu non sono proprio dietro l'angolo...

halduemilauno
16-09-2009, 13:15
Io direi che, a prescindere da quello che si sente in giro, se NVidia farà in qualche modo trapelare qualcosa su G300 tra la presentazione di RV870 e quella di R800 (qualcosa tipo quello che fece AMD con le HD4700), allora potrebbe anche essere che prima di fine anno si vedrà qualcosa da NVidia.
Altrimenti se ne parla ad inizio d'anno prossimo: se davvero NVidia ha qualcosa con cui controbattere, direi che è il momento di farsi sentire. Cavolate tipo "noi abbiamo PhysX, la GTS250 va meglio delle DX11 ATI" fanno ridere i polli, sinceramente.
Sulla versione GX2 di GT300, Fudzilla omette di dire una cosa: che 2% o no, come al solito sarà impossibile fare una GX2 di gpu da 500mm2 ed oltre. Considerando che GT300 sarà già a 40nm, la vedo molto ma molto lontana nel tempo, i 32nm sulle gpu non sono proprio dietro l'angolo...

perchè adesso non c'è la gtx295 con due gpu da 576mm2? e quindi non se ne può fare una con due gpu da 484mm2?
in quanto al PhysX non sottovaluterei la sua importanza.

ilratman
16-09-2009, 13:17
perchè adesso non c'è la gtx295 con due gpu da 576mm2? e quindi non se ne può fare una con due gpu da 484mm2?
in quanto al PhysX non sottovaluterei la sua importanza.

ma non petrebbero fare un gx2+1 con due g300 e un g92b a 40nm per la fisica tutto in una scheda?

A.L.M.
16-09-2009, 13:31
perchè adesso non c'è la gtx295 con due gpu da 576mm2? e quindi non se ne può fare una con due gpu da 484mm2?
in quanto al PhysX non sottovaluterei la sua importanza.

No, non c'è. :asd:
C'è la GTX295 fatta da 2 gpu da circa 400mm2, e nemmeno a specifiche piene (di fatto la 295 è una doppia 275).
PhysX è nato morto, come tutti gli standard che vengono spinti da una sola società.

Trokji
16-09-2009, 13:40
ma non c'è la marte? nonostante i suoi difetti, magari con un kit liquido regge bene anche a frequenze pompate..

Defragg
16-09-2009, 13:51
ma non petrebbero fare un gx2+1 con due g300 e un g92b a 40nm per la fisica tutto in una scheda?

Che fantasia :asd: imho verrebbe fuori una scheda lunga almeno due Rocchi ;)

ilratman
16-09-2009, 13:53
Che fantasia :asd: imho verrebbe fuori una scheda lunga almeno due Rocchi ;)

he he qualcosa di nuovo dovranno farlo no?

sono stufo di queste schede dual, tri is megl che du! ;)

Trokji
16-09-2009, 13:58
he he qualcosa di nuovo dovranno farlo no?

sono stufo di queste schede dual, tri is megl che du! ;)

Magari possono tirar fuori drivers che supportano 4X295 GTX(ammesso che poi sia possibile per win 7 vista) :D

G80
16-09-2009, 14:06
A few people confirm


Nvidia is still not giving and hard details about its chip that we still call GT300 but one thing is getting quite certain. A few people who saw just leaked performance date of ATI's soon to launch Radeon HD 5870 have told Fudzilla that they are absolutely confident that GT300 will win over Radeon HD 5870.

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

nulla di nuovo. tutto gia detto e visto.
;)


A quanto se ne sa finora,si può trarre questa conclusione:
l'architettura Ati,forse sbilanciata e troppo "innovativa" al momento del lancio delle dx10,continua a poter tenere il passo con Nvidia senza sostanziali cambiamenti.Nvidia dal canto suo ha preferito ricostruire l'architettura
da 0,notando che l'originario progetto G80 non reggerebbe il passo nel naturale evolversi dei tempi,semplicemente portandolo a meri aumenti di potenza.
Tra l'altro forse é la prima volta in cui Ati,dall'introduzione degli shader programmabili,non sceglie la strategia "tick-tock" (nuova Gpu-->die shrink-->nuova Gpu ecc.)finora seguita da Nvidia (ed Intel).

bye!:)

halduemilauno
16-09-2009, 14:12
No, non c'è. :asd:
C'è la GTX295 fatta da 2 gpu da circa 400mm2, e nemmeno a specifiche piene (di fatto la 295 è una doppia 275).
PhysX è nato morto, come tutti gli standard che vengono spinti da una sola società.

giusto i 576mm2 si riferiscono ai 65nm ai 55nm sono 484mm2. quindi non sposta poi molto il problema si tratta di replicare quanto gia fatto per l'attuale gtx295. e poi lo stesso può valere anche nell'adottare la versione nr2(tanto se tanto mi da tanto)e quindi ecco l'addozione di frequenze meno spinte o magari invece della 512x2 la 384x2. come si vede ci vuol poco. il tutto poi se serva.
il PhysX nato morto è un tuo pio desiderio visto che la tua amata non propone nulla di comparabile poi definire nato morto un qualcosa che è prodotto/supportato da chi possiede il 63% del mercato mondiale mi pare quantomeno un'azzardo.

Rufus86
16-09-2009, 14:19
Peccato solo che non sia supportato così largamente nei giochi, chissà perché... :rolleyes:

Ma anche in quelli che lo supportano non mi risulta cambi alcunché, la fisica è sugli stessi livelli delle versioni console (dove Physx non c'è) all'atto pratico.

La vera fisica è quella che cambia la giocabilità, quello che Physx non fà. Si limita a ottimizzare i calcoli per le GPU nVIDIA, così da dare un boost prestazionale, ma fermo restando il titolo che non muta di una virgola.

Comunque se non erro le DX11 implementano il supporto alla fisica nativamente, quindi teoricamente gli sviluppatori potrebbero usare direttamente le API MS, senza ricorrere a motori esteri quali Havok/Physx e via discorrendo.

Athlon 64 3000+
16-09-2009, 14:21
GT200b come detto da hal è di 484 mm^2 e sono riusciti a far un dual gpu e quindi se GT300 a 40 nm sarà come dimensioni uguali o inferiori a GT200b fare un dual gpu chiamata per esempio GTX395 sarà possibile.
Nvidia è normale che rifaccia da 0 l'architettura per le dx11 visto che con G80 e derivati con la loro natura non era possibile neanche farli dx 10.1
In ogni modo è meglio che Nvidia si dia una mossa a far uscire GT300(cosi costringe AMD ad abbassare i prezzi) e che la smetta di fare sempre delle cavolate come ha fatto negli ultimi tempi.

kiriranshelo
16-09-2009, 14:32
...
Tra l'altro forse é la prima volta in cui Ati,dall'introduzione degli shader programmabili,non sceglie la strategia "tick-tock" (nuova Gpu-->die shrink-->nuova Gpu ecc.)finora seguita da Nvidia (ed Intel).

bye!:)

in realtà ATI l'ha ribabito, sopratutto, quest'anno il concetto di tick-tock (HD4870 - HD4770) che Nvidia non fa!

halduemilauno
16-09-2009, 14:39
GT200b come detto da hal è di 484 mm^2 e sono riusciti a far un dual gpu e quindi se GT300 a 40 nm sarà come dimensioni uguali o inferiori a GT200b fare un dual gpu chiamata per esempio GTX395 sarà possibile.
Nvidia è normale che rifaccia da 0 l'architettura per le dx11 visto che con G80 e derivati con la loro natura non era possibile neanche farli dx 10.1
In ogni modo è meglio che Nvidia si dia una mossa a far uscire GT300(cosi costringe AMD ad abbassare i prezzi) e che la smetta di fare sempre delle cavolate come ha fatto negli ultimi tempi.

ultime info G300 452mm2.

Athlon 64 3000+
16-09-2009, 14:45
ultime info G300 452mm2.

Gia il fatto che sia come superficie più piccolo anche di GT200b non è malaccio,ma questa politica del chippone di Nvidia proprio non la capisco.
Secondo me le rese del 2% è una grossa cavolata,però sicuramente all'inizio per il fatto che la gpu è bella grossa e per il fatto che adottano per la prima volta i 40 nm nella fascia alta fara si che le rese saranno comunque molto più basse rispetto a AMD.

Bastoner
16-09-2009, 14:53
giusto i 576mm2 si riferiscono ai 65nm ai 55nm sono 484mm2. quindi non sposta poi molto il problema si tratta di replicare quanto gia fatto per l'attuale gtx295. e poi lo stesso può valere anche nell'adottare la versione nr2(tanto se tanto mi da tanto)e quindi ecco l'addozione di frequenze meno spinte o magari invece della 512x2 la 384x2. come si vede ci vuol poco. il tutto poi se serva.
il PhysX nato morto è un tuo pio desiderio visto che la tua amata non propone nulla di comparabile poi definire nato morto un qualcosa che è prodotto/supportato da chi possiede il 63% del mercato mondiale mi pare quantomeno un'azzardo.

http://images.anandtech.com/reviews/motherboards/gigabyte/p55event/batman.jpg

Se questa tecnologia non é nata morta allora dimmi pure che cos'è e a cosa serve.
In UT3 non c'è nulla tranne un paio di mappe in croce con qualche effettino. Mirror's Edge, pur essendo un bellissimo gioco, si limita a vetri rotti e teli che si strappano, molto carino ma un pò poco.
Cryostasis per carità.
Batman due fogli che svolazzano.
Gli altri non sono nemmeno degni di nota :sbonk: (ammetto che non ho visto Ghost Recon 2, ma non credo ci siano chissà quali effetti).
Io ho uno SLI di gtx280 che va una favola, ma non vedo per nulla il valore aggiunto di questo Physix che secondo me é puro marketing, detto in altri termini fumo negli occhi.
Nvidia deve farci vedere le nuove architetture, non queste stronzate.
Suvvia, un minimo di obiettività.

Trokji
16-09-2009, 14:55
Devo dire che all'inizio eram olto promettente però (quando fu tirata fuori ageia.. penso a cell factor revolution o come si chiamava quel tech demo da paura).. poi si sono un po' persi..:muro:

Bastoner
16-09-2009, 15:01
Giusto per confronto, date un'occhiata alla lista dei giochi che supportano Havok. http://www.havok.com/index.php?page=all

ilratman
16-09-2009, 15:03
http://images.anandtech.com/reviews/motherboards/gigabyte/p55event/batman.jpg

Se questa tecnologia non é nata morta allora dimmi pure che cos'è e a cosa serve.
In UT3 non c'è nulla tranne un paio di mappe in croce con qualche effettino. Mirror's Edge, pur essendo un bellissimo gioco, si limita a vetri rotti e teli che si strappano, molto carino ma un pò poco.
Cryostasis per carità.
Batman due fogli che svolazzano.
Gli altri non sono nemmeno degni di nota :sbonk: (ammetto che non ho visto Ghost Recon 2, ma non credo ci siano chissà quali effetti).
Io ho uno SLI di gtx280 che va una favola, ma non vedo per nulla il valore aggiunto di questo Physix che secondo me é puro marketing, detto in altri termini fumo negli occhi.
Nvidia deve farci vedere le nuove architetture, non queste stronzate.
Suvvia, un minimo di obiettività.

ma puoi disabilitare il physic per vedere le differenze?

halduemilauno
16-09-2009, 15:06
Gia il fatto che sia come superficie più piccolo anche di GT200b non è malaccio,ma questa politica del chippone di Nvidia proprio non la capisco.
Secondo me le rese del 2% è una grossa cavolata,però sicuramente all'inizio per il fatto che la gpu è bella grossa e per il fatto che adottano per la prima volta i 40 nm nella fascia alta fara si che le rese saranno comunque molto più basse rispetto a AMD.

che le rese saranno + basse non ci piove ma cmq era molto + vero prima quando il confronto vedeva i 266mm2 di una contrapporsi ai 576mm2 dell'altra ora stiamo/staremo a 338mm2 vs 452mm2 mi pare che ci sia una bella differenza rispetto al rapporto precedente ma di certo certe differenze rimarrebbero cmq.

Bastoner
16-09-2009, 15:07
ma puoi disabilitare il physic per vedere le differenze?

Certo che si può. Le differenze ci sono, ad esempio in Mirror's Edge i vetri non si frantumano in mille pezzi. Ma si tratta di poca cosa. Nvidia paga gli sviluppatori per introdurre nei giochi il supporto Physix, in modo da escludere ATI. Ecco a cosa serve. Ma la resa in gioco é quanto mai misera, anzi le prestazioni decadono moltissimo. In compenso però vedi qualche fogliettino che svolazza, cosa che si potrebbe fare benissimo calcolare alla CPU (avete presente in GTAIV quanto distruggi le casette della posta andandoci sopra con l'auto? Bhé spettacolo, tutte le letterine che svolazzano, tutto calcolato dalla CPU). Ora...sgravare la Cpu da questi compinti può essere importante, ma per ora il risultati di questo standard proprietario sono scarserrimi.

The_SaN
16-09-2009, 15:11
Indovina perché.

Havok va sulle CPU. Tutte.A "breve" anche sulle gpu. Tutte :D

halduemilauno
16-09-2009, 15:19
cmq le frequenze core/shader della 380 dovrebbero essere 648/1530 e la 360 avere 480 shader per la ram rispettivamente da 5 e da 4 giga ovviamente gddr5.
il tutto ovviamente in attesa di riscontri e conferme.
;)

kiriranshelo
16-09-2009, 15:24
...
Gli altri non sono nemmeno degni di nota :sbonk: (ammetto che non ho visto Ghost Recon 2, ma non credo ci siano chissà quali effetti)....

In ghost recon 2 ti abilita delle mappe che non sono visualizzabili con le schede ATI

A.L.M.
16-09-2009, 15:39
giusto i 576mm2 si riferiscono ai 65nm ai 55nm sono 484mm2. quindi non sposta poi molto il problema si tratta di replicare quanto gia fatto per l'attuale gtx295. e poi lo stesso può valere anche nell'adottare la versione nr2(tanto se tanto mi da tanto)e quindi ecco l'addozione di frequenze meno spinte o magari invece della 512x2 la 384x2. come si vede ci vuol poco. il tutto poi se serva.

Veramente sono 470mm2.
Ma se già con RV870, un chip da 330mm2 che consuma 180-190W avranno fatto i salti mortali per realizzare la dual, per via dei consumi...
O tu mi vorresti far credere che un chip monolitico comunque molto grande, con un bus da 512bit, e che comunque si spera sarà sensibilmente più potente di RV870, consumerà meno o quanto RV870? Con lo stesso processo produttivo poi? Suvvia... ;)

P.S.: fonte dei 452mm2?

il PhysX nato morto è un tuo pio desiderio visto che la tua amata non propone nulla di comparabile poi definire nato morto un qualcosa che è prodotto/supportato da chi possiede il 63% del mercato mondiale mi pare quantomeno un'azzardo.

Su PhysX mi sono già pronunciato diverso tempo fa.
Non è un mio desiderio, è la storia che insegna... ;)

G80
16-09-2009, 15:43
in realtà ATI l'ha ribabito, sopratutto, quest'anno il concetto di tick-tock (HD4870 - HD4770) che Nvidia non fa!

Errore mio.
Non sono stato preciso.
Intendevo: prima, Gpu di punta dalla nuova architettura, poi die-shrink della stessa architettura sempre DI PUNTA.
Finora han fatto così, ora che Ati dovrebbe passare alla prima metà del "tick"
(architettura riscritta da 0) non lo fa, trovandosi probabilmente per le mani un architettura più futuribile.
Scusate le maiuscole,volevo sottolineare ma non ne son capace...
niubbo inside:doh:

kiriranshelo
16-09-2009, 15:50
...
Finora han fatto così, ora che Ati dovrebbe passare alla prima metà del "tick"
(architettura riscritta da 0) non lo fa, trovandosi probabilmente per le mani un architettura più futuribile.
Scusate le maiuscole,volevo sottolineare ma non ne son capace...
niubbo inside:doh:

ATI è riuscita con la precedente architettura (rv700) a crearne una "aggiornabile" senza troppi sforzi nella progettazione. Si sta avvicinando al concetto di larranbe (credo scritto così) cioè una piattaforma definitiva e flessibile che si aggiorna sempre via sw (directx, shader) finchè l'hw non diventa obsoleto. Nvidia da questo punto di vista è indietro perchè non ha ancora progettato una cosa simile (G300 permettendo)

G80
16-09-2009, 15:53
ATI è riuscita con la precedente architettura (rv700) a crearne una "aggiornabile" senza troppi sforzi nella progettazione. Si sta avvicinando al concetto di larranbe (credo scritto così) cioè una piattaforma definitiva e flessibile che si aggiorna sempre via sw (directx, shader) finchè l'hw non diventa obsoleto. Nvidia da questo punto di vista è indietro perchè non ha ancora progettato una cosa simile (G300 permettendo)

Perfetto!
Siamo d'accordo quindi.:cincin:

Defragg
16-09-2009, 16:29
ATI è riuscita con la precedente architettura (rv700) a crearne una "aggiornabile" senza troppi sforzi nella progettazione. Si sta avvicinando al concetto di larranbe (credo scritto così) cioè una piattaforma definitiva e flessibile che si aggiorna sempre via sw (directx, shader) finchè l'hw non diventa obsoleto. Nvidia da questo punto di vista è indietro perchè non ha ancora progettato una cosa simile (G300 permettendo)

Si scrive: Larrabee :)

Pat77
16-09-2009, 16:31
ATI è riuscita con la precedente architettura (rv700) a crearne una "aggiornabile" senza troppi sforzi nella progettazione. Si sta avvicinando al concetto di larranbe (credo scritto così) cioè una piattaforma definitiva e flessibile che si aggiorna sempre via sw (directx, shader) finchè l'hw non diventa obsoleto. Nvidia da questo punto di vista è indietro perchè non ha ancora progettato una cosa simile (G300 permettendo)

Direi da r600, chissà se metteranno ancora ringbus che a me non dispiaceva.

G80
16-09-2009, 16:57
Direi da r600, chissà se metteranno ancora ringbus che a me non dispiaceva.

In teoria potrebbe anche essere,ma lo spazio in die occupato da un ring bus è solitamente un pò eccessivo...

Kharonte85
16-09-2009, 16:58
GT200b come detto da hal è di 484 mm^2 e sono riusciti a far un dual gpu e quindi se GT300 a 40 nm sarà come dimensioni uguali o inferiori a GT200b fare un dual gpu chiamata per esempio GTX395 sarà possibile.
Nvidia è normale che rifaccia da 0 l'architettura per le dx11 visto che con G80 e derivati con la loro natura non era possibile neanche farli dx 10.1
In ogni modo è meglio che Nvidia si dia una mossa a far uscire GT300(cosi costringe AMD ad abbassare i prezzi) e che la smetta di fare sempre delle cavolate come ha fatto negli ultimi tempi.
Ehm veramente...

http://www.pcprofessionale.it/2009/07/09/g210-e-gt220-ufficiali-le-prime-schede-directx-101-di-nvidia/

E non solo...pare che anche le schede video Mobili saranno aggiornate alle dx10.1 e GDDR5

Kharonte85
16-09-2009, 17:04
GT300: alla nVIDIA sicuri della vittoria

Scritto da Alberto G.
Mercoledì 16 Settembre 2009 12:54

nVIDIA non ha ancora rilasciato dettagli riguardo al nuovo chip GT300, se non che sarà a 40nm e basato sui principi del GT200. Alcune fonti vicine alla società fanno sapere però che i primi bench della HD5870 non sembrano in grado di superare il progetto nVIDIA e si sentono sicuri di avere il chip più potente. Altro punto importante da sottolineare è che il GT300 non è solo una rivisitazione del precedente chip con i 40nm e le DX11 ma un progetto completamente nuovo partito da zero e sembra che sarà un grande cambiamento, secondo solo a quello del G80. Il lancio è previsto per novembre sempre che alcune voci di corridoio che vogliono la resa al 2% non siano vere ma la cosa sembra improbabile e poco fondata.

http://www.pcbrain.it/index.php/news/archivionews/346-ati-hd5770-e-hd5750-per-una-fascia-media-dx11.html

Fonte: Fudzilla

Peccato per la fonte...ma a volte anche lui ci azzecca :mc:

Kharonte85
16-09-2009, 17:11
A few people confirm


Nvidia is still not giving and hard details about its chip that we still call GT300 but one thing is getting quite certain. A few people who saw just leaked performance date of ATI's soon to launch Radeon HD 5870 have told Fudzilla that they are absolutely confident that GT300 will win over Radeon HD 5870.

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

nulla di nuovo. tutto gia detto e visto.
;)


Fudzilla ha aggiornato in: Several people confirm ---> http://www.fudzilla.com/content/view/15535/65/

:eek: :D

halduemilauno
16-09-2009, 17:14
Fudzilla ha aggiornato in: Several people confirm ---> http://www.fudzilla.com/content/view/15535/65/

:eek: :D

azz.
:eek:
;)

mircocatta
16-09-2009, 17:24
il problema è che quando esce gt300 ati ha già la serie hd 6xxx sugli scaffali dei negozi XD

michelgaetano
16-09-2009, 17:31
Che a Luglio vada più forte mi sembra il minimo ;)

Che vada più forte, anche se fosse dopo soli 3 mesi, per il brand che finora deteneva la corona della scheda più veloce mi sembra ben oltre il minimo :D

Certo che Fud fa davvero ridere :asd:

okorop
16-09-2009, 17:38
Che vada più forte, anche se fosse dopo soli 3 mesi, per il brand che finora deteneva la corona della scheda più veloce mi sembra ben oltre il minimo :D

Certo che Fud fa davvero ridere :asd:

vedremo che succede comunque tali dichiarazioni da parte nvida era presumibile aspettarsele, di sicuro nell'incertezza la sparano sicuramente non dichiarano che andranno piu' lente.....Per quanto riguarda un gt300 piu veloce, dipende da quanto comunque mi pare di capire dalla news che le sue prestazioni saran comprese tra una 5870 e due in crossfire, sempre se è veritiera l'informazione :)

Andrea deluxe
16-09-2009, 19:03
Notare la finezza. nVidia non dice nulla, lo fa sapere a quel coglione di Fuad in modo che lui lo dica facendola pesare come "la so lunga" e così cerca penosamente di attirare l'attenzione su di sé senza avere una mazza da far vedere e senza che qualcuno fra sei mesi possa far loro notare che avevano detto una vaccata...

Questo è essere Legali Malvagi. Li ammiro per questo :asd:

:sbonk:

Legolas84
16-09-2009, 19:05
Notare la finezza. nVidia non dice nulla, lo fa sapere a quel coglione di Fuad in modo che lui lo dica facendola pesare come "la so lunga" e così cerca penosamente di attirare l'attenzione su di sé senza avere una mazza da far vedere e senza che qualcuno fra sei mesi possa far loro notare che avevano detto una vaccata...

Questo è essere Legali Malvagi. Li ammiro per questo :asd:

E' coglione chi scrive le cose che non ti piacciono :asd:

La verità è che anche loro sparano rumor esattamente come il tizio di prima, con un valore MOLTO basso.

Non si sa quasi nulla e questa è l'unica cosa certa, e vale anche per la data di lancio. Da qualche pagina ormai ci sono i tifosetti che non fanno che sperare (sempre in modo velato e tra le righe) che GT300 sia un flop e il thread ha perso parecchio rispetto a quando lo seguivo tempo fa....

Non sarebbe meglio tornare sul tecnico sempre se c'è ancora qualcosa da dire?

Legolas84
16-09-2009, 20:45
C.V.D.

Fuad è il più idiota che esista. Secondo tutti. Poi però viene citato quando per fanboysmo si considera la "notizia" favorevole alla propria bandiera.

Il tizio di prima per esempio è quello che ha sputtanato nVidia sulla vicenda delle GPU mobile fallate per cui la stessa nVidia ha prima negato il problema, poi ha detto che era colpa di chi ha fatto il packaging, poi che era colpa degli OEM, infine a iscritto una pesante perdita di bilancio dimostrando che Charlie aveva ragione.

Chi è il fanboy? :asd:

Sono così fanboy che infatti anche sopra ho detto che entrambi sono rumor con niente di concreto sotto ovvero cazzate... Io li prendo entrambi come ruomor infondati, te invece prendi quello che ti viene bene.... quindi i casi sono due:

1 Non sai leggere ----> e allora fa lo stesso.
2 Ti rigiri la frittata come viene meglio a te ----> e allora non fai che confermare tutto ciò che ho scritto ;)

Legolas84
16-09-2009, 20:48
Aggiungo inoltre un invito a farla finita con le fanboyate (molto BOIATE) e di tornare su un impronta più tecnica come meriterebbe il forum... (sempre se c'è ancora qualcosa da dire).

Trokji
16-09-2009, 21:06
Aggiungo inoltre un invito a farla finita con le fanboyate (molto BOIATE) e di tornare su un impronta più tecnica come meriterebbe il forum... (sempre se c'è ancora qualcosa da dire).

Scusa ma si parla di indiscrezioni eccetra.. ora qui non ci sono molti ingegneri informatici (magari qualcuno c'è ma penso che saranno la minoranza) quindi è chiaro che si parli soprattutto di informazioni trapelate, possibili prestazioni, opinioni eccetra..se poi tu sei ingrado di darci informazioni tecniche più dettagliate e quindi dare un taglio più tecnico al thread non vedo perché no :)

Kharonte85
16-09-2009, 21:18
Che a Luglio vada più forte mi sembra il minimo ;)
S'Tardo...:asd:

Speriamo di no altrimenti col cavolo che scendono i prezzi...comunque entrambi i rumors sono imho fuffa (perlomeno per ora) solo che uno mi sembra piu' improbabile dell'altro (cioè quello di Demercoso è sicuramente meno verosimile di quello di Fuad...i problemi di TMSC coi 40nm sono noti ma a quei livelli sarebbe una cosa inimmaginabile)

Trokji
16-09-2009, 21:25
S'Tardo...:asd:

Speriamo di no altrimenti col cavolo che scendono i prezzi...comunque entrambi i rumors sono imho fuffa (perlomeno per ora) solo che uno mi sembra piu' improbabile dell'altro (cioè quello di Demercoso è sicuramente meno verosimile di quello di Fuad...i problemi di TMSC coi 40nm sono noti ma a quei livelli sarebbe una cosa inimmaginabile)

Potrebbero riuscire a fare un mega chippone con l'attuale processo produttivo..? cioè il doppio della 285.. potrebbe esistere il sistema? :eek:

Kharonte85
16-09-2009, 21:39
Potrebbero riuscire a fare un mega chippone con l'attuale processo produttivo..? cioè il doppio della 285.. potrebbe esistere il sistema? :eek:

Dato che probabilmente ripartono con qualcosa di completamente nuovo puo' essere di tutto...


Edit: con i 55nm andrebbero a consumare troppo (previst0 per il GT 300 un tdp di 225W)

Legolas84
16-09-2009, 21:41
Ti conviene cercare un thread tecnico in tal caso, questo è un thread di rumors...

Scusa ma si parla di indiscrezioni eccetra.. ora qui non ci sono molti ingegneri informatici (magari qualcuno c'è ma penso che saranno la minoranza) quindi è chiaro che si parli soprattutto di informazioni trapelate, possibili prestazioni, opinioni eccetra..se poi tu sei ingrado di darci informazioni tecniche più dettagliate e quindi dare un taglio più tecnico al thread non vedo perché no :)

Come immaginavo.... allora non c'è nulla di cui discutere di costruttivo....

Sorry per i miei interventi è solo che quand seguivo il thread un pò di tempo fa interveniva gente con cui si discuteva delle possibili innovazioni del nuovo chip ed era un piacere leggerle...

Ora invece il thread si è ridotto a un AMD arriva prima di nVIDIA, lei è brava nVIDIA fa schifo... quindi viste le pochezze della discussione la lascio in attesa di tempi migliori, e porgo ancora una volta le mie scuse lasciandovi questi argomenti.

Bastoner
16-09-2009, 21:47
Come immaginavo.... allora non c'è nulla di cui discutere di costruttivo....

Sorry per i miei interventi è solo che quand seguivo il thread un pò di tempo fa interveniva gente con cui si discuteva delle possibili innovazioni del nuovo chip ed era un piacere leggerle...

Ora invece il thread si è ridotto a un AMD arriva prima di nVIDIA, lei è brava nVIDIA fa schifo... quindi viste le pochezze della discussione la lascio in attesa di tempi migliori, e porgo ancora una volta le mie scuse lasciandovi questi argomenti.

Evidentemente non segui abbastanza e non conosci Fuad.:rolleyes:

Trokji
16-09-2009, 21:58
Altro sulle release dates:

Here's a rough schedule of speculated release dates. Price ranges are included:

* September 22nd - ATI Radeon HD 5850/5870, $249-299 / $349-399 (Cypress). Widespread availability, late-September.
* October, 3rd week - ATI Radeon HD 5750/5770, $149/$199 (Juniper).
* Late-October, early-November - ATI Dual-Cypress "Hemlock" (rumored to be ATI Radeon HD 5870 X2), $499-599.
* Q4 2009 - Nvidia rebrands, (much-delayed) GT200b 40nm shrinks (GT214, GT216, GT218)
* Late-December 2009/January 2010 - Nvidia GT300 (Rumoured to be Nvidia Geforce 380). Widespread availability, Q1 2010.
* Early Q1 2010 - ATI Redwood ($99-$119), Cedar (<$99) (Entry level - rumoured to be 5600 and 5300/5500 series, respectively)
* Q2 2010 - Cypress refresh/die shrink, GT300 derivatives (?)

http://vr-zone.com/articles/-rumourspeculation-atinvidia-next-generation-release-datesprice-update/7668.html?doc=7668

Però Q2 2010 andiamo parecchio in là.. mi sa che ati avrà già rilasciato o starà per rilasciare la serie 6..:D
comunque 249 dollari per la 5850 sono interessanti

michelgaetano
16-09-2009, 21:59
Ancora vr-zone:

Charlie of SemiAccurate reports Nvidia is suffering pathetic yields of 2% on the GT300. While outspoken with his criticism for Nvidia, Charlie is usually right on with the facts, but we will take this figure with a big bag of salt. However, similar news of <10% yields has been confirmed by several sources, including Kyle, editor-in-chief of HardOCP.

http://vr-zone.com/articles/-rumour-nvidia-gt300-to-be-faster-than-hd-5870/7671.html?doc=7671

<10%... A quanto si dovrebbe arrivare èer una produzioen quantomeno decente? :(

Kharonte85
16-09-2009, 22:23
Ancora vr-zone:

Charlie of SemiAccurate reports Nvidia is suffering pathetic yields of 2% on the GT300. While outspoken with his criticism for Nvidia, Charlie is usually right on with the facts, but we will take this figure with a big bag of salt. However, similar news of <10% yields has been confirmed by several sources, including Kyle, editor-in-chief of HardOCP.

http://vr-zone.com/articles/-rumour-nvidia-gt300-to-be-faster-than-hd-5870/7671.html?doc=7671

Per me le due cose non vanno d'accordo...al massimo posso credere che abbiano Yealds attorno al 10% (cioè pessimi) per il resto mi spiace ma affermazioni straordinarie hanno bisogno di prove altrettanto straordinarie :read:

Vedremo...io mi auguro che arrivi il prima possibile (per tutti) anche se non penso riusciranno prima di fine anno.

A.L.M.
16-09-2009, 22:31
S'Tardo...:asd:

Speriamo di no altrimenti col cavolo che scendono i prezzi...comunque entrambi i rumors sono imho fuffa (perlomeno per ora) solo che uno mi sembra piu' improbabile dell'altro (cioè quello di Demercoso è sicuramente meno verosimile di quello di Fuad...i problemi di TMSC coi 40nm sono noti ma a quei livelli sarebbe una cosa inimmaginabile)

A me sembrano improbabili tutti e due. Uno perchè yield così bassi mi sembrano da record, l'altro perchè novembre per GT300 mi pare troppo presto, così come mi pare presto per parlare già di GX2.

Potrebbero riuscire a fare un mega chippone con l'attuale processo produttivo..? cioè il doppio della 285.. potrebbe esistere il sistema? :eek:

E' da escludere nella maniera più categorica. Bisogna ancora capire quanto differirà da G80 GT300 (penso e spero per NVidia parecchio), ma l'approccio di fondo è tale per cui comunque gli SP di NVidia occuperanno molto più spazio di quelli di ATi, quindi miracoli alla RV770 li vedo impossibili. Tra l'altro RV670 (la base di partenza di RV770) era piccolissimo, mentre G200b non è esattamente un chip microscopico.

Altro sulle release dates:

Here's a rough schedule of speculated release dates. Price ranges are included:

* September 22nd - ATI Radeon HD 5850/5870, $249-299 / $349-399 (Cypress). Widespread availability, late-September.
* October, 3rd week - ATI Radeon HD 5750/5770, $149/$199 (Juniper).
* Late-October, early-November - ATI Dual-Cypress "Hemlock" (rumored to be ATI Radeon HD 5870 X2), $499-599.
* Q4 2009 - Nvidia rebrands, (much-delayed) GT200b 40nm shrinks (GT214, GT216, GT218)
* Late-December 2009/January 2010 - Nvidia GT300 (Rumoured to be Nvidia Geforce 380). Widespread availability, Q1 2010.
* Early Q1 2010 - ATI Redwood ($99-$119), Cedar (<$99) (Entry level - rumoured to be 5600 and 5300/5500 series, respectively)
* Q2 2010 - Cypress refresh/die shrink, GT300 derivatives (?)

http://vr-zone.com/articles/-rumourspeculation-atinvidia-next-generation-release-datesprice-update/7668.html?doc=7668

Questa timeline mi sembra molto più realistica.

goldorak
17-09-2009, 02:06
Si mette male, veramente male per G300. Parola di Nvidia :



Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.

DirectX 11 Is Not the Defining Reason to Invest into New Graphics Cards – Nvidia
[09/16/2009 02:03 PM]
by Anton Shilov

Nvidia Corp. said during a conference for financial analysts that the emergence of next-generation DirectX 11 application programming interface will not drive sales of graphics cards. The firm believes that general purpose computing on graphics processing units (GPGPU) as well as its proprietary tools and emergence of software taking advantage of these technologies will be a better driver for sales of graphics boards than new demanding video games and high-end cards.
DirectX 11 - Not Important

“DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,” said Mike Hard, vice president of investor relations at Nvidia, at Deutsche Bank Securities Technology Conference on Wednesday.

Nvidia believes that special-purpose software that relies on GPGPU technologies will drive people to upgrade their graphics processing units (GPUs), not advanced visual effects in future video games or increased raw performance of DirectX 11-compliant graphics processors.

“Now, we know, people are doing a lot in the area of video, people are going to do more and more in the area of photography… I think that the things we are doing would allow the GPU to be a co-processor to the CPU and deliver better user experience, better battery life and make that computers little bit more optimized,” added Mr. Hara.

There are several problems for Nvidia, though. While ATI, graphics business unit of Advanced Micro Devices, is about to launch its Radeon HD 5800-series graphics cards that fully support DirectX 11 in the upcoming weeks, Nvidia yet has not disclosed any plans regarding its DX11 GPUs, which means that in the eyes of computer enthusiasts the company is not a technology leader any more.

Moreover, the software that takes advantage of Nvidia’s proprietary CUDA GPGPU technology is, in many cases, incompatible with open-standard OpenCL and DirectCompute 11 (DirectX 11 compute shaders) environments, which are supported by ATI Radeon HD 4000 and 5000 families of graphics processors in addition to Nvidia’s latest chips. Even though Nvidia has advantage in terms of higher amount of installed GeForce GPUs and at least some makers of software will decide to make CUDA software, the majority will settle with industry-standard DirectCompute and OpenCL, which puts all the interested parties – ATI/AMD, Intel, Nvidia, etc. – into the same boat, where there will be no advantage of exclusive software. It is not completely clear why Nvidia is trying to downplay the importance of DirectX 11, DirectCompute 11, technologies that enable next-generation software.
Computing Performance More Important than Graphics Performance

Next-generation graphics processors will naturally not only outperform Nvidia’s and ATI current GeForce GTX 200- and Radeon HD 4000-series lines, but also offer support for future games, something, which is more than likely to catalyze many gamers – who usually buy high-end graphics cards for $300 or more – to upgrade their graphics sub-systems. The new graphics cards will allow to increase resolutions of video gaming and increase the amount of enabled visual effects.

Nvidia believes that in future computing performance will matter much more than graphics performance, which seems to make sense as forthcoming video games will demand a lot of purely computing power to process not only visuals, but also physics and artificial experience. Nevertheless, Nvidia seems to put a lot of hopes onto its proprietary technologies, such as CUDA, Stereo 3D Vision, PhysX and others. This is understandable as the aforementioned technologies allow Nvidia to differentiate itself. However, as all proprietary standards (3dfx Glide is one example), they may not continue to be on the leading edge in the longer term.

“Graphics industry, I think, is on the point that microprocessor industry was several years ago, when AMD made the public confession that frequency does not matter anymore and it is more about performance per watt. I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions. Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.



Fonte : http://xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html

Come avevo preventivato mesi e mesi fa, Nvidia continua sulla strada del G200, una architettura che privilegia molto dippiu' il GPGPU che la mera forza bruta per i giochi. Certo che sostenere che la grafica e le DX11 non e' piu' il motivo fondamentale per comprare una scheda grafica perlomeno in ambito consumer sa tanto di :mc: :mc: :mc: :mc:

Kharonte85
17-09-2009, 08:40
Purtroppo non sono buone notizie...le dichiarazioni di questo tipo sono decisamente preoccupanti: dimostrano, casomai ce ne fosse bisogno, che nvidia è molto in ritardo...se anche nvidia non arriva presto alle dx11 in pochi cominceranno a sfruttarle seriamente.

goldorak
17-09-2009, 08:51
Purtroppo non sono buone notizie...le dichiarazioni di questo tipo sono decisamente preoccupanti: dimostrano, casomai ce ne fosse bisogno, che nvidia è molto in ritardo...se anche nvidia non arriva presto alle dx11 in pochi cominceranno a sfruttarle seriamente.


Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.

ilratman
17-09-2009, 08:57
Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.

vedremo

potrebbe essere che nvidia stia pensando più alla qualità dell'immagine, cosa per cui ho sempre preferito le quadro alle firegl, o ad altro anche se non ne ho idea di cosa potrebbe essere!
sinceramente se uno deve giocare ati è la scelta migliore come rapporto prezzo/prestazioni!

Kharonte85
17-09-2009, 09:04
Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.
Semplicemente temporeggia spostando l'attenzione su features che puo' garantire fin da subito...non penso che nessuno alla nvidia abbia perso di vista il vero obiettivo finale che dovrebbe avere una scheda grafica: le prestazioni nei videogiochi (tutto il resto è secondario)...solo che a questo giro qualcosa è andato storto (ovvero il processo produttivo a 40nm che si è dimostrato a quanto pare pessimo penalizzando fortemente la scelta di nvidia di presentare un chip molto grande) quindi per non affondare (anzi meglio: per non far scappare i topi dalla nave) si fanno determinate affermazioni (anche quando non ci si crede)

goldorak
17-09-2009, 09:20
Semplicemente temporeggia spostando l'attenzione su features che puo' garantire fin da subito...non penso che nessuno alla nvidia abbia perso di vista il vero obiettivo finale che dovrebbe avere una scheda grafica: le prestazioni nei videogiochi (tutto il resto è secondario)...solo che a questo giro qualcosa è andato storto (ovvero il processo produttivo a 40nm che si è dimostrato a quanto pare pessimo penalizzando fortemente la scelta di nvidia di presentare un chip molto grande) quindi per non affondare (anzi meglio: per non far scappare i topi dalla nave) si fanno determinate affermazioni (anche quando non ci si crede)

Ma allora sparate per sparate, non e' meglio farlo in grande stile tipo "la nostra scheda distruggera' la concorrenza, abbiamo la migliore qualita' grafica etc, etc..." ?
Quello che dicono per il momento non ispira molta fiducia.

Un altra cosa non capisco, ATI con i 40nm non ha avuto problemi, essendo in grado di produrre gpu con quasi 2 miliardi di transistor.
Nvidia quanto grande lo sta progettando G300 ? 3-4 miliardi di transistor ? Spero che tutto questo ben di dio rispetto a G200 non siano soltanto circuiti per i floating point in doppia precisione e altre migliorie specifiche soltanto per il gpgpu. Voglio vedere anche un triple vision, consumi molto ridotti sia in idle che sotto sforzo, supporto al Havok su gpu (visto che dietro ce' Intel e quindi non avrebbe senso ignorarlo) etc... Insomma cose concrete per il gamer, colui che compra ls scheda.

eXeS
17-09-2009, 09:51
Giusto per confronto, date un'occhiata alla lista dei giochi che supportano Havok. http://www.havok.com/index.php?page=all
I 13 titoli pubblicati nel precedente post supportano PhysX su GPU, ma PhysX su CPU è supportato anche da qualcun altro http://it.nzone.com/object/nzone_physxgames_home_it.html

Ho la sensazione che molti non hanno ancora capito che ciò che ha fatto nVidia con PhysX è stato semplicemente: aggiungerci uno strato per accelerare alcuni effetti via GPU attraverso CUDA.

PhysX c'è da qualche anno ed è stato usato in molti giochi prima ancora che nVidia acquistasse Ageia, e quello che probabilmente sarà destinato ad estinguersi non è PhysX, ma lo strato attraverso il quale oggi si arriva alla GPU.

goldorak
17-09-2009, 10:07
I 13 titoli pubblicati nel precedente post supportano PhysX su GPU, ma PhysX su CPU è supportato anche da qualcun altro http://it.nzone.com/object/nzone_physxgames_home_it.html

Ho la sensazione che molti non hanno ancora capito che ciò che ha fatto nVidia con PhysX è stato semplicemente: aggiungerci uno strato per accelerare alcuni effetti via GPU attraverso CUDA.

PhysX c'è da qualche anno ed è stato usato in molti giochi prima ancora che nVidia acquistasse Ageia, e quello che probabilmente sarà destinato ad estinguersi non è PhysX, ma lo strato attraverso il quale oggi si arriva alla GPU.

Sbagli, quello che e' destinato ad estinguersi e' proprio PhysX. Nessun sviluppatore usera' PhysX (che tra l'altra funziona soltanto su un sistema in cui sono presenti solo schede Nvidia, non puoi usare una ATI come scheda grafica e una Nvidia per processare la fisica PhysX, devi usare per forza 2 schede Nvidia), quando Havok funziona sia su cpu che gpu (ATI e Nvidia) via OpenCL. Una volta che Intel entra in campo e dai il via libera per la fisica su cpu/gpu la soluzione proprietaria PhysX avra' i giorni contati. E lo sa bene anche Nvidia. Credere il contrario e' sperare in un miracolo.

Pat77
17-09-2009, 11:07
Semplicemente vuol dire che non ha niente.

La stessa cosa identica si è vista con le DX10.1, quando dicevano che non servivano ad una mazza e che si sarebbero focalizzati saltando direttamente alle DX11.

Poi si sono smentiti facendo silenziosamente apparire le VGA low end con supporto DX10.1.

Ora continuano a smentirsi dicendo che non servono a nulla nemmeno le DX11.

Il senso è ovvio, non hanno nulla da vendere con sopra il bollino DX11 e spargono FUD nella speranza che qualcuno ci creda...

Perchè, dx10.1, è servito a qualcosa?
Per conto mio basta che siano pronte prima delle nuove console che detteranno i canoni di sviluppo per altri 4-5 anni.

Athlon 64 3000+
17-09-2009, 11:14
Ma Quelli delle Nvidia con il marketing negli ultimi tempi sono per caso impazziti?:confused:
Non ho mai negato che a me Nvidia mi è sempre stata antipatica,ma invece che fare sparate del cavolo farebbero bene a darsi una mossa a far uscire GT300 perchè francamente vedere la HD 5870 con un prezzo molto più alto di quanto ho pagato la HD 4870 512M all'uscita non mi fa per niente piacere proprio per mancanza di concorrenza.:mad:

eXeS
17-09-2009, 11:22
Sbagli, quello che e' destinato ad estinguersi e' proprio PhysX. Nessun sviluppatore usera' PhysX (che tra l'altra funziona soltanto su un sistema in cui sono presenti solo schede Nvidia


PhysX funziona su qualunque hardware su CPU, e solo alcuni effetti vengono eseguiti dalla GPU, ma l'hai letto il mio post ?


quando Havok funziona sia su cpu che gpu (ATI e Nvidia) via OpenCL. Una volta che Intel entra in campo e dai il via libera per la fisica su cpu/gpu la soluzione proprietaria PhysX avra' i giorni contati. E lo sa bene anche Nvidia. Credere il contrario e' sperare in un miracolo.

Cioè spiegami meglio, oggi PhysX su GPU rispetto a PhysX su CPU o Havoc ti da qualche fogliettino svolazzante, qualche vetro infranto, insomma qualche effettuccio a cui molti utenti danno un'importanza prossima allo zero.

Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?

Se ciò fosse vero così come nVidia ha scritto il layer CUDA tra PhysX e GPU, perchè non potrebbe scriverlo in OpenCL ?

E' vero che oggi l'operazione ha come scopo primario quello di vendere schede video, ma poichè l'uso di PhysX da parte degli sviluppatori è un ricavo per nVidia che ha quindi interesse nel vendere il numero più alto di licenze, questo potrebbe giustificare anche un porting su OpenCL, mentenendo il layer CUDA e forse promuovere un nuovo slogan, PhysX Run Better On CUDA :)

Pat77
17-09-2009, 11:27
Se non serve a nulla perché nVidia ne ha inserito il supporto nelle sue entry level dopo due anni a dire che non servivano a nulla?

Perchè 2 anni fa non servivano a nulla e aveva ragione, a ottobre il motivo sarà Windows 7, mi sa che dell nei nuovi inspiron segmento performance metterà le schede con 48sp e dx10.1, con seven preinstallato.

ilratman
17-09-2009, 11:44
Perchè 2 anni fa non servivano a nulla e aveva ragione, a ottobre il motivo sarà Windows 7, mi sa che dell nei nuovi inspiron segmento performance metterà le schede con 48sp e dx10.1, con seven preinstallato.

parli dei portatili?

si ha qualche news riguarlo al lineup di dell nei portatili soprattutto professionali?

CoolBits
17-09-2009, 12:51
Ma allora sparate per sparate, non e' meglio farlo in grande stile tipo "la nostra scheda distruggera' la concorrenza, abbiamo la migliore qualita' grafica etc, etc..." ?
Quello che dicono per il momento non ispira molta fiducia.

Un altra cosa non capisco, ATI con i 40nm non ha avuto problemi, essendo in grado di produrre gpu con quasi 2 miliardi di transistor.
Nvidia quanto grande lo sta progettando G300 ? 3-4 miliardi di transistor ? Spero che tutto questo ben di dio rispetto a G200 non siano soltanto circuiti per i floating point in doppia precisione e altre migliorie specifiche soltanto per il gpgpu. Voglio vedere anche un triple vision, consumi molto ridotti sia in idle che sotto sforzo, supporto al Havok su gpu (visto che dietro ce' Intel e quindi non avrebbe senso ignorarlo) etc... Insomma cose concrete per il gamer, colui che compra ls scheda.

Ati non ha avuto problemi con i 40nm....LOL....dai non scherziamo....le 4770 inesistenti??? ma anche le 58xx potevano uscire prima ma a causa dei problemi di scarsa resa escono solo settimana prossima

kiriranshelo
17-09-2009, 13:07
Ati non ha avuto problemi con i 40nm....LOL....dai non scherziamo....le 4770 inesistenti??? ma anche le 58xx potevano uscire prima ma a causa dei problemi di scarsa resa escono solo settimana prossima

La differenza sta che ATI aveva comunque le spalle coperte mentre Nvidia, al momento finchè non uscirà con il chip, ha le spalle completamente scoperte senza possibilità di ribattere

Pat77
17-09-2009, 13:09
parli dei portatili?

si ha qualche news riguarlo al lineup di dell nei portatili soprattutto professionali?

a metà novembre dovrebbero uscire le prime configurazioni i7, ma hanno tdp di ben 45W, meglio aspettare Arrandale a 32nm e tdp 20W.
Fonte grafico, xps16 è appena uscito in Ita con 4670, upgrade della 3670, il problema è il calore prodotto, penso/credo che a novembre passeranno a gt220 o gts250M con un nuovo modello, o almeno lo spero.
Inizio anno prossimo una soluzione performance dx11 credo. Per questo mi interessa gt300 :D dal fratello maggiore si può capire bene o male come sarà il livello di performance.

ilratman
17-09-2009, 13:24
DELL ha cominciato da un bel po' a migrare su schede video AMD.

si ma lo ha fatto con schede di fascia bassa, amd ha un'ottima offerta s schede medie.

però il settore portatile la fa da padrona ancora nvidia e solo la fascia bassa dell è occupata da amd!

io vedrei per esempio bene nei precison aver la possibilità di montare anche le firegl oltre che le quadro, almeno avresti la possibilità di scegliere, ma non è così!

CoolBits
17-09-2009, 13:29
La differenza sta che ATI aveva comunque le spalle coperte mentre Nvidia, al momento finchè non uscirà con il chip, ha le spalle completamente scoperte senza possibilità di ribattere

su questo non c'è dubbio in questo cambio generazionale AMD è decisamente in anticipo rispetto ad Nvidia

halduemilauno
17-09-2009, 13:36
La differenza sta che ATI aveva comunque le spalle coperte mentre Nvidia, al momento finchè non uscirà con il chip, ha le spalle completamente scoperte senza possibilità di ribattere

cioè facci capire se ambedue avessero i problemi con i 40nm ati sta messo meglio perchè ha le spalle coperte? è una battuta vero? con ambedue gli stessi problemi starebbero ambedue in questa situazione e non c'è una scheda ati che va meglio delle attuali nvidia. e tocca ancora vedere se le prossime 5800 vadano meglio e di quanto rispetto alle gtx285/295.
un consiglio aspettiamo bench ufficiali ed esaustivi del 23.
e ricordo che gia nel passato(anche recente)ati per brevi periodi è stata anche sopra ad nvidia ma il rapporto di forze tra le due è cambiato ben poco.

halduemilauno
17-09-2009, 13:38
su questo non c'è dubbio in questo cambio generazionale AMD è decisamente in anticipo rispetto ad Nvidia

ecco anticipo. ora tocca vedere di quanto e quanto effimero esso potrà essere.

Severnaya
17-09-2009, 13:59
uscendo già con queste schede ati è in anticipo sia in termini di tempo sia in termini di sviluppo, nel frattempo che nvidia preparerà le sue soluzioni directx11 ati potrebbe essere già uscita con delle ipotetiche 5870x2 o 5890 (o farle uscire vicino a g300 chi può dirlo)...


a parer mio chi cambierà il pc su questo forum (tanto per dire) difficilmente nn sceglierà una scheda directx11 sia in termini prestazionali sia per la longevità del sistema

che io sappia nn si sa quando usciranno le nuove nvidia quindi è difficile ragionare anche in termini quali "ok ora esce ati io aspetto xx mesi g300 e poi deciderò"


senza contare che il prezzo di rv870 (giusto? :asd:) se fosse <400$ come dichiarato è davvero molto molto aggressivo

Pat77
17-09-2009, 14:11
si ma lo ha fatto con schede di fascia bassa, amd ha un'ottima offerta s schede medie.

però il settore portatile la fa da padrona ancora nvidia e solo la fascia bassa dell è occupata da amd!

io vedrei per esempio bene nei precison aver la possibilità di montare anche le firegl oltre che le quadro, almeno avresti la possibilità di scegliere, ma non è così!

Più che altro hanno maggior supporto, driver ufficali da Nvidia e scaldano meno.
Se risolvono questi 2 aspetti le soluzioni Ati diventano rispettabilissime.

kiriranshelo
17-09-2009, 14:20
cioè facci capire se ambedue avessero i problemi con i 40nm ati sta messo meglio perchè ha le spalle coperte? è una battuta vero? con ambedue gli stessi problemi starebbero ambedue in questa situazione e non c'è una scheda ati che va meglio delle attuali nvidia. e tocca ancora vedere se le prossime 5800 vadano meglio e di quanto rispetto alle gtx285/295.

aspetta, il mio riferimento era ai problemi relativi all'HD4770 che ha avuto ATI a marzo / aprile, se non sbaglio. La differenza, ORA, è che, per quanto riguarda ATI, il processo a 40nm l'ha già utilizzato e sa come procedere per far rendere i wafer al meglio, a differenza di Nvidia che è alla sua prima esperienza con i 40.

Trokji
17-09-2009, 14:29
Più che altro hanno maggior supporto, driver ufficali da Nvidia e scaldano meno.
Se risolvono questi 2 aspetti le soluzioni Ati diventano rispettabilissime.

Ma i drivers ati sono già ottimi (vedi come scala il cross adesso!)..comunque credo miglioreranno ancora. Il problema di nvidia è arrivare troppo in ritardo ed esser costretta probabilmente a far uscire schede troppo costose (si parla probabilmente della fascia 5-600 euro).. soprattutto se è vera la storia del rendimento dei wafer

Das~Ich
17-09-2009, 14:30
cioè facci capire se ambedue avessero i problemi con i 40nm ati sta messo meglio perchè ha le spalle coperte? è una battuta vero? con ambedue gli stessi problemi starebbero ambedue in questa situazione e non c'è una scheda ati che va meglio delle attuali nvidia. e tocca ancora vedere se le prossime 5800 vadano meglio e di quanto rispetto alle gtx285/295.
un consiglio aspettiamo bench ufficiali ed esaustivi del 23.
e ricordo che gia nel passato(anche recente)ati per brevi periodi è stata anche sopra ad nvidia ma il rapporto di forze tra le due è cambiato ben poco.

Mai una volta che riconosci il fatto che le strategie di mercato di ATI una volta tanto sono migliori di quelle di invidia :asd: . Per spalle coperte credo che la questione sia tanto semplice quanto evidente :


le 4770 sono state un test a 40nm, riuscito dato che sono state immesse nel mercato e sono state relativamente concorrenziali
le 58xx saranno immesse con almeno un paio di mesi di anticipo rispetto alle nuove gt300
dati i problemi di rese produttive di invidia è evidente che i margini di entrata per ogni scheda video assemblata saranno superiori per ati, anche a causa del die di dimensioni minori rispetto alla concorrente, e del bus inferiore
e dati appunto sempre questi problemi il rapporto prezzo prestazioni sarà migliore per ati molto probabilmente, come lo è stato per le 4800, nel senso che se davvero fosse confermato che le rese delle gt300 sono inferiori al 10%, del tipo 6-7%, dovremmo aspettarci prezzi di acquisto molto elevati, molto più elevati della concorrenza e quindiin parte ingiustificati. In merito alle prestazioni sicuramente le gt300 saranno migliori delle 5870 ma bisogna vedere e capire di quanto. Se fossero maggiori solo del 20% sarebbe molto grave per le previsioni dei bilanci. Io spero che grossomodo si equivalgano, o che magari riescano a migliorare le rese perché così facendo si avrebbe una concorrenza maggiore e ciò costringerebbe ati ad immettere delle 5890 (che immetterà all'uscita di gt300 quasi sicuramente) e ad abbassare i prezzi delle versioni precedenti.


Felice di essere smentito perché prezzi più bassi sono sempre ben accetti però qui la situazione inizia ad essere problematica. Nvidia ritiene che persino una gtx250 sarà più veloce della 5870 sotto il punto di vista physix (e ti credo, è una tecnologia proprietaria .. ) solo che ATI sviluppa le proprie physix parallelamente alle nuove schede video DX11 http://www.hwupgrade.it/forum/showthread.php?t=1795082&page=558. A questo punto si potrebbe rigirare la frittata ovvero dire che una 3870 va meglio di una gx295 con le bullet physix di ATI :ciapet: .

No, scherzi a parte, direi che forse sarebbe il caso di constatare che dalle G80 fino ad ora nvidia a mio parere ha fatto delle pessime scelte di mercato. Il G92 è stato un chip eccellente però a livello prestazionale la situazione è stata quasi inchiodata a quei livelli. Poi le schede rimarchiate aventi lo stesso chip, gli annunci di inutilità delle dx10.1 e poi l'adozione da parte di nvidia sui sistemi portatili per le nuove gpu economiche a 40nm (*), poi gli annunci dell'inutilità delle dx11 e dell'assoluta necessità del physix :asd: . Se questa non è sterile propaganda io non avrei termini per definirla altrimenti.

Nel mercato mobile abbiamo GTX280M con 128sp, ovvero un cluster in più rispetto alle 9800GTXM, ovvero quanti una 8800gts 512. Al contrario ati nel mercato mobile ha introdotto le 4800 con 800sp invece dei 320 delle 3800. Un minimo di innovazione ci vuole, ma qui invece .. :rolleyes:

GTX280M - 128SP - Core:585MHz / shaders: 1463Mhz - 61GB/s NOTA: G92 DESKTOP 8800GTS512 - 128SP - Core:675MHz / shaders: 1675Mhz - 64GB/s
9800M GTX -112SP -Core: 500Mhz / shaders: 1250MHz - 51.2GB/s NOTA: G92 DESKTOP 8800GT512 - 112SP - Core:600MHz / shaders: 1500Mhz - 57.6GB/s

goldorak
17-09-2009, 14:59
PhysX funziona su qualunque hardware su CPU, e solo alcuni effetti vengono eseguiti dalla GPU, ma l'hai letto il mio post ?


No, PhysX allo stato attuale gira soltanto su gpu Nvidia.
E non solo questo, ma se uno vuole usare 2 schede video, di cui una preposta alla grafica e l'altra preposta alla gestione della fisica e' necessario usare 2 schede video Nvidia.
Physx non parte se trova una scheda ATI (come scheda grafica) e una scheda Nvidia (per la gestione della fisica).
Quindi e' meglio che ti informi prima di dire che PhysX gira su qualunque cpu e/o combinazioni di gpu perche' come stanno le cose gira soltanto su gpu Nvidia.


Cioè spiegami meglio, oggi PhysX su GPU rispetto a PhysX su CPU o Havoc ti da qualche fogliettino svolazzante, qualche vetro infranto, insomma qualche effettuccio a cui molti utenti danno un'importanza prossima allo zero.

Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?

Se ciò fosse vero così come nVidia ha scritto il layer CUDA tra PhysX e GPU, perchè non potrebbe scriverlo in OpenCL ?

E' vero che oggi l'operazione ha come scopo primario quello di vendere schede video, ma poichè l'uso di PhysX da parte degli sviluppatori è un ricavo per nVidia che ha quindi interesse nel vendere il numero più alto di licenze, questo potrebbe giustificare anche un porting su OpenCL, mentenendo il layer CUDA e forse promuovere un nuovo slogan, PhysX Run Better On CUDA :)

Ma lo vuoi capire che aldila' della importanza della fisica nei videogames, una soluzione che richiede schede grafiche particolari sara' sempre inferiore rispetto ad una soluzione che gira su tutte le cpu se la gpu non lo supporta, oppure su gpu ATI o Nvidia indifferentemente. Ecco perche' PhysX come e' oggi implementata e' destinata all'oblio. :)

eXeS
17-09-2009, 15:02
Ma i drivers ati sono già ottimi (vedi come scala il cross adesso!)..
Oddio, i numeri del Rating CF http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_catalyst_98_geforce_19062_cf_sli-vergleich/10/#abschnitt_performancerating non è che siano tanto confortanti... I più performanti risulterebbero essere i più vecchi, e i meno veloci i più recenti :D

goldorak
17-09-2009, 15:09
Se avessero 10% di yelds il solo die costerebbe 500$. E' evidente che non è possibile commercializzare una soluzione di questo tipo.

Basta che EVGA faccia prodotti del tipo :

Ultra mega ultimate for the win edition a 1000$ per i gamers e vedi come monettizzano. :asd:

Das~Ich
17-09-2009, 15:10
Se avessero 10% di yelds il solo die costerebbe 500$. E' evidente che non è possibile commercializzare una soluzione di questo tipo.

Ma infatti o vanno in perdita o sono costretti a non farli uscire proprio, per evitare problemi del genere. Se fosse così sarebbe più opportuno fare uscire gt200@40nm entro novembre o dicembre piuttosto che gt300

Trokji
17-09-2009, 15:24
Ma è quello che penso.. cioé se va male faranno uscire un 285 GTX a 40 nm..:fagiano:

ilratman
17-09-2009, 15:34
Ma è quello che penso.. cioé se va male faranno uscire un 285 GTX a 40 nm..:fagiano:

ma si infatti lo pompano un po' in frequenza e arrivano almeno alle prestazioni della 5850!

oppure fanno una sola versione di g300 che sta dietro alla 5870 perdendoci soldi e il resto appunto rimarchiano a 40nm!

oppure se la resa è il 10% il resto potrà essere recuperato per la fascia bassa!

eXeS
17-09-2009, 15:36
No, PhysX allo stato attuale gira soltanto su gpu Nvidia.


Ok, lo ripeto per l'ultima volta poi ci rinuncio.

PhysX è un motore fisico esattamente come Havoc, la maggior parte degli effetti sono eseguti dalla cpu, altri dalla gpu, in particolare la gpu dovrebbe occuparsi di quegli effetti che la cpu non è in grado di eseguire in tempi ragionevoli.

Sarebbe un'idiozia delegare la completa gestione della fisica alla gpu, e, perchè non è detto che tutti gli algoritmi possano trarne benefici, e, perchè la gpu non ha risorse illimitate quindi deve essere coinvolta solamente quando strettamente necessario.

PhysX è usato in questo elenco di giochi http://it.nzone.com/object/nzone_physxgames_home_it.html, ma gli effetti che vanno su gpu sono utilizzati solamente nei giochi menzionati da Bastoner, ergo, PhysX richiede hardware nVidia solamente se è previsto nel codice del gioco.

Bastoner
17-09-2009, 15:38
Cioè spiegami meglio, oggi PhysX su GPU rispetto a PhysX su CPU o Havoc ti da qualche fogliettino svolazzante, qualche vetro infranto, insomma qualche effettuccio a cui molti utenti danno un'importanza prossima allo zero.

Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?





Ma gli effettuci di cui parli sono già presenti da anni con Havok, non sono certo un'esclusiva di Nvidia :asd:.... Physix non ha aggiunto nulla, qualitativamente parlando. Anzi, ha tolto prestazioni.

eXeS
17-09-2009, 15:42
Ma gli effettuci di cui parli sono già presenti da anni con Havok, non sono certo un'esclusiva di Nvidia :asd:.... Physix non ha aggiunto nulla, qualitativamente parlando. Anzi, ha tolto prestazioni.
Esattamente in quali giochi si vedono fogliettini svolazzanti e altre cazzatine del genere ?

Bastoner
17-09-2009, 15:46
Esattamente in quali giochi si vedono fogliettini svolazzanti e altre cazzatine del genere ?

Hai mai provato a sbattere con l'auto sulle cassette della posta, in GTAIV?Centinaia di letterine che svolazzano, con un effetto molto realistico. La fisica perfetta delle esplisioni in Crysis? Sempre di Crysis, le catapecchie che si frantumano, i tronchi che rotolano, le palme che cadono? Devo continuare? Cosa ha aggiunto qualitativamente Physix? Ma gli hai visti gli effetti? :mbe: Hai visto Cryostasis? Mirror's Edge? Ma quali effetti?

eXeS
17-09-2009, 15:54
Hai mai provato a sbattere con l'auto sulle cassette della posta, in GTAIV?Centinaia di letterine che svolazzano, con un effetto molto realistico. La fisica perfetta delle esplisioni in Crysis? Sempre di Crysis, le catapecchie che si frantumano, i tronchi che rotolano, le palme che cadono?

Tutti giochi che con Havoc non c'entrano una mazza, GTA4 usa euphoria, e Crysis un motore fisico sviluppato internamente

Devo continuare? Cosa ha aggiunto qualitativamente Physix? Ma gli hai visti gli effetti? :mbe: Hai visto Cryostasis? Mirror's Edge? Ma quali effetti?
Se li ho chiamati effettucci dovrebbe essere chiaro quanto li ritenga importanti.

Andrea deluxe
17-09-2009, 16:30
Sarà sufficiente il perimetro per 512bit di bus?

Se no:

Taglieranno il bus?

In questo caso:

Revisioneranno lo stesso per il supporto alle GDDR5?

Inoltre:

Sarà rivisto per il supporto alle DX10.1 come avvenuto per i chip di fascia bassissima?

magari fanno la gtx 290 @40nm dx 10.1 con bus a 256bit - gddr5 - core clock 850 - shader 1920 - ram 5000mhz

halduemilauno
17-09-2009, 16:30
Mai una volta che riconosci il fatto che le strategie di mercato di ATI una volta tanto sono migliori di quelle di invidia :asd: . Per spalle coperte credo che la questione sia tanto semplice quanto evidente :


le 4770 sono state un test a 40nm, riuscito dato che sono state immesse nel mercato e sono state relativamente concorrenziali
le 58xx saranno immesse con almeno un paio di mesi di anticipo rispetto alle nuove gt300
dati i problemi di rese produttive di invidia è evidente che i margini di entrata per ogni scheda video assemblata saranno superiori per ati, anche a causa del die di dimensioni minori rispetto alla concorrente, e del bus inferiore
e dati appunto sempre questi problemi il rapporto prezzo prestazioni sarà migliore per ati molto probabilmente, come lo è stato per le 4800, nel senso che se davvero fosse confermato che le rese delle gt300 sono inferiori al 10%, del tipo 6-7%, dovremmo aspettarci prezzi di acquisto molto elevati, molto più elevati della concorrenza e quindiin parte ingiustificati. In merito alle prestazioni sicuramente le gt300 saranno migliori delle 5870 ma bisogna vedere e capire di quanto. Se fossero maggiori solo del 20% sarebbe molto grave per le previsioni dei bilanci. Io spero che grossomodo si equivalgano, o che magari riescano a migliorare le rese perché così facendo si avrebbe una concorrenza maggiore e ciò costringerebbe ati ad immettere delle 5890 (che immetterà all'uscita di gt300 quasi sicuramente) e ad abbassare i prezzi delle versioni precedenti.


Felice di essere smentito perché prezzi più bassi sono sempre ben accetti però qui la situazione inizia ad essere problematica. Nvidia ritiene che persino una gtx250 sarà più veloce della 5870 sotto il punto di vista physix (e ti credo, è una tecnologia proprietaria .. ) solo che ATI sviluppa le proprie physix parallelamente alle nuove schede video DX11 http://www.hwupgrade.it/forum/showthread.php?t=1795082&page=558. A questo punto si potrebbe rigirare la frittata ovvero dire che una 3870 va meglio di una gx295 con le bullet physix di ATI :ciapet: .

No, scherzi a parte, direi che forse sarebbe il caso di constatare che dalle G80 fino ad ora nvidia a mio parere ha fatto delle pessime scelte di mercato. Il G92 è stato un chip eccellente però a livello prestazionale la situazione è stata quasi inchiodata a quei livelli. Poi le schede rimarchiate aventi lo stesso chip, gli annunci di inutilità delle dx10.1 e poi l'adozione da parte di nvidia sui sistemi portatili per le nuove gpu economiche a 40nm (*), poi gli annunci dell'inutilità delle dx11 e dell'assoluta necessità del physix :asd: . Se questa non è sterile propaganda io non avrei termini per definirla altrimenti.

Nel mercato mobile abbiamo GTX280M con 128sp, ovvero un cluster in più rispetto alle 9800GTXM, ovvero quanti una 8800gts 512. Al contrario ati nel mercato mobile ha introdotto le 4800 con 800sp invece dei 320 delle 3800. Un minimo di innovazione ci vuole, ma qui invece .. :rolleyes:

GTX280M - 128SP - Core:585MHz / shaders: 1463Mhz - 61GB/s NOTA: G92 DESKTOP 8800GTS512 - 128SP - Core:675MHz / shaders: 1675Mhz - 64GB/s
9800M GTX -112SP -Core: 500Mhz / shaders: 1250MHz - 51.2GB/s NOTA: G92 DESKTOP 8800GT512 - 112SP - Core:600MHz / shaders: 1500Mhz - 57.6GB/s

io non parlavo della strategia parlavo di prestazioni. cmq le strategie sono diverse? si. sono migliori? il mercato deve dirlo e nvidia è sempre in vantaggio e non di poco(ultime dati dicono 63 vs 34)e da diversi anni ormai.
tutto qui.

okorop
17-09-2009, 16:34
magari fanno la gtx 290 @40nm dx 10.1 con bus a 256bit - gddr5 - core clock 850 - shader 1920 - ram 5000mhz

a mio avviso sarà una scheda video un po inutile, un die shrink che vuole dire poco.....a meno che non raggiunga le prestazioni della gtx295 e la vedo molto improbabile, ormai gt200 ha dato quello che ha potuto :)
p.s. se veramente hanno un 10% di chip gt300 funzionanti la vedo proprio male, spero che risolvino a breve la situazione

Andrea deluxe
17-09-2009, 16:35
a mio avviso sarà una scheda video un po inutile, un die shrink che vuole dire poco.....a meno che non raggiunga le prestazioni della gtx295 e la vedo molto improbabile, ormai gt200 ha dato quello che ha potuto :)
p.s. se veramente hanno un 10% di chip gt300 funzionanti la vedo proprio male, spero che risolvino a breve la situazione

si ma infatti ipotizzavo..... cosi....:)

michelgaetano
17-09-2009, 16:35
a mio avviso sarà una scheda video un po inutile, un die shrink che vuole dire poco.....a meno che non raggiunga le prestazioni della gtx295 e la vedo molto improbabile, ormai gt200 ha dato quello che ha potuto :)
p.s. se veramente hanno un 10% di chip gt300 funzionanti la vedo proprio male, spero che risolvino a breve la situazione

Tutto fa brodo per creare concorrenza, dal nostro punto di vista (cioè di consumatori) :D

Certo se si evitassero rebrands sarebbe meglio... :asd:

Bastoner
17-09-2009, 16:36
Tutti giochi che con Havoc non c'entrano una mazza, GTA4 usa euphoria, e Crysis un motore fisico sviluppato internamente

Si vabbé, non sono Physix, il succo é quello. Non c'è bisogno di uno standard proprietario - che gira solo su un brand di VGA - per averli. Questo per risponderti, a proposito di questo tuo discorso:

Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?


Se li ho chiamati effettucci dovrebbe essere chiaro quanto li ritenga importanti.

Appunto, stiamo parlando di cose talmente insignificanti che montare una campagna madiatica su questo é grottesco. Inoltre non sono solo effettucci di poco conto, ma comportano anche un crollo verticale delle prestazioni. :( :doh:

Trokji
17-09-2009, 16:43
si ma infatti ipotizzavo..... cosi....:)

Gli aggiungeranno le gddr 5 e pomperanno le frequenze.. tutto qui..nel caso gt 300 non vada in porto a breve :(
Magari comunque potrebbero raggiungere prestazioni pari alla 5850 (o forse leggermente superiori) e poi aspettare gt 300.. oppure far uscire gt 300 (se la resa è quella 9 a 500-600 euro rimettendoci.. o se riescono a farlo andare veramente forte 1000 euro non rimettendoci (diranno che è la nuova fascia altissima.. gt 300 mars edition) :D

okorop
17-09-2009, 16:48
Tutto fa brodo per creare concorrenza, dal nostro punto di vista (cioè di consumatori) :D

Certo se si evitassero rebrands sarebbe meglio... :asd:

ma ipotizzerei un die shrink di gt200 a 40nm con gddr5 bus 256kb e prestazioni leggermente superiori, ovviamente dipendenti dalle frequenze che si riusciranno ad avere.....Ipotizzando la gpu a 850mhz delle gddr5 a 4000mhz un buon 10% in piu' rispetto alla gtx285 si riuscirebbero a ricavare

Trokji
17-09-2009, 16:50
ma ipotizzerei un die shrink di gt200 a 40nm con gddr5 bus 256kb e prestazioni leggermente superiori, ovviamente dipendenti dalle frequenze che si riusciranno ad avere.....Ipotizzando la gpu a 850mhz delle gddr5 a 4000mhz un buon 10% in piu' rispetto alla gtx285 si riuscirebbero a ricavare

Forse di più del 10%.. certo non sarebbe un cambiamento generazionale, ma perlomeno terrebbero un po' di mercato e potrebbero rimandare GT 300.. ;)

Pat77
17-09-2009, 16:52
E' evidente che per supportare al meglio Windows 7 hanno pensato alle dx 10.1, e secondo me estenderanno il supporto verso natale a sempre più modelli, progettando con calma il lancio della nuova scheda, io non vedo tutta sta fretta, anche perchè, per giocare a cosa?
E intanto Ati farà i prezzi che vuole per le dx11 che ovviamente pubblicizzerà come indispensabili fin da subito.

Trokji
17-09-2009, 16:54
E' evidente che per supportare al meglio Windows 7 hanno pensato alle dx 10.1, e secondo me estenderanno il supporto verso natale a sempre più modelli, progettando con calma il lancio della nuova scheda, io non vedo tutta sta fretta, anche perchè, per giocare a cosa?
E intanto Ati farà i prezzi che vuole per le dx11.

Nessuno ha fretta di niente.. l'unico a doverlo avere è nvidia, perchè se non fa uscire niente di nuovo in pochi mesi rischia di perdere quote di mercato :)
Per giocare a cosa poi? eh hai ragione, le esigenze individuali possono essere molto diverse ;)