PDA

View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

Mister Tarpone
06-05-2009, 22:04
Il dissi attuale non butta l'aria fuori.

Io leggevo che quello che si vedeva dalle prime immagini non sarebbe stato commercializzato, tranne da xfx che si è visto in immagini.

La scheda comunque tocca quota 89 su trovaprezzi, che è un ottimo prezzo.

eh si, è regalata a quel prezzo... ;)

Dev42
06-05-2009, 22:05
Certamente. Il rimpianto è solo per il dissi.

Personalmente, sceglierò sempre e solo dual slot che tirino aria fuori.

Se non altro non scalda nulla, qui non si raggiungono neanche i 70°, mentre se pensiamo alle 4850 al lancio, questa partivano dai 70 :doh:

Ma sono le prime quindi come al solito entro un mesetto usciranno quelle con dissi non standard e quelle OC

Futura12
06-05-2009, 22:06
Certamente. Il rimpianto è solo per il dissi.

Personalmente, sceglierò sempre e solo dual slot che tirino aria fuori.

Se non altro non scalda nulla, qui non si raggiungono neanche i 70°, mentre se pensiamo alle 4850 al lancio, questa partivano dai 70 :doh:

erano i driver,come Tarpone potrà confermare...dopo poco con i drive nuovi le temperature stanno sui 40 in idle...con quello stock,ottime direi:)

Mister Tarpone
06-05-2009, 22:15
erano i driver,come Tarpone potrà confermare...dopo poco con i drive nuovi le temperature stanno sui 40 in idle...con quello stock,ottime direi:)

con ventola regolata attenzione. altrimenti 65 gradi ;)

e ieri l'ho rimontata ed è peggiorata in maniera assurda.. non capisco perchè :muro:

michelgaetano
06-05-2009, 22:16
con ventola regolata attenzione. altrimenti 65 gradi ;)

e ieri l'ho rimontata ed è peggiorata in maniera assurda.. non capisco perchè :muro:

In effetti io non capisco la politica del portare il regime di rotazione a volori così bassi: alzandoli lievemente, al punto da non fare ancora rumore, la temperature crollano.

La lezione comunque l'hanno imparata, basta vedere la 4890.

Mister Tarpone
06-05-2009, 22:19
anche io non capisco perchè hanno deciso di tenerla regolata a quel modo di default :mbe:

con ventola regolata al 37% non faceva punto casino.. :D

Mercuri0
06-05-2009, 22:49
La lezione comunque l'hanno imparata, basta vedere la 4890.

Ho recentemente preso unm dell xps 13''. Tutti a lamentarsi che scalda troppo, e con la nuova versione del bios, per farli contenti, hanno aumentato la velocità della ventola: che in idle adesso passa da "completamente spenta" a "lievemente accesa".

Io rimarrò a vita alla versione prima.

michelgaetano
06-05-2009, 22:59
Ho recentemente preso unm dell xps 13''. Tutti a lamentarsi che scalda troppo, e con la nuova versione del bios, per farli contenti, hanno aumentato la velocità della ventola: che in idle adesso passa da "completamente spenta" a "lievemente accesa".

Io rimarrò a vita alla versione prima.

Il punto è che potevano aumentare il regime e mantenerla comunque silenziosa.

A mio avviso l'impatto "fornace" è più negativo sugli utenti di quello "leggermente rumorosa".

Poi mi sbaglierò ^^"

okorop
06-05-2009, 23:04
Il punto è che potevano aumentare il regime e mantenerla comunque silenziosa.

A mio avviso l'impatto "fornace" è più negativo sugli utenti di quello "leggermente rumorosa".

Poi mi sbaglierò ^^"

quoto
devono fare himo delle 5870 veloci silenziose e che scaldano e consumano poco per vincere in tutti i sensi e spero che ati ce la faccia

Capozz
07-05-2009, 09:17
se nn lo calcoli allora perchè aspettare le nuove schede video? :stordita:

Pura scimmia tecnologica, poi se si guarda puramente al lato pratico non è che ci sia sto gran bisogno di schede più potenti.
Però la scimmia è scimmia :D

Capozz
07-05-2009, 09:22
+ che altro è peggiorata senza motivo... prima stava a 65gradi in idle con ventola a default...
ma poi, anche con ventola al 50%, artefatti a go go in game perchè arriva a 90 gradi come niente.


forse sta partendo..io boh.. :muro:

Anche la mia scalda un pò di più rispetto a un anno fa, probabilmente è la polvere che si infila dentro al dissi che, nella parte interna, è impossibile da pulire.
Nel mio caso sono pochi gradi in più in idle, in full load più o meno è uguale e non ho nessun artefatto o problema (e di questi tempi gioco parecchio)

michelgaetano
07-05-2009, 09:23
Anche la mia scalda un pò di più rispetto a un anno fa, probabilmente è la polvere che si infila dentro al dissi che, nella parte interna, è impossibile da pulire.
Nel mio caso sono pochi gradi in più in idle, in full load più o meno è uguale e non ho nessun artefatto o problema (e di questi tempi gioco parecchio)

Da eretico: non basta smontarla e soffiarla/spennellarla via? :D

Gabriyzf
07-05-2009, 09:26
Da eretico: non basta smontarla e soffiarla/spennellarla via? :D

o una bella spruzzata col compressore? :D

Mercuri0
07-05-2009, 11:32
Il punto è che potevano aumentare il regime e mantenerla comunque silenziosa.

A mio avviso l'impatto "fornace" è più negativo sugli utenti di quello "leggermente rumorosa".

Poi mi sbaglierò ^^"

Nelle scede desktop non credo siano molti quelli che misurano le temp delle schede. Mica tutti sono smanettoni come noialtri :D

Per i portatili la cosa si rileva invece con il tattometro. Eppur, io mi tengo il bios vecchio. Vince l'orecchiometro.

Mercuri0
07-05-2009, 11:36
devono fare himo delle 5870 veloci silenziose e che scaldano e consumano poco
Certo, e magari anche con una velina al giorno in omaggio. :D

La scheda verrà fatta con il clock più veloce possibile che entri nei consumi massimi. Se riescono a fare una scheda che "consuma poco", aumenteranno invece il clock. I consumi possono al massimo migliorarli in idle.

Per il calore sceglieranno i gradi che il processo sopporta (quindi almeno 80° in full) e sceglieranno il dissi di conseguenza perché sia ragionevolmente economico e silenzioso.

Turin
07-05-2009, 12:04
Si ma chiariamolo 'sto fatto: non è un problema di temperatura ma di quanto consuma.

Quando tomshardware si dice che il processo produttivo non va bene perché "scalda troppo", bisogna intendere solo "consuma troppo".

La 4770 non ha sorprese ormai, perché quanto consuma lo sappiamo. Le temperature sono quelle che i produttori scelgono, impostando velocità della ventola e dimensione del del dissipatore.
:D
*

Al limite sono le esigue dimensioni del chip a rappresentare un problema, ma non è che i 40nm "scaldano troppo".

okorop
07-05-2009, 12:06
Certo, e magari anche con una velina al giorno in omaggio. :D

La scheda verrà fatta con il clock più veloce possibile che entri nei consumi massimi. Se riescono a fare una scheda che "consuma poco", aumenteranno invece il clock. I consumi possono al massimo migliorarli in idle.

Per il calore sceglieranno i gradi che il processo sopporta (quindi almeno 80° in full) e sceglieranno il dissi di conseguenza perché sia ragionevolmente economico e silenzioso.

l'dea della velina mi piace :asd:

Trokji
07-05-2009, 14:31
Io ho deciso prenderò la nuova top di gamma ati..:cool:
Finalmente la vera potenza amd sarà nel mio pc

okorop
07-05-2009, 14:32
Io ho deciso prenderò la nuova top di gamma ati..:cool:
Finalmente la vera potenza amd sarà nel mio pc

io invece ne endeo' due :asd: non appena usciranno e semmai dopo aver visto nvidia cosa fa :)

Trokji
07-05-2009, 15:00
Io prima vedrò come si comporterà.. ne prenderò 2 solo se sarà necessario per il full HD :cool:

okorop
07-05-2009, 15:01
Io prima vedrò come si comporterà.. ne prenderò 2 solo se sarà necessario per il full HD :cool:

scelta giusta ma io pensavo al quad crossfire x di 5870x2 :sofico:

Trokji
07-05-2009, 15:04
In quel caso userai una risoluzione tipo 6000 X2500, cose che forse non sono ancora state inventate :cool: :) in più userai 2 enermax revolution 1250 per far partire il sistema, 2 mostri di alimentatori in crossfire :cool:
Comunque credo che per un quad del genere ci vorrà una mobo amd! tempo fa vidi un 4X4850 che funzionava anche :D

okorop
07-05-2009, 15:21
In quel caso userai una risoluzione tipo 6000 X2500, cose che forse non sono ancora state inventate :cool: :) in più userai 2 enermax revolution 1250 per far partire il sistema, 2 mostri di alimentatori in crossfire :cool:
Comunque credo che per un quad del genere ci vorrà una mobo amd! tempo fa vidi un 4X4850 che funzionava anche :D
mobo amd? perchè scusa? io vado di x58, se uscirà x68 e via :)

Trokji
07-05-2009, 15:22
Allora ok.. se non sbaglio ora tutte o quasi quelle mobo riescono a gestire sia CF che SLI giusto? io invece credo terrò questa vecchia carriola (si fa per dire ) 775 per migrare ad una piattaforma amdiana, sperando che inizi a migliorare la qualità delle sua CPU :fagiano:

homer31
07-05-2009, 18:23
mobo amd? perchè scusa? io vado di x58, se uscirà x68 e via :)

;)

halduemilauno
08-05-2009, 08:19
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13550&Itemid=1

Probably later
The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3. Many have expected that this card will launch either in late Q2 or early Q3, but we are hearing that this card might be pushed to later this year, but that it will instantly come with DirectX 11 support.

This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.

ATI has launched two new cards based on RV740 and RV790, and we don’t expect anything new before back to school, which promises a quite boring Q2 and Q3. Lets hope Q4 will have some serious surprises.

matteo1
08-05-2009, 10:43
ritardi del processo produttovo che riguarderanno sia amd che nvidia

Trokji
08-05-2009, 10:44
Quindi ora non so se mi toccherà prima cambiare di nuovo scheda..:muro: :D

Foglia Morta
08-05-2009, 10:45
ritardi del processo produttovo che riguarderanno sia amd che nvidia

Occhio però che nemmeno Fuad ha capito ciò che ha scritto :D

The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3.

This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.

gianni1879
08-05-2009, 10:46
Occhio però che nemmeno Fuad ha capito ciò che ha scritto :D

The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3.

This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.

ma infatti.... tanto per cambiare....


poi riportare le notizie di Fudz lascia il tempo che trova

matteo1
08-05-2009, 10:52
alle volte si riportano "allegramente" notizie che fanno comodo :fagiano:

Kharonte85
08-05-2009, 10:58
Occhio però che nemmeno Fuad ha capito ciò che ha scritto :D
:asd:

The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3.

This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.
Ma era convinto che ci fosse stato un RV870 non dx11? :fagiano:


Pero' non è da escludere che il ritardo ci sia se è vero che il 40nm ha dei problemi...

Athlon 64 3000+
08-05-2009, 11:22
Il fatto che RV870 esca gia a luglio-agosto è solo una voce di corridoio e quindi forse uscirà a ottobre visto che magari AMD ha previsto quella data la scheda e quindi i problemi dei 40nm non influenzeranno la tabella di marcia della nuova gpu dx11.

Athlon 64 3000+
08-05-2009, 11:24
Fudzilla non è convinto di nulla, visto che non sa nulla :asd:

Che i 40nm TMSC abbiano problemi è ormai pacifico perché confermato da TMSC stessa, sui ritardi che AMD/nVidia starebbero subendo c'è poco da dire, perché purtroppo non conosciamo i loro schedule e quindi difficilmente sapremo cosa è in ritardo, cosa in anticipo e cosa in programma...

Concordo,in realtà non sappiamo nulla su RV870 e GT300 e quindi quello che viene fuori sono solo voci di corridoio che potrebbe essere tutte delle gran cagate.

Foglia Morta
08-05-2009, 11:37
Occhio però che nemmeno Fuad ha capito ciò che ha scritto :D

The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3.

This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.

Azz... Credevo che Fuad potesse aver scritto solo 2 fesserie nello stesso articolo ma rileggendo mi sono accorto che sbagliavo...

ATI has launched two new cards based on RV740 and RV790, and we don’t expect anything new before back to school, which promises a quite boring Q2 and Q3. Lets hope Q4 will have some serious surprises.

Ma il periodo back to school ricade proprio dentro il Q3 :D

non può essere smentito, questo è un genio :sofico: , fessi noi che non riusciamo a interpretare le sue scritture :asd:

Foglia Morta
08-05-2009, 12:42
Impressive:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13574&Itemid=34

:mbe:

è già stata recensita la 4890 Atomic ( quella con Vapor-X ) a 1Ghz, è nel thread della 4890

Comunque :old: : http://www.hwupgrade.it/forum/showpost.php?p=27387047&postcount=645

michelgaetano
08-05-2009, 13:40
Impressive:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13574&Itemid=34

Non puoi ninjare Foglia, Rata :sofico:

nitro89
08-05-2009, 18:39
Ogame mode :D

Cmq a sto punto dato che non esce nulla aspetto qualche settimana e ripiego su 4890\275

Trokji
08-05-2009, 18:40
Io non ho capito però.. quale sarebbe la data prevista di uscita? novemre/dicembre di questo anno?

okorop
08-05-2009, 18:42
Ogame mode :D

Cmq a sto punto dato che non esce nulla aspetto qualche settimana e ripiego su 4890\275

ma tienti quella che hai :asd: non c'è nulla......

michelgaetano
08-05-2009, 18:52
Io non ho capito però.. quale sarebbe la data prevista di uscita? novemre/dicembre di questo anno?

Data la fonte, credo sia davvero tutto da vedere.

nitro89
08-05-2009, 18:59
ma tienti quella che hai :asd: non c'è nulla......

spero di tenere la scimmia a bada :O

michelgaetano
08-05-2009, 19:08
Certo che la 1800 lì :stordita:

Trokji
08-05-2009, 19:32
Magari c'è anche qualcuno che passerà dalla gloriosa 9800 al nuovo mostro di casa ATI :O
Dal 286 alla nuova ATI invece non credo

okorop
08-05-2009, 19:36
Magari c'è anche qualcuno che passerà dalla gloriosa 9800 al nuovo mostro di casa ATI :O
Dal 286 alla nuova ATI invece non credo

286 :confused: io ne avevo 3 e vendute tutte solo per ati!!!!!!!

Trokji
08-05-2009, 19:38
no 286 erano i vecchi pc prima dei pentium fine anni 80 primi 90.. :D . velocità procio tipo 20 mhz

Futura12
08-05-2009, 20:56
no 286 erano i vecchi pc prima dei pentium fine anni 80 primi 90.. :D . velocità procio tipo 20 mhz

:asd: 6 to 25Mhz:asd:

bertux
08-05-2009, 20:57
l'unica cosa che nvidia ha, e che mi attira e la possibilità di vedere immagini in 3D

okorop
08-05-2009, 21:05
l'unica cosa che nvidia ha, e che mi attira e la possibilità di vedere immagini in 3D

e avere un gran mal di tsta dopo 10 minuti :asd:

The_SaN
08-05-2009, 21:45
:asd: 6 to 25Mhz:asd:Ovvero quando acceleratori grafici e schede video discrete erano ancora un sogno :D

Capozz
08-05-2009, 21:46
:asd: 6 to 25Mhz:asd:

madonna, il "mio" secondo pc dopo il commodore 64....non si sa quante ore ho passato a giocare a Gran Prix Circuit, c'avrò avuto 4 o 5 anni :asd:

http://www.youtube.com/watch?v=UiTWIDbD8Q4

Trokji
08-05-2009, 21:55
Ovvero quando acceleratori grafici e schede video discrete erano ancora un sogno

Io a quell'epoca giocavo a Jill e robo. Poi c'era un gioco tipo tennis. più tardi riuscii ad avere il primo prince of persia e poi A10 tank killer (ma qui erano già passati anni :D ). Comunque ce l'ho ancora il 286.. magari tra 20 anni sarà d'epoca e varrà dei soldoni :read:

Sinceramente dubito che ci sia chi ha schede più vecchie della radeon 9800 e che voglia passare col nuovo pc al nuovo mostro di casa AMD.. o se ci sono saranno pochissimi :Prrr:

Eccolo http://www.youtube.com/watch?v=SjiObmXtuGg

poi c'era anche il mitico primo wolfenstein! :D

Capozz
08-05-2009, 22:19
Io a quell'epoca giocavo a Jill e robo. Poi c'era un gioco tipo tennis. più tardi riuscii ad avere il primo prince of persia e poi A10 tank killer (ma qui erano già passati anni :D ). Comunque ce l'ho ancora il 286.. magari tra 20 anni sarà d'epoca e varrà dei soldoni :read:

Sinceramente dubito che ci sia chi ha schede più vecchie della radeon 9800 e che voglia passare col nuovo pc al nuovo mostro di casa AMD.. o se ci sono saranno pochissimi :Prrr:

Eccolo http://www.youtube.com/watch?v=SjiObmXtuGg

poi c'era anche il mitico primo wolfenstein! :D

OMG prince of persia...ci giocavo anche io!
Di giochi ne avevo troppi.
Cmq il salto da 9800 pro a 5870 deve essere assurdo...io già rimasi abbastanza stupefatto dalla 9800pro alla 8800GTS :D

schumifun
08-05-2009, 22:54
OMG prince of persia...ci giocavo anche io!
Di giochi ne avevo troppi.
Cmq il salto da 9800 pro a 5870 deve essere assurdo...io già rimasi abbastanza stupefatto dalla 9800pro alla 8800GTS :D

beh io sono passato da una ati 9550 agp ad una 8800gt g92....

Trokji
08-05-2009, 23:07
io rimasi stupito soprattutto dalla ati all in wonder 128 alla 5900 xt.. poi da quest'ultima alla 1650 pro. il resto sono stati tutti salti più graduali.. :cool:

homer31
09-05-2009, 12:51
infatti per notare un salto generazionale a mio avviso è meglio aspettare un cambio radicale di tecnologie produttive, non sostituire soltanto la scheda con una più pompata.

poi è una mia opinione. :)

<^MORFEO^>
11-05-2009, 08:27
http://www.tomshw.it/news.php?newsid=18035 :(

DakmorNoland
11-05-2009, 09:04
http://www.tomshw.it/news.php?newsid=18035 :(

E sai che tristezza! :p Io proprio non vi capisco, forse sono io che ho problemi, però con il sistema in firma, insomma con una x1800xt un pò downclockata gioco a tutto a 1680 con dettagli alti o medio alti a seconda dei giochi!! :eek: Ad esempio The Last Remnant, Hawx mi gira fluidi con tutto al max, il secondo addirittura AA 2x, certo non posso usufruire degli effetti DX10 ma non mi sembra sta grossa perdita....

Quindi sinceramente non capisco tutti sti drammi per un eventuale ritardo delle DX11 visto che molti di voi hanno almeno una 4850 come scheda, che dovrebbe essere un tantino più potente della mia! :D

<^MORFEO^>
11-05-2009, 09:10
E sai che tristezza! :p Io proprio non vi capisco, forse sono io che ho problemi, però con il sistema in firma, insomma con una x1800xt un pò downclockata gioco a tutto a 1680 con dettagli alti o medio alti a seconda dei giochi!! :eek: Ad esempio The Last Remnant, Hawx mi gira fluidi con tutto al max, il secondo addirittura AA 2x, certo non posso usufruire degli effetti DX10 ma non mi sembra sta grossa perdita....

Quindi sinceramente non capisco tutti sti drammi per un eventuale ritardo delle DX11 visto che molti di voi hanno almeno una 4850 come scheda, che dovrebbe essere un tantino più potente della mia! :D

Ma non ne ho mica fatto un dramma :D
A me personalmente interessa poco questo ritardo visto che con la mia 4870 starò al sicuro ancora per un bel pò...
Ma ci sono altri utenti che volevano passare a questo RV870 ed altri ancora che come me speravano che AMD riuscisse a rispettare i tempi per battare sul tempo nVidia in modo da riottenere un pò di equilibrio sul mercato e maggior competitività :fagiano:

michelgaetano
11-05-2009, 09:32
Faccio notare come i tempi da rispettare non siano a noi noti, sia per AMD che per nVidia, e che non potremo mai parlare di anticipi e ritardi rispetto ad un calendario che non conosciamo. Potremo dire qualcosa a riguardo solo in senso relativo fra i due concorrenti quando il primo dei due butterà fuori qualcosa (magari che non sia un G92c :asd: )

TI PREGO NO.

Athlon 64 3000+
11-05-2009, 09:40
Faccio notare come i tempi da rispettare non siano a noi noti, sia per AMD che per nVidia, e che non potremo mai parlare di anticipi e ritardi rispetto ad un calendario che non conosciamo. Potremo dire qualcosa a riguardo solo in senso relativo fra i due concorrenti quando il primo dei due butterà fuori qualcosa (magari che non sia un G92c :asd: )

Concordo!

mircocatta
11-05-2009, 10:15
madonna, il "mio" secondo pc dopo il commodore 64....non si sa quante ore ho passato a giocare a Gran Prix Circuit, c'avrò avuto 4 o 5 anni :asd:

http://www.youtube.com/watch?v=UiTWIDbD8Q4

mitico quel videogioco XD

edit_user_name_here
13-05-2009, 16:45
Ciao a tutti.
Volevo chiedervi una info, se possibile, sull'uscita della 4890x2 perchè credo di essermi saltato qualche news su hwupgrade che ultimamente sono rimasto indietro con le news e non trovando nulla di chiaro su internet.

Fatemi sapere pls.

Saluti!

P.S.: Apparte quella notizia di un debutto possibile.

Mercuri0
13-05-2009, 18:48
Ciao a tutti.
Volevo chiedervi una info, se possibile, sull'uscita della 4890x2 perchè credo di essermi saltato qualche news su hwupgrade che ultimamente sono rimasto indietro con le news e non trovando nulla di chiaro su internet.

Fatemi sapere pls.


Nessuna 4890x2 avvistata sul radar.

Invece alcuni produttori venderanno una 4890++ con clock a 1ghz.

appleroof
13-05-2009, 20:41
Nessuna 4890x2 avvistata sul radar.

cut

imho avrebbe consumi esagerati e cmq se è vero che rv870 è alle porte...

michelgaetano
13-05-2009, 20:55
imho avrebbe consumi esagerati e cmq se è vero che rv870 è alle porte...

Quoto.

Personalmente non vedo motivo di esistere per una 4890x2.

edit_user_name_here
13-05-2009, 21:01
Ah non sapevo neanche questo beh spero che i consumi siano più umani per stare dentro nel 850watt che ho di alimentatore lol.
Ovvviamente parlando per 2 gpu fisiche x2 ma anche una mi starebbe bene però volevo almeno informarmi per prendere tutte le info possibili :)

Cmq thx for the info ;)

<^MORFEO^>
13-05-2009, 21:16
Ah non sapevo neanche questo beh spero che i consumi siano più umani per stare dentro nel 850watt che ho di alimentatore lol.
Ovvviamente parlando per 2 gpu fisiche x2 ma anche una mi starebbe bene però volevo almeno informarmi per prendere tutte le info possibili :)

Cmq thx for the info ;)

Se le prossime schede che produrranno, non staranno dentro gli 850W, beh, si potrebbe dire che hanno fallito su tutti i fornti perchè neanche l'1% dei videogiocatori se le potrebbe permettere :asd:

michelgaetano
13-05-2009, 21:17
Se le prossime schede che produrranno, non staranno dentro gli 850W, beh, si potrebbe dire che hanno fallito su tutti i fornti perchè neanche l'1% dei videogiocatori se le potrebbe permettere :asd:

Lui a quanto ho capito parlava di 2x 4890x2 negli 850.

<^MORFEO^>
13-05-2009, 21:26
Lui a quanto ho capito parlava di 2x 4890x2 negli 850.

Penso sia una configurazione assolutamente inutile... a mio parere ovviamente!

Gabriyzf
13-05-2009, 21:40
Se le prossime schede che produrranno, non staranno dentro gli 850W, beh, si potrebbe dire che hanno fallito su tutti i fornti perchè neanche l'1% dei videogiocatori se le potrebbe permettere :asd:

quoto

michelgaetano
13-05-2009, 21:41
Penso sia una configurazione assolutamente inutile... a mio parere ovviamente!

Beh questo è un parere, però c'è chi la farebbe come lui :D

michelgaetano
13-05-2009, 22:03
Ormai ci vuole la sfera di cristallo. Di seguito i rumors più recenti:

- RV870 esce prima di GT300
- RV870 esce dopo GT300
- GT300 esce per il back to school
- RV870 esce in Q2
- RV870 esce in Q3
- RV870 esce in Q4
- RV870 esce nel 2010
- GT300 esce nel Q3
- GT300 esce nel Q4
- GT300 esce nel Q2 del 2010

Cioè tutto :sofico: Qualcuno ci prenderà lì in mezzo :asd:

argez
13-05-2009, 22:39
Ormai ci vuole la sfera di cristallo. Di seguito i rumors più recenti:

- RV870 esce prima di GT300
- RV870 esce dopo GT300
- GT300 esce per il back to school
- RV870 esce in Q2
- RV870 esce in Q3
- RV870 esce in Q4
- RV870 esce nel 2010
- GT300 esce nel Q3
- GT300 esce nel Q4
- GT300 esce nel Q2 del 2010

Beh almeno sappiamo che esce :asd:.

Mercuri0
13-05-2009, 23:04
Beh almeno sappiamo che esce :asd:.

Oddio, se vogliamo dirla tutta potrei anche linkare un rumor in cui si dice che nVidia non farà il superchippone.

Milotto
14-05-2009, 00:00
Oddio, se vogliamo dirla tutta potrei anche linkare un rumor in cui si dice che nVidia non farà il superchippone.

posta posta...:)

Marko91
14-05-2009, 06:30
Come ne pensate del texture:shader ratio? Sara' uguale a quello attuale o aumentera' ulteriormente?
Se aumenta ulteriormente, su RV870 ci sarebbe posto per un altro incremento sostanziale degli shader.
16 SIMD da 25sp(125 ALU), ogni SIMD accoppiato a 4 TMU
Totale 2000sp, 60TMU, possibilmente 32 ROPs. Sarebbe un chip simile bandwidth limited con un MC da 256bit? Qual'e' la piu' veloce memoria GDDR5 avviabile? 1.25Ghz? 160gb/s potrebbero non essere sufficienti a soddisfare 3 Teraflops (2000sp*2*750Mhz).
Il die-size dovrebbe essere all'incirca quello di RV770, i transistor attorno ai 1.3-1.5 miliardi.

edit_user_name_here
14-05-2009, 09:53
Penso sia una configurazione assolutamente inutile... a mio parere ovviamente!

E' da affiancare alla risoluzione del 30 pollici ma cmq non è detto che ne devo per forza comprarne 2!E' solo una idea ;) però il 30 pollici è realtà :D forse...

Saluti!

Mercuri0
14-05-2009, 10:25
posta posta...:)

Alla luce delle ultime news quella notizia ha l'aria di essere un depistaggio da parte di nvidia stessa. Quindi evito di cercare il link.

Casomai dovesse succedere poi potrò dire "eh, in effetti l'avevo letto" :sofico:

<^MORFEO^>
14-05-2009, 10:42
E' da affiancare alla risoluzione del 30 pollici ma cmq non è detto che ne devo per forza comprarne 2!E' solo una idea ;) però il 30 pollici è realtà :D forse...

Saluti!

Ma un 30" da 1920x1080?

Matalf
14-05-2009, 10:52
E' da affiancare alla risoluzione del 30 pollici ma cmq non è detto che ne devo per forza comprarne 2!E' solo una idea ;) però il 30 pollici è realtà :D forse...

Saluti!

Ma un 30" da 1920x1080?

Ragazzi ma cosa c'entrano i pollici???

sono le risoluzioni che contano:
10", 20", 50", 1000" a parità di risoluzione hanno lo stesso impatto sulle schede video!!!!

<^MORFEO^>
14-05-2009, 11:01
Ragazzi ma cosa c'entrano i pollici???

sono le risoluzioni che contano:
10", 20", 50", 1000" a parità di risoluzione hanno lo stesso impatto sulle schede video!!!!

Appunto...

Se è un 30" a 1920x1080 basta e avanza una ipotetica 4890x2... Ma se si parla di un 30" a 2560 x 1600 allora li la situazione cambia un pò ;)

edit_user_name_here
14-05-2009, 11:19
Pensavo che fosse ovvio parlando di 30 pollici :) cmq intendevo la seconda ipotesi.

Scusate ancora ;)

<^MORFEO^>
14-05-2009, 11:25
Pensavo che fosse ovvio parlando di 30 pollici :) cmq intendevo la seconda ipotesi.

Scusate ancora ;)

Ma si, non ci sono problemi... ;)

L'ho chiesto perchè molti utenti usano i TV FullHD (1920x1080) della Samsung come monitor quindi non è molto scontato che si parli di un 30" nato direttamente come monitor per PC a risoluzioni elevatissime...

Anche perchè un 30" TV FullHD costa molto meno di un monitor per PC da 30"! :fagiano:

Matalf
14-05-2009, 11:35
Un articolo interessante sui rilasci delle nuove architetture DX11 (di entrambi):

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Mio dio che stroncatura, comunque questo articolo incarna molte delle mie idee su Nvidea e le sue "Pizze"


Appunto...

Se è un 30" a 1920x1080 basta e avanza una ipotetica 4890x2... Ma se si parla di un 30" a 2560 x 1600 allora li la situazione cambia un pò ;)

dai seriamente ora come ora , Crysis escluso, basta una 4870 1gb per giocare a 1920x1080 con i filtri attivi



torinando IT

a questo punto più che il numero di Sp a preoccuparmi sono le temperature.

Se la stessa TSMC ammette che il suo 40nm fa pena , passatemi il termine, un rv870 prematuro potrebbe diventare esageratamente caldo, mettondo in "pericolo" l'integrità della scheda.

Esempio lampante è lo stesso rv740 con il suo dissi dual Slot

Matalf
14-05-2009, 12:21
per AMD non dovrebbero esserci problemi come limite del TDP

saranno i soliti 150W perla singola e 300W per la x2

qualche problema potrebbe averlo nVidea con la prossima pizza, anche perchè potrebbe raggiunge e superare agilmente i 2,5miliardi di transistor.

ghiltanas
14-05-2009, 12:25
per AMD non dovrebbero esserci problemi come limite del TDP

saranno i soliti 150W perla singola e 300W per la x2

qualche problema potrebbe averlo nVidea con la prossima pizza, anche perchè potrebbe raggiunge e superare agilmente i 2,5milioni di transistor.

forse resta sotto quella cifra:

http://www.tomshw.it/news.php?newsid=18068

Matalf
14-05-2009, 12:34
:doh: ho scritto milioni, intendevo miliardi


comunque non son pochi, praticamente come 3 i7 affiancati

ghiltanas
14-05-2009, 12:43
:doh: ho scritto milioni, intendevo miliardi


comunque non son pochi, praticamente come 3 i7 affiancati

se nn me lo dicevi nn me ero nemmeno accorto che avevi scritto milioni :asd:

yossarian
14-05-2009, 13:52
forse resta sotto quella cifra:

http://www.tomshw.it/news.php?newsid=18068

non sono molto d'accordo su quanto scritto circa le ananlogie tra larrabee e le scelte di nVidia. L'unica cosa in comune sono le dimensioni del chip, diciamo.....generose :D

Per il resto, larrabee è, come lo definisce Intel, un manycore chip, in qunto composto "fisicamente" di più processori separati e, in teoria, potrebbe anche integrare un'architettura a core asimmetrici. Inoltre, il compilatore svolge un ruiolo fondamentale nel bilanciamento dei carichi di lavoro e questo lo rende, dal punto di vista funzionale, più simile a RV770 di quanto non lo sia rispetto a GT200 (o a quello che si sa di GT300). Al contrario, nVidia ha scelto la strada del singolo core (GT200 non ha l'equivalente di 240 core in quanto un singolo controller si occupa di gestire 24 gruppi di alu e, risalendo attraverso un ipotetico diagramma d albero, un thread dispatch processor si occupa di gestire l'intero chip. Qualora GT300 conservasse questo tipo di logica, anche qualora si adottassero unità di tipo programmabile per la RBE (come in larrabee), si avrebbe sempre un'architettura piuttosto "rigida"; efficiente dal punto di vista delle prestazioni (anche se le alu generiche sono meno efficienti di quelle dedicate) ma poco flessibile e, comunque, a singolo core

Gabriyzf
14-05-2009, 14:00
non sono molto d'accordo su quanto scritto circa le ananlogie tra larrabee e le scelte di nVidia. L'unica cosa in comune sono le dimensioni del chip, diciamo.....generose :D

Per il resto, larrabee è, come lo definisce Intel, un manycore chip, in qunto composto "fisicamente" di più processori separati e, in teoria, potrebbe anche integrare un'architettura a core asimmetrici. Inoltre, il compilatore svolge un ruiolo fondamentale nel bilanciamenot dei carichi di lavoro e questo lo rende, dal punto di vista funzionale, più simile a RV770 di quanto non lo sia rispetto a GT200 (o a quello che si sa di GT300). Al contrario, nVidia ha scelto la strada del singolo core (GT200 non ha l'equivalente di 240 core in quanto un singolo controller si occupa di gestire 24 gruppi di alu e, risalendo attraverso un ipotetico diagramma d albero, un thread dispatch processor si occupa di gestire l'intero chip. Qualora GT300 conservasse questo tipo di logica, anche qualora si adottassero unità di tipo programmabile per la RBE (come in larrabee), si avrebbe sempre un'architettura piuttosto "rigida"; efficiente dal punto di vista delle prestazioni (anche se le alu generiche sono meno efficienti di quelle dedicate) ma poco flessibile e, comunque, a singolo core

grazie delle tue sempre eccellenti spiegazioni

NvidiaMen
14-05-2009, 15:54
non sono molto d'accordo su quanto scritto circa le ananlogie tra larrabee e le scelte di nVidia. L'unica cosa in comune sono le dimensioni del chip, diciamo.....generose :D

Per il resto, larrabee è, come lo definisce Intel, un manycore chip, in qunto composto "fisicamente" di più processori separati e, in teoria, potrebbe anche integrare un'architettura a core asimmetrici. Inoltre, il compilatore svolge un ruiolo fondamentale nel bilanciamento dei carichi di lavoro e questo lo rende, dal punto di vista funzionale, più simile a RV770 di quanto non lo sia rispetto a GT200 (o a quello che si sa di GT300). Al contrario, nVidia ha scelto la strada del singolo core (GT200 non ha l'equivalente di 240 core in quanto un singolo controller si occupa di gestire 24 gruppi di alu e, risalendo attraverso un ipotetico diagramma d albero, un thread dispatch processor si occupa di gestire l'intero chip. Qualora GT300 conservasse questo tipo di logica, anche qualora si adottassero unità di tipo programmabile per la RBE (come in larrabee), si avrebbe sempre un'architettura piuttosto "rigida"; efficiente dal punto di vista delle prestazioni (anche se le alu generiche sono meno efficienti di quelle dedicate) ma poco flessibile e, comunque, a singolo core
Approfitto della tua disponibilità ed approfondita preparazione per chiederti quanto segue.
Quando parli di minore flessibilità architetturale essa è riferita all'attuale approccio software di tipo programmazionale o ad altro? Te lo chiedo perchè da quel che si legge in giro gli attuali linguaggi di programmazione sembrano "mal digerire", ad oggi, un approccio SIMD nel quale la granularità (numero di shader processors per SIMD) potrebbe risultare inferiore a quella prevista nell'hardware (in particolare in quello vettoriale di R600-RV670-RV770-RV790) non andando ad impegnare completamente tutte le unità a disposizione in alcuni cicli di clock.

<^MORFEO^>
14-05-2009, 17:25
...
dai seriamente ora come ora , Crysis escluso, basta una 4870 1gb per giocare a 1920x1080 con i filtri attivi
...

Si ma sai, se ci sono persone che comprano monitor per PC da 30" a mega risoluzioni per centinaia e centinaia di euro, sono disposti anche a prendere una seconda (inutile) super scheda video anche se poi alla fine guadagnano magari anche solo 3fps :doh:

Fine OT comunque :D

Andrea deluxe
14-05-2009, 17:28
Si ma sai, se ci sono persone che comprano monitor per PC da 30" a mega risoluzioni per centinaia e centinaia di euro, sono disposti anche a prendere una seconda (inutile) super scheda video anche se poi alla fine guadagnano magari anche solo 3fps :doh:

Fine OT comunque :D

ti farei fare una partitina a crysis con il mio sistema.....:D

<^MORFEO^>
14-05-2009, 17:33
ti farei fare una partitina a crysis con il mio sistema.....:D

A me già basta e avanza il mio ;)

Non mi interessa avere tutto al massimo, mille mila frame e filtri AF128 tutti attivi... :rolleyes:

Milotto
14-05-2009, 17:42
Un articolo interessante sui rilasci delle nuove architetture DX11 (di entrambi):

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture


Molto interessante.....

@yossarian : condividi le osservazioni di questo articolo...?TnX

edit_user_name_here
14-05-2009, 17:51
Si ma sai, se ci sono persone che comprano monitor per PC da 30" a mega risoluzioni per centinaia e centinaia di euro, sono disposti anche a prendere una seconda (inutile) super scheda video anche se poi alla fine guadagnano magari anche solo 3fps :doh:

Fine OT comunque :D

Non sono tra queste persone :) prenderò due schede grafiche solo se si guadagna davvero tanto anzi pensa che io ho una mobo 8x8 dunque che faccio perdo 3 fps? tragedia :D io ora gioco a 20 fps come media ti lascio immaginare :p e poi il 30 pollici lo prendo con i miei risparmi nel caso decido perchè fino ad ora ho solo avuto schede grafiche e monitor da meno di 100 euro.

P.S.: Ed è la terza volta ora lol :asd:

HackaB321
14-05-2009, 18:00
Approfitto della tua disponibilità ed approfondita preparazione per chiederti quanto segue.
Quando parli di minore flessibilità architetturale essa è riferita all'attuale approccio software di tipo programmazionale o ad altro?


Credo che si riferisca alla programmabilità delle unità funzionali della gpu.
Le Rops e le TMU attualmente sono unità fisse nel senso che il loro funzionamento è impostato via hardware. L'es tipico è il box filter dell'AA: è una funzionalità rigida perchè agisce sempre nello stesso modo, l'unica cosa che può cambiare è il numero di sample utilizzati. Il vantaggio di una unità fissa sono le prestazioni, gli svantaggi sono il numero di transistor (in genere maggiore per le unità fisse) e la flessibilità di utilizzo : ad es con un filtro AA programmabile è possbile creare per il programmatore un proprio filtro e/o personalizzare la scena applicando filtri diversi in base a specifiche esigenze (mentre il box-filter agisce nello stesso modo per tutti i pixel che compongono la scena).
Nvidia potrebbe contenere il numero di transistor e il die-size di GT300 (incrementato a causa del passaggio a 512sp e del presunto salto ad un'architettura full-MIMD) con il passaggio a unità programmabili di certe funzioni in modo simile a come farà Larrabee

Te lo chiedo perchè da quel che si legge in giro gli attuali linguaggi di programmazione sembrano "mal digerire", ad oggi, un approccio SIMD nel quale la granularità (numero di shader processors per SIMD) potrebbe risultare inferiore a quella prevista nell'hardware (in particolare in quello vettoriale di R600-RV670-RV770-RV790) non andando ad impegnare completamente tutte le unità a disposizione in alcuni cicli di clock.

Da un punto di vista teorico, dell'architettura SIMD come paradigma di progettazione di una gpu, il rischio esiste. In pratica però si tratta di un non-problema. Nel corso degli anni è stato "superato" rendendo le gpu unità più flessibili man mano che il codice dei vg diventava sempre meno banale ( poochissime istruzioni su enormi moli di dati). Oggi, con la capacità delle gpu di gestire migliaia di threads in flight, con l'elevata specializzazione dei dispatch processor nell'alternare gruppi di threads in esecuzione ogni volta che un batch viene messo in sleep e grazie alla granularità sempre più fine su cui le gpu lavorano (la branching granularity è passata nelle gpu Nvidia da circa 1k pixel di NV40 a 256pixel in G70 a 32pixel/16vertex in G80, sulle ATi è già dalla serie R5** che è minore o uguale a 64 pixel) è molto difficile che ci siano sp inutilizzati a causa della struttura SIMD dei cluster

Albi80
14-05-2009, 19:04
Molto interessante.....

@yossarian : condividi le osservazioni di questo articolo...?TnX

Molto interessante .. in pratica sembrerebbe che la 4870 è quasi una direct 11, solo che Microsoft sotto pressione di Nvidia ha rimandato tutto . In pratica le dx10 sono dx11 assai castrate .. bah .. Nuovo caso Intel ? nvidia puzza assai di marcio ..

e poi sta frase : On 55nm, the ATI RV790 basically ties the GT200b in performance, but does it in about 60 per cent of the area, and that means less than 60 per cent of the cost. Please note, we are not taking board costs into account, and if you look at yield too, things get very ugly for Nvidia. Suffice it to say that architecturally, GT200 is a dog, a fat, bloated dog.

Io l ho sempre detto che nvidia ha toppato sto giro.

Ren
14-05-2009, 19:40
Perchè nvidia riesce ad integrare meno transistor rispetto ad ATI a parità di processo produttivo ?

Centra qualcosa il numero maggiore di unità per array di ATi?

Non so se è già stato trattato.

Gabriyzf
14-05-2009, 19:57
Perchè nvidia riesce ad integrare meno transistor rispetto ad ATI a parità di processo produttivo ?

Centra qualcosa il numero maggiore di unità per array di ATi?

Non so se è già stato trattato.

rv790: 956E9

gt200b: 1.4E12

entrambi 55nm

yossarian
14-05-2009, 21:47
Approfitto della tua disponibilità ed approfondita preparazione per chiederti quanto segue.
Quando parli di minore flessibilità architetturale essa è riferita all'attuale approccio software di tipo programmazionale o ad altro? Te lo chiedo perchè da quel che si legge in giro gli attuali linguaggi di programmazione sembrano "mal digerire", ad oggi, un approccio SIMD nel quale la granularità (numero di shader processors per SIMD) potrebbe risultare inferiore a quella prevista nell'hardware (in particolare in quello vettoriale di R600-RV670-RV770-RV790) non andando ad impegnare completamente tutte le unità a disposizione in alcuni cicli di clock.

è riferito all'architettura hardware. Un'architettura come quella nVidia ha il grosso pregio di non aver bisogno di particolari interventi da parte dei driver per ottimizzare operazioni come il bilanciamento dei carichi di lavoro e, soprattutto, la parallelizzazione. Però, proprio per il fatto che il chip è gestito quasi interamente in hardware, l'architettura risulta poco flessibile nei confronti di eventuali adattamenti o evoluzioni delle API di riferimento o del software. Ad esempio, su un'architettura come quella di R600 non è stato difficile implementare le dx10.1 (ed avere RV670), su G80 è risultato impossibile (bada bene, la mancata adozione delle dx10.1 non è stata una scelta volontaria di nVidia ma una scelta obbligata: passare alle dx10.1 avrebbe obbligato ad un cambio dell'architettura a cui ne avrebbe fatto seguito un altro, per il passaggio alle dx11. Quindi tanto valeva aspettare direttamente queste ultime). Sui chip ATi, come avverrà con larrabee, è possibile utilizzare alu fp32 per fare calcoli fp64 perchè si riesce, tramite compilatore, a riorganizzare in maniera differente il lavoro delle stesse. Su GT200 è stato necessario far ricorso ad alu fp64 fisiche (e infatti le serie G8x e G9x non hanno capacità di calcolo in double precision). Il problema della granularità è iniziato ad emergere con il gpgpu e con il tentativo di avvicinare il modello di programmazione delle cpu. Nei fatti, una gpu e una cpu non saranno mai perfettamente intercambiabili perchè la prima ha il suo punto di forza proprio nelle istruzioni di tipo SIMD, ovvero nel parallelismo dei dati, mentre le seconde privilegiano il parallelismo delle istruzioni sacrificando la potenza di calcolo (parallelo). La cpu più potente in circolazione (il cell) utilizza alu vettoriali e non è esattamente una cpu di tipo GP come non sono dei processori GP le GPU.
Infine l'approccio dei chip ATi non è di tipo vettoriale ma VLIW. E' un approccio molto più flessibile di quello vettoriale anche se fortemente dipendente dalle ottimizzazioni fatte via compiler per quanto riguarda la paralellizzazione di dati e istruzioni.

Molto interessante.....

@yossarian : condividi le osservazioni di questo articolo...?TnX

si tratta di un articolo che non dice niente di nuovo rispetto a quanto si legge da parecchi mesi sui forum. Non è una novità che ATi sia in vantaggio con i nuovi processi produttivi e la prova sta nel fatto che nVidia ha sacrficato gli interi segmenti mainstream e entry level delle sue architetture derivate da GT200 sia a 65 che a 55 nm, per accelerare la transizione a 55 prima e a 40 nm poi. Non è neppure una novità che i chip ATi abbiano molte più feature avanzate rispetto a quelli nVidia: tutte le novità introdotte dalle dx10.1 (le vere dx10) saranno presenti, così come sono, anche nelle dx11.
Non è un azzardo prevedere che difficilmente nVidia effettuerà il passaggio a GT300 direttamente adottando i 40 nm, con un'architettura nuova o, comunque, fortemente modificata, senza prima sperimentare il nuovo pp e/o la nuova architettura. Solitamente, la transizione di pp si effettua utilizzando un'architettura già collaudata (in tal caso nVidia potrebbe utilizzare quella di GT200 o, addirittura, ancora quella di G80), mentre una nuova architettura si adotta dopo aver messo a punto il pp.
Comunque queste sono cose che, anche io, sto ripetendo da mesi (forse anni). ATi ha acquisito un vantaggio importante a livello di pp con R420, dopo che nVidia aveva introdotto per prima i 130 nm con NV30. E la storia insegna che ATi è arrivata sempre dopo ma con prodotti più avanzati a livello di feature adottate (R100 rispetto a NV15, R200 rispetto a NV20, R5x0 rispetto a G7x, R600 e derivati rispetto a G80 e derivati); unica eccezione, appunto, NV30 e R300, dove nVidia è arrivata dopo ma si è avvantaggiata come pp adottato.
Non sono d'accordo sull'ipotesi che si lascia trapelare che ATi ha in mano un chip dx11 sin da R600. R600, RV670 e RV770 sono chip dx10 e dx10.1. Anzi, sono chip che vanno oltre le specifiche dx10.1 e la loro architettura non necessita di rivoluzioni per adottare le nuove api, ma non sono dx11.

yossarian
14-05-2009, 21:49
rv790: 956E9

gt200b: 1.4E12

entrambi 55nm

probabilmente intende che GT200b è 490 mm^2 e RV770 è 260 mm^2.

Foglia Morta
14-05-2009, 22:23
probabilmente intende che GT200b è 490 mm^2 e RV770 è 260 mm^2.

Piccolo ot: ma il tessellatore Larrabee ce l'ha ? A me non pare di averlo visto negli schemi dell'architettura...

Dovrebbe essere una fixed function, ma tempo fa avevi detto che ( in base a ciò che si sa ad oggi ) le uniche fixed function le avrebbe avute nelle tmu

Milotto
14-05-2009, 22:53
...si tratta di un articolo che non dice niente di nuovo rispetto a quanto si legge da parecchi mesi sui forum. Non è una novità che ATi sia in vantaggio con i nuovi processi produttivi e la prova sta nel fatto che nVidia ha sacrficato gli interi segmenti mainstream e entry level delle sue architetture derivate da GT200 sia a 65 che a 55 nm, per accelerare la transizione a 55 prima e a 40 nm poi. Non è neppure una novità che i chip ATi abbiano molte più feature avanzate rispetto a quelli nVidia: tutte le novità introdotte dalle dx10.1 (le vere dx10) saranno presenti, così come sono, anche nelle dx11.
Non è un azzardo prevedere che difficilmente nVidia effettuerà il passaggio a GT300 direttamente adottando i 40 nm, con un'architettura nuova o, comunque, fortemente modificata, senza prima sperimentare il nuovo pp e/o la nuova architettura. Solitamente, la transizione di pp si effettua utilizzando un'architettura già collaudata (in tal caso nVidia potrebbe utilizzare quella di GT200 o, addirittura, ancora quella di G80), mentre una nuova architettura si adotta dopo aver messo a punto il pp.
Comunque queste sono cose che, anche io, sto ripetendo da mesi (forse anni). ATi ha acquisito un vantaggio importante a livello di pp con R420, dopo che nVidia aveva introdotto per prima i 130 nm con NV30. E la storia insegna che ATi è arrivata sempre dopo ma con prodotti più avanzati a livello di feature adottate (R100 rispetto a NV15, R200 rispetto a NV20, R5x0 rispetto a G7x, R600 e derivati rispetto a G80 e derivati); unica eccezione, appunto, NV30 e R300, dove nVidia è arrivata dopo ma si è avvantaggiata come pp adottato.
Non sono d'accordo sull'ipotesi che si lascia trapelare che ATi ha in mano un chip dx11 sin da R600. R600, RV670 e RV770 sono chip dx10 e dx10.1. Anzi, sono chip che vanno oltre le specifiche dx10.1 e la loro architettura non necessita di rivoluzioni per adottare le nuove api, ma non sono dx11.

Nel leggerlo, non ho potuto fare a meno di osservare quanto fosse "in linea" con molte delle osservazioni fatte su questo forum (e non solo) dagli utenti che hanno una conoscenza degna di nota.....=) per quanto mi riguarda (senza alcuna piaggeria) non ho difficoltà a riconoscere che il tuo sapere a riguardo non è comune...
Tornando IT anche tu sei dell'avviso che Microsoft abbia "castrato" le features delle Dx10 per assecondare Nvidia..?
Inoltre :" qual'è l'orizzonte temporale delle scelte tecnologiche di company quali ATI, Nvidia et similia?"
TnX

michelgaetano
14-05-2009, 23:00
È sempre un piacere leggere yossarian (anche se per chi come me non capisce fin troppe cose di quanto scritto, ma vabeh :asd: stavolta è andato "facile" però) :D

Ren
14-05-2009, 23:08
probabilmente intende che GT200b è 490 mm^2 e RV770 è 260 mm^2.

Esatto.

Soprattutto se osservate il g92 rispetto al r770.

E' un caso isolato all'ottimizzazione del singolo die o cosa ?

yossarian
14-05-2009, 23:47
Piccolo ot: ma il tessellatore Larrabee ce l'ha ? A me non pare di averlo visto negli schemi dell'architettura...

Dovrebbe essere una fixed function, ma tempo fa avevi detto che ( in base a ciò che si sa ad oggi ) le uniche fixed function le avrebbe avute nelle tmu

ottima domanda. Diciamo, innannzitutto, che il tessellator è costituito da una parte programmabile e da una di tipo fixed function. La prima è quella che provvede alle funzioni in input e in output (su R600 e su RV670 si utilizzano i VS, mentre su RV770 sia i VS che i GS). La seconda è quella che si occupa dei calcoli necessari a generare le higher order surface. Questa seconda unità può essere sostituita anche da unità di tipo programmabile; gli stessi geometry shader o, al limite, i vertex shader, potrebbero essere in grado di fare tessellation (su R300, ad esempio i VS emulavano l'unità di tipo FF che su R200 si occupava del truform) ma risultano meno efficienti. Non so che tipo di scelta abia fatto Intel per larrabee. Da quanto emerso finora, non è da escludere che abbiano puntati tutto su unità programmabili, tranne per alcune operazioni delle tmu, anche se ciò va a discapito dell'efficienza. Ovviamente, se vuoi avere anche le prestazioni, oltre alla flessibilità, la minore efficienza deve essere compensata da un numero adeguato di unità (il che potrebbe voler dire che integreranno un gran numero di core sin dalla prima versione del chip).

Nel leggerlo, non ho potuto fare a meno di osservare quanto fosse "in linea" con molte delle osservazioni fatte su questo forum (e non solo) dagli utenti che hanno una conoscenza degna di nota.....=) per quanto mi riguarda (senza alcuna piaggeria) non ho difficoltà a riconoscere che il tuo sapere a riguardo non è comune...
Tornando IT anche tu sei dell'avviso che Microsoft abbia "castrato" le features delle Dx10 per assecondare Nvidia..?
Inoltre :" qual'è l'orizzonte temporale delle scelte tecnologiche di company quali ATI, Nvidia et similia?"
TnX

in parte le ha castrate. Ad esempio, si era parlato della possibilità di implementare filtri di tipo custom che, di fatto, non si sono visti mentre si è continuato ad insistere sul MSAA box che è l'implementazione più semplice ma meno efficace del filtro di AA. Altro esempio che mi viene in mente è la mancata adozione del multirender target per MSAA con deferred rendering. Oppure la mancata adozione del cubemap array per l'illuminazione dinamica (mentre si è adottato il texture array). Gli stessi chip NV hanno caratteristiche che, anche se solo in parte, eccedono le specifiche dx10 (ad esempio la possibilità di applicare filtri AA non lineari facendo ricorso alle unità di shading).

Cosa intendi per orizzonte temporale delle scelte?

Esatto.

Soprattutto se osservate il g92 rispetto al r770.

E' un caso isolato all'ottimizzazione del singolo die o cosa ?

ATi sta lavorando sui 55 nm da circa 2 anni ed è passata a 55 nm con RV670, nVidia è arrivata da poco ed ha meno confidenza con questo pp. Utilizzano tool di progettazione e sviluppo differenti. I chip NV hanno molti più circuiti logici e di controllo che sono quelli che risentono di più di disturbi e interferenze al crescere della frequenza.

Gabriyzf
15-05-2009, 08:21
probabilmente intende che GT200b è 490 mm^2 e RV770 è 260 mm^2.

;)

Athlon 64 3000+
15-05-2009, 08:42
Quando ho letto quello che hai detto sull'unità di tesselazione delle GPU ATI hai specificato che RV770 ha una differenza rispetto a RV670/R600 che non sono riuscito a capire bene.

Milotto
15-05-2009, 09:28
Cosa intendi per orizzonte temporale delle scelte?


Cerco di spiegarmi meglio..:
Da quello che ho capito, all'interno di aziende quali ATi/Nvidia etc, ci sono diversi team ad occuparsi della progettazione di una GPU...ma non credo che ciascuno di essi inizi ex-novo e/o prescindendo dalle scelte dei colleghi..
RV870 sarà una nuova architettura ma cmq "condizionata" da RV770 e cmq condizionante per le future GPU...In fase di sviluppo le analisi (tecniche ed economiche) di un progetto quale una GPU su che orizzonte temporale si estendono..?

Kharonte85
15-05-2009, 10:52
Molto interessante.....


Tralasciando la nota faziosità del giornalista (naturalmente Nvidia brutta e cattiva andra' male nei giochi arriverà in ritardo e ovviamente costerà di piu', mentre AMD/ATI arriverà veloce puntuale ed economica :sofico:) Esordisce dicendo che le notizie trapelate sono inaffidabili e attraverso elucubrazioni a titolo personale su quelle stesse notizie fa delle osservazioni piu' o meno condivisibili (se ripulite dai toni da sfotto) ma da meta' in poi mi sembra puro delirio...:fagiano: secondo lui GT300 sarebbe un clone di Larrabee fatto male? :mbe:

Per dovere di cronaca:



With the news that ATI delayed the RV870 part to 4Q'09, there are reasons why Santa Clara camp will be happy. GT300 is coming before the RV870, if TSMC does not mess up completely.

After the conference call last night, nVidia was feeling very confident that the company is on the right track... and there is a pretty good reason why. We spoke with several sources and they're quite optimistic that they will be able to release their DirectX 11 GPU ahead of ATI's RV870 chip.

According to a rumored report on Fudzilla, ATI allegedly decided to postpone their DirectX 11 until after the release of Windows 7, while our sources cited that recent rumors about slipping into 2010 were "blatant lies" and "written by a person that has no sense of reality". We will refrain from comments and we usually dislike it if a fellow journalist is being dissed, unless it is a person who invents things up. Charlie is usually known to be on target, but this goes against the information we know. But what is important is that according to our sources, GeForce GTX 300 series will be shipped in late 3Q 2009, targeting the Back-to-School period. We're not talking about a October-November frame, but rather August or September. Our sources were not wrong in the past, and we have no reason to believe otherwise. BUT - this is a rumor story. Until the silicon comes out, we won't know who's who.

Just like RV870, the reason why both companies have issues is TSMC's issues with the 40nm process, and this is a trump card for GlobalFoundries. Like any rumors, take them with a grain of salt. It is a common thing that competing manufacturers spread bad rumors about the competing company's part, but that is just the way how this game is played.

http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Quindi la scelta a chi credere è del tutto personale; per quanto mi riguarda probabilmente la verità sarà nel mezzo. ;)

Kharonte85
15-05-2009, 11:22
Va detto che mentre nVidia ha fatto discorsi sul vago, AMD ha dichiarato in conference call ufficiale che le nuove schede saranno già sul mercato all'uscita di Windows 7.


E quando sei una società quotata non puoi dire cazzate ai quattro venti tanto per, cosa che sia AMD che nVidia sanno benissimo, e il fatto che nVidia ufficialmente si sia tenuta con doti equilibristiche molto sul vago "siamo molto fiduciosi" "va tutto bene" "siamo a posto" "siamo dei fighi" ammicca abbastanza chiaramente a quanto l'articolista dell'Inq ipotizza...

Fra parentesi l'affidabilità di brightsideofnews mi pare dubbia, soprattutto quando comincia a scrivere che i problemi di TMSC sono illazioni di Globalfoundries quando il CEO di TMSC ha confermato tali problemi...

Cioè quando? :sofico: Non c'è ancora una data ufficiale quindi anche quello è stare sul vago o no? :D

Io non c'ero alla conferenza per dire se effettivamente sono stati sul vago, ma per quanto ne sappiamo puo' essere una mossa strategica per non scoprirsi ai concorrenti se davvero hanno la bestia che si dice in giro...poi non è mai successo nemmeno in passato che venisse indicata una data ufficiale di uscita con piu' di 3 mesi di anticipo.

Veramente anche li' si afferma che entrambe hanno problemi a causa dei problemi di TSMC :boh: e comunque sono molto piu' apprezzabili i toni neutri, dichiarano di avere dei contatti con delle fonti (ma non affermano di avere verità in tasca) mentre invece il giornalista di The INQ si limita a fare elucubrazioni a titolo personale con toni che non si addicono a chi vuole fare un lavoro serio (E' una costante e si nota: spara sempre a zero su nvidia. Nemmeno fudzilla ha toni del genere)

yossarian
15-05-2009, 12:01
Quando ho letto quello che hai detto sull'unità di tesselazione delle GPU ATI hai specificato che RV770 ha una differenza rispetto a RV670/R600 che non sono riuscito a capire bene.

il tessellator di RV770 utilizza come input sia i vertex shader che i geometry shader, mentre quello di R600 e di RV670 solo quelli dei vertex shader.

Cerco di spiegarmi meglio..:
Da quello che ho capito, all'interno di aziende quali ATi/Nvidia etc, ci sono diversi team ad occuparsi della progettazione di una GPU...ma non credo che ciascuno di essi inizi ex-novo e/o prescindendo dalle scelte dei colleghi..
RV870 sarà una nuova architettura ma cmq "condizionata" da RV770 e cmq condizionante per le future GPU...In fase di sviluppo le analisi (tecniche ed economiche) di un progetto quale una GPU su che orizzonte temporale si estendono..?

NOn è una risposta semplice; di solito si cerca di progettare architetture che siano le più longeve possibile. Però ci sono diversi parametri da valutare (cambio delle api di riferimento in primo luogo). Non è neppure possibile generalizzare parlando di durata di un'architettura. Un'architettura è composta da diversi elementi a da specifici rapporti tra questi elementi. Può accadere che uno di questi elementi rimanga pressochè immutato anche in un cambio di architettura. Ad esempio le alu di tipo full vect3 + scalare + minialu di R300 la si ritrova anche in R580 (anche se, in quel caso, le alu in serie erano 3 per pipeline).
Da queste considerazioni appare chiaro che i team che sviluppano chip non operino in maniera del tutto slegata. Lavorano ciascuno per proprio conto, in autonomia, per evitare di influenzarsi a vicenda e fossilizarsi su determinate soluzioni, però le cose valide di un'architettura vengono comunque conservate e, all'occorrenza, può esserci anche un "travaso di idee".
Di solito, quando si inizia a lavorare su una nuova architettura si ha, comunque, sempre una valida base di partenza nella precedente (anche nei casi di progetti apparentemente sbagliati, c'è sempre qualcosa di buono da poter prendere.
Volendo quantificare una nuova architettura (che, comunque, è sempre un'evoluzione della precedente) può avere un orizzonte temporale di almeno 2 ma anche 3 anni. Ripeto, si tratta, però di una stima molto grossolana

Mister Tarpone
15-05-2009, 12:14
Cioè quando? :sofico: Non c'è ancora una data ufficiale quindi anche quello è stare sul vago o no? :D

Io non c'ero alla conferenza per dire se effettivamente sono stati sul vago, ma per quanto ne sappiamo puo' essere una mossa strategica per non scoprirsi ai concorrenti se davvero hanno la bestia che si dice in giro...poi non è mai successo nemmeno in passato che venisse indicata una data ufficiale di uscita con piu' di 3 mesi di anticipo.

Veramente anche li' si afferma che entrambe hanno problemi a causa dei problemi di TSMC :boh: e comunque sono molto piu' apprezzabili i toni neutri, dichiarano di avere dei contatti con delle fonti (ma non affermano di avere verità in tasca) mentre invece il giornalista di The INQ si limita a fare elucubrazioni a titolo personale con toni che non si addicono a chi vuole fare un lavoro serio (E' una costante e si nota: spara sempre a zero su nvidia. Nemmeno fudzilla ha toni del genere)


quoto... il tipo qui ----> :D http://www.pctunerup.com/up/results/_200905/20090515131333_Immagine1.JPG :D <------nei suoi articoli non è neutrale per niente.....sembra ce l'abbia proprio a morte con nvidia :asd:

Mister Tarpone
15-05-2009, 12:29
quindi i suoi articoli non sono per niente interessanti... ormai son prevedibilissimi

apri un articolo di charlie ed in pratica: Nvidia = il male :asd:

Athlon 64 3000+
15-05-2009, 12:32
Diciamo che quel tizio è solo un pagliaccio e che è meglio non prenderlo in considerazione perchè spara cagate a manetta.
Quando si è di parte in maniera esagerata come lui l'obbiettivià va a farsi benedire.

Mister Tarpone
15-05-2009, 12:37
è meglio non prenderlo in considerazione perchè spara cagate a manetta.
Quando si è di parte in maniera esagerata come lui l'obbiettivià fa a farsi benedire.

:mano: :mano: :mano:
:mano: :mano: :mano:

ghiltanas
15-05-2009, 12:43
non sono molto d'accordo su quanto scritto circa le ananlogie tra larrabee e le scelte di nVidia. L'unica cosa in comune sono le dimensioni del chip, diciamo.....generose :D

Per il resto, larrabee è, come lo definisce Intel, un manycore chip, in qunto composto "fisicamente" di più processori separati e, in teoria, potrebbe anche integrare un'architettura a core asimmetrici. Inoltre, il compilatore svolge un ruiolo fondamentale nel bilanciamento dei carichi di lavoro e questo lo rende, dal punto di vista funzionale, più simile a RV770 di quanto non lo sia rispetto a GT200 (o a quello che si sa di GT300). Al contrario, nVidia ha scelto la strada del singolo core (GT200 non ha l'equivalente di 240 core in quanto un singolo controller si occupa di gestire 24 gruppi di alu e, risalendo attraverso un ipotetico diagramma d albero, un thread dispatch processor si occupa di gestire l'intero chip. Qualora GT300 conservasse questo tipo di logica, anche qualora si adottassero unità di tipo programmabile per la RBE (come in larrabee), si avrebbe sempre un'architettura piuttosto "rigida"; efficiente dal punto di vista delle prestazioni (anche se le alu generiche sono meno efficienti di quelle dedicate) ma poco flessibile e, comunque, a singolo core

495 mm2 per 2,4 miliardi di transistor nn è buon risultato a 40nm? :fagiano:

yossarian
15-05-2009, 12:57
495 mm2 per 2,4 miliardi di transistor nn è buon risultato a 40nm? :fagiano:

ammesso che sarà così, è migliore di quello ottenuto con GT200 come densità di transistor; il pessimo risultato è il chippone che non garantirà elevate rese produttive e, di conseguenza, renderà difficile abbattere i costi.

appleroof
15-05-2009, 15:11
Ormai ci vuole la sfera di cristallo. Di seguito i rumors più recenti:

- RV870 esce prima di GT300
- RV870 esce dopo GT300
- GT300 esce per il back to school
- RV870 esce in Q2
- RV870 esce in Q3
- RV870 esce in Q4
- RV870 esce nel 2010
- GT300 esce nel Q3
- GT300 esce nel Q4
- GT300 esce nel Q2 del 2010

già...:asd:

cmq rimane il fatto che imho una 4890x2 è assolutamente inutile ora come ora, anche nel caso in cui rv870 esca al più tardi a fine di quest'anno

certo c'è sempre la tentazione del celolunghismo che sappiamo non difetta nè ad Ati nè ad Nvidia ma insomma...

michelgaetano
15-05-2009, 15:22
già...:asd:

cmq rimane il fatto che imho una 4890x2 è assolutamente inutile ora come ora, anche nel caso in cui rv870 esca al più tardi a fine di quest'anno

certo c'è sempre la tentazione del celolunghismo che sappiamo non difetta nè ad Ati nè ad Nvidia ma insomma...

Beh lala fine soluzioni come 4870X2 e 295 servono solo a quello, 4890 e 285 danno già prestazioni bestiali (per citare le proposte top single gpu).

Milotto
15-05-2009, 15:25
quindi i suoi articoli non sono per niente interessanti... ormai son prevedibilissimi

apri un articolo di charlie ed in pratica: Nvidia = il male :asd:

Diciamo che quel tizio è solo un pagliaccio e che è meglio non prenderlo in considerazione perchè spara cagate a manetta.
Quando si è di parte in maniera esagerata come lui l'obbiettivià fa a farsi benedire.

Userà toni "eccessivi", sarà anche "fazioso" (termine abusato nella nostra povera Italia) ma il suo ragionamento fila, non ammetterlo è miopia!

al135
15-05-2009, 15:29
Beh lala fine soluzioni come 4870X2 e 295 servono solo a quello, 4890 e 285 danno già prestazioni bestiali (per citare le proposte top single gpu).

lui si riferiva alla 4890 x2 non alla 4870x2 e 295 che non sono per niente inutili a risoluzioni 1900 in su ;)

Mister Tarpone
15-05-2009, 15:32
lui si riferiva alla 4890 x2 non alla 4870x2 e 295 che non sono per niente inutili a risoluzioni 1900 in su ;)

quoto ;) servono per poter giocare bene Crysis in very high a 1920x eeee.....

.....e stop :asd:


xchè poi per il resto, a quella risoluzione si gioca bene già con le single gpu

appleroof
15-05-2009, 15:35
Beh lala fine soluzioni come 4870X2 e 295 servono solo a quello, 4890 e 285 danno già prestazioni bestiali (per citare le proposte top single gpu).

un attimo dipende dai punti di vista e sopratutto dal momento in cui si compra: personalmente (al di là del fatto che ancora le soluzioni multi gpu non mi convincono per nulla) prenderei una di quelle schede all'esordio se volessi il massimo per almeno un anno e accetterei il cosumo alto ecc ecc

ma una 4890x2 adesso la vedo appunto inutile perchè 1 costerebbe, consumerebbe e scalderebbe più della 4870x2 pur offrendo un incremento prestazionale non allucinante 2 il tutto aggravato dal fatto che le vga dx10 sono praticamente al capolinea (lo stesso discorso per me vale in proporzione con la 4890 vs 4870; 4770 vs 4850; gtx275 vs 260 ecc ecc )

se dovessi comprare una vga potente oggi come oggi per giocare in fullhd prenderei max una 4870/gtx260, rimandando l'acquistone alle vga dx11

è per questi motivi che adesso come adesso vedrei una 4890x2 inutile, ma non sempre le entusiasth le vedo inutili anzi :) (ho ancora nel cuore la Gloriosa per la quale spesi 600 euri :D )

appleroof
15-05-2009, 15:42
quoto... il tipo qui ----> :D http://www.pctunerup.com/up/results/_200905/20090515131333_Immagine1.JPG :D <------nei suoi articoli non è neutrale per niente.....sembra ce l'abbia proprio a morte con nvidia :asd:

somiglia al mio meccanico :sofico: :asd:

Mister Tarpone
15-05-2009, 15:45
somiglia al mio meccanico :sofico: :asd:

:sbonk:

Defragg
15-05-2009, 16:02
se dovessi comprare una vga potente oggi come oggi per giocare in fullhd prenderei max una 4870/gtx260, rimandando l'acquistone alle vga dx11

Sono d'accordo :)

yossarian
15-05-2009, 16:05
somiglia al mio meccanico :sofico: :asd:

magari è lui :D

Gabriyzf
15-05-2009, 16:10
magari è lui :D

:sbonk:

appleroof
15-05-2009, 16:19
Sono d'accordo :)

;)

magari è lui :D

:D :D azz...la seconda vita di Giorgione :eek: :asd:

Foglia Morta
15-05-2009, 16:20
magari è lui :D

in un architettura full mimd come si fanno i calcoli in fp64 ( escludendo alu native fp64 ) ?

Defragg
15-05-2009, 16:31
in un architettura full mimd come si fanno i calcoli in fp64 ( escludendo alu native fp64 ) ?

Mi accodo alla domanda chiedendo anche se in chip grafico con architettura full-MIMD le TMU come funzioneranno, sappiamo tutti che ora come ora ad un cluster SIMD sono associate delle TMU, in un'architettura full-MIMD non credo abbia senso parlare di cluster di stream processor, quindi come si farà?

Chiedo scusa per errori o imprecisioni, ma non riesco a trovare le parole giuste a esprimere questo concetto :stordita:

edit_user_name_here
15-05-2009, 16:52
lui si riferiva alla 4890 x2 non alla 4870x2 e 295 che non sono per niente inutili a risoluzioni 1900 in su ;)

Infatti e per non spendere in un altro alimentatore nuovo da quel che ho da 850w, da un anno o due soltanto,(non pensavo mai che 2 schede arrivassero a 1000w al tempo lol) credo che spenderò solo per una gpu multi gpu ma la più performante percui la 4890x2(avendo ora solo la x1550 :D) sempre se uscirà il che mi soddisferebbe non poco ;) però bisogna anche vedere il prezzo!

Saluti!

al135
15-05-2009, 17:23
Infatti e per non spendere in un altro alimentatore nuovo da quel che ho da 850w, da un anno o due soltanto,(non pensavo mai che 2 schede arrivassero a 1000w al tempo lol) credo che spenderò solo per una gpu multi gpu ma la più performante percui la 4890x2(avendo ora solo la x1550 :D) sempre se uscirà il che mi soddisferebbe non poco ;) però bisogna anche vedere il prezzo!

Saluti!

eheh penso che se uscira la 4890x2 (anche se ne dubito un po) dovresti prenderti una 4870x2 con un risparmio non indifferente :D
imho i tempi delle schede da 500 euri sono passati....

4870x2 ... 324 € ed è un prezzo alto ma gia accettabile se vuoi giocare senza troppi compromessi.
oppure gtx 295 .... 390 €

se dovesse uscire un ipotetica 4890x2 le 4870x2 andrebbero fuori produzione e quelle rimanenti calerebbero di prezzo quindi sarebbero un'occasione ;)

ps: cmq per la cronaca con quell'ali(se è lo stesso che ho io) reggi tranquillamente qualsiasi sli o cf non ti serve un mille ;)

NvidiaMen
15-05-2009, 18:22
è riferito all'architettura hardware. Un'architettura come quella nVidia ha il grosso pregio di non aver bisogno di particolari interventi da parte dei driver per ottimizzare operazioni come il bilanciamento dei carichi di lavoro e, soprattutto, la parallelizzazione. Però, proprio per il fatto che il chip è gestito quasi interamente in hardware, l'architettura risulta poco flessibile nei confronti di eventuali adattamenti o evoluzioni delle API di riferimento o del software. Ad esempio, su un'architettura come quella di R600 non è stato difficile implementare le dx10.1 (ed avere RV670), su G80 è risultato impossibile (bada bene, la mancata adozione delle dx10.1 non è stata una scelta volontaria di nVidia ma una scelta obbligata: passare alle dx10.1 avrebbe obbligato ad un cambio dell'architettura a cui ne avrebbe fatto seguito un altro, per il passaggio alle dx11. Quindi tanto valeva aspettare direttamente queste ultime). Sui chip ATi, come avverrà con larrabee, è possibile utilizzare alu fp32 per fare calcoli fp64 perchè si riesce, tramite compilatore, a riorganizzare in maniera differente il lavoro delle stesse. Su GT200 è stato necessario far ricorso ad alu fp64 fisiche (e infatti le serie G8x e G9x non hanno capacità di calcolo in double precision). Il problema della granularità è iniziato ad emergere con il gpgpu e con il tentativo di avvicinare il modello di programmazione delle cpu. Nei fatti, una gpu e una cpu non saranno mai perfettamente intercambiabili perchè la prima ha il suo punto di forza proprio nelle istruzioni di tipo SIMD, ovvero nel parallelismo dei dati, mentre le seconde privilegiano il parallelismo delle istruzioni sacrificando la potenza di calcolo (parallelo). La cpu più potente in circolazione (il cell) utilizza alu vettoriali e non è esattamente una cpu di tipo GP come non sono dei processori GP le GPU.
Infine l'approccio dei chip ATi non è di tipo vettoriale ma VLIW. E' un approccio molto più flessibile di quello vettoriale anche se fortemente dipendente dalle ottimizzazioni fatte via compiler per quanto riguarda la paralellizzazione di dati e istruzioni.



si tratta di un articolo che non dice niente di nuovo rispetto a quanto si legge da parecchi mesi sui forum. Non è una novità che ATi sia in vantaggio con i nuovi processi produttivi e la prova sta nel fatto che nVidia ha sacrficato gli interi segmenti mainstream e entry level delle sue architetture derivate da GT200 sia a 65 che a 55 nm, per accelerare la transizione a 55 prima e a 40 nm poi. Non è neppure una novità che i chip ATi abbiano molte più feature avanzate rispetto a quelli nVidia: tutte le novità introdotte dalle dx10.1 (le vere dx10) saranno presenti, così come sono, anche nelle dx11.
Non è un azzardo prevedere che difficilmente nVidia effettuerà il passaggio a GT300 direttamente adottando i 40 nm, con un'architettura nuova o, comunque, fortemente modificata, senza prima sperimentare il nuovo pp e/o la nuova architettura. Solitamente, la transizione di pp si effettua utilizzando un'architettura già collaudata (in tal caso nVidia potrebbe utilizzare quella di GT200 o, addirittura, ancora quella di G80), mentre una nuova architettura si adotta dopo aver messo a punto il pp.
Comunque queste sono cose che, anche io, sto ripetendo da mesi (forse anni). ATi ha acquisito un vantaggio importante a livello di pp con R420, dopo che nVidia aveva introdotto per prima i 130 nm con NV30. E la storia insegna che ATi è arrivata sempre dopo ma con prodotti più avanzati a livello di feature adottate (R100 rispetto a NV15, R200 rispetto a NV20, R5x0 rispetto a G7x, R600 e derivati rispetto a G80 e derivati); unica eccezione, appunto, NV30 e R300, dove nVidia è arrivata dopo ma si è avvantaggiata come pp adottato.
Non sono d'accordo sull'ipotesi che si lascia trapelare che ATi ha in mano un chip dx11 sin da R600. R600, RV670 e RV770 sono chip dx10 e dx10.1. Anzi, sono chip che vanno oltre le specifiche dx10.1 e la loro architettura non necessita di rivoluzioni per adottare le nuove api, ma non sono dx11.

Mi complimento con Yossarian per la disponibilità mostrata nei suoi sempre puntuali interventi, i quali denotano, oltre all'estrema preparazione tecnica, anche una semplicità espositiva che non è da tutti. Mi chiedevo se l'utilizzo di una doppia ALU FP32 pregiudicherà in qualche modo le prestazioni, soprattutto se essa si affiderà a compilatori, in double precision di ATi rispetto alla soluzione FP64 che verrà presumibilmente adottata anche in G300. Infine, che tipo di flessibilità in più garantisce un VLIW rispetto ad un approccio tipicamente vettoriale?
Grazie, NM.

Kharonte85
15-05-2009, 19:08
Userà toni "eccessivi", sarà anche "fazioso" (termine abusato nella nostra povera Italia) ma il suo ragionamento fila, non ammetterlo è miopia!
Quale ragionamento? Che nvidia è brutta e cattiva e che GT300 sarà un Larabee malriuscito? Il tutto senza sapere nulla di come sara' fatto (dato che secondo lui i rumors sono sbagliati) Maddai... :asd: Per quanto mi riguarda questo signore si qualifica da solo per i toni che usa ed ha usato in passato; su questo forum ci sono utenti che hanno fatto osservazioni piu' pertinenti e competenti quindi direi che questo personaggio ce lo possiamo risparmiare ;)

ghiltanas
15-05-2009, 20:23
Non è un azzardo prevedere che difficilmente nVidia effettuerà il passaggio a GT300 direttamente adottando i 40 nm, con un'architettura nuova o, comunque, fortemente modificata, senza prima sperimentare il nuovo pp e/o la nuova architettura.


mmm prevedi un step intermedio? :mbe: ...mi riesce difficile immaginare gt300a 55nm...quanto sarebbe grosso? :asd:

ammesso che sarà così, è migliore di quello ottenuto con GT200 come densità di transistor; il pessimo risultato è il chippone che non garantirà elevate rese produttive e, di conseguenza, renderà difficile abbattere i costi.

però un chip di dimensioni maggiori permette una dissipazione del calore migliore :p

michelgaetano
15-05-2009, 20:57
un attimo dipende dai punti di vista e sopratutto dal momento in cui si compra: personalmente (al di là del fatto che ancora le soluzioni multi gpu non mi convincono per nulla) prenderei una di quelle schede all'esordio se volessi il massimo per almeno un anno e accetterei il cosumo alto ecc ecc

ma una 4890x2 adesso la vedo appunto inutile perchè 1 costerebbe, consumerebbe e scalderebbe più della 4870x2 pur offrendo un incremento prestazionale non allucinante 2 il tutto aggravato dal fatto che le vga dx10 sono praticamente al capolinea (lo stesso discorso per me vale in proporzione con la 4890 vs 4870; 4770 vs 4850; gtx275 vs 260 ecc ecc )

se dovessi comprare una vga potente oggi come oggi per giocare in fullhd prenderei max una 4870/gtx260, rimandando l'acquistone alle vga dx11

è per questi motivi che adesso come adesso vedrei una 4890x2 inutile, ma non sempre le entusiasth le vedo inutili anzi :) (ho ancora nel cuore la Gloriosa per la quale spesi 600 euri :D )

Ho capito il tuo discorso apple, e non hai certo torto.

CHissà quanto effettivamente andrebbe un CF di 4890: se riuscisse ad essere sopra la 295, la si potrebbe mandare fuori per la solita e inutile palma delle prestazioni, ma anche se andasse un 20 % in più alla 295 rimarrebbe inutile.

Mi auguro però di vedere prestazioni del genere su schede single gpu quanto prima :D

Trokji
15-05-2009, 21:00
Un CF di 1890 dovrebbe andare un po' di più della 295 GTX. Detto questo per alcuni queste schede saranno inutili, per altri no

edit_user_name_here
15-05-2009, 21:35
eheh penso che se uscira la 4890x2 (anche se ne dubito un po) dovresti prenderti una 4870x2 con un risparmio non indifferente :D
imho i tempi delle schede da 500 euri sono passati....

4870x2 ... 324 € ed è un prezzo alto ma gia accettabile se vuoi giocare senza troppi compromessi.
oppure gtx 295 .... 390 €

se dovesse uscire un ipotetica 4890x2 le 4870x2 andrebbero fuori produzione e quelle rimanenti calerebbero di prezzo quindi sarebbero un'occasione ;)

ps: cmq per la cronaca con quell'ali(se è lo stesso che ho io) reggi tranquillamente qualsiasi sli o cf non ti serve un mille ;)

Si ;) ho il tuo alimentatore da server però tempo fa dicevano che non ce la facevano ben venga allora :) cmq io non sapevo che erano calate cosi tanto di prezzo lol.
Beh si vedrà allora ma dubito fortemente che diminuiscono quelle vecchie perchè già costano molto di meno.
Io credo che le schede stanno già per finire e quando finiscono usciranno quelle nuove ma questo tutto IMHO.
Saluti!

Defragg
15-05-2009, 23:35
mmm prevedi un step intermedio? :mbe: ...mi riesce difficile immaginare gt300a 55nm...quanto sarebbe grosso? :asd:

No, prevede un chip di fascia media a 40nm prima di GT300 ;)

'Siori e 'siore, ecco a voi, G92c! :O

Kharonte85
15-05-2009, 23:38
'Siori e 'siore, ecco a voi, G92c! :O
Non dirlo troppo forte che poi alla nvidia ti prendono sul serio...:asd:

Milotto
16-05-2009, 00:54
Quale ragionamento? Che nvidia è brutta e cattiva e che GT300 sarà un Larabee malriuscito? Il tutto senza sapere nulla di come sara' fatto (dato che secondo lui i rumors sono sbagliati) Maddai... :asd: Per quanto mi riguarda questo signore si qualifica da solo per i toni che usa ed ha usato in passato; su questo forum ci sono utenti che hanno fatto osservazioni piu' pertinenti e competenti quindi direi che questo personaggio ce lo possiamo risparmiare ;)


Ho semplicemente detto che cio ha scritto è condivisibile da un punto di vista sostanziale : il suo è un ragionamento, non si tratta di un rumor...STOP
E' altersì evidente che ci siano utenti in grado di fare osservazioni più pertinenti e segaci ...ma non discutevamo di questo : Non è mia intenzione farne un idolo... o chiederne la beatificazione =)
:)

michelgaetano
16-05-2009, 00:56
'Siori e 'siore, ecco a voi, G92c! :O

Non dirlo troppo forte che poi alla nvidia ti prendono sul serio...:asd:

No vi prego :cry:

yossarian
16-05-2009, 08:28
in un architettura full mimd come si fanno i calcoli in fp64 ( escludendo alu native fp64 ) ?

cioè escludendo la soluzione più semplice? :D
Battute a parte, la differenza sostanziale tra un'architettura MIMD ed una SIMD è che nella seconda un gruppo di alu o processori condividono alcuni stadi e, in particolare, la icache (cache contenente le istruzioni) e i circuiti di fetch e decode delle stesse istruzioni, mentre in un'architettura MIMD ogni alu (o ogni processore ) ha la sua icache e i suoi circuiti di fetch e decode. Dal punto di vista funzionale, un'archietttura MIMD può comportarsi come una SIMD. La differenza è che nella prima le singole unità di calcolo lavorano indipendentemente tra di loro eseguendo istruzioni differenti. Una mimd ha una flessibilità ed un'efficienza maggiore ma anche una complessità superiore. Come organizzare i calcoli fp64? Dipende dal tipo di alu. In teoria l'adozione di un'architettura mimd potrebbe anche permettere di evitare il ricorso ad alu fp64 fisiche e, quindi di recuperare parte dello spazio perso a causa dell'aumento dei circuiti logici e di controllo.

Mi accodo alla domanda chiedendo anche se in chip grafico con architettura full-MIMD le TMU come funzioneranno, sappiamo tutti che ora come ora ad un cluster SIMD sono associate delle TMU, in un'architettura full-MIMD non credo abbia senso parlare di cluster di stream processor, quindi come si farà?

Chiedo scusa per errori o imprecisioni, ma non riesco a trovare le parole giuste a esprimere questo concetto :stordita:

esattamente come in una SIMD. Il vantaggio delle architetture SIMD sta nel fatto che molte unità di calcolo condividono le stesse unità di controllo e trasmissione delle istruzioni. In pratica hai, ad esempio 16 alu con un'unica icache ed un'unico circuito di instruction fetch and decode. Questo significa che le 16 alu, nel medesimo ciclo di clock, eseguiranno la stessa istruzione su dati differenti. Quindi il vantaggio delle architetture SIMD è il parallelismo a livello di dati. In un'equivalente MIMD, ognune delle 16 alu ha la sua icache ed il suo circuito di instruction fetch and decode. Questo significa che ciascune delle alu può eseguire la sua istruzione, che può essere anche uguale a quella di un'altra alu, ovvero dello stesso tipo ma, a differenza di una simd, può essre anche differente. Da qui emerge il vantaggio principale di un'architettura MIMD, ovvero la possibilità, per ogni unità di calcolo, di lavorare indipendentemente dalle altre. Lo svantaggio principale è quello che icache e circuiti di fetch e decode occupano spazio che viene sottratto alle unità di calcolo. Per questo motivo, su processori che lavorano in determinati ambiti (come l'elaborazione di immagini 3d), dove non è necessario un elevato parallelismo a livello di istruzioni (la situazione tipica è quella in cui tante alu devono fare la stessa operazione nello stesso istante, ovvero nello stesso ciclo), si privilegia un approccio simd che eprmette una notevole semplificazione circuitale e la possibilità di avere molto più spazio a disposizione per le unità di calcolo. Per questa ragione, solitamente si parla di parallelismo a livello di dati nelle simd e di paralellismo a livello di istruzioni nelle mimd. Ma nessuno vieta di abbinare un cluster di tmu ad un cluster di unità mimd; l'unico problema è la sincronizzazione delle operazioni che in un cluster di tipo simd è automatica.

Mi complimento con Yossarian per la disponibilità mostrata nei suoi sempre puntuali interventi, i quali denotano, oltre all'estrema preparazione tecnica, anche una semplicità espositiva che non è da tutti. Mi chiedevo se l'utilizzo di una doppia ALU FP32 pregiudicherà in qualche modo le prestazioni, soprattutto se essa si affiderà a compilatori, in double precision di ATi rispetto alla soluzione FP64 che verrà presumibilmente adottata anche in G300. Infine, che tipo di flessibilità in più garantisce un VLIW rispetto ad un approccio tipicamente vettoriale?
Grazie, NM.

forse, invece, in GT300 non sarà necessaria l'alu fisica fp64. In ogni caso, l'utilizzo di 4 alu fp32 (in RV770 una fp64 è sostituita da una intera alu vliw con esclusione della SFU (ovvero la 5 minialu che si occupa di special function) non pregiudica le prestazioni rispetto all'utilizzo di alu fisiche, anzi, al contrario, l'assenza di hardware scheduler comporta una minore complessità a livello hardware e, di conseguenza, la possibilità di avere clock più veloci (in un chip con elevata complessità a livello di circuiti di controllo molti cicli sono spesi per operazioni differenti dalla semplice elaborazione dei dati. Tradotto in concetti molto terra terra, c'è la stessa differenza che passa tra uno che, ricevuta una istruzione, deve elaborala e capire come eseguire e uno che riceve un'istruzione, più dettagliata, in questo caso, che complrende anche il come eseguirla.
Un approccio vettoriale di tipo, ad esempio, full vect4 permette di eseduire una singole istruzione per alu; l'alu vettoriale è vista come un'unica alu dall'istruzione in arrivo, quindi una alu fp128 (4*32) potrà eseguire una singole istruzione per ciclo. Se questa istruzione prevede operazioni su un solo dato a 32 bit avrai 3 alu fp32 inattive. Alu di tipo frazionate vect3+scalar (come quelle rpesenti su R300 ecc fino a R5x0) permettono di eseguire due istruzioni relative allo stesso thread ma, una di tipo vettoriale ed una scalare; quindi se si ha un vettore completo, l'alu scalare va a completare il vettore a 4 elementi, altrimenti lavora per proprio conto; resta il problema che, anche in questo caso, puoi avere alu in idle. Un'alu di tipo vliw può esegiore fino a 5 istruzioni facenti parte dello stesso thread. Quindi può comportarsi come un'alu vettoriale ma anche lavorare su micro istruzioni separate (ciascuna, magari, relativa a dun dato a 32 bit), purchè facenti parte della stessa macro istruzione

mmm prevedi un step intermedio? :mbe: ...mi riesce difficile immaginare gt300a 55nm...quanto sarebbe grosso? :asd:



gt300 a 55 nm no, ma un chip delle serie precedenti a 40 si :D

p.s. ora basta, altrimenti esaurisco gli argomenti e non so cosa scrivere nella rubrica su AD :D

Defragg
16-05-2009, 13:25
esattamente come in una SIMD. Il vantaggio delle architetture SIMD sta nel fatto che molte unità di calcolo condividono le stesse unità di controllo e trasmissione delle istruzioni. In pratica hai, ad esempio 16 alu con un'unica icache ed un'unico circuito di instruction fetch and decode. Questo significa che le 16 alu, nel medesimo ciclo di clock, eseguiranno la stessa istruzione su dati differenti. Quindi il vantaggio delle architetture SIMD è il parallelismo a livello di dati. In un'equivalente MIMD, ognune delle 16 alu ha la sua icache ed il suo circuito di instruction fetch and decode. Questo significa che ciascune delle alu può eseguire la sua istruzione, che può essere anche uguale a quella di un'altra alu, ovvero dello stesso tipo ma, a differenza di una simd, può essre anche differente. Da qui emerge il vantaggio principale di un'architettura MIMD, ovvero la possibilità, per ogni unità di calcolo, di lavorare indipendentemente dalle altre. Lo svantaggio principale è quello che icache e circuiti di fetch e decode occupano spazio che viene sottratto alle unità di calcolo. Per questo motivo, su processori che lavorano in determinati ambiti (come l'elaborazione di immagini 3d), dove non è necessario un elevato parallelismo a livello di istruzioni (la situazione tipica è quella in cui tante alu devono fare la stessa operazione nello stesso istante, ovvero nello stesso ciclo), si privilegia un approccio simd che eprmette una notevole semplificazione circuitale e la possibilità di avere molto più spazio a disposizione per le unità di calcolo. Per questa ragione, solitamente si parla di parallelismo a livello di dati nelle simd e di paralellismo a livello di istruzioni nelle mimd. Ma nessuno vieta di abbinare un cluster di tmu ad un cluster di unità mimd; l'unico problema è la sincronizzazione delle operazioni che in un cluster di tipo simd è automatica.

Capisco, cristallino come sempre :)

gt300 a 55 nm no, ma un chip delle serie precedenti a 40 si :D

p.s. ora basta, altrimenti esaurisco gli argomenti e non so cosa scrivere nella rubrica su AD :D

Pensi che questo chip sia derivato da GT200 o l'ennesima reincarnazione di G92? :asd:

appleroof
16-05-2009, 13:39
Capisco, cristallino come sempre :)



Pensi che questo chip sia derivato da GT200 o l'ennesima reincarnazione di G92? :asd:

mi piace che su "aspettando Ati" si parla più di Nvidia :D :D

cmq, vado a memoria, si rumoreggiava di uno shrink di gt200, ma credo che all'atto pratico sia quasi indifferente, vista la fascia cui sarebbero indirizzate le vga che monterebbero questo chip @40nm e vista l'ipotetico arco temporale di vita delle stesse, che dovrebbe essere più breve di un anno ed infine visto il fine di questo shrink, ossia sperimentare i 40nm

ovviamente mia opinione :)

HackaB321
17-05-2009, 18:41
Mi accodo alla domanda chiedendo anche se in chip grafico con architettura full-MIMD le TMU come funzioneranno, sappiamo tutti che ora come ora ad un cluster SIMD sono associate delle TMU, in un'architettura full-MIMD non credo abbia senso parlare di cluster di stream processor, quindi come si farà?



In ogni caso anche nel caso di unità SIMD questa parità è una scelta architetturale che può essere perseguita o meno. Ad esempio in R600-RV670 questa parità non esiste e un blocco di TMU serve 4 sottoinsiemi di ognuno dei 4 cluster SIMD. Il vantaggio è una maggiore efficienza delle TMU perchè nel caso di parità TMU-SIMD, se l'istruzione eseguita dalla SIMD non richiede operazioni su texture, la TMU resta inutilizzata per tutti i cicli di elaborazione di quella istruzione. ATi con RV770 ha cambiato rotta adottando una parità 1:1 tra cluster SIMD e TMU. Nvidia ha adottato una via intermedia associando 2 SIMD ad 1 TMU in G80 e 3 SIMD ad 1 TMU in GT200

ghiltanas
18-05-2009, 12:30
gt300 a 55 nm no, ma un chip delle serie precedenti a 40 si :D

p.s. ora basta, altrimenti esaurisco gli argomenti e non so cosa scrivere nella rubrica su AD :D

ma alla fine nn sarebbe male come idea in se, un die shrink corposo di gt200 ridurrebbe i costi ulteriormente, permetterebbe di testare i 40nm che sembrano essere un pò ballerini e nn penso serva un grosso investimento per portare gt200 da 55 a 40nm...Basta solo che nn vengano fuori con una serie nuova e nomi cambiati :rolleyes: :rolleyes:
Cmq stop sennò ti escludono da appunti digitali :asd: (la cosa migliore è cancellare la sottoscrizione a questo thread, sennò ogni tanto ti viene da scrivere qualcosa per forza :sofico: )

mi piace che su "aspettando Ati" si parla più di Nvidia :D :D

cmq, vado a memoria, si rumoreggiava di uno shrink di gt200, ma credo che all'atto pratico sia quasi indifferente, vista la fascia cui sarebbero indirizzate le vga che monterebbero questo chip @40nm e vista l'ipotetico arco temporale di vita delle stesse, che dovrebbe essere più breve di un anno ed infine visto il fine di questo shrink, ossia sperimentare i 40nm

ovviamente mia opinione :)

:asd: rinominiamo il thread in Aspettando e stop :D

cmq apparte gli scherzi, manca sempre un pò all'uscita delle nuove serie, e nn la vedo cosi sbagliata una comparazione fra le diverse, presunte, strategie :)

ghiltanas
19-05-2009, 12:08
nvidia vuole veramente esagerare:

http://www.tomshw.it/news.php?newsid=18142

a quanto pensa di venderle le prox schede? :mbe:

Andrea deluxe
19-05-2009, 13:03
Posso farti notare che una news su GT300 sta meglio nel thread relativo che non in questo? :>

ultimamente sei diventato pessimista e pesantuccio sai...?

prima eri molto piu' solare.....

Andrea deluxe
19-05-2009, 13:21
:mbe:

mi dispiace ma nei tuoi interventi traspare solo negativita' che un tempo non c'era....

solo questo.

al135
19-05-2009, 14:07
Perché faccio notare il conclamato OT che tanto sappiamo benissimo tutti quanti porterà a dieci pagine di flame? :mbe:

hai fatto bene perche altrimenti si va sempre un po troppo OT.
tuttavia non penso che quella news possa istigare al flame.
cmq... io voglio un banco di prova per queste schede dannazione :D
ma quanto tocca aspettare?
ho la scimmia appresso :rolleyes:

The_SaN
19-05-2009, 14:30
Sará, ma Ratatosk non lo vedo cosí acido :D
Cioé, va benissimo fare certe comparazioni architetturali basate su rumors e compagnia bella, ma le news hanno il loro posto...

Athlon 64 3000+
19-05-2009, 15:41
Se RV870 uscise gia per Luglio-Agosto non sarebbe malaccio cosi potremmo a brevegia vedere in azione una gpu dx11.:D

Marko91
19-05-2009, 16:43
nvidia vuole veramente esagerare:

http://www.tomshw.it/news.php?newsid=18142

a quanto pensa di venderle le prox schede? :mbe:

Dubito che quei numeri siano veri, se usano una architettura MIMD. Comunque RV870 dovrebbe superare i 2 Teraflops facilmente.

Interessante l ipotetico aumento delle prestazione fp64. GT200 ha 240 unita' fp32 e 30 unita' fp64. Se le prestazione fp64 sono aumentate 7-10 volte, dove le fp32 sembrerebbero raddoppiate, significa che l'architettura G300 ha un efficenza 3-4 volte superiore, il che avvicinerebbe Nvidia all'efficenza fp64 di Ati.

Ren
19-05-2009, 17:02
Aumentare l'efficienza di otto volte vuol dire aumentare di molto le unità FP64, cosa che sarebbe improponibile per un chip dedicato al settore gaming.
Molto probabilmente utilizzeranno un approccio che gli permetta di utilizzare le FP32 riconfigurate per i calcoli in double-precision. Come del resto già Ati adotta con successo.

Tuvok-LuR-
20-05-2009, 08:52
rumors su una presunta 4730
http://forums.hardwarezone.com.sg/showthread.php?t=2374470
le specifiche non sembrano aver gran senso :confused: gran puzza di fake

ghiltanas
20-05-2009, 12:01
Posso farti notare che una news su GT300 sta meglio nel thread relativo che non in questo? :>

Perché faccio notare il conclamato OT che tanto sappiamo benissimo tutti quanti porterà a dieci pagine di flame? :mbe:

Sará, ma Ratatosk non lo vedo cosí acido :D
Cioé, va benissimo fare certe comparazioni architetturali basate su rumors e compagnia bella, ma le news hanno il loro posto...

delafia nn pensavo di causare una polemica del genere :mbe: ...
ero in buona fede, nn voglio scatenare flame, essendo un periodo un pò morto penso sia utile anche fare comparazioni fra le speculazioni da una parte e dall'altra...evidentemente nn è cosi, penso che aprirò un thread apposta allora:
"aspettando le prossime architetture video" o qualcosa del genere, che sinceramente vedo molto + utile, in quanto si evidenziano meglio i punti di forza di una e l'altra architettura. Questa considerazione imho ovviamente

Mister Tarpone
20-05-2009, 12:03
ma te non dovevi prendere sta 4770? che aspetti?

ghiltanas
20-05-2009, 12:08
ma te non dovevi prendere sta 4770? che aspetti?

Ecco perchè nn l'ho ancora presa:

- nn si trova la versione che espelle l'aria all'esterno
- costa cara, a 111 euro mi porto a casa la 4850 vapor-x e mi tira parecchio
- sono fisso al mare,fino a fine settembre il tempo che sto al pc è molto ridotto, il fisso l'ho riacceso ieri sera dopo 2 settimane per vedere un film in blu-ray...

sto sempre valutando insomma :p

ghiltanas
20-05-2009, 12:15
Beh non te la prendere, lo sai com'è fatto un campo minato di fanboy :>

Un thread del genere secondo me non è molto utile, visto che dovresti comprare l'universo ad un'altro universo tanto sono variegati e contrastanti i rumors che girano :)

nn me la sono presa, anche perchè mi hai fatto notare che ero ot in modo cordiale :)

Tuvok-LuR-
21-05-2009, 09:30
Confermati i rumor sulla 4730:
http://www.techpowerup.com/94814/Radeon_HD_4730_SKU_Emerges_Return_to_RV770.html
Non sarà basata su RV740 (non ancora disponibile in massa) ma su RV770, memoria GDDR5 con bus a 128 bit.
http://www.techpowerup.com/img/09-05-20/56a.jpg

Resta da capire se quando le eccedenze di RV770 saranno smaltite verrà discontinuata o passerà a RV740

Turin
21-05-2009, 10:44
Notizie sulla 4770 1GB? Dovrebbe esserci di Asus e XFX ma non le trovo da nessuna parte. :confused:

Foglia Morta
21-05-2009, 10:53
Lui dice che è un RV740:

http://www.fudzilla.com/content/view/13792/34/



Questo apre anche un altro possibile filone di discussione sul futuro di RV870. E se puntassero su tanti SP a frequenze più basse invece che a farne magari meno a frequenze alte?

da quel poco che si può vedere qui il pcb pare uguale identico a quello della 4870 non reference ( pcs ):

http://img30.imageshack.us/img30/5339/imagebs92056079210595.jpg
http://img200.imageshack.us/img200/9274/hd4730512mbdualdviboxca.jpg


E leggendo un po di forum talvolta questi siti: hardware-info , fudzilla , brightsideofnews , ati-forum

mi danno l'impressione che ogni tanto si ispirino a commenti di altri , ci ricamino intorno con la fantasia e tirano fuori un articolo. Non so se sia questo il caso.

Tuvok-LuR-
21-05-2009, 10:55
Lui dice che è un RV740
non è verosimile, a causa dei due connettori di alimentazione e della lunghezza del pcb (peraltro identico a questo (http://www.powercolor.com/Global/images/assets/PCIE_HD4800_4870_512MB_GDDR5/PSD/image_b_s.jpg))

michelgaetano
21-05-2009, 11:08
non è verosimile, a causa dei due connettori di alimentazione e della lunghezza del pcb (peraltro identico a questo (http://www.powercolor.com/Global/images/assets/PCIE_HD4800_4870_512MB_GDDR5/PSD/image_b_s.jpg))

Quoto, deve essere RV770.

michelgaetano
21-05-2009, 11:15
Questo mi ha convinto definitivamente. Non che Fud fosse particolarmente affidabile comunque :asd:

Generalmente se fud dice qualcosa è meglio pensare l'opposto, quindi... :asd:

hey Rata, ma davvero aspetti la 5870 Vapor? Mi sa che prima di un anno non la si vede :stordita:

michelgaetano
21-05-2009, 11:31
Non ho fretta, non credo che in un anno ci sarà qualcosa in grado di mettere in crisi l'attuale 4870, ma non credo nemmeno che ci vorrà tutto questo tempo a vedere sul mercato la nuova VGA, non più di 6 mesi comunque :>

Sì 6 mesetti la 5870 dovremmo averla :D Però la vapor chamber sbaglio o è arrivata un mesetto fa o poco più? Insomma, c'è passata più di metà anno :stordita:

Poi è verissimo, difficile mettere in crisi le gpu attuali, all'orizzonte non mi pare si prospettino titoli pesanti :(

Tuvok-LuR-
21-05-2009, 11:37
speriamo esca presto una xbox 720° con directx 11 così si rimettono a fare giochi con motori decenti :rolleyes:

Foglia Morta
21-05-2009, 12:54
Fuad ha rimosso l'articolo... era una vaccata troppo grossa anche per il suo sito :asd:

michelgaetano
21-05-2009, 12:55
Ci han messo un bel po' a definire la prima Vapor-X, ma per esempio con la 4890 è bastato un mese, quindi anche al prossimo giro non credo ci metteranno molto :>

Direi di sì, in effetti non han dovuto cambiare molto :D

Fuad ha rimosso l'articolo... era una vaccata troppo grossa anche per il suo sito :asd:

Ecco :asd:

Tuvok-LuR-
21-05-2009, 13:22
uff, intanto a 2 anni e mezzo dalla 8800GTX ed a un anno dalla 4870 siamo ancora allo stesso punto :(

Turin
21-05-2009, 13:48
uff, intanto a 2 anni e mezzo dalla 8800GTX ed a un anno dalla 4870 siamo ancora allo stesso punto :(
Tanto non c'è necessità di una potenza superiore... semmai il problema sono i giochi. Io gioco a Crysis da un anno. :confused:

The_SaN
21-05-2009, 14:33
Anzi, almeno i programmatori si concentrano su quello che abbiamo e la smettono di tirare fuori certi mattoni.

Comunque (leggermente OT), lode a capcom per i suoi ultimi porting.
Sembra che SF4 sia anche lui bello leggero, cosi come lo é stato DMC4.

Athlon 64 3000+
21-05-2009, 18:32
Se Windows 7 esce a ottobre RV870 esce lo stesso mese dato che AMD ha detto che le gpu dx11 sarebbero state lanciate in concomitanza dell'uscita di Windows 7.
Se fa come previsto gia a dicembre avremo una bella HD 5870 Vapor-X:D

gervi
21-05-2009, 19:50
Fuad ha rimosso l'articolo... era una vaccata troppo grossa anche per il suo sito :asd:

:asd: :asd:

verissimo.

Mercuri0
22-05-2009, 10:18
Continua a frullarmi in testa un numero: 3.

Banale... io avrei detto 8.

Non chiedetemi di essere più sopecifico, le profezie devono essere criptiche :>
A proposito, c'è un tipo che può darsi lavori per TMSC, tal "hotboy" che su Chipell si diverte a dare anticipazioni in cinese criptiche persino per i cinesi (che infatti cercano di capirci qualcosa), figurati per noi che dobbiamo passare pure da google..

http://translate.google.com/translate?hl=en&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D45229%26extra%3Dpage%253D1%26page%3D1&prev=hp&rurl=translate.google.com

ne cito qualcuna:
BOSS came yesterday, no time to back .... According to reliable information, the two new nuclear is the first leap, it is hardly surprising that children with disabilities some time ago gave birth deformities
Problemi con qualche chip, vai a sapere a quale "bambino disabile" si riferisce

Looks like there is glue has been no mention of plans, where the middle class may not, and now are too tight-lipped, but also not too many sets of performance .... Anyway, we look forward to better under ...
boh

Khan died a few days .... ah serious leakage, a family feels that the only hearsay under casual
Ah, questa è interessante, è morto "Khan" a causa di leakage. Vai a sapere chi è Khan.

Comunque ormai è chiaro che i 40nm di TSMC sono un colabrodo.
Però la 4770 macina..

Kharonte85
22-05-2009, 11:00
Banale... io avrei detto 8.

A proposito, c'è un tipo che può darsi lavori per TMSC, tal "hotboy" che su Chipell si diverte a dare anticipazioni in cinese criptiche persino per i cinesi (che infatti cercano di capirci qualcosa), figurati per noi che dobbiamo passare pure da google..

http://translate.google.com/translate?hl=en&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D45229%26extra%3Dpage%253D1%26page%3D1&prev=hp&rurl=translate.google.com

ne cito qualcuna:

Problemi con qualche chip, vai a sapere a quale "bambino disabile" si riferisce


boh


Ah, questa è interessante, è morto "Khan" a causa di leakage. Vai a sapere chi è Khan.

Comunque ormai è chiaro che i 40nm di TSMC sono un colabrodo.
Però la 4770 macina..
"Khan" era il nome in codice di R300...:fagiano:

Tuvok-LuR-
22-05-2009, 11:29
Ma questo lo avevate visto?
http://www.chiphell.com/2009/0509/55.html
Scheda misteriosa rv740 con GDDR3 (4750?)

Foglia Morta
22-05-2009, 11:32
Ma questo lo avevate visto?
http://www.chiphell.com/2009/0509/55.html
Scheda misteriosa rv740 con GDDR3 (4750?)

si postato tempo fa sul thread della 4770

Marko91
23-05-2009, 15:44
Mi sembra veramente troppo. Poi per carità, non mi sento di dare niente per certo, ma già 3 mi sembra quasi ottimistico...

8? 3? Vi state riferendo ai Teraflops? 3 Tflops sono sensati (2000sp*750Mhz*2), 8 Tflops non proprio. Richiederebbero altissime frequenze o una marea di sp (4000sp*1Ghz*2). Un chip simile anche a 40nm sarebbe bello grosso (richiederebbe almeno 80TMU,32ROPs,512bit MC), intorno ai 400mm^2. Mi sembrerebbe fuori discussione nelle strategie ATi. A 32nm diventa plausibile, ma non dovrebbero essere disponibili prima del Q12010.

halduemilauno
25-05-2009, 09:35
http://www.fudzilla.com/content/view/13832/1/

Comes in late 2009


We just got one interesting news confirmed. ATI's DirectX 11 high-end card, codenamed R800 is made of two 40nm GPUs. This doesn’t really come as a big surprise, but we at least managed to confirm this one. ATI is continuing its X2 roadmap and won't change its direction anytime soon.

RV870 is a single 40nm DirectX 11 capable chip while R800 will be made of two of them. R800 should be competing with Nvidia’s GT300 chip and at this stage, we doubt that anyone knows who should win this performance crown fight but the hopes are high.

GT300 should also be on the schedule to launch in late 2009 but we’ve heard before that ATI hopes to be the first DirectX 11 on the market, but we are quite sure that both next generation chips and cards will launch close to each other.

Gabriyzf
25-05-2009, 10:51
http://www.fudzilla.com/content/view/13832/1/

Comes in late 2009


We just got one interesting news confirmed. ATI's DirectX 11 high-end card, codenamed R800 is made of two 40nm GPUs. This doesn’t really come as a big surprise, but we at least managed to confirm this one. ATI is continuing its X2 roadmap and won't change its direction anytime soon.

RV870 is a single 40nm DirectX 11 capable chip while R800 will be made of two of them. R800 should be competing with Nvidia’s GT300 chip and at this stage, we doubt that anyone knows who should win this performance crown fight but the hopes are high.

GT300 should also be on the schedule to launch in late 2009 but we’ve heard before that ATI hopes to be the first DirectX 11 on the market, but we are quite sure that both next generation chips and cards will launch close to each other.

bene, allora si assiterà a una fine d'anno coi botti :D

The_SaN
25-05-2009, 13:45
8? 3? Vi state riferendo ai Teraflops? 3 Tflops sono sensati (2000sp*750Mhz*2), 8 Tflops non proprio. Richiederebbero altissime frequenze o una marea di sp (4000sp*1Ghz*2). Un chip simile anche a 40nm sarebbe bello grosso (richiederebbe almeno 80TMU,32ROPs,512bit MC), intorno ai 400mm^2. Mi sembrerebbe fuori discussione nelle strategie ATi. A 32nm diventa plausibile, ma non dovrebbero essere disponibili prima del Q12010.Credo che uno si riferisca a Q3 e l'altro a mese 8.
Ma posso sbagliarmi, mi sono appena svegliato e l'effetto del vinello mi ronza ancora per la testa :asd:

Mister Tarpone
25-05-2009, 13:53
Credo che uno si riferisca a Q3 e l'altro a mese 8.
Ma posso sbagliarmi, mi sono appena svegliato e l'effetto del vinello mi ronza ancora per la testa :asd:

ah.. pure te gli dai sotto di vino eh.. :asd:

bene, allora si assiterà a una fine d'anno coi botti :D

già... :D

HaRdCoRe GaMeR
25-05-2009, 15:21
Quindi ATI rulla con i 40nm e nvidia colabroda?:D

appleroof
25-05-2009, 19:39
No, TSMC colabroda con i 40nm e sia AMD che nVidia hanno i loro bei grattacapi a tirarne fuori qualcosa di buono, con l'ovvio vantaggio di AMD nella scelta di chip piccoli (che innalzano naturalmente gli yelds per ovvi motivi) piuttosto che i molto grandi di nVidia che avranno ancora più problemi.

per fortuna nostra non li fà solo TMSC :)

edit: http://www.hwupgrade.it/forum/showthread.php?p=27597172#post27597172

halduemilauno
26-05-2009, 06:59
http://www.hardware-infos.com/news.php?news=2966&sprache=1

AMD R800, RV870 and RV840 within this year
In a few months AMD will unveil their DirectX 11 graphic chips. As expected beginning with the performance chip RV870, which the details are already quite precise about, which though were not yet confirmed by another source.
Meanwhile we could figure out that there are many other AMD DirectX 11 graphic chips planned for this year - this also matches with AMD's last statements.

According to our information on hand AMD will introduce at least three DirectX 11 graphic chips within this year, two of them surely produced in 40 nm.
So the performance chip RV870 is followed by the dual chip R800. Additionally, the middle class chip RV840 is said to join the AMD portfolio this year.

We do not have any information about a potential RV810 chip for the low budget segment yet.

Foglia Morta
26-05-2009, 07:23
Spesso quei siti scrivono solo perchè c'è chi legge, non perchè ci sia qualcosa da scrivere. Nessuna novità

Foglia Morta
27-05-2009, 12:47
Mi sembra strano , assurdo... comunque:

http://www.theinquirer.net/inquirer/news/1137488/amd-dx11-cards

THE OLD RAT RACE is back on again between Nvidia and AMD, with Daamit doing its darndest to get a few DX11 cards out the door before the end of 2009, before the green goblin pulls the GT300 series cards out of its hat.

Our sources reckon AMD will be coming out with at least two high performance cards and one mid-range card by the end of 2009, with a possible fourth low-end card by the end of the year or beginning of 2010.

The single GPU RV870 card - which probably translates into the Radeon HD 5870 under AMD's current naming scheme - is expected to appear first, followed by a dual GPU RV800 (Radeon HD 5870X2) and mainstream RV840 GPU (Radeon HD 5850).

All the cards are expected to be Direct X11 and the two higher end cards will most likely be 40nm too, thanks to a quick ramp at Global Foundries' Dresden fab.

Nvidia had better hope and pray that TSMC can patch up its leaky 40nm bucket in time to catch up. µ

michelgaetano
27-05-2009, 12:58
? Niente TSMC bensì Global Foundries?

Mister Tarpone
27-05-2009, 13:08
o.O questa è nuova :>

Comunque RV840 è quasi certamente RV740 con l'etichetta cambiata e su scritto DirectX 11

secondo me sarà meglio di rv740 non solo per le dx11 :><

goldorak
27-05-2009, 13:12
? Niente TSMC bensì Global Foundries?

Global Foundries non e' la fabbrica di AMD ?
Avrebbe senso poiche' hanno gia' un processo produttivo per i 45 nm ben rodato (parlo per le cpu phenom) quindi un piccolo salto in piu' per i 40nm e' fattibile. E lo sfruttano per le gpu. :p

goldorak
27-05-2009, 13:21
No, il 45nm lo hanno sul SOI, le GPU le progettano ancora su processo bulk. Non so se la cosa è destinata a cambiare in futuro, scommetto di sì, ma certo non in questa generazione ;)

Ah come non detto allora. :fagiano:
Forse alla TMSC hanno troppi problemi coi 40nm tanto da indurre ATI ad usare una delle proprie fabbriche ?
O forse ATI vuole massimizzare la resa in modo da inondare al piu' presto il mercato con gpu a 40 nm e quindi TMSC non basta e si ricorre ad un altra fonderia. Come si dice, 2 e' meglio di 1. :D

michelgaetano
27-05-2009, 13:21
No, il 45nm lo hanno sul SOI, le GPU le progettano ancora su processo bulk. Non so se la cosa è destinata a cambiare in futuro, scommetto di sì, ma certo non in questa generazione ;)

Quindi dici che è irreale che Global produca le schede Rata?

michelgaetano
27-05-2009, 13:28
Magari mi ricordo male, ma non mi risulta che GF produca bulk se non a 32nm (e si stia attrezzando per i 28nm).

Se mi ricordo bene o AMD è passata ai 32nm abbandonando già i 40 per l'impossibilità di avere una produzione con yelds decenti oppure questa voce è un falso.

Se così davvero la news è una bufala :stordita:

goldorak
27-05-2009, 13:35
Ok the inquirer si conferma "affidabile" come sempre. :asd: :Perfido:

michelgaetano
27-05-2009, 13:40
Addio The Inquirer :asd:

però hanno il tasto "Flame Author" :rotfl:

Athlon 64 3000+
27-05-2009, 14:54
nella notizia postata questa mattina c'era anche un altra cavolata scritte(almeno secondo me)
La HD 5870 sarà RV870 e la HD 5850 dicono su RV840 e sinceramente mi sempra una sparata bella e buona.

Bourne
27-05-2009, 15:03
Ci potrebbe essere una sorpresa sul fronte della produzione come anticipato da The Inquirer:

http://www.tomshw.it/news.php?newsid=18262

Kharonte85
27-05-2009, 15:04
Se vi interessa saperne di piu' su GlobalFoundries:


The Future of GlobalFoundries revealed
by: Theo Valich

http://brightsideofnews.com/news/2009/5/26/the-future-of-globalfoundries-revealed.aspx

Foglia Morta
28-05-2009, 06:03
$79 per la 4730 di cui si era parlato tempo fa e taglio di prezzo per la 4850

http://i16.photobucket.com/albums/b14/denniszzz/4730-1.jpg
http://i16.photobucket.com/albums/b14/denniszzz/4730-2.jpg
http://i16.photobucket.com/albums/b14/denniszzz/4730-3.jpg
http://i16.photobucket.com/albums/b14/denniszzz/4730-4.jpg
http://i16.photobucket.com/albums/b14/denniszzz/4730-5.jpg

http://www.matbe.com/actualites/67561/penurie-de-4770-amd-reagit-avec-la-4850-a-99-and-8/

Radeon HD 4770 exit a few weeks ago is not easily findable in store. The problem comes from bad outputs at TSMC for this chip which inaugurates an intricacy of engraving in 40 nanometers at ATI. AMD regrets obviously this situation and has just informed us that to compensate for this shortage, it had been decided, with partners ATI, to lower the price of Radeon HD 4850 512 Mo with 99 euros, that is to say the price of Radeon HD 4770! Here is a strong gesture on behalf of AMD which will charm the consumers since the 4850 512 Mo is more powerful than Radeon HD 4770 (see our test). AMD on the other hand did not indicate us when the 4770 will be really available in mass. While waiting, that makes it possible to run out of stocks of 4850 512 Mo at low prices and to make even more badly in Nvidia in this range of price. It should be noted that these price drops already start to be noted in our price gauge. You will be able to check it while following this bond.

michelgaetano
28-05-2009, 06:20
Interessante e giusto il taglio di prezzi della HD 4850: a prestazioni allineate alla 4770 ma con consumi e OC migliore, non aveva senso. Allo stesso prezzo è già un altro discorso.

La 4730... Proviamo a paragonarla ad una HD 4830, e ad ipotizzare le prestazioni, come prezzo siam lì:

4830 vs 4730

Core: 575 vs 700
Memorie: 1800 vs 3600
Bus: 256 vs 128
SP: 640 vs 640

A parità di SP e banda (identica anche qui per il clock raddoppiato dalla gddr5 ma la metà del bus), l'unica differenza (se escludiamo la doppia alimentazione che non lascia ben presagire :rolleyes: - qualche anima buona, mi spiega perchè diamine 2 connettori? Il bus non è a soli 128 bit?) sono i 125 mhz in più sul core, che, volendo essere buoni, dovrebbero fornire un 10 % in più di prestazioni.

Eppure, una scheda che va più della HD 4830, perchè la si paragona alla 9600 GT e non alla 9800 GT? Senza contare che da quei grafici, generalmente ottimistici, non risulta neanche tutto sto granchè! Specifiche alla mano dovrebbe essere addirittura vicina a 4770 e 4850.

Help :stordita:

P.S. e non ho menzionato il fatto che questa 4730 potrebbe andare praticamente come una HD 4830 se non meglio, cioè, complimenti per il nome :stordita:

Foglia Morta
28-05-2009, 06:38
Si adatta l'offerta alle rese produttive... se gli riesce facile ottenere molte gpu a 700mhz lo si fa. Il paragone con la 9600GT è corretto perchè la fascia la fa il prezzo , con prezzo a $79 la vedo più in competizione con la 9600GSO però siamo circa lì. La 4830 dovrebbe essere sostituita dalla 4730 quindi il nome è corretto , se mai è la 4830 che dal momento in cui è stata presentata la 4770 ha un nome non più adeguato ( nomenclatura che può far pensare a prestazioni superiori alla 4770 mentre è l'opposto ) .

michelgaetano
28-05-2009, 06:55
Si adatta l'offerta alle rese produttive... se gli riesce facile ottenere molte gpu a 700mhz lo si fa. Il paragone con la 9600GT è corretto perchè la fascia la fa il prezzo , con prezzo a $79 la vedo più in competizione con la 9600GSO però siamo circa lì. La 4830 dovrebbe essere sostituita dalla 4730 quindi il nome è corretto , se mai è la 4830 che dal momento in cui è stata presentata la 4770 ha un nome non più adeguato ( nomenclatura che può far pensare a prestazioni superiori alla 4770 mentre è l'opposto ) .

Più che altro mi sa che la 4830 doveva chiamarsi 4730, questa 4730--> 4770 e la 4770 --> 4830 :stordita:

Ad ogni modo:

http://www.tomshw.it/news.php?newsid=18264

Sembra che la causa della rottura di Gainward con Ati sia la famosa 4850 con Gddr5! :muro: Non penso davvero si possa dar torto ad AMD...

Foglia Morta
28-05-2009, 07:26
Più che altro mi sa che la 4830 doveva chiamarsi 4730, questa 4730--> 4770 e la 4770 --> 4830 :stordita:

quando è stata presentata la 4830 il nome era ben rappresentativo... dopo RV740 son cambiate le cose e pare si stiano adeguando.

Ad ogni modo:

http://www.tomshw.it/news.php?newsid=18264

Sembra che la causa della rottura di Gainward con Ati sia la famosa 4850 con Gddr5! :muro: Non penso davvero si possa dar torto ad AMD...

Gli articoli dai quali è stato tratto quest'ultimo articolo:

http://www.xbitlabs.com/news/video/display/20090527151616_AMD_Graphics_Chip_Marketing_Approach_Not_Compatible_with_Gainward_s_Palit_s__Report.html

http://www.brightsideofnews.com/news/2009/5/27/gainward-and-palit-blast-amd-for-their-gpu-product-policy.aspx

g.luca86x
28-05-2009, 08:04
mi chiedo allora come mai gainward non abbia fatto la furbata con nvidia! Che voi sappiate usare le gddr5 con i chip nvidia ha qualche controindicazione riguardo le maggiori frequenze? Avrebbe potuto innestarle ad esempio su tutte quelle schede con bus a 448bit creando dei mostri come bandwidth! Tuttavia AMD ha ragione: se due schede di fascia e prezzo diverso si differenziano solo per le memorie non puoi azzerare questa differenza! Giustamente dalle schede di fascia alta, che ricordiamo fino all'introduzione della 4890 era il top single gpu di ati, amd si attende dei margini superiori rispetto alle 4850! Se vendi una 4850 con le gddr5 meno di una 4870, avendo peraltro lo stesso chip grafico, è proprio un attentato!

Foglia Morta
28-05-2009, 08:07
mi chiedo allora come mai gainward non abbia fatto la furbata con nvidia! Che voi sappiate usare le gddr5 con i chip nvidia ha qualche controindicazione riguardo le maggiori frequenze? Avrebbe potuto innestarle ad esempio su tutte quelle schede con bus a 448bit creando dei mostri come bandwidth! Tuttavia AMD ha ragione: se due schede di fascia e prezzo diverso si differenziano solo per le memorie non puoi azzerare questa differenza! Giustamente dalle schede di fascia alta, che ricordiamo fino all'introduzione della 4890 era il top single gpu di ati, amd si attende dei margini superiori rispetto alle 4850! Se vendi una 4850 con le gddr5 meno di una 4870, avendo peraltro lo stesso chip grafico, è proprio un attentato!

il memory controller di nVidia non è compatibile con le GDDR5

Tuvok-LuR-
28-05-2009, 08:09
qualche anima buona, mi spiega perchè diamine 2 connettori?
Dalle slide si evince che dovrebbe consumare 110 Watt circa.
Il fatto che abbia due connettori può derivare dal riciclaggio dei pcb economici (con vrm analogici) delle 4870 (ed i 128 bit ottenuti dimezzando i moduli di ram)

g.luca86x
28-05-2009, 08:26
il memory controller di nVidia non è compatibile con le GDDR5

a posto! ecco spiegato l'arcano mistero!

Athlon 64 3000+
28-05-2009, 09:04
http://www.tomshw.it/news.php?newsid=18266

News che puzza gia di vecchio.:D

Tuvok-LuR-
28-05-2009, 11:10
Sinceramente non credo che ATI andrà diretta sulla nuova gpu dx11, non mi pare plausibile che rv740 verrà utilizzato solo per la 4770 ed eventuale 4750, presumibilmente una volta smaltiti i core rv770 penso che ATI tirerà fuori delle 4870/90 a 40nm, poco più veloci ma molto più redditizie (sempre che salgano gli yields)

michelgaetano
28-05-2009, 11:25
Sinceramente non credo che ATI andrà diretta sulla nuova gpu dx11, non mi pare plausibile che rv740 verrà utilizzato solo per la 4770 ed eventuale 4750, presumibilmente una volta smaltiti i core rv770 penso che ATI tirerà fuori delle 4870/90 a 40nm, poco più veloci ma molto più redditizie (sempre che salgano gli yields)

A mio parere invece sì, e la cosa al momento sembra confermata.

Peraltro se Ati riuscirà ad arrivare prima di Nvidia, potrà almeno per un po' avvantaggiarsi della cosa e guadagnarci qualcosa in più.

Foglia Morta
28-05-2009, 12:11
Ma questo che fuma?

http://www.fudzilla.com/content/view/13916/34/

Prima dice che è un rebranding in stile nVidia della 4830, poi che visto che ha frequenze maggiori e le GGDR5 invece delle GDDR3 che andrà più veloce...

A volte penso che faccia apposta per crearsi una certa fama , che poi nel bene o nel male è pubblicità :asd:

michelgaetano
28-05-2009, 12:12
Ma questo che fuma?

http://www.fudzilla.com/content/view/13916/34/

Prima dice che è un rebranding in stile nVidia della 4830, poi che visto che ha frequenze maggiori e le GGDR5 invece delle GDDR3 che andrà più veloce...

Lol senza parole per il tizio.

Sulle prestazioni di questa 4730 rimango perplesso :stordita:

Mercuri0
28-05-2009, 13:02
mi chiedo allora come mai gainward non abbia fatto la furbata con nvidia! Che voi sappiate usare le gddr5 con i chip nvidia ha qualche controindicazione riguardo le maggiori frequenze? Avrebbe potuto innestarle ad esempio su tutte quelle schede con bus a 448bit creando dei mostri come bandwidth! Tuttavia AMD ha ragione: se due schede di fascia e prezzo diverso si differenziano solo per le memorie non puoi azzerare questa differenza! Giustamente dalle schede di fascia alta, che ricordiamo fino all'introduzione della 4890 era il top single gpu di ati, amd si attende dei margini superiori rispetto alle 4850! Se vendi una 4850 con le gddr5 meno di una 4870, avendo peraltro lo stesso chip grafico, è proprio un attentato!

Il problema è anche in relazione agli altri produttori di schede, che hanno seguito la direttiva per differenziare la 4850 e la 4870.

Annullare arbitrariamente la differenza tra le due schede (visto che il chip è lo stesso, senza parti disattivate) non mi sembra esattamente una versione "custom" di 4850...

Foglia Morta
28-05-2009, 22:17
Su 'sta storia di Palit/Gainward continuano a scrivere...

http://www.theinquirer.net/inquirer/news/1137514/gainward-palit-ati-spat-rate-hatchet-job

Lì si dice che una versione non reference di Palit , creata per ridurre i costi, non rientrava nei parametri qualitativi imposti da ATi e quindi quest'ultima l'ha stoppata. Ma dice anche che con le gpu DX11 conviene ad entrambi una riappacificazione.

http://brightsideofnews.com/news/2009/5/27/amd-and-anti-competitive-practices.aspx

Lì invece si accusa ATi di aiutare il suo principale partner imponendo di aspettare che quest'ultimo sia pronto con la sua non reference per dare il via anche a tutti gli altri partner.

IMHO la prima teoria può essere plausibile solo nel caso di Palit mentre la seconda teoria lo è solo per Gainward, dato il diverso target di clienti, quindi secondo me nessuno la racconta tutta la storia.

Foglia Morta
29-05-2009, 07:01
http://www.eetimes.com/news/semi/showArticle.jhtml?articleID=217700724

SAN JOSE, Calif. -- Chartered Semiconductor Manufacturing Pte. Ltd. has received a $2.45 billion bid from the government of Abu Dhabi to buy Temasek Holdings' near-60 percent stake in the foundry vendor, according to the Business Times.

Singapore's Chartered has received the bid from Advanced Technology Investment Co. (ATIC), a technology investment company that is wholly owned by the government of Abu Dhabi, according to the report.

It's unclear if the bid will be sucessfull. But if the deal goes through, ATIC will own two foundry vendors. Last year, Advanced Micro Devices Inc. (AMD) obtained an investment of up to $8.4 billion from the Abu Dhabi government.

As part of the deal, AMD, ATIC and Mubadala announced the creation of a foundry joint venture, now called GlobalFoundries. GlobalFoundries was the chip-making unit of AMD.

Foglia Morta
29-05-2009, 10:45
CJ dice che Cypress è il codename di RV870 e Juniper quello di RV830 , città americane

Foglia Morta
29-05-2009, 14:41
come dicevo tempo fa... i problemi di TSMC danneggiano ATi , prevalentemente.

http://www.bit-tech.net/news/hardware/2009/05/29/amd-will-be-first-to-directx-11/1

COMPUTEX 2009: Taiwanese sources close to both AMD and Nvidia have confirmed that AMD will be first to market with DirectX 11 capable graphics cards and they’re currently expected to arrive in October of this year – right in line with Windows 7’s expected release.

The sources said that AMD is “essentially ready” to release the new family of GPUs – and has been for some time – but the company is waiting for the problems with TSMC’s 40nm process to be ironed out.

The new family of GPUs – with the flagship rumoured to be called RV870 (although not confirmed by our sources) – will follow the same strategy that AMD employed with the Radeon HD 3000 and 4000 series. This means we can expect AMD to double up and use a pair of its fastest GPUs to create a dual-GPU flagship product of a similar ilk to the Radeon HD 4870 X2, which dominated the high-end for many months.

Nvidia, on the other hand, is expected to release another big GPU, but it is unlikely to be a conservative effort like GT200 – we’re told the focus will very much be on maximising performance and efficiency when switching between graphics and general computing tasks (i.e. using the Compute Shader). It’s unclear whether it’ll be enough of a brute to match the performance of two smaller Radeon GPUs on a single board though.

With that said, our sources said that GT300 had taped out but Nvidia is being quite cagey about a release timeframe. It has been manufactured on TSMC’s 40nm node, which AMD has been having a lot of trouble with as RV740 chips are in “very short supply.” If the problems with the process aren’t ironed out, it could affect both companies which wouldn’t be good for us consumers.

goldorak
29-05-2009, 14:58
Scusate ma se i 40nm di TMSC creano cosi' tanti problemi, perche' Nvidia con un chip gigantesco ha meno problemi di ATI che usa invece chip molto piu' piccoli ? :stordita:

Tuvok-LuR-
29-05-2009, 15:00
Scusate ma se i 40nm di TMSC creano cosi' tanti problemi, perche' Nvidia con un chip gigantesco ha meno problemi di ATI che usa invece chip molto piu' piccoli ? :stordita:
credo che nvidia non abbia fretta quindi può aspettare che il processo migliori, mentre ATI vuole uscire il prima possibile

Matalf
29-05-2009, 15:01
Scusate ma se i 40nm di TMSC creano cosi' tanti problemi, perche' Nvidia con un chip gigantesco ha meno problemi di ATI che usa invece chip molto piu' piccoli ? :stordita:

perchè non li sta ancora producendo e quando lo farà i problemi saranno sicuramente risolti

Foglia Morta
29-05-2009, 15:04
Scusate ma se i 40nm di TMSC creano cosi' tanti problemi, perche' Nvidia con un chip gigantesco ha meno problemi di ATI che usa invece chip molto piu' piccoli ? :stordita:

Ma ste cose da dove le tiri fuori ?

goldorak
29-05-2009, 15:47
come dicevo tempo fa... i problemi di TSMC danneggiano ATi , prevalentemente.

http://www.bit-tech.net/news/hardware/2009/05/29/amd-will-be-first-to-directx-11/1

COMPUTEX 2009: Taiwanese sources close to both AMD and Nvidia have confirmed that AMD will be first to market with DirectX 11 capable graphics cards and they’re currently expected to arrive in October of this year – right in line with Windows 7’s expected release.

The sources said that AMD is “essentially ready” to release the new family of GPUs – and has been for some time – but the company is waiting for the problems with TSMC’s 40nm process to be ironed out.

The new family of GPUs – with the flagship rumoured to be called RV870 (although not confirmed by our sources) – will follow the same strategy that AMD employed with the Radeon HD 3000 and 4000 series. This means we can expect AMD to double up and use a pair of its fastest GPUs to create a dual-GPU flagship product of a similar ilk to the Radeon HD 4870 X2, which dominated the high-end for many months.

Nvidia, on the other hand, is expected to release another big GPU, but it is unlikely to be a conservative effort like GT200 – we’re told the focus will very much be on maximising performance and efficiency when switching between graphics and general computing tasks (i.e. using the Compute Shader). It’s unclear whether it’ll be enough of a brute to match the performance of two smaller Radeon GPUs on a single board though.

With that said, our sources said that GT300 had taped out but Nvidia is being quite cagey about a release timeframe. It has been manufactured on TSMC’s 40nm node, which AMD has been having a lot of trouble with as RV740 chips are in “very short supply.” If the problems with the process aren’t ironed out, it could affect both companies which wouldn’t be good for us consumers.

Ma ste cose da dove le tiri fuori ?

Dalla notizia che tu stesso hai postato.

Foglia Morta
29-05-2009, 16:00
Dalla notizia che tu stesso hai postato.

infatti non c'è scritto che nVidia ha meno problemi di ATi.

The_SaN
29-05-2009, 16:00
Dalla notizia che tu stesso hai postato.Appunto, quello che hai quotato non ha niente a che vedere con quello che hai detto :D
I problemi li hanno entrambi...

Edit: foglia, quando riusciró a batterti? :asd:

Foglia Morta
29-05-2009, 16:03
Appunto, quello che hai quotato non ha niente a che vedere con quello che hai detto :D
I problemi li hanno entrambi...

Edit: foglia, quando riusciró a batterti? :asd:

Quando lo vorrò io :D

goldorak
29-05-2009, 16:04
infatti non c'è scritto che nVidia ha meno problemi di ATi.

Appunto, non ce' neanche scritto che Nvidia abbia piu' problemi di ATI no ?
Quindi e' presumibile pensare che abbia meno problemi. Da cui il mio intervento. :fagiano:

Foglia Morta
29-05-2009, 16:09
Appunto, non ce' neanche scritto che Nvidia abbia piu' problemi di ATI no ?
Quindi e' presumibile pensare che abbia meno problemi. Da cui il mio intervento. :fagiano:

appunto la funcia... qui nessuno a parte te ha detto che l'uno o l'altro ha più problemi con i 40nm. Quindi a tal proposito non è presumibile niente , stando a quell'articolo.

goldorak
29-05-2009, 16:42
I problemi sul processo sono gli stessi, il chippone farà sì che gli yelds siano ancora peggiori. Da questo punto di vista nVidia è messa molto peggio...



Ok ma mi pare una situazione irreale francamente.
Se davvero i problemi sono cosi' ingenti, come pensano di fare concorrenza a ATI che avra' presumibilmente la nuova architettura DX11 coprire tutte le fasce di mercato ?
Se Nvidia ha gia' problemi con G300 a causa della dimensione come pensano di coprire la fascia media e quella bassa ? Con le vecchie architetture basate su G92 e GT200 ? Sono sempre DX10, neanche DX10.1 e ovviamente le DX11 non le vedono manco col binocolo.
Boh non capisco la politica di Nvidia. :stordita:

cervus92
30-05-2009, 14:12
ciao a tutti, volevo prendermi una 4850 1gb single slot, però visto che non sono molto informato sui prossimi arrivi per quanto riguarda ati a breve arriverà qualcosa di nuovo che merita aspettare? quando dovrebbe uscire? so che è uscita la 4770 che mi interessava molto perchè a 40nm, se ci fosse stata la versione 1gb l'avrei presa subito :D (ho un monitor tv 22").

grazie!!!

Non ti serve 1GB su quelle schede, vai tranquillo con quella da 512MB ;)

Trokji
30-05-2009, 14:13
1GB invece con alcuni giochi sarebbe utile.. vedi cysis. COn tutto al max queste schedine seppur ottime hanno un deciso decadimento di prestazioni

Lamana
31-05-2009, 07:27
Da quanto mi è parso di evincere dai benchmark, la memoria sopra i 512MB è buona se giochi a risoluzioni a partire da 1920x1200 in su, con tanto di filtri attivati...a me personalmente, la 3870x2 va da Dio a 1920x1200 fino ad AA4X, con AA8x inizia a zoppicare.
:P Mi iscrivo al thread in attesa della 5870 :oink:

@ Ascatem: in fatto di hardware c'è SEMPRE qualcosa di buono che vale la pena aspettare...però, da quanto ho capito, vuoi una VGA intorno alle 100 euro e credo che le soluzioni mainstream DX11 (tipo 5850) non siano vicinissime...quelle nVidia usciranno nel 2010 credo...

DarthFeder
31-05-2009, 08:01
Da quanto mi è parso di evincere dai benchmark, la memoria sopra i 512MB è buona se giochi a risoluzioni a partire da 1920x1200 in su, con tanto di filtri attivati...a me personalmente, la 3870x2 va da Dio a 1920x1200 fino ad AA4X, con AA8x inizia a zoppicare.
:P Mi iscrivo al thread in attesa della 5870 :oink:


Quoto...anche io mi trovo benissimo con la mia "vecchia" 3870X2...un'overcloackatina leggera e i frame schizzano verso l'alto! La cambierei solo per una scheda dx11 e solo per un discorso di consumi. La 3870X2 consuma davvero molto....per il resto è ancora una bella bestia

ps: sono curioso di vedere se le 5850 saranno delle belve come le 4850!!!

Lamana
31-05-2009, 08:13
Da quanto ho capito, ATI vuole coprire tutte le fasce con un solo chip...ha fatto così con la serie 4XXX...versione economica con qualche "paletto" che ne limita le prestazioni, versione mainstream singola a pieno regime e versione enthusiast X2 (o addirittura X4 in futuro)...quindi suppongo che la 5850 sarà una scheda performante quanto una 4890 o giù di lì :P

DarthFeder
31-05-2009, 08:17
Da quanto ho capito, ATI vuole coprire tutte le fasce con un solo chip...ha fatto così con la serie 4XXX...versione economica con qualche "paletto" che ne limita le prestazioni, versione mainstream singola a pieno regime e versione enthusiast X2 (o addirittura X4 in futuro)...quindi suppongo che la 5850 sarà una scheda performante quanto una 4890 o giù di lì :P

se costerà pochetto sarà mai :asd: magari, se gainward non ci lascia, una bella 5850 gs :asd:
oppure si aspetta un po' e via di 5870!

la paura è che, come fu con le prime schede dx10, la prima generazione dx11 supporti le librerie, ma non riesca a gestirle in modo molto efficace...
per intendersi: le 8800 nVidia erano mostri in dx9, ma in dx10 non erano nulla di particolarmente sbalorditivo...arrancavano non poco.

Trokji
31-05-2009, 08:55
Quoto...anche io mi trovo benissimo con la mia "vecchia" 3870X2...un'overcloackatina leggera e i frame schizzano verso l'alto! La cambierei solo per una scheda dx11 e solo per un discorso di consumi. La 3870X2 consuma davvero molto....per il resto è ancora una bella bestia

ps: sono curioso di vedere se le 5850 saranno delle belve come le 4850!!!

CHi si accontenta gode! Vale anche per quelli che hanno ancora le 5900xt, scheda secondo molti non fuona ma che invece non era male, raggiungeva la 5900 ultra senza problemi. Alcuni forse ancora oggi la utilizzanno con oblivion o altre cose

Lamana
31-05-2009, 09:00
CHi si accontenta gode! Vale anche per quelli che hanno ancora le 5900xt, scheda secondo molti non fuona ma che invece non era male, raggiungeva la 5900 ultra senza problemi. Alcuni forse ancora oggi la utilizzanno con oblivion o altre cose

?!?! Forse volevi dire 2900 ? Comunque Oblivion me lo giocavo decentemente nel 2006 con la X850XT :oink:

Trokji
31-05-2009, 09:03
no 5900 xt..la serie 5 che secondo molti fu un fallimento per nvidia :fagiano:
Ad oblivion ci si gioca, ma scendendo molto a compromessi, anche editando gli script della grafica epr avere maggior fluidità :fagiano:

Lamana
31-05-2009, 09:16
Beh, da questo punto di vista le schede ultracostose servono soltanto a usare migliorie grafiche superflue, se vuoi giocare e basta senza dettagli e filtri a palla va bene una VGA qualsiasi non proprio vecchissima...la X850XT l'ho abbandonata solo perché ormai certi giochi non partivano più perché erano Pixel Shader 3.0...comunque stiamo andando un po' OT :oink:

Trokji
31-05-2009, 09:19
Ma anche io la sptessa con per la 1900xt.. l'ho abbandonata non perché crysis scattasse ma perché su high proprio non mi permetteva di selezionarlo :stordita: Cmq credo che questa serie 5 sarà più veloce del doppio o quasi rispetto all'attuale generazione.. credo però che il costo sarà altino.. quindi non credo di passarci prima di 2-3 mesi almeno dalla sua uscita, suppongo in inverno dunque :fagiano:

Trokji
31-05-2009, 09:29
Io penso che ad agosto sulla fascia 150 ci sarà la 4890..è probabile le le nuove schede con dx 11 all'inizio saranno solo nella fascia oltre 200, e può essere che sia più in là di agosto :Prrr:

neliam
31-05-2009, 09:51
Io penso che ad agosto sulla fascia 150 ci sarà la 4890..è probabile le le nuove schede con dx 11 all'inizio saranno solo nella fascia oltre 200, e può essere che sia più in là di agosto :Prrr:

Ma la nuova fascia directx 11 sarà accompagnata anche da un ragionevole boost prestazionale oppure è solo il supporto alle directx a renderle attraenti?

Lamana
31-05-2009, 09:55
Ma i primi giochi DX 11 quando usciranno? In assenza di questi, la cosa più sensata (almeno per chi ha già una VGA buona) mi pare aspettare cosa ribatterà nVidia fra 6-7 mesi...

Trokji
31-05-2009, 10:08
Ovviamente ci sarà un grosso boost prestazione.. come ho detto io credo che sarà dell'80-100% rispetto all'attuale generazione.. :D

okorop
31-05-2009, 10:15
Ovviamente ci sarà un grosso boost prestazione.. come ho detto io credo che sarà dell'80-100% rispetto all'attuale generazione.. :D

speriamo.....dai dai che le 5870x2 son vicine e il quad crossfire x nel mio pc sarà strapotente!!!!