PDA

View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11


Pagine : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

Bhairava
11-11-2008, 14:48
se metti più gpu nello stesso package, di fatto, fai delle gpu singole



è la stessa cosa; qual è il principio che ha portato all'adozione di cpu multicore? Non si sarebbe potuto progettare un'architettura a singolo core con più pipeline in parallelo? Non sarebbe stata la stessa cosa? I due estremi non sono: 1) multicore con pipeline di 15 stadi; 2) netburst con pipeline di 31 stadi. Si può anche adottare una soluzione con più pipeline di 15 stadi nello stesso chip. Però non lo si è fatto.



c'è anche un altro vantaggio: die più piccoli significa molti più die su un wafer ma anche molti più die al centro del wafer, ovvero nella posizione in cui si ottengono chip di qualità superiore (tutte le unità funzionanti, frequenze di funzionamento più elevate, maggiori tolleranze per l'overvolt, ecc).
Vero che le cpu stanno diventando system on chip, ma system on chip condivisi da più processori e non system on chip monolitici. E, in ogni caso, anche le gpu stanno integrando funzionalità tipiche del northbridge (immagino ti riferisca la MC, in particolare)



credi che la gestione di più gpu sia affidata ai driver ottimizzati? Su nessun chip l'accesso alle risorse di sistema è affidato alle ottimizzazioni di driver o SW o, comunque, ad interventi con linguaggio ad alto livello. Ci sono sempre arbiter che gestiscono con criteri di arbitrato preimpostati e programmati a basso livello, il traffico di dati e le richieste di accesso alla ram. Addirittura questi arbiter agiscono in modalità OoO anche su chip in order (come cell o xenon). In quanto al TDP, il problema deriva da quante unità di calcolo complessive ci sono e quante sono attive per una determinata elaborazione.



per quale motivo ci si deve sbattere ad avere più progetti e più linee di produzioen in piedi (come sta succedendo ad nVIDIA e come è successo anche ad ATi), quando con un'unico progetto ed un'unica linea puoi coprire tutte le fasce?

Oh! meno male! :D

Foglia Morta
11-11-2008, 15:13
per quale motivo ci si deve sbattere ad avere più progetti e più linee di produzioen in piedi (come sta succedendo ad nVIDIA e come è successo anche ad ATi), quando con un'unico progetto ed un'unica linea puoi coprire tutte le fasce?

però dovrebbero aumentare pure l'efficienza dello scaling multi-gpu per cercare di ottenere il massimo vantaggio possibile da questo nuovo modo di progettare.

ATi secondo me per ottenere il miglior rapporto costo/benefici si dovrebbe accontentare di uno shrink di RV770 a 40nm ( senza aggiungere altre unità di calcolo ed eventualmente sprecare risorse ) e pensare al proprio PLX fatto in casa eventualmente "rivoluzionando" il crossfire , magari qualcosa di simile a ciò che ha presentato Lucid Logix. Secondo te è possibile ?

yossarian
11-11-2008, 15:25
però dovrebbero aumentare pure l'efficienza dello scaling multi-gpu per cercare di ottenere il massimo vantaggio possibile da questo nuovo modo di progettare.

ATi secondo me per ottenere il miglior rapporto costo/benefici si dovrebbe accontentare di uno shrink di RV770 a 40nm ( senza aggiungere altre unità di calcolo ed eventualmente sprecare risorse ) e pensare al proprio PLX fatto in casa eventualmente "rivoluzionando" il crossfire , magari qualcosa di simile a ciò che ha presentato Lucid Logix. Secondo te è possibile ?

quando si inizierà a fare mutigpu seriamente, lo scaling sarà gestito in maniera differente: ad esempio, gli accessi alle risorse condivise da un arbiter esterno o interno ad una gpu master sul modello di quanto avviene nelle cpu con MC integrato (tipo quad core nativi o cell). In tal caso, l'efficienza sarà molto più elevata dell'attuale.
Però, per farlo, è necessario innanzitutto ridurre le misured el singolo chip, altrimenti diventa improponibile un dual core con chip delle dimensioni di 3 o 400 mm^2 ciascuno

Foglia Morta
11-11-2008, 19:55
Secondo QUESTO (http://www.theinquirer.net/gb/inquirer/news/2008/11/11/amd-announces-move-32nm) articolo The Foundry potrebbe avviare la produzione a 32nm verso la fine del 2009 ( pensavo fossero nettamente più indietro ) e produrranno anche per ATi. Magari faranno gpu DX11 a Settembre 2009 e passaggio a 32nm nel primo trimestre 2010

okorop
11-11-2008, 20:05
Secondo QUESTO (http://www.theinquirer.net/gb/inquirer/news/2008/11/11/amd-announces-move-32nm) articolo The Foundry potrebbe avviare la produzione a 32nm verso la fine del 2009 ( pensavo fossero nettamente più indietro ) e produrranno anche per ATi. Magari faranno gpu DX11 a Settembre 2009 e passaggio a 32nm nel primo trimestre 2010

:eek:

darek
11-11-2008, 20:33
Intanto mi iscrivo :asd:

Mr_Paulus
11-11-2008, 20:33
iscritto :O

Mercuri0
11-11-2008, 22:10
è la stessa cosa; qual è il principio che ha portato all'adozione di cpu multicore? Non si sarebbe potuto progettare un'architettura a singolo core con più pipeline in parallelo? Non sarebbe stata la stessa cosa? I due estremi non sono: 1) multicore con pipeline di 15 stadi; 2) netburst con pipeline di 31 stadi. Si può anche adottare una soluzione con più pipeline di 15 stadi nello stesso chip. Però non lo si è fatto.

I multicore, come ben sappiamo, nascono solo dal fatto che non si possono fare single-core più veloci.

Non si sono fatte "pipeline in parallelo" perché le architetture superscalari attuali già cercano di sfruttare al massimo il parallelismo presente nel software (che il processore riesce ad individuare).

Invece con le architetture multi-core, lntel e AMD chiedono ai programmatori di cambiare il modello di programmazione, e che siano i programmatori stessi a strutturare il software in modo che sia parallelo, a un livello di astrazione molto più alto di quello delle istruzioni!

Le GPU non hanno problemi di parallelismo, essendo il modello di programmazione già adatto all'uopo :)



per quale motivo ci si deve sbattere ad avere più progetti e più linee di produzioen in piedi (come sta succedendo ad nVIDIA e come è successo anche ad ATi), quando con un'unico progetto ed un'unica linea puoi coprire tutte le fasce?
Perché non si può fare / non conviene farlo, sopratutto per la fascia mainstream, che "pagherebbe" ridondanze che non le servono.
Comunque basta aspettare un pò per vedere chi c'azzecca ;) Per il 2009 sono sicurissimo: niente GPU multi die. Mi gioco una pizza. :D
Sono anche fortissimamente scettico sulle soluzioni multichip "master-slave" come quelle delle fan-art che circolano.

p.s. se i bookmaker avessero buone quote punterei tranquillamente qualche euro anche per "fino al 2012".

yossarian
11-11-2008, 23:36
I multicore, come ben sappiamo, nascono solo dal fatto che non si possono fare single-core più veloci.



per quale motivo non sarebbe possibile fare single core più veloci? La velocità di una cpu è data da svariati fattori: istruzioni per ciclo di clock; operazioni per istruzione, numero di cicli al secondo; latenze; cicli persi per bolle o errori di branching, ecc.

Dimmi un solo motivo epr cui, su single core, non è possibile migliorare questi parametri



Non si sono fatte "pipeline in parallelo" perché le architetture superscalari attuali già cercano di sfruttare al massimo il parallelismo presente nel software (che il processore riesce ad individuare).

e per quale motivo? un'architettura superscalare nasce per ottenere il massimo parallelismo possibile a livello di ILP e l'avere più pipeline in parallelo serve proprio per aumentare l'ILP. Fare architettura multicore significa, di fatto, mettere più pipeline in parallelo e la tendenza è quella di fare architetture con sempre più core (quindi non è vero che le attuali architetture possono sfruttare il massimo parallelismo). Allora torno a chiederti: qual è la differenza tra mettere 10 pipeline in parallelo sullo stesso die o metterne in parallelo 5+5?



Invece con le architetture multi-core, lntel e AMD chiedono ai programmatori di cambiare il modello di programmazione, e che siano i programmatori stessi a strutturare il software in modo che sia parallelo, a un livello di astrazione molto più alto di quello delle istruzioni!


le architetture multicore sono andate a sostituire architetture di tipo superpipelined che simulano il parallelismo fisico tramite l'adozione di pipeline lunghe con molti stadi di dimensioni ridotte (in pratica sostituisci il parallelismo orizzontale cion una sorta di parallelismo verticale). Questo spiega perchè le architetture multicore sono andate, da subito, meglio delle monolitiche e dimostra che si è sempre cercato il massimo paralleismo possibile ma, in passato, seguendo una strada sbagliata (che ho sempre criticato, al punto da pronosticare, prima dell'uscita del prescott, l'abbandono dell'architettura netburst da parte di intel a vantaggio di una a maggior parallelismo e con pipeline più corte)



Le GPU non hanno problemi di parallelismo, essendo il modello di programmazione già adatto all'uopo :)



le gpu non hanno problemi di paralleismo relativamente all'elaborazione dei dati, non all'esecuzione dei task. Una delle maggiori differenze tra cpu e gpu è proprio quella. E una cpu multicore è più facilmente gestibile di una single core proprio in questo ambito. Per le gpu il task parallelism non sarebbe un problema se si continuasse a pensare alla gpu come un mero strumento per fare rendering, ovvero, elabora un solo task o un numero limitato di task per volta, operando su un singolo processo; nel momento in cui inizi a pensare che la gpu debba essere qualcosa di più e di diverso, allora anche quell'aspetto diventa importante ed il multicore dà dei vantaggi in quell'ambito.



Perché non si può fare / non conviene farlo, sopratutto per la fascia mainstream, che "pagherebbe" ridondanze che non le servono.
Comunque basta aspettare un pò per vedere chi c'azzecca ;) Per il 2009 sono sicurissimo: niente GPU multi die. Mi gioco una pizza. :D
Sono anche fortissimamente scettico sulle soluzioni multichip "master-slave" come quelle delle fan-art che circolano.



chi lo dice: posso ottenere i risultati di un RV770 con 4 chip in parallelo da 200 alu ciascuno; e posso usare un singolo chip da 200 alu come entry level e 2 chip come mainstream. Oppure posso avere 8 chip da 100.

La pizza la perderesti, poichè entro il 2009 vedremo, con ogni probabilità, la prima gpu multicore :D




p.s. se i bookmaker avessero buone quote punterei tranquillamente qualche euro anche per "fino al 2012".

e perderesti anche quelli :D

Bhairava
12-11-2008, 00:36
La pizza la perderesti, poichè entro il 2009 vedremo, con ogni probabilità, la prima gpu multicore :D





Che rivelazione! :eekk:

:eek: :eek: :eek:

yossarian
12-11-2008, 01:02
Che rivelazione! :eekk:

:eek: :eek: :eek:

nessuna rivelazione: si tratta semplicemente di larrabee :D . Però sta a dimostrare come le idee del nostro amico Mercuri0 non siano condivise da tutti e non tutti trovino astrusa l'idea del multigpu

Bhairava
12-11-2008, 01:30
nessuna rivelazione: si tratta semplicemente di larrabee :D . Però sta a dimostrare come le idee del nostro amico Mercuri0 non siano condivise da tutti e non tutti trovino astrusa l'idea del multigpu

Ah, credevo che ti riferissi ad ATI. :stordita:

manga81
12-11-2008, 07:26
Quelle sono fan-art.

Però se vuoi io avrei una Fontana di Trevi di seconda mano... :D

:D

Foglia Morta
12-11-2008, 07:35
nessuna rivelazione: si tratta semplicemente di larrabee :D . Però sta a dimostrare come le idee del nostro amico Mercuri0 non siano condivise da tutti e non tutti trovino astrusa l'idea del multigpu

Ma secondo te se il software fosse ben ottimizzato per le DX10.1 ( quindi con tutti i suoi vantaggi con l' AA ) avrebbe senso l'uso dell'edram per migliorare ulteriormente le cose ? ( o magari con gpu per pc non c'ha senso a prescindere :D )

Quanti Mbit sarebbero necessari ? Circa che die size occuperebbe ipotizzando un processo produttivo a 32nm ?

Perché non si può fare / non conviene farlo, sopratutto per la fascia mainstream, che "pagherebbe" ridondanze che non le servono.
Comunque basta aspettare un pò per vedere chi c'azzecca ;) Per il 2009 sono sicurissimo: niente GPU multi die. Mi gioco una pizza. :D
Sono anche fortissimamente scettico sulle soluzioni multichip "master-slave" come quelle delle fan-art che circolano.

p.s. se i bookmaker avessero buone quote punterei tranquillamente qualche euro anche per "fino al 2012".

Te l'avevo detto :Prrr:

http://www.hwupgrade.it/forum/showpost.php?p=23797730&postcount=165

DjSolidSnake86
12-11-2008, 12:51
scusate ma la prima vga a 40nm x quando è prevista?

Mister Tarpone
12-11-2008, 13:24
:D
ti ho risposto in pvt (per non andare ot ) ad un tuo precedente post :D

scusate ma la prima vga a 40nm x quando è prevista?

fine 2008?? o i primi 2 mesi del 2009?? :boh:

DjSolidSnake86
12-11-2008, 13:35
ti ho risposto in pvt (per non andare ot ) ad un tuo precedente post :D



fine 2008?? o i primi 2 mesi del 2009?? :boh:
ma un e8400 basta x sfruttare a pieno queste nuove schede? o ci vuole il quad core?

appleroof
12-11-2008, 13:41
Che rivelazione! :eekk:

:eek: :eek: :eek:

nessuna rivelazione: si tratta semplicemente di larrabee :D . cut

Ah, credevo che ti riferissi ad ATI. :stordita:

:asd: :asd: :asd:

ma un e8400 basta x sfruttare a pieno queste nuove schede? o ci vuole il quad core?

tenendo presente i margini di oc che offrono le attuali cpu Intel, per ora un dual tirato è meglio di un quad, sopratutto se si considera una risoluzione di massimo 1680x1050 e che già le schede attuali medio-alte "vogliono" cpu spinte

in ottica longevità (e/o si fà uso vario del pc, non solo gaming) meglio il quad senza dubbio

per chi prende da zero, e non ha necessità particolari, imho la migliore cosa è un dual adesso e magari tra un annetto un quad penrynn che non costringa a cambiare tutta la piattaforma...

Mister Tarpone
12-11-2008, 13:42
ma un e8400 basta x sfruttare a pieno queste nuove schede? o ci vuole il quad core?

ci vogliono 8 core

paolox86
12-11-2008, 14:01
fine 2008?? o i primi 2 mesi del 2009?? :boh:

Speriamo anche se forse fine 2008 è troppo ottimistico

gianni1879
12-11-2008, 14:04
OT

@Tarpone e AppleRoof ma avete cambiato Avatar? :D :p

appleroof
12-11-2008, 14:06
OT

@Tarpone e AppleRoof ma avete cambiato Avatar? :D :p

:asd: ho fatto una "svolta vintage" (che bei tempi!), deve aver contagiato anche Tarpo :D

michelgaetano
12-11-2008, 14:07
Sarà vintage, ma non mi ci trovo, mi ero abituato :D :asd:

yossarian
12-11-2008, 14:10
Ma secondo te se il software fosse ben ottimizzato per le DX10.1 ( quindi con tutti i suoi vantaggi con l' AA ) avrebbe senso l'uso dell'edram per migliorare ulteriormente le cose ? ( o magari con gpu per pc non c'ha senso a prescindere :D )



l'eDRAM comunque darebbe degli innegabili vantaggi a livello prestazionale; il problema è sapere quanta te ne serve. Mentre su console lavori con una risoluzione fissa e puoi ottimizzare per quella, su pc dovresti, in teoria, pensare alla massima risoluzione possibile, il che significa occupare molto spazio. Inoltre, una eDRAM del tipo di quella di xbox non è implementabile se la si vuole usare epr tutti i filtri. Ad esempio, l'AA dui tipo custom, con algoritmi non lineari non è calcolato dalle rop's ma dalle unità di shading; quindi si dovrebbero avere più blocchi di eDRAM da interfacciare sia con le RBE che con lo shader core



Quanti Mbit sarebbero necessari ? Circa che die size occuperebbe ipotizzando un processo produttivo a 32nm ?



non è una domanda a cui è facile rispondere; per quale risoluzione la pensiamo? Cosa ci vogliamo fare (MSAA, AA custom, coverage AA, AF) e a quanti sample (ad esempio AA 2x, 4x, 8x, ecc)? Quanti bit utilizzo per colore e quanti per i filtri?



Te l'avevo detto :Prrr:

http://www.hwupgrade.it/forum/showpost.php?p=23797730&postcount=165

larrabee è una gpu multicore a tutti gli effetti; ogni core è un vero e proprio processore completo e indipendente, con pipeline x86 e 16 alu fp32 in parallelo; i core comunicano tra di loro attraverso un ring bus

scusate ma la prima vga a 40nm x quando è prevista?

presumibilmente fine Q1 inizio Q2 2009

Foglia Morta
12-11-2008, 14:24
non è una domanda a cui è facile rispondere; per quale risoluzione la pensiamo? Cosa ci vogliamo fare (MSAA, AA custom, coverage AA, AF) e a quanti sample (ad esempio AA 2x, 4x, 8x, ecc)? Quanti bit utilizzo per colore e quanti per i filtri?

In questi casi si dovrebbe prevedere il worst case scenario e quindi il più gravoso per poter essere sicuri che le feature che sfruttano l'eDRAM siano sempre utilizzabili, ma da quel che scrivi mi pare una soluzione inefficiente su gpu desktop .
Chiedevo perchè su B3D un ex ingegnere Bitboys aveva detto che ATi si era interessata anche ai brevetti del Matrix AA . Magari lo ritengono utile per la prossima gpu console e non pc.

Foglia Morta
12-11-2008, 14:30
larrabee è una gpu multicore a tutti gli effetti; ogni core è un vero e proprio processore completo e indipendente, con pipeline x86 e 16 alu fp32 in parallelo; i core comunicano tra di loro attraverso un ring bus

Ma il ring bus chi l'ha brevettato per primo , IBM con cell ? ATi e Intel devono pagare qualcosa come succede con Rambus ?

yossarian
12-11-2008, 15:27
Ma il ring bus chi l'ha brevettato per primo , IBM con cell ? ATi e Intel devono pagare qualcosa come succede con Rambus ?

il principio del ring bus è precedente all'implementazione di IBM, ATi o Intel; si tratta semplicemente di un bus ad anello, di quelli usati anche in applicazioni elettroniche differenti (ad esempio telecomunicazioni).
Quello che può essere brevettabile non è il principio di funzionamento del ring bus ma la sua specifica implementazione e, in particolare, la gestione del bus da parte del MC e quella è differente in tutti e tre i tipi di ring bus

appleroof
13-11-2008, 15:51
Fud ne ha per tutti, ecco quello che sostiene per rv870

Unlike many reports all over the Internet, the chip that many call RV870, the next generation ATI 40nm chip scheduled for Q2 2009 launch, won't be a multi-chip module.

You won't see two of these chips packed together. It will be a single chip and following tradition you can expect to see a dual chip X2 card for the high-end market.

We don’t have many details about the card, but we know it's a single chip design, and not MCM. Graphics guys will stay away from this technology for the time being.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10351&Itemid=65

al135
13-11-2008, 16:26
Fud ne ha per tutti, ecco quello che sostiene per rv870

Unlike many reports all over the Internet, the chip that many call RV870, the next generation ATI 40nm chip scheduled for Q2 2009 launch, won't be a multi-chip module.

You won't see two of these chips packed together. It will be a single chip and following tradition you can expect to see a dual chip X2 card for the high-end market.

We don’t have many details about the card, but we know it's a single chip design, and not MCM. Graphics guys will stay away from this technology for the time being.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10351&Itemid=65


ma io non ho mai capito...
ma la fonte di fudzilla qual'è?
cioe sono 5 righe scritte a secco cosi senza nessun riferimento ? :confused:

Tioz90
13-11-2008, 16:32
ma io non ho mai capito...
ma la fonte di fudzilla qual'è?
cioe sono 5 righe scritte a secco cosi senza nessun riferimento ? :confused:

Ma fudzilla è un pò no schifo secondo me

al135
13-11-2008, 16:40
Ma fudzilla è un pò no schifo secondo me

credo si basino a volte su rumors a volte per supposizione e a volte totalmente a caso, nell'eventualità ci prendano fanno la loro figura...
almeno io farei cosi :fagiano:

The_SaN
13-11-2008, 21:57
Settimana prossima diranno il contrario, per coprire tutte le fasce.
Cosi alla fine diranno che c'hanno azzeccato :asd:

Un po' come il numero di SP di rv770...hanno detto praticamente tutti i numeri da 480 a 800 :asd:

al135
13-11-2008, 21:59
Settimana prossima diranno il contrario, per coprire tutte le fasce.
Cosi alla fine diranno che c'hanno azzeccato :asd:

Un po' come il numero di SP di rv770...hanno detto praticamente tutti i numeri da 480 a 800 :asd:

si è possibile :rotfl:

Foglia Morta
14-11-2008, 07:38
Forse il posticipo di Fusion al 2011 e a 32nm ( invece dei 45nm 2009/10 come originariamente previsto ) sta a significare che la miniaturizzazione del core gpu non sta andando secondo le aspettative. Comunque Meyer parla di gpu a 40nm dietro l'angolo con un refresh a metà 2009 , abbastanza contraddittoria questa affermazione. Comunque la roadmap cpu di AMD mi pare abbastanza deludente ( troppo troppo lenti con i processi produttivi delle cpu rispetto a Intel ). La roadmap dice anche che The Foundry dovrebbe avviare la produzione di gpu ATi a 32nm a inizio 2010.

http://www.tgdaily.com/content/view/40185/139/

During its 2008 Financial Analyst Day, AMD chief executive officer Dirk Meyer confirmed that 32 nm chip designs are being “finalized” and prepared for a 2010 introduction. Meyer did not say when in 2010 that will be the case. So it remains unclear whether the company will be able to close the manufacturing technology gap with Intel, which plans on introducing 32 nm processors in late 2009.

AMD today introduced its 45 nm processor, the quad-core Opteron CPU code-named “Shanghai”, which is about one year behind Intel and about five to six months behind AMD’s initial 45 nm schedule.

Meyer noted that 40 nm ATI Radeon GPUs “are just around the corner” and set for a mid-2009 refresh for the firm’s current graphics product line.

mikepedo
20-11-2008, 18:34
Ciao ragazzi, vorrei esporre un quesito.
Da quando esistono le soluzioni multi-gpu (ATI Rage fury Maxx, 3dfx Voodoo5, HD3870/4870X2, 7950/9800GX2 ecc...) soltanto la gpu master utilizza tutti i transistor in suo possesso, lavorando quindi sia in 2D sia in 3D. Gli altri chip hanno tutta la sezione 2D (quindi ramdac, UVD ecc.) inutilizzata.

Non conviene a questo punto creare un chip esclusivamente 2D da utilizzare di base in tutte le schede video, e poi diversificare la fascia in base ad un numero variabile di chip 3D integranti soltato gli stream processor, memory controller ecc?

Così facendo si avrebbero anche meno sprechi di silicio perchè:
-chip più piccoli significa "stampare" più area nel wafer
-un chip difettoso che debba essere scartato, oltre ad essere più piccolo e quindi fatto con meno silicio, eviterebbe lo scarto di un chip completo di sezione 2D e 3D, il quale molto probabilmente avrebbe una delle due sezioni sicuramente funzionante
-sarebbe più semplice disattivare completamente i chip 3D quando non vengono utilizzati, risparmiando corrente

Lo svantaggio potrebbe essere che in un chip molto piccolo si ha difficoltà a farci stare tutti i pin per il collegamento con le altre parti della scheda, e il primo e risentirne potrebbe essere il bus verso la memoria, notoriamente dimezzato da 512 a 256 bit da ATI nel passaggio dal chip R600 a R670 proprio per le minori dimensioni di quest'ultimo.

Voi che ne pensate?:D

DjSolidSnake86
23-11-2008, 10:47
ragazzi ma allora nn c'è speranza che esca max a feb 2009 la 5870?

Foglia Morta
23-11-2008, 11:05
Ciao ragazzi, vorrei esporre un quesito.
Da quando esistono le soluzioni multi-gpu (ATI Rage fury Maxx, 3dfx Voodoo5, HD3870/4870X2, 7950/9800GX2 ecc...) soltanto la gpu master utilizza tutti i transistor in suo possesso, lavorando quindi sia in 2D sia in 3D. Gli altri chip hanno tutta la sezione 2D (quindi ramdac, UVD ecc.) inutilizzata.

Non conviene a questo punto creare un chip esclusivamente 2D da utilizzare di base in tutte le schede video, e poi diversificare la fascia in base ad un numero variabile di chip 3D integranti soltato gli stream processor, memory controller ecc?

Così facendo si avrebbero anche meno sprechi di silicio perchè:
-chip più piccoli significa "stampare" più area nel wafer
-un chip difettoso che debba essere scartato, oltre ad essere più piccolo e quindi fatto con meno silicio, eviterebbe lo scarto di un chip completo di sezione 2D e 3D, il quale molto probabilmente avrebbe una delle due sezioni sicuramente funzionante
-sarebbe più semplice disattivare completamente i chip 3D quando non vengono utilizzati, risparmiando corrente

Lo svantaggio potrebbe essere che in un chip molto piccolo si ha difficoltà a farci stare tutti i pin per il collegamento con le altre parti della scheda, e il primo e risentirne potrebbe essere il bus verso la memoria, notoriamente dimezzato da 512 a 256 bit da ATI nel passaggio dal chip R600 a R670 proprio per le minori dimensioni di quest'ultimo.

Voi che ne pensate?:D

Da G80 a G92 sono passati da 2 die a 1 die... avranno i loro buoni motivi per preferire un singolo die. Inoltre da R600 in poi del 2d se ne occupa lo shader core quindi hanno risparmiato ancora più silicio :D . E l' UVD avevo letto che occupa solamente 5-6mm2 a 65nm , a 55nm magari ancora meno e poi arriveranno i 40nm. Avevo avuto la tua stessa idea ma in ottica risparmio energetico in 2d , il silicio risparmiato pare sia davvero poco :D

ragazzi ma allora nn c'è speranza che esca max a feb 2009 la 5870?

IMO no, troppo presto

mikepedo
23-11-2008, 13:33
Da G80 a G92 sono passati da 2 die a 1 die... avranno i loro buoni motivi per preferire un singolo die. Inoltre da R600 in poi del 2d se ne occupa lo shader core quindi hanno risparmiato ancora più silicio :D . E l' UVD avevo letto che occupa solamente 5-6mm2 a 65nm , a 55nm magari ancora meno e poi arriveranno i 40nm. Avevo avuto la tua stessa idea ma in ottica risparmio energetico in 2d , il silicio risparmiato pare sia davvero poco :D


Se le cose stanno così allora non ha proprio senso il mio discorso:D
In effetti la programmabilità delle gpu le ha rese quasi "camaleontiche", vedi il futuro progetto Larrabee di Intel, che fa della programmabilità e dell'adattamento il suo punto di forza.

Lionking-Cyan
23-11-2008, 13:48
IMO no, troppo presto


Ma non dicevano che usica nel Q1? Allora perchè febbraio sarebbe troppo presto?

Foglia Morta
23-11-2008, 16:38
Ma non dicevano che usica nel Q1? Allora perchè febbraio sarebbe troppo presto?

Avrai letto delle supposizioni... ATi-AMD non ha detto nulla

Hal2001
23-11-2008, 16:46
ragazzi ma allora nn c'è speranza che esca max a feb 2009 la 5870?

Impossibile. Ammesso che si chiami così :D

Mercuri0
23-11-2008, 16:49
Non conviene a questo punto creare un chip esclusivamente 2D da utilizzare di base in tutte le schede video
no :D

I transistor per la parte "2d" sono veramente pochi sul totale complessivo. Persino l'accelerazione 2D ormai in realtà è "emulata" dal motore 3D della GPU.

Quindi i costi che avresti per la confezione di un chip esterno supererebbero di molto i benefici, sopratutto considerando che le uniche schede per cui potrebbe giovare quello che dici, sono le X2, che in realtà non fanno per niente mercato ;)

Ti immagini risparmiare 1cent (se va bene) sulle X2, e perdere 4 dollari per ciascuna 48xx?

Ovviamente la cosa non vale se non c'è proprio spazio sul chip, come è successo alle GTX.

mikepedo
23-11-2008, 18:10
no :D

I transistor per la parte "2d" sono veramente pochi sul totale complessivo. Persino l'accelerazione 2D ormai in realtà è "emulata" dal motore 3D della GPU.

Quindi i costi che avresti per la confezione di un chip esterno supererebbero di molto i benefici, sopratutto considerando che le uniche schede per cui potrebbe giovare quello che dici, sono le X2, che in realtà non fanno per niente mercato ;)

Ti immagini risparmiare 1cent (se va bene) sulle X2, e perdere 4 dollari per ciascuna 48xx?

Ovviamente la cosa non vale se non c'è proprio spazio sul chip, come è successo alle GTX.

Credo che hai perfettamente ragione. Forse avrebbe avuto senso con le vecchie soluzioni multi-chip create da 3dfx nel 2000, quando un chip contava "appena" 14 milioni di transistors e di questi la parte 2D in percentuale contava sicuramente molto di più.
Non mi è mai andato giù che la mia Voodoo5 6000 ha 3 dei 4 VSA-100 che non hanno mai utilizzato milioni di transistors in 2D, RamDac compreso:sofico:

Foglia Morta
24-11-2008, 09:46
prima metà 2009 GDDR5 a 7Gbps: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10595&Itemid=1

Quelle a 5Ghz immagino le regaleranno :sofico: . Con tutta quella banda passante disponibile potrebbero sostituire la 4870 con qualcosa del 50% più potente imo

Foglia Morta
27-11-2008, 17:45
Mi pare assurdo che il GT200 a 55nm venga rimpiazzato già nel Q1 2009. Vorrebbe dire che sia il GT200 a 65nm che quello a 55nm hanno avuto ritardi mostruosi... Se nVidia presenta una gpu a 40nm sarà di fascia media o bassa. Più credibile che RV770 possa essere rimpiazzato da una gpu a 40nm. Ma sostituire le GDDR5 sulla 4870 X2 non ha senso... quelle che ci sono vanno bene.

http://en.expreview.com/2008/11/27/amd-nvidia-going-to-select-tsmc-40nm-and-hynix-gddr5.html

After Taiwan Semiconductor Manufacturing Co. (TSMC) announces to build 40nm process chip, Taiwan Economic News reports that AMD and NVIDIA’s first 40nm products will debut in Q1 next year. So let’s guess who can enjoy the ahead chance.

What’s funny is, as two biggest graphics tycoons in the world, AMD and NVIDIA both choose the fastest Hynix 7Gbps GDDR5 graphics DRAM for their new-line products. It’s very likely that we find Hynix’s new DRAM in AMD RV870 or NVIDIA GT216/206.

It’s rumored that the power consumption of NVIDIA GT212 i.e. 40nm GT200 is 25% less than previous 65nm chip.

ATI Radeon HD 4800 Series have taken the lead in using Qimonda GDDR5 graphics DRAM. AMD will also use Hynix 7Gbps GDDR5 DRAM for ATI Radeon HD 4870 X2. But what we’re more interested is when it will hit the retail market.

okorop
27-11-2008, 17:48
quindi già nel q1 ci sarà rv870 :eek:
mio subito :asd:

Lionking-Cyan
27-11-2008, 17:58
La settimana prossima usciranno le nuove nvidia. Che da quello che ho capito saranno come le attuali nvidia, ma migliorate un pochino.
Può essere quindi che nvidia riprenda il podio (eccetto per la 4870 X2 :D ).
Se Ati non rilascia le prossime schede video entro febbraio non aspetto più per farmi il pc, e passo a nvidia.
Cmq già per natale, secondo me nvidia starà avanti.

okorop
27-11-2008, 18:01
La settimana prossima usciranno le nuove nvidia. Che da quello che ho capito saranno come le attuali nvidia, ma migliorate un pochino.
Può essere quindi che nvidia riprenda il podio (eccetto per la 4870 X2 :D ).
Se Ati non rilascia le prossime schede video entro febbraio non aspetto più per farmi il pc, e passo a nvidia.
Cmq già per natale, secondo me nvidia starà avanti.

secondo me la gtx280gx2 battera la 4870x2 himo....poi con rv870 sarà ripristinata la leedership ati...

Zoro82
27-11-2008, 18:23
ma mettiamo che io dovessi cambiare scheda grafica...che mi consigliate? di aspettare le nuove schede Ati che usciranno nel 2009?
vorrei che mi durasse un bel po'...

Lionking-Cyan
27-11-2008, 18:33
secondo me la gtx280gx2 battera la 4870x2 himo....poi con rv870 sarà ripristinata la leedership ati...

Ah non avevo letto che sarebbe uscita anche una doppia gtx280. Allora in questo caso anche la 4870 sarà battuta :eek: .
Io credo cmq che le prossime ati dureranno davvero parecchio. Soprattutto la 5870 X2 :D .

appleroof
27-11-2008, 18:33
secondo me la gtx280gx2 battera la 4870x2 himo....poi con rv870 sarà ripristinata la leedership ati...

detta così sembra :boxe: :asd:


in generale imho il fatto che i chip a 40nm escano nel Q1 2009 è veramente difficile da prevedere: alcuni rumors insistono su questo e per quanto riguarda nvidia, questo spiegherebbe la paventata uscita "in sordina" dello shrink a 55nm (che, cosa non ancora confermata, almeno che io sappia, pare essere già presente sull'ultima Qaudro top); per quanto riguarda Ati in effetti tutti i rumors convergono più o meno su quella data, che poi non sia un chip nuovo ma un "semplice" shrink di rv770 non è dato sapere, io immagino sia uno shrink cmq, magari con piccoli affinamenti

potrebbe darsi la seguente situazione:

Q1-Q2 2009, Nvidia: fascia top e medio-alta a 55nm; fascia media e bassa 40nm (sempre gt200);
Q1-Q2 2009, Ati: 40nm per tutta la gamma (shrink rv770, alias rv870?)

fine 2009/primi 2010, nuovi chip dx11 sia Ati che Nvidia

imho :D :D

goldorak
27-11-2008, 18:43
detta così sembra :boxe: :asd:


in generale imho il fatto che i chip a 40nm escano nel Q1 2009 è veramente difficile da prevedere: alcuni rumors insistono su questo e per quanto riguarda nvidia, questo spiegherebbe la paventata uscita "in sordina" dello shrink a 55nm (che, cosa non ancora confermata, almeno che io sappia, pare essere già presente sull'ultima Qaudro top); per quanto riguarda Ati in effetti tutti i rumors convergono più o meno su quella data, che poi non sia un chip nuovo ma un "semplice" shrink di rv770 non è dato sapere, io immagino sia uno shrink cmq, magari con piccoli affinamenti

potrebbe darsi la seguente situazione:

Q1-Q2 2009, Nvidia: fascia top e medio-alta a 55nm; fascia media e bassa 40nm (sempre gt200);
Q1-Q2 2009, Ati: 40nm per tutta la gamma (shrink rv770, alias rv870?)

fine 2009/primi 2010, nuovi chip dx11 sia Ati che Nvidia

imho :D :D


Io farei una piccola correzione :

Q1-Q2 2009, Nvidia : fascia top e medio alta a 55nm; fascia media e bassa 40nm (sempre g80) :asd:
Q1-Q2 2009/primi 2010, nuovi chip dx11 sua ATI che Nvidia.

goldorak
27-11-2008, 18:51
Io penso che già una 4870 ti consenta di durare abbastanza, va da sé che mi son già rassegnato alla scimmia e a febbraio mi prenderò una 5870 :asd: :fagiano:

Speriamo che consumino meno molto meno delle 4870 (uno solo connettore a 6 pin), abbiano un meccanismo di power play funzionante realmente e non scaldino da morire.
Ce la faranno i nostri erori ? :p

Lionking-Cyan
27-11-2008, 18:51
Io penso che già una 4870 ti consenta di durare abbastanza, va da sé che mi son già rassegnato alla scimmia e a febbraio mi prenderò una 5870 :asd: :fagiano:

Non ci voglio credere

appleroof
27-11-2008, 19:16
Io farei una piccola correzione :

Q1-Q2 2009, Nvidia : fascia top e medio alta a 55nm; fascia media e bassa 40nm (sempre g80) :asd:

hahahaha a :stordita:

no, davvero, come hanno sperimentato il processo a 55nm su g92, così potrebbero sperimentare quello a 40nm su gt200, in vista poi del nuovo chip dx11 (che in realtà, come per Ati, da quanto ho capito non dovrebbe essere uno stravolgimento degli attuali)

Q1-Q2 2009/primi 2010, nuovi chip dx11 sua ATI che Nvidia.

cioè nell'arco che va da gennaio 2009 a gennaio 2010 i nuovi chip dx11 delle due Case...ci può stare direi

















:D :D :D

okorop
27-11-2008, 19:23
hahahaha a :stordita:

no, davvero, come hanno sperimentato il processo a 55nm su g92, così potrebbero sperimentare quello a 40nm su gt200, in vista poi del nuovo chip dx11 (che in realtà, come per Ati, da quanto ho capito non dovrebbe essere uno stravolgimento degli attuali)



cioè nell'arco che va da gennaio 2009 a gennaio 2010 i nuovi chip dx11 delle due Case...ci può stare direi


:D :D :D
mi sto leccando i baffi :asd:
winzoz 7 nehalem i7 e ati radeon 7870x4 :asd:
tutto 7 :asd:

TheDarkAngel
27-11-2008, 19:26
secondo me la gtx280gx2 battera la 4870x2 himo....poi con rv870 sarà ripristinata la leedership ati...

si ma non uscirà nessuna gtx280gx2

okorop
27-11-2008, 19:26
si ma non uscirà nessuna gtx280gx2

a bo chi lo sa.....

appleroof
27-11-2008, 19:28
mi sto leccando i baffi :asd:
winzoz 7 nehalem i7 e ati radeon 7870x4 :asd:
tutto 7 :asd:

bè no, l'ati dovrebbe chiamarsi 5870x2 :D

okorop
27-11-2008, 19:30
bè no, l'ati dovrebbe chiamarsi 5870x2 :D

noo e il 7 dove lo metti? :asd:
allora non va bene :asd:
deve essere 7 e qualcosa.....

appleroof
27-11-2008, 19:34
noo e il 7 dove lo metti? :asd:
allora non va bene :asd:
deve essere 7 e qualcosa.....

5870 :D

dai smettiamola di spammare :)

gianni1879
27-11-2008, 19:46
mi sto leccando i baffi :asd:
winzoz 7 nehalem i7 e ati radeon 7870x4 :asd:
tutto 7 :asd:

windows mobile 7 :D

okorop
27-11-2008, 19:49
5870 :D

dai smettiamola di spammare :)

e vabbe allora anche la 3870 ha un 7 :stordita:

appleroof
27-11-2008, 19:54
e vabbe allora anche la 3870 ha un 7 :stordita:

anche la x700 :asd:



basta davvero, almeno per quanto mi riguarda :read:

The_SaN
27-11-2008, 19:57
mi sto leccando i baffi :asd:
winzoz 7 nehalem i7 e ati radeon 7870x4 :asd:
tutto 7 :asd:

Entrerá a pennelo nel mio TJ07 :sofico:

Ma siamo sicuri che uscirá proprio nel Q1 2009? Mi aspettavo piú tardi, mentre un refreshino 40nm delle attuali ci poteva stare...

PS: okorop dai un'occhiata nel tuo thread del mercatino :D

manga81
28-11-2008, 07:10
mi sto leccando i baffi :asd:
winzoz 7 nehalem i7 e ati radeon 7870x4 :asd:
tutto 7 :asd:

io mi accontenterò di prendere una "misera" 4870 appena usciranno questi mostri :asd:

prevedo il mercatino pieno di 4870 a prezzi umani per gennaio :asd:

Rufus86
28-11-2008, 15:02
Dubito che RV870 uscirà nel 1Q, e sarà così probabilmente avrà ben poche novità (per lo più aumento di ALU), limitandosi dunque ad essere solo un refresh. La vera nuova generazione, che prevedibilmente sarà DX11, uscirà quasi sicuramente non prima di Maggio - Giugno.

Spero che AMD non dorma sugli allori sull'ottima architettura che si ritrova, ottima al momento ma che come tutte risentirà del tempo, poiché nVIDIA con GT300 darà il meglio di sé (come fece con NV40). Proprio dal futuro chip di nVIDIA c'è da aspettarsi decise novità architetturali, che dubito si limiteranno a pareggiare con l'architettura di RV770.

Athlon 64 3000+
28-11-2008, 17:40
Strani questi rumor perchè che io sappia sono previsti RV870 e GT300 verso Giugno/Luglio 2009 e quindi è non so se Ati presenterà una nuova tipo RV790 a gennaio.

Beltra.it
28-11-2008, 21:33
ma può fare anche il chip con la migliore architettura al mondo... se continuano così coi driver vi ritroverete ad avere ancora per l'ennesima volta una scatola di plastica stile fornelletto nel case e basta... che la ati cominci a lavorare sui driver invece di fare nuove schede... se almeno facessero questo una volta per tutte darebbero via alle concorrenti.. ma evidentemente mi sa un po' di corruzione qua

Foglia Morta
29-11-2008, 08:53
Nuove memorie da Rambus: http://www.rambus.com/us/products/xdr2/xdr2_vs_gddr5.html

e qualche info in più: http://www.rambus.com/assets/documents/products/xdr2_memory_architecture.pdf

Rambus , ovviamente , dice che sono validissime... mi chiedevo se un controller di memoria moderno ( che quindi supporta le GDDR5 ) può essere compatibile pure con queste memorie

Edit: non riguarda rambus. Comunque aggiungo un intervista a Rick Bergman http://venturebeat.com/2008/11/26/qa-with-rick-bergman-head-of-amds-graphics-business-on-fighting-nvidia-with-a-sweet-spot-strategy/

Foglia Morta
29-11-2008, 12:56
Interessante, consumano meno, hanno più bandwidth e necessitano di meno pin di collegamento. Mi piacerebbe sapere quali sono gli svantaggi, perché devono esserci se nessuno se le è mai inculate :>

è un trabocchetto... se nVidia e ATi decidessero di usarle si ritroverebbero intrappolate in una serie infinita di cause legali. Ecco perchè ne stanno alla larga :asd:

TheDarkAngel
29-11-2008, 13:02
è un trabocchetto... se nVidia e ATi decidessero di usarle si ritroverebbero intrappolate in una serie infinita di cause legali. Ecco perchè ne stanno alla larga :asd:

sony le usa sulla ps3 :stordita:

Foglia Morta
29-11-2008, 13:10
sony le usa sulla ps3 :stordita:

vabbe. non hai colto l'ironia... rambus ha dispute legali con tutto il mondo

TheDarkAngel
29-11-2008, 16:49
vabbe. non hai colto l'ironia... rambus ha dispute legali con tutto il mondo

appunto anche la mia era una battuta xD su l'unica società che ha avuto il coraggio di imbarcarsi con rambus :asd:

Foglia Morta
29-11-2008, 20:28
Ok battute a parte IMO c'è qualche possibilità che possano essere sfruttate da AMD . Nel 2006 ha pagato Rambus 75 milioni di dollari per delle licenze che penso debba ancora utilizzare... http://www.internetnews.com/dev-news/article.php/3574856

Gennaio 2006 , prima ancora che acquisissero ATi , quindi forse le gpu non sono interessate da queste licenze... ma dato che i soldi li hanno già spesi ( e non è che ora abbondino :D ) se la tecnologia è veramente valida potrebbe essere sfruttata con la nuova architettura DX11 ( dopo il refresh a 40nm dell'attuale architettura ). Il fatto che richieda meno pin ben si adatta ad architetture con piccoli core ed ATi punta a quello.

In a coup for technology licensing firm Rambus, AMD has signed a five-year patent license covering technology owned by Los Altos, Calif.-based Rambus.

Specifically, the patents include designs related to the DDR2, DDR3 (define), FB-DIMM, PCI Express (define) and XDR controllers, as well as other current and future high-speed memory and logic controller interfaces Rambus has planned. Rambus has similar broad patent license agreements with Intel and several large Japanese manufacturers, though the contract length and some other specific terms may vary, according to the company.

The marquee customer for the high speed XDR controller is Sony, which will include it in the Playstation III videogame system due for release this spring in Japan and in the United States in the fall.

Rambus announced details of a new XDR2 memory interface in July at a developer's forum in Tokyo. The XDR2 memory interface uses a micro-threaded DRAM (define) core and circuit enhancements that enable data rates starting at 8GHz, which Rambus said makes it five times faster than today's best-in-class GDDR (define) graphics DRAM products.

In addition to patent licenses, Rambus also does some technology licenses where it essentially does the product design work. "We've seen with many customers that once we get the patent license in place, many will come back and work with us [under a technology license], and we hope that's the case with AMD," Sharon Holt, senior vice president of worldwide sales, licensing and marketing, told internetnews.com.

"For many companies, it might be lower-cost to have our engineers do the work or simply a matter of convenience where they would rather spend the time on their own core competency and get a quicker time to market. Memory controllers are what we do," she said.

Holt acknowledged technology licensing deals can take years to negotiate. In the case of the AMD deal, Holt said the deal reflected a new, lower-priced licensing model that it expects will lead to more agreements in 2006 and beyond.

"With AMD, we recognize that the controllers are getting bigger and more complex, integrated right onto the microprocessor," said Holt. "We took a hard look at that getting more expensive, and I think we succeeded in [offering] a more reasonable compensation."

"The license of our patent portfolio with AMD's demonstrated innovation in the microprocessor market is highly compelling," said Harold Hughes, chief executive officer at Rambus, in a statement.

Marko91
30-11-2008, 01:10
Nuove memorie da Rambus: http://www.rambus.com/us/products/xdr2/xdr2_vs_gddr5.html

e qualche info in più: http://www.rambus.com/assets/documents/products/xdr2_memory_architecture.pdf

Rambus , ovviamente , dice che sono validissime... mi chiedevo se un controller di memoria moderno ( che quindi supporta le GDDR5 ) può essere compatibile pure con queste memorie

Edit: non riguarda rambus. Comunque aggiungo un intervista a Rick Bergman http://venturebeat.com/2008/11/26/qa-with-rick-bergman-head-of-amds-graphics-business-on-fighting-nvidia-with-a-sweet-spot-strategy/

Molto interessanti. Le next gen console potrebbero farne uso.

Al raggiungimento del completo sfruttamento nel 2013 darebbero:

816Gb/s per mc da 512bit
408Gb/s per mc da 256bit
204Gb/s per mc da 128bit
102Gb/s per mc da 64bit


:D

+Lonewolf+
09-12-2008, 00:37
iscritto!!

Mercuri0
09-12-2008, 10:41
Rambus , ovviamente , dice che sono validissime... mi chiedevo se un controller di memoria moderno ( che quindi supporta le GDDR5 ) può essere compatibile pure con queste memorie

Temo che ci voglia un controller apposito.

Comunque è notizia certa che sia nVidia che AMD hanno fatto un grosso contratto con Hylinx (o come si chiama lei) per le memorie GDDR5 sui prossimi modelli. ;)

mikepedo
09-12-2008, 11:22
Rileggevo proprio ieri un'intervista molto interessante fatta ad Nvidia poco dopo l'acquisizione di 3dfx.
Nvidia oltre a 3dfx aveva automaticamente acquisito anche le tecnologie Gigapixel, molto simili come concezione al Kyro1/2.
Ebbene, Nvidia sembra non averle mai utilizzate perchè con l'aumento considerevole della banda passante grazie ai nuovi moduli ram (DDR, DDR2, 3, 4 e ora 5...) i vantaggi derivanti da una tecnica di rimozione delle superfici nascoste e risparmio di banda erano minori degli svantaggi che si sarebbero creati, primo su tutto identificare con efficacia le stesse superfici nascoste:D
Diciamo che sono lontati i tempi della GeForce2 Ultra limitata dalla banda passante:sofico:

Foglia Morta
11-12-2008, 18:46
Il fatto che si sia sentito parlare spesso di RV740 mi fa pensare che sarà una gpu ancora più piccola ( 40nm ) e ancora più votata al multi-gpu. Un altro passettino verso il multi-core. Già oggi ATi compete con solo 3 gpu ( RV710 , RV730 , RV770 ) contro 5 gpu ( GT200 , G92 , G94 , G96 e G98 ). Con RV740 potrebbero migliorare ulteriormente l'economia di scala. Intanto RV775 dovrebbe essere ( se esiste veramente ) una revisione che sale meglio in frequenza e niente più

http://vr-zone.com/articles/amd-plans-rv775xt-to-compete-geforce-gtx-285/6275.html?doc=6275

We were told about a new RV775XT core which is essentially a fine tune version of the RV770. However, little information was revealed at this point of time but i can say AMD is concentrating their efforts on RV740 instead. We are speculating AMD has been collecting the higher speed bins over the months to make this card out to compete against GTX285 offering. It looks exactly the same as the GeForce GTX 280 card but comes with 2 x 6-pin power connectors instead of 8+6 pins. We are able to confirm at this point that it has 240 SPs, 512-bit memory and 1GB GDDR3 memories just like the current GTX280. Expreview has provided more insights on the GeForce GTX 285 like 183W TDP and 110% performance boost over GTX280.

Foglia Morta
11-12-2008, 18:49
Temo che ci voglia un controller apposito.

Comunque è notizia certa che sia nVidia che AMD hanno fatto un grosso contratto con Hylinx (o come si chiama lei) per le memorie GDDR5 sui prossimi modelli. ;)

Si ma con 75 milioni di dollari mi auguro abbiano pagato molte licenze. Comunque sto perdendo fiducia su ste XDR

Foglia Morta
11-12-2008, 19:39
Chiarissimo, RV870 è più vicino di quanto si pensi. A questo punto ipotizzo fine inverno aka prima dell'inizio della primavera.

Non ti ho capito... perchè RV870 sarebbe più vicino di quanto si pensi ? ( sto assumendo che per te , come lo è per me , RV870 sarà la prima gpu DX11 di ATi )
RV775XT potrebbe essere una soluzione con vita breve ( semplice revisione con clock più alti ) e presto sostituita da RV740 ( gpu 40nm , DX10.1 ) che sfruttando il multi-gpu potrebbe coprire quasi tutte le fasce di prezzo ad eccezione dell'entry level nella quale potrebbe restare RV710.

Foglia Morta
11-12-2008, 20:13
Perché il mito del super-RV670 non è una strategia di NDA che possono ripetere impunemente con il super-RV770 :Perfido:

Ma tra l'attuale generazione e le DX11 comunque è necessario che ce ne sia un' altra. Almeno per sperimentare il processo produttivo a 40nm con un architettura già nota per poi passare solo successivamente alla nuova architettura DX11. Non è che stai chiamando RV870 ciò che io sto chiamando RV740 ?

Foglia Morta
11-12-2008, 20:19
Sempre in movimento il futuro è

http://www.zeek.net/i/yoda.jpg

:>

Guarda qua : http://forum.beyond3d.com/showpost.php?p=1247745&postcount=79 :sofico:

Edit: e scommetto che RV740 non è un RV730 a 40nm , qualcosina di più :D , 40nm are on the way :D

Foglia Morta
11-12-2008, 20:27
IMO RV740 avrà 640 alu e 32 tmu , per le rbe non so . Bus 128bit , GDDR5 più veloci. Rimpiazzeranno la 4830 con una scheda più o meno equivalente ma i rimpiazzi delle 4850 , 4870 e 4870 X2 saranno più veloci ed economiche da produrre ( punteranno ancora sul performance / $ )

halduemilauno
12-12-2008, 11:20
http://www.expreview.com/img/news/2008/12/12/rv775.png

http://en.expreview.com/2008/12/12/amd-rv775-ready-to-give-nvidia-a-punch.html

appleroof
12-12-2008, 11:26
http://www.expreview.com/img/news/2008/12/12/rv775.png

http://en.expreview.com/2008/12/12/amd-rv775-ready-to-give-nvidia-a-punch.html

interessante....la cosa che non mi torna di quella tabella è come a parità di pp, rv775 abbia un die-size leggermente minore di rv770...

Mr_Paulus
12-12-2008, 11:34
interessante....la cosa che non mi torna di quella tabella è come a parità di pp, rv775 abbia un die-size leggermente minore di rv770...

se è vero vuol dire che hanno fatto una grande e scrupolosa riorganizzazione interna del chip, e questo penso voglia dire che la prossima generazione sia ancora lontana.

Lionking-Cyan
12-12-2008, 11:35
Gennaio?? :mbe:
Mo me fate rosikare :cry: .

Kharonte85
12-12-2008, 11:35
interessante....la cosa che non mi torna di quella tabella è come a parità di pp, rv775 abbia un die-size leggermente minore di rv770...
Mistero...

Ma quindi a Gennaio tornano le sigle XT e PRO :sofico:


Altrimenti coi nomi come la mettono? hd4875 o 4970? :D

ranf
12-12-2008, 11:41
interessante....la cosa che non mi torna di quella tabella è come a parità di pp, rv775 abbia un die-size leggermente minore di rv770...

Impossibile,hanno sbagliato.... non possono con lo stesso PP e la stessa architettura aumentare gli stream processor, le tmu e allo steso tempo ridurre la superfice del chip....

appleroof
12-12-2008, 11:42
se è vero vuol dire che hanno fatto una grande e scrupolosa riorganizzazione interna del chip, e questo penso voglia dire che la prossima generazione sia ancora lontana.

non ti seguo.....

Mistero...

Ma quindi a Gennaio tornano le sigle XT e PRO :sofico:


Altrimenti coi nomi come la mettono? hd4875? :D

magari, alla fine quella nomenclatura mi piaceva molto di più di 354635

cmq se seguono questa attuale, come credo (imho quella tabella si riferisce ai nomi dei chip, non commerciali), credo si chiameranno 4875, oppure 4880 oppure 1288, japparappapààààà :D

appleroof
12-12-2008, 11:43
Impossibile,hanno sbagliato.... non possono con lo stesso PP e la stessa architettura aumentare gli stream processor, le tmu e allo steso tempo ridurre la superfice del chip....

esatto: delle due l'una o il die-size è sbagliato, oppure sono a 40nm :boh:

ranf
12-12-2008, 11:44
Mistero...

Ma quindi a Gennaio tornano le sigle XT e PRO :sofico:


Altrimenti coi nomi come la mettono? hd4875 o 4970? :D

io voto per la 4970.....
4875 mi sembra troppo misero come aumento di nome.....:D

Kharonte85
12-12-2008, 11:44
Impossibile,hanno sbagliato.... non possono con lo stesso PP e la stessa architettura aumentare gli stream processor, le tmu e allo steso tempo ridurre la superfice del chip....
Infatti, era una domanda retorica, o sono a 40nm o hanno sbagliato il die size o il die size è giusto ma l'architettura non cambia e aumentano solo le frequenze.

C'è anche la possibilità che sia sbagliato tutto ovviamente...:stordita:

Mr_Paulus
12-12-2008, 11:47
non ti seguo.....


intendevo che magari si sono accorti che ci sono delle parti del chip che potevano essere meglio ottimizzate in termini di numero di transistors e spazio occupato, poi non so la mia è solo una ipotesi buttata lì per cercare di spiegare quei dati, bisognerebbe sentire yossarian per vedere se è possibile una cosa del genere:)

Mr_Paulus
12-12-2008, 11:49
Infatti, era una domanda retorica, o sono a 40nm o hanno sbagliato il die size o il die size è giusto ma l'architettura non cambia e aumentano solo le frequenze.

C'è anche la possibilità che sia sbagliato tutto ovviamente...:stordita:

ma infatti girava voce che doveva uscire una revision che scalava meglio in frequenza, quindi potrebbe essere sbagliato tutto tranne le frequenze.

o anche quelle :D

appleroof
12-12-2008, 11:56
intendevo che magari si sono accorti che ci sono delle parti del chip che potevano essere meglio ottimizzate in termini di numero di transistors e spazio occupato, poi non so la mia è solo una ipotesi buttata lì per cercare di spiegare quei dati, bisognerebbe sentire yossarian per vedere se è possibile una cosa del genere:)

ok....;)

Kharonte85
12-12-2008, 11:57
Comunque qualcosa bolle in pentola quindi questo spiega perchè stanno svendendo le vga sul mercato. :D

appleroof
12-12-2008, 11:58
Comunque qualcosa bolle in pentola quindi questo spiega perchè stanno svendendo le vga sul mercato. :D

quoto...

l'altra possibilità, imho più remota, è che l'abbassamento di prezzo è per rispondere ai nuovi prodotti Nvidia...

Mr_Paulus
12-12-2008, 12:03
quoto...

l'altra possibilità, imho più remota, è che l'abbassamento di prezzo è per rispondere ai nuovi prodotti Nvidia...

direi anche questa, anche perchè al momento nvidia batte (anche se non di molto) ati nella fascia medio-alta (4870, lasciamo perdere il multi gpu), quindi magari tengono i prezzi bassi per non perdere quote di mercato in attesa di queste schede che riporteranno alla pari (oppure in leggero vantaggio per ati) lo scontro.

c'è anche da dire che è abbastanza facile per ati mantenere bassi i prezzi in quanto hanno un chip molto piccolo..

Beltra.it
12-12-2008, 12:08
direi anche questa, anche perchè al momento nvidia batte (anche se non di molto) ati nella fascia medio-alta (4870, lasciamo perdere il multi gpu), quindi magari tengono i prezzi bassi per non perdere quote di mercato in attesa di queste schede che riporteranno alla pari (oppure in leggero vantaggio per ati) lo scontro.

c'è anche da dire che è abbastanza facile per ati mantenere bassi i prezzi in quanto hanno un chip molto piccolo..

si e poi la nvidia fa uscire a distanza di qualche settimana le sue schede che parranno andare più lente... poi dopo 2 release dei driver daranno cacca alle ati
leggete un po' i paramentri di queste schede ati... su carta dovrebbero volare più di 2gtx280 in sli.. ma in dati e prove... fanno piuttosto pena!

nvidia con schede su carta molto meno potenti, da via alla ati!!

appleroof
12-12-2008, 12:09
direi anche questa, anche perchè al momento nvidia batte (anche se non di molto) ati nella fascia medio-alta (4870, lasciamo perdere il multi gpu), quindi magari tengono i prezzi bassi per non perdere quote di mercato in attesa di queste schede che riporteranno alla pari (oppure in leggero vantaggio per ati) lo scontro.

c'è anche da dire che le nuove Nvidia usciranno dopo Natale, pare che rv775xt pure, quindi il discorso delle quote di mercato è relativo, per la tempistica considerata...

quindi imho o lo fanno per svuotare i magazzini, oppure rv775xt è più lontano di gennaio....

c'è anche da dire che è abbastanza facile per ati mantenere bassi i prezzi in quanto hanno un chip molto piccolo..

verissimo: potrebbero vendere la 4870 a 150 euro e imho ci guadagnerebbero lo stesso...

l'abbassamento ai prezzi è per riuscire a fregare ancora un po' di gente e prendere posizione sul mercato.. per poi far uscire le nuove che ancora prenderanno per il culo (ovviamente per via dei driver come per le 4800series) gli spendaccioni incalliti di pc...
passate a nvidia che una 8800GTX che ad ogni release incrementa un sacco le prestazioni
almeno una scheda nvidia ti dura 2 anni.. la ati o si brucia prima oppure tra 1 anno è già bella che obsoleta

sfondi una porta aperta :D

Beltra.it
12-12-2008, 12:12
c'è anche da dire che le nuove Nvidia usciranno dopo Natale, pare che rv775xt pure, quindi il discorso delle quote di mercato è relativo, per la tempistica considerata...

quindi imho o lo fanno per svuotare i magazzini, oppure rv775xt è più lontano di gennaio....



verissimo: potrebbero vendere la 4870 a 150 euro e imho ci guadagnerebbero lo stesso...



sfondi una porta aperta :D

l'ho riformulata in modo più realistico ^^

Mr_Paulus
12-12-2008, 12:20
si e poi la nvidia fa uscire a distanza di qualche settimana le sue schede che parranno andare più lente... poi dopo 2 release dei driver daranno cacca alle ati
leggete un po' i paramentri di queste schede ati... su carta dovrebbero volare più di 2gtx280 in sli.. ma in dati e prove... fanno piuttosto pena!

nvidia con schede su carta molto meno potenti, da via alla ati!!

ok, dicci per favore dove sulla carta le ati dovrebbero dare merda alle nvidia e dove sulla carta le schede nvidia sono meno potenti :)

appleroof
12-12-2008, 12:21
Se il die size è quello secondo me non può essere a 40nm. Un risparmio così misero in termini di area può tranquillamente essere una riprogettazione degli spazi e una ottimizzazione delle unità. Una cosa del genere dopotutto non sarebbe una gran novità in questo campo.

quindi saresti d'accordo con Mr_Paulus....

Io continuo a pensare che sia pretattica...

in che senso?

Lionking-Cyan
12-12-2008, 12:21
Comunque qualcosa bolle in pentola quindi questo spiega perchè stanno svendendo le vga sul mercato. :D

Ma i telegiornali li guardate? :mad:

appleroof
12-12-2008, 12:22
Ma i telegiornali li guardate? :mad:

edit, l'ho capita :stordita:

Mr_Paulus
12-12-2008, 12:22
Ma i telegiornali li guardate? :mad:

si ma quì è da maggio che svendono :D

appleroof
12-12-2008, 12:28
cut
Ti ricordi un anno fa si parlava di un super-RV670? Dopo poco è uscito RV770, di un super-RV770 non s'è visto traccia...

propendi per un chip molto più "modificato" di quello della tabella allora?

The_SaN
12-12-2008, 12:33
ok, dicci per favore dove sulla carta le ati dovrebbero dare merda alle nvidia e dove sulla carta le schede nvidia sono meno potenti :)

e 800SP vs 240Sp non vale :D

Lionking-Cyan
12-12-2008, 12:36
si ma quì è da maggio che svendono :D

Se vogliamo metterla sotto sto punta di vista, i pc sono sempre in svendita :D . E' normale che più tempo passa più i prezzi calano, la robba digitale è quella che si evolve di più (a differenza di robba meccanica ad esempio), e quindi è normale che i prezzi calano.
Ma io parlo proprio di minimi storici dei prezzi. Giustamente, o si stracalano i prezzi, o si fallisce. Magari su internet si trovano anche prezzi non bassissimi, però poi bisogna vedere in quanti comprano da loro...

Kharonte85
12-12-2008, 12:37
Anche il numero di transistor secondo quella tabella è diminuito...

Mr_Paulus
12-12-2008, 12:41
Anche il numero di transistor secondo quella tabella è diminuito...

quello penso possa essere fatto con un'ottimizzazione delle linee di collegamento interne al chip tra le varie unità di elaborazione.
poi c'è anche il fatto che gli sp delle radeon occupano molto meno spazio in termini di transistors e die size rispetto a quelli nvidia..
insomma boh :D

gianni1879
12-12-2008, 12:52
si e poi la nvidia fa uscire a distanza di qualche settimana le sue schede che parranno andare più lente... poi dopo 2 release dei driver daranno cacca alle ati
leggete un po' i paramentri di queste schede ati... su carta dovrebbero volare più di 2gtx280 in sli.. ma in dati e prove... fanno piuttosto pena!

nvidia con schede su carta molto meno potenti, da via alla ati!!

denoti alte competenze cognitive....:rolleyes:

Kharonte85
12-12-2008, 12:53
quello penso possa essere fatto con un'ottimizzazione delle linee di collegamento interne al chip tra le varie unità di elaborazione.
poi c'è anche il fatto che gli sp delle radeon occupano molto meno spazio in termini di transistors e die size rispetto a quelli nvidia..
insomma boh :D
Pare che originariamente l'RV770 sia stato progettato con delle strutture ridondanti e che alla fine questo abbia fatto crescere le dimensioni del die-size piu' del necessario, a questo punto in effetti potrebbe non essere impossibile che una riorganizzazione dell'architettura (perlomeno io credo che sia meno impossibile rispetto ad una vga @40nm a Gennaio) col processo produttivo @55nm ormai ben rodato possa far diminuire transistor e Die-size.

Pero' il fatto di accrescere del 5% gli SP e 20% le texture address filtering significa che di ridondanze ne doveva avere un bel po' :D

Mr_Paulus
12-12-2008, 13:00
Pare che originariamente l'RV770 sia stato progettato con delle strutture ridondanti e che alla fine questo abbia fatto crescere le dimensioni del die-size piu' del necessario, a questo punto in effetti potrebbe non essere impossibile che una riorganizzazione dell'architettura (perlomeno io credo che sia meno impossibile rispetto ad una vga @40nm a Gennaio) col processo produttivo @55nm ormai ben rodato possa far diminuire transistor e Die-size.

Pero' il fatto di accrescere del 5% gli SP e 20% le texture address filtering significa che di ridondanze ne doveva avere un bel po' :D

già :D
e comunque pare che la vga a 40 nm dovrebbe essere quell'rv740 si cui parlava foglia morta prima, e che dovrebbe essere l'ultimo step dx10.1 prima di rv870 che in teoria sarà dx11.

yossarian
12-12-2008, 13:04
interessante....la cosa che non mi torna di quella tabella è come a parità di pp, rv775 abbia un die-size leggermente minore di rv770...

se è vero vuol dire che hanno fatto una grande e scrupolosa riorganizzazione interna del chip, e questo penso voglia dire che la prossima generazione sia ancora lontana.

la cosa è fattibile, anzi è già stata fatta in passato. Con G71, nVIDIA operò una riduzione del numero di transistor di circa l'8%, a parità di architettura.

Se si fa un'analisi dei dati, ci si rende conto che la diminuzione, in questo caso, è di poco siuperiore al 3% e l'incremento di alu e del 5%. Come ha detto aualcuno, le alu di RV770 sono molto piccole e un incremento del 5% può essre compatibile con un decremento del 3% del transistor count, a fronte di una riorganizzazione delle linee di trasmissione e controllo del chip.

lexing
12-12-2008, 13:04
Innanzitutto il numero di shader processor passerà dalle attuali 800 a 840 unità, mentre le unità di Texture Address saliranno da 40 a 48. Questo aumento è dovuto a una piccola modifica interna dei chip, che perderanno le unità di backup presenti attivando tutti gli shader originariamente previsti da AMD.Dobbiamo infatti rendere conto che AMD, nel progetto di RV770, ha incluso da subito 840 shader processor, abilitandone 800 di default e lasciando i restanti come una sorta di “backup” in caso di malfunzionamenti di qualcuno di essi. Con questa pratica, molto più comune di quanto si possa credere e adottata dalla stragrande maggioranza dei produttori, AMD si è assicurata da subito una resa produttiva elevatissima, dato che i pochi chip che presentavano qualche imperfezione potevano comunque contare su 800 shader perfettamente funzionanti.
Fonte: http://www.pcprofessionale.it/2008/12/12/amd-non-perde-colpi-in-arrivo-rv775-evoluzione-diretta-delle-schede-hd4800/

Foglia Morta
12-12-2008, 13:11
la cosa è fattibile, anzi è già stata fatta in passato. Con G71, nVIDIA operò una riduzione del numero di transistor di circa l'8%, a parità di architettura.

Se si fa un'analisi dei dati, ci si rende conto che la diminuzione, in questo caso, è di poco siuperiore al 3% e l'incremento di alu e del 5%. Come ha detto aualcuno, le alu di RV770 sono molto piccole e un incremento del 5% può essre compatibile con un decremento del 3% del transistor count, a fronte di una riorganizzazione delle linee di trasmissione e controllo del chip.

costi produttivi analoghi e prestazioni probabilmente molto simili e senza neanche aver sperimentato un nuovo processo produttivo... sarebbe la gpu più inutile mai creata.

Edit: non avevo visto i 900Mhz di freq. :D

Vabbe ma imo non cambia molto... non conviene riprogettare una gpu per così poco. Al massimo una revisione per aumentare le frequenze, ma addirittura riprogettare con lo sbattimento di cambiare il numero di tmu e alu non ne vale la pena

Ri-Edit: quella gpu non ha comunque senso. RV770 ha 10 SIMD da 80 alu ciascuna . Cavolo vanno a cambiare anche l'organizzazione ? con 48 tmu dovrebbero esserci 960 alu. 840 non ha senso

ranf
12-12-2008, 13:23
Ma i telegiornali li guardate? :mad:

Se dovessimo dare retta ai telegiornali ci saremmo già dovuti suicidare tutti per evitare una lenta fine di stenti........

Se la crisi è più grave di quello che ci si aspettava è colpa del puro e gratuito TERRORISMO PSICOLOGICO fatto dai telegiornali.

Il giorno che tutti ci dovessimo fidare di quello che dicono i telegiornali sarà veramente il giorno che è meglio suicidarsi......

Kharonte85
12-12-2008, 13:25
Fonte: http://www.pcprofessionale.it/2008/12/12/amd-non-perde-colpi-in-arrivo-rv775-evoluzione-diretta-delle-schede-hd4800/

Ah ecco...:)

Mr_Paulus
12-12-2008, 13:30
Fonte: http://www.pcprofessionale.it/2008/12/12/amd-non-perde-colpi-in-arrivo-rv775-evoluzione-diretta-delle-schede-hd4800/

ottimo, quindi affinando la resa produttive e di conseguenza avendo rese più elevate hanno deciso di attivare anche le alu dormienti.

bs82
12-12-2008, 13:30
costi produttivi analoghi e prestazioni probabilmente molto simili e senza neanche aver sperimentato un nuovo processo produttivo... sarebbe la gpu più inutile mai creata.

+ 20% di frequenza
+ 5% di sp
+ 20% di TMU

Questa scheda con PICCOLISSIMO SBATTIMENTO* da parte di Ati andrà minimo il 20% in più.

Alla faccia della scheda inutile!:mc:


Edit: non avevo visto i 900Mhz di freq. :D
Vabbe ma imo non cambia molto... non conviene riprogettare una gpu per così poco*. Al massimo una revisione per aumentare le frequenze, ma addirittura riprogettare con lo sbattimento* di cambiare il numero di tmu e alu non ne vale la pena
Ri-Edit: quella gpu non ha comunque senso. RV770 ha 10 SIMD da 80 alu ciascuna . Cavolo vanno a cambiare anche l'organizzazione ?* con 48 tmu dovrebbero esserci 960 alu. 840 non ha senso

*Asterischi vari: vedi cosa vuol dire non aver capito una cippa della strategia di Ati?

Al rilascio di rv770 si è parlato di "piccoli chip" che hanno SOLO questi PRO:
- minor costo produttivo
- minor difficoltà di DEBUG
- resa più alta
- minor difficoltà nel modificare l'architettura di partenza
- minore complessità circuitale
- presenza di RIDONDANZA

Sei ancora dell'idea che loro GRATUITAMENTE, vista la minor complessità, abbiano SPRECATO risorse per cavare da un semplice e poco costoso chip, già perfetto tra l'altro, oltre il 20% di potenza in più??? :rolleyes:

yossarian
12-12-2008, 13:31
costi produttivi analoghi e prestazioni probabilmente molto simili e senza neanche aver sperimentato un nuovo processo produttivo... sarebbe la gpu più inutile mai creata.

Edit: non avevo visto i 900Mhz di freq. :D

Vabbe ma imo non cambia molto... non conviene riprogettare una gpu per così poco. Al massimo una revisione per aumentare le frequenze, ma addirittura riprogettare con lo sbattimento di cambiare il numero di tmu e alu non ne vale la pena

Ri-Edit: quella gpu non ha comunque senso. RV770 ha 10 SIMD da 80 alu ciascuna . Cavolo vanno a cambiare anche l'organizzazione ? con 48 tmu dovrebbero esserci 960 alu. 840 non ha senso

infatti ho detto che è fattibile, non che abbia un senso (almeno così come è stata presentata) :D

yossarian
12-12-2008, 13:34
ottimo, quindi affinando la resa produttive e di conseguenza avendo rese più elevate hanno deciso di attivare anche le alu dormienti.

c'è un cluster da 80 alu ridondante in RV770, non da 40 . Inoltre, attivare le alu "dormienti" fa abbassare le rese produttive dei chip di fascia alta

Kharonte85
12-12-2008, 13:35
infatti ho detto che è fattibile, non che abbia un senso (almeno così come è stata presentata) :D
:asd:

Vabbe' probabilmente invece hanno fatto bene perchè le nvidia @55nm potrebbero dare qualche gatta da pelare soprattutto se sono veri i dati sui consumi...

bs82
12-12-2008, 13:38
ottimo, quindi affinando la resa produttive e di conseguenza avendo rese più elevate hanno deciso di attivare anche le alu dormienti.

e cmq se quei dati sono veri... hanno si attivato gli sp ridondanti... ma hanno anche "pulito" il chip.... contanto 20M in meno di transistor!!!

Ho come l'impressione che RV770 sia stato una specie di "debug version" pronto solo da essere affinato, una pepita d'oro pronta a essere purificata e fusa in un stupendo anello :D

Defragg
12-12-2008, 13:38
infatti ho detto che è fattibile, non che abbia un senso (almeno così come è stata presentata) :D

In che senso? Potresti approfondire? :)
c'è un cluster da 80 alu ridondante in RV770, non da 40 . Inoltre, attivare le alu "dormienti" fa abbassare le rese produttive dei chip di fascia alta

Quindi non è che magari ci esce fuori un chip con 880 alu, invece che da 840? :D

goldorak
12-12-2008, 13:40
:asd:

Vabbe' probabilmente invece hanno fatto bene perchè le nvidia @55nm potrebbero dare qualche gatta da pelare soprattutto se sono veri i dati sui consumi...

Gia' questa cosa sui consumi mi lascia perplesso.
Ma le GGDR5 non dovevano avere meccanismi di risparmio energetico che le avrebbero rese meno dispendiose rispetto alle GDDR 3 ?
Come si spiega che le schede della serie 260 di Nvidia in idle consumino molto meno rispetto alla controparte ATI ? :fagiano:

Foglia Morta
12-12-2008, 13:45
Gia' questa cosa sui consumi mi lascia perplesso.
Ma le GGDR5 non dovevano avere meccanismi di risparmio energetico che le avrebbero rese meno dispendiose rispetto alle GDDR 3 ?
Come si spiega che le schede della serie 260 di Nvidia in idle consumino molto meno rispetto alla controparte ATI ? :fagiano:

nVidia è costretta a splittare la gpu in 2 die , NVIO + GT200 . IMO questo gli permette di spegnere gran parte di GT200 quando non è necessario in quanto molte funzioni del 2d potrebbero essere gestite da NVIO ( il die minuscolo )

The_SaN
12-12-2008, 13:45
Gia' questa cosa sui consumi mi lascia perplesso.
Ma le GGDR5 non dovevano avere meccanismi di risparmio energetico che le avrebbero rese meno dispendiose rispetto alle GDDR 3 ?
Come si spiega che le schede della serie 260 di Nvidia in idle consumino molto meno rispetto alla controparte ATI ? :fagiano:

Non so come funziona esattamente l'idle nelle 2 schede, ma mi sembra che la serie 200 disattivi buona parte del chip.
ATi lo fa in modo meno incisivo, oltre a diminuire poco le frequenze della ram e del chip.
Infatti se usi ATT per diminuire frequenze varie e voltaggi, il consumo in idle diventa ridicolo.

Credo che il nostro buon Yossarian possa spiegare meglio di me :D

Foglia Morta
12-12-2008, 13:47
+ 20% di frequenza
+ 5% di sp
+ 20% di TMU

Questa scheda con PICCOLISSIMO SBATTIMENTO* da parte di Ati andrà minimo il 20% in più.

Alla faccia della scheda inutile!:mc:



*Asterischi vari: vedi cosa vuol dire non aver capito una cippa della strategia di Ati?

Al rilascio di rv770 si è parlato di "piccoli chip" che hanno SOLO questi PRO:
- minor costo produttivo
- minor difficoltà di DEBUG
- resa più alta
- minor difficoltà nel modificare l'architettura di partenza
- minore complessità circuitale
- presenza di RIDONDANZA

Sei ancora dell'idea che loro GRATUITAMENTE, vista la minor complessità, abbiano SPRECATO risorse per cavare da un semplice e poco costoso chip, già perfetto tra l'altro, oltre il 20% di potenza in più??? :rolleyes:

si per me resta inutile cambiare l'organizzazione interna in modo non lineare... a maggior ragione con i 40nm dietro l'angolo.

Kharonte85
12-12-2008, 13:49
Gia' questa cosa sui consumi mi lascia perplesso.
Ma le GGDR5 non dovevano avere meccanismi di risparmio energetico che le avrebbero rese meno dispendiose rispetto alle GDDR 3 ?
Si ma se le fai andare al doppio capisci che i margini di risparmio si annullano :D

Come si spiega che le schede della serie 260 di Nvidia in idle consumino molto meno rispetto alla controparte ATI ? :fagiano:
Merito di nvidia o demerito di ATI (ma credo piu' la prima ipotesi visto il confronto interno con g92)

Foglia Morta
12-12-2008, 13:51
infatti ho detto che è fattibile, non che abbia un senso (almeno così come è stata presentata) :D

Se devono presentare qualcosa imo avrebbe più senso una gpu con clock più alti e nient'altro. E soprattutto concentrarsi sulle gpu a 40nm...

ps: pare che girino nomi in codice diversi proprio per inchiappettare chi pubblica info che non dovrebbero essere svelate , occhio :D

Lionking-Cyan
12-12-2008, 13:51
Se dovessimo dare retta ai telegiornali ci saremmo già dovuti suicidare tutti per evitare una lenta fine di stenti........

Se la crisi è più grave di quello che ci si aspettava è colpa del puro e gratuito TERRORISMO PSICOLOGICO fatto dai telegiornali.

Il giorno che tutti ci dovessimo fidare di quello che dicono i telegiornali sarà veramente il giorno che è meglio suicidarsi......

Anche se quà siamo OT, sono d'accordo con te a riguardo del terrorismo psicologico che fanno i telegiornali (tanto per fare un esempio:unabomber).
Che i TG abbiano ventagliato la crisi o no, di fatto c'è.

yossarian
12-12-2008, 13:53
:asd:

Vabbe' probabilmente invece hanno fatto bene perchè le nvidia @55nm potrebbero dare qualche gatta da pelare soprattutto se sono veri i dati sui consumi...

i progetti si fanno, solitamente, in base alle proprie roadmap, non a quele dei competitor :D. Che le nVIDIA a 55 nm possano essere chip validi ci sta tutto ed era ampiamente previsto (d'altra parte sono già buoni a 65 nm). Se dovesse un chip con questi dati di targa non sarebbe una risposta ai 55 nm di nVIDIA ma l'affinamento dell'architettura in vista del prossimo chip. Potrebbe trattarsi di un chip a "tiratura limitata e dalla vita breve, una sorta di laboratorio prima della transizione verso il nuovo chip.

In che senso? Potresti approfondire? :)

Che ha senso come affinamento dell'architettura, in vista del nuovo progetto, non come chip in sé.


Quindi non è che magari ci esce fuori un chip con 880 alu, invece che da 840? :D



Quindi non è che magari ci esce fuori un chip con 880 alu, invece che da 840? :D

o magari con 800 alu e dx11 :D


Gia' questa cosa sui consumi mi lascia perplesso.
Ma le GGDR5 non dovevano avere meccanismi di risparmio energetico che le avrebbero rese meno dispendiose rispetto alle GDDR 3 ?
Come si spiega che le schede della serie 260 di Nvidia in idle consumino molto meno rispetto alla controparte ATI ? :fagiano:

perchè i chip ati della serie 4xx0 non hanno unità dedicate alla gestione del 2d che avviene tramite shader core

ranf
12-12-2008, 13:53
ottimo, quindi affinando la resa produttive e di conseguenza avendo rese più elevate hanno deciso di attivare anche le alu dormienti.

E quì sale la scimmia......:D
Non è che tramite software so bios della futura RV775 si possono sbloccare tutte le cosine bloccate? :sofico:

ai tempi dle mio pc in firma (c'era carlo magno :D ) molti prendevano la 9500pro e poi c'era una mod software che testava se le pipeline disattivate erano buone o no. se erano buone potevi caricarti il bios della 9700 e la mod era fatta.....:sofico:

bs82
12-12-2008, 13:55
si per me resta inutile cambiare l'organizzazione interna in modo non lineare... a maggior ragione con i 40nm dietro l'angolo.

Ati è andata a toccare i pochi "punti dolenti" di rv770 e lo ottimizza a zero spese praticamente.
Anzi magari già rv770 aveva dentro 840sp e 48tmu (oh ma guarda un po'... i rumors di un anno fa avevani proprio questi valori!!! :p ) e adesso li hanno solo resi disponibile all'utilizzo normale invece che alla ridondanza.

Ridondanza adesso inutile visto che il processo a 55nm ha rese ALTISSIME

(e non capisco yossarian cosa intenda dicendo dei problemi di resa dei chip di fascia alta, visto che rv770 è sempre quello...)

Cosa c'è quindi di così tanto inutile quindi ad avere in gennaio una scheda che va il 20-25% probabilmente con il solito prezzo superaggressivo?

E' un refresh a tutti gli effetti, e probabilmente MOLTO più efficace e COERENTE se confrontato alle porcherie che sta facendo il concorrente.

yossarian
12-12-2008, 13:57
Se devono presentare qualcosa imo avrebbe più senso una gpu con clock più alti e nient'altro. E soprattutto concentrarsi sulle gpu a 40nm...


anche con meno transistor avrebbe un senso, a parità di architettura, ma non con 40 alu e 8 tmu in più in più (rv770 ha 40 tmu, ovvero 4 ogni cluster da 80 alu, adesso dovrebbe aggiungerne 8 per un cluster da 40)



ps: pare che girino nomi in codice diversi proprio per inchiappettare chi pubblica info che non dovrebbero essere svelate , occhio :D

in effetti, la confusione regna sovrana :D
L'unico dato certo sembrerebbe quello che AMD abbia fretta di svutare i magazzini

yossarian
12-12-2008, 14:01
Ridondanza adesso inutile visto che il processo a 55nm ha rese ALTISSIME

(e non capisco yossarian cosa intenda dicendo dei problemi di resa dei chip di fascia alta, visto che rv770 è sempre quello...)


semplice: le rese sono altissime (e lo sono state da subito) anche perchè hai un cluster da 80 alu in più da poter utilizzare per ogni eventualità. Quindi, statisticamente, le probabilità di avere 2 cluster non funzionanti sono più basse di quelle di averne uno solo. Attivandoli tutti, il margine si riduce

Kharonte85
12-12-2008, 14:03
i progetti si fanno, solitamente, in base alle proprie roadmap, non a quele dei competitor :D. Che le nVIDIA a 55 nm possano essere chip validi ci sta tutto ed era ampiamente previsto (d'altra parte sono già buoni a 65 nm). Se dovesse un chip con questi dati di targa non sarebbe una risposta ai 55 nm di nVIDIA ma l'affinamento dell'architettura in vista del prossimo chip. Potrebbe trattarsi di un chip a "tiratura limitata e dalla vita breve, una sorta di laboratorio prima della transizione verso il nuovo chip.
intendevo che cade a fagiolo quindi potrebbero essere sforzi in qualche modo premiati non del tutto privi di senso.

bs82
12-12-2008, 14:12
semplice: le rese sono altissime (e lo sono state da subito) anche perchè hai un cluster da 80 alu in più da poter utilizzare per ogni eventualità. Quindi, statisticamente, le probabilità di avere 2 cluster non funzionanti sono più basse di quelle di averne uno solo. Attivandoli tutti, il margine si riduce

Ati ha avuto rese ALTISSIME fin dall'inizio: parliamo del tapeout di rv770 in dicembre 2007.

Ora Ati ha rese altissime dopo 10 mesi di OTTIMIZZAZIONI sul processo produttivo a 55nm.

Motivo per cui, non esiste nessun problema nell'usare tutta quella circuiteria ridondate, o cmq fare un decisa "pulizia" del chip
(visto il vociferato snellimento pur restando a 55nm).

Il margine quindi se si riduce, male che vada ritorna al valore minimo iniziale, che era cmq elevatissimo. E infatti la strategia di ati era anche quella di avere questi die molto piccoli, con 260mm^2 l'area del wafer da 30mm viene sfruttata quasi all'80%.

goldorak
12-12-2008, 14:12
perchè i chip ati della serie 4xx0 non hanno unità dedicate alla gestione del 2d che avviene tramite shader core

Quindi questo problema del consumo eccessivo in idle si presentera' anche nelle prossime gpu ? :stordita:
Ma non possono adottare un meccanismo di risparmio energetico come e' presente nelle cpu phenom o nehalem dove e' possibile spegnere selettivamente quei core che non fanno niente ? :p
80W per una gpu in idle sono un pochino troppi sinceramente.

The_SaN
12-12-2008, 14:15
Ma con questi supposti dati (che comunque vedo improbabili causa cambio cluster), a 55nm, non dovrebbe consumare tantissimo?
Sarebbe piú verosimile qualcosa del genere a 40nm, ma gennaio mi sembra una data troppo ottimistica. (a meno che abbiano trovato un modo per diminuire i voltaggi a paritá di frequenza...a questo punto i 55nm non sarebbero un problema)

Oppure fanno qualche "piccola" modifica interna e ci propongono la stessa scheda un pochino piú tirata e dx11 in stile 2900xt/3870 (ho giá visto questa ipotesi in uno dei post precedenti :D)

The_SaN
12-12-2008, 14:16
Quindi questo problema del consumo eccessivo in idle si presentera' anche nelle prossime gpu ? :stordita:
Ma non possono adottare un meccanismo di risparmio energetico come e' presente nelle cpu phenom o nehalem dove e' possibile spegnere selettivamente quei core che non fanno niente ? :p
80W per una gpu in idle sono un pochino troppi sinceramente.

Se la lasci a default, sicuramente. Ma chi si interessa di consumi non ci pensa 2 volte a installare ATT e farla finita :D

goldorak
12-12-2008, 14:20
Se la lasci a default, sicuramente. Ma chi si interessa di consumi non ci pensa 2 volte a installare ATT e farla finita :D

Si ma questo e' un bypass software.
Io volevo sapere perche' l'hardware non era capace di bilanciare dinamicamente il consumo in funzione del carico di lavoro.
I phenom lo fanno, i nehalem anche.
Perche' questa "soluzione hardware" non viene considerata prioritaria anche nelle gpu ? :stordita: E una impossibilita' oppure non frega niente a nessuno (e ripercorrono la strada degli ex p4, piu potenza piu' consumo e al diavolo tutto il resto ? )

bs82
12-12-2008, 14:21
Quindi questo problema del consumo eccessivo in idle si presentera' anche nelle prossime gpu ? :stordita:
Ma non possono adottare un meccanismo di risparmio energetico come e' presente nelle cpu phenom o nehalem dove e' possibile spegnere selettivamente quei core che non fanno niente ? :p
80W per una gpu in idle sono un pochino troppi sinceramente.

il 2D è bello che morto eh..... Su windows vista con l'aero attivo il 2D passa alla GPU come normale 3D.

Adirittura con Windows7, la nuova WDDM1.1 che contiene robe come il Direct2D, il GDI+ ecc ecc... delega TUTTO, rendering dei font compresi, al 3D (shaders) delle GPU :D :D

Ciao ciao stato di risparmio in 2D, tutto dovrà essere regolato solo a seconda della frequenza o del carico.

A meno che nelle Dx11 non abbiano previsto qualche accorgimento per la differenziazione del lavoro della GPU dal desktop all'applicazione 3D...

goldorak
12-12-2008, 14:24
il 2D è bello che morto eh..... Su wndows vista con l'aero attivo il 2D passa alla GPU come normale 3D.

Adirittura con Windows7, la nuova WDDM1.1 che contiene robe come il Direct2D, il GDI+ ecc ecc... delega TUTTO, rendering dei font compresi, al 3D (shaders) delle GPU :D :D

Ciao ciao stato di risparmio in 2D, tutto dovrà essere regolato solo a seconda della frequenza.

A meno che nelle Dx11 non abbiano previsto qualche accorgimento per la differenziazione del lavoro della GPU dal desktop all'applicazione 3D...

Si questo lo sapevo anch'io che ormai le api 2d erano state eliminate.
Quello pero' che continuo a non capire e' questo : dubito che serva tutta la potenza degli 800 sp per renderizzare un po' di testo etc...
Quindi perche' non e' possibile spegnere selettivamente chesso' l'80% dei sp che non fanno niente ?

ranf
12-12-2008, 14:24
il 2D è bello che morto eh..... Su wndows vista con l'aero attivo il 2D passa alla GPU come normale 3D.

Adirittura con Windows7, la nuova WDDM1.1 che contiene robe come il Direct2D, il GDI+ ecc ecc... delega TUTTO, rendering dei font compresi, al 3D (shaders) delle GPU :D :D

Ciao ciao stato di risparmio in 2D, tutto dovrà essere regolato solo a seconda della frequenza.

A meno che nelle Dx11 non abbiano previsto qualche accorgimento per la differenziazione del lavoro della GPU dal desktop all'applicazione 3D...

Ma ati non ha mica uno stato intermedio tra il 2D e il 3D? mi sembra che is chiamava low 3D.....

Mr_Paulus
12-12-2008, 14:43
c'è un cluster da 80 alu ridondante in RV770, non da 40 . Inoltre, attivare le alu "dormienti" fa abbassare le rese produttive dei chip di fascia alta

sisi, io intendevo un possibile scenario dove:
hanno disattivato sto cluster (ok, da 80 :D) per evitare di avere rese basse
si sono trovati rese più alte delle loro più rosee aspettative e quindi hanno deciso di riattivare sto cluster che fa si abbassare le rese, ma comunque possono permetterselo.

Beltra.it
12-12-2008, 16:33
ok, dicci per favore dove sulla carta le ati dovrebbero dare merda alle nvidia e dove sulla carta le schede nvidia sono meno potenti :)

ma un processore di 800streamprocessor da 775 MHz
contro un processore nvidia di 200 nemmeno streamprocessor e sulle più potenti ci sono 600MHz...
per il resto la memoria va uguale e anche gli shader mi sembra...ma non soon sicuro..

beh visto che nei giochi quello che conta è il processore in questo caso.. la ati dovrebbe dare merda alla nvidia...

halduemilauno
12-12-2008, 17:09
http://www.hardware-infos.com/news.php?news=2579

The_SaN
12-12-2008, 17:11
ma un processore di 800streamprocessor da 775 MHz
contro un processore nvidia di 200 nemmeno streamprocessor e sulle più potenti ci sono 600MHz...
per il resto la memoria va uguale e anche gli shader mi sembra...ma non soon sicuro..

beh visto che nei giochi quello che conta è il processore in questo caso.. la ati dovrebbe dare merda alla nvidia...

Hai semplicemente ignorato la differenza di frequenza tra gli SP ATi e nVidia (quelli nvidia sono piú veloci), il loro percentuale di sfruttamento intrinseco all'architettura, il numero di unitá di texture in rapporto agli shaders, rops, banda passante, tipo di bus di memoria... :)

Foglia Morta
12-12-2008, 17:18
ma un processore di 800streamprocessor da 775 MHz
contro un processore nvidia di 200 nemmeno streamprocessor e sulle più potenti ci sono 600MHz...
per il resto la memoria va uguale e anche gli shader mi sembra...ma non soon sicuro..

beh visto che nei giochi quello che conta è il processore in questo caso.. la ati dovrebbe dare merda alla nvidia...

Periodicamente salta fuori questo ragionamento privo di ogni fondamento.

GT200 ha 80 tmu , RV770 ne ha 40 , e allora perchè GT200 non va il doppio ?

GT200 ha 32 rops , RV770 solo 16 , e allora perchè GT200 non va il doppio ? :muro:

Sono tutti paragoni del ca**o. Sono architetture diverse e ognuna funziona alla sua maniera.

yossarian
12-12-2008, 17:35
Ati ha avuto rese ALTISSIME fin dall'inizio: parliamo del tapeout di rv770 in dicembre 2007.

Ora Ati ha rese altissime dopo 10 mesi di OTTIMIZZAZIONI sul processo produttivo a 55nm.

Motivo per cui, non esiste nessun problema nell'usare tutta quella circuiteria ridondate, o cmq fare un decisa "pulizia" del chip
(visto il vociferato snellimento pur restando a 55nm).

Il margine quindi se si riduce, male che vada ritorna al valore minimo iniziale, che era cmq elevatissimo. E infatti la strategia di ati era anche quella di avere questi die molto piccoli, con 260mm^2 l'area del wafer da 30mm viene sfruttata quasi all'80%.

veramente il pp a 55 nm lo si sta sperimentando e ottimizzando dalla serie 3xx0; qui si parla di ottimizzazione sull'architettura. In ogni caso, non avresti le rese che hai adesso per le 48x0. Ci sarebbe da obiettare sulle specifiche, in quanto, se viene rispettata l'architattura di RV770, al più si può parlare di 880 alu con 44 tmu (e non di 840 alu con 48 tmu).

sisi, io intendevo un possibile scenario dove:
hanno disattivato sto cluster (ok, da 80 :D) per evitare di avere rese basse
si sono trovati rese più alte delle loro più rosee aspettative e quindi hanno deciso di riattivare sto cluster che fa si abbassare le rese, ma comunque possono permetterselo.


possibile


Quindi questo problema del consumo eccessivo in idle si presentera' anche nelle prossime gpu ? :stordita:
Ma non possono adottare un meccanismo di risparmio energetico come e' presente nelle cpu phenom o nehalem dove e' possibile spegnere selettivamente quei core che non fanno niente ? :p
80W per una gpu in idle sono un pochino troppi sinceramente.

si, quando avremo gpu multicore. Con le attuali architetture è abbastanza poco pratico implementare circuiti di clock gating che spengano selettivamente uno o più cluster, mentre avendo dei veri core fisici è molto più semplice.

mircocatta
12-12-2008, 17:47
intanto si parla di rv775 per contrasrate le gtx285
http://www.tomshw.it/news.php?newsid=16384

goldorak
12-12-2008, 17:49
si, quando avremo gpu multicore. Con le attuali architetture è abbastanza poco pratico implementare circuiti di clock gating che spengano selettivamente uno o più cluster, mentre avendo dei veri core fisici è molto più semplice.

Ah :( vabbe', mi auguro allora che ATI tiri fuori una gpu multicore al piu' presto. Forse la prima gpu DX11 sara' multicore ? :stordita:

okorop
12-12-2008, 17:52
intanto si parla di rv775 per contrasrate le gtx285
http://www.tomshw.it/news.php?newsid=16384

nvidia :tie:

Athlon 64 3000+
12-12-2008, 17:52
Sai per caso se sarà possibile se RV870 uscira la prossima estate oppure bisognerà aspettare fino alla fine dell'anno?

goldorak
12-12-2008, 17:54
Sai per caso se sarà possibile se RV870 uscira la prossima estate oppure bisognerà aspettare fino alla fine dell'anno?

Secondo me se RV870 e' DX11 uscira' in contemporanea con Windows 7. Quindi settembre ottobre. :D

okorop
12-12-2008, 18:05
According to our sources ATI has got its working silicon of 40nm next generation chips, and we've learned that the company is happy with the first results.


This might mean that ATI is ahead of Nvidia in 40nm and we all know by now, that Nvidia has to win the 40nm round, as its reputation is in stake.

We don’t know much about the 40nm RVxxx chip but we do know that it features should be based on RV770 fundaments. You should see this new card as an improved, shrinked, higher clocked and faster RV770XT, but we still don’t know much more than that.

Nvidia might do the same, base the next gen 40nm on the existing GTx00 architecture that will naturally benefit from lower, voltage, higher clock and less of a heat.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10911&Itemid=1

pierluigi86
12-12-2008, 18:15
According to our sources ATI has got its working silicon of 40nm next generation chips, and we've learned that the company is happy with the first results.


This might mean that ATI is ahead of Nvidia in 40nm and we all know by now, that Nvidia has to win the 40nm round, as its reputation is in stake.

We don’t know much about the 40nm RVxxx chip but we do know that it features should be based on RV770 fundaments. You should see this new card as an improved, shrinked, higher clocked and faster RV770XT, but we still don’t know much more than that.

Nvidia might do the same, base the next gen 40nm on the existing GTx00 architecture that will naturally benefit from lower, voltage, higher clock and less of a heat.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10911&Itemid=1

mi ha detto mio cuggino...

okorop
12-12-2008, 18:19
mi ha detto mio cuggino...

lol :asd:

Beltra.it
12-12-2008, 18:26
nvidia :tie:
da quello che dice il link sembra che ati sia sempre stata sopra a nvidia.. a me pare proprio ben il contrario..

se questa volta ati fa le cose come dovrebbero essere fatte allora bene altrimenti farà come ha sempre fatto rimanendo dopo nvidia come è sempre stato in questi ultimi anni
la nvidia è più furba

okorop
12-12-2008, 18:33
da quello che dice il link sembra che ati sia sempre sta sopra a nvidia.. a me pare proprio ben il contrario..

se questa volta ati fa le cose come dovrebbero essere fatte allora bene altrimenti farà come ha sempre fatto rimanendo dopo nvidia come è sempre stato in questi ultimi anni
la nvidia è più furba

o perfetto prendi nvidia che cosi ci risparmiamo le tue continue lamentele son contento....
comunque 4850new=4870
4870new=gtx280
4870x2 4 gb di vram sta volta=gtx280 sli :eek:

mircocatta
12-12-2008, 18:36
nvidia :tie:

tra l'altro una tale scheda dovrebbe raggiungere le prestazioni almeno della attuale gtx280

goldorak
12-12-2008, 18:54
o perfetto prendi nvidia che cosi ci risparmiamo le tue continue lamentele son contento....
comunque 4850new=4870


Se fosse vero :sbav: :sbav:

4870new=gtx280

Piccola mazzata per Nvidia


4870x2 4 gb di vram sta volta=gtx280 sli :eek:

Grossa mazzata per Nvidia.

Beltra.it
12-12-2008, 19:10
o perfetto prendi nvidia che cosi ci risparmiamo le tue continue lamentele son contento....
comunque 4850new=4870
4870new=gtx280
4870x2 4 gb di vram sta volta=gtx280 sli :eek:

ma pensi che la nvidia non risponda? qualcuno dice che ci sia in progetto una GTX 300 series...

okorop
12-12-2008, 19:14
ma pensi che la nvidia non risponda? qualcuno dice che ci sia in progetto una GTX 300 series...

si ma qui si parla di gennaio 2009 non di dicembre 2009 :asd:

The_SaN
12-12-2008, 19:14
ma pensi che la nvidia non risponda? qualcuno dice che ci sia in progetto una GTX 300 series...

Questo "round" sará gtx 55nm vs rv775.
Il prossimo gt300 vs rv8xx a quanto pare.

goldorak
12-12-2008, 19:16
ma pensi che la nvidia non risponda? qualcuno dice che ci sia in progetto una GTX 300 series...

Ma con cosa devono rispondere ? Con l'ennesimo G92 nella fascia medio/medio bassa e GT200 nella fascia medio alta ? :asd:
Suvvia ormai e' chiaro come la luce che la Nvidia non potra' tirare fuori una nuova architettura che spazi dal high end al low end prima della fine del 2009.
E dover competere ancora con le "obsolete" G80 nella fascia media/medio bassa sono mazzate visto che i maggiori guadagni si fanno proprio li.
Poi nel high end la sua immagine ormai e' compromessa perche' niente tocca le 4870x2. :D

Mister Tarpone
12-12-2008, 19:17
Il prossimo gt300 vs rv8xx a quanto pare.

ecco li, se succede come con le prime e modernissime vga dx10 (g80 ed r600), saran mazzate per ati... :ops:

goldorak
12-12-2008, 19:18
Questo "round" sará gtx 55nm vs rv775.


round 1 : Ati win.


Il prossimo gt300 vs rv8xx a quanto pare.

round 2 : Se fanno ancora un chip monolitico da 600mm^2, Epic fail for Nvidia.
Se invece correggono drasticamente la rotta, chissa' forse se la giocano alla pari con ATI. :sofico:

Beltra.it
12-12-2008, 19:40
round 1 : Ati win.



round 2 : Se fanno ancora un chip monolitico da 600mm^2, Epic fail for Nvidia.
Se invece correggono drasticamente la rotta, chissa' forse se la giocano alla pari con ATI. :sofico:

ma chissenè della grandezza dei chip... o della loro architettura se utilizzano quella di 10 anni fa o ne fanno una nuova ogni anno...
quello che ati dovrebbe fare è lavorare sui drivere.. cosa che NON fa.. visto la loro instabilità col sistema...

goldorak
12-12-2008, 19:45
ma chissenè della grandezza dei chip... o della loro architettura se utilizzano quella di 10 anni fa o ne fanno una nuova ogni anno...
quello che ati dovrebbe fare è lavorare sui drivere.. cosa che NON fa.. visto la loro instabilità col sistema...

Mamma mia ancora con questi luoghi comuni che ATI non sa scrivere drivers ? :muro:
Io ho avuto le 9800/9800pro/x800gto e non ho mai avuto problemi con i drivers (si anche con i primi catalyst). Ora ho una nvidia 7900gs e di problemi ne ho parecchi. Tipo che se voglio giocare senza problemi a 3 giochi devo installare 3 drivers diversi :muro: , tipo che lo scaling non funziona sotto xp :muro: , tipo che il tv out e' completamente sputtanato dai drivers :muro: .
Tipo che la modalita' fullscreen quando collego una tv non funziona piu' (non si capisce per quale cazzo di motivo l'hanno tolto dai drivers se le schede ATI non hanno questo problema :muro: :muro: ).
Ma ripetiamo in coro, i drivers ATI hanno schifo, quelli Nvidia funzionano da dio. :rolleyes:

The_SaN
12-12-2008, 19:53
ma chissenè della grandezza dei chip... o della loro architettura se utilizzano quella di 10 anni fa o ne fanno una nuova ogni anno...
quello che ati dovrebbe fare è lavorare sui drivere.. cosa che NON fa.. visto la loro instabilità col sistema...

La stabilitá del sistema é un luogo comune.
Se guardi i grafici dei crash di vista capirai la reale situazione.

okorop
12-12-2008, 20:01
la x2 mia al lancio :sofico:

Polpi_91
12-12-2008, 20:04
o perfetto prendi nvidia che cosi ci risparmiamo le tue continue lamentele son contento....
comunque 4850new=4870
4870new=gtx280
4870x2 4 gb di vram sta volta=gtx280 sli :eek:

come potenza di calcolo pura la nuova 4850 è più potente della 4870

Questo "round" sará gtx 55nm vs rv775.
Il prossimo gt300 vs rv8xx a quanto pare.

se si continua di questo passo prevedo un caporetto nvidia

okorop
12-12-2008, 20:07
come potenza di calcolo pura la nuova 4850 è più potente della 4870



se si continua di questo passo prevedo un caporetto nvidia

speriamo che chiuda definitivamente nvidia.......:sperem:

Beltra.it
12-12-2008, 20:07
Mamma mia ancora con questi luoghi comuni che ATI non sa scrivere drivers ? :muro:
Io ho avuto le 9800/9800pro/x800gto e non ho mai avuto problemi con i drivers (si anche con i primi catalyst). Ora ho una nvidia 7900gs e di problemi ne ho parecchi. Tipo che se voglio giocare senza problemi a 3 giochi devo installare 3 drivers diversi :muro: , tipo che lo scaling non funziona sotto xp :muro: , tipo che il tv out e' completamente sputtanato dai drivers :muro: .
Tipo che la modalita' fullscreen quando collego una tv non funziona piu' (non si capisce per quale cazzo di motivo l'hanno tolto dai drivers se le schede ATI non hanno questo problema :muro: :muro: ).
Ma ripetiamo in coro, i drivers ATI hanno schifo, quelli Nvidia funzionano da dio. :rolleyes:

beh tu sei uno dei pochi che hanno problemi con la nvidia... forse per via del chipset come potrebbe essere con i miei chipset nvidia...

ma resta sempre e cmq il fatto che sono gli utenti che hanno ati ad ever problemi con driver o schede bruciate ... molti di più che la concorrenza nvidia

okorop
12-12-2008, 20:09
beh tu sei uno dei pochi che hanno problemi con la nvidia... forse per via del chipset come potrebbe essere con i miei chipset nvidia...

ma resta sempre e cmq il fatto che sono gli utenti che hanno ati ad ever problemi con driver o schede bruciate ... molti di più che la concorrenza nvidia

ma compra nvidia nessuno ti obbliga a prendere le meravigliose ati.......nessuno diamine e compri ancora ati........ler vga ati vanno meravigliosamente

Mr_Paulus
12-12-2008, 20:10
beh tu sei uno dei pochi che hanno problemi con la nvidia... forse per via del chipset come potrebbe essere con i miei chipset nvidia...

ma resta sempre e cmq il fatto che sono gli utenti che hanno ati ad ever problemi con driver o schede bruciate ... molti di più che la concorrenza nvidia

posta i dati che affermano ciò.


comunque io ho avuto ati (9200SE) e nvidia (6800 GT signora scheda) e ho avuto problemi con entrambe :fagiano:

okorop
12-12-2008, 20:15
e dopo l'ennesima sconfitta commerciale nvidia cambio asset da prodittrice di gpu passo a produrre fornelletti elettrici (tutte le x2 che ha fatto) e ferma carte :asd:

Polpi_91
12-12-2008, 20:16
speriamo che chiuda definitivamente nvidia.......:sperem:

mi sembra fin esagerata questa affermazione perchè, se nvidia chiude, viene meno la concorrenza, ati si siede sugli allori e fa come ha fatto fino a poco fa nvidia.

non credo che ciò vada a nostro vantaggio

Polpi_91
12-12-2008, 20:18
e dopo l'ennesima sconfitta commerciale nvidia cambio asset da prodittrice di gpu passo a produrre fornelletti elettrici (tutte le x2 che ha fatto) e ferma carte :asd:

potrebbe anche darsi alla produzione di tagliaerba visto il rumore di certe sue ventole con le schede vecchie

goldorak
12-12-2008, 20:23
beh tu sei uno dei pochi che hanno problemi con la nvidia... forse per via del chipset come potrebbe essere con i miei chipset nvidia...


Ah beh certo il chipset :sbonk:
Uso uno dei chipset piu' stabili in assoluto l'intel 975X con ram ecc. Non overclockko, la scheda audio creative va da dio (sono un miracolato :asd: ).
Ma invece di riconoscere che i driver nvidia fanno pena, no no la colpa e' dell'aria, del cielo, delle stelle e chi piu' ne ha piu' ne metta. :rolleyes:
Sono uno dei pochi eh ? Allora leggi qui :

http://forums.nvidia.com/index.php?act=idx
http://www.nvnews.net/vbulletin/forumdisplay.php?f=5

forum espressamente dedicati alle Nvidia e vedi quanti hanno problemi coi drivers.


ma resta sempre e cmq il fatto che sono gli utenti che hanno ati ad ever problemi con driver o schede bruciate ... molti di più che la concorrenza nvidia

:sbonk: come non detto, leggi i due link che ti ho postato sopra o pensi che siano dei forum di ATI-isti cammuffati da Nvidisti per spargere veleno ? :rolleyes:

gianni1879
12-12-2008, 20:31
da quello che dice il link sembra che ati sia sempre stata sopra a nvidia.. a me pare proprio ben il contrario..

se questa volta ati fa le cose come dovrebbero essere fatte allora bene altrimenti farà come ha sempre fatto rimanendo dopo nvidia come è sempre stato in questi ultimi anni
la nvidia è più furba

io ricordo un pò diversamente le cose, se non per il caso recente G80 vs R600 e derivati G92 vs Rv670

gianni1879
12-12-2008, 20:33
beh tu sei uno dei pochi che hanno problemi con la nvidia... forse per via del chipset come potrebbe essere con i miei chipset nvidia...

ma resta sempre e cmq il fatto che sono gli utenti che hanno ati ad ever problemi con driver o schede bruciate ... molti di più che la concorrenza nvidia

hai fonti ufficiali?

perchè ho la vaghissima impressione che tu stia generalizzando un pò troppo.

Schede bruciate sono state Powercolor, per i driver a volte i problemi sono da ricercare altrove

Bhairava
12-12-2008, 20:51
Ragazzi, ignoratelo, è solo un flamer di professione.

Beltra.it
12-12-2008, 20:54
Ah beh certo il chipset :sbonk:
Uso uno dei chipset piu' stabili in assoluto l'intel 975X con ram ecc. Non overclockko, la scheda audio creative va da dio (sono un miracolato :asd: ).
Ma invece di riconoscere che i driver nvidia fanno pena, no no la colpa e' dell'aria, del cielo, delle stelle e chi piu' ne ha piu' ne metta. :rolleyes:
Sono uno dei pochi eh ? Allora leggi qui :

http://forums.nvidia.com/index.php?act=idx
http://www.nvnews.net/vbulletin/forumdisplay.php?f=5

forum espressamente dedicati alle Nvidia e vedi quanti hanno problemi coi drivers.



:sbonk: come non detto, leggi i due link che ti ho postato sopra o pensi che siano dei forum di ATI-isti cammuffati da Nvidisti per spargere veleno ? :rolleyes:

non ho detto che è solo ati ad aver problemi....
ma per percentuali... ati supera nvidia

così fino al 2007.. quest'anno se nvidia non ha proprio fatto schede di cacca.. ma non mi sembra a parte la 260 192 che potevano risparmiarsi di farne addirittura 3 versioni.. (che poi non capisici bene quale vai a comprare)
ma cmq in diversi anni i guasti su schede ati è maggiore di quelli nvidia..

yossarian
12-12-2008, 20:57
non ho detto che è solo ati ad aver problemi....
ma per percentuali... ati supera nvidia

così fino al 2007.. quest'anno se nvidia non ha proprio fatto schede di cacca.. ma non mi sembra a parte la 260 192 che potevano risparmiarsi di farne addirittura 3 versioni.. (che poi non capisici bene quale vai a comprare)
ma cmq in diversi anni i guasti su schede ati è maggiore di quelli nvidia..

e tu, nonostante eri al corrente di tutti questi problemi (driver schifosi, schede che si bruciano, processori che "prendono la cacca dalla concorrenza"), hai voluto rischiare e hai preso una 4870?
Allora sei masochista! :D

Beltra.it
12-12-2008, 20:58
Ragazzi, ignoratelo, è solo un flamer di professione.

vedo con piacere che ti diverti a offendermi anche con la firma...

Beltra.it
12-12-2008, 21:01
e tu, nonostante eri al corrente di tutti questi problemi (driver schifosi, schede che si bruciano, processori che "prendono la cacca dalla concorrenza"), hai voluto rischiare e hai preso una 4870?
Allora sei masochista! :D

quando l'ho presa ero fiducioso e pensavo che ormai si fossero risolti sti problemi.. quando poi ho montato il multischermo... i problemi sono cominciati a comparire... bluscreen e driver video ripristinato...
col multischermo ho letto in altri forum che nessuno (per quelli che ho trovato) è riuscito a risolvere questo problema definitivamente.. e si persiste dagli 8.7...

Bhairava
12-12-2008, 21:01
yoss non ti sprecare :asd: sono settimane che va avanti così....

yossarian
12-12-2008, 21:06
quando l'ho presa ero fiducioso e pensavo che ormai si fossero risolti sti problemi.. quando poi ho montato il multischermo... i problemi sono cominciati a comparire... bluscreen e driver video ripristinato...
col multischermo ho letto in altri forum che nessuno (per quelli che ho trovato) è riuscito a risolvere questo problema definitivamente.. e si persiste dagli 8.7...

io, al tuo posto, sarei andato sul sicuro, senza correre rischi. Se sapevi che nVIDIA non aveva problemi dovevi comprare nVIDIA. Quando spendi centinaia di €, la scelta deve essere oculata e ben documentata (soprattutto documentata, direi)

Beltra.it
12-12-2008, 21:07
yoss non ti sprecare :asd: sono settimane che va avanti così....

ma visto che parli tanto... trovami tu allora la soluzione al mio problema con multischermo e vista64Bit.. su 2 pc diversi...

ovvio... senza disinstallare il CCC visto che è anche un'applicazione di ati

Mr_Paulus
12-12-2008, 21:08
ma visto che parli tanto... trovami tu allora la soluzione al mio problema con multischermo e vista64Bit.. su 2 pc diversi...

ovvio... senza disinstallare il CCC visto che è anche un'applicazione di ati

compra nvidia :asd:

Bhairava
12-12-2008, 21:08
compra nvidia :asd:

bravo :asd:

Tioz90
12-12-2008, 21:09
o perfetto prendi nvidia che cosi ci risparmiamo le tue continue lamentele son contento....
comunque 4850new=4870
4870new=gtx280
4870x2 4 gb di vram sta volta=gtx280 sli :eek:

Mm, che schede sarebbero?:fagiano:

Beltra.it
12-12-2008, 21:10
io, al tuo posto, sarei andato sul sicuro, senza correre rischi. Se sapevi che nVIDIA non aveva problemi dovevi comprare nVIDIA. Quando spendi centinaia di €, la scelta deve essere oculata e ben documentata (soprattutto documentata, direi)

al tempo non mi ero posto la domanda: con multischermo va o non va? (anche perchè non avevo in progetto questa configurazione)
la scheda la avevo presa per occasione di prezzo.. e seguivo questa discussione da qualche settimana prima di prenderla..

quando ho messo il multischermo che mi da problemi.. e con gli ultimi driver anche cali di prestazioni

con i driver 8.10 non ho cali di prestazioni ma sono molto più instabili di questi ultimi e degli 8.11

Mister Tarpone
12-12-2008, 21:10
Mm, che schede sarebbero?:fagiano:

le prossime RV775

The_SaN
12-12-2008, 21:11
ma visto che parli tanto... trovami tu allora la soluzione al mio problema con multischermo e vista64Bit.. su 2 pc diversi...

ovvio... senza disinstallare il CCC visto che è anche un'applicazione di ati

Ragazzo, i problemi a volte succedono...
La sfi...sfortuna é dietro l'angolo ;)

Ma se a te la scheda non va al 100% causa driver, non vuol dire che questi siano peggiori di quelli nVidia o che siano meno stabili.
Ci sono studi documentati (con grafici) che dimostrano esattamente il contrario di quello che affermi...poi se non ti senti soddisfatto la concorrenza esiste proprio per questo.
Basta che non si vada avanti con disinformazione e discorsi a testa calda.

Tioz90
12-12-2008, 21:12
le prossime RV775

Qualche link per informarmi?

The_SaN
12-12-2008, 21:13
al tempo non mi ero posto la domanda: con multischermo va o non va? (anche perchè non avevo in progetto questa configurazione)
la scheda la avevo presa per occasione di prezzo.. e seguivo questa discussione da qualche settimana prima di prenderla..

quando ho messo il multischermo che mi da problemi.. e con gli ultimi driver anche cali di prestazioni

con i driver 8.10 non ho cali di prestazioni ma sono molto più instabili di questi ultimi e degli 8.11

Come hai tolto i driver vecchi prima di mettere quelli nuovi?
Hai formattato quando hai installato la scheda?

Comunque sono cose da discutere nel thread ufficiale della scheda in questione.

Bhairava
12-12-2008, 21:14
Come hai tolto i driver vecchi prima di mettere quelli nuovi?
Hai formattato quando hai installato la scheda?

Comunque sono cose da discutere nel thread ufficiale della scheda in questione.

:rotfl: :rotfl:

Ma non avete ancora capito?
Sono settimane che flamma sul thread ufficiale, non c'è da risolvere nessuno problema, è solo flame!

The_SaN
12-12-2008, 21:16
:rotfl: :rotfl:

Ma non avete ancora capito?
Sono settimane che flamma sul thread ufficiale, non c'è da risolvere nessuno problema, è solo flame!

Ah ecco, é da un po' che non seguo il thread ufficiale :D

Beltra.it
12-12-2008, 21:17
Come hai tolto i driver vecchi prima di mettere quelli nuovi?
Hai formattato quando hai installato la scheda?

Comunque sono cose da discutere nel thread ufficiale della scheda in questione.

si si cmq ho provato su 2 configurazioni differenti sempre però in multischermo ovviamente disinstallando i vecchi pulendo il registro e installando i nuovi

gianni1879
12-12-2008, 21:17
Come hai tolto i driver vecchi prima di mettere quelli nuovi?
Hai formattato quando hai installato la scheda?

Comunque sono cose da discutere nel thread ufficiale della scheda in questione.

appunto quì si è leggermente :ot:

Beltra.it
12-12-2008, 21:31
Io non ho nessun problema col multischermo...

vista64?

cmq sorry fine OT

Foglia Morta
12-12-2008, 21:33
io, al tuo posto, sarei andato sul sicuro, senza correre rischi. Se sapevi che nVIDIA non aveva problemi dovevi comprare nVIDIA. Quando spendi centinaia di €, la scelta deve essere oculata e ben documentata (soprattutto documentata, direi)

Avevi ipotizzato un die size di 160-170mm2 per un RV770 prodotto a 40nm, quindi circa il 35% in meno che a 55nm.

RV730 è 146mm2 . Se fosse valida la stessa proporzione ( e in teoria dovrebbe esserlo ) a 40nm dovrebbe essere circa 95mm2 . Ma se ciascun SIMD avesse il doppio di alu ( come in RV770 ) , quindi 640 in tutto , secondo te che die size avrebbe ?

DarKilleR
12-12-2008, 21:35
si si cmq ho provato su 2 configurazioni differenti sempre però in multischermo ovviamente disinstallando i vecchi pulendo il registro e installando i nuovi

io uso il multi-schermo a partire dalla 9700Pro e non ho mai avuto problemi di alcun genere, problemi che invece ho avuto spesso con nVidia...

Soprattutto se uno doveva giocare ad un gioco, doveva mettersi i driver per quel gioco...se vuoi giocare a 3 giochi, a smadonnare tra i driver per cambiarli..

Poi gli nVidia sono molto ostici se si usano TV collegate in HDMI, cosa che le ati non hanno come problemi...e così si potrebbe andare avanti molto a lungo.
Per l'amor di dio tutte cose per fortuna risolvibili googlando e smanettando...
Però sotto windows forse sono molto più user-friendly, stabili e configurabili i driver ATI rispetto agli nVidia..
Cosa completamente diversa su linux, non avete idea quello che ho patito per far andare linux sulla mia X1950Pro...per poi rinunciare, quando sul muletto con una TNT2 M64 andavo da dio...


Poi è sempre bene ricordare che il 99% dei problemi stanno tra la sedia e la tastiera!

FreeMan
12-12-2008, 21:37
:rotfl: :rotfl:

Ma non avete ancora capito?
Sono settimane che flamma sul thread ufficiale, non c'è da risolvere nessuno problema, è solo flame!

Ragazzi, ignoratelo, è solo un flamer di professione.

yoss non ti sprecare :asd: sono settimane che va avanti così....

anche questo è flammare.. segnali e lasci decidere chi di dovere, non sta a te giudicare il comportamento degli altri utenti, hai già problemi con la gestione del tuo comportamento, non ti allargare.

sospeso 5gg

>bYeZ<

Beltra.it
12-12-2008, 21:47
io uso il multi-schermo a partire dalla 9700Pro e non ho mai avuto problemi di alcun genere, problemi che invece ho avuto spesso con nVidia...

Soprattutto se uno doveva giocare ad un gioco, doveva mettersi i driver per quel gioco...se vuoi giocare a 3 giochi, a smadonnare tra i driver per cambiarli..

Poi gli nVidia sono molto ostici se si usano TV collegate in HDMI, cosa che le ati non hanno come problemi...e così si potrebbe andare avanti molto a lungo.
Per l'amor di dio tutte cose per fortuna risolvibili googlando e smanettando...
Però sotto windows forse sono molto più user-friendly, stabili e configurabili i driver ATI rispetto agli nVidia..
Cosa completamente diversa su linux, non avete idea quello che ho patito per far andare linux sulla mia X1950Pro...per poi rinunciare, quando sul muletto con una TNT2 M64 andavo da dio...


Poi è sempre bene ricordare che il 99% dei problemi stanno tra la sedia e la tastiera!

a me li da su 2 pc differenti con vista64 (molti dicono sia il CCC e vista64) ma il CCC mi serve.. ATT è incompatibile con x-fire e altre applicazioni.. con la 7600GT multischermo e giochi nessun problema (togliendo le prestazioni ovvio perchè con un 22 la vedo dura) grazie per le info
cmq davvero fine OT

okorop
13-12-2008, 01:36
Qualche link per informarmi?

vai una pagina pagina indietro; comunque la xt avrà 900 di core 1000 di ram gddr5 840 sp 1 gb di vram.....

Foglia Morta
13-12-2008, 09:36
Non mi pare una mossa ispirata dall' ottimismo sulle vendite di nVidia

Usa parole "importanti": We've managed to confirm...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10918&Itemid=1

We've managed to confirm that XFX will join the ATI camp at the start of the new year. XFX won't drop Nvidia products, either, but obviously, Nvidia won't be thrilled by this turn of events.

There's been a lot of talk of Nvidia partner defections and reshuffles in recent months, and some have already gone red. XFX is just following the trend and leaving Nvidia in a rather awkward situation of having just a single powerful Nvidia exclusive partner - EVGA.

We can't say we're surprised; after all, we've reported about strains in Nvidia-AIB partner relations on many occasions. Low margins, the lack of competitive products in several market segments, coupled with the economic slowdown which is exascerbating the situation further, are obviously pushing Nvidia AIBs to embrace ATI.

We will try to find out more and see how Nvidia reacts to this latest development, so stay tuned.

mircocatta
13-12-2008, 09:36
ma visto che parli tanto... trovami tu allora la soluzione al mio problema con multischermo e vista64Bit.. su 2 pc diversi...

ovvio... senza disinstallare il CCC visto che è anche un'applicazione di ati

mmmmm

1) il CCC non è una applicazione ati, è un programma come rivatuner o ATT.
2) io scarico sempre solo i driver senza CCC perchè quello che fa CCC lo fa male rispetto agli altri programmi

gianni1879
13-12-2008, 10:37
Non mi pare una mossa ispirata dall' ottimismo sulle vendite di nVidia

Usa parole "importanti": We've managed to confirm...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10918&Itemid=1

We've managed to confirm that XFX will join the ATI camp at the start of the new year. XFX won't drop Nvidia products, either, but obviously, Nvidia won't be thrilled by this turn of events.

There's been a lot of talk of Nvidia partner defections and reshuffles in recent months, and some have already gone red. XFX is just following the trend and leaving Nvidia in a rather awkward situation of having just a single powerful Nvidia exclusive partner - EVGA.

We can't say we're surprised; after all, we've reported about strains in Nvidia-AIB partner relations on many occasions. Low margins, the lack of competitive products in several market segments, coupled with the economic slowdown which is exascerbating the situation further, are obviously pushing Nvidia AIBs to embrace ATI.

We will try to find out more and see how Nvidia reacts to this latest development, so stay tuned.

mmmh dopo le splendide gainward sarebbe una bella mossa

okorop
13-12-2008, 11:24
mmmh dopo le splendide gainward sarebbe una bella mossa

una gran mossa di ati e un duro colpo per nvidia......

michelgaetano
13-12-2008, 12:19
Le BE rosse non andranno giù a qualcuno :asd:

Contento di vedere un partner importante anche dall'altro lato, fa sicuramente bene.

TheDarkAngel
13-12-2008, 13:26
:mbe: :confused:

credo sia impazzito

mircocatta
13-12-2008, 13:46
:mbe: :confused:

scusate :confused: ma non eravate voi a dire che il CCC è fatto da altra gente al di fuori di ati? intendo dire che non è come il pannello di controllo di nvidia che è fatto proprio da nvidia.... o ricordo male (impossibile, ho letto per filo per segno questa cosa quindi sono stato per forza male informato se sto errando)
credo sia impazzito
:ciapet:

TheDarkAngel
13-12-2008, 13:48
:ciapet:

credo ti stia confondendo con l'att :stordita: ccc è il pannello di ati, fatto da ati e che scarichi dal sito ati insieme ai driver, più ati di così non lo trovi :stordita:

mircocatta
13-12-2008, 13:58
credo ti stia confondendo con l'att :stordita: ccc è il pannello di ati, fatto da ati e che scarichi dal sito ati insieme ai driver, più ati di così non lo trovi :stordita:

allora ripeto, mi hanno informato male :stordita:
io avevo capito che il ccc era come att solo che era stato scelto da ati per essere implementato nei driver ;)

Polpi_91
13-12-2008, 14:02
allora ripeto, mi hanno informato male :stordita:
io avevo capito che il ccc era come att solo che era stato scelto da ati per essere implementato nei driver ;)

chiunque te lo abbia detto ha sparato una grandissima cavolata

halduemilauno
13-12-2008, 14:36
aggiornamenti...
http://www.hardware-infos.com/news.php?news=2581

WITH NVIDIA'S GTX 295 announcement just around the corner, the satanic rumourmill - as Nick fondly puts it - is in overdrive once again, fuelled by leaked specs and a vivid imagination, it seems.

What are we talking about? Well, several Chinese forums were a-buzz today with talk of a RV775XT and RV775Pro, alleged derivatives of the current RV770 marchitecture with some odd bits and pieces of additional tech - smaller dies on the same process without a re-design, for example. This included a return to GDDR4, die sizes mysteriously shrinking on a 55nm process, and some extra stream processors and TMUs.

The most interesting part of the posts was the one about DAAMIT having refined the fabbing process resulting in better yields that would allow it to put out parts with lower redundancy, that is, less silicon set aside for the eventuality of a manufacturing defect. This would mean some serious cherry-picking taking place and a limited supply of cards, at best, not to mention the economics of the thing...

We rang up ATI's Chris Hook about this and he clarified several points about those specifications. The general consensus is that someone compiled fragments of possible products and put them in a nice looking table. While, in good PR fashion, not admitting or denying anything we threw at him, he did help us figure out what's wrong with the info.

ATI won't be launching anything in January, that's more or less guaranteed. A refresh to the current range of cards will be launched over the course of 1H-09, but not as early as January (CeBIT sounds like as good a time as any). That will include a delayed RV740 derivative and a suped-up RV770, which should receive the HD 49xx moniker. GDDR3 and GDDR5 will remain the memory bits and pieces, but ATI has dropped GDDR4 for good... too expensive and too much like GDDR5, said the Cap'n. Now the juicy bit is that AMD has narrowed down the 40nm parts launch to the first half of 2009 too, so between the derivatives and the shrinks there will be plenty of options on the market in 2009.

Last, but certainly not least, the 58xx series cards will be reserved for Q4 2009 and will pair up with Microsoft's DirectX 11 launch. So fanbois and fangoils, you'll have to wait a while.

There was more but we were sworn to secrecy, under penalty of death by Sasquatch buggery. We'll keep it to ourselves. µ


http://www.hardware-infos.com/news.php?news=2581

AMD: RV775/RV740 in 1H/09, DirectX 11 in Q4/09
Gestern sind im Web erste, ausführliche Informationen zum ATI-RV770-Refresh namens RV775 aufgetaucht. Die perfekt aussehenden Spezifikationen hatten aber diverse Makel, auf die wir ausführlich im Bericht eingegangen sind. Ähnlich sahen dies offenbar auch die Kollegen von The Inquirer und wandten sich daher AMD zu. Dabei erfuhr man nicht nur erste, offzielle Informationen zum RV770-Refresh, sondern auch nähere Details über den ersten ATI-40-nm-Chip und den Next-Generation-Chip.

Chris Hook, AMD, ließ gegenüber The Inquirer verlauten, dass es im Januar 2009 definitiv keinen neuen ATI-Grafikchip geben werde. Expreview hatte für diesen Monat den Launch des RV775XT prognostiziert.
Auch den Einsatz von GDDR4-Speicher schloss er kategorisch aus - dieser wurde bei der RV775PRO angesichts 1400 MHz Speichertakt gemutmaßt.

Hook versprach jedoch, dass es im Laufe des ersten Halbjahres 2009 neue ATI-Produkte geben werde. Konkret meint er damit zum einen den RV740, einen in 40 nm-gefertigten Mainstream-Chip, der die Nachfolge des RV730, der auf HD 4670 und HD 4650 verbaut ist, antreten soll und zum anderen den Refresh-Chip des RV770, der als Radeon HD 49xx in den Handel gelangen soll. Eben genannte Chips werden entweder auf GDDR3- oder GDDR5-Speicher vertrauen.
The Inquirer glaubt an einen Launch zur CeBIT im März 2009, ATI-Forum beruft sich auf Insiderquellen und spricht von einem Launch gar im Februar 2009.

Eine komplett neue Grafikkartengeneration, so AMD weiter, werde es erst im vierten Quartal 2009 unter der erwartungsgemäßen Bezeichnung HD 58xx geben - DirectX-11-Support inklusive.
Zuletzt ging man davon aus, dass der RV870 Mitte 2009 das Licht der Welt erblicken würde und war sich auch relativ sicher, dass DirectX-11-Unterstützung mit an Bord sein würde.
;)

The_SaN
13-12-2008, 14:40
Sono curioso di vedere se oltre alle dimensioni hanno ridotto il consumo.
Perché se son veri i 900MHz di core, c'é da pregare per un voltaggio minore.

Beltra.it
13-12-2008, 14:53
una gran mossa di ati e un duro colpo per nvidia......

mah diventerà probabilmente un periodo di batti e ribatti per tutti e 2.. per conquistare il primo posto... penso sia più dura ora scegliere per molti utenti

Athlon 64 3000+
13-12-2008, 15:41
sembrerebbe confermato quindi che GT300 e RV870 usciranno nel Q4 2009 e quindi tra 10-12 mesi e quindi chissa se ad andare a quel periodo sarà più longeva le HD 4870 512MB o la 1gb.

okorop
13-12-2008, 15:44
Le BE rosse non andranno giù a qualcuno :asd:

Contento di vedere un partner importante anche dall'altro lato, fa sicuramente bene.

lol e me la prendo pero' x2 be xfx super clocked ultra :asd:

Kharonte85
13-12-2008, 15:53
aggiornamenti...
Secondo loro le specifiche circolate sono false e pare certo che AMD non presenterà nessuna scheda a Gennaio.

okorop
13-12-2008, 16:00
Secondo loro le specifiche circolate sono false e pare certo che AMD non presenterà nessuna scheda a Gennaio.

so solo che tutti coloro che sono informati di sta cosa attenderanno il rilascio di entrambe le nuove gpu mentre i niubbi compreranno sempre g80 rv670 :asd:

Athlon 64 3000+
13-12-2008, 16:16
A me non interessano i refresh delle attuali gpu AMD e Nvidia,ma interessa sapere quando usciranno RV870 e GT300.

The_SaN
13-12-2008, 17:15
A detta di AMD ogni 6 mesi dovrebber rilasciare qualcosa, con un sistema di tipo Tick-Tock. E RV770 è uscito a giugno, questo è i motivo per cui ho detto "prima della fine dell'inverno".

Ma le specifiche circolate sono effettivamente poco credibili, per motii detti un po' da tutti. Se le differenze saranno minime rispetto a RV770 a livello architetturale posso scommettere che non saranno 840SP ma sensibilmente di più, pronto anche a scommettere che le frequenze saranno simili a quelle di RV770 stesso, ma il tutto sul nuovo processo 40nm. Fare un refresh uguale allo step precedente non alcun senso né commerciale, né economico.

Anche io propendo per piú SP e meno frequenza, come la storia di AMD ci ha insegnato.
Per rv770 si parlava di 480-640SP a 850-900-1000MHz e invece hanno sfornato 800SP a 750MHz.
Sono invece dubbioso sui 40nm...ma chissá che non ci facciano un'altra sorpresina :D

okorop
13-12-2008, 17:42
Anche io propendo per piú SP e meno frequenza, come la storia di AMD ci ha insegnato.
Per rv770 si parlava di 480-640SP a 850-900-1000MHz e invece hanno sfornato 800SP a 750MHz.
Sono invece dubbioso sui 40nm...ma chissá che non ci facciano un'altra sorpresina :D

già se sara a 55nani la x2 sarà mia poi se sarà a 40 nani :eek:
comunque se la gamma sarà il 20% piu veloce dell'attuale la nuova x2 himo batterà quella ciofeca della gx2 nvidia .......la morte nera II :Perfido: o per meglio dire la morte dei verdi II :asd: :sofico: :asd:

Foglia Morta
14-12-2008, 13:48
mmmh dopo le splendide gainward sarebbe una bella mossa

Martedì dovrebbero parlarne...

http://www.hexus.net/content/item.php?item=16611

HEXUS can confirm that one of NVIDIA's strongest AIB supporters, XFX, will be signed up as an ATI (AMD) card partner in the very near future.

What that means is that XFX, with its glitzy marketing and XXX Edition cards, will be bringing all this marketing know-how to ATI's GPUs - presumably encompassing the entire line-up of 2-, 3-, and 4-series SKUs.

HEXUS has learned that a formal announcement, detailing the exact relationship between XFX and AMD/ATI, is expected next Tuesday.

What's important to note is that XFX will still be producing NVIDIA-based cards, but it's interesting to see that XFX has chosen a time when NVIDIA is in a strong position to drop brand exclusivity. Perhaps it was a case of NVIDIA laying down the law one too many times, or, more likely, XFX needed to diversify its interests a little.

How does this play out with the likes of Sapphire and HIS, time will only tell, but XFX has just pulled on Santa's outfit - red, of course - and will be doling out Radeon HD 4870s in the new year.

More info as we get it.

okorop
14-12-2008, 15:34
ma allora quandoe scono ste gpu? io ne ho bisogno di almeno due per il pc....:asd:

+Lonewolf+
15-12-2008, 11:17
anche io sn in attesa di pensionare la mia 2900...

+Lonewolf+
15-12-2008, 11:25
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10930&Itemid=34

Quello che è difficile capire è se quello che scrive è una conferma di quello che penso e ho scritto io o se quello che ho scritto io è stato lo spunto per lui per scrivere la news :asd: :Perfido:

:asd: ti ha copiato

Polpi_91
15-12-2008, 11:55
ma allora quandoe scono ste gpu? io ne ho bisogno di almeno due per il pc....:asd:

mi sa non prima di marzo

http://www.hwupgrade.it/news/skvideo/ati-radoen-hd-4900-non-prima-di-marzo-2009_27486.html

Athlon 64 3000+
15-12-2008, 18:24
se il refresh di RV770(RV775 o RV790) sarà a 40 nm sarebbe incredibile e questo comporterebbe un notevole calo dei consumi della scheda video rispetto alle HD 4850 e HD 4870.

Foglia Morta
16-12-2008, 11:22
XFX e AMD è ufficiale:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10957&Itemid=1

AMD has announced that XFX has become an AMD add-in-board partner. We already wrote about XFX's plans to join the ATI camp, here. XFX expects to offer ATI HD 4000 series products in early 2009.

Michael Chiu, Chairman and CEO, Pine Technologies Holdings, makers of XFX graphics cards praised AMD for redefining the graphics market with the HD 4000 series. He also added that AMD gaming performance alone wasn't what caught XFX's attention, but rather a multitude of multimedia technologies used in AMD graphics cards, including video transcoding, HD playback and audio capabilities.

This leaves EVGA as the only strong Nvidia only as BFG has lost its mojo quite some time ago. EVGA will definitely get some preferencial treatment as it is Nvidia's number one partner in the USA and Nvidia really feels betrayed as XFX is the creative it created and then got betrayed.

We still have no details on upcoming ATI XFX cards, but if Gainward's entry into the ATI world is anything to go by, the company will adapt in no time.

IMO sarebbe meglio commercializzare le schede con lo stesso simbolo ma sostituendo il rosso al verde

http://www.fudzilla.com/images/stories/Logos/xfx.jpg

Athlon 64 3000+
16-12-2008, 11:25
http://www.digitimes.com/news/a20081216PD202.html

Foglia Morta
16-12-2008, 11:28
ma allora quandoe scono ste gpu? io ne ho bisogno di almeno due per il pc....:asd:

voci parlano di RV740 e il refresh di RV770 nel Q1 . RV740 ( dal nome dovrebbe essere una gpu di fascia bassa ) dovrebbe usare GDDR5. Poco dopo dovrebbe uscire RV870. Si vedrà ;)

Foglia Morta
16-12-2008, 11:34
http://www.digitimes.com/news/a20081216PD202.html

Stavolta Digitimes la spara proprio... fanno il die shrink di GT200 , fanno la scheda dual-gpu e poi in 2 mesi la sostituirebbero con un altra gpu :sofico: .
A me pare che stiano circolando codenames difficilmente associabili alla tradizionale fascia di prezzo in cui ci aspetteremmo di vederle.

riportiamo:

Nvidia is planning to launch its next-generation high-end GT300 GPU in the first quarter of 2009. The GPU will be manufactured under a 55nm process, according to sources at graphics card makers.

The company is also planning to showcase two GT200-based cards at CES 2009, which will start on January 8.

The GeForce GTX 295 features two 55nm GT200 GPUs, while the GeForce GTX 285 will have a single GT200 GP, noted the sources.

The core frequencies of the two cards will be 10-15% faster than Nvidia's previous generation cards, while power consumption is 10-15% lower.

Nvidia declined the opportunity to respond to this report saying it cannot comment on unannounced products.

okorop
16-12-2008, 13:18
voci parlano di RV740 e il refresh di RV770 nel Q1 . RV740 ( dal nome dovrebbe essere una gpu di fascia bassa ) dovrebbe usare GDDR5. Poco dopo dovrebbe uscire RV870. Si vedrà ;)

poco dopo quando giugno? perchè adesso provo nvidia e poi tornero' con amd ati naturalmente con rv870.....

Mister Tarpone
16-12-2008, 13:21
voci parlano di RV740 e il refresh di RV770 nel Q1 . RV740 ( dal nome dovrebbe essere una gpu di fascia bassa ) dovrebbe usare GDDR5. Poco dopo dovrebbe uscire RV870. Si vedrà ;)

la RV740 doverebbe essere la sostituata della 4670 sbaglio??....
credo sarà sempre a 128bit ma con le gddr5 e -magari- 480sp dovrebbe venire molto bellina come scheda per giocare bene spendendoci poco.. .. . . .. . . . . .e via..... . . . . .

okorop
16-12-2008, 13:23
la RV740 doverebbe essere la sostituata della 4670 sbaglio??....
credo sarà sempre a 128bit ma con le gddr5 e -magari- 480sp dovrebbe venire molto bellina come scheda per giocare bene spendendoci poco.. .. . . .. . . . . .e via..... . . . . .

giocare bene? si a 800x600 :asd: cipet (http://i32.tinypic.com/m96bft.jpg)

Mister Tarpone
16-12-2008, 13:23
poco dopo quando giugno? perchè adesso provo nvidia e poi tornero' con amd ati naturalmente con rv870.....


ed ecco un nuovo traditore. :sbonk: (pure io però :asd:)

giocare bene? si a 800x600 :asd: cipet (http://i32.tinypic.com/m96bft.jpg)

:sbonk: :sbonk:
esatto... come fa adesso la 4670 in pratica.... :asd: ;)

okorop
16-12-2008, 13:24
ed ecco un nuovo traditore. :sbonk: (pure io però :asd:)

che ti devo dire la gtx285 mi stuzzica assai proviamola.....:sofico:
poi dai traditor (sta cosa del fanboysmo mi sembra una emerita cavolata ciapet (http://i32.tinypic.com/m96bft.jpg)).....e semmai se non mi piacerà assai faccio presto a rivenderla e prendere a giugno al lancio una 5870.....