PDA

View Full Version : ATI Radeon HD 4900: non prima di Marzo 2009


Redazione di Hardware Upg
15-12-2008, 12:08
Link alla notizia: http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-4900-non-prima-di-marzo-2009_27486.html

Previsto per il Cebit di Hannover, a Marzo 2009, il debutto della prossima generazione di schede video ATI top di gamma

Click sul link per visualizzare la notizia.

p4ever
15-12-2008, 12:19
approvo la decisione di ati/amd di aspettare con l'evoluzione 49xx...ancora per i prox mesi sfrutterà i ribassi di prezzo della serie 4850/4870, e starà a guardare le mosse di nvidia, cosi non sarà ati ad inseguire, ma viceversa...:D

ghiltanas
15-12-2008, 12:22
io ormai aspetto gennaio per il pc nuovo e molto probabilmente punterò su una 4870 ulteriormente abbassata di prezzo, poi la prossima gpu si andrà di dx11 ;)

bs82
15-12-2008, 12:28
Lo sanno anche i muri che RV770 ha 880 SP, 80 dei quali di "ridondanza"... e vista l'ottima resa produttiva a loro non costa niente renderne disponibili 40.

InPrima c'era 1 sp di scorta ogni 10.

Mi pare che questo articolo sia a conoscenza di tutti eh....
http://www.anandtech.com/video/showdoc.aspx?i=3469&p=3

Helldron
15-12-2008, 12:30
ATI fa bene visto che le schede attuali gestiscono molto bene i giochi. La serie 58x0 può aspettare mentre la prossima 4900 direi che è la naturale evoluzione di quelle attuali.

OmgKllL
15-12-2008, 12:58
asd la serie 4800 è praticamente una 4900 castrata :D che puzzoni....

gianni1879
15-12-2008, 13:08
asd la serie 4800 è praticamente una 4900 castrata :D che puzzoni....

eh eh in effetti, quindi 40sp in più se non 80, e frequenze più elevate, andranno un 10/15% in più delle attuali

Obi 2 Kenobi
15-12-2008, 13:29
Ma pensare di più ai consumi che alle prestazioni, no eh?

matteo1
15-12-2008, 13:31
Ma pensare di più ai consumi che alle prestazioni, no eh?

la 4670 è la risposta alla tua domanda

Obi 2 Kenobi
15-12-2008, 13:35
no dico che ogni volta che c'è una nuova generazione di schede video ci sono anche 80-100watt in più. Quindi rifaccio la domanda:
"Ma pensare di più ai consumi che alle prestazioni, no eh?"

tmx
15-12-2008, 13:36
tutto qui...?

3 mesi dopo l'affinamento della tecnologia produttiva di nvidia loro se ne escono RI-abilitando 40 delle 80 SP di scorta?

e le rinominano 49x0???

non sto flammando, in questo millennio ho comprato solo ATI... è che sono un filo deluso; mi aspettavo ancora qualche coniglio dal cilindro dei 55nm...
vero è che questa generazione possono permettersi di tenerla in ballo parecchio a lungo!

vabbè meglio aspettare le 58x0 IMHO

mar81
15-12-2008, 13:51
chiedo qui perchè nei topic ufficiali si rifiutano di ripondermi...

hanno risolti i problemi di consumi eccessivi in IDLE della serie 48xx?

(aka powerplay poco funzionante)

grazie

ranf
15-12-2008, 13:51
no dico che ogni volta che c'è una nuova generazione di schede video ci sono anche 80-100watt in più. Quindi rifaccio la domanda:
"Ma pensare di più ai consumi che alle prestazioni, no eh?"

e io ti faccio questa domanda......
Sai già i consumi di queste GPU?

Non si sa ne la frequenza, ne quanti stream processor avrà e già ti lamenti dei consumi dei quali non si sa niente.......:D

ghiltanas
15-12-2008, 14:02
chiedo qui perchè nei topic ufficiali si rifiutano di ripondermi...

hanno risolti i problemi di consumi eccessivi in IDLE della serie 48xx?

(aka powerplay poco funzionante)

grazie

anch'io l'ho chiesto ma nessun mi risp

Obi 2 Kenobi
15-12-2008, 14:03
e io ti faccio questa domanda......
Sai già i consumi di queste GPU?

Non si sa ne la frequenza, ne quanti stream processor avrà e già ti lamenti dei consumi dei quali non si sa niente.......:D

ovvio che non lo so ma do già per scontato che avranno dei consumi elevatissimi.

Danji
15-12-2008, 14:04
ATI Radoen.... cambiano anche il nome? Così magari sembra una scheda totalmente nuova? ;)
Direi che c'è un'errore sul tito :)

MiKeLezZ
15-12-2008, 14:13
Fudzilla smentisce tutto

Non esiste alcun chip Radeon 4900 / RV775

Allucinazione collettiva, dicono

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10930&Itemid=1

Chissà

Kharonte85
15-12-2008, 14:30
Ma infatti mi sembrava strano che "guardacaso" solo dopo l'annuncio delle nvidia@55nm a gennaio si è saputo che AMD avrebbe presentato questo RV775...

Non è nemmeno impossibile che fudzilla abbia ragione, mah staremo a vedere...

II ARROWS
15-12-2008, 14:32
Scusa eh, ma se la GPU è la stessa non possono magicamente diminuire i consumi aumentando la potenza...

Devono creare una generazione di passaggio che anche se mantenga le stesse prestazioni riesca a diminuire i consumi. Magari con una nuova architettura, processo produttivo... non lo so, non sono io a progettare le schede. Ma io preferisco sicuramente una scheda che consuma di meno.

und3r91
15-12-2008, 14:50
Nel titolo, il nome è RADEON non Radoen

mircocatta
15-12-2008, 15:03
speriamo allora in qualche bios che permetta di avere quei 80 sp disponibili a tutti ache sulle 48xx :D

blackshard
15-12-2008, 15:07
tutto qui...?

3 mesi dopo l'affinamento della tecnologia produttiva di nvidia loro se ne escono RI-abilitando 40 delle 80 SP di scorta?

e le rinominano 49x0???

non sto flammando, in questo millennio ho comprato solo ATI... è che sono un filo deluso; mi aspettavo ancora qualche coniglio dal cilindro dei 55nm...
vero è che questa generazione possono permettersi di tenerla in ballo parecchio a lungo!

vabbè meglio aspettare le 58x0 IMHO

Beh allora preparati alla depressione perchè la stessa cosa l'ha fatta nVidia: secondo te da dove escono fuori i 24 sp in più delle core 216?

Nell'articolo indicato da bs82 si dice, fra le altre cose, esattamente questo e la tecnica è stranota come harvesting.
Lo fanno tutti i produttori di elettronica, di consumo e non, ergo è meglio che la depressione/delusione non te la fai venire.

E comunque bisogna tenere in considerazione che ati è passata da 320sp a 800sp aumentando quasi marginalmente il consumo delle schede: vediamo il consumo di una hd3870 e quello di una hd4850 a confronto per rendercene conto.

MANuHELL
15-12-2008, 15:15
io ormai aspetto gennaio per il pc nuovo e molto probabilmente punterò su una 4870 ulteriormente abbassata di prezzo, poi la prossima gpu si andrà di dx11 ;)

:mano:

SwatMaster
15-12-2008, 15:27
Qui si parla ancora di 58x0... :old:


...Io sto già pensando alle 68x0. :read:

netcrusher
15-12-2008, 15:28
e che palle fateci godere un pò di tranquillità per favore queste notizie mi fanno venire i conati di vomito........e fatece respirà!!!!!

mar81
15-12-2008, 15:29
chiedo qui perchè nei topic ufficiali si rifiutano di ripondermi...

hanno risolti i problemi di consumi eccessivi in IDLE della serie 48xx?

(aka powerplay poco funzionante)

grazie

CVD

pioss~s4n
15-12-2008, 15:34
e che palle fateci godere un pò di tranquillità per favore queste notizie mi fanno venire i conati di vomito........e fatece respirà!!!!!

Guarda che in linea teorica queste revisioni dovrebbero riguardare coloro che possiedono schede video datate e per evitare di cadere completamente in obsolescenza con un upgrade alla gpu risollevano le sorti del proprio Pc. In linea hw upgrade so bene che tutto ciò riguarda solo chi cambia scheda video ogni 4 mesi. :D

leviathan83
15-12-2008, 15:44
Nn vedo l'ora di vederle all'opera.-...

blackshard
15-12-2008, 15:52
e che palle fateci godere un pò di tranquillità per favore queste notizie mi fanno venire i conati di vomito........e fatece respirà!!!!!

E' vero, però questi sono solo "refresh" e chi si è comprato una scheda di ultima o penultima generazione non dovrebbe preoccuparsi più di tanto.

yossarian
15-12-2008, 15:55
chiedo qui perchè nei topic ufficiali si rifiutano di ripondermi...

hanno risolti i problemi di consumi eccessivi in IDLE della serie 48xx?

(aka powerplay poco funzionante)

grazie

la serie 4xx0 gestisce il 2d via shader e non ha unità dedicate. Quindi, in 2d, è impossibile spegnere completamente lo shader core e questo si ripercuote negativamente sui consumi in idle. Il vantaggio è quello di avere 800 unità di calcolo a disposizione anche per il 2d, invece delle 64 delle serie 2xx0 e 3xx0.
La cosa è stata fatta nell'ottica di risparmiare sui transistor e guadagnare spazio per allocare più alu dedicate al 3d.

sfoneloki
15-12-2008, 15:56
Ma non è che queste 40SP si possono abilitare nelle 4850/70 flashando il BIOS come è stato per l'HD4830 ATI REF.?

Stech1987
15-12-2008, 16:06
@sfoneloki: io non lo escluderei a priori, anche se bisogna vedere se sono funzionanti sulle singole gpu (essendo messi lì "di riserva")... cmq verosimilmente non verranno lo stesso abilitati tutti e 80 imho...

kliffoth
15-12-2008, 16:22
io non sono un grande guru della tecnologia, ma questi commenti mi paiono ridicoli

1 per i consumi non ci si rivolge alle fasce medio/alte (io pure sono per la 4670)

2 DA SEMPRE un produttore immette un prodotto sul mercato e, mentre in cantiere se ne sviluppa uno nuovo, nel frattempo migliora quello presente...questa cosa non mi sembra richieda menti illuminate per essere compresa

3 @TMX a parte che le AMD sono già a 55 nm, un passaggio ad un processo produttivo minore non crea un miracolo dal nulla perchè non è un chip nuovo, quindi stai flammando

ricordo infine che voci danno 30 milioni di transistor in meno e frequenze molto più alte, però, come le nuove nVidia NON sono chip nuovi

Per chiudere torno a far notare come in fondo abbia detto una cosa ovvia: quella al punto 2. Il tutto senza avere una laurea in ingegneria ma leggendo le parole in lingua italiana presenti negli articoli delle riviste DA SEMPRE

KampMatthew
15-12-2008, 16:27
azz si parla di DX11 quando ancora i giochi che fanno vedere giusto qualcosina in più con DX10 rispetto DX9 si contano sulle dita di una sola mano?

mi sa che io il prossimo cambio lo faccio con le nuove e performanti 78X0 :D

intanto mi godo la 4850 che è un compromesso fantastico prestazioni / portafoglio.

ah..un'altra cosa... se alla ati dedicassero un po di risorse in più per lo sviluppo e l'ottimizzazione dei driver, sarebbe cosa molto gradita. :rolleyes:

appleroof
15-12-2008, 17:20
la serie 4xx0 gestisce il 2d via shader e non ha unità dedicate. Quindi, in 2d, è impossibile spegnere completamente lo shader core e questo si ripercuote negativamente sui consumi in idle. Il vantaggio è quello di avere 800 unità di calcolo a disposizione anche per il 2d, invece delle 64 delle serie 2xx0 e 3xx0.
La cosa è stata fatta nell'ottica di risparmiare sui transistor e guadagnare spazio per allocare più alu dedicate al 3d.

Yoss ma una critica verso Ati mai eh? :asd:

vantaggio???? 800 sp per il 2d????? e tutto questo a maggiori consumi???????

certo, un enorme vantaggio :asd:

ghiltanas
15-12-2008, 17:26
azz si parla di DX11 quando ancora i giochi che fanno vedere giusto qualcosina in più con DX10 rispetto DX9 si contano sulle dita di una sola mano?

mi sa che io il prossimo cambio lo faccio con le nuove e performanti 78X0 :D

intanto mi godo la 4850 che è un compromesso fantastico prestazioni / portafoglio.

ah..un'altra cosa... se alla ati dedicassero un po di risorse in più per lo sviluppo e l'ottimizzazione dei driver, sarebbe cosa molto gradita. :rolleyes:

con le dx11 sarà molto probabilmente diverso per vari motivi che ora nn sto ad elencare. Le dx10 sono state un fiasco e credo in molti le stiano di proposito saltando pensando di puntare direttamente alle future librerie

Mister Tarpone
15-12-2008, 17:28
Yoss ma una critica verso Ati mai eh? :asd:

vantaggio???? 800 sp per il 2d????? e tutto questo a maggiori consumi???????

certo, un enorme vantaggio :asd:

ma dove? :asd:

dai...a che serve avere 800spippoli per il 2D..... :confused:??

ghiltanas
15-12-2008, 17:29
Il vantaggio è quello di avere 800 unità di calcolo a disposizione anche per il 2d, invece delle 64 delle serie 2xx0 e 3xx0.
La cosa è stata fatta nell'ottica di risparmiare sui transistor e guadagnare spazio per allocare più alu dedicate al 3d.

anche secondo me quello nn è tanto un vantaggio...per gestire il 2d serve una potenza di calcolo bassa ed è inutile avere 800 unità di calcolo per aprire le finestre di windows :asd:

appleroof
15-12-2008, 17:31
con le dx11 sarà molto probabilmente diverso per vari motivi che ora nn sto ad elencare. Le dx10 sono state un fiasco e credo in molti le stiano di proposito saltando pensando di puntare direttamente alle future librerie

sono d'accordo ma lo sono state perchè sostanzialmente Vista non si è diffuso come previsto e per la presenza delle consolle dx9 che hanno orientato il 90% dei progetti grossi, a questo aggiungi che in genere ci sono voluti un paio di annetti affinchè gli sviluppatori prendessero confidenza con le nuove librerie ecc..ed ecco il risultato del cavolo in cui siamo

adesso bisognerà vedere cosa succederà per le dx11: la mia speranza è che almeno per la fine dell'anno prossimo cominceremo a vedere giochi dx10 "veri", che ovviamente le prime vga dx11 dovrebbero far girare alla grande...

ma dove? :asd:

dai...a che serve avere 800spippoli per il 2D..... :confused:??

esatto Tarpo, a nulla :D

forse con dx11 e winodws 7 servirà, ma le 48x0 sono uscite a giugno 2008 :D :D

ghiltanas
15-12-2008, 17:40
sono d'accordo ma lo sono state perchè sostanzialmente Vista non si è diffuso come previsto e per la presenza delle consolle dx9 che hanno orientato il 90% dei progetti grossi, a questo aggiungi che in genere ci sono voluti un paio di annetti affinchè gli sviluppatori prendessero confidenza con le nuove librerie ecc..ed ecco il risultato del cavolo in cui siamo



volevo evitare di entrare nel disc :D , cmq nn è tanto perchè vista nn si è diffuso come previsto, ma imho quanto perchè hanno rilegato le dx10 ad un solo os, appena uscito...con le 11 sarà diverso, saranno supportate sia da vista (che a quel punto sarà piuttosto diffuso) che da 7, che sembra essere un ottimo os (io aspetto la beta pubblica a gennaio per provarlo), inoltre il passaggio ad esso nn sarà traumatico come tra xp e vista (parlo del lato driver). Per il disc console è un altro dei motivi, la nuova xbox sarà probabilmente dx11 e quindi lo sviluppo dei giochi pc e per lei andrà " di pari passo" (altro punto a favore delle nuove librerie)...Insomma le ragione perchè riescano bene ci sono, quindi :sperem:

blackshard
15-12-2008, 17:43
Yoss ma una critica verso Ati mai eh? :asd:

vantaggio???? 800 sp per il 2d????? e tutto questo a maggiori consumi???????

certo, un enorme vantaggio :asd:

Il vantaggio è dal punto di vista costruttivo :rolleyes: di certo 800 sp non servono per gestire aero o il desktop di windows.
Come qualsiasi cosa ha i suoi pro ed i suoi contro.

appleroof
15-12-2008, 17:50
volevo evitare di entrare nel disc :D , cmq nn è tanto perchè vista nn si è diffuso come previsto, ma imho quanto perchè hanno rilegato le dx10 ad un solo os, appena uscito...con le 11 sarà diverso, saranno supportate sia da vista (che a quel punto sarà piuttosto diffuso) che da 7, che sembra essere un ottimo os (io aspetto la beta pubblica a gennaio per provarlo), inoltre il passaggio ad esso nn sarà traumatico come tra xp e vista (parlo del lato driver). Per il disc console è un altro dei motivi, la nuova xbox sarà probabilmente dx11 e quindi lo sviluppo dei giochi pc e per lei andrà " di pari passo" (altro punto a favore delle nuove librerie)...Insomma le ragione perchè riescano bene ci sono, quindi :sperem:

d'accordo su tutto ;)

Il vantaggio è dal punto di vista costruttivo :rolleyes: di certo 800 sp non servono per gestire aero o il desktop di windows.
Come qualsiasi cosa ha i suoi pro ed i suoi contro.

detta così acquista ben altro senso, imho cmq rimane uno degli aspetti meno felici di rv770 senza dubbio, fermo restando che è un ottimo chip



p.s.: non c'è bisogno di scandalizzarsi tanto ( :rolleyes: ), si discute eh? ;)

yossarian
15-12-2008, 18:11
Yoss ma una critica verso Ati mai eh? :asd:

vantaggio???? 800 sp per il 2d????? e tutto questo a maggiori consumi???????

certo, un enorme vantaggio :asd:

è un indubbio vantaggio se si vogliono elaborare più flussi video e/o audio in contemporanea. Non lo è dal punto di vista dei consumi. Ho anche aggiunto che la cosa è nata per risparmiare transistor da dedicare al 3d, non nell'ottica di avere più potenza elaborativa per il 2d. Ovvero, il discorso della coperta corta: vuoi un chip piccolo, devi anche tagliare tutto ciò che reputi superfluio o meno importante. E' un mero discorso costi/benefici. E, comunque, i vantaggi non si hanno sul desktop di windows, ma anche, ad esempio, su eventuali htpc in cui si utilizzano chip derivati da rv770 ma con un minor numero di alu.

E' stata chiesta una spiegazione e mi sono limitato a fornirla. Non si trattava di una richiesta di commento sulle scelte praticate da AMD.
Poi, posso essere d'accordo o meno con la scelta (personalmente non lo sono), ma questo esula dal contesto specifico :)

za87
15-12-2008, 18:28
aspettare e nel frattempo vedere come si muove nvidia mi sembra un'ottima mossa, l'importante è non arrivare troppo tardi dopo...

MiKeLezZ
15-12-2008, 18:45
edit.

ranf
15-12-2008, 19:03
In soldoni ATI per risparmiare due euro ha tolto la possibilità alla scheda di risparmiare corrente quando in idle
E non ci saranno MAI driver magici che riducono i consumi

be, proprio 2 non sono.....
a vedere la differenza di prezzo che c'è tra una 4870 e una gtx260.......
ok che la 260 va un po di più della 4870 (prima parecchio di più, con i nuovi driver ati un po di più) ma ci sono in media 50€ di differenza....

Ok avrebbero potuto mettere delle frequenze in idle molto più basse visto che comunque gli 800 stream processor li hai sempre e comunque attivi, ma per risparmiare 50€ me le metto apposto io le frequenze.....:D

ranf
15-12-2008, 19:06
ovvio che non lo so ma do già per scontato che avranno dei consumi elevatissimi.

bè, ottime argomentazioni su basi più che fondate....:mc: :mc:

:D

MiKeLezZ
15-12-2008, 19:07
edit.

ranf
15-12-2008, 19:13
Speriamo solo non abbia roadmap che prevedano VGA con 10 mila ALUs

Be a questo punto o le renderanno disattivabili per il 2D oppure le feremo lavorare a 10Mhz.....:D

A parte gli scherzi, anche se fosse, non vedo dove sta il problema....

Obi 2 Kenobi
15-12-2008, 19:40
bè, ottime argomentazioni su basi più che fondate....:mc: :mc:

:D

è scontato che sarà così. Fra poco il mio e il vostro pc comincerà a consumare quanto una lavatrice.
Non so voi ma questa cosa mi fa veramente girare le balle.

appleroof
15-12-2008, 19:43
è un indubbio vantaggio se si vogliono elaborare più flussi video e/o audio in contemporanea. Non lo è dal punto di vista dei consumi. Ho anche aggiunto che la cosa è nata per risparmiare transistor da dedicare al 3d, non nell'ottica di avere più potenza elaborativa per il 2d. Ovvero, il discorso della coperta corta: vuoi un chip piccolo, devi anche tagliare tutto ciò che reputi superfluio o meno importante. E' un mero discorso costi/benefici. E, comunque, i vantaggi non si hanno sul desktop di windows, ma anche, ad esempio, su eventuali htpc in cui si utilizzano chip derivati da rv770 ma con un minor numero di alu.

E' stata chiesta una spiegazione e mi sono limitato a fornirla. Non si trattava di una richiesta di commento sulle scelte praticate da AMD.
Poi, posso essere d'accordo o meno con la scelta (personalmente non lo sono), ma questo esula dal contesto specifico :)

ok, in effetti come commentavo poco sopra al post di un altro utente, non avevo afferrato bene il concetto che affermavi, ed in effetti questo tuo ulteriore commento aggiunge considerazioni che mi vedono perfettamente d'accordo, sia quanto al contenuto (nel senso dei costi/benefici), sia quanto alla conclusione ;)

appleroof
15-12-2008, 19:46
In soldoni ATI per risparmiare due euro ha tolto la possibilità alla scheda di risparmiare corrente quando in idle
E non ci saranno MAI driver magici che riducono i consumi

è un grosso difetto, se pensi che la vga la usi per lo più in idle...la cosa che mi fà più specie è lo sbandierato powerplay: o hanno deliberatamente preso in giro, oppure non è per nulla efficace, almeno nella attuale implementazione...il solito marketinghese, in effetti :rolleyes:

ribadisco, anche se guardi la vga nel suo complesso è un grosso difetto (e vabbè non esiste la vga perfetta) sopratutto alla luce di quello che offre la concorrenza

blackshard
15-12-2008, 19:49
In soldoni ATI per risparmiare due euro ha tolto la possibilità alla scheda di risparmiare corrente quando in idle
E non ci saranno MAI driver magici che riducono i consumi

Però sembra che abbassando manualmente le frequenze di clock i consumi diminuiscano di parecchio senza incidere visibilmente sulle performance, almeno così dicono...

appleroof
15-12-2008, 19:53
Però sembra che abbassando manualmente le frequenze di clock i consumi diminuiscano di parecchio senza incidere visibilmente sulle performance, almeno così dicono...

sentito anche io: è giusto quello che dici, ma bisogna mettersi d'accordo se guardiamo alle vga come "escono dalla fabbrica" o tutti i tweak che uno poi ci può fare (e che non sono alla portata di tutti)

se è per quello, anche alcuni difetti delle vga Nvidia possono essere eliminati con piccoli tweak (ad esempio sulla mia con riva abbasso le freq. in idle, per un minimo risparmio energetico [che poi non è efficacissimo perchè il v-core rimane fisso], cosa assolutamente non prevista o cmq non implementata "di fabbrica")

Foglia Morta
15-12-2008, 20:25
In soldoni ATI per risparmiare due euro ha tolto la possibilità alla scheda di risparmiare corrente quando in idle
E non ci saranno MAI driver magici che riducono i consumi

Stando a quanto letto in giro RV770 costa meno di 25 dollari, GT200 oltre 100 dollari ed hanno prestazioni non troppo diverse. L' aumento dei prezzi delle schede video è dovuto anche all'aumento dei costi e ai die size sempre più larghi. Vai a cercare la pagliuzza nell'occhio di ATi mentre nVidia ha una trave.

ranf
15-12-2008, 20:35
Vai a cercare la pagliuzza fra le chiappe dei possessori di schede ATi mentre nVidia tenta di metterti una trave in culo con i suoi prezzi ( a Giugno-Luglio con molti c'è riuscita ).

Era quello che volevo scrivere ma che non sapevo come scrivere senza diventare volgare.....:D
Però così rende molto l'idea!:D

gianni1879
15-12-2008, 20:37
Stando a quanto letto in giro RV770 costa meno di 25 dollari, GT200 oltre 100 dollari ed hanno prestazioni non troppo diverse. L' aumento dei prezzi delle schede video è dovuto anche all'aumento dei costi e ai die size sempre più larghi. Vai a cercare la pagliuzza nell'occhio di ATi mentre nVidia ha una trave.

:eek:

certo la trave fa un pò senso in un'occhio :D

Foglia Morta
15-12-2008, 20:42
Era quello che volevo scrivere ma che non sapevo come scrivere senza diventare volgare.....:D
Però così rende molto l'idea!:D

Mentre mi quotavi l'ho resa più fine... l'importante è che il senso sia chiaro :D

ranf
15-12-2008, 20:45
è scontato che sarà così. Fra poco il mio e il vostro pc comincerà a consumare quanto una lavatrice.
Non so voi ma questa caso mi fa veramente girare le balle.

Be, si.... in effetti i consumi crescono, ma cresce molto di più la potenza.....

Il problema secondo me è capire di quanta potenza abbiamo bisogno....
Se devo lavorare in ufficio prendo un AMD di quelli che costa di meno di tutti, magari versione a risparmio energetico e lo metto su una scheda madre con chipset 780G e ho ottimi consumi.

Se voglio potenza per divertirmi prendo un nehalem e poi però non mi lamento di quanto consuma....

Io se ATI dovesse aumentare la potenza del 20% (sto parlanod in via teorica) mantenendo i consumi uguali a quelli attuali o incrementendoli del 5/10% sarei felice.....
E non vedo perchè non dovrei esserlo. E' utipico pensare di avere un'incremento di potenza con una diminuzione dei consumi sempre e comunque. A volte succede ma non è sempre festa.....
Bisogna scegliere cosa è più importante per noi... è sempre la storia della coperta che è troppo corta.
O punti ai consumi sacrificando un po la potenza, o punti alla potenza sacrificando i consumi.

ranf
15-12-2008, 20:46
Mentre mi quotavi l'ho resa più fine... l'importante è che il senso sia chiaro :D

No!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! Volevo metterla nella mia firma!!!!!! Posso?:D

Foglia Morta
15-12-2008, 20:50
No!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! Volevo metterla nella mia firma!!!!!! Posso?:D

L'ho presa da Luca 6,41- 42; 6,45, non c'è il copyright :D

MiKeLezZ
15-12-2008, 20:55
edit.

appleroof
15-12-2008, 21:03
Stando a quanto letto in giro RV770 costa meno di 25 dollari, GT200 oltre 100 dollari ed hanno prestazioni non troppo diverse. L' aumento dei prezzi delle schede video è dovuto anche all'aumento dei costi e ai die size sempre più larghi. Vai a cercare la pagliuzza nell'occhio di ATi mentre nVidia ha una trave.

l'aumento dei costi delle schede video non si riflette sulle tasche dei consumatori: prova a guardare quanto costava una 9800pro al lancio 5 anni fà e prova a guardare quanto costa una gtx280 oggi (edit: meglio, quanto costava al lancio).

Quello che è successo quest'estate è dovuto alla concorrenza, e anche Ati avrebbe fatto lo stesso se si fosse trovata nella situazione di Nvidia: lo dimostra che Ati guadagna molto di più dai suoi chip (come dici tu) e lo avrebbe fatto lo stesso (e molto più di Nvidia) se, "pagando" il suo chip non 25$ ma 35$, avesse aggiunto un chip per la gestione 2d con consumi irrisori in idle (oppure implementando davvero il powerplay, risparmiando sul marketing :asd: )

In effetti sei l'esempio evidente del verso della pagliuzza e della trave (spero tu la abbia nell'occhio però :D ).

ghiltanas
15-12-2008, 21:05
Stando a quanto letto in giro RV770 costa meno di 25 dollari, GT200 oltre 100 dollari ed hanno prestazioni non troppo diverse. L' aumento dei prezzi delle schede video è dovuto anche all'aumento dei costi e ai die size sempre più larghi. Vai a cercare la pagliuzza nell'occhio di ATi mentre nVidia ha una trave.

per me personalmente il discorso consumi nn è cosi marginale. Io nn dico che amd nn abbia realizzato delle belle schede con la nuova serie, però i consumi nn sono una cosa cosi sencondaria; se nn è possibile disabilitare le alu, doveva fare in modo che le freq in idle calassero molto, in modo da nn cosumare eccessivamente, e nn che se uno compra una 4000debba farlo da se, perchè in percentuale lo sanno fare l'1% se va bene...

Obi 2 Kenobi
15-12-2008, 21:06
Be, si.... in effetti i consumi crescono, ma cresce molto di più la potenza.....

Il problema secondo me è capire di quanta potenza abbiamo bisogno....
Se devo lavorare in ufficio prendo un AMD di quelli che costa di meno di tutti, magari versione a risparmio energetico e lo metto su una scheda madre con chipset 780G e ho ottimi consumi.

Se voglio potenza per divertirmi prendo un nehalem e poi però non mi lamento di quanto consuma....

Io se ATI dovesse aumentare la potenza del 20% (sto parlanod in via teorica) mantenendo i consumi uguali a quelli attuali o incrementendoli del 5/10% sarei felice.....
E non vedo perchè non dovrei esserlo. E' utipico pensare di avere un'incremento di potenza con una diminuzione dei consumi sempre e comunque. A volte succede ma non è sempre festa.....
Bisogna scegliere cosa è più importante per noi... è sempre la storia della coperta che è troppo corta.
O punti ai consumi sacrificando un po la potenza, o punti alla potenza sacrificando i consumi.

si ma si arriverà a un punto in cui, se si continua di questo passo, i consumi saranno veramente troppo elevati e a quel punto ti voglio vedere se per il divertimento passerai a una cpu che consuma come un forno (letteralmete come un forno).

ghiltanas
15-12-2008, 21:08
si ma si arriverà a un punto in cui, se si continua di questo passo, i consumi saranno veramente troppo elevati e a quel punto ti voglio vedere se per il divertimento passerai a una cpu che consuma come un forno (letteralmete come un forno).

con le cpu per fortuna hanno imparato abbastanza la lezione e ci stanno abbastanza attenti...per le gpu nn tanto...

appleroof
15-12-2008, 21:18
con le cpu per fortuna hanno imparato abbastanza la lezione e ci stanno abbastanza attenti...per le gpu nn tanto...

imho per Ati c'è da credere che l'idea del powerplay venga implementata meglio, la strada è tracciata (e il c'n'q Amd forse c'entra qualcosa :D )

questo per l'idle: non dimentichiamo che rv770 è a 55nm e in full consuma più di gt200 in versione gtx260 che è a 65nm...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/

Obi 2 Kenobi
15-12-2008, 21:19
con le cpu per fortuna hanno imparato abbastanza la lezione e ci stanno abbastanza attenti...per le gpu nn tanto...

hanno fatto qualcosa per le cpu e ora DEVONO fare qualcosa anche per le gpu. Che ad Ati e Nvidia piaccia o meno, io (e penso neanche voi) non comprerò mai una scheda video che consuma 900watt o più (e non venitemi a dire che è impossibile che facciano una scheda video che consuma così tanto). Poi se questa scheda costa 20€ poco conta dato che poi alla fine si arriverebbe a pagare delle cifre astronomiche con le bollette.

ranf
15-12-2008, 21:23
Penso che al momento sia molto ben più importante spingere (ergo creare anche un polverone sul forum) affinchè i costruttori (tutti) prendano finalmente a cuore questo risparmio energetico.
E non continuare ad alimentare una inutile faida.
Il riferimento alle 10 mila ALU è ai 10GHz promessi da Intel con la sua architettura Pentium, che come invece abbiamo visto è finita (giustamente) nell'albo dei ricordi, a favore della ben più efficiente Core 2 Duo.
Per i prezzi si spera nella sempre utile concorrenza (ricordo che ATI e NVIDIA avevano fatto un cartello tempo addietro).
Ciao.

Ma io questa similitudine tra l'architettura netburst è l'RV770 non ce la vedo proprio..... anzi....
Basta SOLO abbassare maggiormente le frequenze in idle e i consumi sono nella norma. Ci è arrivata MSI ad abbassare le frequenze e i consumi delle 4850........ Poteva arrivarci anche la ATI stessa e tutti gli altri produttori......
Questa è l'unica colpa di ati.... non arrivare a mettere apposto queste stupidate che potrebbero sistemare in 30 secondi con un editor bios e che invece lasciano fare a quei pochi utenti smanettoni che saranno si e no il 3% del mercato mondiale....

Comunque adesso la chiudo quì che mi sembra di essere uno del reparto marketing ATI....:D Ognuno con i suoi soldi può comprare quello che vuole.... Io so solo che a prescindere da quello che guadagna su ogni chip Nvidia o ATI, io i miei soldi li do solo a chi fa la scheda con il miglior rapporto prestazioni/costo.... Questa è la mia priorità... Chi ha priorità energetiche sceglierà altro.....

ranf
15-12-2008, 21:25
si ma si arriverà a un punto in cui, se si continua di questo passo, i consumi saranno veramente troppo elevati e a quel punto ti voglio vedere se per il divertimento passerai a una cpu che consuma come un forno (letteralmete come un forno).

E' questione di priorità..... io ad un neahlem passerei al volo fregandomene di quanto consuma... il problema è che per me adesso non ha un rapporto prezzo prestazioni conveniente adesso...

gianni1879
15-12-2008, 21:29
molti però dimenticano i consumi delle hd4670/4650 e quelli delle hd4350 che sono più bassi in assoluto in idle. chi vuol consumare poco si orienterà su quelle

II ARROWS
15-12-2008, 21:30
Obi 2 Kenobi, chiunque conosca un po' di storia informatica non ti verrà mai a dire che non ci arriveranno mai.
Quanto la 3DFX ci sia arrivata vicina... con 6GPU sulla stessa scheda e una dimensione da fare invidia ad una scheda madre standard! :D

A lasciarli andare avanti oggi avremmo avuto probabilmente una grafica mostruosa molto più avanti di questa, ma saremmo tornati agli armadi! :D

ghiltanas
15-12-2008, 21:32
imho per Ati c'è da credere che l'idea del powerplay venga implementata meglio, la strada è tracciata (e il c'n'q Amd forse c'entra qualcosa :D )

questo per l'idle: non dimentichiamo che rv770 è a 55nm e in full consuma più di gt200 in versione gtx260 che è a 65nm...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/

infatti e questa è la cosa che fa un pò pensare...(e anche sperare che nvidia con i 55 nm riesca ad abbassare ulteriormente i consumi attuali)

hanno fatto qualcosa per le cpu e ora DEVONO fare qualcosa anche per le gpu. Che ad Ati e Nvidia piaccia o meno, io (e penso neanche voi) non comprerò mai una scheda video che consuma 900watt o più (e non venitemi a dire che è impossibile che facciano una scheda video che consuma così tanto). Poi se questa scheda costa 20€ poco conta dato che poi alla fine si arriverebbe a pagare delle cifre astronomiche con le bollette.

impossibile nn essere d'accordo, è ora che anche loro prendano in esame quest'aspetto fondamentale ;)

Foglia Morta
15-12-2008, 21:33
l'aumento dei costi delle schede video non si riflette sulle tasche dei consumatori: prova a guardare quanto costava una 9800pro al lancio 5 anni fà e prova a guardare quanto costa una gtx280 oggi (edit: meglio, quanto costava al lancio).

Quello che è successo quest'estate è dovuto alla concorrenza, e anche Ati avrebbe fatto lo stesso se si fosse trovata nella situazione di Nvidia: lo dimostra che Ati guadagna molto di più dai suoi chip (come dici tu) e lo avrebbe fatto lo stesso (e molto più di Nvidia) se, "pagando" il suo chip non 25$ ma 35$, avesse aggiunto un chip per la gestione 2d con consumi irrisori in idle (oppure implementando davvero il powerplay, risparmiando sul marketing :asd: )

In effetti sei l'esempio evidente del verso della pagliuzza e della trave (spero tu la abbia nell'occhio però :D ).

Non hai visto dove va a parare il discorso , mi sa che la trave ti ha accecato :D . Non sto dicendo che non debba esistere una fascia di prezzo sui 500-600 dollari, questo è il mercato a deciderlo. Sto dicendo che con i costi che si hanno con la strategia ATi nella stessa fascia di prezzo ci ritroviamo con una scheda video molto più veloce di quanto ci si potesse attendere con la strategia vecchia ( e quella attuale di nVidia ) senza che il produttore rinunci al suo margine di guadagno. Vedrai che nVidia si adeguerà a questo modo di progettare... non può andare avanti con die enormi , a quel punto ammetterai anche tu che è la scelta migliore

ghiltanas
15-12-2008, 21:34
molti però dimenticano i consumi delle hd4670/4650 e quelli delle hd4350 che sono più bassi in assoluto in idle. chi vuol consumare poco si orienterà su quelle

questo disc nn ha molto senso e nn dev'essere una giustificazione.Io che voglio giocare e voglio una scheda prestante, voglio anche che quando è in idle (nella maggiorparte del suo tempo) consumi una quantità di watt ragionevole visto che fa poco e nulla

Obi 2 Kenobi
15-12-2008, 21:36
Obi 2 Kenobi, chiunque conosca un po' di storia informatica non ti verrà mai a dire che non ci arriveranno mai.
Quanto la 3DFX ci sia arrivata vicina... con 6GPU sulla stessa scheda e una dimensione da fare invidia ad una scheda madre standard! :D

A lasciarli andare avanti oggi avremmo avuto probabilmente una grafica mostruosa molto più avanti di questa, ma saremmo tornati agli armadi! :D

Si questo lo so però non mi sembra che ati e nvidia si stiano impegnando molto da questo punto di vista.
Mi sembrano più concentrati su come rinominare le loro schede video :asd:

leoneazzurro
15-12-2008, 22:17
Foglia Morta, magari evitiamo proprio le finesse come quelle della trave, OK? Ammonizione.

gianni1879
15-12-2008, 22:47
questo disc nn ha molto senso e nn dev'essere una giustificazione.Io che voglio giocare e voglio una scheda prestante, voglio anche che quando è in idle (nella maggiorparte del suo tempo) consumi una quantità di watt ragionevole visto che fa poco e nulla

piacerebbe a tutti, ma non si può avere la moglie ubriaca e la botte piena allo stesso tempo.
C'è una ragione tecnica dietro a questo, condivisibile o Meno.

appleroof
15-12-2008, 22:57
infatti e questa è la cosa che fa un pò pensare...(e anche sperare che nvidia con i 55 nm riesca ad abbassare ulteriormente i consumi attuali)


pare che le 55nm consumeranno in full una 50ina di watt in meno, a fronte di prestazioni uguali/leggermente migliori, pare :)

Non hai visto dove va a parare il discorso , mi sa che la trave ti ha accecato :D . Non sto dicendo che non debba esistere una fascia di prezzo sui 500-600 dollari, questo è il mercato a deciderlo. Sto dicendo che con i costi che si hanno con la strategia ATi nella stessa fascia di prezzo ci ritroviamo con una scheda video molto più veloce di quanto ci si potesse attendere con la strategia vecchia ( e quella attuale di nVidia ) senza che il produttore rinunci al suo margine di guadagno. Vedrai che nVidia si adeguerà a questo modo di progettare... non può andare avanti con die enormi , a quel punto ammetterai anche tu che è la scelta migliore

no io ammetto già adesso che è la scelta migliore, sia lato costi sia (per una serie di fortunate coincidenze) per il consumatore, e lo ammetto da tempo perchè obiettivamente è così (sperando che una volta acquistata maggiore quota di mercato non cambino politica dei prezzi al pubblico).

Il discorso verteva prettamente sui consumi, e su questo specifico aspetto le Ati non brillano di certo, se pensiamo che sono a 55nm, che pubblicizzano il powerplay ecc ecc

se vogliamo possiamo dire che se fossero stati meno "ingordi" avrebbero potuto spendere qualcosa in più e mantenere margini e profitti molto alti, facendo una vga ancora più immune da critiche

mjordan
16-12-2008, 02:16
Ma pensare di più ai consumi che alle prestazioni, no eh?

Io quando voglio consumare poco tengo spento il PC. Se devo comprare una scheda per giocare, voglio che mi faccia giocare. E guardo alle prestazioni. Vada per i consumi in idle ma chi pensa che una scheda potente possa essere allo stesso tempo efficientissima sotto carico mi sa che sta sognando una tecnologia che non fa parte delle leggi fisiche di sto pianeta. Pare che le tecnologie di risparmio energetico si progettano dall'oggi al domani. Per me è un miracolo di tecnica invece che una scheda di oggi con la potenza che ha non richieda un reattore nucleare dedicato per funzionare.

halduemilauno
16-12-2008, 08:48
aggiornamenti...purtroppo spiacevoli.
http://www.tomshw.it/news.php?newsid=16405

Obi 2 Kenobi
16-12-2008, 13:47
Io quando voglio consumare poco tengo spento il PC. Se devo comprare una scheda per giocare, voglio che mi faccia giocare. E guardo alle prestazioni. Vada per i consumi in idle ma chi pensa che una scheda potente possa essere allo stesso tempo efficientissima sotto carico mi sa che sta sognando una tecnologia che non fa parte delle leggi fisiche di sto pianeta. Pare che le tecnologie di risparmio energetico si progettano dall'oggi al domani. Per me è un miracolo di tecnica invece che una scheda di oggi con la potenza che ha non richieda un reattore nucleare dedicato per funzionare.

mi fai un esempio di scheda video di fascia alta che non consumi quanto una lavatrice? :asd:

RICKYL74
17-12-2008, 23:45
La versione pro uscirà verso Marzo la XT a Gennaio sarà sugli scaffali.
E sembra cha la XT avrà il core @900Mhz!! :eek: che son sicuro alcuni produttori porteranno a 1Ghz (Già vedo le scatole con la scritta :D )

http://www.expreview.com/img/news/2008/12/12/rv775.png
http://www.expreview.com/news/hard/2008-12-12/1229072147d10842.html


Giusto in tempo per rovinare la festa ad nVidia con la nuova 285GTX eh eh eeh .. ma era scontato!!
Se il prezzo e in linea con la 4870 che in teoria dovrebbe scendere, se hanno migliorato la dissipazione e magari anche ridotto il consumo,
sta 49x0 sembrerebbe avere tutti i numeri al posto giusto. Comunque discorsi a parte sono curiosissimo di vedere i test sia delle ATI che delle nVidia.


:wtf: un altra cosa curiosa e vedere 30M di transistor in meno rispetto al RV770.. quindi se ciò è confermato e la tabella riporta dati esatti:
hanno ottimizzato bene direi!! oppure stanno facendo i furbi.