PDA

View Full Version : Scheda dual GPU top di gamma anche per NVIDIA


Redazione di Hardware Upg
22-11-2010, 16:00
Link alla notizia: http://www.hwupgrade.it/news/skvideo/scheda-dual-gpu-top-di-gamma-anche-per-nvidia_34498.html

Nome attualmente indicato in GeForce GTX 590 per la scheda video che abbinerà due GPU GF110 su singolo PCB

Click sul link per visualizzare la notizia.

kekko..
22-11-2010, 16:05
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia :)

Mparlav
22-11-2010, 16:12
SPECULATION ON

2x GF110
2x512 SU a 600-650Mhz
vgpu 0.95-1.00v nel 3D
2x384bit - 2x1532Mb (12 sul fronte + 12 banchi di memoria sul retro, c'è un'altra foto in rete)
Graphics Card Power <300W con controllo di assorbimento

Confrontando tra loro le GTX275 e le GTX295, il progetto è fattibile entro i 300W, poi tanto c'è tutta la discrezionalità di overclock.

SPECULATION OFF

Per quanto mi riguarda ste' "cose" dual gpu possono restare tranquillamente sugli scaffali a prendere la polvere :D

rusie
22-11-2010, 16:21
mhh se 580 ha un TPD di 224W (se non ricordo male ) quindi non credo che la versione dual gpu abbia un TPD < 300 W.

mircocatta
22-11-2010, 16:21
e il tdp, cosa sarà? 400watt? mamma mia
contando che la gtx 580 consuma sui 250 watt poi....oh ben ben

Capozz
22-11-2010, 16:24
1) Come pensano di alimentarla ?
2) Come pensano di raffreddarla ?

Foglia Morta
22-11-2010, 16:25
mhh se 580 ha un TPD di 224W (se non ricordo male ) quindi non credo che la versione dual gpu abbia un TPD < 300 W.

TDP dichiarato da nVidia 244W , nVidia aveva specificato che si trattava del massimo dei consumi in game , quindi voleva escludere Furmark ( e fin qui sono d' accordo ). Poi però se si vanno a misurare in consumi in game ( Crysis ) si scopre che:

http://www.xbitlabs.com/images/video/geforce-gtx-580/gtx580_power.png

Iniziate a mettere l' acqua in pentola :D

f3d387
22-11-2010, 16:26
la gtx580 consuma 350 watt immagino questa madooooo

tossy
22-11-2010, 16:28
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia :)

Complimenti, al primo meggaggio già un Flame.
Ottimo hai battuto tutti i record del caso.

E non dirmi di no, non vedo perchè mai nvidia non possa uscire con una Dual senza dover ammazzare qualcuno.


:doh: :doh: :doh:

!fazz
22-11-2010, 16:31
Finalmente schede video con sistema ad azoto liquido di serie!!!!Brava nvidia :)

Complimenti, al primo meggaggio già un Flame.
Ottimo hai battuto tutti i record del caso.

E non dirmi di no, non vedo perchè mai nvidia non possa uscire con una Dual senza dover ammazzare qualcuno.


:doh: :doh: :doh:

vediamo di smetterla con i tentativi di flame per favore

rusie
22-11-2010, 16:37
Secondo me non uscirà scheda dual GF110 magari dual GF114 (con meno ram, clock, sp etc...) con tdp su 300 W.
Per il dual GF110 ci vorrebbero per TPD mettiamo su i 400W 2 8-pin + 1 6-pin connettori per alimentazione aggiuntiva per un TPD fino a 450W con un ali 700-800W (di queli seri se no di più)

Dieghen620
22-11-2010, 16:39
Considerando i connettori direi che sfrutterà tutti (e forse andrà anche un pelo oltre) i suoi 375W potenziali...

rusie
22-11-2010, 16:45
Considerando i connettori direi che sfrutterà tutti (e forse andrà anche un pelo oltre) i suoi 375W potenziali...

Se richiede di più gpu andrà in throttle per ridurre consumi.
Anche perchè ipotizzando riduzione freq gpu etc.. non credo che riesca a consumare 180W per GPU (ok ci sono parti di scheda in comune che non vanno contate due volte etc ma è un calcolo "a spanne" )

roccia1234
22-11-2010, 16:47
Aspetteremo le frequenze dei GF110. Dubito che 8+8 pin ce la facciano a reggere due GF110 completi, con gli stessi cuda core e le stesse frequenze della gtx580 (che ha 8+6 pin), nonostante i 75 W in più.
Poi c'è anche il chip bridge... non so quanto consumi, ma la sua parte la fa.

Giacopo
22-11-2010, 16:53
Un mostro di potenza, di calore, e di consumi! Speriamo che la driverizzino bene perchè sennò è proprio una scheda da scartare!

mircocatta
22-11-2010, 16:57
TDP dichiarato da nVidia 244W , nVidia aveva specificato che si trattava del massimo dei consumi in game , quindi voleva escludere Furmark ( e fin qui sono d' accordo ). Poi però se si vanno a misurare in consumi in game ( Crysis ) si scopre che:

http://www.xbitlabs.com/images/video/geforce-gtx-580/gtx580_power.png

Iniziate a mettere l' acqua in pentola :D

da quando la 6870 consuma 130watt? :eek:
ottimo! pensavo 150watt

comunque una dual gf110, almeno almeno, dovrebbe consumare 180-200 watt in più della singola, credo..ergo: su per giù 450watt ....che razza di temperature e dissi monterà?! tri slot??
saranno vendute a liquido... tanto un sistema ad aria che dissipi così tanto calore costerà almeno quanto waterblock base che è sicurametne meglio di ogni sistema ad aria

tossy
22-11-2010, 17:00
Riguardo alle temperature non mi scandalizzo più di tanto, secondo me riusciranno a tenerle a bada con una Vapor chamber e 2 ventole a regime medio.

Niente di strano insomma, cose già viste ...

Non capisco invece come riusciranno a starci con i consumi, probabilmente l'unica soluzione potrebbe essere un calo delle frequenze ... boh vedremo :rolleyes:

Mparlav
22-11-2010, 17:09
Se calano le frequenze, calano anche il vgpu, e questo ovviamente impatta molto di più sui consumi.
Inoltre, meglio la raffreddano ed ancor più calano i consumi, certo è facile che ciò vada a scapito del rumore.
Ma dopo le Asus Mars e Ares, è davvero tutto possibile :D

Sputafuoco Bill
22-11-2010, 17:10
E' più potente la hd6990 o la gtx590 (su altro sito la chiamano gtx595) ???
Comunque non so a chi serva effettivamente una scheda così...

keroro.90
22-11-2010, 17:14
Se calano le frequenze, calano anche il vgpu, e questo ovviamente impatta molto di più sui consumi.
Inoltre, meglio la raffreddano ed ancor più calano i consumi, certo è facile che ciò vada a scapito del rumore.
Ma dopo le Asus Mars e Ares, è davvero tutto possibile :D

k teoria è quella che meglio è raffredata e piu calano i consumi?il v core certamente influisce sui consumi, ma il sistema di raffredamento proprio no...il calore da smaltire è quello ed è funzione del chip, del v.core e della frequenza...
Cmq direi una scheda sicuramente assettata di ampere...la strada del dual gpu è sbagliata in partenza...se uno necessita di piu potenza si fa un cross o sli...e cmq la gtx 580 è sufficente x qualsiasi gioco a risoluzioni umane...

sniperspa
22-11-2010, 17:17
Immagino useranno un GF110 castrato...staremo a vedere :)

rusie
22-11-2010, 17:18
E' più potente la hd6990 o la gtx590 (su altro sito la chiamano gtx595) ???
Comunque non so a chi serva effettivamente una scheda così...

Non essendo ancora uscite non credo che nessuno possa dirti quale sia più potente soprattutto non essendo ancora uscite le 6950 e 6970 su cui si basa 6990 niente è certo

rusie
22-11-2010, 17:22
k teoria è quella che meglio è raffredata e piu calano i consumi?il v core certamente influisce sui consumi, ma il sistema di raffredamento proprio no...il calore da smaltire è quello ed è funzione del chip, del v.core e della frequenza...
Cmq direi una scheda sicuramente assettata di ampere...la strada del dual gpu è sbagliata in partenza...se uno necessita di piu potenza si fa un cross o sli...e cmq la gtx 580 è sufficente x qualsiasi gioco a risoluzioni umane...

Non è propriamente vero, il calore a cui arriva un chip influisce sulle sue prestazioni (mi pare dipenda da dilatazione termica e dal fatto che i materiali offrano resistenza differente a seconda della temperatura e tale resistenza influenza velocitàà del chip)

Tedturb0
22-11-2010, 17:23
pero' con questa forse Crysis ci gira :D

MarcoAK47
22-11-2010, 17:24
k teoria è quella che meglio è raffredata e piu calano i consumi?il v core certamente influisce sui consumi, ma il sistema di raffredamento proprio no...il calore da smaltire è quello ed è funzione del chip, del v.core e della frequenza...
Cmq direi una scheda sicuramente assettata di ampere...la strada del dual gpu è sbagliata in partenza...se uno necessita di piu potenza si fa un cross o sli...e cmq la gtx 580 è sufficente x qualsiasi gioco a risoluzioni umane...

In teoria, da quel che ricordo di elettronica ed elettrotecnica, per i transistor (al contrario dei resistori), all'aumentare della temperatura diminuisce la resistenza interna, aumenta la corrente e aumentano i consumi per effetto joule.
Se ho detto una cappellata ignoratemi :sofico:

keroro.90
22-11-2010, 17:32
In teoria, da quel che ricordo di elettronica ed elettrotecnica, per i transistor (al contrario dei resistori), all'aumentare della temperatura diminuisce la resistenza interna, aumenta la corrente e aumentano i consumi per effetto joule.
Se ho detto una cappellata ignoratemi :sofico:

si nei resistori la resistenza diminuisce assieme alla temperature...ma cmq si parla di variazioni veramente minime...e un dissipatore fa tanto se abbassa di 3-4° le temperature (quelli stock)....la vera differenza di consumi la fanno architettura tensione usata e frequenza...su questa dual avranno abbassatto di brutto tensione e frequenza altrimenti vedi che bolletta che ti arriva..

Elrim
22-11-2010, 17:37
non vedo perché inseguire ATI su questa strada, potevano lasciare la strada aperta alle custom stile ROG Mars ecc..., senza sporcarsi le mani. Resto fermamente contrario alle dual gpu su singolo pcb, ma immagino che certa gente veda più i pro che i contro. Buon per loro.

Mparlav
22-11-2010, 17:39
Per la correlazione, consumi e temperatura, guarda questa recensione:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_480_Amp_Edition/27.html

e questa:
http://en.expreview.com/2010/10/13/review-for-galaxy-geforce-gtx-480/10753.html/7

sbudellaman
22-11-2010, 17:46
Uscirà una scheda che consumerà più della 480 ??? LOL !
Sono curiosissimo di sapere quanto consumerà ! xD

tossy
22-11-2010, 17:48
In teoria, da quel che ricordo di elettronica ed elettrotecnica, per i transistor (al contrario dei resistori), all'aumentare della temperatura diminuisce la resistenza interna, aumenta la corrente e aumentano i consumi per effetto joule.
Se ho detto una cappellata ignoratemi :sofico:

Hai detto bene in parte: nei transistor a giunzione lineare (i cosiddetti BJT) è corretto quello che hai detto te.

Nei cirtuiti integrati vengono usate varianti dei FET, particolari transistor detti ad effetto di campo, in pratica sono come delle resistenze pilotate da un terminale chiamato Gate.
Come è noto le resistenze all'aumentare della temperatura aumentano la loro resistenza e quindi riducono la corrente che vi circola.
Alla stessa stregua i fet sono definiti per assurdo autoprotetti proprio perchè all'aumentare della loro temperatura si alza la resistenza interna (RDS-On) e la corrente diminuisce, proteggendoli.

Cambiano sicuramente velocità e precisione nella commutazione, quindi comunque vanno controllati in temperatura per matenere certi limiti.

Nei circuiti complessi come le CPU o le GPU i problemi da calore sono altri, si creano dei "buchi" tra gli strati del circuito e/o tra componenti adiacenti, creando così cortocircuiti o interruzioni.

scusate la disgressione :D

Strato1541
22-11-2010, 18:06
Vedremo cosa succederà anche se il gf110 è stato ottimizzato rispetto al gf100 la vedo ancora dura mettere insieme 2 gf110 senza consumare uno sproposito..
Però vedremo le dual che nvidia ha tirato fuori sono sempre andate molto forte quindi..

Xeon3540
22-11-2010, 18:17
TDP dichiarato da nVidia 244W , nVidia aveva specificato che si trattava del massimo dei consumi in game , quindi voleva escludere Furmark ( e fin qui sono d' accordo ). Poi però se si vanno a misurare in consumi in game ( Crysis ) si scopre che:

http://www.xbitlabs.com/images/video/geforce-gtx-580/gtx580_power.png

Iniziate a mettere l' acqua in pentola :D

la gtx580 consuma 350 watt immagino questa madooooo

ma scusate la cosa è logica più hai potenza e più ci sono consumi e calore la matematica non è un opinione, se vuoi la potenza e sfruttare la scheda al massimo devi spendere i soldini............:mbe:

Mc®.Turbo-Line
22-11-2010, 18:22
pero' con questa forse Crysis ci gira :D

Forse ne devi mettere 3 in Sli per far girare Crysis :D :sofico: magari pero' senza spingere troppo sull' antialising :O



CIUPA!:O

appleroof
22-11-2010, 18:22
TDP dichiarato da nVidia 244W , nVidia aveva specificato che si trattava del massimo dei consumi in game , quindi voleva escludere Furmark ( e fin qui sono d' accordo ).

sol perchè pure Ati adotta strategie simili :asd:

http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/


Poi però se si vanno a misurare in consumi in game ( Crysis ) si scopre che:

http://www.xbitlabs.com/images/video/geforce-gtx-580/gtx580_power.png

Iniziate a mettere l' acqua in pentola :D

in una scheda top i consumi non contano, lo sappiamo, contano le prestazioni

forse conta di più il calore prodotto (almeno per me conta abbastanza), anche in ottica oc, e direi che l'acqua in pentola con la 580 non serve al fine che ironicamente fai intendere, esempio tra mille di un sito "non sospetto":

The bottom line on GTX 580 and heat is this; it is not nearly as friggin' hot as those direct-from-hell GTX 480s. Yes, the GTX 580 is still not cool in any sense of the word, but it is not the 10,000 BTU space heater that the GTX 480 is. I am getting much better frame rates in my games with GTX 580 SLI and I now don't have to roll the box fan in from the garage to ventilate my office when I play games.

http://www.hardocp.com/article/2010/11/09/nvidia_geforce_gtx_580_video_card_review/8

PeGaz_001
22-11-2010, 18:26
E' più potente la hd6990 o la gtx590 (su altro sito la chiamano gtx595) ???
Comunque non so a chi serva effettivamente una scheda così...

schede video del genere servono per far rispondere alla gente " ma ci gira crysis " :rolleyes:

risposta 2 , sta scheda serve per benchare... x giocare no nn fa! :muro:

zorco
22-11-2010, 18:36
in una scheda top i consumi non contano, lo sappiamo, contano le prestazioni

forse conta di più il calore prodotto (almeno per me conta abbastanza), anche in ottica oc, e direi che l'acqua in pentola con la 580 non serve al fine che ironicamente fai intendere, esempio tra mille di un sito "non sospetto":

The bottom line on GTX 580 and heat is this; it is not nearly as friggin' hot as those direct-from-hell GTX 480s. Yes, the GTX 580 is still not cool in any sense of the word, but it is not the 10,000 BTU space heater that the GTX 480 is. I am getting much better frame rates in my games with GTX 580 SLI and I now don't have to roll the box fan in from the garage to ventilate my office when I play games.


si d'accordo,ma ha tutto cè un limite,se continuiamo di questo passo,visto che di generazione in generazione i watt aumentano sempre di più,arriveremo presto a schede con un assorbimento spaventoso,che per accendere il pc, ci vorranno 3kv di potenza e case quando una stanza:fagiano:

Foglia Morta
22-11-2010, 18:46
sol perchè pure Ati adotta strategie simili :asd:

http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/[/url

O magari perchè quel che conta è l' uso tipico...

ma da che pulpito poi arrivano le provocazioni, chissà perchè al lancio ti eri letteralmente inventato che i consumi della GTX580 sono del 20% inferiori a quelli della GTX480 : http://www.hwupgrade.it/forum/showpost.php?p=33598055&postcount=2413

Non capisco certi commenti...in questi giorni si vociferava di un +20% di prestazioni e un -20% di consumi in media rispetto a gtx480, da queste primissime rece sembrano dati confermati (con in piu un dissi che elimina il difetto principale della 480): chi era soddisfatto di quei rumors lo era a prescindere dal nome del chip (che poi anche qui si vociferava di un'evoluzione, non un chip nuovo)

Dunque o sono evidenti fanboiate oppure la delusione è dovuta a scarsa attenzione ai rumors/troppa aspettativa rispetto a questi.

in una scheda top i consumi non contano, lo sappiamo, contano le prestazioni

forse conta di più il calore prodotto (almeno per me conta abbastanza), anche in ottica oc, e direi che l'acqua in pentola con la 580 non serve al fine che ironicamente fai intendere, esempio tra mille di un sito "non sospetto":

The bottom line on GTX 580 and heat is this; it is not nearly as friggin' hot as those direct-from-hell GTX 480s. Yes, the GTX 580 is still not cool in any sense of the word, but it is not the 10,000 BTU space heater that the GTX 480 is. I am getting much better frame rates in my games with GTX 580 SLI and I now don't have to roll the box fan in from the garage to ventilate my office when I play games.

[url]http://www.hardocp.com/article/2010/11/09/nvidia_geforce_gtx_580_video_card_review/8

Ipotizzavo per un eventuale dual GF110 ;) . Comunque se devi esserti ridotto a inventarti le cose riguardo a i consumi evidentemente per te contano , poi però ti si fa notare appunto che quel 20% non c' è e cambi idea :asd:

sbudellaman
22-11-2010, 18:49
in una scheda top i consumi non contano, lo sappiamo, contano le prestazioni...
Se vabbè... okey che i consumi sono "meno importanti" quando si parla di schede high end, ma dire in senso assoluto che non contano... scusa eh :D

Hey non sto dicendo che questa scheda è inutile eh... alcuni appassionati sicuramente la compreranno, ma prima di acquistarla un pensierino sui consumi se lo fanno sicuramente ! Ma allo stesso modo, ci sarà anche chi non la comprerà proprio a causa dei consumi spropositati.

appleroof
22-11-2010, 18:50
si d'accordo,ma ha tutto cè un limite,se continuiamo di questo passo,visto che di generazione in generazione i watt aumentano sempre di più,arriveremo presto a schede con un assorbimento spaventoso,che per accendere il pc, ci vorranno 3kv di potenza e case quando una stanza:fagiano:

Zorco tu prendi spesso la fascia media, quindi che te frega :D ? Avrai sempre vga che consumano meno della top (le belle "prezzo/prestazioni")


poi sono d'accordo sul discorso prestazioni/watt in generale, ma anche Ati (che in effetti, và riconosciuto, ha fatto un ottimo lavoro nella ricerca del miglio rapporto preformance/watt anche sulle top),con l'attuale top la 5970, supera i 200w di slancio...questo per dire che c'è poco da fare, per quanto si sforzino le prestazioni massime si pagano anche in questo senso (ed è sempre stato così, in proporzione) ....l'unica è appunto non comprarle e cercare, se queste sono le esigenze, schede dal miglior compromesso prezzo/prestazioni

Notturnia
22-11-2010, 18:52
ma quanti di voi si stupiscono che una formula uno non fa neanche 1 km/l ?
che lo shuttle fa 10 centimetri con un litro ?

tutti a dire c... cose strane ?

immagino che la 590 sia pensata da nvidia come energy saving per le nonnette da integrare nella radiosveglia..

circa un'altra cosa.. sono 3 kW alla peggio.. con 3 mila volt non ci accendi molto..

ma A tutto c'è un limite.. non HA tutto.. e c'è, non cè ..

p.s. solo in italia c'è ancora gente strana con 3 kW di contratto di energia elettrica.. nel resto del monto industrializzato quel limite antico non esiste.. chiedete ad uno svizzero.. francese.. tedesco.. austriaco.. inglese.. 3 kW sono correlati ai nostri 2Mbit in adsl quando in danimarca a casa hanno 20Mbit effettivi e alcuni amici ad oslo si lamentano che i 100mbit non arrivano neanche a 35-40 effettivi..

suvvia.. non fate come la volpe con l'uva.. questa scheda non è pensata per chi si lamenta di certe cose.. è come un pilota di formula 1 che vuole 1000 cv e fare 20km/l .. se si è gentili lo si definisce ipocrita..

appleroof
22-11-2010, 18:54
O magari perchè quel che conta è l' uso tipico...

ma da che pulpito poi arrivano le provocazioni, chissà perchè al lancio ti eri letteralmente inventato che i consumi della GTX580 sono del 20% inferiori a quelli della GTX480 : http://www.hwupgrade.it/forum/showpost.php?p=33598055&postcount=2413

inventato presuppone in me una malafede che solo uno in malafede può presupporre, fino a prova contraria :)

a differenza di chi passa il giorno alla ricerca e lettura dei più singolari rumors nel mondo (come te?), era quello che distrattamente in quel momento mi pareva di aver capito, il giorno in cui mi iscriverò all'albo dei giornalisti cercherò sempre di verificare le cose che dico, anche in un forum di semplici appassionati



Ipotizzavo per un eventuale dual GF110 ;) . Comunque se devi esserti ridotto a inventarti le cose riguardo a i consumi evidentemente per te contano , poi però ti si fa notare appunto che quel 20% non c' è e cambi idea :asd:

come sopra ;)

aggiungo solo un rilassati, Foglia Morta: forse capirei un astio del genere solo nel caso in cui Amd non solo ti paghi, ma ti abbia come minimo comprato pure la casa e la macchina :asd:

p.s.: chiedo venia, non avevo capito che parlavi della dual.

Capozz
22-11-2010, 19:05
in una scheda top i consumi non contano, lo sappiamo, contano le prestazioni



Il problema quì è che con due GF110 non si rientra nelle specifiche pci express, a meno che non vogliano fare una scheda con 3 molex.
Insomma o i chip non sono GF110 oppure saranno fortemente castrati dal lato clock.

Foglia Morta
22-11-2010, 19:09
inventato presuppone in me una malafede che solo uno in malafede può presupporre, fino a prova contraria :)

a differenza di chi passa il giorno alla ricerca e lettura dei più singolari rumors nel mondo (come te?), era quello che distrattamente in quel momento mi pareva di aver capito, il giorno in cui mi iscriverò all'albo dei giornalisti cercherò sempre di verificare le cose che dico, anche in un forum di semplici appassionati




come sopra ;)

aggiungo solo un rilassati, Foglia Morta: forse capirei un astio del genere solo nel caso in cui Amd non solo ti paghi, ma ti abbia come minimo comprato pure la casa e la macchina :asd:

p.s.: chiedo venia, non avevo capito che parlavi della dual.

E' ovvio che vuoi solo flammare...

appleroof
22-11-2010, 19:13
Il problema quì è che con due GF110 non si rientra nelle specifiche pci express, a meno che non vogliano fare una scheda con 3 molex.
Insomma o i chip non sono GF110 oppure saranno fortemente castrati dal lato clock.

si, parlando della news sono rimasto pure io incredulo: capirei una dual su gf104 o al limite gf114 di cui si vocifera (per chi bookmarka ogni parola, correggetemi se sbaglio :D ), ma 2 gf110, al massimo della loro potenza, credo non siano fattibili tecnicamente allo stato...forse è solo un mega-fake oppure una cosa buttata lì per tenere vivo l'interesse per Nvidia in mancanza d'altro :boh:

E' ovvio che vuoi solo flammare...

però sei tu che continui e non rispondi nel merito come credo io abbia fatto :)

Raven
22-11-2010, 19:19
http://digilander.libero.it/arosati76/costanzo.jpg

Pier2204
22-11-2010, 19:23
non vedo perché inseguire ATI su questa strada, potevano lasciare la strada aperta alle custom stile ROG Mars ecc..., senza sporcarsi le mani. Resto fermamente contrario alle dual gpu su singolo pcb, ma immagino che certa gente veda più i pro che i contro. Buon per loro.

Direi che Nvidia non vuole assolutamente lasciare lo scettro di scheda più potente sul mercato nelle mani di AMD con la serie Antilles o HD6990, e risponde con la GTX 590 o come si chiamerà.

Sono schede con un mercato dell'un percento, ma avere la più potente è un bello scoop pubblicitario...

Vedremo lo scontro tra titani...sperando che non si trasformi nello scontro del Titanic :D

Someone
22-11-2010, 19:31
Ma dai che senso ha una scheda del genere? 2 GF110 su singola board?
Scommetto che per farcela stare nelle specifiche di consumo andrà poco più di una dual con GF104 con frequenze di default. O meglio, che una dual GF104 opportunamente cloccata può andare come questa e consumare meno.
Siamo sicuri che non siano 2xGF114, quindi probabilmente dei GF110 senza la parte GPGPU?

Comunque concordo sul fatto che avere 2 GPU sullo stesso PCB non ha alcun senso. E' così difficile infilare la seconda scheda nello slot libero? (sì, ok il bridge custom di nvidia che uno deve acquistare preventivamente con scheda madre adatta, ma AMD non ha questo problema)
Perché fare degli scempi del genere? Per dire: io ce l'ho più lungo (e frego quei babbei che comprano la dual quando con meno si fanno un Cross/SLI che va di più e non serve loro un case profondo come un mobile per farci stare 'sti colossi)?
Mah...

cire92cry
22-11-2010, 19:55
Be spe se prendi una scheda madre che supporta l'sli c'è il bridge ati lo da nelle vga ma non cambia cioè se hai il bridge con le ati ma la mobo che non supporta il crossfire sei allo stesso punto :)

sniperspa
22-11-2010, 20:01
Personalmente sono curioso anchio sul come faranno a mettere assieme due GF110 e con quali prestazioni/consumi/calore ma non sto a fare i conti in tasca ad Nvidia...se la fa avrà i suoi buoni motivi (cercare di non perdere lo scettro di scheda video più veloce) e se ne verrà fuori una ciofeca scaldabagno sarà sicuramente ridicolizzata, ma fino a quando non ci saranno più informazioni è inutile fare supposizioni.

Concordo con quelli che dicono che i consumi non contano su schede di questa fascia (l'importante che non sia compromessa la durabilità della scheda!) ma personalmente da appassionato di tecnologia apprezzo di più chi riesce a creare un chip con un buon rapporto prestazioni/consumo piuttosto che chip con un rapporto prestazioni/consumo inferiore ma che raggiungono prestazioni massime superiori...so benissimo che un'appassionato di bench la penserà in maniera diversa dalla mia ma io 500€ per la scheda video non me li posso permettere ancora :fagiano:

sniperspa
22-11-2010, 20:07
Ma dai che senso ha una scheda del genere? 2 GF110 su singola board?
Scommetto che per farcela stare nelle specifiche di consumo andrà poco più di una dual con GF104 con frequenze di default. O meglio, che una dual GF104 opportunamente cloccata può andare come questa e consumare meno.
Siamo sicuri che non siano 2xGF114, quindi probabilmente dei GF110 senza la parte GPGPU?

Comunque concordo sul fatto che avere 2 GPU sullo stesso PCB non ha alcun senso. E' così difficile infilare la seconda scheda nello slot libero? (sì, ok il bridge custom di nvidia che uno deve acquistare preventivamente con scheda madre adatta, ma AMD non ha questo problema)
Perché fare degli scempi del genere? Per dire: io ce l'ho più lungo (e frego quei babbei che comprano la dual quando con meno si fanno un Cross/SLI che va di più e non serve loro un case profondo come un mobile per farci stare 'sti colossi)?
Mah...

Il senso può essere avere un sli di schede dualgpu...visto che mettere 4 schede dual slot è impossibile praticamente (a meno di non avere un impianto a liquido e una scheda madre con 4 slot pci-e)

Ovviamente solo per benchmark, ma d'altronde il target d'uso di queste schede non dovrebbe esser altro (anche se di fatto questo non è sempre vero)

Lithium_2.0
22-11-2010, 20:10
Direi che Nvidia non vuole assolutamente lasciare lo scettro di scheda più potente sul mercato nelle mani di AMD con la serie Antilles o HD6990, e risponde con la GTX 590 o come si chiamerà.

In pratica la stessa Nvidia ci anticipa che la HD6990 sarà un mostro di potenza con prestazioni irraggiungibili per la GTX580... sempre che la news sia vera :D

Elrim
22-11-2010, 21:33
Il senso può essere avere un sli di schede dualgpu...visto che mettere 4 schede dual slot è impossibile praticamente (a meno di non avere un impianto a liquido e una scheda madre con 4 slot pci-e)

Ovviamente solo per benchmark, ma d'altronde il target d'uso di queste schede non dovrebbe esser altro (anche se di fatto questo non è sempre vero)

Sistemi del genere a 4 gpu sono roba fuori dal mondo, sia perché dubito esistano cpu in grado di mantenere le prestazioni senza pisciare potenza in overhead, sia perché a livello di drivers l'ottimizzazione è molto relativa.
C'è gente che spende cifre e sbattiti simili solo per i benchmark, ma definirli pazzoidi non è un'esagerazione.
Ultima considerazione, sbaglia chi pensa che la 580 sia un forno: sono le Nvidia più "fresche" dai tempi della 9800, sia GT200 che GF100 erano molto più caldi.

Blackcat73
22-11-2010, 21:38
Sistemi del genere a 4 gpu sono roba fuori dal mondo, sia perché dubito esistano cpu in grado di mantenere le prestazioni senza pisciare potenza in overhead, sia perché a livello di drivers l'ottimizzazione è molto relativa.
C'è gente che spende cifre e sbattiti simili solo per i benchmark, ma definirli pazzoidi non è un'esagerazione.
Ultima considerazione, sbaglia chi pensa che la 580 sia un forno: sono le Nvidia più "fresche" dai tempi della 9800, sia GT200 che GF100 erano molto più caldi.

Però non montavano un sistema di dissipazione vapor chamber.

randy88
22-11-2010, 22:04
Direi che Nvidia non vuole assolutamente lasciare lo scettro di scheda più potente sul mercato nelle mani di AMD con la serie Antilles o HD6990, e risponde con la GTX 590 o come si chiamerà.

nvidia non ha ancora caòpito che siamo nel 2010.

nel 2010, lo scettro prestazionale non serve più ad una sega.

nel 2010, ciò che conta è L'EFFICIENZA. il rapporto consumo/prestazioni. da questo lato qui nvidia è completamente fuori dal mondo.

un'azienda dell'importanza di nvidia, che nel 2010, si ostina ad avere una mentalità solo "prestazioni oriented", non merita neppure di essere commentata.

brattak
22-11-2010, 22:26
per i fanboy ati
attualmente la 6990 non esiste e quando esistera bisognera anche vedere se sara fatta da 2 gpu cayman pro o xt e di quanto verra castrata che ti pensi in tutti i casi anche la 6990 succhiera il contatore e potrai farci le frittelle....

thedoctor1968
22-11-2010, 22:35
Con il pc faccio cose per cui mi basta una scheda video da 100 euro, per giocare uso con grandissima soddisfazione le console, non ho tempo da perdere in configurazioni, installazioni assurde, sistemi di protezione che penalizzano chi acquista.. Per carità... Come l'amico sopra: scaffalon scaffalon scaffalon !!! :-)

PeGaz_001
22-11-2010, 22:38
Con il pc faccio cose per cui mi basta una scheda video da 100 euro, per giocare uso con grandissima soddisfazione le console, non ho tempo da perdere in configurazioni, installazioni assurde, sistemi di protezione che penalizzano chi acquista.. Per carità... Come l'amico sopra: scaffalon scaffalon scaffalon !!! :-)

:rolleyes: mi dispiace per te. (anzi no)

sniperspa
22-11-2010, 22:40
per i fanboy ati
attualmente la 6990 non esiste e quando esistera bisognera anche vedere se sara fatta da 2 gpu cayman pro o xt e di quanto verra castrata che ti pensi in tutti i casi anche la 6990 succhiera il contatore e potrai farci le frittelle....

Bisognerà vedere quale delle due schede avrà il rapporto prezzo/prestazioni migliore...chiaramente

brattak
22-11-2010, 22:50
Bisognerà vedere quale delle due schede avrà il rapporto prezzo/prestazioni migliore...chiaramente

non e cosi ...
bisognera vedere quella che va di piu e logicamente costera di piu ......
poi ci sara allora il rapporto prezzo prestazioni che sollevera il morale di chi si sara comperato la scheda che va di meno ( questo vale per ati come per nvidia)
basta guardare gtx580 500 euro uno sproposito veramente molti pero va di piu .....e il top delle single gpu...e si paga se quando uscira cayman sapra fare di meglio anche se di poco la 580 scendera e i 500 euro se li prendera ati...:cool:

Elrim
22-11-2010, 23:50
nvidia non ha ancora caòpito che siamo nel 2010.

nel 2010, lo scettro prestazionale non serve più ad una sega.

nel 2010, ciò che conta è L'EFFICIENZA. il rapporto consumo/prestazioni. da questo lato qui nvidia è completamente fuori dal mondo.

un'azienda dell'importanza di nvidia, che nel 2010, si ostina ad avere una mentalità solo "prestazioni oriented", non merita neppure di essere commentata.

tipico fanboy ATI

questa è la news su una dual gpu top di gamma e tu vieni a parlare di efficienza e consumi/prestazioni?
Anche la Ferrari ha un rapporto prezzo/consumi/prestazioni discutibile, ma chi considera queste soluzioni punta solo ed unicamente alle prestazioni pure.
vabbò dai, il tuo avatar dice fin troppo, di sicuro regalerai perle sul consumo/prestazioni anche in occasione del lancio della 6990

Jean240
23-11-2010, 00:25
lol elrim che da del fanboy.

il concetto di randy88 va contestualizzato:

se una scheda fa il 10% in più di performance consumando il 40% in più (cifre che butto li), è sconveniente, per quanto top gamma da prestazioni pure.

maggior consumo e calore in percentuali elevate sono accettabili qualora il divario prestazionale sia direttamente proporzionale, altrimenti come dice randy88 "non serve ad una sega" avere un'auto di poco più veloce (330km/h contro 300km/h che pochi non sono in entrambi i casi) quando beve come una dannata (4 km/lt contro 8km/lt), visto che vi piacciono le auto.

:asd: :D

-BaTaB-
23-11-2010, 00:38
fanboy o no però va detto che è un dato di fatto non sentire gente che compra la Ferrari esclamare: "cavolo ho preso questa perché consuma il 30% in meno di una Lambo ma va quasi uguale"
oppure
"cavolo, è un peccato che non facciano la Ferrari a gasolio perché a parità di potenza avrei più coppia e consumi di molto inferiori; se la facessero sceglierei di sicuro la motorizzazione a gasolio"

...sono solo esempi eh, e ce ne sarebbero di simili anche nel campo dell'informatico (vedasi impianti a liquido) ma è vero che chi compra una scheda video da 500-600€ non penso sia così preoccupato anche se ci sono 50watt o più di differenza sotto carico (poi ovviamente se si guarda il lato ecologico allora ok, ma questi ragionamenti varrebbero per taaaaante altre cose)

per carità, discutere l'uscita di un prodotto non può essere solo "wow, che bello" o "wow, che bravi": devono esserci anche delle lamentele ma tante mi sembrano un attimino esagerate e per partito preso.

...io personalmente se esce una scheda sono contento, tanto la concorrenza male non fa, e una scheda in più tra cui poter scegliere in caso di necessità nemmeno :)

...ammesso poi che questa sia vera concorrenza e non solo apparente :)

Hal2001
23-11-2010, 00:39
Uscirà una scheda che consumerà più della 480 ??? LOL !

La GTX 580 è già uscita :)
(sulla carta visto il paper launch)

sbudellaman
23-11-2010, 01:18
La GTX 580 è già uscita :)
(sulla carta visto il paper launch)

Perchè, la 580 consuma più della 480 ? :confused:

Elrim
23-11-2010, 06:28
lol elrim che da del fanboy.

il concetto di randy88 va contestualizzato:

se una scheda fa il 10% in più di performance consumando il 40% in più (cifre che butto li), è sconveniente, per quanto top gamma da prestazioni pure.

maggior consumo e calore in percentuali elevate sono accettabili qualora il divario prestazionale sia direttamente proporzionale, altrimenti come dice randy88 "non serve ad una sega" avere un'auto di poco più veloce (330km/h contro 300km/h che pochi non sono in entrambi i casi) quando beve come una dannata (4 km/lt contro 8km/lt), visto che vi piacciono le auto.

contestualizzato a cosa? Alla fascia bassa? Alla fascia media? Alla fascia alta?

Di certo non alla fascia enthusiast.
E il paragone che fai è profondamente sbagliato, questa scheda andrà paragonata alla 6990, e la 6990 non consumerà la metà di questa 590, al massimo consumerà uno sputo in meno, assolutamente ininfluente per chiunque decida di optare per queste soluzioni. Il commento di randy88 non solo è fuori luogo, è proprio sintomo di profonda ignoranza.

Xeon3540
23-11-2010, 08:02
tipico fanboy ATI

questa è la news su una dual gpu top di gamma e tu vieni a parlare di efficienza e consumi/prestazioni?
Anche la Ferrari ha un rapporto prezzo/consumi/prestazioni discutibile, ma chi considera queste soluzioni punta solo ed unicamente alle prestazioni pure.
vabbò dai, il tuo avatar dice fin troppo, di sicuro regalerai perle sul consumo/prestazioni anche in occasione del lancio della 6990

sono daccordo con te è normale più hai potenza e più ha consumi, se si parla di potenza non credo ve si va a vedere il consumo, la stessa cosa di un auto da corsa più la spingi più consuma la matematica non è un opinione vero?

System Shock
23-11-2010, 08:18
Fare una dual gpu a 40 nm decisamente più potente di una hd 5970 (farla uguale non credo servirebbe a molto) è una bella sfida sia per Nvidia che per Amd
I chip ci sono 2 gf 110 o due Cayman xt su singola scheda sarebbero di gran lunga superiori alla 5970 , ma il problema sono i Watt non credo si possa andare molto oltre i 300 della 5970.
Dovranno inventarsene delle belle,togliere shader diminuisce i consumi idem abbassare il clock.
Ma poi si rischia di sacrificare troppo le grandissime prestazioni che la gente si aspetta da queste schede.


Poi mi chiedo,ma se una 580 costa 420 € quanto costerà una versione gx2 ?

mircocatta
23-11-2010, 08:22
Fare una dual gpu a 40 nm decisamente più potente di una hd 5970 (farla uguale non credo servirebbe a molto) è una bella sfida sia per Nvidia che per Amd
I chip ci sono 2 gf 110 o due Cayman xt su singola scheda sarebbero di gran lunga superiori alla 5970 , ma il problema sono i Watt non credo si possa andare molto oltre i 300 della 5970.
Dovranno inventarsene delle belle,togliere shader diminuisce i consumi idem abbassare il clock.
Ma poi si rischia di sacrificare troppo le grandissime prestazioni che la gente si aspetta da queste schede.


Poi mi chiedo,ma se una 580 costa 420 € quanto costerà una versione gx2 ?
sappi che le gtx480/580 consumano di più delle 5970, quindi sono meno di 300watt per la 5970, andando anche meno (quando i driver sono ottimizzati facendo funzionare correttamente il dual gpu)

Xeon3540
23-11-2010, 08:23
Fare una dual gpu a 40 nm decisamente più potente di una hd 5970 (farla uguale non credo servirebbe a molto) è una bella sfida sia per Nvidia che per Amd
I chip ci sono 2 gf 110 o due Cayman xt su singola scheda sarebbero di gran lunga superiori alla 5970 , ma il problema sono i Watt non credo si possa andare molto oltre i 300 della 5970.
Dovranno inventarsene delle belle,togliere shader diminuisce i consumi idem abbassare il clock.
Ma poi si rischia di sacrificare troppo le grandissime prestazioni che la gente si aspetta da queste schede.


Poi mi chiedo,ma se una 580 costa 420 € quanto costerà una versione gx2 ?

ma la cosa è logica che costerà qualcosa in più perchè secondo te una 6990 può mai costare quanto una a singola gpu? mah :mbe: ma ce l' avete con nvidia da quanto stò capendo

AleLinuxBSD
23-11-2010, 08:25
In questa soluzione c'è scritto che una linea pci express è stata usata come collegamento quindi un possibile upgrade futuro potrebbe essere l'uso del nuovo standard pci express 3.0, forse verso la fine del prossimo anno?

Io mi domando come mai nel segmento delle schede video non siano ancora disponibili dual-gpu, integrate nello stesso package, questo comporterebbe costi e consumi inferiori.

Xeon3540
23-11-2010, 08:28
In questa soluzione c'è scritto che una linea pci express è stata usata come collegamento quindi un possibile upgrade futuro potrebbe essere l'uso del nuovo standard pci express 3.0, forse verso la fine del prossimo anno?

Io mi domando come mai nel segmento delle schede video non siano ancora disponibili dual-gpu, integrate nello stesso package, questo comporterebbe costi e consumi inferiori.

non penso che ci saranno meno consumi per le dual gpu.......

mircocatta
23-11-2010, 08:40
In pratica la stessa Nvidia ci anticipa che la HD6990 sarà un mostro di potenza con prestazioni irraggiungibili per la GTX580... sempre che la news sia vera :D

SVEGLIAAAAAA

la 5970 è ancora la più veloce! figurati una 6990

Xeon3540
23-11-2010, 08:41
SVEGLIAAAAAA

la 5970 è ancora la più veloce! figurati una 6990

devi vedere nei giochi può essere la più veloce ma la compatibilità?la fisica? la 580 è un mostro concordo

mircocatta
23-11-2010, 08:42
In questa soluzione c'è scritto che una linea pci express è stata usata come collegamento quindi un possibile upgrade futuro potrebbe essere l'uso del nuovo standard pci express 3.0, forse verso la fine del prossimo anno?

Io mi domando come mai nel segmento delle schede video non siano ancora disponibili dual-gpu, integrate nello stesso package, questo comporterebbe costi e consumi inferiori.

costi di produzione inferiori, perchè dual gpu si utilizzerebbero i normali gf110, oppure se saranno in versione castrata, i gf110 mezzi fallati.

un chip unico, oltre a creare problemi di spazio, costerebbe molto molto di più, perchè sarebbe un intero progetto nuovo. oltre al fatto che più un chip è grande e più si rischia di buttare via interi wafer in caso di malfunzionamento

mircocatta
23-11-2010, 08:45
devi vedere nei giochi può essere la più veloce ma la compatibilità?la fisica? la 580 è un mostro concordo

cacchio, siamo pieni di giochi con pysichx (o come si scrive) !! :eek:

per la compatibilità ok, ci possono essere problemi, difatti queste vga io le eviterei a prescindere..di aspettare eventuali release di driver che risolvono i problemi, magari solo in parte, io non ho voglia

Xeon3540
23-11-2010, 08:54
cacchio, siamo pieni di giochi con pysichx (o come si scrive) !! :eek:

per la compatibilità ok, ci possono essere problemi, difatti queste vga io le eviterei a prescindere..di aspettare eventuali release di driver che risolvono i problemi, magari solo in parte, io non ho voglia

sono secoli che dicono i driver devono essere ottimizzati,gli havoc a breve devono essere implementati,poi ogni volta devi mettere patch su patch è una noia mortale esci pazzo :muro:

Xeon3540
23-11-2010, 08:55
cacchio, siamo pieni di giochi con pysichx (o come si scrive) !! :eek:

per la compatibilità ok, ci possono essere problemi, difatti queste vga io le eviterei a prescindere..di aspettare eventuali release di driver che risolvono i problemi, magari solo in parte, io non ho voglia

si scrive physX

mircocatta
23-11-2010, 09:11
sono secoli che dicono i driver devono essere ottimizzati,gli havoc a breve devono essere implementati,poi ogni volta devi mettere patch su patch è una noia mortale esci pazzo :muro:

1- i driver sono già ottimi, quello che intendo è che per dual gpu e configurazioni multi gpu, quando esce un gioco, spesso e volentieri funzionano male, e nelle successive release di driver i problemi vengono risolti. vale sia per ati, sia per nvidia.
2- physx funziona anche su dei pc che non hanno nvidia, perchè in grado di girare su CPU ...e in ogni caso i giochi famosi con physx che hanno benefici del suo utilizzo sulla gpu, si contano sulle dita della mano e apportano 0 come gameplay, altri giochi invece hanno motori fisici propri
3- perchè nvidia non esce continuamente con driver beta 1a volta alla settimana? sinceramente ho avuto sia ati che nvidia, ne sono uscito pazzo con nvidia a furia di installare driver su driver dove si promettevano guadagni prestazionali e che invece erano solo fuffa, ora vado solo di certificati whql perchè mi son rotto dis scaricare centinaia di mb ogni volta :D

Someone
23-11-2010, 09:51
Il senso può essere avere un sli di schede dualgpu...visto che mettere 4 schede dual slot è impossibile praticamente (a meno di non avere un impianto a liquido e una scheda madre con 4 slot pci-e)

Ovviamente solo per benchmark, ma d'altronde il target d'uso di queste schede non dovrebbe esser altro (anche se di fatto questo non è sempre vero)
Cioè, secondo te nvidia sta facendo una scheda dual GPU da vendere a quelli che fanno benchmark con 2 schede di queste in SLI? Giusto nel 3D mark.
In vecchi test che ho visto non c'è gioco che guadagni da 4 GPU. 3 sono spesso inutili. 2 sono già un problema. Il fatto è che chi vuole affrontare i problemi di una doppia GPU può benissimo usare un Crossfire/SLI su scheda madre, pagare di meno di questi cosi e andare di più.
La produzione di queste schede (ne faranno si e no qualche migliaio per tutto il globo) è solo una corsa per essere messi in cima a qualche inutile classifica di chi ce l'ha più lungo. E dato che il collo di bottiglia qui è il consumo (ormai al limite delle specifiche già per scheda singola), questi chip possono essere potenti quanto si vuole ma alla fine 2 GF104 opportunamente cloccati potranno dare di più o consumare di meno a parità di prestazioni. E su schede separate si può anche andare oltre i 300W di limite (quindi ancora più potenza, volendo).
Se non sono 2 GF114 mi sembra una presa in giro, ma sono sicuro che qualcuno la comprerà comunque dato che sarà la scheda più veloce del mondo (ma non la soluzione più veloce in assoluto, esattamente come la 5970).

Xeon3540
23-11-2010, 10:55
1- i driver sono già ottimi, quello che intendo è che per dual gpu e configurazioni multi gpu, quando esce un gioco, spesso e volentieri funzionano male, e nelle successive release di driver i problemi vengono risolti. vale sia per ati, sia per nvidia.
2- physx funziona anche su dei pc che non hanno nvidia, perchè in grado di girare su CPU ...e in ogni caso i giochi famosi con physx che hanno benefici del suo utilizzo sulla gpu, si contano sulle dita della mano e apportano 0 come gameplay, altri giochi invece hanno motori fisici propri
3- perchè nvidia non esce continuamente con driver beta 1a volta alla settimana? sinceramente ho avuto sia ati che nvidia, ne sono uscito pazzo con nvidia a furia di installare driver su driver dove si promettevano guadagni prestazionali e che invece erano solo fuffa, ora vado solo di certificati whql perchè mi son rotto dis scaricare centinaia di mb ogni volta :D

mi sa che è tutto il contrario con cui devi uscire pazzo non credi?

System Shock
23-11-2010, 11:27
sappi che le gtx480/580 consumano di più delle 5970, quindi sono meno di 300watt per la 5970, andando anche meno (quando i driver sono ottimizzati facendo funzionare correttamente il dual gpu)

ma la cosa è logica che costerà qualcosa in più perchè secondo te una 6990 può mai costare quanto una a singola gpu? mah :mbe: ma ce l' avete con nvidia da quanto stò capendo

Fantastico :D :D :D ho attirato le ire sia dei fan boys Ati Che Nvidia

Lithium_2.0
23-11-2010, 13:00
SVEGLIAAAAAA

la 5970 è ancora la più veloce! figurati una 6990

Ma si, a parte che adesso tra 5970 e 580 come prestazioni siamo lì (anche se personalmente se avessi la fortuna di poter scegliere tra una delle 2 andrei sulla 580), intendevo dire che sembra che la 6990 avrà prestazioni talmente superiori da spingere Nvidia ad "avventurarsi" in soluzioni off-limits come un dual-gpu di GF110, sempre che, ripeto, la news sia veritiera.

PeGaz_001
23-11-2010, 13:09
e fu cosi che il 3d andò in vacca preso sotto sequestro dai "soliti" . :rolleyes:

Ale55andr0
23-11-2010, 14:53
tipico fanboy ATI




al quale risponde un fanboy nVidia :D (o dovrei dire "IL"? :asd:)

1 a 1 :O

Ale55andr0
23-11-2010, 14:55
Anche la Ferrari ha un rapporto prezzo/consumi/prestazioni discutibile, ma chi considera queste soluzioni purepunta solo ed unicamente alle prestazioni .

Il che, andando OT, è falso, comunque lasiciam perdere, parliamo di vga :)

Xeon3540
23-11-2010, 15:19
ma qui sò fissati con stò prezzo/ prestazioni lo volete capire che se volete potenza dovete spendere, e se c'è potenza c'è consumo ma la cosa è logica no?!?!?

longhorn7680
23-11-2010, 18:56
contestualizzato a cosa? Alla fascia bassa? Alla fascia media? Alla fascia alta?

Di certo non alla fascia enthusiast.
E il paragone che fai è profondamente sbagliato, questa scheda andrà paragonata alla 6990, e la 6990 non consumerà la metà di questa 590, al massimo consumerà uno sputo in meno, assolutamente ininfluente per chiunque decida di optare per queste soluzioni. Il commento di randy88 non solo è fuori luogo, è proprio sintomo di profonda ignoranza.

Beh che tu sei un fanboy iNvidia lo sanno anche i banner pubblicitari del sito :) pero questa volta hai ragione al 100%.
Posso capire fare il rapporto consumo/prestazioni fino alla fascia della 5870, ma anche più sotto, ma oltre e LOL!!! Mettiamoci in testa che chi compra queste schede se ne infischia della bolletta e spesso le mette a liquido!!!
Il problema Sara rientrare nelle specifiche Pci-Ex e voglio vedere come risolveranno ma il testo del thread purtroppo e diventato flame pro ATI e basta. Poi e solo un rumor, cerchiamo di non scaldarci tanto!!!

Xeon3540
23-11-2010, 19:14
logico il consumo non lo guardo guardo la potenza............:p ed io sono di questi

kiwivda
23-11-2010, 23:48
Beh io non so voi ma a me la 295 che mi tiene acceso il monitor non ha mai perso un colpo ed è un bel po che sto aspettando che arrivi la sostituta. Beh credo che questa volta ci siamo. Ah per la cronaca, mai e ripeto MAI in 13 anni ho avuto 1 solo problema di driver con Nvidia, ma non sono un Fan Boy, io una ati l'ho comprata all'epoca.... la X1950PRO beh sapete che vi dico, che ati non ha mai sviluppato i driver per vista costringendomi dopo 15gg a buttare nel cesso i soldi spesi e comprare un'altra scheda video..e indovinate dove sono tornato?...8800GTS.
Non mi credete? Cercatene i driver per vista! ..ah e non ditemi che non ce la faceva a farlo girare... secondo me ci sarebbe riuscita anche troppo bene, forse era quello il problema del marketing...
Detto ciò con me ATI a chiuso.

Capozz
23-11-2010, 23:57
Beh io non so voi ma a me la 295 che mi tiene acceso il monitor non ha mai perso un colpo ed è un bel po che sto aspettando che arrivi la sostituta. Beh credo che questa volta ci siamo. Ah per la cronaca, mai e ripeto MAI in 13 anni ho avuto 1 solo problema di driver con Nvidia, ma non sono un Fan Boy, io una ati l'ho comprata all'epoca.... la X1950PRO beh sapete che vi dico, che ati non ha mai sviluppato i driver per vista costringendomi dopo 15gg a buttare nel cesso i soldi spesi e comprare un'altra scheda video..e indovinate dove sono tornato?...8800GTS.
Non mi credete? Cercatene i driver per vista! ..ah e non ditemi che non ce la faceva a farlo girare... secondo me ci sarebbe riuscita anche troppo bene, forse era quello il problema del marketing...
Detto ciò con me ATI a chiuso.

Sai quanti anni son passati dall'uscita di R500 ? 5 pari pari. In genere nell'ambito dell'informatica in 5 anni cambiano un pò di cose :asd:
Tra parentesi i driver per vista c'erano eccome.

kiwivda
24-11-2010, 00:12
Tra parentesi i driver per vista c'erano eccome.
..ah si... e dimmi hai provato a scaricarli e vedere che ti dicono quando accendi il pc...:read: e cmq in 5 anni infatti sono passato alla 295 in triple sli con la 8800gts e tra un po in quad con la futura 590...:D e pensa non dovrò nemmeno reinstallare i driver...

netcrusher
24-11-2010, 01:59
Sono stanco di fare il beta tester per Nvidia ed Ati, i giochi fanno sempre più schifo e sempre più porting miserabili delle console......per quel che mi riguarda con quei soldi mi ci faccio un bel viaggetto almeno me ne vedo bene e non vengo sistematicamente preso per il c..o da codesti signori..........per chi vuole continuare a farsi del male accomodatevi pure.....

randy88
24-11-2010, 02:40
si ma la differenza di performance sarà probabilmente uno sputo.

quindi se la differenza di performance è risibile (per altro avendone in abbondanza in entrambi i casi), ovvio che se una scheda va di più pure se consuma poco di più è per quello che mi riguarda preferibile.

ma se come nel recente passato la top gamma nvidia andava un 15% in più dell'equivalente ati single gpu e di meno all'ati dual gpu, consumando e scaldando di più anche della dual gpu, per quanto un buon prodotto in termini di performance è un acquisto IMHO sconveniente.

esattamente quello che intendevo io.

ma a certa gente non entra in testa, che nel 2010, il rapporto di efficienza è una cosa da tenere IN GRANDE CONSIDERAZIONE, anche nella fascia enthusiast.

Il che, andando OT, è falso, comunque lasiciam perdere, parliamo di vga :)

non andarglielo a dire, altrimenti potrebbe imparare qualcosa sulle auto :D

parliamo di vga, che è meglio.

Someone
24-11-2010, 14:49
Se una cpu non è ha un'architettura efficiente ha necessità di salire di freq. per controbilanciare la minore capacità computazionale ed efficienza.
Questa è una teoria strana. Processori RISC necessitano di più istruzioni per eseguire quello che normalmente un processore CISC compie in meno tempo, ma da qui a definire una architettura inefficiente perchè ha bisogno di più frequenza ne corre.
Soprattutto quando si ha una riduzione dell'area del core, un migliore set di istruzioni e un minor consumo.
E tutto questo permette di usare frequenze più alte.
Ma ognuno potrà valutare quello che compra secondo i propri criteri oppure no?
'sta cosa poi delle prestazioni/consumo sono davvero ridicole. Per anni AMD ha avuto un tale rapporto infimo rispetto alle soluzioni nvidia, ma nessuno se ne è mai particolarmente lamentato e le schede ATI sono sempre state vendute senza problemi. Ora d'un tratto è diventato l'unico parametro da guardare.
Ebbene, a questo punto compratevi un chipset con grafica integrata perchè non c'è di meglio per costi/consumi/prestazioni. Perchè continuare a criticare le soluzioni che consumano di più se le prestazioni extra non vi interessano?

quello che "non mi cala" è come sia possibile che un'azienda come nvidia per tirare fuori le performance di una 5970, ci stia impiegando 1 anno.
Forse perchè impegnata a sistemare una nuova architettura non propriamente adatta al mercato consumer? E comunque, scusa, neanche nel passato una singola GPU nvidia riusciva a tenere testa a 2 GPU AMD. Direi che questo risultato più che essere negativo per il tempo impiegato ad essere realizzato è una indicazione di quale potenzialità l'architettura Fermi abbia (o avrebbe avuto se fosse stata implementata correttamente dal giorno 1) rispetto alla concorrenza. Direi che a AMD è andata bene che nvidia abbia fatto casino con il G100.
Il divario tra le soluzioni a singolo chip si è così ampliato che anche AMD ora punta ad avere una GPU non più tanto piccola e parsimoniosa in termini energetici come prima (vedesi caratteristiche di Cayman).

leoneazzurro
24-11-2010, 19:16
nvidia non ha ancora caòpito che siamo nel 2010.

nel 2010, lo scettro prestazionale non serve più ad una sega.

nel 2010, ciò che conta è L'EFFICIENZA. il rapporto consumo/prestazioni. da questo lato qui nvidia è completamente fuori dal mondo.

un'azienda dell'importanza di nvidia, che nel 2010, si ostina ad avere una mentalità solo "prestazioni oriented", non merita neppure di essere commentata.

per i fanboy ati
attualmente la 6990 non esiste e quando esistera bisognera anche vedere se sara fatta da 2 gpu cayman pro o xt e di quanto verra castrata che ti pensi in tutti i casi anche la 6990 succhiera il contatore e potrai farci le frittelle....

tipico fanboy ATI

questa è la news su una dual gpu top di gamma e tu vieni a parlare di efficienza e consumi/prestazioni?
Anche la Ferrari ha un rapporto prezzo/consumi/prestazioni discutibile, ma chi considera queste soluzioni punta solo ed unicamente alle prestazioni pure.
vabbò dai, il tuo avatar dice fin troppo, di sicuro regalerai perle sul consumo/prestazioni anche in occasione del lancio della 6990

contestualizzato a cosa? Alla fascia bassa? Alla fascia media? Alla fascia alta?

Di certo non alla fascia enthusiast.
E il paragone che fai è profondamente sbagliato, questa scheda andrà paragonata alla 6990, e la 6990 non consumerà la metà di questa 590, al massimo consumerà uno sputo in meno, assolutamente ininfluente per chiunque decida di optare per queste soluzioni. Il commento di randy88 non solo è fuori luogo, è proprio sintomo di profonda ignoranza.

al quale risponde un fanboy nVidia :D (o dovrei dire "IL"? :asd:)

1 a 1 :O

Beh io non so voi ma a me la 295 che mi tiene acceso il monitor non ha mai perso un colpo ed è un bel po che sto aspettando che arrivi la sostituta. Beh credo che questa volta ci siamo. Ah per la cronaca, mai e ripeto MAI in 13 anni ho avuto 1 solo problema di driver con Nvidia, ma non sono un Fan Boy, io una ati l'ho comprata all'epoca.... la X1950PRO beh sapete che vi dico, che ati non ha mai sviluppato i driver per vista costringendomi dopo 15gg a buttare nel cesso i soldi spesi e comprare un'altra scheda video..e indovinate dove sono tornato?...8800GTS.
Non mi credete? Cercatene i driver per vista! ..ah e non ditemi che non ce la faceva a farlo girare... secondo me ci sarebbe riuscita anche troppo bene, forse era quello il problema del marketing...
Detto ciò con me ATI a chiuso.

Dateci un taglio o ce lo do io.
@ kiwivda: strano a dirsi, i drivers per Vista ci sono. Magari informarsi.
http://support.amd.com/us/gpudownload/windows/Legacy/Pages/radeonaiw_vista64.aspx?type=2.4.1&product=2.4.1.3.13&lang=English

kiwivda
28-11-2010, 16:28
Già scusate ragazzi ho riletto e mi sono accorto di aver omesso un piccolo :doh: dettaglio la mia era AGP8X e per quella ATI non ha mai fatto i driver.