View Full Version : NVIDIA GeForce GTX 590 Ti in arrivo per la metà di Marzo
Redazione di Hardware Upg
28-02-2011, 09:31
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-590-ti-in-arrivo-per-la-meta-di-marzo_35697.html
NVIDIA potrebbe presentare la propria soluzione dual-GPU in occasione del PAX East Lan party di Boston, tra l'11 e il 13 di Marzo
Click sul link per visualizzare la notizia.
avvelenato
28-02-2011, 09:53
Chissà se arriverà anche la 550 Ti...
bluefrog
28-02-2011, 09:54
Ora tocca alla news di Antilles. :asd: (l' "altro" sito l'ha già riportata con foto ufficiali annesse).
Domanda OT: si sa nulla del successore di GF1xx? Ci sarà un'altra GPU @40nm entro fine anno basata su questa architettura (GTX6x0 ??), o si dovrà necessariamente attendere l'anno prossimo per i 28nm?
sniperspa
28-02-2011, 09:59
E' solo una mia impressione o AMD sta temporeggiando un pò con 6990?!?
"Sarebbe quindi lecito attendersi 512 core"
Ovviamente è sbagliato, giusto? Cioè è impossibile 512 core, no?
Che si muovano a farla uscire così la 580 cala un po' di prezzo magari.
sbudellaman
28-02-2011, 10:05
"Sarebbe quindi lecito attendersi 512 core"
Ovviamente è sbagliato, giusto? Cioè è impossibile 512 core, no?
No, infatti. Sono 512x2... per un totale di 1024 cores :eek:
Come c***o hanno fatto a mettere due 580 su un pcb non lo capirò mai.
Nvidia conia una nuova unità di misura : il kiloshader :asd:
si...in effetti dovrebbero essere 1024, essendo due le gpu...ma impressionerà la banda passante, di quasi 400 gb al secondo, ponendo questa scheda al riparo da qualsiasi rallentamento anche alle impostazioni piu' spinte, magari col 3d attivato...peccato che costino miliardi, ma è, giustamente, un altro discorso.
512 core ogni gpu,quindi 1024 totali.
No, infatti. Sono 512x2... per un totale di 1024 cores :eek:
Come c***o hanno fatto a mettere due 580 su un pcb non lo capirò mai.
Nvidia conia una nuova unità di misura : il kiloshader :asd:
Scusate l'ignoranza, ma le CPU non hanno al massimo 6 core, come l'AMD Phenom II x6? Le GPU ne hanno 512? :confused:
SaggioFedeMantova
28-02-2011, 10:13
No, infatti. Sono 512x2... per un totale di 1024 cores :eek:
Come c***o hanno fatto a mettere due 580 su un pcb non lo capirò mai.
Nvidia conia una nuova unità di misura : il kiloshader :asd:
LOLLISSIMO!
ma quanto potrebbe costare questa scheda?
tipo [500;600]euro?
Due GF110 sullo stesso PCB? Avrà un alimentatore integrato dato che i 300W (limite del PCIex) di tdp li sfiorerà solo guardandola sta scheda.........oh magari invece nVidia stupirà.....detto da uno che non comprerà mai una dual-gpu :D
scrat1702
28-02-2011, 10:21
Scusate l'ignoranza, ma le CPU non hanno al massimo 6 core, come l'AMD Phenom II x6? Le GPU ne hanno 512? :confused:
CPU e GPU sono totalmente differenti come architettura e anche le GPU tra AMD e nVidia sono totalmente differenti! Non e posibile raffrontare i 6 core per CPU con le unita di calcolo (shader) delle GPU!
Credo anch'io che AMD stia temporeggiando con Antilles per vedere come andra questa 590! Se veramente riusciranno a mettere 2 110 su un PCB sara dura per AMD, ma penso che per metterle dovranno scendere parecchio come clock visti i consumi e lo SLI scala un pochino peggio del Crossfire percio al limite AMD dovrebbe riuscire a contrastarla!
Cmq prevedo la 590 di un 5-10% superiore alla 6990 con un prezzo ovviamente piu alto!
... cavolo.... non pensavo riuscissero a mettere due 580 su un PCB... avrei scommesso su una dual 570, piuttosto...
Sono curioso di vedre cosa si sono studiati per l'alimentazione!... :D
scrat1702
28-02-2011, 10:24
Due GF110 sullo stesso PCB? Avrà un alimentatore integrato dato che i 300W (limite del PCIex) di tdp li sfiorerà solo guardandola sta scheda.........oh magari invece nVidia stupirà.....detto da uno che non comprerà mai una dual-gpu :D
nVidia non po stupirci, il chip con 512 shader a 772Mhz consuma quello che sappiamo, percio 2 di questi chip andranno sui 400W, prevedo freq attorno ai 550Mhz!
scrat1702
28-02-2011, 10:27
... cavolo.... non pensavo riuscissero a mettere due 580 su un PCB... avrei scommesso su una dual 570, piuttosto...
Sono curioso di vedre cosa si sono studiati per l'alimentazione!... :D
Beh 2 8Pin piu un sistema di throttling molto avanzato e una gestione driver ad hoc! Ad esempio, faccio un'ipotesi, se vengono sfruttate entrambe le GPU vengono cloccate piu basse e cmq vanno meglio di una sola, mentre qualora fosse sfruttata solo una e l'altra sotto al 20-30% potrebbe spegnerla e spingere il clock della prima oltre i valori delle 580!
Kimera O.C.
28-02-2011, 10:28
E' solo una mia impressione o AMD sta temporeggiando un pò con 6990?!?
Magari aspettano solo il prezzo della 590, che siuramente andrà "poco di più" ma la risposta di amd sarà quela di uscire con la 6990 a 1/2 prezzo ... :sperem:
Non m'interessano le dual ma le singole al giusto prezzo si :D
lo scettro di scheda SINGOLA più potente rimarrà in mano a Ati....su questo sono sicuro........
sbudellaman
28-02-2011, 10:39
Scusate l'ignoranza, ma le CPU non hanno al massimo 6 core, come l'AMD Phenom II x6? Le GPU ne hanno 512? :confused:
Forse non sai che la tua stessa 4870 ne contiene 800 di cores, detti anche "stream processors" ? :D
In realtà i cores "veri" delle ati sono un pò meno, dal momento che tutti gli sp sono organizzati a gruppi di 4-5 cores, i quali formano un unica unità operativa. Dunque un architettura diversa da quella di nvidia, dal momento che "soli" 512 cores nvidia superano oltremodo in potenza 800 sp ati.
E' così da sempre, non a caso attualmente si sta cercando di sfruttare questa potenza nel gpgpu, anche se con qualche difficoltà in più rispetto ai normali processori perchè in questo caso si tratta di riuscire a sfruttare e gestire molti più cores, cosa possibile solo in operazioni altamente parallelizzate.
lo scettro di scheda SINGOLA più potente rimarrà in mano a Ati....su questo sono sicuro........
Io lo spero... ma sappiamo tutti che nvidia farebbe di tutto per ottenere lo scettro, anche triplicare i consumi.
Secondo voi perchè ha scelto 2 580 ? E' evidente !!! Vuole avere la certezza di vincere, a tutti i costi. Col crossfire che scala meglio dello sli corre infatti un pericolo notevole, senza contare la sua efficenza inferiore.
Ne vedrete delle belle, se la 6990 riuscirà bene nvidia cloccherà in maniera paurosa le 580 al fine di ottenere quei pochissimi punti percentuali in più... prima c'era la corsa al ghz, ora è l'epoca della corsa al kilowatt.
Non è improbabile una 590 a 700 euro. E no, il prezzo della 580 non scenderà. Imho.
Kimera O.C.
28-02-2011, 10:44
Cos'è, una battuta? Spiegamela perchè non l'ho capita :eek:
Siamo in 2 :confused:
Una singola scheda non può consumare più di 300W per limiti elettrici (se non ricordo male: 75W pciex + 100W per ogni 8pin o 75 per ogni 6pin...)..........i GF110 che verranno messi sulla 590 dovranno per forza essere castrati e anche di molto per ovviare a questo limite vincolante....
@Sir. Teo: parafrasando l'ispettore Block: "non scherzo dal '54" :D la singola scheda più performante in assoluto era fino a prima della 580 la 5970, domani sarà la 6990....
AceGranger
28-02-2011, 10:52
Secondo voi perchè ha scelto 2 580 ? E' evidente !!! Vuole avere la certezza di vincere, a tutti i costi. Col crossfire che scala meglio dello sli corre infatti un pericolo notevole, senza contare la sua efficenza inferiore.
Ne vedrete delle belle, se la 6990 riuscirà bene nvidia cloccherà in maniera paurosa le 580 al fine di ottenere quei pochissimi punti percentuali in più... prima c'era la corsa al ghz, ora è l'epoca della corsa al kilowatt.
ha optato per 2 GF 110 per il semplice fatto che è molto piu efficiente utilizzare piu core e meno frequenza piuttosto che meno core a frequenza maggiore.
@ froZen
che ne sai, magari mettono 4 "prese" da 8 pin sulla 590 :sofico::sofico:
CrapaDiLegno
28-02-2011, 10:55
Secondo voi perchè ha scelto 2 580 ? E' evidente !!! Vuole avere la certezza di vincere, a tutti i costi.
Questo tipo di schede le fanno con l'unico scopo di farsi pubblicità con l'idea da parte del consumatore che una dei due produttori sforni prodotti migliori dell'altro solo perché offrono su una sola scheda una soluzione a 2 GPU solo talvolta superiore alla soluzione mono GPU.
Non essendo le soluzioni a doppia GPU più veloci sul mercato, perché 2 schede sperate con gli stessi chip non castrati vanno di più, a cosa credi servano? E quindi entrambe i produttori usano qualsiasi escamotage per sopravanzare il concorrente. Altrimenti l'investimento sulla scheda è un fallimento, e non potendo nemmeno essere venduta a prezzo premium per via della sua unicità, va a incasinare il listino prezzi.
CrapaDiLegno
28-02-2011, 11:01
Una singola scheda non può consumare più di 300W per limiti elettrici
No, solo per specifiche PCI-E.
Nessuno vieta di fare una scheda che non sia a specifica e che consumi di più. Con quali conseguenze non lo so, ma il limite dei consumi è solo "politico" non tecnico.
Bisogna dire che a parità di consumo (es, 300W il max se si vuole stare in specifica) le schede AMD sono in vantaggio prestazionale.
Il dubbio che mi viene è che se nvidia avesse voluto rispettare il vincolo dei 300W poteva benissimo mettere 2 GF114 overcloccati e ottenere prestazioni simili di 2 GF110 potendo contare su un costo di produzione molto inferiore. Ricordo che i GF114 sono più efficienti del GF110 nelle soluzioni consumer perché sono segati nella parte Dual Precision.
sbudellaman
28-02-2011, 11:06
Una singola scheda non può consumare più di 300W per limiti elettrici (se non ricordo male: 75W pciex + 100W per ogni 8pin o 75 per ogni 6pin...)..........i GF110 che verranno messi sulla 590 dovranno per forza essere castrati e anche di molto per ovviare a questo limite vincolante....
Quello dei 300 watt non è un vero e proprio limite fisico, è più che altro "una specifica" dettata dal PCI-SIG (il consorzio che stabilisce i parametri da seguire per lo sviluppo).
Di fatto è possibile superare senza molti problemi il limite di 350 watt, cosa che è possibile fare disattivando i controlli della 580 e usando un power virus
http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html
ha optato per 2 GF 110 per il semplice fatto che è molto piu efficiente utilizzare piu core e meno frequenza piuttosto che meno core a frequenza maggiore.
Già, ma non vi viene in mente quanto sia difficile e costoso produrre due chip full 580, e quanto sia un "controsenso" in termini di resa andare poi addirittura a downcloccarlo ? Possibile che due 570, certamente più facili da ottenere in un wafer, si discostino così tanto in termini di efficenza ? O addirittura due 560, ancora più efficenti e meno costose (e magari anche occate data la facilità di oc), ma non così lontane da una 6970 che tra l'altro potrebbe probabilmente essere downcloccata per fare la 6990.
A me sembra più che altro una "precauzione", per evitare spiacevoli inconvenienti a livello di marketing qualora ATI riuscisse a ben sfruttare i punti a suo favore (crossfire ed efficenza). Precauzione che costerà caro.
Strato1541
28-02-2011, 11:13
Vedremo cosa nè uscirà...consumi..prestazioni , temperature dovranno essere accettabili , il prezzo sappiamo già che non lo sarà!!:D
Comunque se uscisse prima della 6990, sarebbe un bello smacco per amd!Nel senso che avrebbero perso tutto il presunto vantaggio ottenuto nel precedente anno, la cosa già si è un pò vista con la serie 69XX a singola gpu..
Comunque si vedrà..che escano queste dual, basa che diminuiscano anche i prezzi delle singole però!!!
sbudellaman
28-02-2011, 11:27
Comunque se uscisse prima della 6990, sarebbe un bello smacco per amd!Nel senso che avrebbero perso tutto il presunto vantaggio ottenuto nel precedente anno...
Non direi. Lo smacco c'è già stato quando si è capito che la 6970 non toccava minimamente la 580... cosa cambia un mese in più o in meno ? L'anticipo serve solo per avere più tempo per progettare una buona scheda. Ergo la vera mazzata ad nvidia sarebbe stata superarla in prestazioni... hai idea di quanti utenti prendano la top nvidia solo per avere il top dei top ?
Ed anche adesso, il ritardo di ati non sarebbe un problema (certo, finchè non dura 6 mesi...). Per me la vera inciulada ad invidia la danno solo se si prendono lo scettro. Da questo punto di vista farla uscire in ritardo è un vantaggio, dal momento che si conosce il nemico e si sa come fissare le frequenze in modo strategico.
Non l'hanno fatto con 6970 perchè è la scheda singola che mantiene buoni consumi e prestazioni con ottimi prezzi di produzione, e va bene... ma ora non ci sono scuse : la top ha sempre il fine di vincere, e basta. Che vinca il migliore.
Non direi. Lo smacco c'è già stato quando si è capito che la 6970 non toccava minimamente la 580... cosa cambia un mese in più o in meno ? L'anticipo serve solo per avere più tempo per progettare una buona scheda. Ergo la vera mazzata ad nvidia sarebbe stata superarla in prestazioni... hai idea di quanti utenti prendano la top nvidia solo per avere il top dei top ?
non la penso proprio cosi. le prestazioni intaccano ampiamente la 580.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/29.html
il top del top ora è un discorso che ha poco senso.
ho sempre preso il top del top fino a poco tempo fa,
ora mi sono trovato a scegliere tra 6970 e gtx580.
ebbene ho preferito risparmiare 100 euro e avere prestazioni di un 10% inferiori a 1900 1200 che tra l'altro tirando il core a 950 dal catalyst me la ritrovo esattamente alla pari.
tra parentesi anche amd mi sembra stia aspettando nvidia per la dual gpu.
staremo a vedere cosa combineranno, ho piu fiducia sinceramente in amd , date le performance dual gpu con la serie 6000.
Una singola scheda non può consumare più di 300W per limiti elettrici (se non ricordo male: 75W pciex + 100W per ogni 8pin o 75 per ogni 6pin...)..........i GF110 che verranno messi sulla 590 dovranno per forza essere castrati e anche di molto per ovviare a questo limite vincolante....
il limite può essere passato, ma cmq penso anchio che le GPU saranno downclokkate. non cè alternativa.
No, solo per specifiche PCI-E.
Nessuno vieta di fare una scheda che non sia a specifica e che consumi di più. Con quali conseguenze non lo so, ma il limite dei consumi è solo "politico" non tecnico.
le conseguenze sarebbero sicuramente un aumento del calore da dissipare, nonchè di una instabilità della VGA che la porterebbe a morte prematura ben prima del dovuto.
secondo me questa VGA ha senso solo se proposta con raffreddamento a liquido, in modo di poter utilizzare tutte le frequenze al top.
non la penso proprio cosi. le prestazioni intaccano ampiamente la 580.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/29.html
Mi sa che è meglio che riguardi meglio quei bench che hai postato: la 6970 è sempre dietro alla 580, tranne in un caso sporadico: Che poi le differenze siano minime in molti casi, è un altro discorso, ma la 580 è sempre davanti, di un 10/15%.
sbudellaman
28-02-2011, 11:56
non la penso proprio cosi. le prestazioni intaccano ampiamente la 580.
So benissimo che la 6970 è vicina alla 580, ma quando si parla di top il 10% è importante. La 480gtx staccava la 5870 del 10%, la 280 staccava la 4870 del 15%, la 295 staccava la 4870x2 del 5% (5 !!!). Eppure, quali schede ricordi col titolo di "regine" ? gtx 280, gtx 295, gtx 480... sempre di poco, guarda caso.
E' vero, è tutta una cosa di marketing perchè quei pochi punti percentuali contano poco, ma cosa vuoi che cambi a livello di mercato ed immagine ? Nvidia sforna schede dal superconsumo perchè gli importa solo di essere la migliore. Una bella mazzata al mito nvidia, e magari si da una svegliata, capisce che la via per il progresso è INCREMENTARE L'EFFICENZA (non le dimensioni del die), e siamo tutti più felici. Direi che per questo scopo vale la pena, una volta tanto, che ati si dedichi interamente al raggiungimento delle massime prestazioni così come si addice ad una vera TOP dual . Dopotutto il lavoro sull'efficenza l'ha già fatto ampiamente, sia con la scheda singola sia con le ottimizzazioni col crossfire, è arrivato il momento di raccogliere i frutti.
Sta' tutto nel vedere chi castrerà di più il clock gpu, visto che dovranno ridurre il vgpu 3D al minimo, e spingere sull'intervento del "limitatore di giri", sia Nvidia che Amd :)
Il divario tra uno SLi di GTX580 ed un crossfire di HD6970 bene o male è noto, quindi direi che la sfida è tutt'altro che scontata:
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/19/#abschnitt_performancerating_mit_aaaf
http://www.hardware.fr/articles/813-22/dossier-amd-radeon-hd-6970-6950-seules-crossfire-x.html
Io penso che Nvidia andrà sui 650-700Mhz di gpu, e Amd sugli 800-850., entrambe a 0.9-1V affidandosi ad una rigorosissima selezione in Fab.
Cmq la HD6990 è prevista per l'8 marzo.
Lunar Wolf
28-02-2011, 12:39
AMD ha gia dato una bella mazzata a nvidia.
Gli unici che comprano nvidia sono solo quelli che pensano che ci siano problemi con i driver, che il cross non scala bene, perche manca la fisica in 3 giochi e cosi via.
Basta pensare che nvidia è rimasta delusa dalla serie 4xx, tranne per la 460 che era ottima infatti è l'unica che ha venduto bene, per il resto ha capito che la strada del chippone ormai non regge piu.
Invece amd piano piano recupera terreno, ad ogni scheda che sforna di nuova serie non fa altro che migliorare i punti deboli delle ex schede. pensiamo alla serie hd 2xxx, mezzo flop ma poi piano piano siamo arrivato alla serie hd 6xxx che ha migliorato tutto quello che si poteva migliorare della serie 2xxx 3xxx 4xxx 5xxx è sicuramente la 7xxx con i 28 nm ed altre migliorerie sara una bomba certificata e amd se lo puo permettere perche sta gia testando la sua nuova architettura con le 69xx. nvidia invece con i 28 fara diminuire die della gpu, consumi e aumentare gli sp ma il chip rimane quello con tutti i problemi che ha oggi e che, speriamo, non avra domani.
Come si puo capire amd ha tante carte da poter mettere in tavola, nvidia deve stare attenta, ecco perche nvidia ha gia preso na bella mazzata.
Poi per chi sa veramente scegliere una scheda ma anhe un qualsiasi altro oggetto non pensa sempre al top e cosi via. La 580 sara la top oggi ma non vale cosi tanto per un 10% in piu nei giochi, per la fisica, e con i consumi che ne comporta, imho, ecco che, sotto sotto, la vera top diventa la 6970 con 10% in meso, si vero ma giustificabili, annalizzando prezzo piu basso, cavoli son sempre 100 euri, e consumi ridotti, che uno se ne puo fregare dei consumi ma efficenza è efficienza..eh!
In ogni caso, quest'anno sia AMD che Nvidia stanno combattendo ad armi pari e nessuno dei due fronti non vuole mollare, siamo come la prima guerra mondiale, dove si penso che sarebbe stato una guerra lampo e che il vincitore avrebbe vinto subito, invece passarono mesi e mesi per "eleggere" il vero vincitore, ecco, oggi tra amd e nvidia è cosi e per fortuna che è cosi perche solo quando c'è questa bellissima concorrenza noi spendiamo poco e prendiamo hardware favolosi, immaginiamo se una delle due ti mette una scheda come quella integrata a 300 euri, la top quanto costera allora?
In ogni caso le due schede dual gpu avranno pro e contro che saranno alla pari e l'acquista dovra essere giudicato da persona a persona in base alla piattaforma, gioco favorevoli, consumo/efficenza e sicuramente il COSTO. Sono queste cose da tenere in considerazione prima di acquistare una o l'altra!
CrapaDiLegno
28-02-2011, 12:40
Una bella mazzata al mito nvidia, e magari si da una svegliata, capisce che la via per il progresso è INCREMENTARE L'EFFICENZA (non le dimensioni del die)
Efficienza sarebbe meglio.
Comunque la mazzata ad nvidia la possono dare solo i consumatori. Dato che vende, e parecchio di più della rivale, non vedo perché deve cambiare strategia. Forse è il "mito" dell'efficienza ad essere sopravalutato e perché si tratta di differenze di potenze risibili di fronte ai consumi giornalieri e perché si tratta spesso di schede dove la parte consumi non ha alcuna importanza (temperature e rumorosità hanno perfino priorità maggiore).
E poi nvidia non offre il proprio chip solo al mercato consumer, e nel mercato professionale quell'aumento del die che tanto critichi fa il suo dovere spazzolando a man basse qualsiasi proposta della concorrenza.
helmen84
28-02-2011, 12:44
Ma, a me questa storia mia puzza un pochetto.
ATi ha sfornato la serie HD6xxx un bel pezzo prima che i fornetti nVidiosi fossero pronti nelle loro custodie di cartone e ora gingilla a presentare questa dual per vedere cosa tira fuori l'avversaria.
Io credo che ormai per giocare bene (e non dico decentemente,ma bene) possa bastare la vecchia generazione.
Io mi ritrovo con una 5850 in OC e non ho ancora trovato nulla che mi richieda più potenza.
Non dico sia una scusa per fermare il progresso tecnologico, ma qua si sta davvero toccando l'incredibile.
Ci servono 400Watt (e forse non basteranno) per giocare a 3000x2000 su 2/3 monitor un gioco?
Ormai è solo una lotta per dimostrare il proprio dominio, fatti loro, io mi tengo una "fascia media" e ci faccio tutto comunque, anzi spendo meno e mi evito pure il rumore da jet che producono queste schede enthusiast.
Il silenzio è d'oro.
CrapaDiLegno
28-02-2011, 12:52
sicuramente la 7xxx con i 28 nm ed altre migliorerie sara una bomba certificata e amd se lo puo permettere perche sta gia testando la sua nuova architettura con le 69xx. nvidia invece con i 28 fara diminuire die della gpu, consumi e aumentare gli sp ma il chip rimane quello con tutti i problemi che ha oggi e che, speriamo, non avra domani.
Scusa non ti seguo in questo discorso. nvidia ha già presentato la sua architettura nuova, Fermi, che con il GF110 si dimostra molto valida sia in termini di efficienza che di prestazioni assolute. AMD è uscita con una architettura che nella sua prima versione sarà anche efficiente ma non ha prestazioni assolute migliori, nè della concorrenza, nè della sua architettura precedente. Con i 28nm entrambi i produttori potranno apportare le modifiche necessarie, che per entrambi significa quantomeno più SP, e quindi non vedo dove stia il vantaggio di AMD. Se non ce la fa a 40nm a battere nvidia, perché dovrebbe riuscirci a 28nm?
Poi nvidia non ha abbandonato per niente l'idea del chippone. Infatti il GF110 è uguale al GF100, solo implementato meglio. E' AMD che sta aumentando le dimensioni dei suoi chip per stare al passo con la concorrenza. Anche l'ultima architettura pur avendo meno SP ha un die più grande, indicando che il problema spazio non sta negli SP, ma in tutte quelle funzionalità che deve gestire esternamente (in primis la tesselizzazione). E se aumeanto di prestazioni richiede aumento di dimensioni sia dell'area shader che area uncore allora non vedo davvero il vantaggio di AMD neanche a 28nm.
Puoi spiegarti meglio?
Lunar Wolf
28-02-2011, 13:01
Scusa non ti seguo in questo discorso. nvidia ha già presentato la sua architettura nuova, Fermi, che con il GF110 si dimostra molto valida sia in termini di efficienza che di prestazioni assolute. AMD è uscita con una architettura che nella sua prima versione sarà anche efficiente ma non ha prestazioni assolute migliori, nè della concorrenza, nè della sua architettura precedente. Con i 28nm entrambi i produttori potranno apportare le modifiche necessarie, che per entrambi significa quantomeno più SP, e quindi non vedo dove stia il vantaggio di AMD. Se non ce la fa a 40nm a battere nvidia, perché dovrebbe riuscirci a 28nm?
Poi nvidia non ha abbandonato per niente l'idea del chippone. Infatti il GF110 è uguale al GF100, solo implementato meglio. E' AMD che sta aumentando le dimensioni dei suoi chip per stare al passo con la concorrenza. Anche l'ultima architettura pur avendo meno SP ha un die più grande, indicando che il problema spazio non sta negli SP, ma in tutte quelle funzionalità che deve gestire esternamente (in primis la tesselizzazione). E se aumeanto di prestazioni richiede aumento di dimensioni sia dell'area shader che area uncore allora non vedo davvero il vantaggio di AMD neanche a 28nm.
Puoi spiegarti meglio?
1.
Non è una nuova architettura, è sempre la stessa della serie 4xx!
2.
Vero, ha migliorato ma in confronto con la concorrenza rimane ancora un po indietro.
3.
Annalizza bene le due architetture, segui i topic dove ne parlaro persone che se ne intendono e capirai perche i 28nm aiuterano di piu il chip amd e non nvidia!
sbudellaman
28-02-2011, 13:23
AMD ha gia dato una bella mazzata a nvidia...
Mio caro Lunar Wolf, su questo non ci piove e sono daccordo con te. Però forse tu non immagini l'impatto mediatico che avrebbe avuto una 6970 prestazionalmente pari alla 580 o addirittura anche di pochissimi punti percentuali superiore.
E' tutto vero, che una scheda va valutata in base alle esigenze personali, che non vanno considerate solo le prestazioni ma anche i consumi ecc. ecc., e che su questo piano ATI è stata semplicemente grande.
Eppure, da almeno 5 anni a questa parte, nvidia punta in modo incredibile all'immagine, anzi forse è il suo punto di forza più grande. E che tu ci creda o no, ogni anno la sua priorità è avere lo scettro e nientaltro. Motivo ? Nvidia nel tempo è riuscita a crearsi una cerchia di appassionati, oserei dire di "discepoli", il cui motto è "nvidia è la più potente. Fottesega dei consumi ! E' normale per una top di gamma consumare tanto. Io compro solo la più potente !". Ora, ricordo precisamente un utente (di cui non ricordo esattamente il nome ed è meglio così) che rispecchiava in modo ideale questa figura clientelare, e che ad ogni generazione acquistava il tri-sli o quad-sli delle schede "più potenti e basta, senza il minimo compromesso". Ora, una scheda ATI più veloce della top nvidia può minare questo mito creando molti più danni di quanto non si possa fare, dal momento che di fatto quasi la metà di questa fascia clientelare passerebbe ad ATI. E questo senza necessariamente portare ad una intera generazione di schede-chippone inefficienti, dal momento che si tratterebbe di "spingersi" a livelli di consumo un po più elevati solo nella fascia top, con l'obbiettivo di pareggiare per lo meno con nvidia.
Poi certo, si guarda anche al futuro, nella speranza che i 28nm facciano il loro bel lavoro con ATI.
Efficienza sarebbe meglio.
:stordita:
Comunque la mazzata ad nvidia la possono dare solo i consumatori.
E grazie al menga, però consuetudine vuole che il consumatore acquisti ciò che più gli aggrada. Da questo ne deriva che è la casa produttrice di vga che necessariamente deve adeguarsi :D
[Dato che vende, e parecchio di più della rivale, non vedo perché deve cambiare strategia. Forse è il "mito" dell'efficienza ad essere sopravalutato e perché si tratta di differenze di potenze risibili di fronte ai consumi giornalieri e perché si tratta spesso di schede dove la parte consumi non ha alcuna importanza (temperature e rumorosità hanno perfino priorità maggiore).
E io che sto a dire ? Ovvio che mi riferisco solo alla fascia top. Ripeto, magari con la 6970 ci può anche stare anche se personalmente è stata un pò una delusione per me, però cacchio con la 6990 deve vedere di spingere per bene, altro che efficienza e consumi ! Dopo vedi che bel danno di immagine si becca nvidia !
E poi nvidia non offre il proprio chip solo al mercato consumer, e nel mercato professionale quell'aumento del die che tanto critichi fa il suo dovere spazzolando a man basse qualsiasi proposta della concorrenza.
Nessuno sta parlando del mercato professionale, argomento del thread è l'ambito puramente gaming, che poi il megachippone risulti più efficace altrove è un altro paio di maniche. Se così deve essere, allora che ATI si becchi almeno una fetta di mercato più ampia nel campo gaming, dal momento che nvidia ha due piedi in una scarpa, mentre ATI sembra basare le sue architetture proprio per il gaming.
CrapaDiLegno
28-02-2011, 14:05
Non è una nuova architettura, è sempre la stessa della serie 4xx!
Io parlavo di Fermi, l'ho pure scritto, come nuova architettura. Mica possono creare una architettura ogni anno. Ma ogn anno la possono rendere leggermente migliore come ha fatto AMD per 4 generazioni e nvidia con la revisione del GF100 (GF110 appunto).
Vero, ha migliorato ma in confronto con la concorrenza rimane ancora un po indietro.
Se questo non ci piove, ma la differenza di consumi è veramente irrisoria
Annalizza bene le due architetture, segui i topic dove ne parlaro persone che se ne intendono e capirai perche i 28nm aiuterano di piu il chip amd e non nvidia!
Mah, io continuo a sentire un sacco di campane ma poi vengono inevitabilmente smentite. Anche 2 Fermi full featured erano impossibili da mettere su una scheda sola. A quanto pare ci sono riusciti. La nuova architettura a 4 vie di AMD sarebbe dovuta essere almeno il 20% più veloce della precedente. Invece è pressochè identica perchè il vantaggio del risparmio dello spazio shader se ne è andato in quello per compensare la tesselizzazione e la geometria in genere. Gli ultimi driver nvidia le permettono di eseguire il codice ottimizzato per gli shader AMD molto più velocemente di questa (vedasi bench di SmallluxGPU che fino alla versione vecchia dei driver giravano il triplo più veloce che su nvidia) quindi disilludendo nuovamente l'ipotesi che il calcolo vettoriale sia più veloce su una architettura piuttosto che un'altra.
Come i 28nm possano agevolare più AMD che nvidia (o viceversa) proprio non lo capisco, e gli esperti, quelli veri, stanno dentro i laboratori dei rispettivi produttori di chip video. A 28 nm si trovano entrambi ad armi apri con la stessa identica architettura di adesso e gli interventi che compie uno possono essere compiuti anche dall'altro. Non è la nanometria che incide sull'efficienza di una architettura, a meno che non si supponga che uan di quelle presenti oggi è ampiamente sbilanciata, ma non mi sembra che nessuno delle due lo sia. Senza contare che tra un po' nvidia cambierà ancora tutto per integrare un ARM all'interno della scheda video, con quali impatto sulle prestazioni/funzionalità non è prevedibile (neanche dagli "esperti" fuori dai laboratori nvidia).
Vero, ha migliorato ma in confronto con la concorrenza rimane ancora un po indietro.
Annalizza bene le due architetture, segui i topic dove ne parlaro persone che se ne intendono e capirai perche i 28nm aiuterano di piu il chip amd e non nvidia!
Indietro in cosa? Nvidia ha lo scettro prestazionale da milioni di anni, tutta la generazione Dx10 (la 8800 è forse la migliore vga della storia) e la generazione Dx11, cos'è che dovrebbe migliorare? Ah già i famosi consumi, il pallino fisso dei rossi... la mia 570 consuma ben 5 watt in più di una 6970 in idle, oh my god. E in full load circa 30 watt di più, praticamente come avere una lampadina accesa in casa, un vero dramma. Si vede che i rossi non hanno elettrodomestici come lavapiatti, forno, lavatrice, clima ecc..., infatti riescono a notare la differenza dei famosi 30 watt in più.
Suppongo inoltre che i famosi esperti che frequenti sappiano tutto di Kepler e siano già in grado di dire che i 28nm favoriranno AMD senza il minimo dubbio.
Probabilmente sono gli stessi esperti che prevedevano il dominio di Cayman di fronte ad un'architettura fallimentare come Fermi. E invece, nonostante 15 mesi di tempo, Cayman sta tranquillamente dietro un semplice refresh di Fermi.
Ah, ultima cosa, il mito dello SLI che scala meno del Xfire... i migliori sistemi del mondo sono tutti quad-SLI, punto, cercatevi il link sul sito del 3Dmark.
LeOn4rDo
28-02-2011, 14:35
Onestamente io mi trovo ancora bene con la mia GeForce GTX 480... alla faccia di chi dice che sia un fiasco...
Una scheda più potente della 480 è completamente inutile...! Non ci rendiamo conto che con 1024 shaders non ci faremo mai nulla? E non teniamo conto che una scheda video di fascia Enthusiast ogni mese si svaluta di circa 25-30€? Finiremmo con aver speso 700€ per avere il top di mercato, e dopo 2 mesi non essere più in cima alle classifiche con una scheda che vale 70€ in meno del prezzo a cui l'abbiamo presa... Ridicolo, no? Eppure è così....
sbudellaman
28-02-2011, 14:37
Indietro in cosa? Nvidia ha lo scettro prestazionale da milioni di anni, tutta la generazione Dx10 (la 8800 è forse la migliore vga della storia) e la generazione Dx11
Vedete Lunar-Wolf e company, ora sapete a cosa mi riferivo quando parlavo di far cadere il mito, tagliare sto cavolo di scettro-chippone in mezzo alle gambe di nvidia.
Non me ne voglia nulla Elrim ovviamente, di cui mi sono servito impropriamente per giustificare e dimostrare quanto detto prima.
Secondo me i confronti andrebbero fatti a parità di wattaggio consumato, ovvero EFFICIENZA ENERGETICA. Cosa che appunto porterà ad avere la 6990 che si mangerà la 590.....
Discorso driver: AMD sta lavorando alacremente ma tutt'ora la architettura Cayman non sta brillando è vero, anzi stanno uscendosene avvantaggiate le "vecchie" architetture 5XXX con morphologial AA e crossfire sempre più scalabile.......
E' comunque più difficile, concettualmente parlando, far rullare una architettura nuova completamente come Cayman che non una GF100 v2 come è il 110.....
I quad-sli su Ati non ne ho ancora visti: forse perchè molta gente parte prevenuta sui driver Ati?bho non saprei...........
CrapaDiLegno
28-02-2011, 14:58
Vedete Lunar-Wolf e company, ora sapete a cosa mi riferivo quando parlavo di far cadere il mito, tagliare sto cavolo di scettro-chippone in mezzo alle gambe di nvidia.
Scusa non capisco proprio il tuo ragionamento. Lasciamo stare la scheda top dei top dove le prestazioni migliori le raggiunge chi ne ha di più in tutto e non ci scappa.
Ma prendiamo una 6970 vs 570. Quali sono i motivi per cui la scheda AMD sarebbe la migliore mentre nvidia vivrebbe solo del suo mito? I 3 fps in più? O i 3 in meno? I 30W in più in full load? Cioè ora tutto il discorso mito/prestazioni/chi ce l'ha più lungo è basato solo sui consumi? Se non vuoi consumare basta che prendi una 5450 e stai felice. Prima però, ai tempi della serie 8000 di nvidia, quale era il parametro di riferimento o la motivazione per non acquistare un G80/G92? La nanometria (AMD@55nm vs nvidia@65nn)? Solo per sapere come evolve "il gusto" del supporter, dato che la questione consumi io non l'ho mai sentita nominare se non dalla serie 5xxx in poi dato che prima erano pari e ancora prima... che devastazione, e non a favore delle schede ATI!
sbudellaman
28-02-2011, 15:07
Scusa non capisco proprio il tuo ragionamento. Lasciamo stare la scheda top dei top dove le prestazioni migliori le raggiunge chi ne ha di più in tutto e non ci scappa.
Ma prendiamo una 6970 vs 570. Quali sono i motivi per cui la scheda AMD sarebbe la migliore mentre nvidia vivrebbe solo del suo mito? I 3 fps in più? O i 3 in meno? I 30W in più in full load? Cioè ora tutto il discorso mito/prestazioni/chi ce l'ha più lungo è basato solo sui consumi? Se non vuoi consumare basta che prendi una 5450 e stai felice. Prima però, ai tempi della serie 8000 di nvidia, quale era il parametro di riferimento o la motivazione per non acquistare un G80/G92? La nanometria (AMD@55nm vs nvidia@65nn)? Solo per sapere come evolve "il gusto" del supporter, dato che la questione consumi io non l'ho mai sentita nominare se non dalla serie 5xxx in poi dato che prima erano pari e ancora prima... che devastazione, e non a favore delle schede ATI!
Mai detto che AMD sia superiore a Nvidia, ho detto che invece dovrebbe meglio sfruttare i vantaggi tecnici di cui dispone nelle modalità che ho descritto, questo ovviamente SECONDO ME.
Innegabile poi che in alcuni ambiti ati sia più efficente di nvidia così come nvidia può offrire alcune feature in più, dunque nelle fasce in cui entrambe sono prestazionalmente alla pari (cioè praticamente tutte apparte la 580 gtx) la scelta diventa personale e assolutamente indifferente.
Il "mito" (se così si vuol chiamare, ma è un termine erroneo direi) a cui mi riferisco dunque riguarda, allo stato attuale, solo la fascia alta-altissima che tu hai provveduto ad escludere dal discorso come premessa.
Ghostfox
28-02-2011, 15:27
di certo non capisco chi è che diceva che la 5870 fa un 10% in piu della 480... ma in quale pianeta? cioè mi sembra troppo assurdo spararle cosi alte aoh...
cmq vabe,tralasciando le bandierine,speriamo solo non costino una follia, sia l'una che l'altra, ma ne dubito... minimo minimo vedo l'nvidia a 799euro, la ati a 750... come storia canta...
io aspetto solo che escano per vedere realmente che pro mi porta uno sli a livello di costi... non la scheda singola, che anche se è allettante perchè anche alla rivendita ci si troverebbe solo una scheda da far fuori per cambio generazionale, di giocare e consumare 800-1000watt mi sembra alquanto esagerato... con una 580singola, quando si aggireranno sulle 350euro, e ci siamo vicini è questione di 3 mesi, si è piu che a posto.. al max la si occa con un bel after market da 3 ventoline e fine della festa.
brabby198
28-02-2011, 15:31
qualcuno conosce gia il prezzo io non ne ho idea
I vantaggi tecnici Amd già li sfrutta, e ne è un esempio, proprio la creazione delle dual gpu, in modo relativamente più agevole.
O nel poter vendere la HD6970 ad un prezzo simile alla GTX570 per via delle prestazioni, pur con un die size di molto inferiore.
E quando è uscita la GTX560 con un die size leggermente inferiore, si è limitata a fare scheda da 1Gb ed ha chiuso il problema.
E tutto questo, senza particolari problemi dei driver, ed eventuali miglioramenti/ottimizzazioni che potrebbero anche arrivare, ma di certo non cambiano di una virgola il valore dell'architettura.
E lo scaling Sli inferiore al Crossfire non è un mito, ma un fatto: le HD6970 praticamente azzerano lo svantaggio vs GTX580 quando si passa da 1 a 2 gpu pur partendo da un -10% di svantaggio della singola gpu.
Le recensioni DEI GIOCHI sono lì a dimostrarlo, le ho già riportate.
Ecco perchè con le dual gpu l'unica incognita sono i Mhz della gpu ed i consumi che ne conseguono: tutto il resto è già noto.
hermanss
28-02-2011, 15:35
Speriamo che scenda il prezzo della 560 Ti
azz.. qui mi sembra già di percepire 'la scimmia'' di chi si è appena sparato un 2x580 o addirittura 3x580. Come resistere ad un upgrade cosi mastodontico ? C'è da comprarsi una vettura tra poco a fare tutti sti cambi :D
Annalizza bene le due architetture, segui i topic dove ne parlaro persone che se ne intendono e capirai perche i 28nm aiuterano di piu il chip amd e non nvidia!
Annalizziamo, annalizziamo: dove sarebbero queste persone che se ne intendono? Cos'e' che dicono?
Lunar Wolf
28-02-2011, 16:50
Mio caro Lunar Wolf, ....
D'accordo con te. ;)
Indietro in cosa? ... 3Dmark.
Tranquillo, non ce bisogno che ti scaldi hai ragione tu!!! ;)
Vedete Lunar-Wolf e company, ora sapete a cosa mi riferivo quando parlavo di far cadere il mito, tagliare sto cavolo di scettro-chippone in mezzo alle gambe di nvidia.
Non me ne voglia nulla Elrim ovviamente, di cui mi sono servito impropriamente per giustificare e dimostrare quanto detto prima.
E come non avere piu un eroe per certe persone!!! :D
Scusa non capisco proprio il tuo ragionamento. Lasciamo stare la scheda top dei top dove le prestazioni migliori le raggiunge chi ne ha di più in tutto e non ci scappa.
Ma prendiamo una 6970 vs 570. Quali sono i motivi per cui la scheda AMD sarebbe la migliore mentre nvidia vivrebbe solo del suo mito? I 3 fps in più? O i 3 in meno? I 30W in più in full load? Cioè ora tutto il discorso mito/prestazioni/chi ce l'ha più lungo è basato solo sui consumi? Se non vuoi consumare basta che prendi una 5450 e stai felice. Prima però, ai tempi della serie 8000 di nvidia, quale era il parametro di riferimento o la motivazione per non acquistare un G80/G92? La nanometria (AMD@55nm vs nvidia@65nn)? Solo per sapere come evolve "il gusto" del supporter, dato che la questione consumi io non l'ho mai sentita nominare se non dalla serie 5xxx in poi dato che prima erano pari e ancora prima... che devastazione, e non a favore delle schede ATI!
no problem anche per te.....hai ragione come l'altro tuo amico ;)
I vantaggi tecnici Amd già li sfrutta, e ne è un esempio, proprio la creazione delle dual gpu, in modo relativamente più agevole.
O nel poter vendere la HD6970 ad un prezzo simile alla GTX570 per via delle prestazioni, pur con un die size di molto inferiore.
E quando è uscita la GTX560 con un die size leggermente inferiore, si è limitata a fare scheda da 1Gb ed ha chiuso il problema.
E tutto questo, senza particolari problemi dei driver, ed eventuali miglioramenti/ottimizzazioni che potrebbero anche arrivare, ma di certo non cambiano di una virgola il valore dell'architettura.
E lo scaling Sli inferiore al Crossfire non è un mito, ma un fatto: le HD6970 praticamente azzerano lo svantaggio vs GTX580 quando si passa da 1 a 2 gpu pur partendo da un -10% di svantaggio della singola gpu.
Le recensioni DEI GIOCHI sono lì a dimostrarlo, le ho già riportate.
Ecco perchè con le dual gpu l'unica incognita sono i Mhz della gpu ed i consumi che ne conseguono: tutto il resto è già noto.
;)
Stevejedi
28-02-2011, 16:50
Chissà se arriverà anche la 550 Ti...
Si
http://www.techpowerup.com/141273/PNY-GeForce-GTX-550-Ti-Listed-in-Europe.html
Annalizziamo, annalizziamo: dove sarebbero queste persone che se ne intendono? Cos'e' che dicono?
sono curioso anch'io, gente che sa già qualcosa di Kepler va sicuramente ascoltata con grande attenzione.
scrat1702
28-02-2011, 17:47
Vedete Lunar-Wolf e company, ora sapete a cosa mi riferivo quando parlavo di far cadere il mito, tagliare sto cavolo di scettro-chippone in mezzo alle gambe di nvidia.
Non me ne voglia nulla Elrim ovviamente, di cui mi sono servito impropriamente per giustificare e dimostrare quanto detto prima.
Invece il quote che hai fatto l'hai azzeccato in pieno!!! :asd: :asd: :asd:
scrat1702
28-02-2011, 17:56
Indietro in cosa? Nvidia ha lo scettro prestazionale da milioni di anni, tutta la generazione Dx10 (la 8800 è forse la migliore vga della storia) e la generazione Dx11, cos'è che dovrebbe migliorare? Ah già i famosi consumi, il pallino fisso dei rossi... la mia 570 consuma ben 5 watt in più di una 6970 in idle, oh my god. E in full load circa 30 watt di più, praticamente come avere una lampadina accesa in casa, un vero dramma. Si vede che i rossi non hanno elettrodomestici come lavapiatti, forno, lavatrice, clima ecc..., infatti riescono a notare la differenza dei famosi 30 watt in più.
Suppongo inoltre che i famosi esperti che frequenti sappiano tutto di Kepler e siano già in grado di dire che i 28nm favoriranno AMD senza il minimo dubbio.
Probabilmente sono gli stessi esperti che prevedevano il dominio di Cayman di fronte ad un'architettura fallimentare come Fermi. E invece, nonostante 15 mesi di tempo, Cayman sta tranquillamente dietro un semplice refresh di Fermi.
Ah, ultima cosa, il mito dello SLI che scala meno del Xfire... i migliori sistemi del mondo sono tutti quad-SLI, punto, cercatevi il link sul sito del 3Dmark.
Forse faresti meglio a leggerti qualche recensione in giro e a provare le schede di entrambe i produttori prima di affermare certe cose!
1. La 6970 e preferibile alla 570 in ogni caso, e con gli aggiornamenti dei driver sta andando ad accorciare sulla 580
2. XFire scala meglio dello SLI e anche questo e un dato di fatto, tranne che nel 3D Mark che tu hai citato apposta,
3. MA tu al 3D MArk ci giochi??? Se si spiegaci un po come cosi lo prendiamo come metro di paragone, visto che io preferisco prendere come paragone Crysis, Metro dove siamo sotto ai 60FPS e ogni frame vale oro colato e non i titoli dove tra 120 o 150 FPS non cambia un piffero!
Prima di darmi del "rosso", visto che ti diverti a fare affermazioni da bambini dell'asilo, ho schede nVidia nel case dalla 8800GTX e ho gia scritto in questo thread che la 590 sara davanti alla 6990 di un 5-10%!
sbudellaman
28-02-2011, 18:02
di certo non capisco chi è che diceva che la 5870 fa un 10% in piu della 480... ma in quale pianeta? cioè mi sembra troppo assurdo spararle cosi alte aoh...
Come ti ho risposto in PVT, e giusto per chiarire anche agli altri : non sono impazzito, semplicemente nella fretta ho invertito le schede :asd: Tra l'altro dopo affermo che sono le nvidia ad essere le regine, quindi era evidente la distrazione. Ovviamente ho editato.
I vantaggi tecnici Amd già li sfrutta, e ne è un esempio, proprio la creazione delle dual gpu, in modo relativamente più agevole.
O nel poter vendere la HD6970 ad un prezzo simile alla GTX570 per via delle prestazioni, pur con un die size di molto inferiore.
E quando è uscita la GTX560 con un die size leggermente inferiore, si è limitata a fare scheda da 1Gb ed ha chiuso il problema.
E tutto questo, senza particolari problemi dei driver, ed eventuali miglioramenti/ottimizzazioni che potrebbero anche arrivare, ma di certo non cambiano di una virgola il valore dell'architettura.
E lo scaling Sli inferiore al Crossfire non è un mito, ma un fatto: le HD6970 praticamente azzerano lo svantaggio vs GTX580 quando si passa da 1 a 2 gpu pur partendo da un -10% di svantaggio della singola gpu.
Le recensioni DEI GIOCHI sono lì a dimostrarlo, le ho già riportate.
Ecco perchè con le dual gpu l'unica incognita sono i Mhz della gpu ed i consumi che ne conseguono: tutto il resto è già noto.
Queste sono tutte belle cose e non ho nulla da dire. Infatti io non ho detto che ATI non sfrutta i vantaggi tecnici in senso assoluto. Io ho detto che finora ATI non ha ancora sfruttato al massimo i vantaggi tecnici per raggiungere le prestazioni assolute come top di gamma, che è ben diverso. Eppure l'ho ripetuto milioni di volte, com'è possibile che non vengo capito ?
E ripeto ancora una volta, il fatto che ati non abbia raggiunto la 580 con la 6970 ci può anche stare, dal momento che evidentemente ha pensato che avrebbe fatto più soldi gareggiando con la 570 piuttosto che rovinare l'immagine che ha nvidia. Quello che spero è che però stavolta punti realmente a superare nvidia come top di gamma, perchè ritengo che superare nvidia a livello di prestazioni assolute sia per ati, a livello di marketing, importantissimo.
Come ti ho risposto in PVT, e giusto per chiarire anche agli altri : non sono impazzito, semplicemente nella fretta ho invertito le schede :asd: Tra l'altro dopo affermo che sono le nvidia ad essere le regine, quindi era evidente la distrazione. Ovviamente ho editato.
Queste sono tutte belle cose e non ho nulla da dire. Infatti io non ho detto che ATI non sfrutta i vantaggi tecnici in senso assoluto. Io ho detto che finora ATI non ha ancora sfruttato al massimo i vantaggi tecnici per raggiungere le prestazioni assolute come top di gamma, che è ben diverso. Eppure l'ho ripetuto milioni di volte, com'è possibile che non vengo capito ?
E ripeto ancora una volta, il fatto che ati non abbia raggiunto la 580 con la 6970 ci può anche stare, dal momento che evidentemente ha pensato che avrebbe fatto più soldi gareggiando con la 570 piuttosto che rovinare l'immagine che ha nvidia. Quello che spero è che però stavolta punti realmente a superare nvidia come top di gamma, perchè ritengo che superare nvidia a livello di prestazioni assolute sia per ati, a livello di marketing, importantissimo.
Non so' dove tu sia stato nel 2009-2010 :), ma con la HD5870 ha avuto il primato da settembre a marzo, e con la HD5970, tecnicamente parlando, ce l'ha ancora ora a 15 mesi dal lancio, ammesso che si voglia considerare le dual gpu come "schede singole" solo perchè hanno un solo slot pci-e.
Ma di fatto Amd, una dual rv570 è riuscita a farla, mentre Nvidia una dual gf100 (per fortuna direi) non è riuscita a farla.
Quindi come vedi, quando può, Amd il primato è ben lieta di prenderselo e sfruttarlo pure (vedi prezzi)
E ribadisco che la HD69xx non se la passa affatto male come top di gamma:
http://www.computerbase.de/artikel/grafikkarten/2011/test-2-x-geforce-gtx-580/4/#abschnitt_performancerating
ironman72
28-02-2011, 19:20
Ma che palle ogni volta!!! State tutti a disquisire su qualcosa che ancora non e' stato testato, ogni uscita da parte di Nvidia o Ati scatena flames e fanboy (che si ritengono tutti ingegneri ), la gara a chi ce l'ha piu' .... !
Basta per favore...!!! ognuno dica la sua ma non la erga a verita' assoluta!!
E principalmente ognuno compra quello che vuole!
sbudellaman
28-02-2011, 19:38
Non so' dove tu sia stato nel 2009-2010 :), ma con la HD5870 ha avuto il primato da settembre a marzo,
Dajie, e meno male che solo pochi post fa condividevo lo stesso pensiero con lunar wolf. Ho già discusso ampiamente del fatto che ATI con la serie 5000 ha dato delle belle batoste a nvidia, che invece ha sviluppato un notevole ritardo,su questo non ci piove e ne sono felicissimo.
Tuttavia si devono tener presenti due fattori, che stai dando per scontato e che invece sono di una importanza vitale :
1- dei buoni paragoni oggettivi vanno fatti con schede della stessa generazione
2- prima o poi capita quasi sempre che una delle due case passi momentaneamente in vantaggio come pretendente al trono, per un periodo che può essere anche più o meno breve (vedi 4870 prima dell'arrivo di gtx280).
Sotto questi punti di vista è EVIDENTE che nvidia ha fatto tutto il possibile per primeggiare durante almeno gli ultimi 5 anni. Per quanto anche ATI abbia avuto i suoi momenti di gloria in questo campo, è impossibile negare che nvidia sia in ogni caso uscita vincitrice per un numero maggiore di volte. E' risaputo, non lo si vorrà negare mica ora.
e con la HD5970, tecnicamente parlando, ce l'ha ancora ora a 15 mesi dal lancio, ammesso che si voglia considerare le dual gpu come "schede singole" solo perchè hanno un solo slot pci-e.
Ma di fatto Amd, una dual rv570 è riuscita a farla, mentre Nvidia una dual gf100 (per fortuna direi) non è riuscita a farla.
Quindi come vedi, quando può, Amd il primato è ben lieta di prenderselo e sfruttarlo pure (vedi prezzi)
Con la 5970 ATI ha fatto un buon lavoro, e come ho già detto nessuno sta togliendo ad ati i suoi meriti quali l'ottima efficenza che ha permesso la realizzazione di una così ben fatta dual gpu.
Però penso che lo sappiamo tutti che paragonare una dual gpu ad una single gpu non ha senso, son due cose completamente differenti. Sono due campi che non vanno paragonati, e a dire il vero è da anni che viene ripetuto in questo forum, però la solita discussione rispunta sempre. Ciò di cui invece ci dovremmo stupire fra 580gtx e 5970 è che una gpu singola sia riuscita a sviluppare tanta potenza in un unico chip da fronteggiare la dual avversaria faccia a faccia, anche se c'è da dire che questa dual è della "gen" precedente.
Il vero "colpo" contro nvidia sarà quando quest'ultima si getterà anch'essa nel campo dual, e verrà sconfitta (se così sarà). Come ho già detto, lo scopo di nvidia è quello di primeggiare nelle prestazioni assolute. Nel momento in cui lei sceglie di entrare in tale campo, allora non ci sono scusanti : o primeggi, o sei seconda. Certo, per nvidia conta principalmente il campo della single gpu, cosa che ha ripetuto fino alla nausea e ha portato avanti con la politica del mega chippone, tuttavia il danno all'immagine sarebbe comunque evidente in quanto oggettivamente sarebbe seconda a qualcuno.
Spero che ora sia più chiaro ! :)
E ribadisco che la HD69xx non se la passa affatto male come top di gamma:
http://www.computerbase.de/artikel/grafikkarten/2011/test-2-x-geforce-gtx-580/4/#abschnitt_performancerating
Quelli sono solo 2560x1600. Li ATI va meglio. In media, considerando anche le altre risoluzioni alte (1080,1200,1600) la 580 è un 10-15% più veloce. 6970 è veloce, nessuno lo nega, ma è nettamente seconda, è questo il punto.
Forse faresti meglio a leggerti qualche recensione in giro e a provare le schede di entrambe i produttori prima di affermare certe cose!
1. La 6970 e preferibile alla 570 in ogni caso, e con gli aggiornamenti dei driver sta andando ad accorciare sulla 580
2. XFire scala meglio dello SLI e anche questo e un dato di fatto, tranne che nel 3D Mark che tu hai citato apposta,
3. MA tu al 3D MArk ci giochi??? Se si spiegaci un po come cosi lo prendiamo come metro di paragone, visto che io preferisco prendere come paragone Crysis, Metro dove siamo sotto ai 60FPS e ogni frame vale oro colato e non i titoli dove tra 120 o 150 FPS non cambia un piffero!
Prima di darmi del "rosso", visto che ti diverti a fare affermazioni da bambini dell'asilo, ho schede nVidia nel case dalla 8800GTX e ho gia scritto in questo thread che la 590 sara davanti alla 6990 di un 5-10%!
Io la 570 ce l'ho, quindi parlo con cognizione di causa, tu ce l'hai una 6970 per fare altrettanto?
1- Nei tuoi sogni solo AMD lavora sui driver, Nvidia invece no, tutti i guadagni in performance anche nei giochi che prima favorivano AMD degli ultimi driver per te non esistono, perché nel tuo mondo solo AMD lavora sui driver. Nella realtà la 6970 sta dietro a una 480, vga di una generazione fa. Quando torni alla realtà fai un fischio. Oltretutto la 570 costa pure meno della 6970, senza contare che la 6970, in quanto top di gamma AMD, andrebbe confrontata con la 580, ma siccome Cayman è troppo debole per avvicinarsi ad una 580, i rossi fanno i paragoni con la 570. La prossima generazione farete paragoni tra la top AMD e la fascia media Nvidia? Che tristezza.
2-Xfire recupera forse parte del gap in dual gpu, ma prende sonore bastonate in quad gpu. E questo è un fatto innegabile.
3- Metro 2033 lo prendo anch'io a paragone, trovo invece ridicolo che si usi ancora Crysis, titolo Dx10 del 2007, nel 2011. 3DMark è significativo quanto Unigine, è un benchmark quindi non ci giochi, ma da quello che si vede sono certo che le modalità estreme di Crysis 2 permetteranno di vedere chiaramente quale vga ha il tassellatore più efficiente.
p.s. non ho detto che sei un rosso, trovo solo sterile questa polemica e a dire il vero non è difficile trovare qualche commento "da rosso" in questo thread
giusto qualche esempio
il fatto che ati non abbia raggiunto la 580 con la 6970 ci può anche stare, dal momento che evidentemente ha pensato che avrebbe fatto più soldi gareggiando con la 570 piuttosto che rovinare l'immagine che ha nvidia
qua si dice che AMD di proposito non abbia tirato fuori una gpu in grado di battere la 580!! Siamo al delirio.
lo scettro di scheda SINGOLA più potente rimarrà in mano a Ati....su questo sono sicuro........
qua in preda al totale sconforto si glorifica il record meno significativo tra quelli possibili, ossia vga dual gpu più veloce! Oltretutto destinato inevitabilmente ad infrangersi di fronte alla 590, ma ciò che conta è la convinzione
Dai va, tanto il 99% di quelli che postano qui mai e poi mai compreranno una 590 o un 6990, è solo l'ennesima fiera della cazzata libera.
leoneazzurro
28-02-2011, 19:52
Vabbé, Elrim. Le chance te le si é date. Come al solito hai preferito dare voce alle tue opinioni nel tuo solito modo, ossia arrogante. Utenza bannata.
sbudellaman
28-02-2011, 20:06
edit...
El_Mago_Peppins
28-02-2011, 21:48
secondo me evga sfornerà il suo modello con 3 connettori 8pin sisi :D
Vabbé, Elrim. Le chance te le si é date. Come al solito hai preferito dare voce alle tue opinioni nel tuo solito modo, ossia arrogante. Utenza bannata.
abuso di potere? Tutto quello che dice è vero poi... che poi l'arroganza non è poi cosi spudoratamente "visiva", a parte la parolaccia alla fine non capisco il motivo di bannarlo addirittura O_o
ps. ma forse sono io che sono appena entrato in discussione e non conosco i fatti, per evitare di andare ot, se vuoi chiarirmeli via pm senò sarà stato solo un'interruzione, sry ;-)
El_Mago_Peppins
28-02-2011, 22:21
ragà, secondo voi quand'è che le vedremo nei negozi? Fine marzo? Aprile? Piu che altro ora sono curioso di vedere i bench :cool:
Polpi_91
28-02-2011, 22:26
la questione che mi pongo non è tanto riuscire a mettere due GF110 su un unico PBC ma è riuscirci a mettere tutte le strutture necessarie per alimentare decentemente le gpu.
con le ultime generazioni Nvidia ha creato sempre schede molto al limite come sezioni di alimentazioni che spesso si rivelano molto al limite soprattutto in ambiti di OC pesanti. la controparte ATI invece sta sfornando schede molto ben fatte a livello di pbc e componentistica, basti guardare le 5870 che hanno una sezione di alimentazione che si può ben definire sovradimensionata per il chip che montano nel 95% dei casi (il restante 5% è ambito di oc estremo cioè uso di LN2)
sulla questione del crossfire/sli non bisogna guardare assolutamente HWbot e i 3Dmark per queste ragioni:
1- le 68xx hanno dei gravi problemi nel momento in cui si scende sotto lo 0°C, semplicemente non vanno e non si sa il perchè
2- i driver nvidia sono pesantemente ottimizzati per questi benchmark sintetici ma se uno gioca non gliene frega nulla
3- il quad SLI è molto più difficile da fare rispetto a un Quad crossfire per via che sono pochissime le mobo che lo supportano (basti pensare che la Asus Rampage II extreme ha bisogno di dell'expander per farlo) e non tutti i modelli di VGA lo supportano ma solo determinati; mentre per il cross va bene una qualsiasi mobo con 4 pci-ex e 4 69xx a caso
su queste due schede cioè la 590 e la 6990 credo che possa uscirne vincitrice ancora ATI perchè i limiti di consumo e di calore prodotto da due GF110 non sono proprio semplici da risolvere senza usare soluzioni estreme come tripli connettori supplementari o dissipatori triple-slot con schede reference
e comunque gli standard pci-ex per l'alimentazione valgono una sega, basta guardare la differenza tra un 6-pin e un 8-pin: il secondo ha solo due cavi di massa in più e certi alimentatori di qualità (per la cronaca sto parlando di due corsair, il TX650 e il TX750 che ho qua a casa) creano il 7° e l'87 pin facendo ponte con i due masse dei 6 pin principali. E per la cronaca un 6-pin può reggere tranquillamente carichi di oltre 250W da solo, la cosa che è più preoccupante invece è se ce la farà lo slot pci-ex a alimentare da solo tutti gli altri componenti della vga (ricordiamoci che i connettori supplementari alimentano solo ed esclusivamente la gpu mentre le vram e tutto il resto prende la corrente dal pci-ex)
so di essere in buona parte OT, ma certe cosa vanno chiarite ;)
ironman72
28-02-2011, 22:26
Physx forse non e' il massimo ma 3dvision e' un valore aggiunto di nvidia che ati non ha..( o meglio e' parecchio indietro)e credimi giocare a Black ops in 3d e' un'altro mondo..:D
Ati imho e' incredibile per la gestione multimonitor,per tutto il resto io preferisco nvidia.
E questa e' una mia opinione, non mi interessa quale sia la piu' veloce, la piu' lunga , la piu' grossa, mi interessa quella che per me offre di piu':D
leoneazzurro
28-02-2011, 22:32
secondo me evga sfornerà il suo modello con 3 connettori 8pin sisi :D
abuso di potere? Tutto quello che dice è vero poi... che poi l'arroganza non è poi cosi spudoratamente "visiva", a parte la parolaccia alla fine non capisco il motivo di bannarlo addirittura O_o
ps. ma forse sono io che sono appena entrato in discussione e non conosco i fatti, per evitare di andare ot, se vuoi chiarirmeli via pm senò sarà stato solo un'interruzione, sry ;-)
Prima di postare pubblicamente per criticare l´operato di un moderatore parlando di "abuso di potere" potevi fare una ricerca sui messaggi passati del suddetto per verificare sia le sospensioni che gli avvertimento che erano stati dati a causa di un modo di postare poco consono a questo forum. E magari potevi anche chiedere direttamente via PVT, come specificato dal regolamento. Sperando sia stata solo una svista dettata dall´inesperienza, mi limito ad ammonirti. Che non si ripeta, peró.
Per tutti gli altri, vi ricordo che l´argomento della notizia non sono i flame AMD vs Nvidia.
El_Mago_Peppins
28-02-2011, 22:52
Physx forse non e' il massimo ma 3dvision e' un valore aggiunto di nvidia che ati non ha..( o meglio e' parecchio indietro)e credimi giocare a Black ops in 3d e' un'altro mondo..:D
Ati imho e' incredibile per la gestione multimonitor,per tutto il resto io preferisco nvidia.
E questa e' una mia opinione, non mi interessa quale sia la piu' veloce, la piu' lunga , la piu' grossa, mi interessa quella che per me offre di piu':D
infatti, prezzo e prestazioni a parte, nvidia offre piu cose "utili" rispetto ad ati :stordita:
chissà se manderanno una 590 anche allo staff, sarei proprio curioso di vedere che ne tirano fuori :fagiano:
sbudellaman
28-02-2011, 23:04
abuso di potere? Tutto quello che dice è vero poi... che poi l'arroganza non è poi cosi spudoratamente "visiva", a parte la parolaccia alla fine non capisco il motivo di bannarlo addirittura O_o
Dal momento che Elrim mi ha evidentemente insultato (che poi, rosso io che ho una nvidia 285...), dovresti evitare di appoggiare TUTTO ciò che dice, anche perchè ha volutamente distorto ciò che ho detto, cosa che si deduce leggendo le mie conversazioni precedenti, e capendo ciò che DAVVERO ho detto. Se sto zitto è solo per non inquinare ulteriormente, spero che la finiate. Ti invio un pvt, se vuoi rispondermi fallo da li.
ragà, secondo voi quand'è che le vedremo nei negozi? Fine marzo? Aprile? Piu che altro ora sono curioso di vedere i bench
C'è scritto nel titolo della news :D metà marzo !
Per i bench, io penso basti dare un occhiata allo sli di 580 o 570 per farsi un'idea. Per dati concreti non resta che aspettare :)
ironman72
28-02-2011, 23:24
infatti, prezzo e prestazioni a parte, nvidia offre piu cose "utili" rispetto ad ati :stordita:
chissà se manderanno una 590 anche allo staff, sarei proprio curioso di vedere che ne tirano fuori :fagiano:
Forse non saranno utili ma sono in piu'.... e finiamola di giudicare quello che dicono gli altri...:mad:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.