View Full Version : NVIDIA GeForce GTX 580: l'evoluzione di Fermi
che discorso è? allora 2 580 che fanno?
è uscita adesso per giunta, aspetterei i driver.
Il chip è il GF100, quindi "uguale" alla 480. I driver quindi non faranno miracoli.
Due 580 fanno 1000 Euri :D
Strato1541
09-11-2010, 23:22
Scusa ma anche qui i grafici della recensione ti smentiscono!
Ma li guardate almeno, o vedete solo le barre a destra delle nomenclature nVidia??? La 5870 scala in XFire un po meno delle 6850 ma scala eccome.
Si in passato ci sono stati problemi ma e da un po che sono stati risolti e poi analizziamo la situazione ad oggi visto che la 580 e uscita oggi e non un anno fa (quando sarebbe dovuta uscire invece).
Ripeto se questa 580 e l'unica proposta di nVidia per lottare con Cayman e Antilles la vedo nerissima. Se 2 BartsXT gia battono ampiamente una 580 allora 2 Cayman la distruggeranno!
Scusa se mi permetto ma prevedi il futuro??Quando ci saranno si vedrà.. la settimana scorsa nessuno pensava che sarebbe davveo uscita una 580, personalmente acnh'io ci credevo poco...
Io l'ho letta bene tutta la recensione e ho provato un bel pò di schede grafiche...
Se vai nel forum della 5870/5850 sentirai molti che si lamentavana prorpio del cross...
Quindi i grafici si guaradano fino ad uin certo punto, ad ogni modo perchè vi ostinate a paragonare un cross con una singola gpu?!
Ho capito che cerchi di tirare acqua al tuo mulino, però non giochiamoci parliamo di cose serie!
continuo a tenermi stretto la mia buona 470 che fra l'altro è calata spaventosamente di prezzo, arrivando a costare 110€ meno di una 5870 e andando leggerissimamente di più.
continuo a rimanere deluso da queste uscite di schede "mediocri" se comparate ai nomi che gli attribuiscono.
un 5 davanti presupponeva, nella mia testa, un cambio di chip, di architettura, di futures, insomma, una scheda diversa, non un restyling! :mbe:
ricordate il passaggio dalle 7800 alle 8800? bei tempi... :rolleyes:
un colpo al cerchio ed uno alla botte:
delusione anche in campo ati, con schede chiamate 6800 che vanno meno delle 5800...
quello che io critico ultimamente è la nomenclatura, stanno facendo un caos infernale da qualche anno a questa parte!
Concordo al 100%
è quello che penso anche io.
El_Mago_Peppins
09-11-2010, 23:25
bhe che dire, altra delusione :doh:
è di poco superiore alla 480 ed è inferiore alle soluzioni 68xx che sono "remake" delel vecchie "58xx" quindi perderà sicuramente contro le "69xx"
facendo un calcolo di guadagno in % rispetto alla gtx 480 abbiamo:
@2560x1600= +17%
@1920x1080= +14%
@1680x1050= +10%
Netto margine di vantaggio per la scheda GeForce GTX 580 sulla soluzione GTX 480 con Crysis Warhead; nel confronto con la soluzione ATI Radeon HD 5970 a doppia GPU troviamo valori inferiori con un pareggio alla risoluzione video di 2560x1600 pixel.
questa mia ha fatto proprio ridere, per voi 4-5fps in piu sono un netto miglioramento? sono fps che si guadagnano ad occhi chiusi con un pò di oc...
a mio parere è l'ennessina Delusione da parte di nvidia, e pensare che volevo cambiarmi il quad sli che ho ora, ma a quanto pare no ne vale ancora la pena :banned:
ghiltanas
09-11-2010, 23:27
Grazie della risposta!
Avevo letto anticipazioni in cui si parlava di un ottimizzazione verso il gaming che faceva perdere prestazioni lato gpu computing.
Anche nella prefazione mi pare che lasciate intendere la stessa cosa, evidentemente mi sbagliavo.
p.s. Chiedo scusa se ho il vizio di modificare i post poco dopo, se puoi anche rispondere alle altre domande... come vuoi eh ;)
semplicemente era emersa la voce secondo la quale nvidia avrebbe tolto la dp per ridurre la circuiteria e quindi realizzare una scheda con consumi e temp minori. Cosi nn è stato,anzi, come ti ha già spiegato Paolo grazie al numero di unità in + e freq + elevate, in questo campo la gtx580 è migliore della 480.
Domandina per Corsini: pensi che nvidia taglierà anche la gtx470 in favore di un'ipotetica gtx570? verrà realizzata una nuova linea quadro basandosi sul gf110?
psychok9
09-11-2010, 23:29
semplicemente era emersa la voce secondo la quale nvidia avrebbe tolto la dp per ridurre la circuiteria e quindi realizzare una scheda con consumi e temp minori. Cosi nn è stato,anzi, come ti ha già spiegato Paolo grazie al numero di unità in + e freq + elevate, in questo campo la gtx580 è migliore della 480.
Domandina per Corsini: pensi che nvidia taglierà anche la gtx470 in favore di un'ipotetica gtx570? verrà realizzata una nuova linea quadro basandosi sul gf110?
Da un lato meglio, ma dall'altro... consuma ancora troppo. Le temperature sono calate soltanto per via del vapor chamber, e le ottimizzazioni se le sono mangiate per il 10/15% in più di prestazioni. Avrei preferito una scheda più parsimoniosa e meno costosa, con prestazioni uguali alla GT 480.
Strato1541
09-11-2010, 23:29
bhe che dire, altra delusione :doh:
è di poco superiore alla 480 ed è inferiore alle soluzioni 68xx che sono "remake" delel vecchie "58xx" quindi perderà sicuramente contro le "69xx"facendo un calcolo di guadagno in % rispetto alla gtx 480 abbiamo:
@2560x1600= +17%
@1920x1080= +14%
@1680x1050= +10%
questa mia ha fatto proprio ridere, per voi 4-5fps in piu sono un netto miglioramento? sono fps che si guadagnano ad occhi chiusi con un pò di oc...
a mio parere è l'ennessina Delusione da parte di nvidia, e pensare che volevo cambiarmi il quad sli che ho ora, ma a quanto pare no ne vale ancora la pena :banned:
MI sembra che tu abbi le idee confuse.. come fà ad essere inferiore alle 68X quando esse sono più lente della 480??
Guarda che i dati sopra alla 580 si riferiscono al cross di 6850!! Non alla singola.. leggi bene..
TheDarkAngel
09-11-2010, 23:31
pensi che nvidia taglierà anche la gtx470 in favore di un'ipotetica gtx570? verrà realizzata una nuova linea quadro basandosi sul gf110?
Per non saper né leggere né scrivere e anche se non sono Corsini, direi che visti i ben 10mm^2 risparmiati al pezzo ( :asd: ), tutti i gf100 verranno cestinati in favore del gf110
psychok9
09-11-2010, 23:31
2) Mi pare poi che il controllo delle temperature e l'eventuale throttling ad alte temperature ci sia già da molto tempo sulle nVidia, quindi quale sarebbe la novità? Solo il fatto che è in hardware o ho capito male io?
3) Che prestazioni, "pulizia video" e clock hanno nella riproduzione di un BD-RAY/H264 1080p?
:p
El_Mago_Peppins
09-11-2010, 23:32
che erroraccio, hai ragione :muro:
in ogni caso è sempre un fail a mio parere, il guadagno prestazionale rispetto alla 480 è troppo poco, azzarderei che con una 480 a liquido si fanno gli stessi fps :sofico:
kissà se cambierò mai il mio quad sli per avere un guadagno del 100% o almeno del'80%...
))Lexandrus((
09-11-2010, 23:32
...Quindi resto dell'idea che le singole vanno considerate singole e le dual dual.. altrimenti se la mettiamo così uno sli di 470 si porta a casa con meno di 400 euro e và più forte di una 5970...
Non esageriamo...
Un SLI di GTX470 si porta a casa dai 420€ in su, ma consumano 464W, contro 304W di una 5970...
Le single GPU vanno paragonate a multi GPU di pari fascia di prezzo e consumi.
Altrimenti mi prendo un CrossfireX di 6850 OC, e vado come il tuo SLI di GTX470, spendendo e consumando molto meno.
continuo a tenermi stretto la mia buona 470 che fra l'altro è calata spaventosamente di prezzo, arrivando a costare 110€ meno di una 5870 e andando leggerissimamente di più.
continuo a rimanere deluso da queste uscite di schede "mediocri" se comparate ai nomi che gli attribuiscono.
un 5 davanti presupponeva, nella mia testa, un cambio di chip, di architettura, di futures, insomma, una scheda diversa, non un restyling! :mbe:
ricordate il passaggio dalle 7800 alle 8800? bei tempi... :rolleyes:
un colpo al cerchio ed uno alla botte:
delusione anche in campo ati, con schede chiamate 6800 che vanno meno delle 5800...
quello che io critico ultimamente è la nomenclatura, stanno facendo un caos infernale da qualche anno a questa parte!
:)
sì perfetto! ma non dovevano chiamarle in quel modo!!!!
non era possibile chiamarle 6750/70??? perché rendere tutto così confuso ingannando l'utente medio che magari non legge ogni giorno hwupgrade?
che io ricordi non mi pare, una 6800 andava più di una 5800, una 7800 più di una 6800, una 8800 più di una 7800... le gtx200 più delle 9000 e le gtx400 più delle gtx200...
l'unica stronzata nvidia l'ha fatta con le 9000, identiche spiccicate alle 8000! basti pensare che le 8800GT e le 9800GT sono la stessa scheda!!! :eek:
ed anche in quell'occasione non ho esitato a farmi sentire con le critiche!
credo che lo sia come lo è stata quella di ati, né più e né meno.
La differenza è che AMD ha messo sul mercato le 6800 (a causa delle future APU o per il fatto del bus a 256bit), che offrono una vera nuova architettura ed a costo molto più basso delle vecchie 5800.
Anche il niubbo di turno si sarebbe fatto delle domande vedendo una scheda nuova a prezzo più basso...
NVidia invece ha fatto uscire la 580 spacciandola per nuova generazione, ed è si più potente, ma in realtà è ciò che doveva uscire un anno fa.
Sta a voi giudicare chi è ogni volta il più scorretto di turno...
El_Mago_Peppins
09-11-2010, 23:35
bhe qui non si tratta di essere scorretti ma di cacciare una scheda con i controca**i, ste schede non valgono un cavolo, possibile che non esca una fermi dual gpu o una scheda in grado di andare veramente forte rispetto alal serie 2xx?
cioè fanno uscire schede sempre nuove di fascia alta, che poi migliorano poco rispetto a prima, ma perchè non se le tengono loro ste cose...
bei tempi con la serie 8xxx :(
Scusa se mi permetto ma prevedi il futuro??Quando ci saranno si vedrà.. la settimana scorsa nessuno pensava che sarebbe davveo uscita una 580, personalmente acnh'io ci credevo poco...
Io l'ho letta bene tutta la recensione e ho provato un bel pò di schede grafiche...
Se vai nel forum della 5870/5850 sentirai molti che si lamentavana prorpio del cross...
Quindi i grafici si guaradano fino ad uin certo punto, ad ogni modo perchè vi ostinate a paragonare un cross con una singola gpu?!
Ho capito che cerchi di tirare acqua al tuo mulino, però non giochiamoci parliamo di cose serie!
Per esperienza personale ti dico che il 90% degli utenti che hanno problemi con le vga (sopratutto con cross e sli) sono quelli che spendono 1000€ di vga e poi scaricano giochi craccati, pachati che non possono aggiornare con le pach ufficiali (pena blocco del gioco) e che alla fine se la prendono con i driver [ uno che conosco se la prendeva con i driver ati se arrivato ad un certo punto il fucile sparava galline, ed è uno che sul forum continua a denigrare i driver amd senza dire però che insieme al gioco, alla crack e diversi worm virus e compagnia bella non ha mai provato (e insisto nel rimarcare MAI) ad utilizzare una 5870, 5970 in cross con un game originale]
Per amor di Dio, i driver AMD non sono perfetti, ma non lo sono nemmeno quelli Nvidia (ricordate i driver che incitavano al karakiri la GPU?) e che un cross o sli non raddoppia le prestazioni, ma se va il 50% in più rispetto alla singola vga puoi star certo che ogni nuovo gioco, tempo un mese al massimo nel peggiore dei casi, girerà secondo le aspettative.
Gli unici giochi che avranno problemi saranno quelli di almeno 6 anni fa, ma per quelli basterebbe una 5300 amd o una gt210 Nvidia per farlo andare al massimo.
Stranamente di tutti i problemi nei giochi riscontrati dagli utenti mai in nessuna redazione si sono presentati ( sarà che usano giochi originali ed aggiornati?)
ghiltanas
09-11-2010, 23:40
Per non saper ne leggere ne scrivere e anche se non sono corsini, direi che visti i ben 10mm^2 risparmiati al pezzo ( :asd: ), tutti i gf100 verranno cestinati in favore del gf110
anche le rese sono superiori ;)
El_Mago_Peppins
09-11-2010, 23:42
anche le rese sono superiori ;)
si si guadagna talmente tanto che questa gpu è gia esaurita...
ps. scusa il sarcasmo ma stò talmente incavolato perchè è la seconda volta che rimango deluso grandemente!
Strato1541
09-11-2010, 23:44
Per esperienza personale ti dico che il 90% degli utenti che hanno problemi con le vga (sopratutto con cross e sli) sono quelli che spendono 1000€ di vga e poi scaricano giochi craccati, pachati che non possono aggiornare con le pach ufficiali (pena blocco del gioco) e che alla fine se la prendono con i driver [ uno che conosco se la prendeva con i driver ati se arrivato ad un certo punto il fucile sparava galline, ed è uno che sul forum continua a denigrare i driver amd senza dire però che insieme al gioco, alla crack e diversi worm virus e compagnia bella non ha mai provato (e insisto nel rimarcare MAI) ad utilizzare una 5870, 5970 in cross con un game originale]
Per amor di Dio, i driver AMD non sono perfetti, ma non lo sono nemmeno quelli Nvidia (ricordate i driver che incitavano al karakiri la GPU?) e che un cross o sli non raddoppia le prestazioni, ma se va il 50% in più rispetto alla singola vga puoi star certo che ogni nuovo gioco, tempo un mese al massimo nel peggiore dei casi, girerà secondo le aspettative.
Gli unici giochi che avranno problemi saranno quelli di almeno 6 anni fa, ma per quelli basterebbe una 5300 amd o una gt210 Nvidia per farlo andare al massimo.
Stranamente di tutti i problemi nei giochi riscontrati dagli utenti mai in nessuna redazione si sono presentati ( sarà che usano giochi originali ed aggiornati?)
Sì sarà anche vero ma io per esempio avevo grossi problemi con gta 4(originale) con dirt 2(scaricato con il cupon della 5870)...QUindi qualcosa c'era..
Ora con 5970 non ho di questi problemi..Sono passati mesi però da allora..
Io dico che la 580 è la scheda che doveva uscire dal pricipio, se si dice che non ha potenza, detto tra noi si è ipocriti, si posso trovare tutte le scuse del mondo ma la scheda da quello che si vede và eccome!
E anche a chi dice che consuma e sclda ancora, vorrei dire che mi sembra in linea per il tipo di scheda.. niente che non si sia già visto...
Dopo se si è di parte e non si ragiona con cognizione di causa si può andare all'infinito..
longhorn7680
09-11-2010, 23:46
Scusa se mi permetto ma prevedi il futuro??Quando ci saranno si vedrà.. la settimana scorsa nessuno pensava che sarebbe davveo uscita una 580, personalmente acnh'io ci credevo poco...
Io l'ho letta bene tutta la recensione e ho provato un bel pò di schede grafiche...
Se vai nel forum della 5870/5850 sentirai molti che si lamentavana prorpio del cross...
Quindi i grafici si guaradano fino ad uin certo punto, ad ogni modo perchè vi ostinate a paragonare un cross con una singola gpu?!
Ho capito che cerchi di tirare acqua al tuo mulino, però non giochiamoci parliamo di cose serie!
Mi sa tanto che sei tu chi vuole tirare acqua al suo mulino!
E poi a che mulino se monto una 470 e prima di questa avevo una 260 e ancora prima una 8800GTX???
Ma come i grafici si guardano fino a un certo punto??? EPIC FAIL!!!
Dai su basta :mc: E poi nessuna previsione del futuro ma semplice logica! Se un'ipotetica dual di Barts supera la 580 o almeno la pareggia una dual di Cayman sicuramente andra di piu e non il 10% ma di piu.
Guarda che tu abbia provato tante schede non lo metto in dubbio, ma da quel che ho capito ne ho provate un po di piu ;) Gia che sembra tu non abbia ancora provato le 68XX mentre sono gia riuscito a provarle entrambe e anche in XFire e ti posso garantire che lo stuttering (molto meno grave di quel che si va predicando nel thread delle 478-480) non esiste piu! Poi io non paragono un cross ma la 5970 che fino a prova contraria resta UNA VGA con la 580. Il cross di 6850 l'ho preso come paragone soltanto come parametro di cosa sarebbe una dual di Barts e visto che e gia stata annunciata una dual con Cayman allora ho semplicemente fatto una considerazione logica non dando nessun dato per certo i termini assoluti, ma una proiezione oggettiva ce la possiamo fare.
ghiltanas
09-11-2010, 23:46
si si guadagna talmente tanto che questa gpu è gia esaurita...
ps. scusa il sarcasmo ma stò talmente incavolato perchè è la seconda volta che rimango deluso grandemente!
in che senso deluso? vorrei sapere cosa vi aspettavate da questa scheda :wtf:
per me era chiaro aspettarci miglioramenti % pari a quelli visti, i dati erano quelli, una manciata di sp in + e frequenze superiori..
Strato1541
09-11-2010, 23:47
si si guadagna talmente tanto che questa gpu è gia esaurita...
ps. scusa il sarcasmo ma stò talmente incavolato perchè è la seconda volta che rimango deluso grandemente!
Ma deluso da che?
Scusa ma poco fà avevi letto con talmente attenzione la recensione che non ti eri accorso che si trattava di cross.. scusa se mi permetto dacci una riletta e poi nè parliamo..
Dato che è la singola gpu più potente in commercio consuma e scalda il giusto per il tipo di scheda, e stando a ciò che dicono in amd le 69XX nonsaranno distanti da tali prestazioni..
ora o tutte le schede saranno un fail ..(dal tupo punto di vista) o non sò cosa dirti!
Ma non ti fai schifo da solo? Se la 5970 avesse tutti i problemi che tu dici, in generale dico, non parlo di casi singoli, come mai nVidia si è sforzata talmente tanto per pareggiarle, a volte, le prestazioni? La devi smettere di fare disinformazione. Secondo te tutto il mondo si sbaglia nei confronti della serie 5000 di Amd? Dicono tutti cazzate? Credo di no, anzi aggiungo, che lo scettro della cazzata più potente nel campo VGA, lo hai tu.
E' incredibile, denigri AMD e osanni nVidia in OGNI TUO POST. Questo dimostra quanto fanboy bimbominkiese tu sia, e allo stesso tempo, che ogni tua affermazione è fasulla e perciò vale ZERO!
Fai come prima, non rispondermi. Anzi, vai a cospargerti il capo di cenere e medita in silenzio.
Ci sono affezionati ad nVidia, come halduemilauno per esempio, ma che non scendono mai al livello schifoso del fanboy ottuso.
E cmq, bastano due 6850 in CrossX per battere la tua carissima 580, puoi vederlo dalla recensione che stiamo commentando. E costano 200 euro in meno. Oppure due 460 da 1gb, 200 euro in meno lo stesso.
Ciao pupazzo.
oh, intanto una bella segnalazione visto che l'educazione non te l'ha insegnata nessuno.
Per il resto, dato che io ho un sistema dual gpu NVIDIA, so bene quali siano i difetti di queste configurazioni. E ATI non fa assolutamente meglio di Nvidia a livello di supporto software per i sistemi dual gpu, anzi, casomai è il contrario. E ho sempre parlato bene di schede come la 5870, quindi il tuo volerla mettere sul flame a tutti i costi è ridicolo.
Per il resto sciacquati la bocca prima di rivolgermi nuovamente la parola
Ma non ti fai schifo da solo? Se la 5970 avesse tutti i problemi che tu dici, in generale dico, non parlo di casi singoli, come mai nVidia si è sforzata talmente tanto per pareggiarle, a volte, le prestazioni? La devi smettere di fare disinformazione. Secondo te tutto il mondo si sbaglia nei confronti della serie 5000 di Amd? Dicono tutti cazzate? Credo di no, anzi aggiungo, che lo scettro della cazzata più potente nel campo VGA, lo hai tu.
E' incredibile, denigri AMD e osanni nVidia in OGNI TUO POST. Questo dimostra quanto fanboy bimbominkiese tu sia, e allo stesso tempo, che ogni tua affermazione è fasulla e perciò vale ZERO!
Fai come prima, non rispondermi. Anzi, vai a cospargerti il capo di cenere e medita in silenzio.
Ci sono affezionati ad nVidia, come halduemilauno per esempio, ma che non scendono mai al livello schifoso del fanboy ottuso.
E cmq, bastano due 6850 in CrossX per battere la tua carissima 580, puoi vederlo dalla recensione che stiamo commentando. E costano 200 euro in meno. Oppure due 460 da 1gb, 200 euro in meno lo stesso.
Ciao pupazzo.
ah, quindi l'educazione non è necessario usarla? Bene, chissà che ne pensano i moderatori.
Non porti nessun elemento alla discussione, fai solo un mega flame sul mio post. Io ho motivato quello che ho scritto, fin dal primo post. Tu non fai che insultare.
E pupazzo lo dici a tuo padre o a tuo fratello.
beh visto che i mod non fanno nulla quando certa gente insulta, magari viene da pensare che certa gente goda di trattamenti di favore.
Tutto quello che ho detto è riscontrabile leggendo i benchmark qui o su Guru3D, ma in sostanza non c'è molto da dire, questa scheda è stata ben ricevuta praticamente ovunque sul web, tranne che qui nei commenti, ovviamente da gente come te. Poi, oh se nemmeno guardi i benchmark qui, allora c'è poco da dire. Certa gente può solo insultare dato che non ha nessun argomento.
I battibecchi tra di voi lasciateli fuori dal forum, i pupazzi stanno bene il mese prossimo con una carota per naso e due guanti da sci come mani con tanti bei bambini che ci giocano intorno
detto questo caro Elrim dovresti sapere che i moderatori hanno anche un lavoro, una vita, una famiglia e tanti impegni
detto questo ci vediamo fra 7 giorni nella speranza che vi diate una calmata altrimenti la pena sarà più lunga, diciamo eterna
Strato1541
09-11-2010, 23:50
Mi sa tanto che sei tu chi vuole tirare acqua al suo mulino!
E poi a che mulino se monto una 470 e prima di questa avevo una 260 e ancora prima una 8800GTX???
Ma come i grafici si guardano fino a un certo punto??? EPIC FAIL!!!
Dai su basta :mc: E poi nessuna previsione del futuro ma semplice logica! Se un'ipotetica dual di Barts supera la 580 o almeno la pareggia una dual di Cayman sicuramente andra di piu e non il 10% ma di piu.
Guarda che tu abbia provato tante schede non lo metto in dubbio, ma da quel che ho capito ne ho provate un po di piu ;) Gia che sembra tu non abbia ancora provato le 68XX mentre sono gia riuscito a provarle entrambe e anche in XFire e ti posso garantire che lo stuttering (molto meno grave di quel che si va predicando nel thread delle 478-480) non esiste piu! Poi io non paragono un cross ma la 5970 che fino a prova contraria resta UNA VGA con la 580. Il cross di 6850 l'ho preso come paragone soltanto come parametro di cosa sarebbe una dual di Barts e visto che e gia stata annunciata una dual con Cayman allora ho semplicemente fatto una considerazione logica non dando nessun dato per certo i termini assoluti, ma una proiezione oggettiva ce la possiamo fare.
Quando usciranno le 69XX nè riparleremo..
I grafici trovano il tempo che trovano, anche perchè bisognerebbe avere sempre al configurazione identica a quella di prova, in ogni caso..
Detto questo per me la 580 è un'ottima scheda seppure in ritardo..
Legionarius
09-11-2010, 23:54
Questa GTX 580 costa, però obiettivamente ha delle prestazioni eccezionali. Insomma un passo in avanti rispetto alla GTX 480, e non solo dal punto di vista delle prestazioni. Vedremo cosa tirerà fuori AMD con la sua nuova fascia alta. A questo punto credo sia prudente aspettare qualche settimana, in modo tale da osservare una probabile limatura del prezzo della GTX 580, e le proposte AMD (visto che se ho ben capito qualcosa dovrebbe vedersi verso fine novembre). Comunque periodo interessante per quanto riguarda le schede video. Speriamo in una sana competizione.
milanok82
10-11-2010, 00:00
Leggere l'articolo costa fatica? E' indicato che non avevamo a disposizione quella configurazione, quindi non è presente.
Mi scusi mi era sfuggito,mi perdoni.Spero che quando usciranno le nuove Ati ne sarete in possesso.
El_Mago_Peppins
10-11-2010, 00:05
Ma deluso da che?
Scusa ma poco fà avevi letto con talmente attenzione la recensione che non ti eri accorso che si trattava di cross.. scusa se mi permetto dacci una riletta e poi nè parliamo..
Dato che è la singola gpu più potente in commercio consuma e scalda il giusto per il tipo di scheda, e stando a ciò che dicono in amd le 69XX nonsaranno distanti da tali prestazioni..
ora o tutte le schede saranno un fail ..(dal tupo punto di vista) o non sò cosa dirti!
che centra l'errore di lettura con la delusione, è cmq una scheda che va di poco superiore alla 480.
per farvi capire perchè sono deluso da queste schede è che vorrei 1 o anche 2 gpu che vadano piu di un quad sli di gtx 295 oc, ma piu non intendo di poco (10-20%) ma un guadagno netto del 50-80%, allora si che varrebbe la pena cambiare, ma ora come ora pure con sta 580 no ne vale ancora la pena.
la 295 in alcuni casi va meglio di una 480, ma in linea generale la 480 supera di poco una 295
e con le 580 il miglioramento è ancora poco per essere considerato netto ed utile.
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22163.png
cioè guadagnare mettiamo anche 5-10fps che senso ha? ecco perchè sono dinuovo deluso.
mo ora voi direte allora fatti un quad crossfire di 5970, ma sapete gia la risposta lol
Ma deluso da che?
Scusa ma poco fà avevi letto con talmente attenzione la recensione che non ti eri accorso che si trattava di cross.. scusa se mi permetto dacci una riletta e poi nè parliamo..
Dato che è la singola gpu più potente in commercio consuma e scalda il giusto per il tipo di scheda, e stando a ciò che dicono in amd le 69XX nonsaranno distanti da tali prestazioni..
ora o tutte le schede saranno un fail ..(dal tupo punto di vista) o non sò cosa dirti!
secondo me se la chiamavano gtx490 nessuno sarebbe rimasto deluso.. ma presentandola come la nuova generazione e quindi gtx5xx è normale rimanere un pò delusi.
Diciamo che Nvidia ha rimediato così perchè non accettava di essere rimasta indietro di una generazione.
A prescindere però dalla nomenclatura questa è una gran bella scheda ed io la preferirei a qualsiasi cross/sli.
El_Mago_Peppins
10-11-2010, 00:14
appunto...
cioè se uscirà una scheda che da sola (che sia dual gpu o no) vada di piu di un quad sli di 295 allora farne un sli/quad sli di quelle porterebbe ad un incremento notevole e varrebbe la pena fare l'upgrade ecco.
Strato1541
10-11-2010, 00:15
che centra l'errore di lettura con la delusione, è cmq una scheda che va di poco superiore alla 480.
per farvi capire perchè sono deluso da queste schede è che vorrei 1 o anche 2 gpu che vadano piu di un quad sli di gtx 295 oc, ma piu non intendo di poco (10-20%) ma un guadagno netto del 50-80%, allora si che varrebbe la pena cambiare, ma ora come ora pure con sta 580 no ne vale ancora la pena.
la 295 in alcuni casi va meglio di una 480, ma in linea generale la 480 supera di poco una 295
e con le 580 il miglioramento è ancora poco per essere considerato netto ed utile.
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22163.png
cioè guadagnare mettiamo anche 5-10fps che senso ha? ecco perchè sono dinuovo deluso.
mo ora voi direte allora fatti un quad crossfire di 5970, ma sapete gia la risposta lol
Bè sono discorsi personalissimi questi, anch'io vorrei che ogni anno se compro X per 300 euro l'anno successivo si possa comprare 2X sempre con 300..
MA non è un mondo perfetto..
Non capisco dove vuoi arrivare.. se uno possiede una gtx 295 ed è soddisfatto non penso la cambierà..
Lo stesso vale per un possessore di 5870.. se si deve sehuire la moda si stà freschi..
appunto...
cioè se uscirà una scheda che da sola (che sia dual gpu o no) vada di piu di un quad sli di 295 allora farne un sli/quad sli di quelle porterebbe ad un incremento notevole e varrebbe la pena fare l'upgrade ecco.
per me cross e sli al momento sono la cosa più inutile che esiste perchè abbiamo single gpu già fin troppo potenti rispetto a giochi a dir poco mediocri come sviluppo.
cross ed sli a che pro?
System Shock
10-11-2010, 00:18
Brava Nvidia
GTX 580 prestazioni 20 % superiori alla 480 :winner:
Temperature e consumi più bassi della 480 :winner:
Ma sopratutto spero ci sia una svendita di 480 nel mercatino :asd:
El_Mago_Peppins
10-11-2010, 00:18
leggi il mio msg precedente, a me non interessano ne i consumi ne quanto scalda ne quanto costa. oddio si, non esageriamo col prezzo, però se mi fanno una scheda che va 2 volte piu veloce del mio sistema ma consuma 500w io ne prenderei 2 lo stesso, soldi permettendo....
non so se ho reso l'idea, a me interessano solamente le prestazioni xD
per me cross e sli al momento sono la cosa più inutile che esiste perchè abbiamo single già fin troppo potenti rispetto a giochi a dir poco mediocri come sviluppo.
cross e d sli a che pro?
bhe dipende a che giochi giochi e a che risoluzione. tutti dicono ciò che hai appena detto tu, ma la cosa è totalmente diversa se stiamo parlando di 2560x1600, crysis, metro 2033, solo per dirne un paio...
milanok82
10-11-2010, 00:20
Io vorrei condividere una preoccupazione generale di molti utenti cioè cosa sta succedendo nel mercato delle schede video visto che assistiamo da ambi due i produttori a uscite di schede video che hanno prestazioni di poco aumentate rispetto alla generazioni precendenti?
Bene io ho penso che piano piano le attenzioni dei videogiocatori si sta spostando nel mondo delle console e quindi nella piattaforma pc piano piano si assiste ad una perdita di videogiocatori.....e credo che i Ati e Nvidia lo sanno benissimo e primis i produttori di giochi.
longhorn7680
10-11-2010, 00:21
Quando usciranno le 69XX nè riparleremo..
I grafici trovano il tempo che trovano, anche perchè bisognerebbe avere sempre al configurazione identica a quella di prova, in ogni caso..
Detto questo per me la 580 è un'ottima scheda seppure in ritardo..
Le prestazioni della 580 non si discutono, solo che non vedo nessun miracolo ed e uscita troppo in ritardo!
Poi con la 580 hanno risolto i problemi di calore-rumore, purtroppo i consumi rendono la realizzazione di una dual un'utopia!
El_Mago_Peppins
10-11-2010, 00:22
e questo giustificherebbe un "remake" con pochi miglioramenti? non credo...
purtroppo a mio modo di vedere per fare una gpu decente ci vuole tempo, è inutile cacciare schede nuove ogni mese, meglio farne 1 all'anno (intesa per 1 generazione) ma che abbia un gap prestazionale notevole piuttosto che fare nuove schede ogni mese ma con leggeri miglioramenti...
In effetti credo che la cosa più interessante sia l'ipotesi di una sostituta per la 470 basata appunto su un GF110 "castrato".
Certo bisognerà vedere eventualmente a che prezzo.
Bè sono discorsi personalissimi questi, anch'io vorrei che ogni anno se compro X per 300 euro l'anno successivo si possa comprare 2X sempre con 300..
MA non è un mondo perfetto..
Non capisco dove vuoi arrivare.. se uno possiede una gtx 295 ed è soddisfatto non penso la cambierà..
Lo stesso vale per un possessore di 5870.. se si deve sehuire la moda si stà freschi..
oltretutto non credo che con una 295 non si riesci a giocare tutto al max (escluso quello che sappiamo e la tassellazione, per adesso solo fumo negli occhi, quando sarà davvero usato ne possiamo riparlare)
che centra l'errore di lettura con la delusione, è cmq una scheda che va di poco superiore alla 480.
per farvi capire perchè sono deluso da queste schede è che vorrei 1 o anche 2 gpu che vadano piu di un quad sli di gtx 295 oc, ma piu non intendo di poco (10-20%) ma un guadagno netto del 50-80%, allora si che varrebbe la pena cambiare, ma ora come ora pure con sta 580 no ne vale ancora la pena.
la 295 in alcuni casi va meglio di una 480, ma in linea generale la 480 supera di poco una 295
e con le 580 il miglioramento è ancora poco per essere considerato netto ed utile.
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22163.png
cioè guadagnare mettiamo anche 5-10fps che senso ha? ecco perchè sono dinuovo deluso.
mo ora voi direte allora fatti un quad crossfire di 5970, ma sapete gia la risposta lol
un miglioramento dell'80% rispetto ad un quad sli di gtx295??:mbe:
Ma riesci a quantificare questa affermazione in prestazioni? per pretendere ciò mi sa proprio di no perchè non ti rendi conto.
Te lo dico io perchè non conviene il passaggio ad una gtx580 e cioè perchè non ci sono giochi degni con cui si possa sfruttare al meglio,o al massimo sulle dita di una mano si contano....altro che 80% in più rispetto ad un quad sli di gtx295.
El_Mago_Peppins
10-11-2010, 00:25
tutto è diverso se si parla di 2560x1600, filtri, crysis, metro 2033 ecc...
ripeto:
il saggio disse:
meglio farne 1 all'anno (intesa per 1 generazione) ma che abbia un gap prestazionale notevole piuttosto che fare nuove schede ogni mese ma con leggeri miglioramenti
edit: @bobby10: fidati che a 2560x1600 è tutta un'altra cosa, per farti un esempio a just cause 2 non posso mettere tutto al massimo devo avere l'aa off. ma ora voi direte a che ti serve l'aa a 2560, bhe parlare è una cosa e vedere è un'altra, le scalettature ci sono e io le vedo benissimo sptt in lontananza...
Io vorrei condividere una preoccupazione generale di molti utenti cioè cosa sta succedendo nel mercato delle schede video visto che assistiamo da ambi due i produttori a uscite di schede video che hanno prestazioni di poco aumentate rispetto alla generazioni precendenti?
Bene io ho penso che piano piano le attenzioni dei videogiocatori si sta spostando nel mondo delle console e quindi nella piattaforma pc piano piano si assiste ad una perdita di videogiocatori.....e credo che i Ati e Nvidia lo sanno benissimo e primis i produttori di giochi.
bè questo discorso non vale per ati dato che
3870--> 4870-->5870-->6970 tra queste top c'è un gran bel gap prestazionale.
Ma sopratutto spero ci sia una svendita di 480 nel mercatino :asd:
ma perchè secondo te ne hanno vendute tante di 480??? :asd:
come tradizione nvidia nomenclatura molto discutibile,ma ormai e' inteso che il nome non fa titolo
le prestazioni erano facilmente prevedibili,e' il vecchio fermi con tutto(forse)attivo con un 10% di clock in piu',per un totale circa 15-16% meglio della vecchia 480
un articolo inutile di 12 pagine per ribadire solo che la matematica non e' un opinione:D
piu' che una 580 a disposizione,per questo recensione bastava una calcolatrice:sofico:
apprezzabile cmq i miglioramenti sui consumi e temperature
quello che invece mi chiedo e',con che criterio nvidia si e' dato tanto da fare a revisionare un gf100 nato gia' in ritardo e imperfetto,riuscire a presentarlo un inezia prima della seconda evoluzione hi-end di amd-ati,giusto per dire "io ce l'ho piu' lungo di te"...ok ma per quanto??
che senso ha presentare la 580 adesso che ha un'aspettativa di vita di appena 15 giorni:confused:
se amd con cayman va' meglio,costa e consuma meno,che fine fara' la 580 tra quindici giorni??
fara' appunto la fine della 470,un cippone da 500 e oltre mm2,piu' costi della revisione,pcb,dissipatore evoluto tutto venduto sottocosto:muro:
con tante bestemmie di affezionati che hanno comprato d'impulso al day one,che per ripicca potrebbero passare definitivamente all'altra sponda
ma non facevano piu' bella figura e meno danni se gettavano la spugna?
ati con la 2900 ha alzato bandiera bianca,dopo si e' concentrata sopratutto sulle mainstream,ma lentamente si e' ripresa anche nella fascia hi-end,senza esporsi mai piu' con progetti troppo costosi
ma evidentemente nvidia i soldi non se li suda,beati loro:rolleyes:
Strato1541
10-11-2010, 00:35
Le prestazioni della 580 non si discutono, solo che non vedo nessun miracolo ed e uscita troppo in ritardo!
Poi con la 580 hanno risolto i problemi di calore-rumore, purtroppo i consumi rendono la realizzazione di una dual un'utopia!
Io non ho mai parlato di miracolo, se leggi il mio primo pst a riguardo...capirai.. priam che molti rasentassero la follia..
tutto è diverso se si parla di 2560x1600, filtri, crysis, metro 2033 ecc...
ripeto:
il saggio disse:
meglio farne 1 all'anno (intesa per 1 generazione) ma che abbia un gap prestazionale notevole piuttosto che fare nuove schede ogni mese ma con leggeri miglioramenti
edit: @bobby10: fidati che a 2560x1600 è tutta un'altra cosa, per farti un esempio a just cause 2 non posso mettere tutto al massimo devo avere l'aa off. ma ora voi direte a che ti serve l'aa a 2560, bhe parlare è una cosa e vedere è un'altra, le scalettature ci sono e io le vedo benissimo sptt in lontananza...
ma che vga hai?
2560*1600 è però una risoluzione veramente per pochi..e comunque non credo che siano molti i giochi a non andare al massimo a questa risoluzione (per non massimo si intende senza AA :asd: per quel che poi può servire).
Dal full hd al di sotto basta una single da 200€ (tipo gtx470/6870 per giocare alla grande con tutto).
El_Mago_Peppins
10-11-2010, 00:44
si questo è vero, i giochi che mi girano "male" o senza aa sono pochi, forse li conterei sulle dita, con tutti gli altri faccio fin troppi fps, ma il problema è proprio questo, amdare "male" in questi giochi e vorrei fare piu fps, perchè è inutile avere un sistema che con tutti i giochi fai piu di 100fps ma che con quelli che ti piacciono di piu o i nuovi usciti non fai nemmeno la metà togliendo pure l'aa... tipo crysis :D
ps. 2 295 cmq
Zappa1981
10-11-2010, 00:49
mah a me sembra una buona scheda, nvidia finalmente si è data una mossa e ha sviluppato una scheda performante e buona almeno per il lato calore... CMQ ci si aspettava un 10 15% in più della 480 non è male come risultato
si questo è vero, i giochi che mi girano "male" o senza aa sono pochi, forse li conterei sulle dita, con tutti gli altri faccio fin troppi fps, ma il problema è proprio questo, amdare "male" in questi giochi e vorrei fare piu fps, perchè è inutile avere un sistema che con tutti i giochi fai piu di 100fps ma che con quelli che ti piacciono di piu o i nuovi usciti non fai nemmeno la metà togliendo pure l'aa... tipo crysis :D
ps. 2 295 cmq
mmm..chissà magari non riesce a sfruttare a pieno il quad sli.
Forse l'idea di passare ad una gtx580 non sarebbe male dato che otteresti la potenza di 4gpu con una sola (non dovresti perderci molto in prestazioni).
Inoltre 1,5gb di memoria puo essere utile rispetto al singolo gb della gtx295 a quella risoluzione.
El_Mago_Peppins
10-11-2010, 01:30
una sola 580 non credo vada meglio di 4 gpu xD
l'ideale sarebbe un sli di una dual gpu fermi, che so tipo una gtx 590 (dual gpu 570), due di quelle sarebbero 4 mostri, allora si che ci sarebbe un netto miglioramento xD
in alternativa dovrei cambiare case, prendere la 4-way sli classified e mettere 4 580 in quad sli come fecero tempo fa con 4 gtx 285 lol
LordShaitan
10-11-2010, 02:49
una sola 580 non credo vada meglio di 4 gpu xD
l'ideale sarebbe un sli di una dual gpu fermi, che so tipo una gtx 590 (dual gpu 570), due di quelle sarebbero 4 mostri, allora si che ci sarebbe un netto miglioramento xD
in alternativa dovrei cambiare case, prendere la 4-way sli classified e mettere 4 580 in quad sli come fecero tempo fa con 4 gtx 285 lol
Hai considerato un 3xSLI di 580? Non so che scheda madre hai, ma almeno non dovresti cambiare case per metterci la 4-way sli classified, e quella configurazione farebbe tranquillamente almeno +50% del tuo quad-sli, ma penso anche di più :D
Ovviamente devi avere come minimo un i7 a 4.4 GHz per non avere mille colli di bottiglia...:D:D
El_Mago_Peppins
10-11-2010, 02:52
andrei bene perchè ho una x58 sli classified e un i7 920 a 4.5ghz.
unica pecca è che ho una gtx 285 per la fisica e leggendo in giro un 3-way si 480 non è che vada tsnto bene rispetto all'sli, non si sa con le 580...
ma vabbè credo che aspetterò le prossime poi si vedrà :D
LordShaitan
10-11-2010, 02:59
andrei bene perchè ho una x58 sli classified e un i7 920 a 4.5ghz.
unica pecca è che ho una gtx 285 per la fisica e leggendo in giro un 3-way si 480 non è che vada tsnto bene rispetto all'sli, non si sa con le 580...
ma vabbè credo che aspetterò le prossime poi si vedrà :D
No guarda che va molto ma molto meglio delllo SLI normale, è solo che senza una cpu degna (ovvero i7 da almeno 4.2 Ghz, meglio se 4.5) non rende perchè ha troppi colli di bottiglia!
Per citarti un utente supoer affidabile del thread di fermi:
stavo facedno dei test proprio in sorround con bad company2,piu' sali di cpu ,sotto 3 way e piu' il comparto grafico rende al meglio,esempio con cpu a default faccio sui 30 FPS @ 5760 maxed,con cpu a 400 faccio 46 fps e con la cpu a 4500 faccio 62 fps ...
tu ci staresti benissimo quindi :D
Questo solo per dirti che volendo un modo per avere un bell'incremento di prestazioni e in più le DX11 c'è, poi c'è da dire che con 2 295 non fai mica schifo, puoi benissimo tenerle :asd:
El_Mago_Peppins
10-11-2010, 03:02
dipende molto dalla risoluzione e utilmamente i giochi sono piu gpu che cpu limited :stordita:
LordShaitan
10-11-2010, 03:04
dipende molto dalla risoluzione e utilmamente i giochi sono piu gpu che cpu limited :stordita:
Si ma il 3-Way SLI è un caso particolare, anche alle alte risoluzioni dove di solito la cpu non influisce + di tanto, viene comunque limitata perchè la cpu non riesce a star dietro alle schede.
Questo con le 480, figurati con le 580 :D
Ok basta la smetto di tentarti :sofico:
Paolo Corsini
10-11-2010, 07:08
Domandina per Corsini: pensi che nvidia taglierà anche la gtx470 in favore di un'ipotetica gtx570? verrà realizzata una nuova linea quadro basandosi sul gf110?
Entrambe le cose sono scritte nella recensione; buona lettura ;)
imho è una scheda inutile, ma come lo è la 5970 sia ben chiaro.
hanno consumi inaccettabili a mio avviso, molto meglio le schede inferiori meno tirate con consumi dimezzati
un colpo al cerchio ed uno alla botte:
delusione anche in campo ati, con schede chiamate 6800 che vanno meno delle 5800...
ma li vedi i test?
considerando che sostituiscono le 5700 le 6800 sono da paura.Inoltre la 6870 spesso si trova a pari con la 470
Scalano bene le 68XX finalmente.. na le 5XXX con il piffero...
Io ho una 5970 da pochissimo, il tizio che me l'ha vendiuta ha detto che ha combattutto per 8 mesi prima che quello che gli interessava andasse bene, tra driver e crash e giochi che non usavano bene le 2 gpu ha detto di essere impazzito!Ora l'ha venduta per passare ad una soluzione a singola gpu, io personalmente per ora non ho riscontrato particolari problemi, però dopo 1 anno di sviluppo e patch..
Quindi non parliamo tanto per.. e soprattutto non prendiamo casi in cui l e cose fortunatamente vanno bene!
Tii ha detto minchiate. Io ce l'ho da inizio anno e non mi ha mai dato nessun problema in nessun gioco e nessuna apllicazione. Peraltro l'ho immediatamente affiancata ad una nvidia 9600gt per la fisica, quindi con una configurazione abbastanza complicata a doppia scheda video. Nessun blocco o bsod o incompatibilità con nessun gioco da me provato e ne ho provati parecchi. Nessun stuttering ed ottime temperature e poca rumorosità anche in full. Ho il pc aperto sopra la scrivania e sento nettamente di più la ventola zallman della cpu che quella della 5970.
Adesso mi sfrutto pure il nuovo filtro morfologico implementato con la nuova serie 6 che è compatibile anche con la serie 5 e vado sempre al massimo a 1920x1200 sul mio 26 pollici. Mai stato così soddisfatto di una scheda video come di questa.
Semmai alcuni problemucci possono insorgere nel cross di due 5970 perchè ovviamente si devono far lavorare 4 gpu in sincrono.
Concludendo bella scheda sta 580 ma solo se usciva un anno fa poteva essere la svolta per nvidia. Invece va come la 5970 che è già sul punto del pensionamento. Poi dire che una è singola gpu e l'altra dual non ha significato è solo una scelta fatta dalle due case costruttrici per raggiungere i vertici nelle prestazioni.
Cosa diversa è invece a mio pare paragonare una configurazione a singola scheda video con una a doppia scheda video, perchè in questo caso devi mettere in conto il doppio costo di accquisto, il fatto di occupare fisicamente tutta la scheda madre sacrificando altre componenti hardware ed aumentando ovviamente consumo e calore prodotto all'interno del pc.
Pertanto il penso che prenderò la futura 6990 (dual gpu) perchè sono convinto che questa è la strada giusta: doppia gpu ma singola scheda video.
Bye
longhorn7680
10-11-2010, 10:07
una sola 580 non credo vada meglio di 4 gpu xD
l'ideale sarebbe un sli di una dual gpu fermi, che so tipo una gtx 590 (dual gpu 570), due di quelle sarebbero 4 mostri, allora si che ci sarebbe un netto miglioramento xD
in alternativa dovrei cambiare case, prendere la 4-way sli classified e mettere 4 580 in quad sli come fecero tempo fa con 4 gtx 285 lol
Forse sarebbe l'ideale ma non e fattibile! Almeno con le specifiche Pci-Ex che ci sono oggi! Consumerebbe almeno 400W! Anche considerando una versione castrata do Gf110!
Goofy Goober
10-11-2010, 10:17
Forse sarebbe l'ideale ma non e fattibile! Almeno con le specifiche Pci-Ex che ci sono oggi! Consumerebbe almeno 400W! Anche considerando una versione castrata do Gf110!
fattile si secondo me
han già fatto vedere modelli custom-pcb della 480GTX con 2 connettori 8pin e un 6pin
fanno un dual gpu con dissipatore triple slot, tipo quello della Gainward Rampage 4870X2 di qualche anno fa, o delle 480GTX custom di zotac, e ci mettono 3 connettori di alimentazione...
ovviamente per molti tipi di alimentatori supportare 2 schede video con 6 connettori di alim, non so se è fattibile
ELGAMOTH
10-11-2010, 10:37
Certo che ad oggi vedere questa scheda a 495€ mi sembra esagerato....
Pensare poi ad uno sli (per l'uso gaming) sarebbe una follia imho visto che probabilmente già una sarebbe anche troppo :D :D
))Lexandrus((
10-11-2010, 11:12
Un appunto per la redazione:
Credo che sarebbe giusto indicare quali giochi siano stati ottimizzati per l'una o per l'altra casa ("The Way It’s Meant To Be Played" ecc..).
Sarebbe anche più corretto indicare il confronto comparato facendo la media tra le varie risoluzioni, prese singolarmente.
Ad esempio, confronto a 1280x1024, confronto a 1680x1050, confronto a 1920x1200 ecc...
Fare una media totale è abbastanza inutile, poichè vede troppe variabili a confronto, e imho, non fa risaltare le vere potenzialità di una scheda.
A dimostrazione di ciò vi è il fatto che in altre recensioni ho visto che la 5970 risulta superiore alla GTX580 da 1680x1050 in su, andando ad aumentare il vantaggio con l'aumento della risoluzione (fino ad un buon 10-15% a 2560x1600).
Dato che una scheda come la GTX580 è una scheda rivolta alla fascia enthusiast, e quindi a gente che gioca ad alte risoluzioni, mi sembra decisamente illogico, e abbastanza ingannevole (nel senso che non rispecchia la realtà) far risaltare una media comparata su tutte le risoluzioni se in quelle a cui è destinata perde nei confronti della rivale più stretta.
Spero che la prossima volta riusciate a far più chiarezza, anche se capisco che questa recensione è stata fatta in fretta a causa del lancio quasi inaspettato ;)
tuttodigitale
10-11-2010, 11:15
a 2560x1600 che la 5970 guadagna un certo margine di vantaggio, grazie principalmente (IMHO) alla superiore bandwidth della memoria video.
Paolo mi permetto di dissentire. Sapevo che il bandwidth con la tecnologia sli e xfire non raddoppia affatto, o meglio, è vero che il bus ha una dimensione effettivamente doppia, ma lo è altrettanto che i dati memorizzati nelle memorie sono duplicati, quindi non si sfrutta per niente la maggior banda messa a disposizione, visto che metà dei dati non vengono utilizzati dalla gpu.
Quindi le maggior prestazioni a 2560x1600 sono date esclusivamente dalla maggior potenza bruta di Hemlock.
WhiteSnake666
10-11-2010, 12:03
Scusate ma per quale motivo per le schede amd avete usato dei driver beta di oltre un mese fa e nella pagina dedicata ai consumi non sono riportati quelli dei crossfire e sli?
mi sembra alquanto assurdo...
Mi sembra una buona scheda, che migliora la precedente generazione, sopratutto per i consumi e temperature. Le prestazioni non sono cosi marcate da giustificare un passaggio da Gtx 480 a Gtx 580, anche perchè secondo me non ha senso passare da schede top-gamma della generazione precedente a schede top-gamma della generazione immediatamente successiva (salvo eccezioni eclatanti).
Sono curioso di vedere le prossime schede di AMD, che se saranno altrettanto valide, ci sarà una bella battaglia fra AMD ed Nvidia, in cui i più avvantaggiati saremo noi.
Il prezzo come al solito per queste schede top-gamma è fuori da ogni logica (se non quella commerciale), per questo conviene secondo me aspettare l'uscita delle schede AMD, ed un abbassamento del prezzo.
The Gold Bug
10-11-2010, 12:35
Come volevasi dimostrare, 460 euro in germania e 495 in itaGlia , ma mi aspettavo peggio visto la speculazione al lancio delle ati 6800.
Una provocazione e curiosità insieme : sui vari problemi di driver , dual gpu, sli , cross etc etc .... quanto potrebbero essere influenti questi fattori :
1) sistemi operativi piratati e quindi....
2) ..... giochi scaricati da emule etc.... e quindi.....
3) ....macchine con sistemi in generale IMPUTTANATI ?
Predator_1982
10-11-2010, 12:39
Come volevasi dimostrare, 460 euro in germania e 495 in itaGlia , ma mi aspettavo peggio visto la speculazione al lancio delle ati 6800.
Una provocazione e curiosità insieme : sui vari problemi di driver , dual gpu, sli , cross etc etc .... quanto potrebbero essere influenti questi fattori :
1) sistemi operativi piratati e quindi....
2) ..... giochi scaricati da emule etc.... e quindi.....
3) ....macchine con sistemi in generale IMPUTTANATI ?
in italia io l'ho trovata a 479
longhorn7680
10-11-2010, 13:15
fattile si secondo me
han già fatto vedere modelli custom-pcb della 480GTX con 2 connettori 8pin e un 6pin
fanno un dual gpu con dissipatore triple slot, tipo quello della Gainward Rampage 4870X2 di qualche anno fa, o delle 480GTX custom di zotac, e ci mettono 3 connettori di alimentazione...
ovviamente per molti tipi di alimentatori supportare 2 schede video con 6 connettori di alim, non so se è fattibile
Quello che descrivi e un caso limite come il raffreddamento ad azoto!
Non e ipotizzabile la commercializzazione di una scheda del genere.
Costerebbe 1000Eur a cui devi aggiungere un Ali da 1000W che sono altri 200Eur.
E poi devi per forza metterci un WB perche il chip consuma (e di conseguenza scalda visto che nVidia non puo andare contro le leggi della fisica) tanto e solo con il vapor Chamber sono riusciti a contenere (ottimo il risultato) le temp, ma 2 chip del genere non c'e vapor chamber che tenga!!!
El_Mago_Peppins
10-11-2010, 13:16
Un appunto per la redazione:
Credo che sarebbe giusto indicare quali giochi siano stati ottimizzati per l'una o per l'altra casa ("The Way It’s Meant To Be Played" ecc..).
Sarebbe anche più corretto indicare il confronto comparato facendo la media tra le varie risoluzioni, prese singolarmente.
Ad esempio, confronto a 1280x1024, confronto a 1680x1050, confronto a 1920x1200 ecc...
Fare una media totale è abbastanza inutile, poichè vede troppe variabili a confronto, e imho, non fa risaltare le vere potenzialità di una scheda.
se ti può consolare io ho calcolato questo, rispetto alla gtx 480:
@2560x1600: +17%
@1920x1080: +14%
@1680x1050: +10%
è la media di tutti i bench fatti
longhorn7680
10-11-2010, 13:19
Un appunto per la redazione:
Credo che sarebbe giusto indicare quali giochi siano stati ottimizzati per l'una o per l'altra casa ("The Way It’s Meant To Be Played" ecc..).
Sarebbe anche più corretto indicare il confronto comparato facendo la media tra le varie risoluzioni, prese singolarmente.
Ad esempio, confronto a 1280x1024, confronto a 1680x1050, confronto a 1920x1200 ecc...
Fare una media totale è abbastanza inutile, poichè vede troppe variabili a confronto, e imho, non fa risaltare le vere potenzialità di una scheda.
A dimostrazione di ciò vi è il fatto che in altre recensioni ho visto che la 5970 risulta superiore alla GTX580 da 1680x1050 in su, andando ad aumentare il vantaggio con l'aumento della risoluzione (fino ad un buon 10-15% a 2560x1600).
Dato che una scheda come la GTX580 è una scheda rivolta alla fascia enthusiast, e quindi a gente che gioca ad alte risoluzioni, mi sembra decisamente illogico, e abbastanza ingannevole (nel senso che non rispecchia la realtà) far risaltare una media comparata su tutte le risoluzioni se in quelle a cui è destinata perde nei confronti della rivale più stretta.
Spero che la prossima volta riusciate a far più chiarezza, anche se capisco che questa recensione è stata fatta in fretta a causa del lancio quasi inaspettato ;)
Avevo gia sollevato ieri la questione e Corsini ha gia risposto :)
In effetti a 2560 la 580 va meno della 5970 e di una coppia di 460-6850 che costano anche parecchio in meno.
Io consiglierei l'acquisto solo a chi deve giocarci a 2560 con 3 monitor e filtri e percio ne prende 2 in Sli. Ma qui siamo veramente a casi limite.
blackshard
10-11-2010, 13:41
Paolo mi permetto di dissentire. Sapevo che il bandwidth con la tecnologia sli e xfire non raddoppia affatto, o meglio, è vero che il bus ha una dimensione effettivamente doppia, ma lo è altrettanto che i dati memorizzati nelle memorie sono duplicati, quindi non si sfrutta per niente la maggior banda messa a disposizione, visto che metà dei dati non vengono utilizzati dalla gpu.
Quindi le maggior prestazioni a 2560x1600 sono date esclusivamente dalla maggior potenza bruta di Hemlock.
Devi anche tener conto però del fatto che quando si usa l'Alternate Frame Rendering (cioè penso sempre oramai), quindi mentre una GPU usa la sua RAM per renderizzare un frame, l'altra GPU usa la sua RAM per renderizzare l'altro frame, quindi è come se avesse effettivamente un bus doppio.
El_Mago_Peppins
10-11-2010, 13:46
non vorrei andare ot ma stò fatto della ram è strano: se si ha una scheda dedicata alla fisica e si usa tipo evga precision on un programma simile per vedere l'uso della ram, si vede che le ram di tutte le gpu sono uguali, cioè pure la ram della gpu per la fisica ha lo stesso numero delle altre: che so se con crysis si arriva a 700mb di vram, tutte le gpu hanno 700mb con "risposta" all'utilizzo ram; è un'errore dei sensori o cosa? bho...
Ale55andr0
10-11-2010, 13:48
Si sa nulla dell'uscita della 6970? Verrà fatta una comparativa approfondita con la 580? Io non riesco a trovare niente online, nemmeno qualche specifica ipotetica :cry:
Goofy Goober
10-11-2010, 13:54
Quello che descrivi e un caso limite come il raffreddamento ad azoto!
Non e ipotizzabile la commercializzazione di una scheda del genere.
Costerebbe 1000Eur a cui devi aggiungere un Ali da 1000W che sono altri 200Eur.
E poi devi per forza metterci un WB perche il chip consuma (e di conseguenza scalda visto che nVidia non puo andare contro le leggi della fisica) tanto e solo con il vapor Chamber sono riusciti a contenere (ottimo il risultato) le temp, ma 2 chip del genere non c'e vapor chamber che tenga!!!
beh fattibile lo è... secondo me senza WB. col dissipatore triple slot ce la si fa a contenere. ripeto quello che si era visto sulla Gainward Rampage andrebbe bene, con qualche revisione, secondo me. triple slot è mastodontico! :sofico:
poi ovvio che è un caso limite...
come lo potrebbe essere uno che si compra 2 MSI 480GTX Lightning con 3 connettori d'alimentazione ciascuna :D
El_Mago_Peppins
10-11-2010, 14:00
si, basterebbe fare un sistema di dissipazione adeguato, 3 slot oppure a liquido e con 3 connettori di alimentazione, o 4 (2 per ogni scheda), tanto chi prenderà una gpu simile avrà sicuramente un pc mostruoso e quindi un alim adeguato, e poi ci sono gli sdoppiatori pci-e, se l'alim è di parecchi W ma mancano un paio di connettori metti gli sdoppiatori e via :D
sandrixroma
10-11-2010, 14:19
bah, non credevo che la mia gtx295 sarebbe stata così longeva: finalmente è arrivato il momento di......continuare a tenerla!!!!! :D
ancora troppo scarsi i margini di miglioramento. Lo step che avemmo con il passaggio dalla 7800 all'8800 ancora non riesce a concretizzarsi.
Futura12
10-11-2010, 14:32
bah, non credevo che la mia gtx295 sarebbe stata così longeva: finalmente è arrivato il momento di......continuare a tenerla!!!!! :D
ancora troppo scarsi i margini di miglioramento. Lo step che avemmo con il passaggio dalla 7800 all'8800 ancora non riesce a concretizzarsi.
Lo step in realtà c'è stato eccome.
Sono i giochi attuali che non li sfruttano.
Predator_1982
10-11-2010, 14:48
bah, non credevo che la mia gtx295 sarebbe stata così longeva: finalmente è arrivato il momento di......continuare a tenerla!!!!! :D
ancora troppo scarsi i margini di miglioramento. Lo step che avemmo con il passaggio dalla 7800 all'8800 ancora non riesce a concretizzarsi.
beh nel caso da te citato il passaggio ha segnato anche una svolta direi "epocale" nel mondo delle GPU, ossia l'adozione di un'architettura a shaders unificati.
Comunque sia trascuri un particolare, che la gtx 295 è una scheda grafica dx10, seppur valida ormai la sua tecnologiam è bella che sorpassata.
ndrmcchtt491
10-11-2010, 14:54
Semplicementela miglior vga sulla piazza, il prezzo elevato ne è una logica conseguenza, dovuto anche alla gioventù del prodotto.
Goofy Goober
10-11-2010, 15:02
Comunque sia trascuri un particolare, che la gtx 295 è una scheda grafica dx10, seppur valida ormai la sua tecnologiam è bella che sorpassata.
sulla carta, son d'accordo. è tecnologicamente superata (e ci mancherebbe visto tutto il tempo che è passato).
nei giochi, non ancora del tutto, anzi, per la percentuale maggiore, è stata superata proprio per niente :D
le DX9.0C son ancora le "regine incontrastate"
le DX10 son le latitanti date per disperse per definizione
le DX11 le non più neonate che aspettano la morte delle console DX9 :doh:
Paolo Corsini
10-11-2010, 15:32
Paolo mi permetto di dissentire. Sapevo che il bandwidth con la tecnologia sli e xfire non raddoppia affatto, o meglio, è vero che il bus ha una dimensione effettivamente doppia, ma lo è altrettanto che i dati memorizzati nelle memorie sono duplicati, quindi non si sfrutta per niente la maggior banda messa a disposizione, visto che metà dei dati non vengono utilizzati dalla gpu.
Quindi le maggior prestazioni a 2560x1600 sono date esclusivamente dalla maggior potenza bruta di Hemlock.
Ciao
una configurazione multi GPU prevede un quantitativo di memoria dedicata, con proprio bus indipendente, per ogni GPU. La 5970, ad esempio, ha una GPU RV870 collegata a 1 Gbyte di memoria video con bus a 256bit e una seconda GPU RV870 collegata a un secondo quantitativo di memoria video con proprio bus dedicato da 256bit. Stessa cosa vale per due schede indipendenti collegate in SLI o CrossFireX.
Una GPU non può accedere al memory controller, quindi nella dotazione di memoria video, dell'altra.
Implicazioni: i dati necessari per calcolare una scena vengono caricati in entrambe le partizioni memoria, ma le bandwidth massime teoriche dei due blocchi memoria vengono cumulati. In una impostazione AFR, Alternate Frame Rendering, una GPU genera i frames pari e l'altra genera i frames dispari; ogni GPU quindi deve eseguire la metà dei frames al secondo che servono per comporre la sequenza complessiva.
In una impostazione split screen una scheda genera una metà (superiore o laterale) e l'altra la parte rimanente: le due partizioni memoria caricano ottimisticamente solo i dati che servono per la generazione della parte dello schermo di competenza della propria GPU.
Confondi l'ampiezza di un bus con la tipologia di dati che in esso devono transitare, e che sono memorizzati nella memoria. In sistemi multi GPU la dotazione di memoria disponibile non è pari alla somma delle memorie (2 Gbytes nell'esempio), ma a quella della singola partizione (quindi 1 Gbyte) proprio perché i dati sono indipendenti: se ho una ipotetica texture da 1,5 Gbytes questa non può venir caricata in memoria, perché l'allocabilità massima è di 1 Gbyte.
Sintesi: spiacente, ma sbagli a dissentire ;)
Cicciuzzone
10-11-2010, 15:37
sulla carta, son d'accordo. è tecnologicamente superata (e ci mancherebbe visto tutto il tempo che è passato).
nei giochi, non ancora del tutto, anzi, per la percentuale maggiore, è stata superata proprio per niente :D
le DX9.0C son ancora le "regine incontrastate"
le DX10 son le latitanti date per disperse per definizione
le DX11 le non più neonate che aspettano la morte delle console DX9 :doh:
Come non quotarti? Ho anch'io una GTX 295 e di sicuro non la cambio per molto ancora. Vediamo le prossime ATI come sono, ma credo che arrivo tranquillo all'anno prossimo aspettando le future generazioni... :D
Ciao
una configurazione multi GPU prevede un quantitativo di memoria dedicata, con proprio bus indipendente, per ogni GPU. La 5970, ad esempio, ha una GPU RV870 collegata a 1 Gbyte di memoria video con bus a 256bit e una seconda GPU RV870 collegata a un secondo quantitativo di memoria video con proprio bus dedicato da 256bit. Stessa cosa vale per due schede indipendenti collegate in SLI o CrossFireX.
Una GPU non può accedere al memory controller, quindi nella dotazione di memoria video, dell'altra.
Implicazioni: i dati necessari per calcolare una scena vengono caricati in entrambe le partizioni memoria, ma le bandwidth massime teoriche dei due blocchi memoria vengono cumulati. In una impostazione AFR, Alternate Frame Rendering, una GPU genera i frames pari e l'altra genera i frames dispari; ogni GPU quindi deve eseguire la metà dei frames al secondo che servono per comporre la sequenza complessiva.
In una impostazione split screen una scheda genera una metà (superiore o laterale) e l'altra la parte rimanente: le due partizioni memoria caricano ottimisticamente solo i dati che servono per la generazione della parte dello schermo di competenza della propria GPU.
Confondi l'ampiezza di un bus con la tipologia di dati che in esso devono transitare, e che sono memorizzati nella memoria. In sistemi multi GPU la dotazione di memoria disponibile non è pari alla somma delle memorie (2 Gbytes nell'esempio), ma a quella della singola partizione (quindi 1 Gbyte) proprio perché i dati sono indipendenti: se ho una ipotetica texture da 1,5 Gbytes questa non può venir caricata in memoria, perché l'allocabilità massima è di 1 Gbyte.
Sintesi: spiacente, ma sbagli a dissentire ;)
Secondo me stai sbagliando:
Il bandwidth della memoria non aumenta, semplicemente ogni singola gpu usa meno banda che scheda singola dato che lavora su meno frame (invece che al 100% della capacità di Throughput reale massimo dato dal controller e dal bus diciamo al 75% della sua capacità) arrivando meno ad essere limitata dalla banda reale verso la ram nelle scene con maggiore bisogno di accesso alla ram.
Ma arrivare a dire che ha un bandwidth, o un througput maggiore è fuorviante (anche se l'effetto è simile ad un'aumento di bandwidth)
Goofy Goober
10-11-2010, 15:58
non so chi ha ragione o torto, non ho le compentenze tecniche per saperlo, però Ares17, si dice "BANDWIDTH" non "bandwich" :)
non so chi ha ragione o torto, non ho le compentenze tecniche per saperlo, però Ares17, si dice "BANDWIDTH" non "bandwich" :)
Corretto, grazie
:)
longhorn7680
10-11-2010, 16:09
beh fattibile lo è... secondo me senza WB. col dissipatore triple slot ce la si fa a contenere. ripeto quello che si era visto sulla Gainward Rampage andrebbe bene, con qualche revisione, secondo me. triple slot è mastodontico! :sofico:
poi ovvio che è un caso limite...
come lo potrebbe essere uno che si compra 2 MSI 480GTX Lightning con 3 connettori d'alimentazione ciascuna :D
Appunto, nVidia non puo commercializzare una VGA come caso limite.E un'ammissione implicita di inferiorita. Al max si puo pensare che qualcuno dei partner azzaedi una mossa del genere. Poi avendo una 470 AMP nel case so bene cosa sono 3 slot di scheda Ma questo e tutto un altro discorso.
E poi calcolando che Antilles (gia annunciato) stara entro i 300W con prestazioni non molto distanti (penso quasi identiche) a quelle di un'ipotetica 580 dual che senso avrebbe una scheda del genere?
Paolo Corsini
10-11-2010, 16:13
Secondo me stai sbagliando:
Il bandwith della memoria non aumenta, semplicemente ogni singola gpu usa meno banda che scheda singola dato che lavora su meno frame (invece che al 100% della capacità di Throughput reale massimo dato dal controller e dal bus diciamo al 75% della sua capacità) arrivando meno ad essere limitata dalla banda reale verso la ram nelle scene con maggiore bisogno di accesso alla ram.
Ma arrivare a dire che ha un bandwth, o un througput maggiore è fuorviante (anche se l'effetto è simile ad un'aumento di bandwith)
Ciao
una GPU lavora sempre sul massimo dei frames che può processare, in funzione della propria potenza elaborativa e di quanto è limitata dalla bandwidth della memoria video. Se una GPU può, con determinate impostazioni video e alla luce delle proprie caratteristiche architetturali e della bandwidth della memoria ad essa abbinata, generare 60 frames al secondo costanti arriverà sempre a quel valore, mai sotto e mai sopra.
La tua affermazione che una GPU lavori su meno frames è quindi proprio concettualmente sbagliata.
Se prendi due di queste GPU e le affianchi in configurazione SLI e CrossFireX puoi quindi generare 60 frames con una e 60 con l'altra; in configurazione AFR la prima farà 60 frames pari e la seconda 60 frames dispari, per un totale di 120 frames al secondo. Questo implica una scalabilità lineare che si può verificare, ma che potrebbe non essere tale in funzione
1) della complessità del titolo
2) di eventuali colli di bottiglia
3) di limiti di ottimizzazione dei driver nella gestione alternata dei frames
4) varie ed eventuali
Molto spesso, con giochi ottimizzati e risoluzioni alte, si giunge proprio a questa scalabilità, se non del 100% molto vicina.
Sintesi: spiacente, ma ti sbagli. La bandwidth teorica è proprio raddoppiata, e tale è anche ai fini pratici se la configurazione multi GPU è in condizioni di operare in efficienza (titolo ottimizzato per più GPU, driver corretti, risoluzione elevata e impostazioni qualitative spinte).
Goofy Goober
10-11-2010, 16:21
Appunto, nVidia non puo commercializzare una VGA come caso limite.E un'ammissione implicita di inferiorita. Al max si puo pensare che qualcuno dei partner azzaedi una mossa del genere.
esatto, come ora si son viste le immagini di una 460GX2 o cmoe si chiamerà, fatta da un partner nvidia...
mai dire mai :D
sulla carta, son d'accordo. è tecnologicamente superata (e ci mancherebbe visto tutto il tempo che è passato).
nei giochi, non ancora del tutto, anzi, per la percentuale maggiore, è stata superata proprio per niente :D
le DX9.0C son ancora le "regine incontrastate"
le DX10 son le latitanti date per disperse per definizione
le DX11 le non più neonate che aspettano la morte delle console DX9 :doh:
eheh quoto..
non capisco chi dice la scheda X è bella che sorpassata come se dopo le dx9c ci fosse chissà quale rivoluzione.
Io non ci vedo proprio niente sinceramente.
una sola 580 non credo vada meglio di 4 gpu xD
l'ideale sarebbe un sli di una dual gpu fermi, che so tipo una gtx 590 (dual gpu 570), due di quelle sarebbero 4 mostri, allora si che ci sarebbe un netto miglioramento xD
in alternativa dovrei cambiare case, prendere la 4-way sli classified e mettere 4 580 in quad sli come fecero tempo fa con 4 gtx 285 lol
ho fatto un calcolo un pò approssimativo..
2 5870 vanno un pelo più di una 5970/gtx580
una gtx295 va poco più di una 5870 quindi un sli di gtx295 non sarà troppo distante dalla gtx580.
Ma questo quando il quad sli è ben sfruttato altrimenti secondo me la gtx580 va pure meglio.
Goofy Goober
10-11-2010, 16:39
Ma questo quando il quad sli è ben sfruttato altrimenti secondo me la gtx580 va pure meglio.
esatto :muro:
la scalabilità reale del quad sli è PESSIMA rispetto a uno SLI con 2 GPU singole.
parliamo sempre di 4 275GTX cmq, nei giochi in cui girano bene possono andare un po' di più della 580GTX in FullHD, ma in altri titoli i risultati potrebbero essere invertiti.
mirkonorroz
10-11-2010, 16:55
Corretto, grazie
:)
Ahem, r-i-p-r-o-v-a e c-o-n-t-r-o-l-l-a (cit.) :D
(se ne hai voglia :D )
Ale55andr0
10-11-2010, 17:43
EDIT
phil anselmo
10-11-2010, 21:59
Tranquillo, l'utente che non legge hwupgrade/hardware review in giro per il web, si farà fregare comunque e in modi molto più pesanti...
sì hai ragione, ma io la prendo come una questione di principio, hanno toppato clamorosamente chiamandole 6800! punto.
A me non pare.
Le ha rebrandate anche nella serie 1xx o 2xx mi pare :read:
Ma lì è diverso, si tratta di chip identici con il bios rimarchiato... una quasi truffa.
scusa, qual'è la serie 1xx? :mbe:
Qui invece si è optato per un riposizionamento di tutte le schede che ha portato a un salto del numero interno, ma con chip differenti che hanno permesso un forte calo dei prezzi a quasi parità di potenza.
sì ok, d'accordo! ma ripeto per la 101-sima volta: per me chiamarle 6800 è una questione di malafede, a mio avviso.
Ma anche no :)
ascolta, io non sono pro nvida e non sono pro ati/amd.
ho avuto 2 ati e mi sono trovato a volte bene a volte un pò meno, ho avuto schede nvidia e mi sono trovato a volte bene e a volte un pò meno.
per me le stupidaggini ultimamente le stanno facendo entrambe.
Concordo al 100%
è quello che penso anche io.
meno male, qualcuno la pensa come me... ;)
La differenza è che AMD ha messo sul mercato le 6800 (a causa delle future APU o per il fatto del bus a 256bit), che offrono una vera nuova architettura ed a costo molto più basso delle vecchie 5800.
Anche il niubbo di turno si sarebbe fatto delle domande vedendo una scheda nuova a prezzo più basso...
NVidia invece ha fatto uscire la 580 spacciandola per nuova generazione, ed è si più potente, ma in realtà è ciò che doveva uscire un anno fa.
Sta a voi giudicare chi è ogni volta il più scorretto di turno...
:)
ho riposto già a psycho, l'errore grosso sta nel nome, c'è malafede a mio avviso.
parlo delle 6800.
edit
Implicazioni: i dati necessari per calcolare una scena vengono caricati in entrambe le partizioni memoria, ma le bandwidth massime teoriche dei due blocchi memoria vengono cumulati. In una impostazione AFR, Alternate Frame Rendering, una GPU genera i frames pari e l'altra genera i frames dispari; ogni GPU quindi deve eseguire la metà dei frames al secondo che servono per comporre la sequenza complessiva.
In una impostazione split screen una scheda genera una metà (superiore o laterale) e l'altra la parte rimanente: le due partizioni memoria caricano ottimisticamente solo i dati che servono per la generazione della parte dello schermo di competenza della propria GPU.
Confondi l'ampiezza di un bus con la tipologia di dati che in esso devono transitare, e che sono memorizzati nella memoria. In sistemi multi GPU la dotazione di memoria disponibile non è pari alla somma delle memorie (2 Gbytes nell'esempio), ma a quella della singola partizione (quindi 1 Gbyte) proprio perché i dati sono indipendenti: se ho una ipotetica texture da 1,5 Gbytes questa non può venir caricata in memoria, perché l'allocabilità massima è di 1 Gbyte.
Sintesi: spiacente, ma sbagli a dissentire ;)
Ciao
una GPU lavora sempre sul massimo dei frames che può processare, in funzione della propria potenza elaborativa e di quanto è limitata dalla bandwidth della memoria video. Se una GPU può, con determinate impostazioni video e alla luce delle proprie caratteristiche architetturali e della bandwidth della memoria ad essa abbinata, generare 60 frames al secondo costanti arriverà sempre a quel valore, mai sotto e mai sopra.
La tua affermazione che una GPU lavori su meno frames è quindi proprio concettualmente sbagliata.
Se prendi due di queste GPU e le affianchi in configurazione SLI e CrossFireX puoi quindi generare 60 frames con una e 60 con l'altra; in configurazione AFR la prima farà 60 frames pari e la seconda 60 frames dispari, per un totale di 120 frames al secondo. Questo implica una scalabilità lineare che si può verificare, ma che potrebbe non essere tale in funzione
1) della complessità del titolo
2) di eventuali colli di bottiglia
3) di limiti di ottimizzazione dei driver nella gestione alternata dei frames
4) varie ed eventuali
Molto spesso, con giochi ottimizzati e risoluzioni alte, si giunge proprio a questa scalabilità, se non del 100% molto vicina.
Sintesi: spiacente, ma ti sbagli. La bandwidth teorica è proprio raddoppiata, e tale è anche ai fini pratici se la configurazione multi GPU è in condizioni di operare in efficienza (titolo ottimizzato per più GPU, driver corretti, risoluzione elevata e impostazioni qualitative spinte).
Come da te scritto contestualmente:
Implicazioni: i dati necessari per calcolare una scena vengono caricati in entrambe le partizioni memoria
Questo perchè per funzionare una gpu deve avere un bus dedicato verso la memoria.
Ma di fatto legge entro la velocità data dal clock della ram per il bus di accesso.
Se una vga legge (numero pari a caso) 100 gb al secondo significa che presa per esempio una texture da 100gb la leggera in un secondo.
quando siamo in cross-fire, o sli avremmo che lo stesso file verra letto si 2 volte, ma il trasferimento totale sarà sempre della stessa texture da 100 gb per un secondo (poichè per funzionare il cross-fire o lo sli bisogna dublicare i dati in memoria, in modo che un colore che è verde sul frame a sia sempre verde sul frame b, riducendo il tutto molto semplicisticamente)
Come dimostrazione teorica prova ad immaginare un gb di ram collegata ad un buffer da 1 gb (spreco immane), la banda tra la ram e il buffer sarà di 100gb al secondo.
A questo buffer colleghiamo due canali da 100gb al secondo con clock sfalsati per abbeverare le due gpu.
Avremmo quindi la gpu 1 che accede attravervo al suo canale a 100 gb al secondo grazie al buffer alla ram, mentre la gpu 2 accede alla ram a 100gb al secondo.
Adesso la ram con che banda passa i dati?
La necessità di applicare lo stesso dato alle due gpu fa si che il dato sia duplicato e letto due volte, ma la stessa texture letta due volte non trasferisce mica 200gb al secondo, sempre cento.
Quindi se i dati sono duplicati nelle ram 2 letture simultanee dello stesso dato non raddoppiano la banda, ma semplicemente rifornisce di dati simultaneamente le due gpu.
Paradossalmente ci sono casi nel quale una vga in single è limitata dalla gpu, un dual lo puo essere dalla ram.
Per ultima cosa i frame in soluzioni cross-sli vengono si elaborati alternativamente, ma la mem viene sempre aggiornata frame per frame indipendentemente da quale gpu lo ha processato.
psychok9
11-11-2010, 00:02
sì hai ragione, ma io la prendo come una questione di principio, hanno toppato clamorosamente chiamandole 6800! punto.
Non so, è sempre una questione di informazioni e su quale ti basi, per me è una mezza toppa ma ha i suoi perché... Io non guardo mai i numeri, servono solo a identificare quella esatta scheda, altrimenti dovremmo fare anche qualche calcolo sulle distanze tra essi e non ne usciamo più.
scusa, qual'è la serie 1xx? :mbe:
sì ok, d'accordo! ma ripeto per la 101-sima volta: per me chiamarle 6800 è una questione di malafede, a mio avviso.
Per me no, hanno semplicemente tolto di mezzo le 58xx... e sostituite con 68xx.
ascolta, io non sono pro nvida e non sono pro ati/amd.
ho avuto 2 ati e mi sono trovato a volte bene a volte un pò meno, ho avuto schede nvidia e mi sono trovato a volte bene e a volte un pò meno.
per me le stupidaggini ultimamente le stanno facendo entrambe.
meno male, qualcuno la pensa come me... ;)
:)
ho riposto già a psycho, l'errore grosso sta nel nome, c'è malafede a mio avviso.
parlo delle 6800.
Secondo me no, e ti parla uno che fino a 2 orette fa ha consigliato un sistema con nVidia GTX 460 :)
Poi penso sempre che se io fossi in una partita, e vedo che il mio avversario ne combina di tutti i colori e la passa sempre "liscia" perché nessuno gli dice niente (nessun arbitro intendo), mi sembrerebbe assurdo se mi venissero a creare problemi per una cosa che proporzionalmente è piccola e opinabile...
In un quadro generale in cui un autority vigilasse su questi ed altri comportamenti, allora sarebbe tutto un altro discorso.
Bene comunque facciamo ad informare il più possibile... Ma restano grandi schede ed economiche, insieme alle GTX 460. Avessi potuto comprare la vga in questo periodo... avrei risparmiato tantissimo!... Ma sono andato ot e chiedo scusa :)
Come da te scritto contestualmente:
Implicazioni: i dati necessari per calcolare una scena vengono caricati in entrambe le partizioni memoria
Questo perchè per funzionare una gpu deve avere un bus dedicato verso la memoria.
Ma di fatto legge entro la velocità data dal clock della ram per il bus di accesso.
Se una vga legge (numero pari a caso) 100 gb al secondo significa che presa per esempio una texture da 100gb la leggera in un secondo.
quando siamo in cross-fire, o sli avremmo che lo stesso file verra letto si 2 volte, ma il trasferimento totale sarà sempre della stessa texture da 100 gb per un secondo (poichè per funzionare il cross-fire o lo sli bisogna dublicare i dati in memoria, in modo che un colore che è verde sul frame a sia sempre verde sul frame b, riducendo il tutto molto semplicisticamente)
Come dimostrazione teorica prova ad immaginare un gb di ram collegata ad un buffer da 1 gb (spreco immane), la banda tra la ram e il buffer sarà di 100gb al secondo.
A questo buffer colleghiamo due canali da 100gb al secondo con clock sfalsati per abbeverare le due gpu.
Avremmo quindi la gpu 1 che accede attravervo al suo canale a 100 gb al secondo grazie al buffer alla ram, mentre la gpu 2 accede alla ram a 100gb al secondo.
Adesso la ram con che banda passa i dati?
La necessità di applicare lo stesso dato alle due gpu fa si che il dato sia duplicato e letto due volte, ma la stessa texture letta due volte non trasferisce mica 200gb al secondo, sempre cento.
Quindi se i dati sono duplicati nelle ram 2 letture simultanee dello stesso dato non raddoppiano la banda, ma semplicemente rifornisce di dati simultaneamente le due gpu.
Paradossalmente ci sono casi nel quale una vga in single è limitata dalla gpu, un dual lo puo essere dalla ram.
Per ultima cosa i frame in soluzioni cross-sli vengono si elaborati alternativamente, ma la mem viene sempre aggiornata frame per frame indipendentemente da quale gpu lo ha processato.
scusami se ho esposto in modo poco chiaro, ma il concetto lo dovrebbe essere.
A riprova di cio che dico c'è anche il fatto che in caso di elaborazione tramite split screen la memoria effettiva utilizzabile non raddoppia (se come ipotizzi verrebbero caricati solo i dati del proprio semiquadro, si avrebbe in pratica un dual channel), ma rimane sempre e solo la metà di quella fisicamente presente.
Ps scusami per la maleducazione:
ciao. :)
phil anselmo
11-11-2010, 00:25
Avessi potuto comprare la vga in questo periodo... avrei risparmiato tantissimo!... Ma sono andato ot e chiedo scusa :)
e a chi lo dici? la scheda in firma l'ho pagata 330€ quattro mesi fa! adesso costa 110 € di meno... :asd:
:muro:
ho riposto già a psycho, l'errore grosso sta nel nome, c'è malafede a mio avviso.
parlo delle 6800.In malafede significa che lo si fa per trarre in inganno l'acquirente ed ottenerne un vantaggio; dunque in che senso AMD sarebbe in malafede? Quale sarebbe il guadagno?
Quello di far credere che una HD6870 sia migliore di una HD5870? Non penso proprio, visto che AMD guadagnerebbe di più nel vendere una HD5870...
E' ovvio che è un semplice problema creatosi perchè, essendo identico il numero dei bit del bus, AMD ha dovuto utilizzare il numero 8 anche per la serie HD68x0, visto che si tratta di 256 bit.
L'unica cosa è che non riesco ad immaginare come dovrà chiamare le VGA in futuro, quando anche le serie inferiori avranno il bus a 256 bit.
In malafede significa che lo si fa per trarre in inganno l'acquirente ed ottenerne un vantaggio; dunque in che senso AMD sarebbe in malafede? Quale sarebbe il guadagno?
Quello di far credere che una HD6870 sia migliore di una HD5870? Non penso proprio, visto che AMD guadagnerebbe di più nel vendere una HD5870...
E' ovvio che è un semplice problema creatosi perchè, essendo identico il numero dei bit del bus, AMD ha dovuto utilizzare il numero 8 anche per la serie HD68x0, visto che si tratta di 256 bit.
L'unica cosa è che non riesco ad immaginare come dovrà chiamare le VGA in futuro, quando anche le serie inferiori avranno il bus a 256 bit.
secondo alcuni è in malafede perchè vedendo 6870 vende la sua 5870 per sostituirla.
Secondo me chi è in grado di cambiarsi una vga (passare da 5870 a 6870) e chi vuole il top almeno un poco informato lo è.
Se invece uno deve cambiare una vecchia vga la 68xx ha un ottimo rapporto prezzo prestazioni.
Quando Ati passo dalla 9800 alla x800 credo che in pochi si siano lamentati di non poter cambiare vga dato che le nuove andavano di meno (9800 sono molto di più che 800, chiribbio) :D
Secondo me AMD risolverà brillantemente le accuse riguardo la nomenclatura delle schede utilizzando un sistema semplicissimo:
utilizzerà un generatore di numeri RANDOM :D :D :D
Poi costituirà una laurea breve ON-LINE per spiegare agli utenti come districarsi. :mc:
Oh si scherza ne? :mbe: :cool:
Un piccolo esempio, preso "a caso" :D :
5970 CrossX
http://tpucdn.com/reviews/HIS/Radeon_HD_5970_CrossFire/images/crysis_1920_1200.gif
GTX580 SLI
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580_SLI/images/crysis_1920_1200.gif
E ho detto tutto!
gia
http://images.anandtech.com/graphs/graph4008/33815.png
longhorn7680
11-11-2010, 08:49
Secondo me AMD risolverà brillantemente le accuse riguardo la nomenclatura delle schede utilizzando un sistema semplicissimo:
utilizzerà un generatore di numeri RANDOM :D :D :D
Poi costituirà una laurea breve ON-LINE per spiegare agli utenti come districarsi. :mc:
Oh si scherza ne? :mbe: :cool:
A parte che sei OT visto che si parla di 580!
Ma perche queste battute non le fai sulla tua amata nVidia e le fai solo su Amd???
Che poi la tua amata ne ha fatte di molto peggiori, di fatto rinominando gli stessi chip per 3 generazioni, mentre qui il chip e nuovo e piu efficente della generazione precedente.
Guarda facciamo tutti volentieri a meno di certe fanboyate!!!
Paolo Corsini
11-11-2010, 11:25
La necessità di applicare lo stesso dato alle due gpu fa si che il dato sia duplicato e letto due volte, ma la stessa texture letta due volte non trasferisce mica 200gb al secondo, sempre cento.
Una texture passa dall'hard disk alla scheda video attraverso connessione PCI Express, e da questa viene divisa in due copie speculari che sono memorizzate nelle due partizioni memoria. Quanto tempo ci vuole per fare questo e con quale bandwidth? E' poco importante, ma basti considerare che la bandwidth di una connessione PCI Express è una frazione della bandwidth della partizione di memoria. Non solo: la bandwidth in lettura sequenziale di un hard disk è una frazione di quella della connessione PCI Express. Se c'è un collo di bottiglia, nella lettura di una texture, è nel dispositivo di storage a monte e questo non è mai collo di bottiglia.
una volta che i dati arrivano alle memorie locali delle GPU entra in scena la bandwidth tra memoria e GPU; ogni GPU elabora il proprio frame di competenza sfruttando se serve tutta la bandwidth che ha a disposizione. Dato che entrambe le GPU concorrono alla generazione di una scena secondo per secondo, sono le due bandwidth a venir utilizzate in parallelo, una a elaborare un frame pari e l'altra quello dispari (o una la metà schermo e l'altra la metà rimanente).
Quindi se i dati sono duplicati nelle ram 2 letture simultanee dello stesso dato non raddoppiano la banda, ma semplicemente rifornisce di dati simultaneamente le due gpu.
Ecco la differenza: non è simultaneo. Prima una GPU che legge dalla propria partizione memoria, poi l'altra che legge dalla propria. L'origine delle letture fatte dalla memoria è lo stesso dato, nell'esempio da noi fatto, cioè la specifica texture ma NON la posizione dalla quale tale dato viene letto: una partizione memoria per una GPU e l'altra partizione memoria per l'altra GPU.
Paradossalmente ci sono casi nel quale una vga in single è limitata dalla gpu, un dual lo puo essere dalla ram.
No: è molto più facile che con una configurazione multi GPU tu sia limitato dalla CPU, in quanto non riesce a gestire in modo sufficientemente veloce tutte le operazioni di setup che le spettano. Se hai una configurazione a singola GPU con un determinato quantitativo di memoria video che è quasi al limite per saturare la memoria locale, è possibile che in multi GPU il limite di saturazione sia più vicino per via dell'override dato dalla gestione parallela delle due GPU e da eventuali ulteriori informazioni che devono essere contenute all'interno delle due memorie, ma se il quantitativo della scheda a singola GPU è identico a quello assegnato ad ogni GPU di una configurazione multi-GPU allora il problema, salvo casi veramente limite, non si pone.
Per ultima cosa i frame in soluzioni cross-sli vengono si elaborati alternativamente, ma la mem viene sempre aggiornata frame per frame indipendentemente da quale gpu lo ha processato.
Certo, ma ogni GPU aggiorna la propria memoria in modo indipendente in funzione di quello che dovrà elaborare. In AFR facilmente i dati sono gli stessi, in split screen assolutamente no.
phil anselmo
11-11-2010, 12:14
In malafede significa che lo si fa per trarre in inganno l'acquirente ed ottenerne un vantaggio; dunque in che senso AMD sarebbe in malafede? Quale sarebbe il guadagno?
Quello di far credere che una HD6870 sia migliore di una HD5870? Non penso proprio, visto che AMD guadagnerebbe di più nel vendere una HD5870...
E' ovvio che è un semplice problema creatosi perchè, essendo identico il numero dei bit del bus, AMD ha dovuto utilizzare il numero 8 anche per la serie HD68x0, visto che si tratta di 256 bit.
L'unica cosa è che non riesco ad immaginare come dovrà chiamare le VGA in futuro, quando anche le serie inferiori avranno il bus a 256 bit.
non credo proprio che sia un discorso di bandwidth.
gia
http://images.anandtech.com/graphs/graph4008/33815.png
E io aggiungerei che mi sembrano anomali i due grafici riportati da tOnCe.
Anche solo guardando le HD5870 nel primo cè scritto 31,7 FPS nel secondo 33,3 FPS (ma se è la stessa scheda con lo stesso test?? )
E la cosa si ripete con la HD5970 nel primo è 74,5 FPS nel secondo 49,5 FPS (e quà la differenza è NOTEVOLE :eek: ).
A sto punto con che AFFIDABILITA' riportano valori di 65,4 FPS per la GTX580 SLI ???
Ma chi è la fonte di questi TEST ? Nonna Papera ? :D
LeOn4rDo
11-11-2010, 15:09
Avendo 14 anni, mi ritengo più che soddisfatto dato che 2 mesi fa ho comprato la GTX480. Non penso che valga la pena acquistare questa scheda. Se proprio avete soldi da buttare, prendete uno SLI di 460... o un crossfire (quando usciranno) di HD6970...
Mi aspettavo che dopo tutte le critiche sulla 480 (ingiustificate, perché ce l'ho e se il prezzo non è un problema è davvero fantastica), la NVIDIA avrebbe spinto un po' più sull'acceleratore...
Beh, che dire, non è un periodo bellissimo per le schede video.. però chi ha soldi da buttare (perché di questo si tratta) si può fare una bella macchina.
cut...
Certo, ma ogni GPU aggiorna la propria memoria in modo indipendente in funzione di quello che dovrà elaborare. In AFR facilmente i dati sono gli stessi, in split screen assolutamente no.
Fammi capire allora dove sto sbagliando:
Analizziamo lo Split Screen Scene:
Le texture (tutte) vengono caricate su entrambe le ram delle vga (non potrebbe essere altrimenti).
La cpu invia le primitive per il calcolo della scena al comparto grafico.
Il driver duplica le primitive in entrambe le ram locali (altrimenti la vga non potrebbe calcolare nulla in mancanza di dati che ricostruisco il 3d della scena, compresi gli oggetti fuori campo).
Il driver fa elaborare una parte della scena ad una vga, l'altra parte alla seconda (tutto questo avviene in contemporanea, perchè entrambi i semiquadi appartengono allo stesso frame).
Ci troviamo però che i dati presenti nella ram della vga1 sono gli stessi della 2, convieni?
Consideriamo anche che ogni vga ha un assegnazione dinamica della parte del frame da elaborare e legge nella ram solo la texture che gli serve:
non viene di conseguenza usata mai l'intera banda (i dati di lavoro intermedio per il calcolo della scena sono praticamente irrilevanti sul traffico totale, dato che la maggior parte della ram è impegnata a contenere le texture e non ci sarebbe nemmeno spazio per contenere dati in più di una certa dimensione che presuppone elevato traffico).
Nell'AFR invece abbiamo che la cpu invia le primitive al driver video, questo scrive i dati nella ram, la 1 vga ricalcola e renderezza la scena mandandola in output, le primitive vengono aggiornate sulla ram della 2° vga per calcolare il secondo frame e far riaggiornare i dati sulla 1° vga.
Conseguenza la ram delle vga ha sempre dati uguali caricati, il traffico dati invece tra la ram e la vga si ha in fasi alterne per le due vga.
Supporgo dunque che i dati viaggiano tra le rispettive gpu e la ram in modo alterno e seriale (altrimenti si potrebbero verificare frame duplicati o artefatti evidenti), e nemmeno in questo caso vedo un raddoppio della banda.
L'unico caso dove si potrebbe avere un raddoppio della banda è la ricostruzione del frame attraverso lo Split Screen Scene, ma dato che vengono spostati solo la metà circa dei dati per vga verso le rispettive ram non riesco nemmeno qua a vederlo.
Un raddoppio di banda invece si avrebbe se entrambe le vga renderizzassero lo stesso frame (magari solo i primi due frame, ma i successivi sono soggetti comunque a risincronizzarsi).
In definitiva credo che il raddoppio di banda si possa avere soltando nel GPU-C dove ogni Gpu processa un ramo di codice non subordinato al ramo elaborato dall'altra GPU.
:confused:
blackshard
11-11-2010, 17:46
Fammi capire allora dove sto sbagliando:
Analizziamo lo Split Screen Scene:
Le texture (tutte) vengono caricate su entrambe le ram delle vga (non potrebbe essere altrimenti).
La cpu invia le primitive per il calcolo della scena al comparto grafico.
Il driver duplica le primitive in entrambe le ram locali (altrimenti la vga non potrebbe calcolare nulla in mancanza di dati che ricostruisco il 3d della scena, compresi gli oggetti fuori campo).
Il driver fa elaborare una parte della scena ad una vga, l'altra parte alla seconda (tutto questo avviene in contemporanea, perchè entrambi i semiquadi appartengono allo stesso frame).
Ci troviamo però che i dati presenti nella ram della vga1 sono gli stessi della 2, convieni?
Consideriamo anche che ogni vga ha un assegnazione dinamica della parte del frame da elaborare e legge nella ram solo la texture che gli serve:
non viene di conseguenza usata mai l'intera banda (i dati di lavoro intermedio per il calcolo della scena sono praticamente irrilevanti sul traffico totale, dato che la maggior parte della ram è impegnata a contenere le texture e non ci sarebbe nemmeno spazio per contenere dati in più di una certa dimensione che presuppone elevato traffico).
Sulla frase in grassetto ho dei dubbi: ogni GPU calcolerà il semiframe al massimo delle sue possibilità. Considerato il caso ideale in cui ogni GPU ha la sua copia di tutte le texture, e la sua copia di tutta la scena, nella fase di rendering non c'è interazione fra le due GPU, quindi ognuna farà il lavoro di renderizzare metà (o poco più o poco meno) della scena più alla svelta possibile.
Nell'AFR invece abbiamo che la cpu invia le primitive al driver video, questo scrive i dati nella ram, la 1 vga ricalcola e renderezza la scena mandandola in output, le primitive vengono aggiornate sulla ram della 2° vga per calcolare il secondo frame e far riaggiornare i dati sulla 1° vga.
Conseguenza la ram delle vga ha sempre dati uguali caricati, il traffico dati invece tra la ram e la vga si ha in fasi alterne per le due vga.
Supporgo dunque che i dati viaggiano tra le rispettive gpu e la ram in modo alterno e seriale (altrimenti si potrebbero verificare frame duplicati o artefatti evidenti), e nemmeno in questo caso vedo un raddoppio della banda.
L'unico caso dove si potrebbe avere un raddoppio della banda è la ricostruzione del frame attraverso lo Split Screen Scene, ma dato che vengono spostati solo la metà circa dei dati per vga verso le rispettive ram non riesco nemmeno qua a vederlo.
Un raddoppio di banda invece si avrebbe se entrambe le vga renderizzassero lo stesso frame (magari solo i primi due frame, ma i successivi sono soggetti comunque a risincronizzarsi).
In definitiva credo che il raddoppio di banda si possa avere soltando nel GPU-C dove ogni Gpu processa un ramo di codice non subordinato al ramo elaborato dall'altra GPU.
:confused:
Scusa ma non è chiaro perchè i dati dovrebbero andare e venire di quà e di là: lo scopo di avere un quantità doppia di RAM su schede dual-gpu è proprio per permettere a ciascuna GPU di avere la sua RAM locale e quindi di non necessitare ne' della ram di sistema ne' delle texture presenti nella RAM locale dell'altra GPU durante la fase di rendering.
La banda raddoppia perchè ci sono due bus (e due gpu) che lavorano in parallelo. Sebbene i dati siano gli stessi, la somma aggregata delle informazioni che transitano è effettivamente doppia perchè il trasferimento dei dati dalla RAM locale alla GPU avviene in parallelo per ciascuna GPU.
Sulla frase in grassetto ho dei dubbi: ogni GPU calcolerà il semiframe al massimo delle sue possibilità. Considerato il caso ideale in cui ogni GPU ha la sua copia di tutte le texture, e la sua copia di tutta la scena, nella fase di rendering non c'è interazione fra le due GPU, quindi ognuna farà il lavoro di renderizzare metà (o poco più o poco meno) della scena più alla svelta possibile.
Esatto, ma accederà a metà (poco più poco meno come da te specificato) dei dati sulla ram. Quindi non vedo l'aumento di bandwidth (throughput de comparto grafico maggiore certamente)
Scusa ma non è chiaro perchè i dati dovrebbero andare e venire di quà e di là: lo scopo di avere un quantità doppia di RAM su schede dual-gpu è proprio per permettere a ciascuna GPU di avere la sua RAM locale e quindi di non necessitare ne' della ram di sistema ne' delle texture presenti nella RAM locale dell'altra GPU durante la fase di rendering.
La banda raddoppia perchè ci sono due bus (e due gpu) che lavorano in parallelo. Sebbene i dati siano gli stessi, la somma aggregata delle informazioni che transitano è effettivamente doppia perchè il trasferimento dei dati dalla RAM locale alla GPU avviene in parallelo per ciascuna GPU.
Quando si renderizza una scena si parte dalle primitive (vertici, linee e profondita di campo) ed i dati debbono essere aggiornati frame per frame, perchè altrimenti la vga potrebbe renderizzare un frame vecchio (introducendo un lag molto evidente sopratutto con bassi frame rate).
blackshard
11-11-2010, 19:57
Esatto, ma accederà a metà (poco più poco meno come da te specificato) dei dati sulla ram. Quindi non vedo l'aumento di bandwidth (throughput de comparto grafico maggiore certamente)
Scusa, ma mi sa' che stai facendo confusione.
La bandwidth si misura in Byte/s e multipli, quindi è un flusso di dati. Non c'entrano i dati a cui accedi (può essere una singola texture, oppure cento texture diverse).
Il bus è semplicemente un canale: più è grande il canale, più si fa in fretta a far passare i dati.
Detto questo, quando viene disegnata una scena non accedi a tutti i dati che sono nella memoria video, ma solo ad una piccola parte.
Faccio un esempio: se giochi ad uno sparatutto in cui c'è una zona all'aperto e una zona al chiuso, le texture vengono già tutte caricate nella memoria video durante il caricamento del livello, sia quelle relative alla zona all'aperto sia quelle relative alla zona al chiuso. Quando ti trovi nella zona aperta verranno disegnate le texture relative, e così nella zona al chiuso. Ma tutte le texture del livello risiedono sempre e comunque nella memoria video. O perlomeno si cerca di farcele entrare tutte, questo proprio perchè la memoria locale della GPU è estremamente veloce, mentre un accesso alla memoria di sistema richiede molto più tempo. Invece mi pare di capire che come intendi tu le texture vengono caricate "on-demand" dalla RAM, cosa che invece accade quando la memoria della scheda video non riesce a contenere tutte le texture per renderizzare la scena (con evidenti cali prestazionali).
Quando si renderizza una scena si parte dalle primitive (vertici, linee e profondita di campo) ed i dati debbono essere aggiornati frame per frame, perchè altrimenti la vga potrebbe renderizzare un frame vecchio (introducendo un lag molto evidente sopratutto con bassi frame rate).
Si è vero, ovviamente vanno aggiornate frame per frame, ma la tecnica AFR richiede una logica un attimo più complessa per riuscire a tenere impegnate le due GPU contemporaneamente e quindi massimizzare il throughput, compresa "l'anticipazione" di un frame e quindi un lag impercettibilmente (pochi millisecondi, in genere) maggiore.
Scusa, ma mi sa' che stai facendo confusione.
La bandwidth si misura in Byte/s e multipli, quindi è un flusso di dati. Non c'entrano i dati a cui accedi (può essere una singola texture, oppure cento texture diverse).
Il bus è semplicemente un canale: più è grande il canale, più si fa in fretta a far passare i dati.
Detto questo, quando viene disegnata una scena non accedi a tutti i dati che sono nella memoria video, ma solo ad una piccola parte.
Faccio un esempio: se giochi ad uno sparatutto in cui c'è una zona all'aperto e una zona al chiuso, le texture vengono già tutte caricate nella memoria video durante il caricamento del livello, sia quelle relative alla zona all'aperto sia quelle relative alla zona al chiuso. Quando ti trovi nella zona aperta verranno disegnate le texture relative, e così nella zona al chiuso. Ma tutte le texture del livello risiedono sempre e comunque nella memoria video. O perlomeno si cerca di farcele entrare tutte, questo proprio perchè la memoria locale della GPU è estremamente veloce, mentre un accesso alla memoria di sistema richiede molto più tempo. Invece mi pare di capire che come intendi tu le texture vengono caricate "on-demand" dalla RAM, cosa che invece accade quando la memoria della scheda video non riesce a contenere tutte le texture per renderizzare la scena (con evidenti cali prestazionali).
Tutto ver quello che scrivi, ma ho fatto confusione io:
Praticamente in SSS la scheda video accede si alla metà dei dati per renderizzare nella metà del tempo che impiegerebbe per accedere ai dati di tutta la scena, ma lo fa il doppio delle volte.
Che sommati ai dati transitati da-verso la ram dell'altra vga effettivamente risultano doppi rispetto a quelli della singola.
banda = frequenza memoria x ampiezza bus che ci da come risultato la quantità massima di dati che possonno transitare sul canale per unità di tempo.
Quindi effettivamente si ha un raddoppio della banda verso la memoria in soluzioni dual gpu (quella utile dovrebbe essere del 5-10% in meno rispetto al doppio della banda massima utilizzabile a causa dei controlli di flusso per le sincronizzazioni dei dati).
Chiedo scusa a Corsini, mi cospargo il capo di cenere e faccio ammenda.
:O
Si è vero, ovviamente vanno aggiornate frame per frame, ma la tecnica AFR richiede una logica un attimo più complessa per riuscire a tenere impegnate le due GPU contemporaneamente e quindi massimizzare il throughput, compresa "l'anticipazione" di un frame e quindi un lag impercettibilmente (pochi millisecondi, in genere) maggiore.
Solo il secondo frame può essere "anticipato" (a dire il vero tutti i frame dovrebbero essere traslati in avanti sulla linea temporale), tutti gli altri debbono per forza di cose mantenere una sincronizzazione temporale con i precedenti.
(nel calcolo della banda massima questa è una costante, riferita al proprio sistema, il throughput invece varia, ed è normale che sia così).
http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html
Evoluta un bel corno! Hanno limitato con un TRUCCO i consumi!!!
Sta scheda di picco consuma 350W!!!
Complimenti nvidia!
MiKeLezZ
14-11-2010, 16:41
http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html
Evoluta un bel corno! Hanno limitato con un TRUCCO i consumi!!!
Sta scheda di picco consuma 350W!!!
Complimenti nvidia!Sei uno stereotipo assolutamente perfetto di una categoria di persone che evito di nominare (primo per evitare eventuali sanzioni, secondo perché del tutto superfluo).
http://www.legionhardware.com/articles_pages/ati_radeon_hd_5970_overclocking_problems,4.html
http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/
http://www.geeks3d.com/20090914/catalyst-9-8-and-9-9-improve-protection-against-furmark/
NOTARE I CATALYST 9.8... OVVERO AGOSTO 2009
longhorn7680
14-11-2010, 18:49
http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html
Evoluta un bel corno! Hanno limitato con un TRUCCO i consumi!!!
Sta scheda di picco consuma 350W!!!
Complimenti nvidia!
Sei uno stereotipo assolutamente perfetto di una categoria di persone che evito di nominare (primo per evitare eventuali sanzioni, secondo perché del tutto superfluo).
http://www.legionhardware.com/articles_pages/ati_radeon_hd_5970_overclocking_problems,4.html
http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/
http://www.geeks3d.com/20090914/catalyst-9-8-and-9-9-improve-protection-against-furmark/
NOTARE I CATALYST 9.8... OVVERO AGOSTO 2009
In effetti valutare i consumi con FurMark e fuorviante e insensato, pero Mikelezz le 5XXX non arriveranno mai a 350W! Certo che c'e un throttling inquanto questa applicazione carica la GPU in maniera spaventosa e non riproducibile da nessun altro gioco o software, pertanto e uno scenario nel quale le schede non sono studiate per essere utilizzate!
non ci sto capendo piu' niente,ma alla fine questa 580 quanto consuma realmente??
la temperatura e rumorosita' si possono tenere a bada con un dissipatore migliore
ma questo gf110 consuma veramente meno rispetto al vecchio gf100:confused:
MiKeLezZ
21-11-2010, 13:39
non ci sto capendo piu' niente,ma alla fine questa 580 quanto consuma realmente??
la temperatura e rumorosita' si possono tenere a bada con un dissipatore migliore
ma questo gf110 consuma veramente meno rispetto al vecchio gf100:confused:Ti posso dire che ho appena preso una GTX460 e con un minimo di capacità tecnica si porta a consumare meno di una HD5770. 60W limati. Rumore e temperature ai minimi storici. Poi per praticità mi sono limitato a limare solo 10W, ma overcloccarla.
GF104 e GF110 sono chip eccezionali, degli anatroccoli che nelle mani giuste diventano cigni.
Non comprendo minimamente questo astio verso Fermi, provengo da una R700 e non ne sento minimamente la mancanza.
El_Mago_Peppins
21-11-2010, 13:49
bellissima notizia questa dei 350W, proprio quello che volevo sentire :D
ciò vuol dire che se un connettore a 8pin e uno a 6pin (come la 580) sono in grado di ergoare 350W:
1: immagino l'incredibile oc che si può fare con essa
2: è piu che fattibile una dual gpu (come quella che forse uscirà a dicembre) se non con 8-6pin sicuramente con 8+8 pin, e questo mi fa sbavare da paura per il quad sli al quale stò puntando :D
in ogni caso, i test di temperature e consumo quasi tutti i siti li fanno usando furmark che a mio parere, come gia detto sopra, è un programma assolutamente inutile. Le gpu sono state fatte per "giocare" ed è quindi con i giochi che dovrebbero essere testate temperature e consumi e non stressando la scheda per portare l'alimentazione al limite, perchè è assolutamente inutile. Se per esempio con crysis o qualsiasi altro gioco, giocato al massimo la gpu consuma 180W e scalda tipo 75° di massimo dopo ore, mi spiegate a che serve testare la scheda con furmark che ti fa 350w e 90°? Mai nessun gioco stresserà la scheda video in quel modo, un pò come linx che stressa la cpu in maniera incredibile...
è un test "sensa senso" perchè non serve a niente dimostrare che la scheda consuma 350w quando poi con tutti i giochi ne consuma meno di 200 con filtri attivi e scheda in oc imho!!!
quindi evitate di postare cavolate "ecco quanto consuma veramente" ecc, perchè bastava usare un'alimentazione diversa per avere un consumo minore anche in furmak e tutti sarebbero stati contenti;
il motivo per qui non è stata usata un'alimentazione piu "debole" è perchè "alcuni" super overclocker, "amici stretti" di nvidia hanno fatto questa richiesta, perchè come tutti sanno oc estremo = maggiore consumo e quindi piu corrente necessaria.
Ora non mi dilungo piu di tanto, spero solo che uscirà una dual gpu fermi che vada piu di una 580 (dicono forse a dicembre), in modo che con una di quelle schede si avranno prestazioni uguali o superiori ad un quad sli di 295 e quindi con 2 di quelle finamente avrò quello che cerco xD
Xeon3540
29-11-2010, 11:01
ma quando uciranno le 580 copper 2 :cry:
Xeon3540
29-11-2010, 11:02
ma quando usciranno le 580 copper 2 :cry:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.