View Full Version : Due GPU su singola scheda per NVIDIA e AMD
Redazione di Hardware Upg
22-01-2008, 13:23
Link alla notizia: http://www.hwupgrade.it/news/skvideo/due-gpu-su-singola-scheda-per-nvidia-e-amd_23962.html
Le future generazioni di schede video di gamma alta implementeranno due GPU in parallelo di default
Click sul link per visualizzare la notizia.
papafoxtrot
22-01-2008, 13:30
L'idea è ottima ma secondo me bisogna andare oltre alle attuali capacità di sli/crossfire, nati per far collaborare due schede distinte.
Due gpu devono condividere la memoria ram e poter accedere indifferentemente a tutta la memoria; certo la cosa è un po' difficile perché manca un componente come un controller della ram, ma è un po' quello che avviene per la cache L2 dei processori.
Certo integrare le due gpu sullo stesso pakaging vorrebbe dire rinunciare ai vantaggi industriali offerti dall'uso di gpu semplici e già sul mercato, e non so neanche quanto permetterebbe di distinguere una gpu dall'altra; alla fine sarebbe come avere una singola gpu col doppio degli sp.... Però permetterebbe una riduzione dei consumi notevole, com'è avenuto col passaggio dai biprocessori ai dualcore.
gran belle le schede dual gpu, sicuramente molto + sfruttabili di 2 schede in CF o sli, a patto che il prezzo sia abbordabile. amici mi hanno detto di aver visto la sapphire 3870 x2 a 393€circa, mentre non si sa per la nvidia. se così fosse con il prezzo di 2 3870 si può prendere la x2. speriamo ocme sempre in un ottimizzazione driver :)
magilvia
22-01-2008, 13:32
alla fine sarebbe come avere una singola gpu col doppio degli sp
E con questo hai detto tutto.
forse qualcuno non si ricorderà di tempi passati.....
ma a me il tutto ricorda molto la 3dfx quando annaspando prima della sua morte, non riuscendo più a sviluppare GPU innovative ha incominciato a produrre fantomatiche schede multi gpu vdu 6000 poi mai uscite nel mercato europeo ed americano (in australia ne sono uscite alcune).
Schede multi gpu secondo il mio punto di vista assomigliano di più ad una radicale sconfitta che ad una innovazione. Consumano e scaldano in maniera spropositata e le prestazioni non sono poi così eclatanti. Vediamo cosa succede......
HackaB321
22-01-2008, 13:40
9800Gx2 nel corso della primavera?
Ma non erano previste per il 14 Febbraio?
Io credo che il problema siano i volumi di vendita: se queste schede "dual GPU" avessero una fetta consistente di mercato, allora diverebbe conveniente inserirle all'interno si un chip package (come i Quad core di Intel, per capirci) con tutte le ottimizzazioni del caso (come suggeriva papafoxtrot). Al momento attuale la cosa migliore é l'integrazione su di un PCB di due GPU
soluzione un pò pasticciona rispetto a GPU multicore, quello che penso sarà il futuro.
papafoxtrot
22-01-2008, 13:55
Il fatto è che quando hai integrat tutto su un unico pack hai reinventato la singola gpu perché non el distingui più... e allora rinunci ai vantaggi industriali di produrre pochi modelli e semplici...comunque bisognerebbe integrare di più anche soluzioni a più gpu, questa cosa di mettere tutto sullo stesso pcb alla fine non vuol dire gran ché perché le due gpu lavorano sempre esattamente come due schede in cf. E l'efficienza è quella che è, anche in termini energetici.
Inoltre io penso alle possibilità di usare queste schede in ambiti dove il cf/sli non sono supportati, vedi la grafica tridimensionale. Purtroppo per un tente che volesse una buona scheda per grafica 3d, senza andare su quadro/fireGL, no resterò che la fascia media. E le quadro per 3ds max ad esempio no contano un tubo, solo che 4600/5600 ora riescono ad esswere davvero superiori alle 8800gts 512. E allora cosa si fa? si sceglie fra una scheda da 200 euro ed una da 2000 perché quella da 300-400 che ci sta in mezzo è multigpu e non rende niente?
Faustinho DaSilva
22-01-2008, 13:59
più volte amd ha dichiarato che quello del multigpu sarà il futuro delle sue soluzioni top di gamma, nvidia non sta a guardare...
leddlazarus
22-01-2008, 14:09
scusate ma perchè non sviluppano gpu multicore come le cpu?
c'è qualche problema realizzativo?
Futura12
22-01-2008, 14:10
si ma basta co sti G80-R600....ristilizzati e con diminuzione del processo produttivo...si è visto come funzionava la 7950GX2 e non credo la situazione sia cambiata:read:
fate uscire un nuovo chip...altro che questi -.-'
Questo continuo aumentare di CPU/Core e GPU significa che gli ingegneri sono alla frutta!!
E' vero che i limiti fisici dei materiali di uso comune (silicio, etc..) sono vicini, ma se fino ad oggi per anni non hanno fatto altro che inventare nuove architetture, nuovi algoritmi, perfezionare la logica e il packaging, da qualche anno a questa parte si predilige la quantità alla qualità.
Oggi ci sono processori a 8 core, configurazioni QUAD SLI, non ci vuole un ingegnere a capire che 8 processori vanno più veloce di 1 o che 4 schede video in parallelo elaborano più di 1, ma quando leggo queste notizie io non sono tanto contento.
I consumi raddoppiano, e si guadagna si e no un 40%, apprezzo molto di più quando si inventano un ottimizzazione che magari guadagna solo il 20% ma abbassa i consumi.
La nvidia aveva già buttato in commercio una scheda dual gpu questa non è mica una novità
gianni1879
22-01-2008, 14:32
si però si dovrebbero sbricare un pò nel far uscire ste vga, siamo da circa un anno che la potenza elaborativa è rimasta la stessa, ok il nuovo processo e consumi più bassi, ma il resto non è cambiato.
Futura12
22-01-2008, 14:36
si però si dovrebbero sbricare un pò nel far uscire ste vga, siamo da circa un anno che la potenza elaborativa è rimasta la stessa, ok il nuovo processo e consumi più bassi, ma il resto non è cambiato.
Quotone...minestra riscaldata...come ho detto faranno la fine delle 7950GX2;)
Non ho capito una cosa: queste nuove schede per funzionare hanno bisogno di Mobo Crossfire o Sli ? Oppure basta avere un semplice slot Pci-Express ?
Mister Tarpone
22-01-2008, 14:43
basta uno slot pci-e
letsmakealist
22-01-2008, 14:47
scusate ma perchè non sviluppano gpu multicore come le cpu?
c'è qualche problema realizzativo?
ma le gpu non sono già adesso in realtà dei processori multicore estremamente specializzati nel calcolo parallelo ?
9800Gx2 nel corso della primavera?
Ma non erano previste per il 14 Febbraio?
Si ecco mi accodo, siamo già andati alla primavera? :mbe:
Per quanto riguarda sto cavolo di fantomatico G100, GT200 G2milioni insomma come si chiamerà dicono seconda metà 2008, in estate dubito che facciano uscire qualcosa, quindi si dovrebbe andare a settembre giusto? :rolleyes:
Anche Amd aveva fatto uscire in pochi mesi, nel 2007, sia la x1950Pro dual che la 2600XT dual, che sono state entrambi dei flop, autentici esercizi di stile.
Non penso che le HD3870 X2 e le 9800 GX2 saranno da meno :-)
Sia Amd che Nvidia potranno investire tutte le risorse che vogliono nel multi-gpu: resta sempre da vedere come il mercato recepisce questi loro sforzi.
Futura12
22-01-2008, 14:52
Si ecco mi accodo, siamo già andati alla primavera? :mbe:
Per quanto riguarda sto cavolo di fantomatico G100, GT200 G2milioni insomma come si chiamerà dicono seconda metà 2008, in estate dubito che facciano uscire qualcosa, quindi si dovrebbe andare a settembre giusto? :rolleyes:
cmq noi in parte dobbiamo essere felici...e + di un anno che ho la G80...e tutto va ancora a meraviglia...a parte Crysis che cmq mi sto godendo veramente bene anche senza AA;)
non succede spesso una cosa simile;)
come è stato detto in alto.
il mondo delle gpu è diametralmente opposto al mondo delle cpu,
una soluzione che è valida per una non è valida per l'altra.
quindi la strata che molti invocano per le gpu su esempio delle cpu, multi core, sia integrate nello stesso pezzi di silicio, sia affiancata tramite bus sullo stesso package, non sono praticabili nel mondo delle gpu.
di per se una gpu è gia un sistema altamente parallelo e se voglio ogni singola sp o ogni singola pipeline è un processore a se stante integrato.
le GPU SONO GIA MULTICORE ed altamente parallelizzate.
io credo sia una scelta di mercato.
prendere un g80, o un r600 strizzarlo e integrarne 2 su un unico blocco di silicio,equivarrebbe cmq ad una riprogettazione totale del chip solo per l'integrazioni delle componenti. a questo punto si preferisce sviluppare un archidettura nuova direttamente.
per le schede multi gpu, se ci fate caso escono sempre quando la tecnologia è a buon mercato anche per i produttori.
rv670 è un gpu che costa molto poco da produrre, come d'altronde g92...entrambe sono dieschrink di g80 e r600 che erano si 2 gpu costose da produrre semplicemente per il fatot che su di esse vi erano anche i costi della ricerca e sviluppo.
quando le gpu anche di fascia alta sono a basso costo allora la soluzione + economica per loro, e anche per noi, è appunto affincarne 2 sullo stesso pcb.
il vero problema CHE NESSUNO A COLTO DAI COMMENTI LETTI, che è queste gpu sfruttano interconnessioni proprietarie non solo per dialogare tra di loro, ma anche per dialogare con il chipset.
il che vuol dire privare l'utente della liberta di scelta.
se voglio 1 vga con 2 gpu crossfire devo per forza avere una mobo cf, di fatto togliendomi l'opportunita, in un secondo momento di poter cambiare vga e prendere una con 2 gpu in sli, dovendo anche cambiare mobo.
stessa storia per le vga con 2 gpu in sli, devo prendere una mobo sli,e se voglio prendere una vga dualgpu cf devo cambiare anche quella.
Futura12
22-01-2008, 15:02
come è stato detto in alto.
il mondo delle gpu è diametralmente opposto al mondo delle cpu,
una soluzione che è valida per una non è valida per l'altra.
quindi la strata che molti invocano per le gpu su esempio delle cpu, multi core, sia integrate nello stesso pezzi di silicio, sia affiancata tramite bus sullo stesso package, non sono praticabili nel mondo delle gpu.
di per se una gpu è gia un sistema altamente parallelo e se voglio ogni singola sp o ogni singola pipeline è un processore a se stante integrato.
le GPU SONO GIA MULTICORE ed altamente parallelizzate.
io credo sia una scelta di mercato.
prendere un g80, o un r600 strizzarlo e integrarne 2 su un unico blocco di silicio,equivarrebbe cmq ad una riprogettazione totale del chip solo per l'integrazioni delle componenti. a questo punto si preferisce sviluppare un archidettura nuova direttamente.
per le schede multi gpu, se ci fate caso escono sempre quando la tecnologia è a buon mercato anche per i produttori.
rv670 è un gpu che costa molto poco da produrre, come d'altronde g92...entrambe sono dieschrink di g80 e r600 che erano si 2 gpu costose da produrre semplicemente per il fatot che su di esse vi erano anche i costi della ricerca e sviluppo.
quando le gpu anche di fascia alta sono a basso costo allora la soluzione + economica per loro, e anche per noi, è appunto affincarne 2 sullo stesso pcb.
il vero problema CHE NESSUNO A COLTO DAI COMMENTI LETTI, che è queste gpu sfruttano interconnessioni proprietarie non solo per dialogare tra di loro, ma anche per dialogare con il chipset.
il che vuol dire privare l'utente della liberta di scelta.
se voglio 1 vga con 2 gpu crossfire devo per forza avere una mobo cf, di fatto togliendomi l'opportunita, in un secondo momento di poter cambiare vga e prendere una con 2 gpu in sli, dovendo anche cambiare mobo.
stessa storia per le vga con 2 gpu in sli, devo prendere una mobo sli,e se voglio prendere una vga dualgpu cf devo cambiare anche quella.
scusami forse ho capito male...mi stai dicendo che per usare queste dual-gpu devi avere necessariamente un chipset proprietario?:eek:
se fosse cosi fanculo a loro e a queste schede video.....inoltre la 7950GX2 poteva essere installata su qualsiasi mobo...adesso perchè questa novita che puzza di speculazione?:mbe:
imho finche nn sfutteranno un altro tipo di connessione queste finte multy-gpu nn arriveranno lontano!
e pesare che ati prevedeva di usare l'ht 3.0 in r700 bha
Mister Tarpone
22-01-2008, 15:05
ma infatti basta un solo slot pci-e per 1 3870x2 o 9800gx2.
...però serve la scheda madre adatta se ti vuoi fare un crossfire o sli di queste schede...
cmq noi in parte dobbiamo essere felici...e + di un anno che ho la G80...e tutto va ancora a meraviglia...a parte Crysis che cmq mi sto godendo veramente bene anche senza AA;)
non succede spesso una cosa simile;)
Sono daccordissimo con te sull'ottima qualità di G80, veramente un'eccellente architettura, duratura e potente.
Dissento sull'ultimo punto, io Crysis non me lo sto godendo per niente, è insopportabile giocarci a scatti, con framerate ballerino e spesso fastidiosamente lento, perdere le ore a fare tweak per trovare la configurazione ideale che poi non trovi mai perchè se ti va bene in un punto poi va male in un altro. Insomma non sopporto di giocare un gioco così, mi sono fatto il mazzo per farmi un Pc potente e voglio giocare al massimo, perciò per ora Crysis lo lascio da parte a prendere polvere, lo riprenderò quando ci si potrà giocare in modo decente dovessero anche volerci degli anni e nemmeno l'ho finito anche se l'ho comprato all'uscita. Mi sono davvero rotto le scatole per riuscire a giocarlo, G80 non ce la fa, perciò per ora per me resta dov'è. :rolleyes:
Su tutti gli altri giochi nulla da dire. ;)
Futura12
22-01-2008, 15:15
Sono daccordissimo con te sull'ottima qualità di G80, veramente un'eccellente architettura, duratura e potente.
Dissento sull'ultimo punto, io Crysis non me lo sto godendo per niente, è insopportabile giocarci a scatti, con framerate ballerino e spesso fastidiosamente lento, perdere le ore a fare tweak per trovare la configurazione ideale che poi non trovi mai perchè se ti va bene in un punto poi va male in un altro. Insomma non sopporto di giocare un gioco così, mi sono fatto il mazzo per farmi un Pc potente e voglio giocare al massimo, perciò per ora Crysis lo lascio da parte a prendere polvere, lo riprenderò quando ci si potrà giocare in modo decente dovessero anche volerci degli anni e nemmeno l'ho finito anche se l'ho comprato all'uscita. Mi sono davvero rotto le scatole per riuscire a giocarlo, G80 non ce la fa, perciò per ora per me resta dov'è. :rolleyes:
Su tutti gli altri giochi nulla da dire. ;)
:mano: cmq mi sembra strano che con una 8800GTX su un 19'' a 1280x1024 non riesci a giocarci al massimo....ci gioco io a quasi tutto al max...senza evidenti rallentamenti:confused:
Cmq un gioco e ripeto un gioco non mi farà cambiare opinione sull'ottima progettazione del core G80:)
virtualj
22-01-2008, 15:17
Ma xkè io sto giocando a crysis con una x1950gt e non mi lamento??? 1280x1024 dettagli medi.. niente AA. E' cmq molto bello :) C'è un modo per vedere gli fps? cmq è giocabile, non mi pare vada a scatti, a parte qualke "blocco" ogni tanto. Dai commenti che ho sentito pensavo ke nemmeno mi partisse :|
Futura12
22-01-2008, 15:20
Ma xkè io sto giocando a crysis con una x1950gt e non mi lamento??? 1280x1024 dettagli medi.. niente AA. E' cmq molto bello :) C'è un modo per vedere gli fps? cmq è giocabile, non mi pare vada a scatti, a parte qualke "blocco" ogni tanto. Dai commenti che ho sentito pensavo ke nemmeno mi partisse :|
no io infatti sono contento...alla fine gioco con tutto al max e AF16x...e non mi lamento:sofico: strano che con la GTX non va -.-'
per vedere gli FPS usa Fraps...
cmq siamo OT;)
Mister Tarpone
22-01-2008, 15:20
Ma xkè io sto giocando a crysis con una x1950gt e non mi lamento??? 1280x1024 dettagli medi.. niente AA. E' cmq molto bello :) C'è un modo per vedere gli fps? cmq è giocabile, non mi pare vada a scatti, a parte qualke "blocco" ogni tanto. Dai commenti che ho sentito pensavo ke nemmeno mi partisse :|
idem... ho una scheda video che fa ridere ormai... eppure crysis me lo son goduto a 1280x800 dettagli medio alti...
secondo me dovrebbero puntare sopratutto a ridurre i consumi.... sennò fra un po dovranno creare il pci-express 5.0 che fornirà fino a 500 Watt di potenza
Roba da fantascienza...
:mano: cmq mi sembra strano che con una 8800GTX su un 19'' a 1280x1024 non riesci a giocarci al massimo....ci gioco io a quasi tutto al max...senza evidenti rallentamenti:confused:
Cmq un gioco e ripeto un gioco non mi farà cambiare opinione sull'ottima progettazione del core G80:)
Assolutamente daccordo di nuovo. Non cambio certo idea su G80 solo per Crysis. ;) :cincin:
Dico solo che a me fa schifo giocato così, ovviamente è questione di punti di vista ma io proprio non lo sostengo, dopo un po' mi prende lo stress perchè per mirare e sparare o muovermi rapidamente devo assorbire 200 colpi prima di poter fare qualcosa. Sono abituato a muovermi molto velocemente negli FPS che considero il mio genere preferito, il giocare a scatti o il togliere dettagli a manetta mi mette tristezza e non mi godo per niente il gioco, oltre al fatto che mi stressa non poco. Percui ho deciso di metterlo da parte e fare finta che esca quando ci sarà un hardware in grado di sopportarlo alla grande, allora potrò dire wow che bel gioco Crysis in tutto il suo splendore cosa che ho detto degli altri giochi che lo meritavano e che ho potuto giocare senza problemi o rotture di scatole. ;)
Poi alla fine è questione di punti di vista, questo è il mio. :D
MenageZero
22-01-2008, 15:28
basta minestre riscaldate, "vogliamo" evoluzioni archietturali delle gpu (possibilmente che facciano andare crysis sui 60fps a 1080p con esborso sotto i 250€, e non fra qualche anno :sofico:), come è sempre stato !!!
:help:
ora anche r700 e g100, da nuove gpu top e nuove arch. diventano schede con doppia gpu, gpu dalle evoluzioni architetturali non si sa bene se e quanto significative...
... rimangono il concetto e la fascia di prezzo tradizionali di "nuove schede top di gamma" ma sparisce quello della relativa gpu ? accrocchi sli/cf forever ? ... mitico ... :mbe:
prima che lo solleviate come obiezione del tipo "ma è logico, inevitabile, efficente, farà scendere i prezzi" al mio discorso tra l'ironico ed il deluso:
è lapalissiano che ad amd e nv la "nuova" via conviene assai per vari motivi legati alla produzione e perché così non dovranno più investire in R&D come prima per cercare di presentare a cicli di 6 mesi/1 anno un nuovo chip grafico che vada nettamente di più di tutti gli altri pre-esistenti;
tuttavia se anche la nuova startegia produrrà una abbassamento dei costi delle soluzioni top, imho produrrà anche nettamente meno efficenza di queste sotto vari aspetti e conseguenti prestazioni sensibilmente inferiori a quelle che si sarebebro potute avere con nuove gpu top singole alla "vecchia" maniera(magari consumando meno) ... quindi forse nulla di nuovo sotto il sole in prezzo/prestazioni per chi spende in schede grafiche al top, anzi qualche rischio di peggioramento se i prezzi che vorranno fare non saranno poi tanto "bassi" ...
per chi punta dalla fascia medio-alta in giù, è imho sufficente la attuale e da un pezzo intrapresa diversificazione di schede a singola gpu e relativi chip, che si suppone rimarrà anche in futuro (o almeno spero; non si è ancora parlato in termini concreti di fare un solo un chip entry level e poi fare tutte le schede con sli/cf di queste... ma a giudicare dagli "entusiasmi" del momento per il mutli-gpu, non escluderei che arrivino a propinarci anche questo negli anni ... )
continuo a sperare che almeno l'rv770 ed il concorrente nv, di cui a questo punto non si conosce più il "codename" e di cui 2 esemplari andranno nella (scheda)g100, pur non avendo evidentemente da soli prestazioni top, abbiano novità tali nel chip da fornire significativi incrementi prestazionali rispetto ai predecessori di pari fascia che andranno a sostituire
e lo spero sporattutto per ati(oops, amd :p ), xché se rv770 offrisse solo un miglioramento di poche unità percentuali in performance rispetto ad un rv670
(ovvero se fosse "solo" r6xx con marginali e non sostanziali miglioramenti), a quel punto sparirebbe dall'orizzonte qualunque previsto momento di sorpasso o di "aggancio" da parte di amd nei confronti di nv nelle performance delle rispettive arch. grafiche (e poi nelle ultime slide amd in cui l'ho visto - anzi vista, è una scheda :( - r700 compariva solo nel 2009, qui si dice che g100 dovrebbe uscire nella seconda metà 2008 ... amd, con r700 vs g100, rv770 vs g???, non vogliamo ripetere la storia di r600 vs g80, vero ? :stordita: )
ps: non ho mai avuto da/voluto spendere più di circa 200€ per una gpu né credo che lo farei a prescindere e cambio componeneti del pc tutt'altro che spesso, non vedete il mio dioscorso come mosso da smanie cosnumistiche personali e deluse dall'assenza in futuro di una nuova "super-gpu" (anche se cmq eventuali grossi passi avanti in una gpu top di gamma, subito o meno subito poi si riflettono inevitabilmente anche nelle gpu e relative schede di fascia inferiore :sofico:); sono semplicemente considerazioni fatte da "osservatore" interessato principalmente in quanto appassionato di tecnologie legate al pc (e anche non)
Futura12
22-01-2008, 15:32
Assolutamente daccordo di nuovo. Non cambio certo idea su G80 solo per Crysis. ;) :cincin:
Dico solo che a me fa schifo giocato così, ovviamente è questione di punti di vista ma io proprio non lo sostengo, dopo un po' mi prende lo stress perchè per mirare e sparare o muovermi rapidamente devo assorbire 200 colpi prima di poter fare qualcosa. Sono abituato a muovermi molto velocemente negli FPS che considero il mio genere preferito, il giocare a scatti o il togliere dettagli a manetta mi mette tristezza e non mi godo per niente il gioco, oltre al fatto che mi stressa non poco. Percui ho deciso di metterlo da parte e fare finta che esca quando ci sarà un hardware in grado di sopportarlo alla grande, allora potrò dire wow che bel gioco Crysis in tutto il suo splendore cosa che ho detto degli altri giochi che lo meritavano e che ho potuto giocare senza problemi o rotture di scatole. ;)
Poi alla fine è questione di punti di vista, questo è il mio. :D
condivido i punti di vista:)
cmq a me anche se va a 30fps... è giocabile e fluido..sopratutto in single-player (e quello mi interessa)...non provo incertezze...certo non sono i 60 fissi di Cod4 ma mi accontento:)
poi cmq a riprova della tesi "quando le gpu costano poco, mettiamone 2 sullo stesso pcb" è il fatto che amd parli di RV770.
R700 sarà il capostipite con le innovazioni archidetturali diciamo la hd2900xt di adesso, la sigla RV ha sempre contraddistinto il chip di fascia medio alta con processo produttivo che costava meno e produceva di +, quindi si parla di RV770 che sarà quello che oggi è RV670, praticamente l'r600 costrato nel memorybus e un processo produttivo + economico che da risultati in volumi maggiori.
quindi solitamente non sono i chip di punta ad essere messi in dual gpu, ma quei chip di fascia medio alta che costa relativamente poco produrre e arrivano a prestazioni relativamente vicine al capostipite
MenageZero
22-01-2008, 15:42
Si ecco mi accodo, siamo già andati alla primavera? :mbe:
Per quanto riguarda sto cavolo di fantomatico G100, GT200 G2milioni insomma come si chiamerà dicono seconda metà 2008, in estate dubito che facciano uscire qualcosa, quindi si dovrebbe andare a settembre giusto? :rolleyes:
magari anche novembre, viste le ultime due uscite importanti by nv (g80 e g92)e visto che pare che amd a breve non può fare niente per pressare i concorrenti sul fronte delle prestazioni...
... sempre se non esce nel 2009 in tutta calma insieme al concorrente r700 :D
ps: hai notato sì che probabilmente r700 e g100 sono anche loro schede dual-gpu con 2 esemplari degli eredi di rv670 e g92 rispettivamente e che non si parla di grossi balzi prestazionali rispetto ai predecessori ? ti "entusiasmano" lo stesso ?
MenageZero
22-01-2008, 15:56
poi cmq a riprova della tesi "quando le gpu costano poco, mettiamone 2 sullo stesso pcb" è il fatto che amd parli di RV770.
R700 sarà il capostipite con le innovazioni archidetturali diciamo la hd2900xt di adesso, la sigla RV ha sempre contraddistinto il chip di fascia medio alta con processo produttivo che costava meno e produceva di +, quindi si parla di RV770 che sarà quello che oggi è RV670, praticamente l'r600 costrato nel memorybus e un processo produttivo + economico che da risultati in volumi maggiori.
quindi solitamente non sono i chip di punta ad essere messi in dual gpu, ma quei chip di fascia medio alta che costa relativamente poco produrre e arrivano a prestazioni relativamente vicine al capostipite
non è esattamente così ;) dalla news:
"Le indiscrezioni al momento disponibili prevedono che AMD possa sfruttare un approccio molto simile anche per la successiva proposta top di gamma: parliamo della scheda video indicata con il nome in codice di R700, composta anche in questo caso da due GPU RV770 montate sulla stessa scheda e collegate via tecnologia Crossfire."
inoltre, dal quadro generale che la news traccia su ambo i fronti, sembra che
i tradizionali "chip di punta" (tipo r600 e g80) eviteranno proprio di farli, quantomeno nella prossima "generzione"(bisognerà vedere poi le effettive differenze tra rv670/rv770 e tra g92/g??? per poter parlare di nuova gnerazione in senso "tecnico"):
il top sarà direttamente il dual gpu della gpu per la fascia medio-alta; come se tra novembre 2006 e primavera 2008 fossero usciti direttamente rv670 e g92 e come top hd3870x2(2*rv670) e gf9800gx2(2*g92), senza r600 e g80.
magari anche novembre, viste le ultime due uscite importanti by nv (g80 e g92)e visto che pare che amd a breve non può fare niente per pressare i concorrenti sul fronte delle prestazioni...
... sempre se non esce nel 2009 in tutta calma insieme al concorrente r700 :D
ps: hai notato sì che probabilmente r700 e g100 sono anche loro schede dual-gpu con 2 esemplari degli eredi di rv670 e g92 rispettivamente e che non si parla di grossi balzi prestazionali rispetto ai predecessori ? ti "entusiasmano" lo stesso ?
Il mio entusiasmo ultimamente sta andando a farsi friggere. :rolleyes:
stavolta passo. mi sono rotto, schede video riscaldate (escluse le rivoluzioni come G80), e giochi che non escono.
me ne sto' con la mia tavola sulle montagne , và che è meglio. :sofico:
titicaca1
22-01-2008, 17:14
Ho trovato una review della 3870X2 e non va male!!!!Vedendo però i dati su Crysis manca ottimizzazione nei drivers.....aspetto la 9800X2 che a mio parere dopo l'insuccesso della 7950GX2(dovuto alla carenza nel supporto drivers) farà sognare tutti per le prestazione!!!!!!!!!!!!!Speriamo anche nel prezzo. Ecco il link:
http://forums.vr-zone.com/showthread.php?t=228355
Critterix
22-01-2008, 17:54
forse è perché c'era l'alternativa con singola gpu, con stessa potenza di calcolo e senza problemi di driver!! Adesso per chi vuole il max su singolo slot o 2 gpu o 2 schede... :rolleyes:
bè scusate ma non è che si possa sempre fare balzi da gigante come sbucciare le arachidi...... insomma esiste anche un limite tecnico... amd è arrivata ora ai 55nm e nvidia sarà anche lei presto a quei livelli, di ottimizzazioni nel flusso grafico, nei calcoli. nella gestione della banda ecc, insomma si andrà avanti ma come è stato per le CPU è normale accada anche per GPU, cmq sia la 3870X2 è una gran scheda, consumerà parecchio ok, ma dalle prove perde solo dove non ci sono patch ottimizzate per quella scheda e volete mettere 400 contro i 600/700€ di una 8800 ultra?? Se no per dove ci sono driver e ottimizzazione vola.....
aaasssdddfffggg
22-01-2008, 18:40
Questa genrazione è da saltare dal mio punto di vista.Ormai la nuova generazione è imminente.Si parla del secondo quarto dell'anno :
"Commercial Times talked about Nvidia and AMD introducing their next generation GPUs in Q2 this year, developed to support dual-core processors from Intel and AMD. The article mentioned that they have completed tape-out of the chips and will farm out productions of the chips to TSMC in March. Nvidia plans to introduce next-generation chip dubbed as G100 to challenge next-generation RV770 from AMD. Industry sources are pointing towards 55nm based RV770 supporting DX10.1."
VR-ZONE
Questa genrazione è da saltare dal mio punto di vista.Ormai la nuova generazione è imminente.Si parla del secondo quarto dell'anno :
"Commercial Times talked about Nvidia and AMD introducing their next generation GPUs in Q2 this year, developed to support dual-core processors from Intel and AMD. The article mentioned that they have completed tape-out of the chips and will farm out productions of the chips to TSMC in March. Nvidia plans to introduce next-generation chip dubbed as G100 to challenge next-generation RV770 from AMD. Industry sources are pointing towards 55nm based RV770 supporting DX10.1."
VR-ZONE
Se fosse come afferma quell'articolo uscirebbero praticamente in concomitanza con le revisioni del G92 o quasi, mi sembra difficile. :confused:
Ho trovato una review della 3870X2 e non va male!!!!Vedendo però i dati su Crysis manca ottimizzazione nei drivers.....aspetto la 9800X2 che a mio parere dopo l'insuccesso della 7950GX2(dovuto alla carenza nel supporto drivers) farà sognare tutti per le prestazione!!!!!!!!!!!!!Speriamo anche nel prezzo. Ecco il link:
http://forums.vr-zone.com/showthread.php?t=228355
Il tuo ottimismo porta una ventata di speranza in questo thread che al momento soffre di mezze delusioni per la carenza di notizie e per la tristezza trasmessa dalle poche fin'ora a noi giunte.
Magari fosse sufficiente a risollevare il morale di noi desiderosi di maggior potenza nonchè più evoluta tecnologia. :D
MenageZero
22-01-2008, 19:53
forse è perché c'era l'alternativa con singola gpu, con stessa potenza di calcolo e senza problemi di driver!! Adesso per chi vuole il max su singolo slot o 2 gpu o 2 schede... :rolleyes:
infatti, spero di sbagliarmi, ma l'andazzo sembra proprio che il multi-gpu vogliano col tempo farlo finire per forza di cose nel case di chi vuole videogiocare ...
bè scusate ma non è che si possa sempre fare balzi da gigante come sbucciare le arachidi...... insomma esiste anche un limite tecnico... amd è arrivata ora ai 55nm e nvidia sarà anche lei presto a quei livelli, di ottimizzazioni nel flusso grafico, nei calcoli. nella gestione della banda ecc, insomma si andrà avanti ma come è stato per le CPU è normale accada anche per GPU, cmq sia la 3870X2 è una gran scheda, consumerà parecchio ok, ma dalle prove perde solo dove non ci sono patch ottimizzate per quella scheda e volete mettere 400 contro i 600/700€ di una 8800 ultra?? Se no per dove ci sono driver e ottimizzazione vola.....
appunto ... pensa come potrebbe andare allora un "ipotetico r6xx" con 640sp etc senza tutti gli incovenienti del cf; o ancora meglio un "ipotetico r7xx"(supponendo che l'arch. r7xx quantomeno rimedi ai punti deboli di quella r6xx)singola gpu anziché rv770*2
ovviamente discorso del tutto analogo in casa nv; che anzi lì la diff. potrebbe forse essere ancora maggiiore, se "qualcuno" si decidesse a dar loro motivi per non dormire sugli allori del g80 (che non vuol dire mettere assieme 2 rv670 o rv770, visto che abbiammo appena letto e non per la prima volta che anchi i g92 ed i futuri g??? possono andare in coppia ...)
a questo punto comincio sperare che "larrabee" possa dare uno scossone... (anche se tempo fa avevo letto che non è un progetto così vicino ad un podotto copmmerciale o cmq non ad uno che possa subito posizionarsi al top nelle s.v. e visto che il precedente(ma trattasi dell'ormai preistorico i740, mi pare) di intel nel 3d fu un flop clamoroso ...
ps: magari la strada che si intravede fosse quella di poter dire "come è stato per le CPU"... per sfruttare pienamente i core di una cpu non c'è mica bisgnop di pilotarli e sicronizzarli via drv(che devono pure avere codice dedicato per ogni app che si voglia far girare al meglio) tramite un bus esterno, non c'è bisgno di avere due copie degli stessi dati in ram, etc
:sofico:
:doh: guardate, io credo che andranno bene diverse oluzioni da parte di ati ed nvidia.
Xò, credo che sia indiscutibile il fatto che, se il futuro è il multigpu o multicore, comunque lo si voglia interpretare, il croosfire o lo sli come bus di connessione tra le GPU, Andrà eliminato, con l'evoluzione delle stesse gpu, ma già con le attuali gpu, lo sli ed il crossfire sono bus troppo lenti, è inutile, il collo di bottiglia è tangibile, 2 4 6 8 gpu, non andranno mai x2 x4 x8 volte una singola gpu.
Sono bus troppo lenti, devono evolversi i bus a partire da ora, cioè devono riprogettare da zero un nuovo bus di interconnessione, li devono investire e magari investire meno nelle gpu.......pochè già le gpu attuali sono potenti, ma co sti sli e crossfire, non si và lontano.
E furi dubbio ciò.
Dunque riprogettassero nuovi bus ed allora si comincerebbe aragionare:fagiano:
Questa genrazione è da saltare dal mio punto di vista.Ormai la nuova generazione è imminente.Si parla del secondo quarto dell'anno :
"Commercial Times talked about Nvidia and AMD introducing their next generation GPUs in Q2 this year, developed to support dual-core processors from Intel and AMD. The article mentioned that they have completed tape-out of the chips and will farm out productions of the chips to TSMC in March. Nvidia plans to introduce next-generation chip dubbed as G100 to challenge next-generation RV770 from AMD. Industry sources are pointing towards 55nm based RV770 supporting DX10.1."
VR-ZONE
ma come è possibile ciò??? :eek: :eek:
micronauta
22-01-2008, 22:00
sto scrivendo con il
mio iphone nuovo fiammante ahhhhhhhhhh
@danieleok@
22-01-2008, 22:28
Ho trovato una review della 3870X2 e non va male!!!!Vedendo però i dati su Crysis manca ottimizzazione nei drivers.....aspetto la 9800X2 che a mio parere dopo l'insuccesso della 7950GX2(dovuto alla carenza nel supporto drivers) farà sognare tutti per le prestazione!!!!!!!!!!!!!Speriamo anche nel prezzo. Ecco il link:
http://forums.vr-zone.com/showthread.php?t=228355
Io la vedo uguale ad un crossfire piu o meno, ma stiamos empre li, una dual vga senza drivers è come un V10 1000 di cilindrata :D
BlueKnight
22-01-2008, 23:01
http://www.pconline.com.cn/diy/graphics/reviews/0801/1210234.html
Altra recensione della HD 3870X2
Dai risultati sembra ottima, paragonata alla 8800 Ultra, considerando consumi quasi simili ma un prezzo dichiarato fino ad ora 1/3 più basso (400 Euro rispetto ai 600 Euro della Ultra)... considerando poi le prestazioni superiori.
http://img3.pconline.com.cn/pconline/0801/21/1210234_R680vs8800U_080120_thumb.jpg
soluzione un pò pasticciona rispetto a GPU multicore, quello che penso sarà il futuro.
scusate ma perchè non sviluppano gpu multicore come le cpu?
c'è qualche problema realizzativo?
Non si sa quante volte bisognerà ripeterlo prima che sia un'informazione a conoscenza di tutti... Le GPU sono già processori con unità multicore specializzate nei calcoli floating point...
sto scrivendo con il
mio iphone nuovo fiammante ahhhhhhhhhh
Scusa ma a noi che ce ne importa? :mbe:
lucasantu
23-01-2008, 08:20
MA NN sono peggio schede così di uno sli per lo scarso supporto driver ?
SniperZero
23-01-2008, 10:00
per la prima volta in vita mia spero che appena uscite, seconda metà del 2008, costino un'apocalisse... ho appena comprato una 8800 ultra e l'ho pagata con un rene... l'altro vorrei riservarmelo per il prossimo upgrade fra un paio d'anni (vabbè, UN'anno...)
Paragonata alla 8800Ultra che è EOL è il 12.5% più veloce nei 9 giochi recensiti, ed escludendo il 3dmark.
E 30W in più in full load.
Il che significa un 20-25% al massimo più veloce della 8800GTS 512Mb, che è il vero riferimento, che consuma circa 80W in meno (a spanne) della HD3870 X2 e costa 280-300 euro invece di 380-400 previsti per la HD3870 X2.
E soprattutto va' alla pari con Crysis, perchè si è visto che è questo l'unico gioco che veramente richiede un multi-gpu.
Ora vediamolo il prezzo/consumi e prezzo/prestazioni :-)
CoolBits
23-01-2008, 12:53
Cmq io non sono così sicuro che vedremo in commercio una Nvidia X2...potrebbe esserci la sorpresa di una 9800Gtx con singola gpu di nuova generazione.....
MenageZero
24-01-2008, 20:16
Cmq io non sono così sicuro che vedremo in commercio una Nvidia X2...potrebbe esserci la sorpresa di una 9800Gtx con singola gpu di nuova generazione.....
io non ci scommetterei affatto su una nuova top non-dualgpu, vista quella che è la tendenza delineata sia per amd che epr nv da questa news, e dato che, mentre r700=2*rv770 è forse più recente, cmq della "9800gx2" o come si chiamerà se ne parla ovunque ormai da settimane ...
... beccati pure la (presunta) foto: :D
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-9800gx2-alcune-immagini_23996.html
MenageZero
24-01-2008, 20:43
Non si sa quante volte bisognerà ripeterlo prima che sia un'informazione a conoscenza di tutti... Le GPU sono già processori con unità multicore specializzate nei calcoli floating point...
:asd:
... ti ho trovato un'altra buona occasione per ripeterlo ancora se vuoi, così rimani allenato: :O :sofico:
http://www.hwupgrade.it/forum/showpost.php?p=20732489&postcount=4
El Bombastico
26-01-2008, 08:32
Ma quanti watt assorbono sti giocattolini?
Mutuo x comprare la scheda + mutuo per pagare la bolletta dell'enel.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.