PDA

View Full Version : Le evoluzioni di SLI per il supporto a G70


Redazione di Hardware Upg
01-06-2005, 12:08
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1297/index.html

NVIDIA si prepara a introdurre una nuova evoluzione di architettura SLI, con la quale sarà possibile anche per schede madri desktop sfruttare due canali PCI Express operanti effettivamente a 16x e non all'attuale modalità 8x. E' questa un'innovazione a beneficio di G70

Click sul link per visualizzare l'articolo.

LASCO
01-06-2005, 12:36
Se due linee PCI-e 8x limitassero in maniera significativa le prestazioni di due ati R500 in configurazione cross-fire non credo che ati avesse rinunciato a cercare come nvidia una soluzione a due linee PCI-e 16x.
Considerando poi che la G70 piu' o meno, come sempre, sara' circa allineata come prestazioni alla R500, sono dubbioso sull'effettivo aumento prestazionale di due linee 16x al posto di due 8x. Forse solo ad alte risoluzioni (1600x1200) e con tutti i filtri attivati al massimo ci potrebbe essere qualche differenza, come daltronde accade per AGP8x e PCI-e.

^TiGeRShArK^
01-06-2005, 12:43
:asd: puro marketing imho.
Allora il dongle a ke servirebbe? se dovessero sfruttare la banda del PCI-EXPRESS x tutti dati da trasferire non credo proprio ke le soluzioni di semi-SLI possano essere così performanti.
Ovviamente a meno ke non abbiano deciso di togliere il dongle.

P.S. cmq almeno x doom 3 il sistema era abb stabile tenendo conto ke sono x l'appunto solo dei prototipi ;)

Sharpnel
01-06-2005, 12:53
Qualcuno è a conoscenza di quando dovrebbe scadere l'NDA del G70?

Non vedo l'ora di leggere articoli al riguardo :)

fukka75
01-06-2005, 13:07
Forse solo ad alte risoluzioni (1600x1200) e con tutti i filtri attivati al massimo ci potrebbe essere qualche differenza
Perché a che risoluzoine gioca chi ha una configurazione SLI ? E 'ovvio che i maggiori vantaggi si hanno alle alte risoluzioni e con i filtri attivati: che poi sia una cosa inutile, visto che con una sola scheda 6800/X8xx si gioca tranquillamente a 1280X1024 con AA4X e AF8X senza problemi e con un'ottima qualità visiva, è un altro discorso

sirus
01-06-2005, 13:42
abbiamo visto che PCI-Ex 16X non porta vantaggi rispetto a PCI-Ex 8X e quindi non vedo che cosa potrebbe portare questo aumento delle linee del PCI-Ex fino a 32 :(

Opteranium
01-06-2005, 14:08
"non credo che ati AVESSE.." !!!

ma vadi e impari l' itagliano, per favore.. ;-)

LASCO
01-06-2005, 14:34
"non credo che ati AVESSE.." !!!

ma vadi e impari l' itagliano, per favore.. ;-)Voglio sperare che almeno "l' itagliano" sia stato scritto volutamente in modo errato.
Se ti va fammi un esempio di come andava scritta la mia frase precedente in maniera corretta.

OverClocK79®
01-06-2005, 14:51
magari per una G70 effettivamente il 16X serve....
ma cavolo occorre già cambiare mobo??? :mbe:

BYEZZZZZZZZZZZZ

mantes
01-06-2005, 14:53
Se due linee PCI-e 8x limitassero in maniera significativa le prestazioni di due ati R500 in configurazione cross-fire non credo che ati avesse rinunciato a cercare come nvidia una soluzione a due linee PCI-e 16x.
Considerando poi che la G70 piu' o meno, come sempre, sara' circa allineata come prestazioni alla R500, sono dubbioso sull'effettivo aumento prestazionale di due linee 16x al posto di due 8x. Forse solo ad alte risoluzioni (1600x1200) e con tutti i filtri attivati al massimo ci potrebbe essere qualche differenza, come daltronde accade per AGP8x e PCI-e.
Comunque se non mi sembra logico dire "se non lo ha fatto ati allora non serve".
Prima di tuto non è detto che non lo faranno,per adesso poi Ati ha già avuto le sue gatte da pelare per mettere a punto crossfire,e i chipset che lo faranno funzionare,che dovranno andare a competere con l'nforce 4 e quindi dovranno essere dei chipset altrettanto buoni,e come si legge dall'articolo non sono ancora stabilissimi...figurati se si poteva permettere di proggettare anche un'altro chip per far funzionare le schede a 16x!

sacd
01-06-2005, 15:16
NN si è ancora diffuso lo sli con due schede a 8x che già vogliono farlo con due schede a 16x :nono:

kbytek
01-06-2005, 15:20
Voglio sperare che almeno "l' itagliano" sia stato scritto volutamente in modo errato.
Se ti va fammi un esempio di come andava scritta la mia frase precedente in maniera corretta.

"Se due linee PCI-e 8x limitassero in maniera significativa le prestazioni di due ati R500 in configurazione cross-fire non credo che ati avesse rinunciato a cercare come nvidia una soluzione a due linee PCI-e 16x."

"Avrebbe"<--------inseriscilo e vedi se suona meglio. :O

Comunque trovo inutile lavorare in quella direzione (16 o 8 cambia nulla).
Onestamente trovo inutile anche avere due schede video.

LASCO
01-06-2005, 15:38
"Avrebbe"<--------inseriscilo e vedi se suona meglio. :OCerto, era una provocazione per Opteranium. Comunque ogni tanto ci vuole qualche richiamo, anche se spesso quando si scrive un post capita di iniziare una discussione e fare successivamente delle modifiche senza correggere dovutamente il tutto.

Comunque se non mi sembra logico dire "se non lo ha fatto ati allora non serve".
Prima di tuto non è detto che non lo faranno,per adesso poi Ati ha già avuto le sue gatte da pelare per mettere a punto crossfire,e i chipset che lo faranno funzionare,che dovranno andare a competere con l'nforce 4 e quindi dovranno essere dei chipset altrettanto buoni,e come si legge dall'articolo non sono ancora stabilissimi...figurati se si poteva permettere di proggettare anche un'altro chip per far funzionare le schede a 16x!Non dico che se ati non l'ha fatto allora non serva, ma che forse non e' cosi' importante come nvidia faccia credere. Se questo guadagno e' invece significativo mi sembra difficile che ati non abbia cercato di ottenere due linee 16x solo per problemi tecnici.

Cimmo
01-06-2005, 15:59
Ma la velocita' del bus non si nota solo quando la ram della scheda video e' troppo poca e quindi deve accedere spesso alla ram per recuperare le texture?

Se e' cosi' allora la maggior banda e' d'aiuto per le schede video con poca ram e cioe' quelle di fascia bassa con TurboCache o HyperMemory

^TiGeRShArK^
01-06-2005, 16:13
non solo ... x l'sli dovrebbe servire in teoria x trasferire dati tra le due skede........ pekkato però ke ci sia già il dongle ke unisce fisicamente le due skede e ke credo abbia una banda ben + elevata di una connessione pci-express 16X.

Mastromuco
01-06-2005, 17:27
Per come la vedo io, sta storia non ha senso...tra PCI-e e AGP le differenze NON ci sono (in alcuni c'è 1 fps in più in altri 1 di meno e così via).

Presupponendo che già un PCI-e è parecchio più capiente rispetto ad un AGP, le differenze per un 16+16 saranno ridicole.

Se mi fanno 2 fps in più su 200 che mi frega? Anche perchè saranno sicuramente soluzioni costose.

Secondo me l'Nvidia poteva prendersela più comoda e sviluppare uno SLI migliore dove le schede possono almeno essere un pochettino differenti, invece così non fanno molto di utile.

Imho eh! ;)

Sayan V
01-06-2005, 17:45
Beh ...inutile non credo proprio, semmai non molto fruttifero per adesso il doppio 16x ... comunque se nella prossima scheda madre che compro me lo mettono gratis ben venga
in fondo stiamo lì a cercare il settaggio giusto sui timing per qualche punto % di prestazioni in più e poi ci rifiutiamo una tecnologia avanzata ????

Per chi dice che lo sli non serve ... vedere raddoppiati i frame in riddick grazie allo sli (da 30 a 60 Fps) non è cosa da poco ...

DjLode
01-06-2005, 18:00
Per me è molto più importante vedere calare i soldi in banca...
E non venitemi a fare il solito discorso che compro oggi poi quando esce la nuova generazione prendo la vecchia a meno perchè è assolutamente falso. Ati e Nvidia tra qualche tempo non consegneranno più e i prezzi delle schede video sono assolutamente paragonabili a 10 mesi fa.
Una cosa è utile quando senza non si può fare una certa cosa. E visto che Riddick l'ho giocato con una vetusta 9700 direi che l'esempio di Riddick è la palese dimostrazione di quando sia inutile lo Sli. Ma tu mi dirai "io ci gioco a 1600x1200 con AA 8x e Aniso 16x". Ma anche con altre risoluzioni funziona. Quindi lo Sli è ancora palesemente inutile. Se poi uno vuole farsi un sistema Sli, ha i soldi per farlo, ne è convinto, libero di farlo e di esserne felice. Ma di farlo passare per utile e/o necessario... bhè ce ne passa :)

~efrem~
01-06-2005, 18:06
uhm... due pci-e a 16x?

quindi interconnessioni possibili (teoricamente) per DUE schede SLI, tipo 3d1 di gigabyte o le equivalenti soluzioni di altre marche...

Naturalmente sto congetturando... ma mi era parso di vedere dei sinistri connettori in alto sulla sinistra delle varie schede con i due 6800u...

mumble..mumble...

mjordan
01-06-2005, 18:20
magari per una G70 effettivamente il 16X serve....
ma cavolo occorre già cambiare mobo??? :mbe:

BYEZZZZZZZZZZZZ

Gia... :rolleyes:
Per la serie "se avevano smesso i processori ora ci pensano le schede grafiche"... A dir poco ridicolo ...

JohnPetrucci
01-06-2005, 18:42
"Se due linee PCI-e 8x limitassero in maniera significativa le prestazioni di due ati R500 in configurazione cross-fire non credo che ati avesse rinunciato a cercare come nvidia una soluzione a due linee PCI-e 16x."

"Avrebbe"<--------inseriscilo e vedi se suona meglio. :O

Comunque trovo inutile lavorare in quella direzione (16 o 8 cambia nulla).
Onestamente trovo inutile anche avere due schede video.
Anch'io trovo inutile accoppiare 2 schede video, figuriamoci che me ne ne importa se adesso entrambe le linee vanno a 16x, per quello che cambia poi.
Preferisco una sola scheda di fascia top, per una serie di motivi, in primo luogo perchè l'evoluzione in questo campo è rapida sia in ambito hardware che di librerie dx.

mantes
01-06-2005, 19:47
Certo, era una provocazione per Opteranium. Comunque ogni tanto ci vuole qualche richiamo, anche se spesso quando si scrive un post capita di iniziare una discussione e fare successivamente delle modifiche senza correggere dovutamente il tutto.

Non dico che se ati non l'ha fatto allora non serva, ma che forse non e' cosi' importante come nvidia faccia credere. Se questo guadagno e' invece significativo mi sembra difficile che ati non abbia cercato di ottenere due linee 16x solo per problemi tecnici.

Ripeto,non è detto che non cercherà di farlo in futuro...non volevo dire che se ati volesse non sarebbe in grado di farlo,semplicemente che non è una priorità.
Comunque non ci rimane che aspettare qualche test per sapere quali benefici ci saranno con i 16x,magari la g70 ne risulterà realmente meglio sfruttata...certo però che se le novità si riduceranno solo a questo,penso anch'io che lo sli 2 sarà un po deludente.

dwfgerw
02-06-2005, 11:38
io invece penso che l'approccio di SLI sia la soluzione più veloce in assoluto anche più di crossfire, che si avvale di chipset Xpress 200 che a mio avviso non hanno niente a che vede con gli nforce 4

giovonni
03-06-2005, 11:51
Voglio sperare che almeno "l' itagliano" sia stato scritto volutamente in modo errato.
Se ti va fammi un esempio di come andava scritta la mia frase precedente in maniera corretta.
Be' lì il condizionale ci sarebbe stato meglio del congiuntivo, questo sì :)

GordonFreemanLP
04-06-2005, 14:39
io invece penso che l'approccio di SLI sia la soluzione più veloce in assoluto anche più di crossfire, che si avvale di chipset Xpress 200 che a mio avviso non hanno niente a che vede con gli nforce 4
Questo lo pensi te.. CrossFire ha ampiamente dimostrato come ATI si avvalga di tecniche multi-gpu già più mature di nVidia.
Che poi l'Xpress sia un chipset giovanissimo (se non addirittura ancora nato :fagiano: ) lo si sa, ma ricorda ke nVidia è partita con nForce non con nForce4 SLI!
(parlo da orgoglioso possessore di chipset nForce 2 Ultra)

MadRat
12-06-2005, 17:29
Io dico solo che ci (vi) stanno per riprendere in giro come fecero per l'agp 8x.. il 4 basta ancora oggi!! provate a forzare una x800 xt o una 6800 ulta AGP da bios a funzionare a 4x, vedrete che SE ci sara' uan perdita, sara' nell'ordine dell' 1%.. L'8x ancora oggi, (considerata anche la mole di dati possibilmente fornita dai dualcore amd ed intel) e' ancora inutilizzata, forse il g70 saturera' un teorico 6x, ma 8?? a chi serve??
Analizzando poi la configurazione SLI, rimane facile capire come la meta' dei dati scambiati tra cpu e gpu vada ad una scheda e la'ltra all'altra scheda.. dunque in gran parte ridimensionata la richiesta di banda da aprte dei bus pcx.

In conclusione.. un 32x non serve a nessuno e probabilmente per quando servira' il pcx sara' gia' vecchio da un pezzo!! (l'agp 8x esiste da anni e non serve a nessuno!!)

P.S. Se ati non lo ha fatto e' solo perche' il suo chipset e' ancora instabile e presenta gia' problemi.. anche se inutile, in nome del marketing lo farebbe sicuramente..

Non scordiamoci che ci vendono a 450€ schede grafiche meno potenti di quelle montate nelle console di nuova generazione che costeranno 300€ (anche 250 si dice) con tanto di super cpu, ram velocissime e quant'altro compreso nel prezzo!!