View Full Version : NVIDIA mostra SLI all'IDF
Redazione di Hardware Upg
09-09-2004, 01:10
Link all'Articolo: http://www.hwupgrade.it/articoli/1076/index.html
Il produttore americano partecipa come uno degli sponsor ufficiali all'IDF di San Francisco, ma per mostrare la propria architettura SLI ha scelto una sede all'esterno del Moscone Center. Potenza da vendere, grande esercizio tecnologico ma ancora molto riserbo
Click sul link per visualizzare l'articolo.
orpo!il tuo fuso orario mi attizza!le news alle 1!:D:D
cmq se solo il chipset costerà 75$ ai produttori chiisà le mobo quanto costeranno...:eek:
...peccato che quel sistema non lo abbiano nemmeno acceso...
a mio parere la storia dello SLI sia solo un modo di fare pubblicità e far parlare di sè.Non vedo in questa vecchia tecnologia nessuna reale utilità.
a parte il costo, sicuramente per le tasche di pochi, con 2 pci express e 2 sk nvidia, rimane ben poco spazio per gli slot pci... praticamente e' come avere una sk madre con l'agp e 3 pci impegnati..
vabbe' che al giorno d'oggi e' tutto integrato nel chipset, ma l'espandibilita' sicuramente ne risente...
Fantocci ci dica...ci dica pure.....
....."secondo me...... ......lo SLI........é una ficata pazzesca"!!!!!!!!!!!!!:rotfl: :rotfl: :rotfl: :eheh:
1100000110100000
Dreadnought
09-09-2004, 02:21
Gli slot PCI con le schede madri odierne non servono più a nulla...
- Sk di rete ce l'hai integrata
- Sk firewire/usb2.0 pure
- Sk sonora se vuoi usi uno dei 4 slot PCI che hai sicuramente liberi
- Sk scsi usi un PCI, sempre che ti serve (al 0.5% dei casi)
- Modem usi un PCI o ti compri 56k esterno che ha sempre qualità maggiore di uno interno.
IMHO la modalità SLI è buona solo sulle schede top e non su quelle di fascia media.
Chi ha i soldi per il top probabilmente ne ha tanti da permettersi 2 schede,chi si compra una scheda di fascia media credo che arrivi a stento.
ALEX-MANN
09-09-2004, 09:34
Mah...attualmente lo SLI non serve a una mazza con le skede di fascia alta, forse tra un annetto, al giorno d'oggi le skede top sono ancora cpu limited figurati metterle in SLI!!!
Al contrario io penso invece che lo SLI sia moooolto utile con skede di fascia medio bassa!
Poi sul prob dei PCI liberi beh.....è gia da un po di anni che in casa ho 2 PC uno abbastanza vecchio con un P3 e dischi in Raid per spugnettare con elaborazioni masterizzazione ecc. e uno che tengo aggiornato che mi fa da console di gioco e riga....tanto ho visto che piu roba c'è dentro al PC piu devi tenerci dietro....
Bye All
MiKeLezZ
09-09-2004, 09:36
Ati qualche mese fa ci aveva scherzato su mettendo due radeon insieme per finta.. Nvidia l'ha fatto davvero
Comunque per me rimane un po' una cavolata ma mi piace un mercato variegato quindi ben venga
chi se lo potrà permettere e sarà cosi pazzo da farlo potrà mettere in sli anche due 6600GT.
Comunque ben venga soprattutto per i professionisti della grafica.
Il mercato è molto ampio non tutti usano queste schede per giocare e basta
l'unica cosa certa è: non serve per risparmiare. Le schede con sli usciranno sui 250€, tanto vale comprarsi una scheda più performante singola, che consuma meno e fa meno rumore a parità di prestazioni. altro discorso è sbatterci dentro due 6800ultra :)
Milosevik
09-09-2004, 10:17
Non ho ben capito una cosa , per poter alimentare le nuove schede video bisogna cambiare alimentatore , o ci saranno degli adattatori da comprare a parte?
O nessuna delle 2 ipotesi e resta tutto come ora , perchè cambiare un ali da 100 eurozzi comprato solo qualche mese fa mi darebbe alquanto fastidio.
Ciao
A mio parere la soluzione SLI, oltre a poter giovare chi fa grafica professionale, potrebbe essere utile a chi compra oggi una 6600GT poiché puo' darsi che tra uno o due anni voglia fare un upgrade della cheda video ed allora potrebbe essere conveniente come rapporto prestazioni/prezzo aggiungere un'altra 6600GT in modalita' SLI. Questo dipendera' molto da come si evolvera' il mercato.
una banale curiosità: ma quando si hanno due schede in sly come in questo caso, il cavo dvi per lo schermo si attacca alla prima o alla secoda scheda? o è la stessa cosa?:)
tidal kraken
09-09-2004, 10:41
Originariamente inviato da LASCO
A mio parere la soluzione SLI, oltre a poter giovare chi fa grafica professionale, potrebbe essere utile a chi compra oggi una 6600GT poiché puo' darsi che tra uno o due anni voglia fare un upgrade della cheda video ed allora potrebbe essere conveniente come rapporto prestazioni/prezzo aggiungere un'altra 6600GT in modalita' SLI. Questo dipendera' molto da come si evolvera' il mercato.
questo dipenderà soprattutto dalle prestazioni che si potranno ottenere... per adesso niente bench quindi massima diffidenza... sli mi sembra destinato alla prossima generazione di schede video (sempre che sulle mobo si trovino dei chip all'altezza della situazione e che non strozzino le prestazioni) con questa stanno solo sperimentando
la_piaga
09-09-2004, 10:49
Lo SLI alleggerisce il carico SOLO in fase di tracciamento, o esecuzione del pixel shader se la vogliamoo mettere in termini "moderni". Il vertex shader, ovvero calcolo di prospettiva, illuminazione, skinning e tutto ciò che nella maggior parte dei casi rappresenta il vero peso nei giochi con un carico poligonale importante deve essere risolto allo stesso modo su ambedue le gpu e non può essere effettuato in modo concorrente.
Per questo un sistema SLI può trarre vantaggio solo in situazioni nelle quali il tracciamento sia esuberante rispetto al resto: pixel shaders complessissimi, risoluzioni altissime e filtri a gogo; ma in linea di massima è impotente su scene pesanti per via del dettaglio geometrico. Morale: a mio modesto parere è una manovra commerciale decisamente fuori dal tempo :(
Originariamente inviato da MiKeLezZ
Ati qualche mese fa ci aveva scherzato su mettendo due radeon insieme per finta.. Nvidia l'ha fatto davvero
ATi non ha mai fatto nulla del genere. Fu Sapphire a perdere tempo nel presentare quel pcb mutilato con su due gpu senza collegamenti.
Comunque per me rimane un po' una cavolata ma mi piace un mercato variegato quindi ben venga
Al momento attuale non ha senso di esistere. Ma quando scenderenno i prezzi e le applicazioni 3D diverranno più pesanti allora si che sarà una scelta obbligata.
Ma poi come si fa a sparare 75$ per un chipset che ancora non è presente sul mercato? è morto già in partenza. Alla faccia di chi diceva nForce4 a portata di tutte le tasche.
In effetti 75$ non è una cifra propriamente economica... anche se con il tempo il prezzo si abbasserà di sicuro.
Davirock
09-09-2004, 11:21
il costo dell'nForce4 è dettato più che altro dalla configurazione che nvidia ha voluto utilizzare: il singolo chip.
sarebbe stato molto più semplice costruire 1 southbridge unico e cambiare i northbridge con vari modelli
Bye
Come mai allora i chipset Sis sono sempre stato i più economici pur integrando tutto in un singolo chip?
Penso che due schede così potenti (ora 6800 ultra) poi in futuro NV50 faranno vedere un po' di differenza rispetto ad una sola scheda. Probabilmente si potranno tenere AA e AF al massimo con framerate elevati anche a 1600x1200. Il problema tuttavia penso che non saranno le prestazioni, ma il costo di due schede e della motherboard con nForce 4 :( .
Comprando due 6800 ultra si spende circa 1200€, e una motherboard con nForce 4 con 2 PCI-Express quanto potrà costare? 300/400€?
Ci sarebbero le 6600GT da mettere in SLI, ma conviene veramente con schede di fascia media? Con il prezzo di due 6600GT ci viene una 6800 ultra(che già da sola non è da buttare via)
Ragà lo sli è una cosa molto utile!! Per il semplice fatto che se ti compri una 6800ultra adesso tra 6 mesi varrà la metà e ci saranno schede più veloci del 60% che costeranno il doppio di una 6800 ultra... invece di cambiare scheda ne compri un'altra e walà! HAi maggiori prestazioni spendendo -....!
Tra sei mesi dubito tu riesca a trovare una Ultra a 300€ :)
Così come una GT a 250€ e una 6600GT a 125€ :)
E poi c'è da considerare che i giochi richiederanno sempre di più schede con molta ram. Le schede future avranno dai 512MB a 1GB di ram. Da quello che ho letto sembra che i giochi che sfrutteranno l'unreal engine 3 richiederanno almeno 1GB di ram per poter girare bene. Se poi si mettono due schede con 1GB di ram in SLI forse sarebbe ancora meglio, però è sempre il costo che sarà esagerato(non tutti potranno permetterselo)
E il consumo?
Nessuno pensa al consumo?
Già ora un alimentatore è un bel po' sacrificato per dover alimentare una scheda Nvidia [sull'articolo di Anandtech della scorsa settimana una 6800GT tocca i 70watt sotto stress]: vi immaginate averne DUE?
E per che cosa poi?
Siamo arrivati al punto in cui il progresso tecnologico ci propone vga della generazione successiva potenti il doppio rispetto alla precedente: piuttosto che comprarmi due 6800GT [1000 eurini, ricordo] più l'Nforce4, mi compro ogni generazione una scheda di fascia medio alta.
MiKeLezZ
09-09-2004, 11:50
A sti punti famo diventare la scheda video una specie di motherboard in miniatura così da cambiarci processore e ram..
Originariamente inviato da MiKeLezZ
A sti punti famo diventare la scheda video una specie di motherboard in miniatura così da cambiarci processore e ram..
Cambiano tecnologie troppo alla svelta, dovresti cambiare "mobo" ogni volta che cambiano ram, formato della gpu... e poi chi è che smonterebbe la gpu come se fosse una cpu, col rischio di romperla? E il dissipatore? Una Gf3 non consuma come una 6800...
Insomma almeno questo no :)
rmarango
09-09-2004, 12:14
Originariamente inviato da prova
E il consumo?
Nessuno pensa al consumo?
Già ora un alimentatore è un bel po' sacrificato per dover alimentare una scheda Nvidia [sull'articolo di Anandtech della scorsa settimana una 6800GT tocca i 70watt sotto stress]: vi immaginate averne DUE?
Veramente non e' chiaro se serviranno due ali, l'articolo non e' molto chiaro in proposito... :
"Si notino i due connettori di alimentazione a 6 pin, nuovo standard introdotto con le schede video PCI Express, collegati alle schede GeForce 6800 Ultra; questo rende indispensabile l'utilizzo di appositi alimentatori per le due schede video PCI Express, così che non abbiano problemi d'insufficiente alimentazione dal solo connettore PCI Express 16x"
Forse serve solo un alimentatore con 2 connettori a 6 pin dedicati alle schede ?
Attendiamo chiarimenti...
Un ottimo 550w, come molti degli overclockers di questo forum già posseggono, basta ed avanza. Inutile e dispendioso [anche in termini di case adatto] dedicare un solo alimentatore al reparto video. Meglio uno ma buono.
MiKeLezZ
09-09-2004, 12:19
Originariamente inviato da rmarango
Veramente non e' chiaro se serviranno due ali, l'articolo non e' molto chiaro in proposito... :
"Si notino i due connettori di alimentazione a 6 pin, nuovo standard introdotto con le schede video PCI Express, collegati alle schede GeForce 6800 Ultra; questo rende indispensabile l'utilizzo di appositi alimentatori per le due schede video PCI Express, così che non abbiano problemi d'insufficiente alimentazione dal solo connettore PCI Express 16x"
Forse serve solo un alimentatore con connettori dedicati alle schede ?
Attendiamo chiarimenti...
Il PCI-E ammette l'utilizzo di connettori di forma non standard per alimentare le schede video.
6 pin.
non ho idea di che voltaggi ci siano (forse 5V, 3,3V, 12V con relative masse?) ma ho paura non esistano adattatori
è un po' la stessa cosa del connettore P4, ce n'è solo uno per alimentatore, se per qualche oscura ragione dovessi alimentare due schede madri "te lo prendi nel didietro"
bho?
Davirock
09-09-2004, 12:27
Originariamente inviato da DjLode
Come mai allora i chipset Sis sono sempre stato i più economici pur integrando tutto in un singolo chip?
è vero, ma non hanno mai integrato così tante cose come nforce4, anche in rapporto al periodo in cui sono escite (almeno, in negozio arrivano quando già altri danno le stesse possibilità)
Tieni conto avere 2 chip staccati ha i suoi vantaggi, e penso che ormai tutti li conosciamo.
2 chip più piccoli sono più semplici da costruire e progettare, ci sono meno scarti di produzione, ....
Inoltre, come ho detto prima, se si cosrtuisce un buon southbridge si possono cambiare northbridge, dove ci sono i controller x grafica, processore e ram (x gli A64 la ram no, ovviamente).
Bye
Concordo con Davirock, è un'analisi molto intelligente.
Mastromuco
09-09-2004, 12:36
io dubito fortemente comunque che questa soluzione sia determinata per gli esperti in grafica.
Le schede professionali per far grafica sono ben altre, queste sono unicamente pro-gaming!
Ma a me lo sli per ora sembra più una tamarrata.....
Originariamente inviato da Davirock
è vero, ma non hanno mai integrato così tante cose come nforce4, anche in rapporto al periodo in cui sono escite (almeno, in negozio arrivano quando già altri danno le stesse possibilità)
Tieni conto avere 2 chip staccati ha i suoi vantaggi, e penso che ormai tutti li conosciamo.
2 chip più piccoli sono più semplici da costruire e progettare, ci sono meno scarti di produzione, ....
Inoltre, come ho detto prima, se si cosrtuisce un buon southbridge si possono cambiare northbridge, dove ci sono i controller x grafica, processore e ram (x gli A64 la ram no, ovviamente).
Bye
Lo so, hai ragione, ma era per farti notare che non sempre i chipset ad un chip sono più economici. I chipset Sis (almeno per P4) erano al pari di quelli Intel e superiori spesso ai chipset Via (parlo di integrazione di dotazione e a volta di prestazioni), e credo che anche sulla piattaforma amd se la giocassero.
Il problema è che pure il chipset sdoppiato (intendo quello completo, formato da N e S bridge) sarebbe stato caro percheè i chipset Nvidia sono sempre costati un pelo di più degli altri. Ora si arriva a 25$ che non sono certo pochi.
A dire il vero cmq preferisco avere un solo chipset che fa tutto, dovrebbe goderne anche il layout della mobo.
Originariamente inviato da Mastromuco
io dubito fortemente comunque che questa soluzione sia determinata per gli esperti in grafica.
Le schede professionali per far grafica sono ben altre, queste sono unicamente pro-gaming!
Guarda che quando usciranno le versioni Pci-Ex delle schede Nvidia basate su 6800 in versione Quadro potrai mettere pure quelle. Il problema del "a chi è indirizzato" non è dovuto ai modelli disponibili, ma ai costi da sostenere per poter creare un sistema con due schede.
Con le V2 non c'era da cambiare mobo, qui sì.
Originariamente inviato da DjLode
A dire il vero cmq preferisco avere un solo chipset che fa tutto, dovrebbe goderne anche il layout della mobo.
Io stranamente sono contrario ad averne uno unificato, non mi hanno mai fatto simpatia [:D], anche se la pulizia sulla scheda_mamma è innegabile, ed anche a livello di implementazione dato che è tutto progettato per lavorare all'unisono, vi sono meno possibilità di incorrere in conflitti. Con questo non voglio dire che negli ultimi chipset i produttori non hanno tutti fatto un ottimo lavoro in tal senso, i south_brigde bacati della VIA sono un lontano ricordo.
Ps: ma ti ho visto scrivere su OT stamattina :eek:
Originariamente inviato da Hal2001
Io stranamente sono contrario ad averne uno unificato, non mi hanno mai fatto simpatia [:D], anche se la pulizia sulla scheda_mamma è innegabile, ed anche a livello di implementazione dato che è tutto progettato per lavorare all'unisono, vi sono meno possibilità di incorrere in conflitti. Con questo non voglio dire che negli ultimi chipset i produttori non hanno tutti fatto un ottimo lavoro in tal senso, i south_brigde bacati della VIA sono un lontano ricordo.
C'è di bello che come ha detto Davirock di solito si crea un southbridge che poi rimane per qualche versione (vedi il southbridge del KT400, non ricordo la sigla, che è finito su KT333, KT400 appunto e KT600) e quindi gli integratori possono risparmare ordinandone pezzi più numerosi. Però anche dal fronte della dissipazione un chip scalda di più ma è unico e va raffreddato solo quello. Forse potrebbe però essere un problema per overclock spinti dove magari qualche periferica ne risente. Cmq come dici tu la pulizia è innegabile, i contatti e le piste si riducono e il layout risulta più pulito (con il fatto che magari si possono fare mobo più piccole).
Ps: ma ti ho visto scrivere su OT stamattina :eek:
Ma ogni tanto ci posto, almeno come forum è più "attivo" degli altri e quando i programmi si stanno eseguendo e ho tempo libero leggo e posto pure di là :)
quello che mi dispiace è vedere il costo teorico che avrà il cihpset nForce4 :( non mi sembrauna bella cosa paragonato ai prezzi che hanno i 925x e i chipset via kt800 pro... cmq aspettiamo
PS c'è da dire che l'impiego del nForce4 non prevede il southbridge (se non ricordo male) e quindi magari i prezzi delle mobo si riallineeranno
Paolo Corsini
09-09-2004, 13:42
Originariamente inviato da rmarango
Veramente non e' chiaro se serviranno due ali, l'articolo non e' molto chiaro in proposito... :
"Si notino i due connettori di alimentazione a 6 pin, nuovo standard introdotto con le schede video PCI Express, collegati alle schede GeForce 6800 Ultra; questo rende indispensabile l'utilizzo di appositi alimentatori per le due schede video PCI Express, così che non abbiano problemi d'insufficiente alimentazione dal solo connettore PCI Express 16x"
Forse serve solo un alimentatore con 2 connettori a 6 pin dedicati alle schede ?
Attendiamo chiarimenti...
Eccomi ;)
Ieri ho riguardato quel sistema scoprendo una cosa. Ogni scheda è alimentata, utilizzando il connettore a 6 pin nuovo per schede PCI Express. Ognuno di questi è collegato all'alimentatore per mezzo di due Molex tradizionali a 4 pin, dai quali deriva l'alimentazione corretta.
Ergo: un alimentatore tradizionale va teoricamente bene, anche se dev'essere una soluzione di notevole potenza. Non ho dati ulteriori in merito, ma a questo punto escludo verranno prodotti alimentatori con due connettori 6 pin per schede video PCI Express solo per configurazioni SLI.
Ciao Paolo, ma sei sveglio a quest'ora della notte? :D
Dunque, la scelta di sfruttare due adattatori è notevole, perchè evita di cambiare il parco già installato, ma se occorrono due molex distinti per ognuna scheda video fa un totale di quattro molex. E dubito che anche utilizzando un PSU ricco di cavi [come gli Enermax] si riesca a supperire alla mancanza, quindi bisogna riutilizzare i cavi con degli sdoppiatori. I segnali così però non sono molto puliti.
Occorre spendere dunque qualche decina di euro in più per la qualità oltre che la quantità.
ps: se trovi foto di questi connettori inseriscila in qualche news.
ErPazzo74
09-09-2004, 14:26
ma quanto consumano? 2 molex? Di meglio in peggio.
Cmq a me lo SLI piace, eppoi mi piace scegliere se nn ne varra' la pena non compro la seconda scheda. Cmq ovvio che comprare direttamente 2 schede e' costoso e solo x pochi. Comprarne una, aspettare che cali e poi prenderne un'altra ha + senso.
PS Ma le schede in SLI possono anche essere differenti o sbaglio? Tanto il carico viene ripartito dinamicamente. Cmq vedremo.
Grande fascino lo SLI, io se potessi lo farei subito :)
x me questo delle schede video non serve a nulla..
gia una ha un prezzo eccesivo...chi puo permettersi di acquistarne due???
senza poi parlare del raffredamento e del dispendio di energia
:muro: :muro: :rolleyes:
non credo che le diverse versioni dell'nForce4 implichino anche un diverso chip!
Piu' probabile che le varie opzioni vengano disabilitate, come si fa' con le GPU (tanto di esperienza in tal senso nVidia l'ha da tempo).
Per quanto riguarda il costo dell'nForce4 Ultra (dovrebbe essere questo il nome del dual 16X)
e' piu' che ragionevole che costi 75$, anche perche' lo vedo piu' come un chipset da server/workstation che da desktop, capace di collegare 8 opteron (in contrapposizione proprio al TumWater), in quanto non e' detto che su un PCI-express non verranno in futuro approntate, ad esempio, schede di rete multiple (pensate ad un NAT con 16 X 2 slot = 32 uscite ethernet 1Gbit, o 320 uscite da 100Mbit!).
Che se ne possa fare un uso "compatibile" per desktop e' solo grazie alla versatilita' della piattaforma AMD (non che un towwater non possa andare con un P4 normale), ma per un mercato i nichia, che scoraggia anche i produtori.
D'altronde lo SLI da vantaggi piu' che con le schede di ultima generazione, proprio sulle medie (6600GT) che costano 1/3 e meno delle schede alto di gamma, ma hanno una potenza di 1/2 rispetto a queste (e forse 3/4 visto che dovrebbero garantire overclock maggiori); con un incremento del 50% permette percio' di raggiungere prestazioni maggiori, ma con meno costo (guardando anche la prospettiva di un upgrade e la vendita dell'usato).
comunque a me interessa nForce4 solo per gli 8 serial-ata, sperando che qualche produttore gli implementi tutti!
Originariamente inviato da la_piaga
Lo SLI alleggerisce il carico SOLO in fase di tracciamento, o esecuzione del pixel shader se la vogliamoo mettere in termini "moderni". Il vertex shader, ovvero calcolo di prospettiva, illuminazione, skinning e tutto ciò che nella maggior parte dei casi rappresenta il vero peso nei giochi con un carico poligonale importante deve essere risolto allo stesso modo su ambedue le gpu e non può essere effettuato in modo concorrente.
Per questo un sistema SLI può trarre vantaggio solo in situazioni nelle quali il tracciamento sia esuberante rispetto al resto: pixel shaders complessissimi, risoluzioni altissime e filtri a gogo; ma in linea di massima è impotente su scene pesanti per via del dettaglio geometrico. Morale: a mio modesto parere è una manovra commerciale decisamente fuori dal tempo :(
I giochi sono per la maggior parte cpu limited nella maggioranza delle situazioni, e tutti gli altri sono fillrate limited.
Non credo esistano giochi geometry limited al mondo, in genere i vertex shader sono risorse quasi gratuite.
Lo ZiO NightFall
09-09-2004, 17:54
Originariamente inviato da la_piaga
Lo SLI alleggerisce il carico SOLO in fase di tracciamento, o esecuzione del pixel shader se la vogliamoo mettere in termini "moderni". Il vertex shader, ovvero calcolo di prospettiva, illuminazione, skinning e tutto ciò che nella maggior parte dei casi rappresenta il vero peso nei giochi con un carico poligonale importante deve essere risolto allo stesso modo su ambedue le gpu e non può essere effettuato in modo concorrente.
Per questo un sistema SLI può trarre vantaggio solo in situazioni nelle quali il tracciamento sia esuberante rispetto al resto: pixel shaders complessissimi, risoluzioni altissime e filtri a gogo; ma in linea di massima è impotente su scene pesanti per via del dettaglio geometrico. Morale: a mio modesto parere è una manovra commerciale decisamente fuori dal tempo :(
Sei sicuro? :confused:
Usa un sistema di load balancing dinamico sull'intera scena, senza limitarne l'uso a specifiche istruzioni. Tant'è che anche lo sli di 3dfx era applicato con una tecnica di load balancing statica, a tutta la scena 3d.
Se avessero sviluppato una tecnologia più scadente di quella passata, avrebbero potuto riutilizzare lo sli 3dfx, visto che se l'erano pappata tutta 3dfx.
GiovanniGTS
09-09-2004, 19:24
Meglio una 6800 ultra o due 6600GT in SLI?
Qualcuno dice: compro una 6600GT, passa un po' di tempo e se mi trovo in difficolta' uppgrado aggiungendone un'altra (nel frattanto ho risparmiato)!
Mah! facciamo finta che cio' avvenga!
compro una 6600GT!
dopo 4 mesi compro un'altra 6600GT!
nel frattempo sono uscite le DirectX10 e il mio sistema non le sfruttera'!
risultato? ho giocato in 4 mesi con una 6600GT invece che con una 6800ultra! ma quando la mia 6800ultra sara' "vecchia"! allora lo saranno anche le due 6600GT in SLI!
Morale?
Le due soluzioni vanno confrontate oggi e non si puo' parlare di futuro! nessuna delle due soluzioni ha tecnologie che si adattano o sfruttano al 100% i giochi o il software applicativo del futuro!
FAgianPIppo
09-09-2004, 21:39
si basta che non abbiano la necessita come le ram di essere gemelle x andare in dual
Ragà lo sli è una cosa molto utile!! Per il semplice fatto che se ti compri una 6800ultra adesso tra 6 mesi varrà la metà e ci saranno schede più veloci del 60% che costeranno il doppio di una 6800 ultra... invece di cambiare scheda ne compri un'altra e walà! HAi maggiori prestazioni spendendo -....!
Davirock
09-09-2004, 22:24
Originariamente inviato da DjLode
Lo so, hai ragione, ma era per farti notare che non sempre i chipset ad un chip sono più economici. I chipset Sis (almeno per P4) erano al pari di quelli Intel e superiori spesso ai chipset Via (parlo di integrazione di dotazione e a volta di prestazioni), e credo che anche sulla piattaforma amd se la giocassero.
Il problema è che pure il chipset sdoppiato (intendo quello completo, formato da N e S bridge) sarebbe stato caro percheè i chipset Nvidia sono sempre costati un pelo di più degli altri. Ora si arriva a 25$ che non sono certo pochi.
A dire il vero cmq preferisco avere un solo chipset che fa tutto, dovrebbe goderne anche il layout della mobo.
Non posso far altro che concordare!
OT: avete notato quanto sia bella questa discussione? nelle ultime settimane non è stato propio così. Complimenti a tutti e scusate per l'OT!
Bye
la_piaga
10-09-2004, 01:52
X fek. A dire il vero il collo di bottiglia sugli engines odierni è solitamente la scheda video, come dimostrano i tests effettuati su doom3: al crescere della potenza computazionale della cpu le performances non salgono a parità di gpu.
E fidati, le unità di vertex shading sono una risorsa affatto non gratuita, tutt'altro.
x lo zio nightfall. Si, sono sicuro.
Ma quale load balancing statico faceva scusa la voodoo2, che manco aveva il T&L? Come riporta il nome: Scan Line Interleaving ovvero avendo ognuna la stessa scena precalcolata (via cpu) e le stesse textures nella propria memoria tracciavno una riga di pixels ciascuna.
DioBrando
10-09-2004, 16:20
è da quando ancora si vociferava nelle news della modalità SLI prevista per le nuove Geforce che dico che è una vaccata...
la mia opinione resta la stessa...e il fatto che Nvidia n voglia scoprire le sue carte k si può presumere voglia aspettare l'Nforce4 ma se fosse realmente una "killer application" sarebbe un ottimo motivo per pubblicizzare e spingere già adesso le NV4x sopra le ATI.
Insomma IMHO un motivo in + per diffidare...
Originariamente inviato da la_piaga
X fek. A dire il vero il collo di bottiglia sugli engines odierni è solitamente la scheda video, come dimostrano i tests effettuati su doom3: al crescere della potenza computazionale della cpu le performances non salgono a parità di gpu.
E fidati, le unità di vertex shading sono una risorsa affatto non gratuita, tutt'altro.
Ti chiedo io di fidarti di me, passo le giornate a cercare i colli di bottiglia nei motori 3d ;)
Doom 3 poi e' un esempio di motore fortemente cpu limited in diverse situazioni, visto che lo skinning dei personaggi e buona parte del calcolo degli shadow volume e' effettuato dalla cpu. E' ovvio che salendo in risoluzione ed attivando i filtri il collo di bottiglia si sposta in fase di rasterizzazione e anche Doom 3 diventa fillrate bound, ma sarebbe strano accadesse il contrario. Ricordati che il collo di bottiglia non solo cambia da risoluzione a risoluzione, ma cambia spesso da frame a frame, addirittura puo' cambiare all'interno dello stesso frame. Ho visto situazioni nelle quali per la meta' del frame il collo di bottiglia era negli shader e poi, in una situazione con pattern di accesso alla texture particolarmente strani, diventare immediatamente texture limited, per poi diventare cpu limited sul sistema particellare.
Insomma, e' un casino :D
Una cosa invece e' certa, non ho mai ne' visto ne' sentito da parte di ingegneri nvidia o ati, alcun gioco che fosse pesantemente geometry bound e il motivo e' piuttosto semplice: per diventare geometry bound si devono disegnare molti poligoni con lo stesso stato (stesse texture, stati di rendering, alpha blendind etc etc) ed e' una situazione particolarmente rara, perche' di solito gli oggetti tendono ad aver bisogno di texture diverse e stati diversi. Il risultato netto e' che ci si ritrova a spedire pochi poligoni, cambiare stato, spedire pochi poligoni, cambiare stato, per tutta la durata del frame. L'ultima volta che ho parlato con Mark Harris di nvidia mi ha detto che la maggior parte dei giochi sui quali ha fatto profiling non superavano i 200 poligoni per batch. In queste condizioni si diventa immediatamente cpu bound e si combatte letteralmente per spostarsi ad essere geometry bound (il geometry instancing e' una delle tecniche a disposizione, oppure impacchettare tante texture diverse in una sola, ma ora scenderei troppo nel dettaglio, cosa che non ci interessa).
In sintesi, le unita' vertex shader sono praticamente gratuite e si cerca di spostare piu' calcoli possibile dalla CPU ai vertex shader per alleggerire il carico della prima. Ho visto solo una situazione vertex shader limited in piu' di 4 anni di lavoro: il pelo della creature di Black&White 2 dove spesso ci sono addirittura piu' vertici che pixel! Ma e' un collo di bottiglia solo per un 25% circa del frame.
è consigliabile chiedere un aumento della potenza elettrica domestica all'enel con una scheda del genere? :)
zoboliluca
11-09-2004, 10:11
tranne in ambito professionale non credo che lo SLI avra molto successo. L'idea di comprare una scheda oggi e una seconda scheda tra 6 mesi o 1 anno mi sembra poco valida. Considerando il tasso di evoluzione del settore tra un anno avremo la nuova generazione di GPU e le nuove DirectX 10. E' vero che le schede DirectX 9 saranno utilizzabili senza problemi per 2 o tre anni, ma quante persona saranno disposte tra un anno a comprare una scheda della vecchia generazione, quando e' gia disponibile la nuova? Qualcuno sicuramente, ma la maggioranza secondo me vendera' la vecchia per comprare la nuova come e' sempre stato. RIFLESSIONE: puntando all'acquisto della seconda scheda sul mercato dell'usato rimane il problema di trovare il connettore SLI, se verra' venduto solo con la seconda scheda prevedo un caccia al connettore sul mercato dell'usato.
BOH. Staremo a vedere, tanto io devo aspettare almeno 6 mesi per comprare una nuova scheda video (rigorosamente PCI-Express).
PS. Anche la necessita di dover cambiare l'alimentatore mi sembra un grosso enorme limite.
CIAO
la_piaga
11-09-2004, 13:01
x fek
Innanzi tutto, se è come dici, devo ricredermi riguardo all'abilità di Carmack come programmatore, dal momento che avrebbe spostato sulla cpu tasks come skinning e generazione degli shadow volumes che possono essere praticamente effettuati interamente via vs, quindi gratis.
Scusami, sarò di coccio ma non capisco perchè la generazione di stalli dovuta al cambio di stato della gpu porti ad essere cpu limited.
Comunque, alla fine dipende da che genere di calcoli devi fare sui vertici, che tu abbia o meno una scena ottimizzata per ridurre al minimo i cambi di stato, finchè effettui solo le trasformazioni per la camera ok, te lo concedo mediamente le unità di vs sono esuberanti, ma quando cominci a lavorare sulla luce è tutto un altro affare.
Alla fine della fiera poi,ognuno parla per esperienza personale: io trovo le unità di vertex shading deboli, tu le trovi esuberanti.
edit: non avevo messo il destinatario... :)
Originariamente inviato da la_piaga
Innanzi tutto, se è come dici, devo ricredermi riguardo all'abilità di Carmack come programmatore, dal momento che avrebbe spostato sulla cpu tasks come skinning e generazione degli shadow volumes che possono essere praticamente effettuati interamente via vs, quindi gratis.
Non c'e' bisogno di ricredersi sulle abilita' di Carmack, in realta' e' tutto il frutto di alcune scelte a livello architetturale e come spesso accade tutte le scelte hanno pro e contro, si tratta di scegliere in base alle proprie esigenze.
Nel caso delle stencil shadow ci sono tre modi per calcolare gli shadow volume:
1) tutto nella cpu, compresa l'estrusione
2) ibrido, calcolo della silhouette nella CPU ed estrusione nella GPU
3) tutto nella gpu, attraverso l'inserimento di geometria degenere
Doom3 usa il metodo 2), Riddick su xbox usa il 3).
Il metodo 2) ha il vantaggio di non richiedere geometria degenere, che aggiungerebbe un costo in termini di vertici da processare pari a circa il doppio. Ha pero' lo svantaggio di richiedere anche lo skinning nella CPU e lo skinning e' un'operazione nella quale i vertex shader sono specializzati. Inoltre la generazione di shadow volume a partire da geometria animata (skinning) non presenta difetti.
Il metodo 3) non richiede il carico della CPU, ma richiede piu' geometria e non si sposa bene con la geometria animata. Esistono tecniche per risolvere il problema, ma ogni tanto generano ombre spurie (lo puoi notare sempre in Riddick).
Carmack scelse il metodo 2), io ad esempio scelsi il metodo 3) un paio di anni fa. Non saprei dire quale dei due e' il migliore, dipende davvero dall'applicazione. Secondo me (e non solo) il problema e' nelle stencil shadow, tanto e' vero che ora uso lo shadow mapping anche perche' tutta la ricerca si sta indirizzando in questo senso.
Scusami, sarò di coccio ma non capisco perchè la generazione di stalli dovuta al cambio di stato della gpu porti ad essere cpu limited.
No no, non sei tu di coccio, anzi. E' un problema abbastanza oscuro e non molto intuitivo.
I problemi sono due:
1) Software: Direct3D ha un overhead molto pesante nel momento in cui si spedisce un "pacchetto" di geometria al driver e poi alla scheda grafica
2) Hardware: quando si cambia uno stato di rendering, molte cache interne alla GPU vengono svuotate e la pipeline di rendering arrestata e fatta ripartire
Il primo problema e' specifico delle D3D e riguarda il protocollo di comunicazione fra le D3D e il driver che pilota la GPU. Senza entrare troppo nel dettaglio ci sono di mezzo alcune copie di buffer ridondanti in questo processo. Pensa che mandare un pacchetto con un triangolo oppure un pacchetto con circa 1000 triangoli richiede lo stesso tempo CPU. In altre parole, se hai un oggetto di 100 poligoni, sei totalmente CPU bound e puoi aggiungere altri 900 poligoni perche' sono gratuiti. La media nei giochi odierni si aggira attorno ai 200/300 poligoni a pacchetto, quindi i giochi sono per la maggior parte CPU bound. Per avere giochi vertex bound dovresti avere una media di 3000/5000 poligoni a pacchetto con vertex shader molto complessi. Capisci che e' una situazione molto rara e se pensi che motori come Doom3 processano ogni vertice prima nella CPU e poi lo mandano alla GPU, capisci come salendo col numero di poligoni e' piu' facile che diventi CPU bound piuttosto che GPU bound.
Va detto che questo problema e' molto minore in OpenGL.
Il problema hardware invece e' intrinseco all'architettura delle GPU e non ha soluzione se non minimizzare il numero di cambi di stato.
Comunque, alla fine dipende da che genere di calcoli devi fare sui vertici, che tu abbia o meno una scena ottimizzata per ridurre al minimo i cambi di stato, finchè effettui solo le trasformazioni per la camera ok, te lo concedo mediamente le unità di vs sono esuberanti, ma quando cominci a lavorare sulla luce è tutto un altro affare.
Alla fine della fiera poi,ognuno parla per esperienza personale: io trovo le unità di vertex shading deboli, tu le trovi esuberanti.
Non e' tanto una questione di esperienza personale, ma piu' una questione molto tecnica. Basta fare qualche calcolo: ammettiamo che un vertex shader richieda mediamente lo stesso tempo di un pixel shader per essere eseguito (non e' vero in generale, ma semplifichiamo un po' per capirci). In una scena tipica quanto vertici vengono processati? Quanti pixel?
Buttiamo giu' qualche numero: una X800XT di ATI e' in grado di processare circa 150 milioni di vertici al secondo, con uno shader molto semplice. All'aumentare del numero di istruzioni, il throughput massimo cala di circa meta' ogni dieci istruzioni. Diciamo che un vertex shader medio puo' processare circa 30 milioni di vertici al secondo, che a 30fps vogliono dire circa 1 milione di vertici per scena. Da altri calcoli si sa che un P4 a 3ghz puo' processare circa 2000 pacchetti di geometria per frame. Ammettiamo quindi una media di 500 poligoni a pacchetto, che e' realistica.
Ora, a 1280x1024 con un overdraw di 2 (ogni pixel e' processato di media due volte per i calcoli di visibilita'), la GPU deve processare qualcosa tipo 3/4 milioni di pixel per frame. Parliamo di 3 o 4 volte il numero di vertici. Mi sto tenendo stretto, perche' in realta' l'overdraw e' spesso molto piu' alto e il numero di poligoni piu' basso. Da questi numeri si capisce che diventare geometry bound e' un'impresa ardua e che le unita' di vertex shader non rappresentano praticamente mai un collo di bottiglia.
Tutto questo fiume di parole per arrivare al topic vero e proprio: secondo me lo SLI e' un interessante esperimento tecnologico, ma al momento ha poco mercato e non lo trovo molto sensato. In futuro le cose potrebbero cambiare, ma vedo piu' soluzioni biprocessore sulla stessa scheda.
Originariamente inviato da fek
In futuro le cose potrebbero cambiare, ma vedo piu' soluzioni biprocessore sulla stessa scheda.
Ho tagliato tutto il resto anche se l'ho letto, vedi più probabile più gpu singole o più core nella stessa gpu?
Originariamente inviato da DjLode
Ho tagliato tutto il resto anche se l'ho letto, vedi più probabile più gpu singole o più core nella stessa gpu?
Non saprei davvero. Immagino che seguiranno i passi delle CPU in futuro.
la_piaga
11-09-2004, 17:02
Ok, se evitiamo di spostare shadows e skinning (a parte il fatto che si potrebbe usare un quarto sistema a metà fra il 2 ed il 3...) sulla cpu, non capisco la necessità di spedire tutti sti pacchetti di geometria: tu non lavori (in linea di principio) con le mesh residenti in memoria video spedendo solo le matrici di trasformazione?
Per quanto riguarda i calcoli che mi proponi, sicuro che in teoria funzionano, ma non so per quale dannato motivo (probabile mia incapacità) a casa mia teoria e pratica per quanto riguarda la potenza computazionale delle gpu differiscono ed anche parecchio.
Io personalmente ho notato un pesante difetto di prestazioni sull'esecuzione dei vs, ad esempio (ti porto un esempio vecchiotto perchè ricordo al volo le cifre) un nv25 ha alzato bandiera bianca a circa 2.5 milioni di triangoli completamente geometry bound, con uno shader che calcola la prospettiva e fa un vertex lighting direzionale. Forse mi sfugge qualcosa...
Originariamente inviato da la_piaga
Ok, se evitiamo di spostare shadows e skinning (a parte il fatto che si potrebbe usare un quarto sistema a metà fra il 2 ed il 3...) sulla cpu, non capisco la necessità di spedire tutti sti pacchetti di geometria: tu non lavori (in linea di principio) con le mesh residenti in memoria video spedendo solo le matrici di trasformazione?
Si', chiaro, si lavora con la geometria in memoria video. Le copie al momento della chiamata di una DrawIndexedPrimitive (quando spedisci le informazioni sul pacchetto da renderizzare) non riguardano la geometria ma il buffer di comandi per la GPU (disegna, cambia questo stato, disegna quello, etc). Gia' solo spedire la matrice di trasformazione e' un cambio di stato che flusha parti della pipeline :)
Per quanto riguarda i calcoli che mi proponi, sicuro che in teoria funzionano, ma non so per quale dannato motivo (probabile mia incapacità) a casa mia teoria e pratica per quanto riguarda la potenza computazionale delle gpu differiscono ed anche parecchio.
Io personalmente ho notato un pesante difetto di prestazioni sull'esecuzione dei vs, ad esempio (ti porto un esempio vecchiotto perchè ricordo al volo le cifre) un nv25 ha alzato bandiera bianca a circa 2.5 milioni di triangoli completamente geometry bound, con uno shader che calcola la prospettiva e fa un vertex lighting direzionale. Forse mi sfugge qualcosa...
Io ti sto parlando di pratica non di teoria. Secondo me non ti sfugge nulla, perche' hai ragione nel dire che un NV25 era un po' deboluccio nei vertex shader, tanto e' vero che su NV25 si preferisce fare skinning sulla CPU perche' enormemente piu' veloce. Ma io ti sto parlando delle ultime due generazioni che sono assolutamene strabordanti in quanto a potenza geometrica.
fek, volevo farti la stessa domanda di DjLode: sono approcci molto diversi il dual_core, dall'utilizzo di gpu in smp. Vedo la prima ipotesi molto più realistica, ma con la già complessa struttura, si arriveranno ad avere dimensioni troppo elevate. Le attuali gpu top di nVIDIA sono basate sullo 0.13u ed il die arriva quasi ai 300 mm2, anche considerando che si scenderà ai 0.11u anche per quelle top entro fine anno/inizio del prossimo, c'è da considerare che i futuri chip saranno ancora più complessi.
Purtroppo non saprei che dire perche' io sono piuttosto debole sull'hardware. Yossarian sarebbe certo piu' indicato per avere un'opinione autorevole sulla questione.
Mi occupo solo del lato software e gia' quando mi parli di processi di produzione vado in crisi :)
Originariamente inviato da fek
Secondo me (e non solo) il problema e' nelle stencil shadow, tanto e' vero che ora uso lo shadow mapping anche perche' tutta la ricerca si sta indirizzando in questo senso.
Te lo ricordi un gioco di qualche anno fa di nome Severance: Blade Of Darkness che faceva shadow mapping via CPU con una buona resa qualitativa e anche piuttosto velocemente? Miracolo di programmazione?
Originariamente inviato da fek
Da questi numeri si capisce che diventare geometry bound e' un'impresa ardua e che le unita' di vertex shader non rappresentano praticamente mai un collo di bottiglia.
Perché allora i VS, che non sono un collo di bottiglia nelle GPU dall'R300 in poi, sono usati in maniera MOLTO minore rispetto ai PS, anche se questi sono molto più pesanti da eseguire?
Originariamente inviato da MaBru
Perché allora i VS, che non sono un collo di bottiglia nelle GPU dall'R300 in poi, sono usati in maniera MOLTO minore rispetto ai PS, anche se questi sono molto più pesanti da eseguire?
Una questione di qualita', si preferisce fare i calcoli non lineari per pixel perche' forniscono risultati qualitativamente migliori.
dragunov
01-10-2004, 10:47
mah io sono scettico!
Max Payne I
17-10-2004, 20:04
Visto che hanno riesumato lo SLI da 3dfx, perchè non riesumano l'espan. di memoria in stile Matrox???
Sarebbe un'idea geniale: vuoi giocae ad Unreal 3???
Invece di comprare una nuova scheda video con 1-2Gb di ram o due in sli, aumenta la mem da 512mb a 4gb :D così invece di spendere 1000€ ne spendi 500€.
Ma tanto anche se lo facessero come minimo le ram costerebbero quasi quanto una scheda video.:confused: :mad:
MiKeLezZ
18-10-2004, 10:14
Come se cambiasse qualcosa da 128MB a 256MB :|
Figurati fra 10 anni quando ci sarà unreal 12 quanto sarà utile avere una scheda vecchissima ma con 4GB di ram
duluoz2005
18-01-2005, 14:31
Ho ricevuto una news letter da parte di Enerpoint Computers (ENERMAX ITALIA) che ci sono già 2 alimentatori sul mercato adatti proprio a questa VGA:
EG565AX-VE(G) e EG701AX-VH(W)SFMA
e dal prossimo mese:
EG565AX-VH(W) SFMA e EG701AX-VE(W)SFMA
tutti questi alimentatori sono studiati con un doppio connettore PCI Express per permettere l'alimentazione SLI
cdimauro
19-01-2005, 08:37
Originariamente inviato da Max Payne I
Visto che hanno riesumato lo SLI da 3dfx, perchè non riesumano l'espan. di memoria in stile Matrox???
Sarebbe un'idea geniale: vuoi giocae ad Unreal 3???
Invece di comprare una nuova scheda video con 1-2Gb di ram o due in sli, aumenta la mem da 512mb a 4gb :D così invece di spendere 1000€ ne spendi 500€.
Ma tanto anche se lo facessero come minimo le ram costerebbero quasi quanto una scheda video.:confused: :mad:
Ti sei accorto della differenza di velocità fra le ram montate nelle schede video e quelle per la CPU? Notevole.
Questo si verifica proprio perché i chip di memoria vengono saldati vicino alla GPU, riducendo notevolmente la distanza e quindi le interferenze dei segnali.
leoneazzurro
19-01-2005, 09:46
Originariamente inviato da Hal2001
fek, volevo farti la stessa domanda di DjLode: sono approcci molto diversi il dual_core, dall'utilizzo di gpu in smp. Vedo la prima ipotesi molto più realistica, ma con la già complessa struttura, si arriveranno ad avere dimensioni troppo elevate. Le attuali gpu top di nVIDIA sono basate sullo 0.13u ed il die arriva quasi ai 300 mm2, anche considerando che si scenderà ai 0.11u anche per quelle top entro fine anno/inizio del prossimo, c'è da considerare che i futuri chip saranno ancora più complessi.
Le GPU attuali sono già, in un certo senso, "multi core", ossia hanno un elevato numero di unità di esecuzione i cui compiti sono equamente divisi (alto grado di parallelismo). Ad esempio già R420 potrebbe essere visto come un "R300 dual core". Il problema, come dici bene, è che realizzare questi mostri di silicio non è semplice, core grandi hanno rese più basse, maggiori costi di produzione e via così. Oltretutto aumentando le unità di esecuzione si dovrà ad un certo punto aumentare ulteriormente la "larghezza" dei bus interni con ulteriore aumento della complessità del singolo chip.
Di contro avere un sistema multi-VPU semplifica il design del chip base, ma complica tutto ciò che è al contorno: circuiti di alimentazione, PCB e via dicendo. Ad esempio, il fatto che si siano già prodotte schede con doppio Geforce 6600 GT (bus memorie a 128 bit, potenza assorbita relativamente non troppo elevata) e non ad esempio con un doppio 6800 GT (256 bit con la memoria, potenza assorbita rilevante, a parte eventuali discorsi riguardanti lo scarso mercato di una simile scheda) potrebbe essere indicativo che ci possono essere problemi anche in questa direzione.
X1l10on88
24-11-2005, 16:27
Che bello andarsi a leggere gli articoli di quando una tecnologia che oggi utilizziamo tranquillamente era confutata come poco probabile ed inarrivabile... :D
cdimauro
25-11-2005, 09:08
Nessuno ha mai detto che sarebbe stata inarrivabile. Tutt'altro. Infatti i requisiti di alimentazione e il consumo delle soluzioni SLI confermano pienamente le perplessità sollevate su questi sistemi.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.