PDA

View Full Version : Ritorna SLI: NVIDIA si lancia nelle soluzioni dual card


Redazione di Hardware Upg
29-06-2004, 14:40
Link alla notizia: http://news.hwupgrade.it/12698.html

La mitica soluzione Dual Card di 3dfx ritorna grazie a NVIDIA, che si prepara a lanciare una nuova soluzione GeForce 6800 in setup SLI, sia per gaming che per workstation

Click sul link per visualizzare la notizia.

Dumah Brazorf
29-06-2004, 14:47
Hola! Con un giorno di ritardo ma anche qui ci siamo!
Ciao.

Roryman
29-06-2004, 14:48
Sul fattore prestazioni degli incrementi decenti si vedrebbero solo ad altissime risoluzioni comunque rimango perplesso sul fattore consumo..anche se una soluzione simile non è certo rivolta ad un utente comune..

dwfgerw
29-06-2004, 14:57
ragazzi però dovete considerare che questa soluzione sarà estremamente interessante per le catene di workstation votate per il rendering (e per l'industria cinematografica) che si può permettere schede Xeon dual pci express.
Per noi comuni mortali basta e avanza una 6800!

DestinyXP
29-06-2004, 14:58
piu' che sul fatto consumo, c'è da calcolare la spesa doppia di due schede!
e comunque come hai detto anche tu, si vedrebbero differenze solo ad alte risoluzioni e con AA attivato.
comunque c'è da dire che se le fanno, c'è sempre qualcuno che le compra.... anche se alla fine non so fino a che punto ne valga la pena spendere il doppio quando il software in commercio si basa maggiormente a livello di potenza di calcolo su schede video di fascia media.
per i fanatici delle altissime risoluzioni e AF e AA a go go , ne andranno pazzi!

nonikname
29-06-2004, 15:03
http://www.3dchips-fr.com/images/news/1088486854.jpg

dwfgerw
29-06-2004, 15:08
come ripeto questa è una soluzione che verrà molto applaudita dai creatori di effetti speciali per i film o per pesantissime simulazioni grafiche.

DestinyXP
29-06-2004, 15:14
non penso che a fare effetti speciali per i film usino roba commerciale come questa.....
e ne tantomeno effetti che ritroviamo noi sul monitor...
quella e altra cosa.

DARIO-GT
29-06-2004, 15:42
Certo che un bel Chipset nForce4 + 2belle 6800 in SLI, non mi dispiacerebbero affatto, magari il prossimo anno gli farò un pensierino :D (si...e i soldi dove li prendo? :asd: )
Mi sà che resterà un sogno, ancora per molto tempo, almeno per me :p

erupter
29-06-2004, 15:44
Mah....
Se riescono a mettere daccordo 2 schede su 2 slot, viste come 2 schede separate dal sistema operativo....
Perchè non mettere 2 gpu sulla stessa scheda?
Soldi?
Ma no! Ma dai? Ma perchè! :rolleyes:

Proprio strnzi!
Se ci hanno fatto anche la spina sul pcb, significa che l'hanno pensato in fase di progettazione...
Ora io mi chiedo però: non avrebbe più mercato una scheda con 2 gpu che non 2 schede che necessitano di una certa scheda mamma?
Io non ce le vedo
Abit,Asus,MSI,Intel,Via,ECS e tutte le altre a fare schede mamme con doppio pci-e 16x...
A chi pensano di venderle ste schede?
Mah....
Poi come dicono gli altri giustamente, per i rendering professionali sono altre le soluzioni adottate, non schede da gioco che hanno 0 ottimizzazioni....
Certo una soluzione Quadro la faranno, ma di nuovo: perchè 2 slot e non una scheda doppia?
Mah, chi li capisce è bravo... :rolleyes:

luck134
29-06-2004, 16:02
Ragazzi sapete che meno del 5% dei giocatori possiede una scheda DX9? La maggior parte possiede vga come Geffo 4 MX o integrate (o comunque, nel migliore dei casi, schede entry-level).
Possibile che una GeForce 6800 Ultra, che è per altro cpu/agp limited, non ci basti? siamo veramente cosi viziati? no comment. :rolleyes:

DioBrando
29-06-2004, 16:08
Originariamente inviato da dwfgerw
come ripeto questa è una soluzione che verrà molto applaudita dai creatori di effetti speciali per i film o per pesantissime simulazioni grafiche.

quelle persone di una 6800 n se ne fanno niente a parte giocare.
Per gli scopi da te citati vengono utilizzate schede non da 500Euro ma da migliaia di Euro accompagnate da hw di prima scelta in primis monitor che un pvt generalmente n si può permettere...

E dato che una 9800 Pro è ancora un'ottima scheda che viene sfruttata interamente da un parco di titoli che si conta sulle dita di una mano, figurarsi cosa potrà fare una 6800 per i prox mesi ( sempre che le sw houses decidano di non ottimizzare + codici e algoritmi pur di saturare la potenza di calcolo di queste nuove GPU e accontentare il mercato che và avanti)...

morale IMHO una doppia scheda grafica è perfettamente inutile :rolleyes:...si concentrassero su altro ad es il Pixel Shader 3.0 invece di stare dietro a ste boiate :muro:

maxfl
29-06-2004, 16:27
Originariamente inviato da UltimateBou
conviene di più vendere 2 schede che vendere una scheda a doppio chip, perchè la scheda a doppio chip ipoteticamente avendo simili prestazioni di una doppia scheda, non la potresti vendere al doppio del prezzo :D



E' interessante questa cosa. Se è tecnicamente possibile realizzare una scheda con doppio chip con le stesse prestazioni di due schede in SLI, allora questa potrebbe essere la contromossa di ATI, poichè per avere due 6800 ultra si spenderebbero circa 1200€, mentre ATI potrebbe vendere le proprie schede a 800/900€ con un evidente risparmio da parte degli utenti. Però questà e solo un'ipotesi

sirus
29-06-2004, 16:31
quote:
--------------------------------------------------------------------------------
Originariamente inviato da dwfgerw
come ripeto questa è una soluzione che verrà molto applaudita dai creatori di effetti speciali per i film o per pesantissime simulazioni grafiche.
--------------------------------------------------------------------------------
quelle persone di una 6800 n se ne fanno niente a parte giocare.
Per gli scopi da te citati vengono utilizzate schede non da 500Euro ma da migliaia di Euro accompagnate da hw di prima scelta in primis monitor che un pvt generalmente n si può permettere...

E dato che una 9800 Pro è ancora un'ottima scheda che viene sfruttata interamente da un parco di titoli che si conta sulle dita di una mano, figurarsi cosa potrà fare una 6800 per i prox mesi ( sempre che le sw houses decidano di non ottimizzare + codici e algoritmi pur di saturare la potenza di calcolo di queste nuove GPU e accontentare il mercato che và avanti)...

morale IMHO una doppia scheda grafica è perfettamente inutile ...si concentrassero su altro ad es il Pixel Shader 3.0 invece di stare dietro a ste boiate


io continuo (anche se limitato) con la mia geforce 2 MX 200 :D

Andrea Bai
29-06-2004, 16:31
Originariamente inviato da Dumah Brazorf
Hola! Con un giorno di ritardo ma anche qui ci siamo!
Ciao.

Mi sfugge l'utilità del commento. Ho provado a cercare di comprenderla, ma davvero mi sfugge.

Purtroppo, o per fortuna, dietro le pagine di Hardware Upgrade lavorano delle persone. Persone che, non essendo automi, possono talvolta incappare in qualche problema per così dire "logistico". Si cerca sempre di "stare dietro alla notizia" con il massimo impegno, ma a volte per mille motivi, spesso non dipendenti da noi, non ci è possibile essere tempestivi come spesso abbiamo dimostrato di essere.

Buona serata

Mad Penguin
29-06-2004, 16:41
una cosina..... ma con la seimilaeotto non bisognava mettere già 2 molex?

Dunque ora 4 molex....

ergo devi metterti un secondo alim :D

che gran fesseria....

Dumah Brazorf
29-06-2004, 17:03
Originariamente inviato da Andrea Bai
Mi sfugge l'utilità del commento. Ho provado a cercare di comprenderla, ma davvero mi sfugge.

Purtroppo, o per fortuna, dietro le pagine di Hardware Upgrade lavorano delle persone. Persone che, non essendo automi, possono talvolta incappare in qualche problema per così dire "logistico". Si cerca sempre di "stare dietro alla notizia" con il massimo impegno, ma a volte per mille motivi, spesso non dipendenti da noi, non ci è possibile essere tempestivi come spesso abbiamo dimostrato di essere.

Buona serata

Uhe l'hai fatta giù un po' troppo tragica non volevo offendere ne essere sarcarstico.
Dovevo mettere una faccina in fondo... :(
Come utilità siamo rasenti lo 0 effettivamente... :D
Ciao.

Dumah Brazorf
29-06-2004, 17:04
Originariamente inviato da Mad Penguin
una cosina..... ma con la seimilaeotto non bisognava mettere già 2 molex?

Dunque ora 4 molex....

ergo devi metterti un secondo alim :D

che gran fesseria....

Naaah con il PCI-Express gran parte dell'alimentazione passa dalla mobo e ne basta solo uno di molex.
Ciao.

Marino5
29-06-2004, 17:45
per le 6800 pci-ex servirà il molex speciale (quello nero quadrato), uno per scheda.. in caso di alimentatore senza quel molex, esiste un adattatore che prende elettricità da due molex tradizionali: ergo, 4 molex in tutto x alimentatore classici, 2 per quelli predisposti.. ma si tratta di una soluzione estrema e chi la compra si compra pure l'alimentatore..
per quanto riguarda invece il dual chip, la realizzazione è molto più costosa per l'azienda, per via soprattuto di consumi energetici (già così la 6800 ha dei pcb e dei condensatori assurdi..) e del calore (che dissi ci vuole per 2 gpu così complesse?!?!), nonchè dello spazio (una seconda voodoo5 6000 come dimensioni non sarebbe ben vista..)..insomma, il dual chip sarebbe assolutamente antieconomico, quindi non credo se ne vedranno..forse da parte di ati, ma la vedo lo stesso piuttosto difficile...
ah, cmq per i produttori di mobo sviluppare una soluzione dual pci-ex 16 non è cosa da poco: fare una mobo vuol dire: progettare il design, creare una catena produttiva, investire molti molti soldi e se il progetto va male o non vende, sono grosse perdite.. sono sicuro che usciranno delle mobo x socket 939 e specialmente 940, ma saranno volte al mercato pro piuttosto che quello gamer, imho..

p.s.: non capisco la gente che continua a scrivere nei commenti alle news cosa farà, cosa comprerà ecc ecc.. questo spazio non è la sezione del consiglio per gli acquisti, nè la critica a chi scrive, ecc ecc.. si commenta il testo contenuto nella pagina, senza dire quando verrà cambiata vga o processore o quanto è potente la propria configurazione, anke xkè a chi legge non interessa minimamente..
grazie.

pentothal
29-06-2004, 18:16
...bhè.. la PCI-express nasce come sostituzione della classica PCI... pertanto nel futuro tutte le MODO saranno equipaggiate solo con PCI-Express...
Del resto credo che in questi giorni tutte queste novità sono solo elaborazioni tecnologiche per "far vedere" quanto sono fregni... piuttosto ke una realtà da mercato... almeno per un'annetto buono, forse pure 2!!!

Modhi
29-06-2004, 19:50
Mah allora sulla questione che possa essere utilizzata per effetti grafici cinematografici, non ci giurerei molto, anzi credo che proprio manco le prendano in considerazione queste schede.

Altra cosa, devo dire che ai tempi della 3DFX SLI era una cosa che ho sfruttato, e l'idea di potermene avvalere anche oggi mi alletta un casino, se non fosse, che ai tempi della 3DFX una motivazione per tale configurazione poteva anche averla, visto che si utilizzavano le GLIDE e i tempi di sviluppo delle DX erano alquanto + lunghi.
Al giorno d'oggi compro due schede in SLI, tutti diranno che tale potenza durerà un casino, minimo minimo 2-3 anni forse anche di più, poi in pratica tutti a rosicare perchè 6 mesi dopo escono le DX 9.0c.0.0.1.a.e.r ultimate edition e non saranno compatibili via hardware, quindi perderà circa 0,5 FPS aiutoooooo!!!!

Quindi, ovviamente IMHO, meglio prendersi un GT o un X800 pro e poi cambiarla quando sarà necessario, sempre con una scheda di fascia media compatibile con le nuove DX.

krokus
29-06-2004, 21:35
Mi sorgono un paio di domande:
Quale sarà il rendimento di un sistema del genere? La tecnica utilizzata ricalca quella dei cluster load balancing, quindi dobbiamo ragionare in termini simili?
E' necessario e possibile ottenere la perfetta sincronizzazione tra le due schede?
Come mai solo ora nVida sfodera questa tecnologia? Come può questa soluzione essere migliore di due chip sulla stessa scheda, soluzione che si è già dimostrata non conveniente?
Sarò un santommaso, ma io la vedo troppo facile....
...così come vedo una Radeon X800 MAXX all'orizzonte....

giagiu
29-06-2004, 23:22
Originariamente inviato da pentothal
...bhè.. la PCI-express nasce come sostituzione della classica PCI... pertanto nel futuro tutte le MODO saranno equipaggiate solo con PCI-Express...
Del resto credo che in questi giorni tutte queste novità sono solo elaborazioni tecnologiche per "far vedere" quanto sono fregni... piuttosto ke una realtà da mercato... almeno per un'annetto buono, forse pure 2!!!
beh sarà interessante quando le schede da mettere in SLI costeranno poco.però se accade come con le voodoo2,se non sbaglio,conveniva una nuova Voodoo3 piuttosto che due voodoo2 in sli.dipenderà da l rapporto prezzo/prestazioni effettive.certo per chi ha moolti soldi e mette due schede da 600 euro in SLI... bè! :rolleyes:

erupter
30-06-2004, 00:57
Mi sembra che a questo proposito ci sia un po' di confusione:
avere una scheda mamma con 2 pci-ex 16x è come avere una scheda mamma con 2 agp.
Non metto in dubbio che esistano, ma personalmente non le ho mai viste nè sul web, nè tantomeno nei negozi, e nemmeno in alcun fornitore.
Pertanto sebbene il pci-express è destinato a soppiantare il pci, il pci-ex 16x è un bus molto più complesso e con altre caratteristiche rispetto al pci-e standard, sviluppato appositamente per le schede video.
Pertanto non vedo differenze dal punto di vista della diffusione, tra una scheda madre doppio agp ed una doppio pci-x 16x.
Teniamo anche in considerazione il fatto, spesso dimenticato data la natura di HWUP, che il mercato delle Kv8 Maxx, delle uGuru ecc ecc, rappresenta a livello mondiale, forse l'1% ma non ci giurerei.
Oserei quindi sperare di vedere le proiezioni economiche Nvidia, che hanno fatto investire tanti milioni nella progettazione del chip abilitato allo SLI, nel software di controllo SLI, nella realizzazione di schede SLI e in ultimo nella progettazione (e futura realizzazione) di un chipset doppio pci-x 16x.
Giusto per curiosità nè :D

dm69
30-06-2004, 02:01
Se questa tecnica fosse supportata da tutti i derivati di NV 40, allora uno si puo' comperare una scheda di media potenza e poi successivamente ne compera un altra per upgrade. Ovviamente bisogna vedere se due schede medie costano meno di una potente. Vedremo ...
Comunque e' interessante questa continua rincorsa delle prestazioni.

avvelenato
30-06-2004, 02:55
Più o meno tutti hanno scritto: (da leggersi con tono pettegolo)
ma cosa ce ne si fà, ma tanto non viene sfruttata, ma costerà troppo, ma consumerà tanto, ma ho appena preso la 9800, ma tutti hanno la mx400, ma dove trovo la mobo, ma di qua, ma di là, bla bla bla bla...


pensate in grande:

monitor da 30" della apple (compatibile con le 6800 e quindi con un pc)
doppia scheda video


secondo voi quanti frames al secondo farà half life 2 (o doom3) a 2560x1600 con full antialiasing 4x e anisotropico 8x?


:sbav: :sbav: :sbav: :sbav: :sbav: :sbav: :sbav: :sbav:

Abigor
30-06-2004, 08:21
Imho sto SLI può essere decisamente utile in futuro. Mettiamo che prendo una mobo con nforce4, A64 ecc... e poi ci monto sopra una geppo 6800 liscia. Per il momento sono + che a posto (magari avessi sta bella robina... sbav sbav), ma in fururo se la 6800 liscia non ce la dovesse + fare potrei aggiungerne un'altra magari a 150 euri (sarà diventata una gpu quasi entry level per quando ne servirà un'altra) senza dover andare a sperperare un sacco di soldi per il futuro R500 o NV50.

Superboy
30-06-2004, 08:31
X erupter

Quello che dici è falso, il bus agp era pensato specificatamente per la sccheda video ed era connesso direttamente al north bridge, non sono esistite schede madri con doppio slot perchè non ha senso! Il Pci-express è molto versatile e permette di aggregare 16 canali per un'unica periferica (in questo caso la scheda video) ma nessuno vieta che possa essere qualsiasi altra cosa! ed è relativamente facile implementare un altro slot 16 per (linee e banda dello switch permettendo).

HyperText
30-06-2004, 09:17
Non ho capito una cosa. Non era meglio la tecnica "Scan Line Interleave"?
Vi spiego.
La nuova tecnica, ovvero la "Scalable Link Interface", "divide in due" lo schermo e ogni scheda video lavora su una parte.
Ma se in una parte ci sono tantissimi effetti, e nell'altra non c'è quasi niente, il gioco non va comunque a scatti?
Quindi, non è meglio la prima tecnica? Che fa lavorare una scheda video su linee pari e l'altra su linee dispari e, in questo modo, si trovano più o meno due schede video a lavorare sulla parte "affollata"?

Illuminatemi :D

sliver80
30-06-2004, 09:29
Originariamente inviato da HyperText
Non ho capito una cosa. Non era meglio la tecnica "Scan Line Interleave"?
Vi spiego.
La nuova tecnica, ovvero la "Scalable Link Interface", "divide in due" lo schermo e ogni scheda video lavora su una parte.
Ma se in una parte ci sono tantissimi effetti, e nell'altra non c'è quasi niente, il gioco non va comunque a scatti?
Quindi, non è meglio la prima tecnica? Che fa lavorare una scheda video su linee pari e l'altra su linee dispari e, in questo modo, si trovano più o meno due schede video a lavorare sulla parte "affollata"?

Illuminatemi :D

bastava leggere con attenzione tutto l'articolo prima di commentare, c'è pure l'esempio terra terra sui simulatori di volo et simila, + chiaro di così si muore :D :

"Il principio di funzionamento è molto simile a quello della tecnologia sviluppata da Alienware, ovvero la divisione della scena in due parti, ma v'è un'importante differenza che distingue le due tecnologie: la divisione della scena tramite SLI non è vincolata al 50-50, ma grazie ad una tecnologia di load balancing dinamico viene suddivisa in modo che entrambe le schede possano lavorare al massimo delle proprie capacità."

Superboy
30-06-2004, 09:31
Guarda bene, c'è un algoritmo di balancing del carico, che divide la scena in base alla "pesantezza" elaborativa, il 50 e 50 non è riferito allo schermo ma alla complessità della scena

giagiu
30-06-2004, 09:32
Originariamente inviato da HyperText
Non ho capito una cosa. Non era meglio la tecnica "Scan Line Interleave"?
Vi spiego.
La nuova tecnica, ovvero la "Scalable Link Interface", "divide in due" lo schermo e ogni scheda video lavora su una parte.
Ma se in una parte ci sono tantissimi effetti, e nell'altra non c'è quasi niente, il gioco non va comunque a scatti?
Quindi, non è meglio la prima tecnica? Che fa lavorare una scheda video su linee pari e l'altra su linee dispari e, in questo modo, si trovano più o meno due schede video a lavorare sulla parte "affollata"?

Illuminatemi :D
Ho letto l'articolo ed è specificato che la scheda che lavora meno,può aiutare l'altra,per non sprecare risorse.

HyperText
30-06-2004, 09:45
Ah, mi era sfuggita quella parte.
Scusate :)

TyGerONE
30-06-2004, 14:06
Nvidia ha dato un bel lustro alla sua immagine. I futuri potenziali acquirenti di schede video, se prima erano indecisi se acquistare 6800 o X800, si troveranno invogliati ad acquistare Geforce. La vedo brutta x Ati

giagiu
30-06-2004, 17:08
Originariamente inviato da TyGerONE
Nvidia ha dato un bel lustro alla sua immagine. I futuri potenziali acquirenti di schede video, se prima erano indecisi se acquistare 6800 o X800, si troveranno invogliati ad acquistare Geforce. La vedo brutta x Ati
mah?! non si tratta di immagine,ma di prestazioni;per chi non bada a spese.da subito con due schede sli.e mi piacerebbe verderlo un sistema così all'opera!
però se in un anno esce una nuova generazione di schede video il doppio potenti,mettere due schede sli non ha senso.conviene comprarne una nuova,in linea di principio.
e per la maggior parte delle persone è presto per considerare il rapporto prezzo/prestazioni.lo sli ha senso se non uscissero schede nuove ogni 6 mesi.
chi usa sistemi dual processor per giocare !? ... a DOOM III ?
andrà anche su xbox :rolleyes: ottimizzato per la console.

DjLode
30-06-2004, 20:31
Continuate tutti a vedere una gran mossa in questa cosa ma sinceramente mi piacerebbe sapere quanto era ai tempi di 3dfx la percentuale di persone che avevano 2 V2 in slide rispetto a quelle che ne avevano una o nessuna.
Quel sistema (fin per carità ottimo per chi con il pc ci deve giocare o ha i soldi da spendere) sarà talmente di nicchia che venderà pochissimo anche perchè una scheda madre dual pci-e e dual cpu (ci vogliamo mettere una cpu e due schede video? Sarebbe come una macchina con 3 ruote) costerà un botto insieme al prezzo delle schede video.

Dumah Brazorf
30-06-2004, 22:25
E' indubbiamente un'operazione di immagine, ma richiamare i fasti della gloriosa 3dFx è una gran bella operazione di immagine. :)

PantWeb
01-07-2004, 07:41
Beh sicuramente le 2 schede non sono per un'utenza comune. Però alla fine, in futuro quando le motherboard saranno + abbordabili per tutti (soprattutto le nuove nforce4) e con i nuovi slot, magari se si ha una disponibilità monetaria tale da soddisfare l'acquisto di 2 schede (e la voglia di spenderli tutti lì) benvenga. Comunque dopo puoi vendere 2 schede video e non una ... :D

PantWeb
01-07-2004, 07:46
Pensate... Ora mi fo una Geforce6800... (non ho un soldo :) vabè è per fare un esempio). E per ora va benissimo. L'anno prossimo esce un gioco che pretende più di HL2 o DOOM3 o Stalker... per l'anno prossimo la Geforce 6800 sarà scesa e invece di cambiare scheda video, tak ci piazzo un'altra compagna di rendering. :o non male

TyGerONE
01-07-2004, 08:48
Sul mercato esistevano 2 soluzione hi-end: nv45 (6800 ultra pci-exp) e r423 (x800 xt pci-exp). Oggi esiste UNA sola soluzione hi-end: nv45 accoppiate: nv45 modalità SLI.

Dumah Brazorf
01-07-2004, 09:27
Beh non definirei hi-end questa proposta, ma ultra-sboron-hi-end! :D

TyGerONE
01-07-2004, 11:06
Ma tanto rimane. Una soluzione al top. Solo per pochi, certo. Ma se vuoi il TOP puoi solo rivolgerti ad Nvidia. Ati si ferma alla soluzione single-chip

DioBrando
01-07-2004, 11:36
Originariamente inviato da TyGerONE
Nvidia ha dato un bel lustro alla sua immagine. I futuri potenziali acquirenti di schede video, se prima erano indecisi se acquistare 6800 o X800, si troveranno invogliati ad acquistare Geforce. La vedo brutta x Ati

in 6 mesi un anno fà in tempo ad uscire una nuova generazione di schede dimezzando il prezzo attuale di una 6800.
Due schede che poi a conti fatti andranno come una scheda se il ritmo di evoluzione continua così e quindi n vedo perchè buttare via 500E comprandone 2 adesso invece di aspettare.
+ttosto è una soluzione che avrà senso quando la 6800 farà fatica con svariati titoli ( campa cavallo prima che succeda) e per risparmiare invece di comprare una nuova VGA si andrà per la doppia in SLI.

Non credo che un'azienda ( ATI in questo caso) si preoccupi di un qlc che sì e no sarà utilizzata da un migliaio di persone in giro per il mondo...

giagiu
01-07-2004, 12:09
Originariamente inviato da Dumah Brazorf
Beh non definirei hi-end questa proposta, ma ultra-sboron-hi-end! :D
:D beh hai il dono della sintesi! :D
queste proposte sono interessanti ma inapplicabili.non penso che determinano l'acquisto.tuttalpiù (sli-mode) qualche fortunato che ha un negozio pc potrà togliersi lo sfizio di provare lo SLI !
vedremo le prestazioni effettive dello SLI,se fosse + potente di una scheda di nuova generazione,che esce 6/12 mesi dopo, allora le cose cambiano.

DjLode
01-07-2004, 12:13
Originariamente inviato da TyGerONE
Ma tanto rimane. Una soluzione al top. Solo per pochi, certo. Ma se vuoi il TOP puoi solo rivolgerti ad Nvidia. Ati si ferma alla soluzione single-chip

Porca miseria allora fallirà!!! :eek:

Dumah Brazorf
01-07-2004, 13:37
Moriremo tutti!! :cry: :cry:

TyGerONE
01-07-2004, 13:45
Non capisco x quale motivo non riusciate ad essere obiettivi. Se un'azienda decide di investire (risorse e danaro) nello sviluppo di un prodotto che possa garantire prestazioni elevate (SLI) accoppiando due Vga, di certo non lo fa pensando solo ai core gamers. Quesat soluzione è rivolta anche al mercato pro-sumer, soprattutto perchè anche le QuadroFX potranno avantaggiarsi della modalità SLI. Per quanto concerne i soliti discorsi di "aspettare 6 mesi x avere la notità" più performante, il discorso non regge: se aspettassimo tutti 6 mesi, nessuno comprerebbe mai nulla e aspetterebbe invano i prx 6 mesi, e i 6 successivi, etc etc

TyGerONE
01-07-2004, 13:49
Se la novità fosse stata di ATI, giù elogi dappertutto. Ma siccome è di Nvidia, allora non serve a nulla.

DioBrando
01-07-2004, 14:03
Originariamente inviato da TyGerONE
Se la novità fosse stata di ATI, giù elogi dappertutto. Ma siccome è di Nvidia, allora non serve a nulla.

questa è una valutazione abb infantile per chi ( forse) ha la coda di paglia...

è una soluzione inutile per chiunque ci abbia pensato e i motivi sn già stati scritti.

Premesso che Nvidia/ATI/Pinco Palla sn aziende che possono spendere i loro soldi come meglio credono e che di fame n moriranno di certo, sn soldi spesi per un pubblico che si riduce a davvero poche persone non perchè ci vogliano così tanti soldi ma perchè i vantaggi nel suo utilizzo sn RISICATI ora come ora con i titoli che girano.

Il discorso dei sei mesi regge benissimo perchè se la tecnologia single-VGA offre quello che un gamer ( hard-soft quel che è) ha bisogno qual è il motivo di pubblicizzare così tanto un prodotto che non ha senso?

Ti dico la mia modestissima opinione, è lo stesso motivo per cui i consumatori si trovano di fronte a prodotti/tecnologie come il P4EE, il pixel shader 3.0 e via dicendo.
Soluzioni top-gamma ma che non devono essere pubblicizzate come un qlc di profetico perchè riguardano una infinitesima parte di persone che mira a quel 3% di prestazioni in +.

Tra 6 mesi usciranno altre GPU ancora + performanti.
Mi dici quindi qual è il senso di spendere 1000E per avere due schede e farle lavorare insieme ( precisando che se n si ha un monitor in grado di raggiungere risoluzioni molto alte non serve a nulla) quando fra un pò il valore di una e quindi figuriamoci di due si sarà abbassato e di parecchio?
Un utente potrebbe benissimo sostituire la sua scheda con quella di prox generazione spendendo credo + oculatamente i suoi soldi.

Poi questo è solo un consiglio, ognuno può spendere come vuole le proprie finanze; quello che n capisco è tutta la caciara fatta intorno ad una notizia e ad un prodotto che riguarda poche persone e che non porta a nessun incremento roboante di prestazioni.

Tutto qua...

Jedi_Master
01-07-2004, 14:12
Originariamente inviato da TyGerONE
Sul mercato esistevano 2 soluzione hi-end: nv45 (6800 ultra pci-exp) e r423 (x800 xt pci-exp). Oggi esiste UNA sola soluzione hi-end: nv45 accoppiate: nv45 modalità SLI.

Mi sembri uno slogan pubblicitario......

Ma non potete scegliervi una squadra di calcio come fanno tutti??

:rolleyes:

DjLode
01-07-2004, 14:35
Originariamente inviato da TyGerONE
Se un'azienda decide di investire (risorse e danaro) nello sviluppo di un prodotto che possa garantire prestazioni elevate (SLI) accoppiando due Vga, di certo non lo fa pensando solo ai core gamers. Quesat soluzione è rivolta anche al mercato pro-sumer, soprattutto perchè anche le QuadroFX potranno avantaggiarsi della modalità SLI.

Ma su questo sono d'accordo, però a leggere tanti commenti sulla grande idea che ha avuto nvidia mi pare di aver letto 3d mark (la stessa Nvidia ha fatto il rapporto su 3d mark), far cry e chi più ne ha più ne metta. Non vedo pro-sumer in mezzo.
Riguardo a quello che dici, ti do ragione che i professionisti potranno avvantaggiarsi, ma anche tu dai ragione a me, è inutile per i giocatori normali e/o i giocatori non milionari. Somma il mercato restante (pro-sumer e giocatori milionari) e cosa ottieni? Uno 0.2% (esagero) del mercato? Quindi la rivoluzione dove sta?
Se fosse stata di Ati la cosa avrei detto la stessa cosa, i costi sarebbero stati esattamente gli stessi, e l'inutilità esattamente la stessa.

TyGerONE
01-07-2004, 14:58
Scusa la domanda, ma come fai ad affermare che "non porto a nessun incremento roboante di prestazioni" ?

Hai avuto l'occasione di provare in anteprima mondiale la modalità SLI ? ...Se si, condividi con noi i risultati. Se no, evita di fare considerazioni inutili e senza senso.

In ogni caso è sufficiente attendere la disponibilità di schede madri dual-pciexp e testare la nuova tecnologia Nvidia.

Una cosa è certa: ai tempi di 3dfx l'accoppiata SLI di 2 Vodoo2 12MB facevano la differenza con i giochi, che venivano eseguiti a 1024x768 con lo Z-buffer attivato e frame-rate elevato. Nvidia è proprietaria di questi brevetti oggi e ha portato la stessa tecnlogia con il nuovo progetto NV4X.

Ergo .....

DioBrando
01-07-2004, 15:09
Originariamente inviato da TyGerONE
Scusa la domanda, ma come fai ad affermare che "non porto a nessun incremento roboante di prestazioni" ?

Hai avuto l'occasione di provare in anteprima mondiale la modalità SLI ? ...Se si, condividi con noi i risultati. Se no, evita di fare considerazioni inutili e senza senso.

In ogni caso è sufficiente attendere la disponibilità di schede madri dual-pciexp e testare la nuova tecnologia Nvidia.

Una cosa è certa: ai tempi di 3dfx l'accoppiata SLI di 2 Vodoo2 12MB facevano la differenza con i giochi, che venivano eseguiti a 1024x768 con lo Z-buffer attivato e frame-rate elevato. Nvidia è proprietaria di questi brevetti oggi e ha portato la stessa tecnlogia con il nuovo progetto NV4X.

Ergo .....

allo stesso modo posso rigirarti la considerazione.
Come si fà ad urlare al miracolo e all'innovazione senza averle mai provate?
Io ho solo espresso il mio dubbio ( siccome n è la prima volta che se ne vedono di affermazioni e di tecnologie rivoluzionarie) riguardo ad una soluzione che potrà coinvolgere una infinitesima parte dei consumatori.

Originariamente inviato da TyGerONE
Nvidia ha dato un bel lustro alla sua immagine. I futuri potenziali acquirenti di schede video, se prima erano indecisi se acquistare 6800 o X800, si troveranno invogliati ad acquistare Geforce. La vedo brutta x Ati

questa è l'affermazione senza senso ( e n è la mia :D)
Pensare che l'altro competitor si preoccupi di una soluzione che investe un numero ridicolo di persone e pensare che per questa stessa soluzione i futuri acquirenti vengano invogliati a comprare Nvidia invece che ATI o Solari.

Se sceglieranno nvidia o ATi sarà per gli incrementi prestazionali che potranno dare singolarmente nei giochi, applicativi ecc ecc., non perchè potranno mettere due VGA invece di una.

Dai siamo seri...

Per il resto quoto DjLode che ha centrato il discorso.

TyGerONE
01-07-2004, 15:41
Dimentichi che la maggior parte degli acquirenti non compra un prodotto per i benchmark. Le operazioni marketing/pubblicitarie insegnano. Non voglio essere ripetitivo, ma le soluzione top di Nvidia e Ati le consciamo tutti. Come conosciamo il target a cui sono rivolte. L'utente che prentende il massimo (ed è disposto a spendere il massimo) a chi si rivolge ? Ad un produttore che ti dice "io ho la x800 XT platinum; se vuoi di più devi aspettare i prossimi sei mesi". Oppure ad un altro produttore che ti dice "io ho la 6800 (liscia, GT o Ultra che sia), se vuoi di più devi comprare un connettore, un'altra 6800, le metti insieme e avrai il massimo. Secondo te a chi si rivolge ?

k4rl
01-07-2004, 15:46
scusate ma mi sembrate veramente poco obbietivi...

voi parlate di sistemi basati su 2 6800ultra e dite che sono poco convenienti... ma questo è ovvio...

ma voi pensate che questa tecnologia verà usata solo su SV di fascia alta??? o più probabilmente è stata presentata sulle SV di fascia alta per farla vedere al massimo della sua potenza ma verà implementata poi su tutte le SV...

immaginate ad esempio che si può fare una cosa così cone le SV attuali, mettere 2 FX5200 in SLI

le prestazioni sarebbero MOOOOOOOOLTO superiori a una 9600XT di pari prezzo

oltre tutto il discorso dei 6 mesi e la SV nuova non sta ne in cielo ne in terra...

non so se ovi avete seguito il mercato delle SV negli ultimi tempi ma se date un occhiata l'ultima SV innovativa di ATi è stata la 9700PRO

da allora, giustamente, ricicla e ripropone con qualche aggiustatina sulle freqeunze questa SV che di fatto ancora adesso fa la sua bella figura...

e così si è fatto al tempo delle gefo 4 e delle gefo 3...


per progettare una nuova SV ci vogliono anni e quindi non aspettatevi per almeno 1 anno e mezzo grosse novità da parte di nvdia...

per quanto riguarda ATi finalmente verso la fine del'anno uscira l'r480 che sarà il prima GPU totalmente innovativa dopo la 9700PRo visto cche la stessa x800 e un rimpasto del r300

in definitiva cosa voglio dire??? semplicemente che questa tecnologia se ben sfruttata avra ampie possibilità di essere un offerta interessante e che ATi si dovra dare da fare per mostrare i muscoli anche lei, come sicuramente è in grado di fare, per far vedere che è in grado di mostrare qualcosa di nuovo

DjLode
01-07-2004, 15:50
Originariamente inviato da TyGerONE
Dimentichi che la maggior parte degli acquirenti non compra un prodotto per i benchmark. Le operazioni marketing/pubblicitarie insegnano. Non voglio essere ripetitivo, ma le soluzione top di Nvidia e Ati le consciamo tutti. Come conosciamo il target a cui sono rivolte. L'utente che prentende il massimo (ed è disposto a spendere il massimo) a chi si rivolge ? Ad un produttore che ti dice "io ho la x800 XT platinum; se vuoi di più devi aspettare i prossimi sei mesi". Oppure ad un altro produttore che ti dice "io ho la 6800 (liscia, GT o Ultra che sia), se vuoi di più devi comprare un connettore, un'altra 6800, le metti insieme e avrai il massimo. Secondo te a chi si rivolge ?

Eridaie.
Ti faccio la domanda, uno entra in un negozio e dice "voglio la scheda più veloce", gli rispondono, ho la X800 XT PE, la metti su ed è velocissima. Oppure ho questa, va uguale, però la puoi accoppiare. All'utente gli si illuminano gli occhi. Il negoziante "in più servono, una scheda madre apposita che ancora in vendita non c'è, un alimentatore che supporti il tutto, tu cos'hai? e ovviamente due schede identiche". L'utente sviene e secondo te a chi si rivolge? Ad un altro negoziante sicuro :) E comprerà la sua bella 6800 Ultra o la sua bella XT.
Se poi tu mi vuoi dire che con due 6800 lisce hai la possibilità di raggiungere e superare in prestazioni la Ultra, ti posso dare ragione, ma fai un conto su cosa ti viene a costare il sistema e capirai.
Consideriamo due schede quando saranno uscite le nuove? La 6800 Ultra è veloce il doppio a volte di più di due 5950 (che non si possono accoppiare in SLI ma seguimi), è più comodo avere una 6800 Ultra (con il bagaglio di nuove tecnologie che supporta e di cui la gente urla e sparla) o due schede di vecchia generazione che in alcuni casi forniscono prestazioni paragonabili?
Tu mi puoi dire che ti compri una 6800 Ultra ora e quando uscirà la nuova scheda (NV50) ne prenderai un'altra. Facciamo un conto? 600€ della Ultra più ipotizziamo 300€ per la stessa scheda più avanti. Fanno 900€. Con quei soldi ti prenderai il top tra 6 mesi (tempo in cui la Ultra costerà i 300€ e tempo di uscita della nuova generazione) che andrà allo stesso modo delle tue due 6800 Ultra (con scheda madre, ali, doppio processore e mille altri orpelli).
Capisci il succo del discorso e perchè in tanti continuano a dire che per l'utente normale la cosa è inutile e servirà solo agli sboroni che possono permettersi tale sistema e/o ai professionisti che i soldi degli investimenti li riprendono?
Lasciate poi perdere 3dfx (che ogni tanto ritorna come gli zombie di Romero, pare che se non fosse esistita lei saremmo ancora ai giochi ascii), quei tempi erano diversi (volevi giocare? 3dfx. Altrimenti fuffa. Oggi se dio vuole una cosa del genere non esiste) e non sono assolutamente paragonabili agli attuali.

DioBrando
01-07-2004, 15:55
Originariamente inviato da TyGerONE
Dimentichi che la maggior parte degli acquirenti non compra un prodotto per i benchmark. Le operazioni marketing/pubblicitarie insegnano. Non voglio essere ripetitivo, ma le soluzione top di Nvidia e Ati le consciamo tutti. Come conosciamo il target a cui sono rivolte. L'utente che prentende il massimo (ed è disposto a spendere il massimo) a chi si rivolge ? Ad un produttore che ti dice "io ho la x800 XT platinum; se vuoi di più devi aspettare i prossimi sei mesi". Oppure ad un altro produttore che ti dice "io ho la 6800 (liscia, GT o Ultra che sia), se vuoi di più devi comprare un connettore, un'altra 6800, le metti insieme e avrai il massimo. Secondo te a chi si rivolge ?

allora n ci siamo capiti...

Io ho mai scritto che questa soluzione non è il massimo nel suo genere?

No, ho scritto semplicemente che mi sembra una boiata perchè già una 9800 Pro a parte FarCry svolge perfettamente il suo lavoro e chissà per quanto tempo lo potranno fare una 6800 liscia o una X800, quel che è... ( dato che i giochi e i vari sequel non escono esattamente ogni due gg con richieste minime molto differenti tra loro).

E il fatto che questa soluzione venga conclamata ( da te da altri dalla nvidia stessa) come un qlc di rivoluzionario mi sembra altrettanto ingenuo perchè riguarda una MINIMA parte di persone che non si accontentano delle prestazioni che una nuova GPU ( NV40/45 quel che è) può offrire ora e potrà fare in futuro.

Mi sembra molto + saggio aspettare l'uscita di una nuova scheda +ttosto che farsene due ora.

Comprendi che il nostro discorso non riguarda le prestazioni ma l'utilità del rendere pubblica una innovazione anche con una qualcerta enfasi che se ( se) dà i suoi frutti potrà interessare a 4 gatti?
E che questa non inciderà minimamente sul giudizio che un utente potrà avere decidendo se comprare o una X800 o una 6800 proprio perchè la fascia a cui si rivolge è così piccola che per gli altri è sufficiente UNA scheda e non due?

Riguardo a quello che dici, ti do ragione che i professionisti potranno avvantaggiarsi, ma anche tu dai ragione a me, è inutile per i giocatori normali e/o i giocatori non milionari. Somma il mercato restante (pro-sumer e giocatori milionari) e cosa ottieni? Uno 0.2% (esagero) del mercato? Quindi la rivoluzione dove sta?

La rivoluzione dove stà?

DjLode
01-07-2004, 15:57
Originariamente inviato da k4rl
ma voi pensate che questa tecnologia verà usata solo su SV di fascia alta??? o più probabilmente è stata presentata sulle SV di fascia alta per farla vedere al massimo della sua potenza ma verà implementata poi su tutte le SV...

immaginate ad esempio che si può fare una cosa così cone le SV attuali, mettere 2 FX5200 in SLI


Compro una scheda madre con doppio slot PCI-E, doppio processore o processore adeguato, un alimentatore della madosca per far andare tutto e ci monto due 5200? Ma per favore.


le prestazioni sarebbero MOOOOOOOOLTO superiori a una 9600XT di pari prezzo


Considerando che una 5200 va più o meno 3 volte di meno di una 9600XT, l'esempio non calza ottenendo solo in alcuni casi (e con la 6800 Ultra, tutti dimenticate che i dati sono riferiti a questa scheda e delle altre non si sa nulla e l'informatica non è fatta di congetture) 70% in più delle prestazioni.



per quanto riguarda ATi finalmente verso la fine del'anno uscira l'r480 che sarà il prima GPU totalmente innovativa dopo la 9700PRo visto cche la stessa x800 e un rimpasto del r300


Dubito, secondo me si deve aspettare ben di più. R520 a quanto pare sarà l'ultima evoluzione dell'architettura attuale con supporto a SM3+ e ad altre cose.


in definitiva cosa voglio dire??? semplicemente che questa tecnologia se ben sfruttata avra ampie possibilità di essere un offerta interessante e che ATi si dovra dare da fare per mostrare i muscoli anche lei, come sicuramente è in grado di fare, per far vedere che è in grado di mostrare qualcosa di nuovo

Non mi pare che ai tempi di 3dfx Nvidia si sia sforzata per proporre un altro sistema, basta raddoppiare le prestazioni di gpu in gpu, e dalla 9700 all'X800 e da NV35 a NV40 ci sono riusciti.

DjLode
01-07-2004, 15:58
Originariamente inviato da DioBrando
La rivoluzione dove stà?

Ah, la risposta io non la so :)

giagiu
01-07-2004, 16:06
la voodoo2 in sli era dedicata solo al 3D,la differenza fu fatta dall'introduzione delle Nvidia GeForce1,dotata della prima gpu!anche se faceva pena per i driver :) e per qualche problema di alimentazione/compatibilità su mobo vecchie.a caso per es. la mia asus p2b. :D fu il cambiamento.
lo SLI risulta la soluzione da subito + performante,vedremo se tiene per 6/12 mesi.vedremo se tiene di fronte alle nuove eventuali tecnologie Ati,e se sarà abbandonata come fece 3dfx.chi sa perchè?

DioBrando
01-07-2004, 16:16
Originariamente inviato da k4rl
scusate ma mi sembrate veramente poco obbietivi...

voi parlate di sistemi basati su 2 6800ultra e dite che sono poco convenienti... ma questo è ovvio...

ma voi pensate che questa tecnologia verà usata solo su SV di fascia alta??? o più probabilmente è stata presentata sulle SV di fascia alta per farla vedere al massimo della sua potenza ma verà implementata poi su tutte le SV...

n è questione di poca convenienza in termini di costi, è questione che se io mi prendo una scheda video + performante quando ne esce una faccio prima e mi risparmio i soldi buttati comprandone subito due ( due 6800 o quel che è/sarà).
Ed è un discorso che vale soprattutto per Nvidia che ha speso in ricerca e progettazione.


immaginate ad esempio che si può fare una cosa così cone le SV attuali, mettere 2 FX5200 in SLI

ma ti pare che uno compra una scheda madre di nuova generazione con supporto PCI-Ex ne mette due in SLI e poi ci mette 2 5200 Fx ( per ipotesi)? Maddai :muro:
si compra una 9800 Pro o una 5900 XT e fà prima :rolleyes:


le prestazioni sarebbero MOOOOOOOOLTO superiori a una 9600XT di pari prezzo

questa è una tua opinione al momento non verificabile


oltre tutto il discorso dei 6 mesi e la SV nuova non sta ne in cielo ne in terra...

spiegati


non so se ovi avete seguito il mercato delle SV negli ultimi tempi ma se date un occhiata l'ultima SV innovativa di ATi è stata la 9700PRO

da allora, giustamente, ricicla e ripropone con qualche aggiustatina sulle freqeunze questa SV che di fatto ancora adesso fa la sua bella figura...

se un'architettura è solida e può portare ad un incremento prestazionale significativo senza che venga rivoluzionata ma solo ottimizzata perchè deve per forza buttare a mare il progetto e farne uno nuovo di pacca?


per progettare una nuova SV ci vogliono anni e quindi non aspettatevi per almeno 1 anno e mezzo grosse novità da parte di nvdia...

anche questa è una tua considerazione personale non supportata da alcuna prova ( a meno che tu n sia dotato di palla di cristallo :D).
Il passaggio a così tanti nuovi standard in un solo colpo secondo me invece sarà proprio l'occasione di vedere GPU pensate per le architetture e per i sistemi a venire.


per quanto riguarda ATi finalmente verso la fine del'anno uscira l'r480 che sarà il prima GPU totalmente innovativa dopo la 9700PRo visto cche la stessa x800 e un rimpasto del r300


Come sopra.
Se le ottimizzazioni rendono possibile un visibile aumento nell'elaborazione grafica, gestione dei poligoni, degli effetti, non vedo perchè reiniziare da 0.
Fossero tutti così i rimpasti come quelli che hanno portato dalla 9800 Pro/XT alla X800...
La nvidia si è trovata a dover reiniziare da 0 semplicemente perchè per effettuare un salto consistente di prestazioni non poteva + utilizzare l'architettura NV3x; ne avesse avuta una in casa come quella del RS3xx probabilmente avrebbe fatto = ( vista la differenza che corre tra i costi nel miglioramento di un progetto e il cominciare da 0)


in definitiva cosa voglio dire??? semplicemente che questa tecnologia se ben sfruttata avra ampie possibilità di essere un offerta interessante e che ATi si dovra dare da fare per mostrare i muscoli anche lei, come sicuramente è in grado di fare, per far vedere che è in grado di mostrare qualcosa di nuovo

In genere, dato che nessuna azienda lavora per beneficienza, viene proposta una nuova tecnologia se la portata dell'innovazione riguarda un ampio bacino di persone e quindi può portare nelle casse un effettivo ritorno monetario di quello che sn stati i costi di ricerca, marketing e così via.
In caso contrario è solo facciata e pubblicità e le grida al miracolo si fanno "pour parler"; così come i muscoli ATI o chi altro non deve tirarli fuori quando una nuova tecnologia concorrente riguarda l'1% ( esagero) dei potenziali compratori.

DioBrando
01-07-2004, 16:26
Originariamente inviato da DjLode
Ah, la risposta io non la so :)

infatti la mia era un'osservazione per TygerOne.
La tua domanda ironica calzava a pennello :)

Magari in due "je 'a famo" a far capire il concetto :D

DjLode
01-07-2004, 16:38
Originariamente inviato da DioBrando
infatti la mia era un'osservazione per TygerOne.
La tua domanda ironica calzava a pennello :)

Magari in due "je 'a famo" a far capire il concetto :D

A dire la verità ci sto perdendo la speranza. Direi che uno scontro allettante sarebbe TechExpert contro TygerOne (se non conosci il primo fatti una ricerca sulla parte delle schede video)
Avanti siore e siori si accettano scommesse :)

leoneazzurro
01-07-2004, 17:02
Sicuramente le perplessità e le incognite possono essere tante.
Chiaramente la mossa di nVIDIA allo stato attuale delle cose altro non è che semplice marketing, a causa dei costi proibitivi che tale soluzione prevede (giustificabili solo nel caso di grafica professionale, dove un 50% di tempo risparmiato consente di recuperare l'investimento in tempi brevissimi).
Però cosa succederà in futuro?
Vediamo di mettere ordine.
Creare GPU singole sempre più potenti ad un certo punto diventerà molto difficile. Già adesso vediamo che sono integrati complessi, costosi e dal consumo non certo trascurabile. Basti pensare che il chip Geforce 6800 ha un numero di transistor che se non erro è superiore a quello del P4 Prescott.
Se un giorno tanta potenza non basterà più (parliamo di grafica fotorealistica in real time, sono scettico sul quando e sul come, ma il trend è quello) e costruire GPU di potenza adeguata su singolo chip sarà poco conveniente, le strade saranno due:

- Schede a chip grafico multiplo.
- Schede grafiche multiple.

La prima alternativa (ATI?) potrebbe essere più conveniente, ma ha anche i suoi lati negativi, come ad esempio la complessità del circuito stampato e la difficoltà di alimentazione su singola scheda di un elevato wattaggio, oltre a problemi di raffreddamento.
La seconda richiede schede madri con PCI-e multipli (il che potrebbe essere meno difficile di quanto si pensi) e costi almeno in teoria più elevati, oltre a 2+ schede identiche tra loro. Alienware pare già stia pensando a sistemi con 4 Schede video...

Quale sarà la filosofia vincente? Mah.

CapodelMondo
01-07-2004, 21:30
pensate che bello invece se i programmatori potessero fare come per le console...sfruttarle per anni tirandone fuori fino all ultima goccia....date un occhio ai titoli usciti ad esempio per play 4 anni fa e quelli odierni...sembra impossibile siano fatti girare sullo stesso hardware. Oggi invece si cambiano così tanto spesso le schede che è impossibile adattarsi..e ti tirano fuori di mettere su due schede in parallelo quando ankora nn sono arrivati a sfruttare il 10% di una sola scheda. che brutta politica.

krokus
02-07-2004, 00:25
E proprio questa politica potrebbe segnare l'insuccesso di questa soluzione. immaginiamo questa situazione: esce il gioco Bingo Bongo, basato su DirectX10, che M$ ha appena fatto uscire. ovviamente per fare girare Bingo Bongo serve una scheda che supporti le estensioni DX10.
nVidia nel suo catalogo offre la 6800 a 100 €, oppure in alternativa la nuova 7200 sempre a 100 euro, con prestazioni inferiori alla 6800, ma con supporto alle DX10 e capace di far girare decentemente Bingo Bongo.
Che fa secondo voi l'oculato utente che ha già sul suo pc una 6800? Ne compra un'altra e la mette in SLI oppure vende baracca e burattini e si prende una 7200?

k4rl
02-07-2004, 00:56
ovviamente è facile sfatare una tesi quando si parla senza cognizione di causa

prima di tutto il confronto dell'evoluzione dei giochi play2 di quando è uscita e adesso con il computer non ha molto senso

è vero chè esiste molta differenza, ma questo principalmente perchè per sfruttare a pieno l'architettura di questa piattaforma i programmatori ci hanno messo molto tempo data la sua complessità

infatti io stesso giocando a metal gear solid 2 mi sono stupito per la grafica che veniva gestita da un preocessore che lavora a poco + di 200mhz

bisogna dire però che è molto più facile lavorare su una piattaforma fissa che quindi è possibile ottimizare al massimo per far girare al meglio un gioco

oltre a questo è innegabile che alcuni programattori giapponesi sono dei geni che riescono a fare cose impensabili con alcuni trucchetti (ad esempio fare tante piccole zone molto caraterizzate che però necessitano di essere ricaricate ogni volta)

passando al discorso dello SLi nVidia le critiche che mi avete mosso sono

-mobo troppo costose e che devono ancora uscire
-obbligo di comprare super alimentatori
-obbligo di comprare 2 processori
-costi ecessivi e immotivati visto che l'evoluzione porta quasi ogni 6 mesi a un aumento doppio delle prestazioni


per la prima cosa, questo sarà da vedere...

è ovvio che una piattaforma che deve ancora uscire come l'nforce 4 a natale costerà 250€


ma pensate che nvidia che è interessata allo sviluppo di queste soluzioni non abbasera il prezzo??? sono convinto che fra 8-9 mesi queste piattaforme avranno un prezzo concorenziale

per il problema dei 2 alimentatori qui mi sembra che come vi ho già detto nel post precedente avete un ottica ridotta

è ovvio che mettere 2 6800ultra in una mobo ha consumi veramente esorbitanti, ma secondo voi questa piattaforma è pensata solo per le schede di fascia alta???

un normale alimentatore di buona marca da 350-400W probabilmente è in grado di gestire 2 SV delle future fascia medie e bassa senza grossi problemi quindi non vedo dove susiste il problema...

poi anche se io stesso sono convinto che non è conveniente secondo me è possiblissimo montare 2 6800ultra con un solo alimentatore

infatti queste schede video consumano al massimo carico circa 120w, quindi se per far funzionare una 6800 ultra basta un ali da 350w di buona marca con uno da 500w non si dovrebbero avere grossi problemi, e chi spende 1000€ per le SV avra 120 € per un buon ali!!!!

per il discorso degli spinotti poi nella fascia bassa e un discorso che secondo me non ci sarà nemmeno visto che prob con il PCi express se sarà necessario per forza ce ne vorra 1 di quelli normali e tutti gli ali decenti ne hanno 2 da poter dedicare alle SV...

per uno SLi con 2 SV 6800ultra anche io sono convinto che avra dei problemi visto che ce ne voranno 4 ma visto l'ali che si dovra comprare prob si riuscira a trovare i 4 spinotti necessari

per il 3° punto è un discorso simile a i precedenti

visto in ottica di schede di fascia estrema ci vorrebbe una potenza di calcolo assurda, ma con 2 SV di fascia media o 2 SV di fascia bassa un processore basterà quindi la piattaforma da usare non costerà una follia, ovviamente come ho detto prima perchè questo si verifichi ci vorra tempo, molto tempo... infatti per ora quelle SV non sono ancora state presentate ma questo discorso come ho già detto va visto in un ottica futura


per l'ultimo punto che è il principale

cioè il discorso della potenza che si radoppia circa a ogni generazione... qui mi sembra che avete l'occhio molto corto...


infatti in tutte le recensioni si è detto che un salto generazionale del genere non si vedeva da anni e che i produttori di SV hanno fatto un mezzo miracolo

un miracolo che a guardar bene ha le gambe corte... perchè infatti lasciando stare la SV nVidia che è totalmente nuova la x800xt è molto simile a una 9800XT con il doppio delle pipeline...

infatti già nella x800PRO le differenze sono meno marcate e cmq è evvidente che una politica del genere non si potra portare avanti per molto...

cosa facciamo??? prossima generaizone SV a 32pipelines??? e poi 64??? e poi le raffrediamo tutti con azoto liquido minimo...

quindi non dico che le evoluzioni non ci saranno ma secondo me saranno molto più difficili e prima del radoppio delle prestazioni ne passera di acqua sotto i ponti... questo ancora di più dando un occhiata ad altri chip di calcolo...

i produttori di processori ormai hanno rinnunciato ad aumentare le frequenze e puntano su i biprocessori e poi su i multiprocessori...

prima o poi anche le SV saranno destinate a dover aumentare le GPU piuttosto che le prestazioni dei singoli chip a causa della complessita dei chip che ha già raggiunto vette elevatissime...

oltretutto come ho già detto le SV di nuova generazione hanno tempi molto più lungi di 6 mesi... infatti se a natale con le SV che suciranno, cioè r480 e il uso avversario di nVidia, si avra un aumento delle prestaizoni del 10% sarà già tantissimo... e questo è normale perchè è sempre sucesso...

se andate a dare un occhiata qua (http://www.hwupgrade.it/articoli/661/1.html) potete vedere che è passato più di 1 anno e mezzo da quando è uscita la precedente generazione di SV e che allora se il passo generazionale era stato elevato non era stato grande quanto con le SV attuali, ovviamente valutando le differenze fra test paragonabili perchè è ovvio che se si prende come esempio i test con i filtri le gefo 4 crollano, ma questo perchè usavano algoritmi meno efficenti e non perche la potenza di calcolo era dimezzata

se si fa poi un paragone fra 2 SV di diversa generazione ma basate sulle stesse API, cioè come il confronto fra gefo 3 e 4 che potete leggere qui (http://www.hwupgrade.it/articoli/574/1.html) è evidente che il salto generazionale ha portato ad un aumento delle prestazioni che però non è stato DOPPIO

quindi in definitiva dire che fra 6 mesi o 1 anno uscirà una SV che ha le prestazioni doppie di una 680ultra mi sembra un utopia bella e buona...

pensate poi alle future fascie medie di nvidia che se rispettano quello che hanno detto qui (http://www.hwupgrade.it/articoli/1033/5.html) ci saranno SV di fascia bassa con 8 pipeline e sv di fascia media con addirttura 12!!!

se fosse vero comprando 2 SV da 250 euro (fascia media) ci si ritroverebbe con un comparto video con 24 pipelines!!! e queste peseranno con un confronto con la 6800ultra


cmq quello che volevo dire è che scartare questa tecnologia perchè è solo per fascia estrema è sbagliato... nVidia probaiblmente usera questa tecnologia per tutte le SV che produra da oggi in poi e questo permettera dei grossi vantaggi quando piattaforme come l'nofrce 4 si saranno diffuse a prezzi accetabili

fino ad allora saranno piattaforma che definirle di nichia è poco...

ma se improvisamente alla nVidia non sono diventati scemi questo sarà il futuro di tutte le SV

ed è innegabile che nVidia è in vantaggio avendo già imbroccato questa strada

DioBrando
02-07-2004, 01:38
Originariamente inviato da k4rl
ovviamente è facile sfatare una tesi quando si parla senza cognizione di causa

+ che altro è facile sfatare le tesi che sn portate SENZA cognizione di causa, vedi la tua ( brillante?) idea di piazzare 2 Geforce 5200 in SLI :D


passando al discorso dello SLi nVidia le critiche che mi avete mosso sono

-mobo troppo costose e che devono ancora uscire

non leggi bene evidentenemente.
La critica è stata sinteticamente questa: qual è il senso di spendere 700/1000E comprando due schede quando una basta e avanza con i titoli che ci sn ora ma anche con quelli che usciranno in futuro.
E nel qual caso le richieste minime dovessero essere così superiori da costringere ( l'utente medio perchè noi dobbiamo guardare ai grandi numeri e anche Nvidia deve, non ai gamers che si preoccupano di 3-4 fps in + che sn se và bene l'1% del mercato sul quale NON un'azienda così grossa non può basare la sua strategia di mercato) tanto vale spendere dopo i propri soldi comprando una nuova generazione di VGA

le mobo n c'entrano niente con la critica allo SLI e all'interesse che può suscitare nella maggiorparte dei potenziali compratori.


-obbligo di comprare super alimentatori

beh il trend della potenza minima molto alta necessaria d un buon funzionamento della scheda grafica dura da parecchio.
Non vedo perchè dorvebbe essere sfatato con le prox schede e figuriamoci poi con due schede non una montate nel pc.
Mi sembra solo una questione di buon senso...


-obbligo di comprare 2 processori

ma dove? :rolleyes:


-costi ecessivi e immotivati visto che l'evoluzione porta quasi ogni 6 mesi a un aumento doppio delle prestazioni

ho preso 6 mesi per dare una cifra simbolica che quantificasse l'evoluzione del mercato e della tecnologia...il senso di ciò che ho detto stà scritto prima...n ti fermare al solo numero 6 che sgnifica tutto e niente


per la prima cosa, questo sarà da vedere...

è ovvio che una piattaforma che deve ancora uscire come l'nforce 4 a natale costerà 250€

appunto sarà da vedere ma tra il pensare che saranno regalate e che invece costeranno care credo visti i precedenti penso si possa tranquillamente andare per la seconda.
Sempre che l'Nforce4 sia disponibile nei negozi a Natale i 250E sn una tua pura opinione personale.
E cmq...checc'entra con la notizia e le dual VGA? :D


ma pensate che nvidia che è interessata allo sviluppo di queste soluzioni non abbasera il prezzo??? sono convinto che fra 8-9 mesi queste piattaforme avranno un prezzo concorenziale

convinto te contenti tutti ;)...restano opinioni personali condivisibili o meno


per il problema dei 2 alimentatori qui mi sembra che come vi ho già detto avete un ottica ridotta

è ovvio che mettere 2 6800ultra in una mobo ha consumi veramente esorbitanti, ma secondo voi questa piattaforma è pensata solo per le schede di fascia alta???

un normale alimentatore di buona marca da 350-400W probabilmente è in grado di gestire 2 SV delle future fascia medie e bassa senza grossi problemi quindi non vedo dove susiste il problema...

poi anche se io stesso sono convinto che non è conveniente secondo me è possiblissimo montare 2 6800ultra con un solo alimentatore

infatti queste schede video consumano al massimo carico circa 120w, quindi se per far funzionare una 6800 ultra basta un ali da 350w di buona marca con uno da 500w non si dovrebbero avere grossi problemi, e chi spende 1000€ per le SV avra 120 € per un buon ali!!!!

a parte lo smeno di dover bilanciare l'alimentazione che sarebbe ripartita in due ( cosa n facile da fare) un normale alimentatore NON è in grado di gestire due schede con quella potenza...basta che vai a farti un giro su internet, ti vedi le richieste di una macchina di fascia alta e ti vedi i grafici dei W utilizzati da una 6800 o X800. prova a moltiplicare per due, a considerare che l'erogazione n è sempre lineare ( anche avendo un buon PFC), che per essere sicuri è meglio stare sempre sotto la soglia massima e non di due Watt e potrai capire che la tua considerazione è IMHO sbagliata.

per quanto riguarda invece la parte "fascia alta"...
forse ci dobbiamo capire meglio sul significato di questa ripartizione.
fascia alta per te vuol dire fetta di overclockers che tirano la propria scheda e spendono per avere il meglio ( compatibilmente con i propri danari) oppure significa quel migliaio di persone che spendono per avere una soluzione che attualmente ma sarà così nel prossimo venturo viene sfruttata da un numero assolutamente esiguo di giochi e che è disposta a spendere sull'unghia ( senza aspettare la necessaria futura evoluzione della GPU) SUBITO 700/1000E in schede grafiche?
Per me fascia alta significa la prima e include non 1000 persone ma sicuramente "qlc1 di +."


per il discorso degli spinotti poi nella fascia bassa e un discorso che secondo me non ci sarà nemmeno visto che prob se sarà necessario ce ne sara 1 di quelli normali e tutti gli ali decenti hanno 2 da poter dedicare alle SV...

per uno SLi con 2 SV 6800ultra anche io sono convinto che avra dei problemi visto che ce ne voranno 4 ma visto l'ali che si dovra comprare prob si riuscira a trovare i 4 spinotti necessari

vedremo...sn tutte congetture ora che n hanno molto fondamento...


per il 3° punto è un discorso simile a i precedenti


visto in ottica di schede di fascia estrema ci vorrebbe una potenza di calcolo assurda, ma con 2 SV di fascia media o 2 SV di fascia bassa un processore basterà quindi la piattaforma da usare non costerà una follia, ovviamente come ho detto prima perchè questo si verifichi ci vorra tempo, molto tempo... infatti per ora quelle SV non sono ancora state presentate ma questo discorsocome ho già detto va visto in un ottica futura

può essere in prospettiva futura una soluzione come è stato scritto prima...io n ho il dono della preveggenza, mi limito semplicemente a constatare che ora e nell'immediato prox è una soluzione INUTILE ai + che n fà gridare al miracolo tecnologico e che non può impensierire i competitors perchè preoccupati che chi cambierà scheda grafica si getterà su Nvidia per avere la possibilità di montare due schede al posto di una ( insomma il contrario di quello che hai scritto tu e TygerOne)


per l'ultimo punto che è iòl principale

cioè il discorso della potenza che si radoppia circa a ogni generazione... qui mi sembra che avete l'occhio molto corto...


infatti in tutte le recensioni si è detto che un salto generazionale del genere non si vedeva da anni e che i produttori di SV hanno fatto un mezzo miracolo

un miracolo che a guardar bene ha le gambe corte... perchè infatti lsciando stare la SV nVidia che è totalmente nuova la x800xt è molto simile a una 9800XT con il doppio delle pipeline...

infatti già nella x800PRO le differenze sono meno marcate e cmq è evvidente che una politica del genere non si potra portare avanti per molto...

cosa facciamo??? prossima generaizone SV a 32pipelines??? e poi 64??? e poi le raffrediamo tutti con azoto liquido minimo...

quindi non dico che le evoluzioni non ci saranno ma secondo me saranno molto più difficili e prima del radoppio delle prestazioni ne passera di acqua sotto i ponti... questo ancora di più dando un occhiata ad altri chip di calcolo... i produttori di processori ormai hanno rinnunciato ad aumentare le frequenze e puntano su i biprocessori e poi su i multiprocessori...

prima o poi anche le SV saranno destinate a dover aumentare le GPU piuttosto che le prestazioni dei singoli chip a causa della complessita dei chip che ha già raggiunto vette elevatissime...

oltretutto come ho già detto le SV di nuova generazione hanno tempi molto più lungi... se a natale con le SV che usciranno nuove, cioè r480 e il uso avversario, si avra un aumento delle prestaizoni del 10% sarà già tantissimo... e questo è normale perchè è sempre sucesso...

se andate a dare un occhiata qua (http://www.hwupgrade.it/articoli/661/1.html) potete vedere che è passato più di 1 anno e mezzo da quando è uscita la precedente generazione di SV e che allora se il passo generazionale era stato elevato non era stato grande quanto con le SV attuali, ovviamente valutando le differenze fra test paragonabili perchè è ovvio che se si prende come esempio i test con i filtri le gefo 4 crollano, ma questo perchè usavano algoritmi meno efficenti e non perche la potenza di calcolo era dimezzata

se si fa poi un paragone fra 2 SV di diversa generazione ma basate sulle stesse API, cioè come il confronto fra gefo 3 e 4 che potete leggere qui (http://www.hwupgrade.it/articoli/574/1.html) è evidente che il salto generazionale ha portato ad un aumento delle prestazioni che però non è stato DOPPIO

quindi in definitiva dire che fra 6 mesi o 1 anno uscirà una SV che ha le prestaizoni doppie di una 680ultra mi sembra un utopia bella e buona...

pensate poi alle future fascie medie di nvidia che se rispettano quello che hanno detto qui (http://www.hwupgrade.it/articoli/1033/5.html) ci saranno SV di fascia bassa con 8 pipeline e sv di fascia media con addirttura 12!!!

se fosse vero comprando 2 SV da 250 euro (fascia media) ci si ritroverebbe con un comprato video con 24 pipelines!!! e queste peseranno con un confronto con la 6800ultra

parlare di raddoppio è eccessivo ma di incremento visibile di prestazioni sì....quello che prevedi sul futuro sn tue considerazioni perchè n sappiamo cosa bolle in pentola, quali tecniche di costruzione della GPU si potranno profilare in futuro, nè tantomeno quali saranno le spinte e le richieste da parte del mercato dei videogiochi.

Quello che n riesco a capire è il tuo accanimento verso l'architettura dell'RS3xx che con ottimizzazioni varie ( algoritmi e di progettazione ) ha portato dalla 9700/9800 alla X800.
Ti ripeto la domanda a cui non hai risposto prima.
E' per caso un delitto non iniziare da capo perchè ottimizzando un qlc che c'è già si ottengono lo stesso incrementi prestazionali di un certo spessore?
La Nvidia non è partita da 0 praticamente, solo per fare la splendida e per far capire agli altri produttori dello stesso settore che è in grado di battere la concorrenza sfornando un qlc di completamente nuovo.
Vi è stata COSTRETTA perchè la GPU precedente era stata spremuta lo spremibile e per avere vantaggi consistenti ( che giustificassero il cambio di scheda) non bastava la facilità nell'overclock e l'innalzamento delle frequenze di memorie e di Core, ma ci voleva QUALCOSA DI PIU'...che si è tradotto nell'NV40 e in tutto ciò che ne conseguirà... ( ma fosse stata al posto della ATi avrebbe fatto =, risparmiando e di molto in termini di costi...cioè migliorare quello che già c'era in casa)

Questo ti è chiaro? :rolleyes:



cmq quello che ovlevo dire è che scartare questa tecnologia perchè è solo per fascia estrema è sbagliato... nVidia probaiblmente usera questa tecnologia per tutte le SV che produra da oggi in poi e questo permettera dei grossi vantaggi quanto piattaforme come l'nofrce 4 si sarà diffuso a prezzi accetabili

fino ad allora saranno piattaforma che definirle di nichhia è poco... ma se improvisamente alla nVidia non sono diventati scemi questo sarà il futuro delle SV

ed è innegabile che nVidia è in vantaggi oavendo già imbroccato questa strada

io e altri non abbiamo scritto di scartare a priori la cosa, +ttosto abbiamo contestato le acclamazioni stile "ho-visto-la-luce" solo perchè è una soluzione di fascia non alta ma molto di +, che offre il meglio ora come ora.
Benissimo...il meglio per 1000 persone che vogliono e possono permetterselo.
Dove stà la rivoluzione?

Quando arriveremo se arriveremo al punto in cui l'evoluzione non ci consentirà altro che l'utilizzo di + VGA ( e questo è un punto di vista rispettabile ma non condivisibile perchè cmq è una supposizione sul futuro) allora dirò "era ora" e vi darò ragione.
Dato che n è quello il momento mi limito a dire che è una trovata "senza senso" buona per farsi pubblicità ma nulla altro...anche perchè visto che hai citato l'esempio dei processori, lì la strada è il multi-core ( o almeno sembra quella) e non l'utilizzo di + processori.
E se fosse la stessa anche per le GPU? Dove andrebbe a finire in quel caso lo SLI Nvidia?

Mi permetto inoltre di dire che il fatto di arrivare primi ad una conclusione non significa per forza essere in vantaggio, primo perchè non è detto che quella soluzione diventi standard o cmq venga così bene accolta dal mercato rendendo pensabile un suo futuro impiego e sviluppo ( è un azzardo bello e buono che, e di esempi ce ne sn un'infinità, non è detto vada a buon fine), secondo, perchè sulla strada si possono incontrare delle difficoltà che consentono all'avversario di potersi giocare le proprie carte con serenità e andando avanti per la propria strada.
Mi viene in mente per es l'bbassamento del processo produttivo da parte di Intel e i suoi innumerevoli problemi nella dissipazione termica...

k4rl
02-07-2004, 04:26
allora, per quanto riguarda il mio odio represso per l'architettura r3xx lo puoi vedere vedendo la mia SV che è una 9600PRO:D

se poi irleggi il mio 1° post vedrai che io dico che GIUSTAMENTE ATi ha seguito la politica di sfruttare fino infondo l'architettura r300, il discorso che facevo io però era un altro, e cioè chè questo "sfruttamento" non potra andare avanti all'infinito perchè a meno che nella prossima SV ci mettono 24 o 32 pipelines non penso che potranno ancora usare questa architettura

altra cosa che fondamentalmente non hai percepito è che a mio parere lo SLI di 2 6800ultra è una cazzata inutile per lo spreco eccessivo di soldi

quello che io dico che sarà importante è lo SLI in se, cioè poterlo applicare alle fascie basse...

infatti l'esempio della 5200 era per l'appunto un ESEMPIO per far capire che 2 sv di fascia bassa vanno meglio di una di fascia media e con un costo abb. simile, purtroppo non ho potuto prendere come esempio le future SV di fascia bassa e media di nvidia, ma questo perchè la palla di cristallo per leggere il futuro che avevo ordinato su ebay non mi è ancora arrivata...

il discorso sulle piattaforme che a mio parere nel corso del prox anno scenderanno di prezzo per renderla una piattaforma utilizabile era riferito a quello detto da djjole che diceva che questa piattaforma avra senso solo con SV di fascia alta... può essere un opinione opinabile ma prima o poi i prezzi di tutto scendono...

per il discorso dell'alimentazione, come ho detto prima tu fai un piccolo errore...

tu moltiplichi le richieste di un comp x2 ma tu non devi far questo... devi moltiplicare il consumo della SV x 2

come puoi vedere da questi test (http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-20) il consumo MASSIMO si aggira attorno a i 110 watt

sicuramente un consumo in più considerevole ma che secondo me è gestibile da un ottimo alimentatore...

cmq ripeto che prendere ad esempio la 6800ultra secondo me NON HA SENSO

questa opzione avra senso per le fascie + basse dove non ci dovrebbero essere questi grossisimi problemi

per quanto riguarda il discorso di 2 GPU in una SV o di una GPU dual core penso che sia una cosa inrealizabile sopratutto perchè lo slot PCI express non sarebbe in grado di gestirla ed anche per la difficiolta di far stare tutti i ocmponenti necessari a gestire l'alimentatore in un PCB non immenso

basta dare un occhiata al prototipo uscito al computex di 2 9800PRO... è molto + realizabile 2 SV in parallelo piuttosto di 2 GPU in un PCB

cmq spero di aver fatto capire che per me la cosa positiva di questa soluzione è la possibilità di un futuro di poter comprare 2 SV di fascia inferiore con i soldi circa che avrei speso con 1 di fascia superiore e trovarmi prestazioni generalmente maggiori

poi è ovvio che si dovra vedere l'applicaiblità l'efficenza i possibili problemi ocn alcune apllicazioni ecc... però secondo me potrebbe essere uanbuona soluzione

Dumah Brazorf
02-07-2004, 15:10
Certo che da un po' alla testa passare da 6-7000 3dMark a suppergiù 17-18-20000, come si stima, nel giro di 3 mesi, oc estremi esclusi...
Lo SLI secondo me è un'optional da mettere in cantina, qualcosa che semmai in futuro si potrà utilizzare, se conviene, comprando un'altra scheda altrimenti bon, non è il motivo per cui un utente comprerebbe quella scheda.
Circa 5 anni fa mio fratello ha comprato una bella autoradio per l'auto con il mangianastri. Come optional supporta il caricatore per i cd. Bello, ma oggi il prezzo di un caricatore supera quello di una nuova autoradio con lettore incorporato, 1 solo cd alla volta ma mi conviene...
Per cui lo SLI è una gran cosa se tra 1-2 anni non siamo molto distanti da come siamo adesso.
Ciao.

DioBrando
02-07-2004, 15:43
Originariamente inviato da k4rl
allora, per quanto riguarda il mio odio represso per l'architettura r3xx lo puoi vedere vedendo la mia SV che è una 9600PRO:D

se poi irleggi il mio 1° post vedrai che io dico che GIUSTAMENTE ATi ha seguito la politica di sfruttare fino infondo l'architettura r300, il discorso che facevo io però era un altro, e cioè chè questo "sfruttamento" non potra andare avanti all'infinito perchè a meno che nella prossima SV ci mettono 24 o 32 pipelines non penso che potranno ancora usare questa architettura

altra cosa che fondamentalmente non hai percepito è che a mio parere lo SLI di 2 6800ultra è una cazzata inutile per lo spreco eccessivo di soldi

beh scusa ma n è che n l'ho capito solo io :D

forse le tue parole n sn state abb chiare ;)


quello che io dico che sarà importante è lo SLI in se, cioè poterlo applicare alle fascie basse...

infatti l'esempio della 5200 era per l'appunto un ESEMPIO per far capire che 2 sv di fascia bassa vanno meglio di una di fascia media e con un costo abb. simile, purtroppo non ho potuto prendere come esempio le future SV di fascia bassa e media di nvidia, ma questo perchè la palla di cristallo per leggere il futuro che avevo ordinato su ebay non mi è ancora arrivata...

il discorso sulle piattaforme che a mio parere nel corso del prox anno scenderanno di prezzo per renderla una piattaforma utilizabile era riferito a quello detto da djjole che diceva che questa piattaforma avra senso solo con SV di fascia alta... può essere un opinione opinabile ma prima o poi i prezzi di tutto scendono...


ma l'importanza che gli attribuisci nel poterlo applicare alle fasce basse è relativa.
Che cosa me ne faccio di spendere per due schede di fascia bassa ( da attaccare in SLI) diciamo da 100E l'una quando con gli stessi soldi posso prendermene direttamente una di fascia ( media? cmq superiore) che ne costa 200 e garantisce delle prestazioni sicuramente superiore di una presa singolarmente?
Non trovi che apprezzando lo SLI come soluzione low-end giustifichi maggiormente le tesi di chi non vede in questa soluzione nè un qlc di rivoluzionario nè tantomeno di utile?

Ha molto + senso, anche se per poche persone, destinarlo alla fascia ultra-mega-high top della gamma.


per il discorso dell'alimentazione, come ho detto prima tu fai un piccolo errore...

tu moltiplichi le richieste di un comp x2 ma tu non devi far questo... devi moltiplicare il consumo della SV x 2

come puoi vedere da questi test (http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-20) il consumo MASSIMO si aggira attorno a i 110 watt

sicuramente un consumo in più considerevole ma che secondo me è gestibile da un ottimo alimentatore...


ma io n ho fatto alcun errore così banale :rolleyes: (anche perchè sarei un idiota :O:D )

ti vedi le richieste di una macchina di fascia alta e ti vedi i grafici dei W utilizzati da una 6800 o X800. prova a moltiplicare per due

il moltiplicare per due era ovviamente riferito (cioè mi sembrava una questione logica e di buon senso da non dover spiegare) alle due VGA non alla doppia macchina.

Asserendo in ogni caso la potenza richiesta max sia di 110W a scheda, moltiplica per due questo dato, aggiungici scheda madre, periferiche varie ( USB schede PCI e quant'altro), processore, metodi di dissipazione, RAM, dischi, unità ottiche, sei ancora convinto che un alimentatore di buona marca da 350-400W sia sufficiente a garantire un buon margine di sicurezza e di stabilità del sistema?

IMHO sarebbe una pazzia attaccarci tutta quella roba anche disponendo di un alimentatore con un'ottima erogazione, tipo Tagan o Fortron o lo stesso Enermax.


cmq ripeto che prendere ad esempio la 6800ultra secondo me NON HA SENSO

questa opzione avra senso per le fascie + basse dove non ci dovrebbero essere questi grossisimi problemi

per quanto riguarda il discorso di 2 GPU in una SV o di una GPU dual core penso che sia una cosa inrealizabile sopratutto perchè lo slot PCI express non sarebbe in grado di gestirla ed anche per la difficiolta di far stare tutti i ocmponenti necessari a gestire l'alimentatore in un PCB non immenso

basta dare un occhiata al prototipo uscito al computex di 2 9800PRO... è molto + realizabile 2 SV in parallelo piuttosto di 2 GPU in un PCB

eh vabbè ma nessuno è Nostradamus, ogni gg escono delle soluzioni nuove e ogni gg si pensa che tot cosa sia irrealizzabile mentre spesso poi si viene smentiti.
Diamo tempo al tempo, anche perchè del multicore in realtà n si sà niente, quindi come fai a dire che n è pensabile una linea di sviluppo in questo senso?


cmq spero di aver fatto capire che per me la cosa positiva di questa soluzione è la possibilità di un futuro di poter comprare 2 SV di fascia inferiore con i soldi circa che avrei speso con 1 di fascia superiore e trovarmi prestazioni generalmente maggiori

poi è ovvio che si dovra vedere l'applicaiblità l'efficenza i possibili problemi ocn alcune apllicazioni ecc... però secondo me potrebbe essere uanbuona soluzione

beh ma appunto quella dell'avere prestazioni superiore con due schede grafiche in SLi +ttosto che averne solo una di fascia superiore non può che essere una tua SPERANZA non un qlc supportato da test o da prove concrete.
Non che nessuno voglia privartene, ma se su una speranza devo costruire un giudizio positivo a proposito di un qls prodotto, che è adesso e che adesso e nel prossimo futuro deve dare dei risultati tangibili e concreti, mi spiace ma io n posso essere d'accordo con te ;)

Ergo la mia opinione resta quella di prima e cioè che è una trovata inutile, buona per l'immagine e che farà la felicità di poche persone...le altre potranno avvantaggiarsene ( forse) tra un pò di tempo, sempre che non ci sia nient'altro di meglio.

Ma chi può sapere quello che ci aspetta? :D

zerothehero
05-07-2004, 10:26
Inutile questo sistema...forse solo per chi vorrà sfondare nei benchmark ma totalmente superfluo...

Mettiamo che il pc-e fosse uscito 2 anni fa e che ci fosse stata una 9800pro pc-express..bene lo spendaccione di turno avrebbe speso:

All'inizio 340 euro per la 9800 pro e oggi 220 euro per una 9800pro..il totale sarebbe 560 euro..ma con 450 euro io mi compro una 6800gt che consuma la metà e va il doppio..
Quale è l'utilità di questa cosa allora? nessuna..

johnson
05-07-2004, 17:11
Beh non prendete in considerazione il fatto che oggi comprate una geforce 6800 e magari tra 6/8 mesi ne quando il prezzo si sarà abbassato a 200 euro, potrete facilmente trovare delle 6800 di seconda mano a 100 euro.
Chi mi dice che potrei aspettare 6-8 mesi e comprarmi la scheda di ultima generazione non tiene in considerazione il fatto che c'è molta gente che vuole avere "prestazioni" subito.

zerothehero
05-07-2004, 17:45
si ma cosa mi serve ora due 6800?
ci rendiamo conto che il consumo solo per due schede grafiche del genere sarebbe più di 220 watt? aggiungiamo 80 w di processore ...andando di questo passo non si farà molta strada..se questa è evoluzione tecnologica...

johnson
05-07-2004, 18:11
Ripeto, ora non ti serve. Ora ne compri una per avere delle ottime prestazioni.
Poi fra 8 mesi ti trovi davanti ad una scelta. Le prestazioni non ti bastano più che fai? O compri la vga di ultima generazione e spendi altri 300-400 euro, oppure ti cerchi una bella 6800 in offerta, anche di seconda mano, spendi la metà se la prendi nuova e molto meno se la prendi di seconda mano, e hai un bell'aumento di prestazioni.
Dimmi te se ti sembra una cosa così inutile...

DioBrando
05-07-2004, 18:24
Originariamente inviato da johnson
Ripeto, ora non ti serve. Ora ne compri una per avere delle ottime prestazioni.
Poi fra 8 mesi ti trovi davanti ad una scelta. Le prestazioni non ti bastano più che fai? O compri la vga di ultima generazione e spendi altri 300-400 euro, oppure ti cerchi una bella 6800 in offerta, anche di seconda mano, spendi la metà se la prendi nuova e molto meno se la prendi di seconda mano, e hai un bell'aumento di prestazioni.
Dimmi te se ti sembra una cosa così inutile...

quello che è stato scritto prima evidentemente n è servito a niente :muro::D

Se n ti bastano le prestazioni ( dubito) della 6800, vendi la tua e ti compri la nuova VGA, risparmiando anche sul discorso alimentazione.
Perchè anche tu non sei convinto che per fare andare 2 6800 in SLI basti un buon alimentatore da 400W, vero? :rolleyes:


Buon alimentatore da 400W che corrisponde ai 500-550W mediocri come il Q-tec giusto per inciso...

Poi vabbè la 6800 che tra 6-8 mesi si troverà a 100E :D
Ma se vendono la Geforce Ti4600 a quella cifra usata e la Ati 9500 ancora di +....ed hanno entrambe due anni ( se n + per la 4600)

johnson
06-07-2004, 09:01
Hmm forse sono io che non so contare.
Se la nuova scheda (per esempio la NV50) costa 400 e la NV45 nuova costa 200, significa che se vendo la vecchia a 100€, per comprare la nuova spendo 300, giusto?
Ora lo Sli ti permette con una spesa di 100 (un' altra nv45 di seconda mano) di avere presumibilmente delle prestazioni simili.
Oltre al fatto che una volta stufato, hai 2 buone schede da vendere.
L'alimentatore? Io penso che chi compra un sistema SLI non si faccia problemi per spendere altri 50 euro per un alimentatore, che fa sempre comodo.

Se c'è qualche ladro che vende le cose a più del loro valore commerciale, non puoi dedurne una regola comune. La 5900xt della pov nuova viene sui 200€, non credo che di seconda mano la pagheresti piu di 120€.

DioBrando
06-07-2004, 09:40
Originariamente inviato da johnson
Hmm forse sono io che non so contare.
Se la nuova scheda (per esempio la NV50) costa 400 e la NV45 nuova costa 200, significa che se vendo la vecchia a 100€, per comprare la nuova spendo 300, giusto?
Ora lo Sli ti permette con una spesa di 100 (un' altra nv45 di seconda mano) di avere presumibilmente delle prestazioni simili.
Oltre al fatto che una volta stufato, hai 2 buone schede da vendere.
L'alimentatore? Io penso che chi compra un sistema SLI non si faccia problemi per spendere altri 50 euro per un alimentatore, che fa sempre comodo.

Se c'è qualche ladro che vende le cose a più del loro valore commerciale, non puoi dedurne una regola comune. La 5900xt della pov nuova viene sui 200€, non credo che di seconda mano la pagheresti piu di 120€.

Se chi si compra quelle schede non ha problemi di soldi allora perchè fare tutto questo giro e non prendere direttamente la VGA di ultima generazione +ttosto che un'altra in SLI?

50 Euro per l'alimentatore descritto prima non ti bastano.
Con quei soldi a malapena compri un Q-Tec...per avere un Enermax/Tagan/Superflower che siano in grado di erogare almeno 450W reali non di picco ( perchè per andare sul sicuro ci vuole minimo quella potenza) te ne costa 80-90 a salire....

Una 5900 usata n la trovi per quei soldi così come una 9800 Pro ( che costa nuova 220E) non la trovi a 130-140E, perchè è ancora un'ottima scheda e non si può svenderla mettendola praticamente alla metà del prezzo originario ( vedere mercatino per credere).

Insomma stai basando la convenienza e l'opportunità di utilizzare lo SLI su dei prezzi che onestamente non ci stanno...come il ritenere che una 6800 liscia tra 6-8 mesi ( prezzo di lancio dovrebbe essere 299$ ma da noi sarà sui 330-350E sicuri) costi meno di un terzo del suo valore attuale :eek:; scusa ma questa è follia/fantasia pura ;)

Se fosse così per quel tempo ti faccio una statuina :D, ma mi permetto di dubitare fortemente che avvenga, per delle semplici regole di mercato non per altro...

johnson
06-07-2004, 09:50
Ok, hai ragione.

peace

DioBrando
06-07-2004, 10:14
Originariamente inviato da johnson
Ok, hai ragione.

peace

ma no dai n te la prendere :)

Non è questione di avere ragione, quelli sn i prezzi (alimentatore es. ) e quello è il mercato, che piaccia o meno...:rolleyes:

Tra l'altro dicendo che non si può fare un discorso generale solo perchè alcune persone vendono le schede a quel prezzo è vero.
Solo che tutti coloro che vendono usato in questo mercatino ( 74mila iscritti e potenziali venditori) si attestano su quei livelli, poco +, poco -...e praticamente hai dato loro dei disonesti :asd:


continuo a ritenere lo SLI assolutamente inutile IMHO...


Aloha

johnson
06-07-2004, 15:02
come è assolutamente inutile controbatterti.

IMHO

DioBrando
06-07-2004, 17:06
Originariamente inviato da johnson
come è assolutamente inutile controbatterti.

IMHO

beh certo se porti argomentazioni tipo le 6800 da 100E per la fine dell'anno e gli alimentatori di buona fattura sopra i 400W da 50 Euro, di cui puoi dare un occhio qui (http://www.trovaprezzi.it/categoria.aspx?libera=Alimentatore&id=154&page=8&sort=Prezzo&sortdir=0) , + che inutile direi che è un pò fantasioso e oltremodo ottimista :D


Saluti

ShinjiIkari
09-07-2004, 17:16
Ma fatevi tutti il MAC e finitela co ste schede video da 1200 euro x far girare quei 4 giochi di mer... che ci sono per pc. Esistono le consolle per giocare, non avranno le schede in SLI ma almeno i giochi sono divertenti non stufano dopo 3 giorni! 1000 euro per un mac e 200 euro per una consolle == 1200 euro... rifletteteci! Cmq tanto i professionisti che devono fare rendering non comprano le geforce comprano quelle schedone lunghe 2 metri con sopra 3-4 gpu, forse potrebbe essere una soluzione a basso costo accettabile se verrà applicata sulle quadro per PC e sulle geforce per MAC, mentre ad usarle per giocare saranno i malati di mente... si trovassero una fidanzata no le geforce in SLI :)

cdimauro
09-07-2004, 21:12
Non so quale esperienza tu abbia coi videogiochi, ma restringere questo campo alle sole console vuol dire avere degli enormi paraocchi o inesperienza. :rolleyes:

A me piace giocare, e ogni piattaforma mi regala delle soddisfazioni: arcade, console, home computer, PC, Mac, ecc. Ognuna, in quasi trent'anni, mi ha fatto divertire in modo diverso.

DioBrando
09-07-2004, 23:29
Originariamente inviato da ShinjiIkari
Ma fatevi tutti il MAC e finitela co ste schede video da 1200 euro x far girare quei 4 giochi di mer... che ci sono per pc. Esistono le consolle per giocare, non avranno le schede in SLI ma almeno i giochi sono divertenti non stufano dopo 3 giorni! 1000 euro per un mac e 200 euro per una consolle == 1200 euro... rifletteteci! Cmq tanto i professionisti che devono fare rendering non comprano le geforce comprano quelle schedone lunghe 2 metri con sopra 3-4 gpu, forse potrebbe essere una soluzione a basso costo accettabile se verrà applicata sulle quadro per PC e sulle geforce per MAC, mentre ad usarle per giocare saranno i malati di mente... si trovassero una fidanzata no le geforce in SLI :)

volevo postare ma poi ero a cena n ho avuto tempo.

Questi sn i generi di post che meno sopporto, perchè così facendo non solo dici cose poco opportune ( come quella che per giocare uno si deve comprare la consolle o il Mac...il Mac n ha una cippa di giochi primo, secondo dato che le potenzialità ci sn e i titoli pure è giusto che chi usa il pc abbia la possibilità di giocarci senza affidarsi ad una consolle :rolleyes: ), ma dai perfettamente corpo alla tesi secondo alcuni che chi usa Mac non sà guardare oltre al suo naso e parla da fanatico sprovveduto.

Pessimo :mad:


Poi che c'azzecca lo SLI con la consolle...se uno gioca col pc che ci giochi e spenda i soldi come meglio crede...quello che volevamo capire è se fà bene o meno a investirli in una doppia VGA.

Bah...

ShinjiIkari
10-07-2004, 16:37
Era un commento confusionario, ma non mi pare di aver detto di giocare col mac.. ci mancherebbe altro, ci saranno si e no 3 giochi :)
poi, "secondo dato che le potenzialità ci sn e i titoli pure è giusto che chi usa il pc abbia la possibilità di giocarci senza affidarsi ad una consolle", le potenzialità ci sono non per far giocare la gente ma per farla speculare, i giochi sono pochi stupidi e poco longevi e soprattutto poco ottimizzati. Con una console spendi la metà della metà della metà, ti diverti perche i giochi sono belli e ottimizzati e lasci il computer ad altri utilizzi, come ho fatto io, in tal modo ti puoi liberare 1- dai sistemi operativi microsoft 2- dallo spenderci sopra soldi continuamente, e finalmente vedrai il tuo pc invecchiare con lo stesso processore e capirai che stai sfruttando x bene i soldi che hai speso... non mi sembra una prospettiva cosi disastrosa non credi? Cmq so di essere OT, riguardo lo SLI come ho gia detto penso che sarà molto utile per le soluzioni a basso costo x il rendering professionale se applicato alle quadro altrimenti credo sia una porcata... bye

DioBrando
10-07-2004, 19:12
Originariamente inviato da ShinjiIkari
Era un commento confusionario, ma non mi pare di aver detto di giocare col mac.. ci mancherebbe altro, ci saranno si e no 3 giochi :)
poi, "secondo dato che le potenzialità ci sn e i titoli pure è giusto che chi usa il pc abbia la possibilità di giocarci senza affidarsi ad una consolle", le potenzialità ci sono non per far giocare la gente ma per farla speculare, i giochi sono pochi stupidi e poco longevi e soprattutto poco ottimizzati. Con una console spendi la metà della metà della metà, ti diverti perche i giochi sono belli e ottimizzati e lasci il computer ad altri utilizzi, come ho fatto io, in tal modo ti puoi liberare 1- dai sistemi operativi microsoft 2- dallo spenderci sopra soldi continuamente, e finalmente vedrai il tuo pc invecchiare con lo stesso processore e capirai che stai sfruttando x bene i soldi che hai speso... non mi sembra una prospettiva cosi disastrosa non credi? Cmq so di essere OT, riguardo lo SLI come ho gia detto penso che sarà molto utile per le soluzioni a basso costo x il rendering professionale se applicato alle quadro altrimenti credo sia una porcata... bye

1 i sistemi operativi Microsoft possono servire per fare altro e non per giocarci e basta

2 ti continuo a dire che chi preferisce spendere i propri soldi sul computer per giocare è liberissimo di farlo.
Anche perchè non è vero che per giocare devi cambiare sistema ogni 6 mesi.
Tante persone continuano benissimo a "tirare avanti" con la Geforce 4200/Ati 8500/9500 e un processore comprato 2 anni fà quindi non vedo il problema.
Si spende in base alle proprie disponibilità...

E poi c'è da mettere in cantiere che non tutti i titoli presenti sul pc sn presenti sulle consolles.
Oppure in alcuni casi cn si le conversioni per entrambe le piattaforme, ma mi spieghi io come faccio a giocare a Warcraft con un joypad?
Lo trovo assolutamente scomodo e innaturale.

E anche sulla giocabilità non sn d'accordo.
Tu ti riferisci evidentemente ai giochi FPS tipo Vietcong, UT, CoD, che non durano niente e il cui successo si basa sul gioco in multiplayer ( che per altro resta anni luce avanti rispetto al Live Xbox come scelta, varietà di server, giochi e competitività).
Ma ci sn anche gli RPG, gli RTS, i platform...Un Morrowind, un Age of Mithology, un Warcfract III secondo te sn noiosi e poco longevi e poco ottimizzati? :asd::D


Al di là dell'essere OT, scusa ma il principio "compratevi una consolle invece di spendere i soldi per il pc" IMHO è giusto fino a lì....

JOHNNYMETA
11-07-2004, 15:18
Originariamente inviato da ShinjiIkari
Era un commento confusionario, ma non mi pare di aver detto di giocare col mac.. ci mancherebbe altro, ci saranno si e no 3 giochi :)
poi, "secondo dato che le potenzialità ci sn e i titoli pure è giusto che chi usa il pc abbia la possibilità di giocarci senza affidarsi ad una consolle", le potenzialità ci sono non per far giocare la gente ma per farla speculare, i giochi sono pochi stupidi e poco longevi e soprattutto poco ottimizzati. Con una console spendi la metà della metà della metà, ti diverti perche i giochi sono belli e ottimizzati e lasci il computer ad altri utilizzi, come ho fatto io, in tal modo ti puoi liberare 1- dai sistemi operativi microsoft 2- dallo spenderci sopra soldi continuamente, e finalmente vedrai il tuo pc invecchiare con lo stesso processore e capirai che stai sfruttando x bene i soldi che hai speso... non mi sembra una prospettiva cosi disastrosa non credi? Cmq so di essere OT, riguardo lo SLI come ho gia detto penso che sarà molto utile per le soluzioni a basso costo x il rendering professionale se applicato alle quadro altrimenti credo sia una porcata... bye

Ma per favore,primo il 95% dei giochi delle console c'è anche sul computer,secondo quel 5% sono tutti giochi del Gamecube cioè l'unica console che ha senso avere chi ha già il computer,terzo i giochi per computer sono numericamente 10 volte quelli disponibili su console,quarto il 99% dei giochi presenti sia su console che su PC è tecnicamente migliore su PC,quinto se il tuo PC invecchia senza aggiornarsi significa che non lo stai sfruttando o spremendo per niente.