View Full Version : CrossFire: la sfida di ATI a SLI
Redazione di Hardware Upg
31-05-2005, 03:10
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1291/index.html
Era il 1999 l’anno in cui ATI introdusse la sua prima soluzione a doppio processore grafico il cui nome era Rage Fury MAXX. Oggi, a sei anni di distanza, l’azienda canadese torna nel mercato consumer con la tecnologia CrossFire e lo specifico scopo di dare battaglia alle configurazioni SLI di NVIDIA
Click sul link per visualizzare l'articolo.
Mazzulatore
31-05-2005, 04:58
Caspita... lavorate anche di notte!! Non è che eri in ritardo e Corsini ti stava frustando finchè non finivi il lavoro?
Interessante soluzione per il fatto di poter utilizzare più monitor.
Vado a ninna.
Articolo abbastanza interessante.
Solo sorgono delle considerazioni:
1) E' vero che gli utenti attuali possono considerare la propria scheda X800 e X850 gia' crossfire ready (basta acquistarne un'altra crossfire edition) pero' alla fine il discorso non cambia, ti devi cambiare la scheda madre. Il che non e' poco e rende il sistema un tantino troppo "dedicato". Inoltre una simile scheda madre non dara' problemi con schede non ATI? Poi, secondo me, avere due tipi della scheda diminuisce il valore delle schede normali a favore delle crossfire edition nel qual caso uno decidesse di rivenderle.
2) Ottimo il fatto di non richiedere dei driver dedicati con il supporto ai giochi come invece richiede lo SLI. Questo e' veramente il tallone d'achille dell'nVidia SLI. Tuttavia troppe soluzioni all'interno di questa tecnologia sono Direct3D only. Quindi a mio avviso non e' che sia ancora tutto questo vantaggio. ATI purtroppo sta convincendo la gente di avere un supporto OpenGL un pochino immaturo.
3) Dire che il supertiling e' performante e' troppo "statistico", dipende comunque dal frame in questione. Potrebbe sempre verificarsi il fantomatico caso "peggiore" in cui la parte dei tiles di una scheda sia nel complesso piu' impegnativa dei tiles dell'altra scheda... Anche se raro, dipende sempre troppo da fattori "statistici"
4) Avete detto dapprima che la soluzione piu' performante secondo ATI e' la modalita' supertile poi avete detto che (sempre secondo ATI) e' la alternate frame rendering. Qual e' la verita'?
5) 5 monitor su schede consumer! Alla faccia di chi aveva detto che le schede consumer non vanno bene per il Digital Content Creation. Tie' :sofico:
6) Memoria video complessiva: 2 schede da 512MB daranno lo stesso effetto di una da 1GB (relativamente alla memoria, parlo). Cioe' la disponibilita' di memoria viene sfruttata in modo totalmente trasparente o ci sono eventuali problemi di utilizzo?
Ottimo, anche se temporaneo. Sicuramente a breve nVidia sparera' uno SLI 2.0 che magari indirizzera' i problemi precedenti (attuali) e magari non richiedera' l'uso di una scheda madre dedicata che secondo me e' una forte limitazione. Per come la vedo io, SLI ha le sue pecche ma neanche questo Crossfire e' una soluzione poi tanto perfetta. Poi a seconda dei gusti e delle proprie visioni, qualcuno puo' ancora preferire l'uno a favore dell'altro. Tutt'altro che perfetto. Le piu grosse pecche, in definitiva, sono:
1) Scheda madre dedicata
2) Tecnologie in parte Direct3D only (chissa' John Carmack quanto stara' incazzato adesso)
In ultimo ma non per importanza: le Crossfire edition costeranno di piu' delle normali slave?
Caspita... lavorate anche di notte!! Non è che eri in ritardo e Corsini ti stava frustando finchè non finivi il lavoro?
Interessante soluzione per il fatto di poter utilizzare più monitor.
Vado a ninna.
Staranno col fuso orario di Taipei? :sofico:
stiamo tornando indietro ragazzi è scandaloso sono perplesso,se sono questi i risultati di tante ricerche IMHO è meglio comprarsi davvero una console e via andare.
PS: oltre al costo di 2 sk video di una nuova Mobo tenete presente min un ali di 700wat quasi 1/4 della portata max di un contatore enel residenziale, ma lol accendo la lavatrice e il pc e salta il contatore :-)
Caspita... lavorate anche di notte!! Non è che eri in ritardo e Corsini ti stava frustando finchè non finivi il lavoro?
Potere della tecnologia, ma possono anche caricare in anticipo gli articoli e pubblicarli automaticamente all'ora impostata :ciapet:
http://www.hwupgrade.it/blog/125.html ;)
http://www.hwupgrade.it/articoli/1291/sistema_5.jpg
Questa è particolare... il conettore DVI della scheda master non è un comune Single-Link...
E' di tipo Dual Link? :wtf:
Articolo abbastanza interessante.
Solo sorgono delle considerazioni:
1) E' vero che gli utenti attuali possono considerare la propria scheda X800 e X850 gia' crossfire ready (basta acquistarne un'altra crossfire edition) pero' alla fine il discorso non cambia, ti devi cambiare la scheda madre. Il che non e' poco e rende il sistema un tantino troppo "dedicato". Inoltre una simile scheda madre non dara' problemi con schede non ATI? Poi, secondo me, avere due tipi della scheda diminuisce il valore delle schede normali a favore delle crossfire edition nel qual caso uno decidesse di rivenderle.
2) Ottimo il fatto di non richiedere dei driver dedicati con il supporto ai giochi come invece richiede lo SLI. Questo e' veramente il tallone d'achille dell'nVidia SLI. Tuttavia troppe soluzioni all'interno di questa tecnologia sono Direct3D only. Quindi a mio avviso non e' che sia ancora tutto questo vantaggio. ATI purtroppo sta convincendo la gente di avere un supporto OpenGL un pochino immaturo.
3) Dire che il supertiling e' performante e' troppo "statistico", dipende comunque dal frame in questione. Potrebbe sempre verificarsi il fantomatico caso "peggiore" in cui la parte dei tiles di una scheda sia nel complesso piu' impegnativa dei tiles dell'altra scheda... Anche se raro, dipende sempre troppo da fattori "statistici"
4) Avete detto dapprima che la soluzione piu' performante secondo ATI e' la modalita' supertile poi avete detto che (sempre secondo ATI) e' la alternate frame rendering. Qual e' la verita'?
5) 5 monitor su schede consumer! Alla faccia di chi aveva detto che le schede consumer non vanno bene per il Digital Content Creation. Tie' :sofico:
6) Memoria video complessiva: 2 schede da 512MB daranno lo stesso effetto di una da 1GB (relativamente alla memoria, parlo). Cioe' la disponibilita' di memoria viene sfruttata in modo totalmente trasparente o ci sono eventuali problemi di utilizzo?
Ottimo, anche se temporaneo. Sicuramente a breve nVidia sparera' uno SLI 2.0 che magari indirizzera' i problemi precedenti (attuali) e magari non richiedera' l'uso di una scheda madre dedicata che secondo me e' una forte limitazione. Per come la vedo io, SLI ha le sue pecche ma neanche questo Crossfire e' una soluzione poi tanto perfetta. Poi a seconda dei gusti e delle proprie visioni, qualcuno puo' ancora preferire l'uno a favore dell'altro. Tutt'altro che perfetto. Le piu grosse pecche, in definitiva, sono:
1) Scheda madre dedicata
2) Tecnologie in parte Direct3D only (chissa' John Carmack quanto stara' incazzato adesso)
In ultimo ma non per importanza: le Crossfire edition costeranno di piu' delle normali slave?
Forse è bene chiarire che CrossFire non è un modo per permettere a tutti di passare a due schede video lavoranti in parallelo. CrossFire, così come SLI, resta e rimane una soluzione dedicata ad un mercato di fascia estremamente esclusivo. Pertanto, se qualcuno ha problemi di soldi al punto da potersi permettere di comprare due schede video, ma non di cambiare scheda madre, evidentemente non appartiene a questa fascia di mercato, non può permettersela. La scelta di ATI è estremamente precisa ed è stata presa con lo specifico scopo di dare un forte impulso al suo mercato dei chipset di fascia alta. Del resto non mi sembra che per SLI la storia sia stata differente al momento del suo lancio e anche oggi per ottenere un'implementazione SLI + efficiente possibile bisogna cambiare scheda madre e comprare una basata su NFORCE 4 SLI.
SuperTiling consente di ottenere un bilanciamento del carico di lavoro migliore di quello ottenuto dalla modalità Scissor (secondo quanto dice ATI), ma la modalità in grado di offrire le migliori prestazioni resta e rimane AFR, anche se quest'ultima, nonostante sia disponibile con Direct3D e OpenGL, potrebbe dar luogo ad alcuni problemi di compatibilità.
Riguardo la compatibilità di alcune modalità solo in Direct3D... beh per l'aumento delle prestazioni non penso sia un problema tanto al massimo si può usare AFR o, nel caso di problemi, la modalità Scissor. Del resto il fatto che i titoli OpenGL siano così pochi probabilmente giocherà a vantaggio di AFR in quanto sarà più facile ottimizzarne il rendimento per risolverne i problemi.
Fai ciao ciao con la manina nVidia.
Hai voluto chiudere 3dfx a suo tempo.... stavolta te la prendi in quel posto andando e venendo.
Per quel che mi riguarda dopo aver provato gli immani casini che nVidia genera con i suoi driver ed il fatto che la maggior parte delle volte le prestazioni sono deludenti resterò fedele ad Ati
soluzione al quanto problematica..... Cioè bisogna comparare una scheda Crossfire edition, e un chipset Ati che non sono minimamente paragonabili agli nforce, sia come accessori che come dotazione.
Yuzuke@81
31-05-2005, 10:11
come lo sai????
le prestazioni non sono ancora note, e per la dotazione e accessori vedrai che la differenza la faranno le varie marche...
la cosa che mi turba è che 2 schede non sono assolutamente necessarie, servono solo per fare gli sboroni nei test...
l'idea di più monitor invece è ottima
harlock10
31-05-2005, 10:16
IL cavo esterno come per i vecchi acceleratori grafici!!!!!!!!!
Comunque a fare prodotti migliori copiando sono bravi tutti.
Polemiche a parte secondo me il fatto di cambiare scheda madre può risultare una seccatura inquanto il passaggio da agp a pcexpress poteva giustificare il fatto il comprare una scheda madre con nf4 sli per poi usare una sola vga( e infatti ne hanno vendute a vagonate) mentre adesso bisognerebbe sostituire delle schede praticamnte nuove per prenderne un'altra che tra l'altro non è ancora stata collaudata sul campo con rischi di instabilità (vedi primi nforce).
Per il resto però questa tecnologia sembra essere interessante spero di potere vedere presto dei benck imrziali per vedre davvero chi da le prestazioni migliori.
Ciauzz
ps complimenti per l'ottima recensione
soluzione al quanto problematica..... Cioè bisogna comparare una scheda Crossfire edition, e un chipset Ati che non sono minimamente paragonabili agli nforce, sia come accessori che come dotazione.
I chip set ATI sn nuovi di pacca... come fai a dire che non vanno ? nessuno li ha mai provati :)
non mi fido proprio del south bridge uli che verrà impiegato con questi chipset.
Poi la validità del controller RAID SATA/PATA degli nforce a volte è inarrivabile neanche dai chipset intel, per non parlare del firewall hardware integrato.
Secondo me i chipset nforce sono ancora distanti anni luce da quelli ati, per questo non prenderei mai un sistema con questi rd400
Cioè non ti fidi a priori :D
I chip set ATI sn nuovi di pacca... come fai a dire che non vanno ? nessuno li ha mai provati :)
Nuovo di pacca non proprio... è una revisione del Radeon Xpress 200 che certo non era al livello del NF4 (e uno che compra due schede video... ci guarda a queste cose)
Però oltre ad aggiungere il crossfire posso averlo benissimo ritoccato qui e là, vedremo cosa farà sul banco di prova, dopotutto ATI sà sicuramente che con questa soluzione non solo và a sfidare SLI ma automaticamente anche NF4 :)
E se spunta una valido concorrente a NF4 ne possono solo guadanare tutti.
La cosa che non mi piace proprio, sia del Crossfire sia dello SLI, è che occorrono schede video specifiche e schede madri specifiche (per non parlare di requisiti spropositati in termini di alimentazione). Nel momento in cui una persona vuole fare un upgrade si ritrova con le mani legate, bah.
Interessanti queste soluzioni se nel futuro permetteranno l'utilizzo di schede video dual gpu (cosa che già sta succedendo, anche se in modo molto timido, con lo SLI di Nvidia) e, soprattutto, se il prezzo delle dual GPU si abbasserà nel tempo(sinceramente non so se in futuro le case di schede video punteranno sul dual-GPU come sta succedendo ora per le CPU).
A parte questo OTTIMO ARTICOLO ;)
ghibli2307
31-05-2005, 10:50
soluzione al quanto problematica..... Cioè bisogna comparare una scheda Crossfire edition, e un chipset Ati che non sono minimamente paragonabili agli nforce, sia come accessori che come dotazione.
Io direi che piu delle 2 schede video mi preoccuperei delle prestazioni di un chipset ancora troppo "giovane" sembra un confronto Anakin VS Obi W. :D
Prima di cambiare mobo dopo anni di nForce, mi devono far vedere come si comporti anche in singola scheda GPU e poi si vede...
io non parlo solo delle prestazioni ma anche delle ricche fetures che ha nf4
Spectrum7glr
31-05-2005, 10:55
il sistema crossfire è molto più flessibile dello SLI ma l'incognita della validità del chipset ATI non è da sottovalutare: a memoria d'uomo ATI non è mai riuscita a fare chipset decenti e questa volta ha anche a che fare con un chipset riuscitissimo come l'Nforce 4...aspettiamo...
Ma tecnicamente parlando che problemi ci potrebbero essere nell' utilizzare Crossfire con nForce 4 ? :sofico:
Io preferisco spendere 300dollaroni e comprarmi una ps3/xbox 360 che saranno un bel passo avanti anche con una scheda sli.
Ricordiamoci infatti che nessuno mai programmerà un gioco per sfruttare tutta quella potenza.
Intendiamoci aumenterà velocità e aa ma non di sicuro la grafica in se dei vg che sarà pensata anche per chi ha ancora una 8500
Spectrum7glr
31-05-2005, 11:05
Ma tecnicamente parlando che problemi ci potrebbero essere nell' utilizzare Crossfire con nForce 4 ? :sofico:
che non funziona
heavymetalforever
31-05-2005, 11:06
Scusate, ma se monto una X800 con pixel shader 2.0 e una R520 con pixel shader 3 in crossfire come pensate che si comporterà il gioco?
Mi permetterà di abilitare il PS3 oppure si adatterà a quello "piu' basso" considerato che le schede lavorano insieme?
che non funziona
E fin qui ci siamo, ma mi piacerebbe il sapere anche il xche :)
Scusate, ma se monto una X800 con pixel shader 2.0 e una R520 con pixel shader 3 in crossfire come pensate che si comporterà il gioco?
Mi permetterà di abilitare il PS3 oppure si adatterà a quello "piu' basso" considerato che le schede lavorano insieme?
Se fosse un sistema intelligente bilancerebbe il carico e farebbe gestire uno standard a R520 e l'altro a X800 o ad entrambe. Probabilmente scalerà verso il basso :)
Nuovo di pacca non proprio... è una revisione del Radeon Xpress 200 che certo non era al livello del NF4 (e uno che compra due schede video... ci guarda a queste cose)
Però oltre ad aggiungere il crossfire posso averlo benissimo ritoccato qui e là, vedremo cosa farà sul banco di prova, dopotutto ATI sà sicuramente che con questa soluzione non solo và a sfidare SLI ma automaticamente anche NF4 :)
E se spunta una valido concorrente a NF4 ne possono solo guadanare tutti.
Per come la vedo io sn convito che hanno rifatto moltissime parti del chip set :)
Io preferisco spendere 300dollaroni e comprarmi una ps3/xbox 360 che saranno un bel passo avanti anche con una scheda sli.
Infatti farò lo stesso ... ;)
Non so se l'ha gia' detto qualcun altro, ma come mai le foto in questo articolo sono cosi' scure? Con un qualsiasi programma di foto ritocco aumentare luminosita' e contrasto e' un gioco da ragazzi e sicuramente ne gioverebbero di "visibilita'"...
...ovviamente e' solo un consiglio ;)
ghibli2307
31-05-2005, 11:36
il problema poi a questo punto sara pure il prezzo della Mb... e chi la produrra...
Mi sa che qualcuno non ha capito molto bene come funziona, e non è che sia stato spiegato molto bene: le schede "master" (che ATI chiama CrossFire Edition) saranno, almeno al momento, una X850 256MB (549$) e potrà essere accoppiata SOLO con schede X850 (XT PE, XT, Pro), e due modelli X800 128MB (249$) e 256MB (299$) che potranno essere accoppiati SOLO con schede X800 (XT, XT PE, XL, Pro, liscie).
Ma la cosa più "bella" è che quando accoppiata ad una scheda "slave" con 12 pipeline, la CrossFire a 16 pipeline ne disabiliterà 4, per portarsi anche lei ad usarne 12: bella furbata :)
Leggetevi la rece su anandtech, e capirete meglio ciò di cui parlo
Bhè nel primo articolo da Taipei si vedono schede madri di Dfi e Asus se non ricordo male (la prima sicuro, la seconda potrei sbagliarmi) con due pci-express e chipset Ati. Se non altro un paio di marche decenti ci sono :)
Prezzi... bhè dubito che il chipset inciderà molto a parità di dotazione :)
CiccoMan
31-05-2005, 11:47
Peccato :( ... io sogno un multi gpu che possa essere utilizzato con qualsiasi chipset e con qualsiasi gioco, come era per lo sli di 3dfx! Ma dico io, ci vorrà tanto a fare una cosa del genere... o forse ci sono degli interessi commerciali dietro che non lo permettono :confused:
Mi sa che qualcuno non ha capito molto bene come funziona, e non è che sia stato spiegato molto bene: le schede "master" (che ATI chiama CrossFire Edition) saranno, almeno al momento, una X850 256MB (549$) e potrà essere accoppiata SOLO con schede X850 (XT PE, XT, Pro), e due modelli X800 128MB (249$) e 256MB (299$) che potranno essere accoppiati SOLO con schede X800 (XT, XT PE, XL, Pro, liscie).
La differenza tra "Ati raccomanda" e "accoppiare solo" è abbastanza marcata :)
Ati raccomanda :)
Quindi il tutto è stato spiegato abbastanza bene, forse è Anandtech che non ha capito come funziona :) O forse tu che non hai letto a modo :)
aceto876
31-05-2005, 11:52
Ma come fa ad essere bilanciato il supertiling?
Nel senso:ammettiamo di avere due schede differenti tipo una x800xl e una x800xt. Il driver fa la scacchiera e dà le caselle bianche alla xl e le caselle nere alla xt. Dato che il carico di lavoro è praticamente lo stesso, la xt finirà prima il lavoro e dovrà aspettare la xl prima che si possa ricostruire l'intero frame.
A meno che il numero di caselle dato in pasto all'una e all'altra sia proporzionale alla potenza della singola scheda
Un problema del genere ce l'hai con l'AFR. Anche lì la scheda veloce deve aspettare la scheda lenta.
La modalità che sulla carta appare più adatta a schede diverse mi pare sempre quella Scissor che varia in modo dinamico la divisione dello schermo. Ma c'è sempre il problema della compatibilità
In definitiva credo che il fatto di usare schede differenti sia più flessibile ma dannoso per le prestazioni. Meglio due schede uguali anche per ATI (è un mio parere non fondato su alcuna sperimentazione). In ogni caso meglio una scheda sola. Il rapporto costi benefici di un sistema a doppia scheda mi pare sempre scarso.
La differenza tra "Ati raccomanda" e "accoppiare solo" è abbastanza marcata
Ati raccomanda
Quindi il tutto è stato spiegato abbastanza bene, forse è Anandtech che non ha capito come funziona O forse tu che non hai letto a modo
Ma l'hai vista l'ultima tabella su anandtech ? quella con gli accoppiamenti delle schede? io di certo non ho capito male, se poi anandtech scrive cretinate, questo non lo so
Peccato :( ... io sogno un multi gpu che possa essere utilizzato con qualsiasi chipset e con qualsiasi gioco, come era per lo sli di 3dfx! Ma dico io, ci vorrà tanto a fare una cosa del genere... o forse ci sono degli interessi commerciali dietro che non lo permettono :confused:
Mi spiace ma continuerai a sognarlo :)
Dubito fortemente che sia Nvidia (che produce chipset) che Ati (che produce chipset) manderanno fuori chipset che sfruttano un copyright della concorrente (che dovrebbe dargli qualche delucidazione tecnica) e schede video che funzioneranno sul chipset della concorrente (stessa cosa, dovrebbero dare qualche delucidazione tecnica di troppo).
Ma l'hai vista l'ultima tabella su anandtech ? quella con gli accoppiamenti delle schede? io di certo non ho capito male, se poi anandtech scrive cretinate, questo non lo so
La seconda che hai detto :)
Anche perchè X800 e X850 sono la stessa gpu con frequenze di poco cambiate. Quindi non vedo perchè porre determinati paletti :)
In ogni caso meglio una scheda sola. Il rapporto costi benefici di un sistema a doppia scheda mi pare sempre scarso.
L'ho sempre sostenuto e continuo a farlo. In questo Crossfire di carino ci vedo solo il Super AA, ma mi piacerebbe vedere se sul serio offre un miglioramento rispetto al 6x (che in teoria dovrebbe essere discretamente gestibile con due schede, magari con due R520).
Quindi non vedo perchè porre determinati paletti
Magari il "problema" risiede nelle schede CrossFire, che devono essere accoppiate solo con schede dello stesso GPU, anche se in versioni diverse
The Radeon X850 CrossFire Edition cards, with 256MB of graphics memory can be paired with any standard Radeon X850 based graphics card. The Radeon X800 CrossFire Edition graphics cards, which come with either 128 MB or 256 MB of graphics memory, can be paired with any Radeon X800 series graphics card
Dritto dritto dal sito ATI: sei ancora sicuro che anandtech dica cretinate? :)
Dritto dritto dal sito ATI: sei ancora sicuro che anandtech dica cretinate? :)
Ancora, miseria santa. X800 e X850 sono la stessa cosa. Ovvio che Ati ti dica che X800 va solo con X800 e X850 va solo con X850, ma perchè due gpu IDENTICHE che si chiamano in modo diverso non dovrebbero andare?
" CrossFire is an open platform that supports multiple chipsets and a wide variety of graphics cards can be mixed and matched in a single system."
Poco sopra, bastava leggere no?
aceto876
31-05-2005, 12:11
L'ho sempre sostenuto e continuo a farlo. In questo Crossfire di carino ci vedo solo il Super AA, ma mi piacerebbe vedere se sul serio offre un miglioramento rispetto al 6x (che in teoria dovrebbe essere discretamente gestibile con due schede, magari con due R520).
In effetti il super aa è l'unica feature che rende vincente la soluzione ATI (o che la rende meno inutile). Tutti usano al giorno d'oggi i filtri ( o almeno a tutti piacerebbe usarli). Una cosa del genere ti farebbe avere in AA4x alla velocità di un 2x su singola scheda. E questo schema immagino non abbia problemi di compatibilità con nessun gioco, dato che ogni scheda fa tutto per i fatti suoi. E rispetto al temporal AA ha il vantaggio di non diventare accecante a frame rate bassi.
In pratica si gioca con AA alti dove una scheda sola permette AA bassi. Varrà la pena?
^TiGeRShArK^
31-05-2005, 12:21
ATI has given us the indication that CrossFire should work on Intel Chipsets as well as their own. This could give new life to those Intel designs originally targeted at SLI. Though not explicitly stating that CrossFire will work in an NVIDIA SLI board, it definitely seems possible. From an adoption/compatibility standpoint, ATI is certainly "evaluating other options".
quindi ancora NON SI SA NULLA DI CERTO sulla compatibilità di crossfire con le altre skede madre.... ma da qui a dire ke SICURAMENTE non potrà andare sulle altre skede ce ne passa visto ke *probabilmente* potrà funzionare anke su skede intel.
X quanto riguarda le prestazioni su anandtech hanno benchato doom3 e devo dire ke si hanno incrementi MOLTO interessanti rispetto ad una skeda sola.
X quanto riguarda i consumi la soluzione ATI è ovviamente migliore dato ke già una skeda sola nvidia consumava un bel pò di più.... ovviamente raddoppiando le skede il gap tenderà ad aumentare.
X quanto riguarda le feature la soluzione ATI sembra molto migliore essendo compatibile, almeno sulla carta, con tutti i gioki, al contrario dell'SLI, e inoltre c'è il miglioramento dell'AA.
Detto questo non credo comprerò mai una soluzione SLI o CROSSFIRE.IMHO sono soldi sprecati dato ke la skeda della generazione successiva, a distanza di un anno raggiungerà le prestazioni di due skede attuali in sli......e cmq non credo ke a Baldur's Gate 2 beneficierò di queste soluzioni dual! :D:D:D
Dark Schneider
31-05-2005, 12:21
Personalmente l'unica cosa che trovo interessante è il Super AA. Il resto mi dice poco se non zero. Ma questo perchè cmq non sono un gran estimatore delle soluzioni multi schede. Infatti anche lo SLI non mi dice nulla. Poi troppo consumo di watt.
Che poi perdonate....ma a mio avviso son solo per chi fa il 3d mark ste soluzioni SLI o CrossFire che siano. Non di certo per "giocare". :rolleyes:
Peccato solo che il super AA non funzioni in opengl.
Comunque sembrerebe avere dei vantaggi rispetto allo Sli,se non altro per la compatibilità con tutti i giochi,e la minor richiesta di energia.
" CrossFire is an open platform that supports multiple chipsets and a wide variety of graphics cards can be mixed and matched in a single system."
Poco sopra, bastava leggere no?
Vabbè, te vedila come ti pare, quello che sta scritto sul sito ATI mi pare abbastanza chiaro.
Ed infatti la "wide variety of graphics cards" è rappresentata dalla compatibilità con le varie versioni delle GPU X850 e X800 delle singole schede CrossFire.
Perché dovrebbe essere ovvio che ATI "dica che X800 va solo con X800 e X850 va solo con X850" se non fosse la verità ? Secondo te cosa ci guadagnerebbe a dire che le X850CF vanno solo con le X850 se non fosse vero ? se non fosse vero non credi che si auto sputtanerebbe una fetta di clienti che magari hanno una X800 e vogliono accoppiarla con una X850 CF che costa il doppio di una X800CF? Libero di pensarla come vuoi, ma non mi sembra ci siano dubbi
blue_eyes
31-05-2005, 12:32
Ciao a tutti ;)
hmmm...il punto qui a mio avviso e' che ce la stanno rigirando come vogliono...e si sa'...il consumatore e' stupido ;)
In primo luogo vorrei farvi notare e forse molti di voi gia' lo sanno che le specifiche dell' AGP 4.0 erano pronte ormai da molto tempo...con questa nuova versione l'AGP avrebbe avuto il supporto a due schede video!
Cio' avrebbe significato il non dover buttare soldi per l'imminente passaggio a schede PCI-E che come si e' visto non hanno nulla di piu' da offrire...le questioni sulla banda passante sono tutta TEORIA! (corriamo a dare un'occhiata alle press-release che PoweVR fece a tempo debito sulle sue tecnologie e ci renderemo conto di cio').
In secondo luogo questa non va chimata assolutamente tecnologia! E' solo speculazione informatica!
Sistemi multiprocessore sono sempre esistiti e ne hanno sempre dimostrato una buona validita'...non per questo dobbiamo assistere ad una loro mal interpretazione...computer con multi schede??? Ma dove si e' vista una cosa del genere? E' abberrante! Io non vedo incrementi prestazionali vedo solo piu' lavoro per le fabbriche di produzione delle schede...piu' materiale che si possa reciclare e piu' introiti proveniente da gente stupida che si fa abbagliare dall' ottone "rifilato" come oro...
Vera tecnologia? Sapete qual'e'? E' quella presente nelle nuove macchine arcade Sega...Multiprocessori montati su UNA scheda soltanto con tanto di TBDR (tile based deferred rendering con tanto di Hidden Surface removal - pixel per pixel in hardware)...questa e' tecnologia!
Spero da tanto tempo che la PowerVR torni nel mondo dei Pc-desktop e dia un bel calcio in culo a questi due colossi sforna pizzette...
Non ve ne state rendendo conto...ma vi stanno propinando "tecnologia" con la velocita' evolutiva di una lumanca...Rendering immediati IMR con sempre piu' bisogno di memoria passante (bandwidth)...e le soluzioni sono sempre le stesse...ogno anno vengono creati nuovi standard per le memorie per soddisfare le richieste dei loro ESOSI e INEFFICACI sistemi di "rendering" i quali risalgono agli albori del 1980...state pensando che non sia vero? E come se lo e'!
Volete avere una soluzione multo processore grafico? Bene...SINGOLA scheda con multi processore! TBDR e il gioco e' fatto! Questa e' tecnologia!
ATI, NVIDIA, Crossfire...crosswhater...SLI...memorie GDDR3...andate tutti a fa*****!
Consumatore...svegliaaaaa!
Per quanto riguarda lo SLI di Nvidia sta andando come avevo previsto :D
Immaginavo che questo sarebbe accaduto appena ATI avesse presentato il suo AMR(Crossfire)
http://www.theinquirer.org/?article=23593
il Biondo
31-05-2005, 12:37
1) E' vero che gli utenti attuali possono considerare la propria scheda X800 e X850 gia' crossfire ready (basta acquistarne un'altra crossfire edition) pero' alla fine il discorso non cambia, ti devi cambiare la scheda madre. Il che non e' poco e rende il sistema un tantino troppo "dedicato". Inoltre una simile scheda madre non dara' problemi con schede non ATI?
Secondo me ti sbagli il sistema funziona su qualunque scheda madre con 2 Slot PCI-E per cui anche VIA, Intel o nForce4-Ultra (tipo la DFI Ultra-D).
Loro hanno presentato un nuovo chipset che supporta i due slot PCI-E 16x ma questo non vuol dire che è obbligatorio usarlo.
E poi la scheda madre ATI perché dovrebbe dare problemi con schede vido di altre case? Le nForce4 anche SLI danno problemi con le Radeon? Non mi pare proprio.
In primo luogo vorrei farvi notare e forse molti di voi gia' lo sanno che le specifiche dell' AGP 4.0 erano pronte ormai da molto tempo...con questa nuova versione l'AGP avrebbe avuto il supporto a due schede video!
Dubito molto, per come è fatto l'agp, che si possano montare più schede video :)
Cio' avrebbe significato il non dover buttare soldi per l'imminente passaggio a schede PCI-E che come si e' visto non hanno nulla di piu' da offrire...le questioni sulla banda passante sono tutta TEORIA! (corriamo a dare un'occhiata alle press-release che PoweVR fece a tempo debito sulle sue tecnologie e ci renderemo conto di cio').
Come il passaggio tra Agp 2 e Agp 3 :)
Ma come, la banda superiore del Pci è tutta teoria e l'agp ora diventa la panacea di tutti i mali :eek:
In secondo luogo questa non va chimata assolutamente tecnologia! E' solo speculazione informatica!
Due modi di chiamare la stessa cosa per quanto mi riguarda :)
Sistemi multiprocessore sono sempre esistiti e ne hanno sempre dimostrato una buona validita'...non per questo dobbiamo assistere ad una loro mal interpretazione...computer con multi schede??? Ma dove si e' vista una cosa del genere? E' abberrante! Io non vedo incrementi prestazionali vedo solo piu' lavoro per le fabbriche di produzione delle schede...piu' materiale che si possa reciclare e piu' introiti proveniente da gente stupida che si fa abbagliare dall' ottone "rifilato" come oro...
Vabbhè, il discorso naturalista lo potevi pure risparmiare :)
Vera tecnologia? Sapete qual'e'? E' quella presente nelle nuove macchine arcade Sega...Multiprocessori montati su UNA scheda soltanto con tanto di TBDR (tile based deferred rendering con tanto di Hidden Surface removal - pixel per pixel in hardware)...questa e' tecnologia!
O fai Tile Based Rendering o lo fai pixel per pixel :) Perchè un Tile non è un pixel. Ah, ti rovino la sopresa ma HSR lo fanno pure Nvidia (dal Gf3) e Ati (dal radeon 256). Ora lo fanno in modo nettamente migliore di PowerVr :)
Spero da tanto tempo che la PowerVR torni nel mondo dei Pc-desktop e dia un bel calcio in culo a questi due colossi sforna pizzette...
Era tornata, si è visto cosa ha sfornato. Una discreta scheda video. Morta.
Non ve ne state rendendo conto...ma vi stanno propinando "tecnologia" con la velocita' evolutiva di una lumanca...Rendering immediati IMR con sempre piu' bisogno di memoria passante (bandwidth)...e le soluzioni sono sempre le stesse...ogno anno vengono creati nuovi standard per le memorie per soddisfare le richieste dei loro ESOSI e INEFFICACI sistemi di "rendering" i quali risalgono agli albori del 1980...state pensando che non sia vero? E come se lo e'!
Come detto, il tuo discorso parte dal presupposto errato che Nvidia e Ati non facciano rimozione delle superfici nascoste. Ati si spinge fino al singolo pixel. Ti pare inefficace? :)
Volete avere una soluzione multo processore grafico? Bene...SINGOLA scheda con multi processore! TBDR e il gioco e' fatto! Questa e' tecnologia!
ATI, NVIDIA, Crossfire...crosswhater...SLI...memorie GDDR3...andate tutti a fa*****!
Consumatore...svegliaaaaa!
Ecco, magari informati pure tu, ti rilassi e poi riscrivi un post che contenga anche qualcosa di tangibile per sostenere le tue testi. Singola scheda, multi processore, tbr: cioè ciò che abbiamo già. Oggi. Senza PowerVr :)
Paolo Corsini
31-05-2005, 12:44
quindi ancora NON SI SA NULLA DI CERTO sulla compatibilità di crossfire con le altre skede madre.... ma da qui a dire ke SICURAMENTE non potrà andare sulle altre skede ce ne passa visto ke *probabilmente* potrà funzionare anke su skede intel.
E questo, fino a prova contraria, lo dici tu.
Peccato che dimentichi una cosa importante: ATI non ha nessun interesse a dare informazioni ai produttori di chipset, oltre che a concedere la licenza d'uso, che permetta loro di utilizzare Crossfire sui loro prodotti.
Questa è la posizione ufficiale di ATI, e pensandoci bene la stessa di NVIDIA con riferimento a SLI; a mio avviso mancano le premesse affinché il quadro possa cambiare nel breve periodo.
Ciao a tutti ;)
Volete avere una soluzione multo processore grafico? Bene...SINGOLA scheda con multi processore! TBDR e il gioco e' fatto! Questa e' tecnologia!
ATI, NVIDIA, Crossfire...crosswhater...SLI...memorie GDDR3...andate tutti a fa*****!
Consumatore...svegliaaaaa!
Per Nvidia già esistono queste soluzioni e anche ati ne ha in progetto(leggi l'articolo sulla roadmap di ati),e comunque si basano sempre su sli e crossfire,e tra l'altro per quanto mi riguarda queste due tecnologie hanno significato solo se porteranno ad avere in futuro schede di con due gpu onboard a prezzi accessibili.
aceto876
31-05-2005, 12:53
Secondo XBitLabs (http://www.xbitlabs.com/articles/video/display/crossfire_5.html) l'uso di schede diverse comporta, come pensavo anch'io, che la scheda veloce si adegui a quella lenta. Quindi bella cazzata usare schede differenti. Una delle due è sprecata...
C'è una cosa di cui non si è ancora saputo nulla: la possibilità di costruire schede video dual GPU.
SLI lo permette, e abbiamo tutti visto con quali limiti.
Chissà se ATI ha pensato qualcosa di meglio in proposito...
Se fosse possibile costruire una dual Radeon compatibile con qualunque mobo Crossfire (e non una dedicata), o, fantahardware, compatibile con qualunque mobo PCI-E :eek: allora sarebbe una tecnologia rivoluzionaria.
Molto difficile... [fantahardware_mode_on] però su questo tipo di utilizzo non si è ancora fatta molta luce o sbaglio? :confused: (suspence)
limiti nei dual gpu nvidia ? e quali sarebbero questi limiti ? forse intendi solo nell'assorbimento perchè per il resto non ci sono limitazioni imposte dal collegamento delle due gpu
blue_eyes
31-05-2005, 13:42
DjLode...ti sei fumato qualcosa oggi a pranzo? ;)
DjLode...ti sei fumato qualcosa oggi a pranzo? ;)
Segnalato, quella confidenza la usi con qualcun altro.
Cos'è, già finito gli argomenti e si passa dritto dritto alle offese? E' comodo sparare e poi offendere. A casa mia certe cose prima si dimostrano.
blue_eyes
31-05-2005, 13:47
DjLode...il TBDR non ha nulla a che fare con le tecniche di HSR implementate nei vecchi chip KyroII...sono due caratteristiche ben distinte...ma non posso sorvolare il fatto che gli attuali algoritmi di rilevazione delle superfici nascoste d'oggi implementati sia da ATI che da NVIDIA siano migliori di cio' che adotto' PowerVR anni addietro...era roba potente quella che ti sei fumato ;)
DjLode...il TBDR non ha nulla a che fare con le tecniche di HSR implementate nei vecchi chip KyroII...sono due caratteristiche ben distinte...ma non posso sorvolare il fatto che gli attuali algoritmi di rilevazione delle superfici nascoste d'oggi implementati sia da ATI che da NVIDIA siano migliori di cio' che adotto' PowerVR anni addietro...era roba potente quella che ti sei fumato ;)
Ah no :)
http://www.firingsquad.com/hardware/kyro2/page2.asp
http://www.aceshardware.com/Spades/read.php?article_id=25000226
eccetera eccetera
Ah, dimenticavo, segnalato per la seconda volta :)
^TiGeRShArK^
31-05-2005, 14:06
E questo, fino a prova contraria, lo dici tu.
Peccato che dimentichi una cosa importante: ATI non ha nessun interesse a dare informazioni ai produttori di chipset, oltre che a concedere la licenza d'uso, che permetta loro di utilizzare Crossfire sui loro prodotti.
Questa è la posizione ufficiale di ATI, e pensandoci bene la stessa di NVIDIA con riferimento a SLI; a mio avviso mancano le premesse affinché il quadro possa cambiare nel breve periodo.
non lo dico io. Io ho solo riportato quanto scritto da anandtech, ke presumo abbia parlato con qualcuno della ATI, poichè di solito non inventano cazzate.
A livello ufficiale sarà come dici tu, però non credo proprio ke ATI rimarrà con le mani in mano in caso le sue schede madri non abbiano la diffusione ke si spera.
DjLode...ti sei fumato qualcosa oggi a pranzo? ;)
Vedi di moderare i toni... mettrere una faccina "scherzosa" non ti autorizza comunque a certe uscite poco felici...
blue_eyes
31-05-2005, 14:17
Non ho nessuna intenzione di attrarre l'attenzione su di me di persone che lavorano a questo forum e a questo sito...
Il secondo link che hai fornito non e' male...da una spiegazione abbastanza buona di cio' che per ogni tile viene fatto...dovresti leggerlo un pochino meglio pero'...il fatto che il controllo delle techiche di HSR venga effettuato su ognuno di essi non implica che un architettura TBR lo preveda...non a caso si chiama TBDR...
Detto questo ti lascio alla tua buona abitutine di lasciare segnalazioni sulle persone che ti stanno piu' a cuore...grazie ;)
I link da me riportati però hanno una data, forse ti è sfuggita :)
Ancora convinto che si tratti di tecniche nuove? Facile sparare e poi lasciare, bastava chiedere scusa :)
continuo a dire che questo dual VGA (sia SLI o Crossfire) non serve a molto, intanto giocare a 100 o a 150fps non cambia nulla :rolleyes: serve solo a chi si fa le pippe con il 3dmark :(
io a dover prendere una scheda prendo una scheda di fascia alta singola :O
ovviamente nvidia :asd:
JohnPetrucci
31-05-2005, 15:50
Se queste sono le premesse del crossfire, direi che è sicuramente più indicato e preferibile dello sli, e giova molto a chi ha già schede pci-express serie x850/x800.
Non mi aspettavo una tale flessibilità, ottimo lavoro Ati! ;)
Ed io che ho scelto di tornare a Nvidia dopo anni di allori in Ati, sono un pò pentino! :D
Il neo più grosso però del crossfire è sicuramente l'obbligo di avere un chipset Ati, a mio avviso non ancora paragonabile agli ottimi Nf4 di Nvidia in campo Overclock.
Ma sicuramente Ati porrà rimedio in futuro a questo gap. ;)
halduemilauno
31-05-2005, 15:56
http://www.tomshw.it/news.php?newsid=4020
;)
Più che dei test del Crossfire a me interesserebbe vedere test completi della piattaforma.
Se (e dico SE ... :) ci sara' bisogno per forza di un chipset ATI, allora la vedo dura per questa soluzione. Cercare di replicare tutti i pregi di Nforce4 (overclock in primis) ... la vedo molto difficile. Vedremo.
Ma si è accorto qualcuno che il test è stato fatto con un FX-57 !?!?!?
Per quanto riguarla lo SLI. Esiste una utility software con gli ultimi driver per abilitare l'AFR o lo SFR per giochi non ancora supportati... Uff... Devo ripetere sempre le stesse cose... Ma li leggete i miei post ??? ;) ;) ;)
limiti nei dual gpu nvidia ? e quali sarebbero questi limiti ? forse intendi solo nell'assorbimento perchè per il resto non ci sono limitazioni imposte dal collegamento delle due gpu
Tutte le soluzioni dual GPU SLI su un unico pbc richiedono una mobo espressamente dedicata alla data scheda (vedi tipo quelle di MSI)
Se Crossfire permettesse di costruire una scheda dual GPU compatibile con qualunque mobo crossfire... sarebbe il vero inizio delle schede multi-GPU ;) (e non delle configurazioni multi-scheda)
Na bella figata,purtroppo mi dovrò accontentare della x850xt pe singola,addirittura anche agp8x ... A proposito,ne approfitto per farvi una domanda,dato che mi prendo la x850xt pe quest'estate,ho un terribile dubbio:andrebbe bene con un processore 3400+ di amd?Grazie ciao :D
^TiGeRShArK^
31-05-2005, 19:31
ma se la devi prendere quest'estate nn faresti meglio ad aspettare un pò e a prendere direttamente r520???? tanto il prezzo dovrebbe essere più o meno simile, ma le prestazioni NO.
purtroppo mi dovrò accontentare della x850xt pe singola,addirittura anche agp8x ... A proposito,ne approfitto per farvi una domanda,dato che mi prendo la x850xt pe quest'estate,ho un terribile dubbio:andrebbe bene con un processore 3400+ di amd?
Io fossi in te aspetterei che escano le R520 (anche se si parla della fine dell'anno): le X850 scenderanno sicuramente di prezzo e poi le R520 avranno il supporto agli SM3 che già sono abilitati in un bel po' di giochi (tanto all'uscita costeranno praticamente intorno ai 600€, tanto quanto una XT PE); poi se proprio hai tutta 'sta fretta ;)
grazie dell'interessamento,ma c'è anche col bus agp8x?
grazie dell'interessamento,ma c'è anche col bus agp8x?
Le R520 saranno prosotte anche AGP, almeno stando a quanto si dice [url=http://www.hwupgrade.it/articoli/skvideo/1296/index.html]qui[/qui]
vabbè insomma hai capito dove :P
Asus, Abit, DFI e MSI produrranno mobo con Crossfire. :cool:
Secondo mè è assurdo che ATI imponga questa soluzione solo accoppiandola a schede mamme ATI, prima di tutto è un rischio in partenza, secondo dovrebbe investire molto per fare schede madri della bontà di NF4 SLI. L'unico motivo che la può spingere a fare una pazzia simile è cercare di vendere oltre alle VGA anche più mainboard possibili, giusto per guadagnare un po' di più, ma dato che di 3 schede vendute(2*x850xt+1 mobo) il 90% del prezzo è ricavato dalle sole VGA a mio avviso è troppo rischioso non vendere 2 VGA per cercare di vendere 1 mobo in più.
E a tal proposito una cosa mi fà pensare che ATI invece permetterà di usare il suo Cross Fire con qualunque mobo dotata di 2 pci ex:
per il fatto che le 2 VGA sono collegate esternamente e non tramite bus PCI Express (in questo modo non devi passare attraverso al chipset) e seconda cosa il funzionamento è gestito dal chip integrato sulla scheda MASTER.
A conti fatti questo è fattibile, magari tramite qualche mod o un semplice flash del bios, sempre se i driver non si mettano di mezzo.
Ripeto, tu se fossi un'azienda che brevetta un qualcosa, lo daresti in mano all'azienda tua concorrente che propone la stessa cosa? Perchè ti ricordo che il know-how per supportare CF lo dovresti dare anche ad Nvidia :)
Free Gordon
01-06-2005, 15:43
Si può fare l'AFR anche con due schede SLAVE, è già stato fatto e a quanto pare pure su schede DFI... :cool:
Probabilmente ci sono molti lati da scoprire in questo nuovo Crossfire.. :D
A dirla tutta, sarebbe meglio se si proponesse uno standard per l'interconnessione di piu' GPU/schede. Fatto lo standard, poi potrebbero scannarsi a colpa di prestazioni, senza dover tirare fuori ogni volta soluzioni estremamente "bloccanti" per l'utente. Al di la che l'NF4 e' un buon chipset rispetto al chip ATI o meno, resta sempre comunque il fatto che bisogna essere legati al chipset. Una volta i chipset li faceva VIA, SIS e compagnia bella, adesso si sono messi a imporre i loro chipset per far funzionare le loro schede grafiche. Manca solo che produrranno degli hard disk :sofico:
Scherzi a parte, se ci fossero degli standard di interconnessione, ne beneficerebbero tutti. Utenti e produttori. Gli utenti perche' con maggior liberta' di scelta, sarebbero piu' invogliati a passare ad una soluzione dual, i produttori perche' venderebbero di piu' proprio per questo invogliamento.
Personalmente Crossfire e SLI mi attirano ognuno a loro modo pero' il fatto di essere legato a un chipset di un produttore mi da un po' fastidio.
Considera però che per parlare di standard i due dovrebbero mettersi d'accordo :)
Hai mai visto un Milanista e un Interista parlare di calcio? Mi immagino qualcosa di simile :)
Paolo Corsini
01-06-2005, 17:07
Secondo mè è assurdo che ATI imponga questa soluzione solo accoppiandola a schede mamme ATI, prima di tutto è un rischio in partenza, secondo dovrebbe investire molto per fare schede madri della bontà di NF4 SLI. L'unico motivo che la può spingere a fare una pazzia simile è cercare di vendere oltre alle VGA anche più mainboard possibili, giusto per guadagnare un po' di più, ma dato che di 3 schede vendute(2*x850xt+1 mobo) il 90% del prezzo è ricavato dalle sole VGA a mio avviso è troppo rischioso non vendere 2 VGA per cercare di vendere 1 mobo in più.
E a tal proposito una cosa mi fà pensare che ATI invece permetterà di usare il suo Cross Fire con qualunque mobo dotata di 2 pci ex:
per il fatto che le 2 VGA sono collegate esternamente e non tramite bus PCI Express (in questo modo non devi passare attraverso al chipset) e seconda cosa il funzionamento è gestito dal chip integrato sulla scheda MASTER.
A conti fatti questo è fattibile, magari tramite qualche mod o un semplice flash del bios, sempre se i driver non si mettano di mezzo.
1) sulla base di quali dati oggettivi dici che il valore di un acquisto di scheda madre + 2 schede video sia per ATI per il 90% dato dalle schede video? Ovviamente, oltre ad una tua impressione - idea, beninteso.
2) manca solo che lo scriva in cinese: ufficialmente ATI NON permetterà l'utilizzo di Crossfire con chipset che NON siano quelli ATI, esattamente come sino a questo momento vale per NVIDIA con le proprie soluzioni SLI.
Considera però che per parlare di standard i due dovrebbero mettersi d'accordo :)
Hai mai visto un Milanista e un Interista parlare di calcio? Mi immagino qualcosa di simile :)
E perche'? OpenGL non nasce con lo stesso spirito? Cio' che va messo dentro OpenGL lo decide il comitato ARB (Architecture Review Board) che e' composto dai principali produttori di harware al mondo tra cui nVidia, SGI, Intel, Intergraph, HP, IBM, 3DLabs ... Tanto per citarne alcuni... E per quanto possa sembrare strano, anche Microsoft fa parte del comitato ARB di OpenGL...
Non vedo perche' non si possa fare lo stesso per uno standard di interconnessione. La competizione e' cosa buona, ha sempre portato prodotti migliori. Ma se si scannassero con uno standard sotto le mutande ne gioverebbero tutti. Qui stiamo parlando di schede grafiche che richiedono schede madri, due componenti che sono una bella fetta di un sistema completo... Trovo troppo riduttivo obbligare l'acquisto di una o dell'altra scheda madre ... Anche perche'... Supponiamo che il chipset ATI sia un fallimento (supponiamolo solo) e che nForce sia una cosa riuscitissima. Supponiamo poi che CrossFire invece sia decisamente migliore di SLI. Per avere Crossfire devo avere un chipset di cacca, per avere un chipset di lusso invece devo ricorrere a SLI. Se si avesse uno standard di interconnessione sceglierei la soluzione migliore e il chipset migliore. E tutti sarebbero piu' contenti. Compresi i produttori. :)
Sli e Ogl sono due cose diversissime, il confronto non ha senso. Ogl nasce da Sgi fino a qualche tempo fa standard de facto nella grafica professionale, ha lanciato/inventato un api poi lasciata open, non ha inventato una cosa che poi tanta gente ha ritenendola buona e giusta ha usato. E' un pelo diverso :)
Come dici tu del comitato fanno parte TANTE società (tra cui Ati e Nvidia), qui si parla di supportare un sistema multi gpu, inventato da non si sa chi, sfruttato da non si sa quale chipset prodotto da non si sa chi. Insomma, la cosa è abbastanza fumosa. Nvidia propone Sli? Ati non lo supporta. Fine dei conti. Ati propone CrossFire, Nvidia non lo supporta. Fine dei conti. E' una cosa talmente tanto di nicchia che anche solo perdere del tempo ad inventarsi uno standard è uno spreco di soldi inutile. Il fatturato delle due dallo Sli non ricava nulla, ricava dal fatto di venderti schede video con gpu di una SOLA marca che funzionano con una SOLA marca di chipset. Insomma se la differenza non la vedi da solo :)
Lo Sli è puro marketing, niente altro. E da che mondo e mondo nel lavoro fare marketing per arricchire altre società non si è visto. A meno che tu non sia un consulente :)
Diversamente da quello che dici tu gli unici ad essere contenti sarebbero quei 10 mila utenti (ma ho sparato proprio tanto) che comprano un chipset e ci possono montare quello che vogliono. I produttori no.
Insomma, lasciamo il "siamo tutti amici" al di fuori dall'informatica :)
Ti faccio una domanda, ormai è la decima volta ma vabbhè, facciamo finta sia la prima: tu inventi un sistema alla facciazza della tua concorrente che ti permette di usare due schede video. Ci inventi anche il chipset che sfrutta questo modo. Saresti veramente ma veramente così stupido da lasciare che la tua concorrente (che fa la stessa cosa) usasse le TUE schede video con un sistema che TU hai brevettato sui SUOI chipset? Certo, intanto che ci siamo diamo tutto in beneficienza alla concorrente e noi con 10€ andiamo ad abitare in Giamaica...
Sli e Ogl sono due cose diversissime, il confronto non ha senso. Ogl nasce da Sgi fino a qualche tempo fa standard de facto nella grafica professionale, ha lanciato/inventato un api poi lasciata open, non ha inventato una cosa che poi tanta gente ha ritenendola buona e giusta ha usato. E' un pelo diverso :)
Come dici tu del comitato fanno parte TANTE società (tra cui Ati e Nvidia), qui si parla di supportare un sistema multi gpu, inventato da non si sa chi, sfruttato da non si sa quale chipset prodotto da non si sa chi. Insomma, la cosa è abbastanza fumosa. Nvidia propone Sli? Ati non lo supporta. Fine dei conti. Ati propone CrossFire, Nvidia non lo supporta. Fine dei conti. E' una cosa talmente tanto di nicchia che anche solo perdere del tempo ad inventarsi uno standard è uno spreco di soldi inutile. Il fatturato delle due dallo Sli non ricava nulla, ricava dal fatto di venderti schede video con gpu di una SOLA marca che funzionano con una SOLA marca di chipset. Insomma se la differenza non la vedi da solo :)
Lo Sli è puro marketing, niente altro. E da che mondo e mondo nel lavoro fare marketing per arricchire altre società non si è visto. A meno che tu non sia un consulente :)
Diversamente da quello che dici tu gli unici ad essere contenti sarebbero quei 10 mila utenti (ma ho sparato proprio tanto) che comprano un chipset e ci possono montare quello che vogliono. I produttori no.
Insomma, lasciamo il "siamo tutti amici" al di fuori dall'informatica :)
Ti faccio una domanda, ormai è la decima volta ma vabbhè, facciamo finta sia la prima: tu inventi un sistema alla facciazza della tua concorrente che ti permette di usare due schede video. Ci inventi anche il chipset che sfrutta questo modo. Saresti veramente ma veramente così stupido da lasciare che la tua concorrente (che fa la stessa cosa) usasse le TUE schede video con un sistema che TU hai brevettato sui SUOI chipset? Certo, intanto che ci siamo diamo tutto in beneficienza alla concorrente e noi con 10€ andiamo ad abitare in Giamaica...
Ma perche' tu i dischi fissi Maxtor li puoi montare solo su controller Maxtor e i dischi Hitachi li puoi montare solo su controller Hitachi? Oppure perche' i dischi Maxtor e Hitachi li puoi montare sullo stesso controller significa che Hitachi conosca le tecnologie costruttive di Maxtor?
Ma che discorso e'? Il tuo discorso e' valido solo (e confinato a) quando si parla di una scheda madre costruita con un supporto specifico per entrambi i produttori. Che non e' il discorso che sto facendo io. Io parlo di uno STANDARD di interconnessione. Una scheda madre che funziona con entrambi non perche' siano implementate entrambe le tecnologie ma perche' ne implementa UNA SOLA comune a entrambe dettata da uno standard di interconnessione. E, in questo caso, il tuo discorso non ha senso.
Ma perche' tu i dischi fissi Maxtor li puoi montare solo su controller Maxtor e i dischi Hitachi li puoi montare solo su controller Hitachi? Oppure perche' i dischi Maxtor e Hitachi li puoi montare sullo stesso controller significa che Hitachi conosca le tecnologie costruttive di Maxtor?
Ma che discorso e'? Il tuo discorso e' valido solo (e confinato a) quando si parla di una scheda madre costruita con un supporto specifico per entrambi i produttori. Che non e' il discorso che sto facendo io. Io parlo di uno STANDARD di interconnessione. Una scheda madre che funziona con entrambi non perche' siano implementate entrambe le tecnologie ma perche' ne implementa UNA SOLA comune a entrambe dettata da uno standard di interconnessione. E, in questo caso, il tuo discorso non ha senso.
Ma i dischi fissi funzionano con la stessa tecnologia,quan si sta parlando di una cosa ben diversa,anche se sviluppate per ottenere lo stesso fine,mi sembra che Sli e Crossfire abbiano delle diversità proggettuali molto profonde,quindi quello che auspichi non potrà mai avvenire...
E perche'? OpenGL non nasce con lo stesso spirito? Cio' che va messo dentro OpenGL lo decide il comitato ARB (Architecture Review Board) che e' composto dai principali produttori di harware al mondo tra cui nVidia, SGI, Intel, Intergraph, HP, IBM, 3DLabs ... Tanto per citarne alcuni... E per quanto possa sembrare strano, anche Microsoft fa parte del comitato ARB di OpenGL...
Microsoft non fa più parte dell'OpenGL ARB. Ne ha fatto parte fino a quando gli serviva OpenGL come supporto al 3D sotto NT (visto che non supporta D3D). Ormai è un bel po di tempo che non ne fa più parte.
In ogni caso il discorso fatto da ATI è commercialmente perfettamente comprensibile. Del resto, come ho già detto, CrossFire è una soluzione di fascia alta, molto esclusiva. Evidentemente hanno pensato che per quella ristrettissima cerchia di utenti che hanno già una scheda madre con due slot PCI Express 16x con Radeon X800 o X850, cambiare scheda madre non è poi un grandissimo problema.
Ma i dischi fissi funzionano con la stessa tecnologia,quan si sta parlando di una cosa ben diversa,anche se sviluppate per ottenere lo stesso fine,mi sembra che Sli e Crossfire abbiano delle diversità proggettuali molto profonde,quindi quello che auspichi non potrà mai avvenire...
Mi sembra di parlare arabo... :rolleyes:
Grazie che non potra' avvenire, se sono costruiti su principi diversi... Sto parlando di un qualcosa di futuro, basato su un possibile standard...
Ma se le prossime versioni si basassero su uno standard di interconnessione, potrebbero costruire prodotto differenti su interconnessione standard.
In sostanza uno standard per l'interconnessione multi GPU, cosi come il SATA uno standard per le periferiche di memorizzazione e il PCI/PCI-e per le periferiche ...
Mah,quindi per fare uno standard Ati e Nvidia dovrebbero mettersi a tavolino per sviluppare un'altro sistema multi gpu che si basi su standard comuni,lasciando perdere i progetti Sli e Crossfire,che gli sono costati sforzi e investimenti...mi sbagliero ma secondo me è uno scenariò poco credibile..
Dark Schneider
02-06-2005, 00:11
CrossFire ed il suo tipo di utilzzo con schede un po' diverse è più interessante di SLI ma va bene per le schede attuali. Non penso proprio che invece tra un anno una di queste schede attuali(tipo R520) potrà convivere con una GPU(un R620?) CrossFire basata su WGF 2.0!! :)
Per quel tempo probabilmente avremo un CrossFire2 da utilizzare solo con gpu WGF 2.0.
Questa prima generazione di multi-gpu è ancora troppo sperimentale. Ma non a caso è solo per una nicchia di utenti super ristretta. :)
Bè ma che senso ha investire del capitale per sviluppare CF se poi verrà usato solo per combattere Nvidia nei punteggi al 3dMark?
Vorrei sentire chi cambierebbe la sua DFI NF4 con un chipset X200...
Fin tanto che AMD non mi costringa a passare alle DDR2 e quindi a cambiare mobo, col piffero che la cambio, possono passare anche 2 generazioni di VPU ma la mobo non la cambio, piuttosto vendo la x850xt e cambio la VGA ma la mobo no, è vero che costa meno di una cpu o vga ma a parer mio è il componente più importante in un pc e deve essere sempre di qualità superiore al resto.
Fin tanto che una tecnologia te la fanno pagare troppo cara e non diventa alla portata di tutti non ha il senso di esistere... chi ha detto che SLI o CF a lungo andare non diventino un fallimento?
Secondo mè in futuro queste soluzioni andranno a scomparire, è solo un fenomeno momentaneo.
Dark Schneider
02-06-2005, 17:42
Bè ma che senso ha investire del capitale per sviluppare CF se poi verrà usato solo per combattere Nvidia nei punteggi al 3dMark?
Vorrei sentire chi cambierebbe la sua DFI NF4 con un chipset X200...
Fin tanto che AMD non mi costringa a passare alle DDR2 e quindi a cambiare mobo, col piffero che la cambio, possono passare anche 2 generazioni di VPU ma la mobo non la cambio, piuttosto vendo la x850xt e cambio la VGA ma la mobo no, è vero che costa meno di una cpu o vga ma a parer mio è il componente più importante in un pc e deve essere sempre di qualità superiore al resto.
Fin tanto che una tecnologia te la fanno pagare troppo cara e non diventa alla portata di tutti non ha il senso di esistere... chi ha detto che SLI o CF a lungo andare non diventino un fallimento?
Secondo mè in futuro queste soluzioni andranno a scomparire, è solo un fenomeno momentaneo.
Tieni conto che il successo di SLI e CrossFire per nVidia ed Ati non sta nel vendere queste soluzioni. Semplicemente ci guadagnano a livello di immagine.
Per giocare non ci sarà bisogno di soluzioni come queste. :)
Tieniti stretto la tua X850XT e l'nForce 4. :)
Ma secondo voi in futuro con un sistema sli o crossfire ci sarà la possibilità di giocare o guardarsi un film utilizzando 4 o più schermi e sfruttandoli tutti assieme contemporaneamente?
(per es in modo di avere un super scermo formato da 4 schermi uniti..)
OverClocK79®
03-06-2005, 13:37
http://www.hwupgrade.it/articoli/1298/crossfire_asus.jpg
cmq è ESC (mai stato un gran produttore di mobo) ad avere prob in DUAL
visto che ASUS va tranquillamente in DUAL
BYEZZZZZZZZZZZZZ
OverClocK79®
03-06-2005, 13:39
Ma secondo voi in futuro con un sistema sli o crossfire ci sarà la possibilità di giocare o guardarsi un film utilizzando 4 o più schermi e sfruttandoli tutti assieme contemporaneamente?
(per es in modo di avere un super scermo formato da 4 schermi uniti..)
a parte che nn so che senso abbia giokare e guardare un film assieme...
cmq con il DUAL CORE è sicuramente possibile
oltre alla sez VIDEO ci vuole anke un'ottima CPU
BYEZZZZZZZZZZZZZ
Dark Schneider
03-06-2005, 13:43
a parte che nn so che senso abbia giokare e guardare un film assieme...
cmq con il DUAL CORE è sicuramente possibile
oltre alla sez VIDEO ci vuole anke un'ottima CPU
BYEZZZZZZZZZZZZZ
Infatti non capisco che senso ha guardarsi un film e giocare contemporaneamente. Sarà anche possibile, ma penso che il nostro cervello riesca a fare con concentrazione entrambe le cose. :D
CiccoMan
03-06-2005, 14:00
Guardate che Erunoèr ha detto "giocare o guardarsi un film"... ;)
OverClocK79®
03-06-2005, 14:19
vero :ronf:
cmq per i film forse ha un senso
per i gioki dipende
sgli sparattutto sarebbe alquanto scomodo
il mirino sarebbe agli angoli dando nn poco fastidio
e cmq stiamo facendo fanta-game
4 monitor LCD nn costano mica poco....per nn parlare del resto del sistema
BYEZZZZZZZZZZZ
nonikname
03-06-2005, 16:34
Paolo Corsini, Hardwareupgrade Italy
"ATI CrossFire when compared with NVIDIA SLI is surely more flexible thanks to a lot of performance modalities, not demanding two perfectly identical cards."
"The customer will have the opportunity to add a second graphic board in order to not only go in search of greater performances, but also in order to obtain a better image thanks to the never seen before Super AA modality."
"The choice to not to use an internal connector between the two boards, is very smart and clever and will make happy all the end users owners of a Radeon X800 and X850 PCI Express that we can actually consider as CrossFire ready end users."
http://www.ati.com/products/crossfire/reviews.html
:ave: Mitico pure sul sito Ati :ave:
nonikname
04-06-2005, 04:53
:ave: Mitico pure sul sito Ati :ave:
Speriamo che ATI riporti i commenti di Corsini , anche dopo che avrà fisicamente testato un sistema X-Fire.... :D
CiccoMan
04-06-2005, 09:21
Non so se è gia stato postato, ma vorrei portare all'attenzione questo link direttamente dal sito ati:
http://www.ati.com/products/crossfire/index.html
in fondo c'è una brave demo dove viene mostrato l'assemblaggio di un sistema crossfire... guardate un po' che scheda madre viene utilizzata... per chi non la riconoscesse quella è una P5ND2-SLI Deluxe, basata sull'nForce4 sli intel edition :O ... sarà solo un caso? :D
il sistema crossfire è molto più flessibile dello SLI ma l'incognita della validità del chipset ATI non è da sottovalutare: a memoria d'uomo ATI non è mai riuscita a fare chipset decenti e questa volta ha anche a che fare con un chipset riuscitissimo come l'Nforce 4...aspettiamo...
Come dice lo stesso articolo:
Rimarchiamo come essendo benchmark forniti dalla stessa ATI questi valori siano da prendere solo come riferimento indicativo; sarà nostra premura, non appena possibile, testare una configurazione Crossfire con la nostra suite di benchmar, a confronto con un sistema simile basato su tecnologia SLI di NVIDIA.
Non aspetto altro...RECENSIONE DOC!!! tranne x la "K" di Benchmar :doh: ....hihihihihi!!! :D
già è vero, non ha senso giocare con 2 monitor 30"apple cinema quando fra un anno prendo il nuovo monitor della samsung da 108 pollisci heheh
Non ho nessuna intenzione di attrarre l'attenzione su di me di persone che lavorano a questo forum e a questo sito...
Il secondo link che hai fornito non e' male...da una spiegazione abbastanza buona di cio' che per ogni tile viene fatto...dovresti leggerlo un pochino meglio pero'...il fatto che il controllo delle techiche di HSR venga effettuato su ognuno di essi non implica che un architettura TBR lo preveda...non a caso si chiama TBDR...
Qualunque tecnica di rendering prevede una qualche forma di HSR, altrimenti non sarebbe una tecnica di rendering; di conseguenza anche il Tile Based Rendering (deffered o meno ha poca importanza) prevede una qualche forma di HSR.
Il TBR non e' nulla di innovativo, e' una strada che e' stata intrapresa alcuni anni fa e momentaneamente abbandonata in favore di tecniche piu' efficaci, ad esempio quad rendering abbinato ad una delle tecniche di depth compression e rimozioni di ATI o NVIDIA (al momento di gran lunga le piu' sofisticate ed efficienti sul mercato). Non e' detto che questa strada non venga intrapresa di nuovo in futuro e si vocifera che alcune delle sue idee siano state incorporate nell'R500 montanto dall'X360.
Il Deferred Rendering, poi, e' un'idea piuttosto vecchia, che e' tornata di moda ultimamente, ma soffre di alcuni problemi soprattutto nella difficile convivenza con tecnice di antialiasing quali il multisampling. L'implentazione in hardware del DeltaChrome e' piuttosto obsoleta e poco performante.
In sintesi, ha ragione DJLode su tutta la linea.
Bene avevo ragione io come al solito ^:^
cdimauro
06-06-2005, 10:21
Mi sembra di parlare arabo... :rolleyes:
Grazie che non potra' avvenire, se sono costruiti su principi diversi... Sto parlando di un qualcosa di futuro, basato su un possibile standard...
Ma se le prossime versioni si basassero su uno standard di interconnessione, potrebbero costruire prodotto differenti su interconnessione standard.
In sostanza uno standard per l'interconnessione multi GPU, cosi come il SATA uno standard per le periferiche di memorizzazione e il PCI/PCI-e per le periferiche ...
Tutti gli HD hanno dei dischi e delle testine, e un controller che serve a posizionare la testina sul giusto "spazio" e leggere / scrivere dati.
E' vero che alla fine tutto passa dal bus IDE (o S-ATA, o SCSI), che è uno standard che permette di nascondere completamente queste differenze e gestire il tutto allo stesso modo dal punto di vista del s.o., ma è anche vero che, appunto, ogni casa produttrice i dischi rigidi li realizza in modo completamente diverso e completamente incompatibili (anche HD che vengono venduti con lo stesso modello possono essere diversi: a me è capitato); infatti esistono hd che utilizzano delle memorie per immagizzare i dati e dove il concetto di testina è semplicemente ridicolo, ma l'interfaccia non ne ha conoscenza.
Qui con le schede video è la stessa cosa: lo standard di comunicazione è il PCI-Express, ma le schede video Ati e nVidia le realizzano in maniera abbastanza diversa, come pure tecnologie come SLI e Crossfire.
Uno standard per far comunicare più GPU è chiaramente realizzabile, come pure un controller universale per le testine degli HD, ma esistono due grossi problemi: l'uso di brevetti (se prendi un HD troverai che ogni produttore ne elenca una sfilza per i propri modelli) e le limitazioni che comporterebbe il seguire uno standard. Il primo è praticamente insormontabile. Il secondo sarebbe un impedimento per l'avanzata tecnologia, considerata l'enorme rapidità con cui vengono spiattellate continuamente nuove soluzioni (se una casa ha un'idea nuova deve far riunire il comitato per lo standard, devono discutere e cercare di mettersi d'accordo per mettere la cosa ai voti, e infine dare in pasto il draft con le specifiche ai propri staff e lavorarci sopra: TROPPO tempo).
....e le limitazioni che comporterebbe il seguire uno standard. Il primo è praticamente insormontabile. Il secondo sarebbe un impedimento per l'avanzata tecnologia, considerata l'enorme rapidità con cui vengono spiattellate continuamente nuove soluzioni (se una casa ha un'idea nuova deve far riunire il comitato per lo standard, devono discutere e cercare di mettersi d'accordo per mettere la cosa ai voti, e infine dare in pasto il draft con le specifiche ai propri staff e lavorarci sopra: TROPPO tempo).
Cosi' facendo invece ci ritroviamo davanti a computer dove praticamente bisogna buttare nella spazzatura l'80% del sistema in caso si decida di fare un upgrade. Seguire uno standard non e' una limitazione, e' una direttiva costruttiva. Gli hard disk sono sempre stati costruiti seguendo degli standard e, se internamente sono simili (diverso da uguali, visto che avere testine non implica essere teconologicamente costruiti con gli stessi criteri) Per quanto riguarda il "troppo tempo" se credi che per una nVidia G70 abbiano terminato il progetto solo 3 mesi fa, fai un grosso errore di valutazione. Queste case di hardware presentano i loro prodotti sul mercato quando per loro sono gia' tecnologicamente "vecchi". La tecnologia e' gia' stata "inventata" e il proporre materiale sul mercato e' dettata esclusivamente dalle linee del commercio e dal marketing. Non fanno altro che fornire hardware al bisogno. Se potessimo vedere cosa nvidia, per esempio, ha nei suoi laboratori di ricerca e sviluppo, probabilmente hanno gia' progettato e fatto funzionare le schede delle prossime 4 generazioni in forma di prototipo. Cosi' come esistono gia' i processori fotonici. Non sono sul mercato perche' attualmente ancora troppo costosi e non pronti per il mercato di massa.
cdimauro
07-06-2005, 08:30
Non credo che sia così: fra laboratorio di ricerca e team di sviluppo di progetti reali ci sono enormi differenze. Anche Intel aveva già presentato dei transistor funzionanti a 10Ghz anni fa e nelle sue roadmap i P4 avrebbero dovuto raggiungere i 10Ghz per il 2007: poi sappiamo bene com'è andata a finire...
A parte ciò, gli standard esistono, come ho già detto, e vengono rispettati. Stanno al posto giusto, IMHO: nell'ultimo anello della catena, quello che è molto meno soggetto ai cambiamenti e di conseguenza comporta una maggior stabilità delle piattaforme.
Salire "di livello" sarebbe controproducente per tutti:
- per chi sviluppa hardware, perché sarebbe costretto a mettere in gioco molto più risorse, e questo taglierebbe fuori dalla concorrenza chi non ne ha abbastanza (viviamo già in una situazione di duopolio, e siamo fortunati che dopo la morte di 3DFX sia subentrata Ati a dar battaglia a nVidia: vogliamo per forza arrivare a un monopolio di fatto?);
- per chi sviluppa i s.o., perché che dovrebbero supportare più standard / versioni, allungandone i tempi di sviluppo e rilascio;
- per chi sviluppa le applicazioni, perché oltre alle varie versioni di DirectX (e OpenGL) dovrebbero supportare queste nuove tecnologie.
E' una cosa che non gioverebbe a nessuno. E ripeto: quello dei brevetti sarebbe uno scoglio insormontabile: nessuno sarebbe disposto a cederli ai concorrenti dopo averci investito parecchi soldi e tempo...
Non credo che sia così: fra laboratorio di ricerca e team di sviluppo di progetti reali ci sono enormi differenze. Anche Intel aveva già presentato dei transistor funzionanti a 10Ghz anni fa e nelle sue roadmap i P4 avrebbero dovuto raggiungere i 10Ghz per il 2007: poi sappiamo bene com'è andata a finire...
Le roadmap intel... :D Quelle lo sanno tutti che sono tutto tranne una visione di cosa Intel ha veramente nei laboratori. Se pensate veramente che fra una generazione e l'altra di una GPU ci siano veramente 6 mesi di progettazione per delle schede grafiche che hanno una complessita' cosi mostruosa...... Una GPU richiede ANNI di progettazione e ricerca. Il mercato le propone a distanza di 6 mesi l'una dall'altra. Qualcosa significa.
Salire "di livello" sarebbe controproducente per tutti:
- per chi sviluppa hardware, perché sarebbe costretto a mettere in gioco molto più risorse, e questo taglierebbe fuori dalla concorrenza chi non ne ha abbastanza (viviamo già in una situazione di duopolio, e siamo fortunati che dopo la morte di 3DFX sia subentrata Ati a dar battaglia a nVidia: vogliamo per forza arrivare a un monopolio di fatto?);
Non credo. Avere uno standard significa ogni volta tralasciare la progettazione dell'interconnessione anziche' riprogettarne una proprietaria ad ogni generazione di GPU, reinventando cosi' la ruota.
- per chi sviluppa i s.o., perché che dovrebbero supportare più standard / versioni, allungandone i tempi di sviluppo e rilascio;
Casomai il contrario. Una volta messo uno standard di interconnessione, il sistema operativo puo' gestire un suo driver scritto seguendo le specifiche dettate dallo standard, anziche supportare 2 chipset differenti che lavorano in modo differente e soprattutto chiuso, demandando i driver al produttore. Con nForce abbiamo nVidia che rilascia i driver anche per Linux, ma per ATI? Se invece fosse standard, tale gestione potrebbe essere demandata al sistema operativo e, poiche' standard, sarebbe piu' facile da supportare.
- per chi sviluppa le applicazioni, perché oltre alle varie versioni di DirectX (e OpenGL) dovrebbero supportare queste nuove tecnologie.
Che tecnologie scusa. Uno standard di interconnessione va supportato dal sistema operativo o al massimo dai driver (che comunque sono un modulo di sistema operativo).
Da quando gli sviluppatori si preoccupano dell'interconnessione delle schede grafiche? SLI di nVidia richiede il supporto nei driver del gioco, Crossfire non richiede nessun supporto. Tutte le gestioni esoteriche dell'hardware dei componenti vengono gestite dai driver. Se si avesse uno standard, tutto sarebbe piu' semplice e molte delle cose che ora sono solo nei driver verrebbero spostate nel sistema operativo.
E' una cosa che non gioverebbe a nessuno. E ripeto: quello dei brevetti sarebbe uno scoglio insormontabile: nessuno sarebbe disposto a cederli ai concorrenti dopo averci investito parecchi soldi e tempo...
Gia' proprio a nessuno. Che senso ha mantenere una scheda madre se da una scheda grafica ATI voglio passare a una nVidia. Che senso ha se voglio avere un nForce perche' e' un buon chipset ma voglio farmi un sistema Crossfire perche' e' piu veloce e versatile. La questione dei brevetti poi non l'ho mica capita.
cdimauro
08-06-2005, 08:28
Esempio: pensi che Ati non abbia qualche brevetto sull'interfaccia che permetta alle due schede di comunicare (molto più velocemente del bus PCI-Express, a quanto pare)? Pensi che sarebbe disposta a rilasciare gratuitamente l'utilizzo del medesimo ai suoi concorrenti?
Il nocciolo della questione sta tutto qui. Tu chiedi uno standard d'interconnessione, ma penso che né nVidia né Ati sarebbero disposte e a calarsi le braghe favorendo gli avversari in un mercato, quello delle schede video, che è un'autentica guerra all'arma bianca.
Lo standard d'interconnessione c'è: è il PCI-Express. C'è voluto un bel po' del tempo per progettarlo, realizzarlo e farlo accettare come standard: non credo che il mercato delle schede video sia disposto ad aspettare così tanto tempo prima di poter utilizzare una nuova tecnologia.
Le GPU chiaramente non hanno un ciclo di vita di 6 mesi, ma vengono progettate molto prima, però non è esattamente come pensi tu, perché ci sono diversi team di sviluppo che lavorano a progetti diversi: mentre uno sta per finire un progetto, ce n'è un altro che già lavora da tempo a quello successivo. Una sorta di pipeline di lavoro... :p Normalmente i due team non scambiano informazioni su come procedono, a meno che non riconoscono che sia necessario.
In ogni caso i progetti non durano diversi anni, ma dovremmo essere nell'ordine di 1-2 anni, a seconda dei cambiamenti architetturali.
Quanto a s.o. e driver, era un discorso più generico: non devi soffermarti a un dettaglio, quale può essere un bus d'interconnessione che può richiedere poco o nessun supporto, ma al caso generale di un'innovazione e a ciò che può comportare.
In questo caso mi sembra alquanto difficile pensare di poter connettere GPU Ati e nVidia in un sistema Crossfire.
Infine, sulla questione del Crossfire che richiede scheda madre e schede video Ati per funzionare, è chiaro che sono scelte della società che come utenti possiamo non condividere, ma non è certo una novità: una certa Intel decise di realizzare lo Slot-1 e blindarlo perché voleva tagliar fuori le concorrenti (AMD, Cyrix), che furono costrette a correre ai ripari col Super Socket 7; Intel ha costretto gli utenti a comprare schede madri con chipset E processori suoi. La storia si ripete.
Esempio: pensi che Ati non abbia qualche brevetto sull'interfaccia che permetta alle due schede di comunicare (molto più velocemente del bus PCI-Express, a quanto pare)? Pensi che sarebbe disposta a rilasciare gratuitamente l'utilizzo del medesimo ai suoi concorrenti?
Ci risiamo :)
Certo che ne ha uno. Cosi come ne ha uno nVidia.
Ma ATI ne ha uno per Crossfire. nVidia ne ha uno per SLI.
Se ci fosse uno standard di interconnessione, tali brevetti rimarrebbero comunque. Quello che non capisco e' come tali brevetti gia' registrati debbano occludere lo sviluppo di uno standard. Uno standard di interconnessione non limita mica lo sviluppo che i produttori possono fare sui loro prodotti.
Il nocciolo della questione sta tutto qui. Tu chiedi uno standard d'interconnessione, ma penso che né nVidia né Ati sarebbero disposte e a calarsi le braghe favorendo gli avversari in un mercato, quello delle schede video, che è un'autentica guerra all'arma bianca.
Ma calarsi le braghe perche'. Spiegami almeno perche'. Uno standard di interconnessione lo puo' fare anche un ente che sia fuori da nVidia o Ati. E Ati e nVidia sarebbero comunque liberissime di non rispettarlo. Cio' non toglie che chi lo adottera' sara' piu' competitivo dell'altro perche' potenzialmente sara' piu' "compatibile". Attualmente con i sistemi multi GPU ne' SIS, ne' VIA, ne altri produttori di chipset possono produrre chipset per supportare queste tecnologie. Se ci fosse uno standard, potremmo acquistare il nostro chipset VIA preferito e mettere schede o ATI o nVidia. O continuare ad acquistare chipset nVidia o ATI. Il vantaggio della maggior compatibilita' renderebbe meno traumatica l'adozione di tali sistemi. E gli utenti probabilmente ci farebbero un pensierino in piu' perche' al prossimo upgrade non sarebbero costretti a buttare tutto se decidessero di cambiare soluzione. Il problema alla diffusione del multi GPU attualmente, penso, e' si il costo elevato, ma anche il fatto che tali soluzioni ti obbligano troppe cose. A me piace Crossfire ma voglio nForce. Che faccio? Mi tengo i soldi in tasca. Cosi facendo, invece, non vendono non solo le schede ma neanche i chipset. Il famoso proverbio "chi troppo vuole nulla stringe" purtroppo in questo caso si applica. E i miei 1000 euro rimangono nel mio portafoglio in attesa di qualcosa di piu' "scalabile".
Lo standard d'interconnessione c'è: è il PCI-Express. C'è voluto un bel po' del tempo per progettarlo, realizzarlo e farlo accettare come standard: non credo che il mercato delle schede video sia disposto ad aspettare così tanto tempo prima di poter utilizzare una nuova tecnologia.
Ma stiamo parlando del collegamento delle schede al bus o di interconnessione scheda-scheda? Io sto parlando di scheda-scheda, che e' una cosa differente dal PCI-X. I produttori non devono aspettare proprio niente. :p Continuano a fare come hanno sempre fatto. Quando e' pronto, se lo sara' mai, lo adotteranno. Cosi come hanno fatto col PCI-X. Come hanno fatto fra il passaggio da AGP-PCI-X, faranno da proprietario a standard. Mi sembra talmente chiaro questo discorso.
Le GPU chiaramente non hanno un ciclo di vita di 6 mesi, ma vengono progettate molto prima, però non è esattamente come pensi tu, perché ci sono diversi team di sviluppo che lavorano a progetti diversi: mentre uno sta per finire un progetto, ce n'è un altro che già lavora da tempo a quello successivo. Una sorta di pipeline di lavoro... :p Normalmente i due team non scambiano informazioni su come procedono, a meno che non riconoscono che sia necessario.
In ogni caso i progetti non durano diversi anni, ma dovremmo essere nell'ordine di 1-2 anni, a seconda dei cambiamenti architetturali.
Ok. Quante generazioni si sono viste da adesso a 2 anni fa? Seguendo il tuo discorso, se G70 sta per essere immesso sul mercato, significa che e' ha subito 2 anni di progettazione. Cioe' quando hanno immesso sul mercato una scheda 2 anni fa stavano progettando G70. Quindi mi domando. Se adesso stanno immettendo G70, considerando che la prossima scheda la finiscono fra 2 anni, quanti altri chip hanno gia' pronti? Direi quelli per i prossimi due anni (seguendo una piu' o meno pseudo logica aristotelica). Ergo non hai fatto altro che confermare il mio discorso :p Che la tecnologia immessa sul mercato e' gia' roba "vecchia" e attendeva soltanto il via da parte dell'economia e dal marketing :p
Quanto a s.o. e driver, era un discorso più generico: non devi soffermarti a un dettaglio, quale può essere un bus d'interconnessione che può richiedere poco o nessun supporto, ma al caso generale di un'innovazione e a ciò che può comportare.
In questo caso mi sembra alquanto difficile pensare di poter connettere GPU Ati e nVidia in un sistema Crossfire.
Su questo ti quoto, ma quando parlo di standard non parlo di crossfire. Crossfire e' gia' pronto, progettato, markettizzato e disponibile. Chiaramente nessuno parlava di mettere uno standard sopra crossfire o SLI se gia' sono pronti e funzionanti o di dover modificare SLI o crossfire, che magari sarebbe impossibile. Sono priettato molto al futuro, non con le soluzioni attuali. :p
Infine, sulla questione del Crossfire che richiede scheda madre e schede video Ati per funzionare, è chiaro che sono scelte della società che come utenti possiamo non condividere, ma non è certo una novità: una certa Intel decise di realizzare lo Slot-1 e blindarlo perché voleva tagliar fuori le concorrenti (AMD, Cyrix), che furono costrette a correre ai ripari col Super Socket 7; Intel ha costretto gli utenti a comprare schede madri con chipset E processori suoi. La storia si ripete.
Non ho detto che e' una novita'. Ma quanto mercato hanno perso da quando AMD e' entrata fra le OO? Molta gente e' stanca di dover cambiare mobo ogni due rilasci di processori. Molti comprano AMD perche' allunga la vita di una scheda madre. Addirittura non hanno cambiato socket neanche passando ai dual core. Mi ricordo ai tempi del 486 quando Intel non era soltanto un produttore di processori, ma l'emblema del processore PC. L'utente medio aveva la concezione che Intel faceva processori mentre AMD era un concorrente di basso costo di scarsa fattura e che dava anche seri problemi di compatibilita' in certi casi. Poco fa, nel 2005, feci un sondaggio nella sezione processori. Gli utilizzatori di processori AMD erano 40 contro 1 solo Intel. Sono rimasto sbigottito. Sebbene la questione locale al forum non sia da prendere come una statistica ufficiale sull'andamento di mercato dei due produttori, in parte indica come ormai quelle convinzioni del passato si siano sradicate. E lo sai bene, le convinzioni purtroppo sono dure da uccidere altrimenti che convinzioni sarebbero :p ) Questo perche' AMD pian piano si e' saputa battere in un mercato assai competitivo come quello che proponeva Intel, primeggiando in quel settore dove Intel e' debole. Prezzo (all'inizio) e socket (ai giorni odierni). Tutto questo discorso, riferito allo standard di interconnessione, per dire che alla lunga, procedendo a colpi di cose proprietarie, si ritroveranno che il mercato del multi gpu sia un mercato da abbandonare perche' poco proficuo. Quando gente che ha voglia e disponibilita' di spendere quei verdoni c'e' eccome. Ma anche chi e' disposto a investire parecchio denaro, non e' detto che sia disposto a buttarlo. Per come la vedo io, invece, allo stato attuale delle cose, SLI e Crossfire sono giocattoli attrenti ma li vedo come uno sperpero di denaro, proprio per la loro natura "obbligante".
cdimauro
09-06-2005, 09:14
Ci risiamo :)
Certo che ne ha uno. Cosi come ne ha uno nVidia.
Ma ATI ne ha uno per Crossfire. nVidia ne ha uno per SLI.
Se ci fosse uno standard di interconnessione, tali brevetti rimarrebbero comunque. Quello che non capisco e' come tali brevetti gia' registrati debbano occludere lo sviluppo di uno standard. Uno standard di interconnessione non limita mica lo sviluppo che i produttori possono fare sui loro prodotti.
Lo standard che chiedi dovrebbe comunque utilizzare una qualche tecnologia per fare comunicare le GPU. Ati ne ha sviluppato uno, e nVidia un altro. Su entrambi molto probabilmente gravano dei brevetti, che nessuna delle due compagnie ancor più probabilmente avrà voglia di rilasciare pubblicamente.
Quindi è chiaro che il comitato, oltre al protocollo, dovrà pensare a una qualche nuova tecnologia di comunicazione: una cosa non da poco. Non è che uno sveglia la mattina, gli cade una mela in testa, e gli si illumina la lampadina.
Ma calarsi le braghe perche'. Spiegami almeno perche'. Uno standard di interconnessione lo puo' fare anche un ente che sia fuori da nVidia o Ati. E Ati e nVidia sarebbero comunque liberissime di non rispettarlo. Cio' non toglie che chi lo adottera' sara' piu' competitivo dell'altro perche' potenzialmente sara' piu' "compatibile".
Indubbiamente. Ma mentre il comitato, coi suoi lunghi tempi, si sbatterà per elaborare un protocollo di comunicazione, le esigenze delle GPU cambieranno, e Ati e nVidia seguiranno il passo. Quando il comitato porterà a termine il suo compito, SIS, VIA e altri potranno anche implementare il nuovo standard, ma Ati e nVidia probabilmente saranno già avanti e su un altro piano dal punto di vista prestazionale e della competitività.
Attualmente con i sistemi multi GPU ne' SIS, ne' VIA, ne altri produttori di chipset possono produrre chipset per supportare queste tecnologie. Se ci fosse uno standard, potremmo acquistare il nostro chipset VIA preferito e mettere schede o ATI o nVidia. O continuare ad acquistare chipset nVidia o ATI. Il vantaggio della maggior compatibilita' renderebbe meno traumatica l'adozione di tali sistemi. E gli utenti probabilmente ci farebbero un pensierino in piu' perche' al prossimo upgrade non sarebbero costretti a buttare tutto se decidessero di cambiare soluzione. Il problema alla diffusione del multi GPU attualmente, penso, e' si il costo elevato, ma anche il fatto che tali soluzioni ti obbligano troppe cose.
Neanche tanto: esistono delle soluzioni multi GPU sulla stessa scheda, che non richiedono nessun chipset particolare.
Comunque, in quanto utente, condivido il tuo pensiero, ma mi pare difficile da realizzare pensando a come si muovono società come Ati e nVidia.
A me piace Crossfire ma voglio nForce. Che faccio? Mi tengo i soldi in tasca. Cosi facendo, invece, non vendono non solo le schede ma neanche i chipset. Il famoso proverbio "chi troppo vuole nulla stringe" purtroppo in questo caso si applica. E i miei 1000 euro rimangono nel mio portafoglio in attesa di qualcosa di piu' "scalabile".
Sì, ma queste soluzioni sono estremamente costose e non sono rivolte alla massa, ma a un mercato di nicchia. Pensiamo anche a questo: non stiamo parlando di tecnologie sfruibili da chiunque...
Ma stiamo parlando del collegamento delle schede al bus o di interconnessione scheda-scheda? Io sto parlando di scheda-scheda, che e' una cosa differente dal PCI-X. I produttori non devono aspettare proprio niente. :p Continuano a fare come hanno sempre fatto. Quando e' pronto, se lo sara' mai, lo adotteranno. Cosi come hanno fatto col PCI-X. Come hanno fatto fra il passaggio da AGP-PCI-X, faranno da proprietario a standard. Mi sembra talmente chiaro questo discorso.
Come le colleghi le due schede? Con un "bus". PCI-Express è un "bus" e qui tu stai chiedendo di realizzarne un altro con un compito specifico.
Ok. Quante generazioni si sono viste da adesso a 2 anni fa? Seguendo il tuo discorso, se G70 sta per essere immesso sul mercato, significa che e' ha subito 2 anni di progettazione. Cioe' quando hanno immesso sul mercato una scheda 2 anni fa stavano progettando G70. Quindi mi domando. Se adesso stanno immettendo G70, considerando che la prossima scheda la finiscono fra 2 anni, quanti altri chip hanno gia' pronti? Direi quelli per i prossimi due anni (seguendo una piu' o meno pseudo logica aristotelica). Ergo non hai fatto altro che confermare il mio discorso :p Che la tecnologia immessa sul mercato e' gia' roba "vecchia" e attendeva soltanto il via da parte dell'economia e dal marketing :p
Due è un periodo abbastanza lungo: io ho parlato di 1-2 anni, e non so quanto tempo hanno impiegato con G70. Tu dimentichi che in quest'arco di tempo non è che le GPU fossero già pronte e hanno aspettato per metterle in produzione: hanno lavorato, si sono scontrati con diversi problemi, hanno certo soluzioni, ecc.: il tape-out di un chip non si realizza dall'oggi al domani.
Nel frattempo la società starà sfruttando il lavoro del precedente gruppo: il che non vuol dire dilazionare nel tempo la tecnologia, ma affinare il processo produttivo (per permettere di migliorare le rese e di ottenere poi aumenti di frequenza), effettuare bug-fix, aggiornare i driver.
Su questo ti quoto, ma quando parlo di standard non parlo di crossfire. Crossfire e' gia' pronto, progettato, markettizzato e disponibile. Chiaramente nessuno parlava di mettere uno standard sopra crossfire o SLI se gia' sono pronti e funzionanti o di dover modificare SLI o crossfire, che magari sarebbe impossibile. Sono priettato molto al futuro, non con le soluzioni attuali. :p
Anch'io penso al futuro ma, anche nelle condizioni che ipotizzi, vedo MOLTO difficile la coesistenza di GPU di case diverse collegate fra di loro. ;)
Tutto questo discorso, riferito allo standard di interconnessione, per dire che alla lunga, procedendo a colpi di cose proprietarie, si ritroveranno che il mercato del multi gpu sia un mercato da abbandonare perche' poco proficuo.
Infatti tante case storiche l'hanno abbandonato. D'altra parte le tecnologie su cui si campa sono principalmente quelle proprietarie.
Quando gente che ha voglia e disponibilita' di spendere quei verdoni c'e' eccome. Ma anche chi e' disposto a investire parecchio denaro, non e' detto che sia disposto a buttarlo. Per come la vedo io, invece, allo stato attuale delle cose, SLI e Crossfire sono giocattoli attrenti ma li vedo come uno sperpero di denaro, proprio per la loro natura "obbligante".
Ma nessuno ti obbliga a comprarle... ;) Con quello che costano, poi, ben pochi se lo potranno permettere: è una tecnologia per pochi, realizzata più per questioni di immagine / marketing, che per una reale utilità collettiva. Per me è meglio puntare l'attenzione su cose fruibili dai più. :p
cdimauro
27-08-2005, 06:54
Fanboy number 1
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.