View Full Version : Crossfire: intervista con ATI
Redazione di Hardware Upg
10-10-2005, 08:16
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15542.html
David Nalasco di ATI approfondisce alcune delle funzionalitò della tecnologia Crossfire, oltre a spiegarne le basi tecniche ad alcune delle limitazioni
Click sul link per visualizzare la notizia.
Secondo voi ha un qualche senso consumare la banda PCI-Ex con due X1300? ma non potevano fare un connettore proprietario come per le SLI di N'vidia? insomma la soluzione di passare su Dual DVI mi pare un po' macchinosa per la fscia medio-alta e alta, mentre quella di passare su PCI-Ex per la fascia bassa abbastanza inutile, considerando che per avere una MoBo con 2 PCI-Ex 16x si dovrà andare sulle I955x, quindi schede madri costose, la vedo difficile per l'utenza cui è destinata questa MoBo, andarsi poi a scegliere due X1300, non so, stiamo a vedere.
P.S. ma il tipo di connessione adottato da N'Vidia non è stato nemmeno preso in considerazione da ATI per un problema di brevetti o solo perchè la propria tecnologia, essendo uscita successivamente, rischiava di essere considerata una "copia"?
Dumah Brazorf
10-10-2005, 08:39
Veramente anche nVidia per le schede di fascia bassa utilizzerà questo tipo di connessione. Vista la potenza delle schede la connessione 8X potrebbe già bastare.
Ciao.
Davirock
10-10-2005, 09:32
Secondo voi ha un qualche senso consumare la banda PCI-Ex con due X1300? ma non potevano fare un connettore proprietario come per le SLI di N'vidia? insomma la soluzione di passare su Dual DVI mi pare un po' macchinosa per la fscia medio-alta e alta, mentre quella di passare su PCI-Ex per la fascia bassa abbastanza inutile, considerando che per avere una MoBo con 2 PCI-Ex 16x si dovrà andare sulle I955x, quindi schede madri costose, la vedo difficile per l'utenza cui è destinata questa MoBo, andarsi poi a scegliere due X1300, non so, stiamo a vedere.
P.S. ma il tipo di connessione adottato da N'Vidia non è stato nemmeno preso in considerazione da ATI per un problema di brevetti o solo perchè la propria tecnologia, essendo uscita successivamente, rischiava di essere considerata una "copia"?
Non potevano fare un connettore proprietario! Come avrebbero fatto a connettere le schede crossfire edition con quelle già messe in commercio?
Quelle già in commercio da 1 anno e più non avevano nessun connettore prorpietario.
Il crossfire è un ripiego all'SLI di nvidia. ATI non aveva pensato che i chip x800 potessero essere abbinati a coppie... nvidia si
percui hanno risolto il problema cercando di gestire via driver e via composite-engine 2 chip che teoricamente sono pensati per fuzionare come singoli.
Se vai sull'analisi tecnica e i test di crossfire nell'articolo pubblicato un paio di settimane fa Corsini spiega bene questo concetto
Bye
harlock10
10-10-2005, 11:51
Ma quindi il crossfire per ora è stato commercializzato solo per le schede della serie x800 ? bisognerà ancora aspettare che venga presentato un crossfire per la serie nuova ?
Grazie mille a tutti quelli che mi rispondono
ciauz
Sig. Stroboscopico
10-10-2005, 12:33
Vabbè il monitor Apple sempre citato... ma anche il mio "normalissimo" Philips 202P4 supporta il 2048x1536 con refresh superiore ai 70 Hz
^__^
Grande Philips!
(è un tubo catodico ovviamente)
Davirock
10-10-2005, 12:35
Vabbè il monitor Apple sempre citato... ma anche il mio "normalissimo" Philips 202P4 supporta il 2048x1536 con refresh superiore ai 70 Hz
^__^
Grande Philips!
(è un tubo catodico ovviamente)
:mbe:
Su uscita DVI?
Bye
:mbe:
Su uscita DVI?
Bye
No quel monitor è su VGA ;) , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando? :rolleyes:
Davirock
10-10-2005, 16:47
No quel monitor è su VGA ;) , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando? :rolleyes:
Vabbè, dai... ci si può sbagliare... non mettiamo in croce la gente :)
Bye
giovanbattista
10-10-2005, 17:01
Originariamente inviato da: Davirock
Su uscita DVI?
Bye
No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?
:Originariamente inviato da: Davirock
Su uscita DVI?
Bye
No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?
:)
giovanbattista
10-10-2005, 17:02
mi hai fatto sbaccanare....ciauz
Davirock:
in verita' i chip ATi sono capaci di operare in coppie (anche in multipli pari), gia' dal RAGE-PRO, solo che prima era piu' semplice commerciare un chip di nuova generazione performante il doppio, piuttosto che metterne 2 o multipli su una scheda sola ed ammazzarsi a fare driver compatibili con tutto (a quanto ricordo ci dovrebbero essere delle schede professionali con piu' di un chip ATI integrato, oltre alla vecchia ATI MAX-PRO ), e sicuramente anche i vecchi chip nVidia potevano avere questa feature non pubblicizzata, soprattutto dopo l'acquisizione di 3dfx.
Oggi che si stanno raggiungendo i 300 milioni di transistor a singolo chip, e si cercano sempre piu' elevate prestazioni, si comincia a pensae che e' molto piu' facile fare una scheda video con 2 chip da 150 milioni di transistor e 16 pipeline, che farne una da oltre 300 per 24 o 32 tutte attive.
una possibile evoluzione futura per le GPU potrebbe essere quella di avere relativamente piccoli chip con poche pipeline, ma con 32MB di ram veloce integrata nel chip, come in alcune soluzioni per portatili, ed accoppiare questi: 16 chip del genere, con 2 sole pipe a chip, avrebbero 32 pipe e 512 MB di ram veramnete veloce, mentre due potrebbero essere usati per schede entry livel con memoria tradizionale sul PCB della sheda video o condivisa sul sistema sfruttando la RAM integrata come caches;
fare un chip del genere sarebbe poco costoso (uniformita' di produzione), ed integrando la ram si abbatterebbero ulteriormente i costi.
Davirock
11-10-2005, 17:49
Davirock:
in verita' i chip ATi sono capaci di operare in coppie (anche in multipli pari), gia' dal RAGE-PRO, solo che prima era piu' semplice commerciare un chip di nuova generazione performante il doppio, piuttosto che metterne 2 o multipli su una scheda sola ed ammazzarsi a fare driver compatibili con tutto (a quanto ricordo ci dovrebbero essere delle schede professionali con piu' di un chip ATI integrato, oltre alla vecchia ATI MAX-PRO ), e sicuramente anche i vecchi chip nVidia potevano avere questa feature non pubblicizzata, soprattutto dopo l'acquisizione di 3dfx.
Oggi che si stanno raggiungendo i 300 milioni di transistor a singolo chip, e si cercano sempre piu' elevate prestazioni, si comincia a pensae che e' molto piu' facile fare una scheda video con 2 chip da 150 milioni di transistor e 16 pipeline, che farne una da oltre 300 per 24 o 32 tutte attive.
una possibile evoluzione futura per le GPU potrebbe essere quella di avere relativamente piccoli chip con poche pipeline, ma con 32MB di ram veloce integrata nel chip, come in alcune soluzioni per portatili, ed accoppiare questi: 16 chip del genere, con 2 sole pipe a chip, avrebbero 32 pipe e 512 MB di ram veramnete veloce, mentre due potrebbero essere usati per schede entry livel con memoria tradizionale sul PCB della sheda video o condivisa sul sistema sfruttando la RAM integrata come caches;
fare un chip del genere sarebbe poco costoso (uniformita' di produzione), ed integrando la ram si abbatterebbero ulteriormente i costi.
Si, ricordo la serie RAGE MAXX (con 2 X ;) ) ma anche quella fu quasi un "esercizio di stile, perchè non ve ne furono altre (vado a memoria)
Infatti quella strada fu abbandonata perchè è più semplice un architettura a singolo chip (costa meno) e a 2 chip, come dici tu, ci si arrabattava a fare driver, spesso complessi (che costavano). e poi allora il concetto di single chip insieme alle evoluzioni della metallizzazione sempre più piccola lasciavano intendere che la strada a single chip sarebbe stata la migliore
Concordo sul fatto che 1 chip a 300 M di transistor costa più di due a 150 M in linea teorica
Però è patognomonico il fatto che crossfire basa la "fusione" delle capacità di 2 chip tramite un chip esterno (oltre che al chipset come fa nvidia) e un pesante (nel termine di realizzazione) controllo dei driver... dopo mesi dall'annuncio i driver che supportano crossfire sono delle beta (come segnalato nella prova di HWU).
Per questo motivo comunque considero sempre il CrossFire un ripiego all'SLI di nvidia.... un bel ripiego, viste le prestazioni.
Non sto criticando niente... ma a me sembra che la faccenda sia andata così. è solo cronistoria... poi la discussione sulle prestazioni la lascio ad altri... non penso di prendere un sistema nè SLI nè CrossFire, per le mie disponibilità finanziarie costano troppo
Bye
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.