Crossfire: intervista con ATI

Crossfire: intervista con ATI

David Nalasco di ATI approfondisce alcune delle funzionalitò della tecnologia Crossfire, oltre a spiegarne le basi tecniche ad alcune delle limitazioni

di pubblicata il , alle 09:16 nel canale Schede Video
ATI
 

Il sito T-Break ha pubblicato, a questo indirizzo, una interessante intervista con David Nalasco di ATI; l'intervista ha avuto luogo nel corso dell'evento di presentazione delle nuove schede ATI Radeon X1000 di Ibiza, lo scorso fine settimana.

Il tema dell'intervista è il supporto alle tecnologie Crossfire, approccio dual scheda video sviluppato da ATI. Come noto, la principale limitazione dell'attuale implementazione della tecnologia Crossfire con schede video Radeon X850 e Radeon X800 è data dall'impossibilità di utilizzare risoluzioni video superiori a 1600x1200 con refresh di 60 Hz, nell'esecuzione di applicazioni 3D.

Alla base di questa limitazione troviamo la limitata bandwidth della connessione DVI, pari a 165 MHz x 8bit; con tale livello di bandwidth, essendo la connessione tra le due schede video affidata ad un particolare connettore che passa su connessione DVI sulla scheda video slave, è impossibile utilizzare risoluzioni video superiori.

Abbiamo già trattato in dettaglio questi temi all'interno della nostra recensione della tecnologia Crossfire pubblicata a questo indirizzo; a questa rimandiamo per tutti gli approfondimenti del caso.

Per ovviare a tale limitazione, le schede Radeon della famiglia X1800 e X1600 sono tutte dotate di un connettore dual link DVI, capace di una bandwidth superiore; questo permetterà di utilizzare nei sistemi Crossfire con schede Radeon X1800 e Radeon X1600 una risoluzione video massima di 2048x1536 con refresh superiore ai 70 Hz. Al momento attuale una risoluzione di questo tipo è accessibile con display Apple da 30 pollici, secondo ATI l'attuale riferimento del emrcato per quanto riguarda i display TFT ad elevata risoluzione.

ATI continuerà ad implementare il compositing engine all'esterno dei propri chip video, ma è prevista una sua possibile integrazione in future generazioni di schede video Crossfire. Legatà a questo passaggio è ovviamente la progressiva diffusione di soluzioni Crossfire, che giustificherebbe il costo addizionale per gli utenti.

Ricordiamo come le soluzioni Radeon X1300 non necessitino di connessione esterna via cavo per operare in configurazione Crossfire, tantomeno di Compositing Engine. Il corretto passaggio dei dati tra le due schede video avviene attraverso bus PCI Express, esattamente come accade per le soluzioni NVIDIA GeForce di fascia entry level che siano utilizzate in configurazione SLI.
Le schede Radoen X1300, a differenza dei modelli di fascia più alta, non integrano un transmitter DVI Dual Link, così da contenere i costi di produzione.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
IL PAPA10 Ottobre 2005, 09:34 #1
Secondo voi ha un qualche senso consumare la banda PCI-Ex con due X1300? ma non potevano fare un connettore proprietario come per le SLI di N'vidia? insomma la soluzione di passare su Dual DVI mi pare un po' macchinosa per la fscia medio-alta e alta, mentre quella di passare su PCI-Ex per la fascia bassa abbastanza inutile, considerando che per avere una MoBo con 2 PCI-Ex 16x si dovrà andare sulle I955x, quindi schede madri costose, la vedo difficile per l'utenza cui è destinata questa MoBo, andarsi poi a scegliere due X1300, non so, stiamo a vedere.

P.S. ma il tipo di connessione adottato da N'Vidia non è stato nemmeno preso in considerazione da ATI per un problema di brevetti o solo perchè la propria tecnologia, essendo uscita successivamente, rischiava di essere considerata una "copia"?
Dumah Brazorf10 Ottobre 2005, 09:39 #2
Veramente anche nVidia per le schede di fascia bassa utilizzerà questo tipo di connessione. Vista la potenza delle schede la connessione 8X potrebbe già bastare.
Ciao.
Davirock10 Ottobre 2005, 10:32 #3
Originariamente inviato da: IL PAPA
Secondo voi ha un qualche senso consumare la banda PCI-Ex con due X1300? ma non potevano fare un connettore proprietario come per le SLI di N'vidia? insomma la soluzione di passare su Dual DVI mi pare un po' macchinosa per la fscia medio-alta e alta, mentre quella di passare su PCI-Ex per la fascia bassa abbastanza inutile, considerando che per avere una MoBo con 2 PCI-Ex 16x si dovrà andare sulle I955x, quindi schede madri costose, la vedo difficile per l'utenza cui è destinata questa MoBo, andarsi poi a scegliere due X1300, non so, stiamo a vedere.

P.S. ma il tipo di connessione adottato da N'Vidia non è stato nemmeno preso in considerazione da ATI per un problema di brevetti o solo perchè la propria tecnologia, essendo uscita successivamente, rischiava di essere considerata una "copia"?


Non potevano fare un connettore proprietario! Come avrebbero fatto a connettere le schede crossfire edition con quelle già messe in commercio?
Quelle già in commercio da 1 anno e più non avevano nessun connettore prorpietario.
Il crossfire è un ripiego all'SLI di nvidia. ATI non aveva pensato che i chip x800 potessero essere abbinati a coppie... nvidia si
percui hanno risolto il problema cercando di gestire via driver e via composite-engine 2 chip che teoricamente sono pensati per fuzionare come singoli.
Se vai sull'analisi tecnica e i test di crossfire nell'articolo pubblicato un paio di settimane fa Corsini spiega bene questo concetto

Bye
harlock1010 Ottobre 2005, 12:51 #4
Ma quindi il crossfire per ora è stato commercializzato solo per le schede della serie x800 ? bisognerà ancora aspettare che venga presentato un crossfire per la serie nuova ?

Grazie mille a tutti quelli che mi rispondono
ciauz
Sig. Stroboscopico10 Ottobre 2005, 13:33 #5
Vabbè il monitor Apple sempre citato... ma anche il mio "normalissimo" Philips 202P4 supporta il 2048x1536 con refresh superiore ai 70 Hz

^__^

Grande Philips!

(è un tubo catodico ovviamente)
Davirock10 Ottobre 2005, 13:35 #6
Originariamente inviato da: Sig. Stroboscopico
Vabbè il monitor Apple sempre citato... ma anche il mio "normalissimo" Philips 202P4 supporta il 2048x1536 con refresh superiore ai 70 Hz

^__^

Grande Philips!

(è un tubo catodico ovviamente)




Su uscita DVI?

Bye
FAM10 Ottobre 2005, 14:56 #7
Originariamente inviato da: Davirock

Su uscita DVI?

Bye


No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?
Davirock10 Ottobre 2005, 17:47 #8
Originariamente inviato da: FAM
No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?


Vabbè, dai... ci si può sbagliare... non mettiamo in croce la gente

Bye
giovanbattista10 Ottobre 2005, 18:01 #9
Originariamente inviato da: Davirock

Su uscita DVI?

Bye



No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?

riginariamente inviato da: Davirock

Su uscita DVI?

Bye



No quel monitor è su VGA , ma vuoi mettere il piacere di postare senza neanche sapere di cosa si sta parlando?

giovanbattista10 Ottobre 2005, 18:02 #10
mi hai fatto sbaccanare....ciauz

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^