PDA

View Full Version : La prima scheda video DirectX 10


Redazione di Hardware Upg
12-07-2006, 09:37
Link alla notizia: http://www.hwupgrade.it/news/skvideo/18007.html

Le prime immagini di una architettura DX10 non riguardano stranamente NVIDIA, tantomeno ATI

Click sul link per visualizzare la notizia.

shark79
12-07-2006, 09:42
Si comincia :D!!!!
Parola a ati e nvidia forza fatecci vedere cosa sapete fare.
Io sono in possesso di un x1800xt 512 e aspetterò le proposte Ati top di gamma R6xx a shader unificati, per effettuare il cambio.

Non vedo l'ora!!!!!

MasterGuru
12-07-2006, 09:42
"buona la prima" disse il filosofo... :rotfl: speriamo porti tanta innovazione

Catan
12-07-2006, 09:44
ma a me pare solo una foto ocn un bel dissipatore e senza ram
finche non esce il nome ufficiale di quella sk e le caratteristiche e finche non vedo il core coperto per me quella puo esser anche un deltacrhome

For84
12-07-2006, 09:51
ma a me pare solo una foto ocn un bel dissipatore e senza ram
finche non esce il nome ufficiale di quella sk e le caratteristiche e finche non vedo il core coperto per me quella puo esser anche un deltacrhome

Quelle ad occhio si chiamano DDRII e sono già montate...il core è coperto,quindi direi che la scheda è pronta!

stedomanda
12-07-2006, 09:55
Ma le directed10 non usciranno con windows vista?????E qusto non uscirà a gennaio febbraio?????Boh non capisco.....ma per esempio...io che ho una 7900gtx da 512mb....è copatibile direct3d10????

ivabo
12-07-2006, 09:59
stedomanda prima escono e prima vengono comprare... prima vengono comprare e + ne vendono... + ne vendono e + calano i prezzi per noi :) la tua scheda video non è compatibile DX10 mi spiace

dwfgerw
12-07-2006, 10:01
c'e' ancora tempo per le dx10.... le api verranno rilasciate con vista solo a Gennaio-Febbraio del prossimo anno e i primi titoli forse prima dell'estate prossima...
Ancora lunghissima vita alle DX9.0C

ekerazha
12-07-2006, 10:03
Ricordo ancora i bei tempi andati di quando la S3 dominava con le schede Savage

Kintaro70
12-07-2006, 10:05
Ma le directed10 non usciranno con windows vista?????E qusto non uscirà a gennaio febbraio?????Boh non capisco.....ma per esempio...io che ho una 7900gtx da 512mb....è copatibile direct3d10????

Non in modo nativo ma solo emulato.
Comunque non c'è di che preoccuparsi visto che i giochi comunque continueranno a essere compatibili con le Dx9c.

eta_beta
12-07-2006, 10:06
scusate ma se uno compra due 7950 in sli non può giocare con giochi DX10?

RoCkEtZ
12-07-2006, 10:12
ovviamente si .. può farlo anche cn una 7600gs ... Solo che nn essendo schede compatibili con directX10 , nn potranno sfruttarne le potenzialità a pieno.

RoCkEtZ
12-07-2006, 10:13
è come con i giochi directx9 : tu puoi benissim giocarci con una scheda directX8 , solo che nn avrai le performances che otterresti con una scheda directX9 e nn potrai godere degli effetti directX9 ..

Kintaro70
12-07-2006, 10:14
scusate ma se uno compra due 7950 in sli non può giocare con giochi DX10?

Le Dx10 come le precedenti sono librerie di funzioni grafiche, ad ogni revisione si introducono nuove funzionalità che possono essere svolte via Hardware (in modo nativo) i via SW (emulato con conseguenti rallentamenti). Se uno ha dei mostriciattoli come le 7950 non si deve certo preoccupare i giochi gireranno per un bel pezzo!!!

Lo ZiO NightFall
12-07-2006, 10:14
Ricordo ancora i bei tempi andati di quando la S3 dominava con le schede Savage
Veramente non ha mai dominato con le schede savage, anzi le ha sempre "prese" in termini velocistici dalle concorrenti. Solo il chip savage4, montato per lo più da Creative, presentò un'innovazione per la compressione delle texture, chiamata S3TC, poi diventata uno standard. Storiche le texture compresse con questa tecnica del primo Unreal Tournament, utilizzabili pure con schede Nvidia, visto che avevano acquisito e standardizzato lo S3TC (il nuovo nome però non mi viene in mente...).

AressDocHW
12-07-2006, 10:20
ma le schede dx9 tipo le 7900 e xt1900 come andranno (se andranno) con le dx10? Forse in emulazione sw.... in giro non ho visto nessun articolo a tal proposito.

bombolo_flint
12-07-2006, 10:22
Ha ragione Lo ZiO NightFall,le S3 le ha infatti sempre prese,comunque chi ha una 7900GTX non si deve preoccupare perchè va bene,vado al massimo io con la scheda video in firma,figuriamoci chi ha una 7900GTX o superiore.Ciao ;)

riva.dani
12-07-2006, 10:24
Io pensavo di buttarmi su r580+... Non ce la faccio più ad aspettare! Già sto aspettando Conroe e compagnia, ad r600 e G80 ci penserò quando sarà il momento. :D

Wilfrick
12-07-2006, 10:36
Certo che sarebbe davvero interessante poter scrutare nella mente di una persona che ha una 1800 o una 7900 e vuole cambiarla per prendere una dx10 appena esce. Chissà quali cose contorte si scoprirebbero.
Cmq lode a loro che foraggiano nvidia e ati e mettono sul mercato superschede di seconda mano.

Scruffy
12-07-2006, 10:42
vedendo il video di crysis che usa dx 10 e vedendo sta scheda video, anche se leggo che è dx 10 mi fa pensare alle vecchie geforce serie 5 che erano dx 9 ma che non ci giravano manco a 640*480..... avrà senso fare schede dx 10 di fascia medio bassa? ci gireranno sti giochi o andranno chiodo? mha forse mi sbaglio....magari son come le 6600 gt che son squallide come aspetto ma che vanno abbastanza bene nei giochi anche in dx 9.... cmq si meglio che escono ora, così i prezzi si abbassano. vai tutti pronti per il vista :D

bombolo_flint
12-07-2006, 10:42
So che non è il luogo adatto dove parlare di questo,visto che si parla di schede video,però volevo rispondere ad un utente che sta aspettando il Conroe,la scheda madre migliore attualmente per chi vuole il massimo come qualità costruttiva e con tutti i condensatori elettrolitici che sono importanti e anche il quad bios è la:http://hardware.multiplayer.it/immagini/news/3/20243/img1.jpg

lostguardian
12-07-2006, 10:44
ma i nerd ci si fanno le seghe sopra queste immagini? no me lo chiedo perchè il bello di una scheda video è quello che permette di fare, non la componentistica stessa che per la maggior parte dei nerd non è nient'altro che una ventola attaccata a un pezzo di silicio. bah...

Kintaro70
12-07-2006, 10:48
So che non è il luogo adatto dove parlare di questo,visto che si parla di schede video,però volevo rispondere ad un utente che sta aspettando il Conroe,la scheda madre migliore attualmente per chi vuole il massimo come qualità costruttiva e con tutti i condensatori elettrolitici che sono importanti e anche il quad bios è la:http://hardware.multiplayer.it/immagini/news/3/20243/img1.jpg

Il concetto di max è relativo comunque è un bel prodotto.

bombolo_flint
12-07-2006, 10:51
E ti credo che è un bel prodotto,solo come è fatta è costa solo 220€,che secondo me non è assai,se uno vuole montare un bel processore come il Conroe,secondo me questa è la scelta giusta,non la nuova DFI che è uscita per Conroe. :)

Nippolandia
12-07-2006, 11:15
E ti credo che è un bel prodotto,solo come è fatta è costa solo 220€,che secondo me non è assai,se uno vuole montare un bel processore come il Conroe,secondo me questa è la scelta giusta,non la nuova DFI che è uscita per Conroe.

Ammazza parlate di 220€ come se sarebbero noccioline,io per guadagnare sti soldi devo lavorare 4 giorni............
Va be che ce´ gente che li guadagna in 1 ora...ahahah...

gianni1879
12-07-2006, 11:15
bene si sta cominciando :) anche se verranno sfruttate tra un annetto a dovere, ancora vista non è uscito e i giochi neppure, passerà un bel pò di tempo, chi ha una scheda dx9 potrà dormire sonni tranquilli per un bel pezzo.

Poi in ogni caso questa scheda presentata è di fascia media con tutte le dovute conseguenze, non permetterà di giocare al max dettaglio e risoluz, ma permetterà di giocaregodendo delle nuove Api (quando saranno uscite e il sw le sfrutterà) ma sarei curiosodi vedere sta scheda in dx9 le sue potenzialità per avere un termine di paragone con le schede attuali :)

bs82
12-07-2006, 11:15
non esiste nessun video di crysis in dx10.....

dema86
12-07-2006, 11:19
Speriamo che comincino a sviluppare driver decenti quelli di S3 :-(

leoneazzurro
12-07-2006, 11:26
E ti credo che è un bel prodotto,solo come è fatta è costa solo 220€,che secondo me non è assai,se uno vuole montare un bel processore come il Conroe,secondo me questa è la scelta giusta,non la nuova DFI che è uscita per Conroe. :)

Sei "leggermente" OT. Torniamo a parlare di schede video? ;)

BigBug
12-07-2006, 11:26
Si comincia :D!!!!
Parola a ati e nvidia forza fatecci vedere cosa sapete fare.
Io sono in possesso di un x1800xt 512 e aspetterò le proposte Ati top di gamma R6xx a shader unificati, per effettuare il cambio.

Non vedo l'ora!!!!!

Tu sei Pazzo!!! :D

mentalrey
12-07-2006, 11:40
no lui ha piu' soldi di te.

ekerazha
12-07-2006, 11:49
Veramente non ha mai dominato con le schede savage, anzi le ha sempre "prese" in termini velocistici dalle concorrenti. Solo il chip savage4, montato per lo più da Creative, presentò un'innovazione per la compressione delle texture, chiamata S3TC, poi diventata uno standard. Storiche le texture compresse con questa tecnica del primo Unreal Tournament, utilizzabili pure con schede Nvidia, visto che avevano acquisito e standardizzato lo S3TC (il nuovo nome però non mi viene in mente...).
Mi riferivo proprio alla Savage4. A quel tempo nVidia con la TNT2 era più veloce della Savage4 ma a livello di qualità delle immagini se le prendeva abbondantemente sia dalla Savage che dalla Matrox G400.

ulk
12-07-2006, 12:19
4 conettori diversi su scheda.. peccato che guardando il circuito stampato sembrano non tornare i conti. Puzza di fake e mi suona strano che una sigla come S£ sia già pronta per librerie non ancora pronte ufficialmente. :mbe:

S3.. ma per piacere c'è già Intel con il suo chip integrato che sta sviluppando per la fascia media.

imayoda
12-07-2006, 12:20
Chi si rivede... S3 non è mai morta, anzi lavora e, parere personale, sta pure facendo un ottimo lavoro nel segmento entry e budget.

ivabo
12-07-2006, 12:33
ma sbaglio o su sta piastra manca tutto (cioè ram e GPU)

PiccoloGOKU
12-07-2006, 12:52
lol ivabo ma hai visto la prima foto? ;)

+Benito+
12-07-2006, 13:00
complimenti ad S3 per lo stupendo pezzo di plastica spacciato per scheda video! Domani posto le foto della mia quad-chip con un TB di ram e otto connessioni DVI....per piacere......sarà mica una cosa seria questa?!

sì, forse sarà anche la prima scheda video DX10, ma SARA', adesso è un pre-prototipo con solo una parte dei pezzi montati e chiaramente allo stadio embrionale di sviluppo, mi sembra molto prematura come notizia.

bertoz85
12-07-2006, 14:07
Mi riferivo proprio alla Savage4. A quel tempo nVidia con la TNT2 era più veloce della Savage4 ma a livello di qualità delle immagini se le prendeva abbondantemente sia dalla Savage che dalla Matrox G400.
non ti preoccupare, anche adesso nvidia come qualità dell'uscita mediamente le prende da ati e soprattutto dalla vecchissima G400 :D

ivabo
12-07-2006, 14:41
si ho visto la prima foto e non vedo ne le memorie ne la gpu ma vedo solo gli alloggiamenti x memorie e la ventola

C.le Rommel
12-07-2006, 15:06
Tutti i video demo di Crysis sono con DX9c.. anche se il gioco supporta anche le Dx10

sinadex
12-07-2006, 15:12
http://www.hwupgrade.it/immagini/s3_dx10_1.jpg
veramente io le vedo le memorie... sono difficili da notare perchè i piedini non sono ai lati del package ma sotto ;)

ekerazha
12-07-2006, 15:23
non ti preoccupare, anche adesso nvidia come qualità dell'uscita mediamente le prende da ati e soprattutto dalla vecchissima G400 :D
Il vantaggio di nVidia è che a differenza di ATI fa driver decenti e soprattutto per tutte le maggiori piattaforme (Linux, Solaris, FreeBSD, Windows).

;)

gianni1879
12-07-2006, 15:42
Il vantaggio di nVidia è che a differenza di ATI fa driver decenti e soprattutto per tutte le maggiori piattaforme (Linux, Solaris, FreeBSD, Windows).

;)
non mi pare che ATI faccia driver penosi per Win, i cat hanno raggiunto un ottima maturità, ogni release migliora sempre qualcosina specie con le ultime schede.
quindi quello che dici non è affatto vero. mentre su linux ti do pienamente ragione non sono all'altezza di Nvidia.
per quanto invece la qualità visiva Nvidia con gli ultimi driver ha colmato il gap prestazionale che aveva nei confronti di Ati almeno in ambito 2d e riproduzione di dvd e filmati in generale!
mentre per quanto riguarda il 3d e uscita tv credo che il gap prestazionale sia ancora presente.

cmq torniamo in topic :)

chaosbringer
12-07-2006, 15:47
chiedo scusa in anticipo se scrivo cazzate, ma che intendono x scheda dx10? mi pare che l'unica differenza rispetto alle dx9 sia il fatto di avere shader unificati, e che comunque non è richiesto che siano implementati in hw (e il fatto di avere shading unit specializzate non dovrebbe portare meno prestazioni, solo che non ci sono unità generiche ma unità pixel e vertex in numero prestabilito). qualcuno mi sa illuminare?
ciao

ekerazha
12-07-2006, 16:13
non mi pare che ATI faccia driver penosi per Win, i cat hanno raggiunto un ottima maturità, ogni release migliora sempre qualcosina specie con le ultime schede.
quindi quello che dici non è affatto vero. mentre su linux ti do pienamente ragione non sono all'altezza di Nvidia.

Allora... se dai una visitatina al thread sul monitor Samsung SM 970P, proprio recentemente qualcuno si è lamentato di incompatibilità tra i nuovi Catalyst ed il software per la gestione del monitor. Con nVidia mai nessun problema di sorta. Poi guarda ciò che "circonda" il driver... ad esempio il pannello di configurazione di ATI è osceno ed è un mattone rispetto all'estrema pulizia e integrazione in Windows di quello nVidia (non so se recentemente l'hanno modificato perchè è da qualche mese che non uso un PC con scheda ATI). Poi come già detto nVidia non solo ha ottimi driver per Linux (al contrario di quelli assolutamente indecenti di ATI) ma anche anche ottimi driver per Solaris e FreeBSD... insomma se come me sei un utente che ha voglia di sperimentare (ad esempio usando su Linux o Solaris LG3D, il desktop manager 3Dmensionale di Sun) quella per nVidia è una scelta obbligata :)

gianni1879
12-07-2006, 16:30
beh il fatto che qualcuno abbia ogni tanto qualche problema con qualche driver in accoppiata con un monitor non significa che i driver facciano pena, non facciamo di tutta l'erba un fascio.
Poi come molti utenti, si può benissimo installare il solo driver +AtiTrayTool che come leggerezza non lo batte nessuno.
cmq anche il CC non è pesante come si vuol pensare :)
in ogni caso un giocatore di solito utilizza Win come sistema operativo dato che la maggior parte dei giochi son sviluppati proprio per lui.
Ati per i videogiochi è tutt'ora una scelta valida.
chi vuol fare esperimenti sicuramente si rivolgerà altrove. Ognuno fa le scelte in base a ciò che vuole.
io ultimamente ho mandato una scheda in rma in canada e dopo pochissimi (4 gg lavorativi per l'esattezza dall'arrivo in canada presso ON) mi è stata sostituita, beh quando si compra si guardano molte cose e tutto e soggettivo ;)

scusate di nuovo OT

ekerazha
12-07-2006, 16:35
beh il fatto che qualcuno abbia ogni tanto qualche problema con qualche driver in accoppiata con un monitor non significa che i driver facciano pena, non facciamo di tutta l'erba un fascio.

Certo... però ti ho fatto presente che con nVidia generalmente da quello che sento c'è meno gente che ha problemi di sorta.


Poi come molti utenti, si può benissimo installare il solo driver +AtiTrayTool che come leggerezza non lo batte nessuno.

Ma ha funzioni molto più limitate. Anche nVidia dispone della modalità di configurazione attraverso tray icon, ma nel caso di nVidia anche il pannello di controllo è eccellente.


in ogni caso un giocatore di solito utilizza Win come sistema operativo dato che la maggior parte dei giochi son sviluppati proprio per lui.
Ati per i videogiochi è tutt'ora una scelta valida.

Sicuramente... ma dato che una cosa non deve per forza pregiudicare l'altra, personalmente con nVidia posso giocare alla grande su Windows, alla grande su Linux e anche provare su Linux e Solaris cose "futuristiche" come un desktop manager tridimensionale ;)

DjLode
12-07-2006, 16:58
Si parla di S3 e di una scheda Dx 10 e spuntano i driver Ati per linux? Fantastico :muro:

bist
12-07-2006, 17:26
Sicuramente... ma dato che una cosa non deve per forza pregiudicare l'altra, personalmente con nVidia posso giocare alla grande su Windows, alla grande su Linux e anche provare su Linux e Solaris cose "futuristiche" come un desktop manager tridimensionale ;)
Vabè XGL gira da dio anche con una 9550 coi driver proprietari ATi (penosi).
La differenza la senti sui giochi, non su i desktop 3D che richiedono potenze ridicole.

ekerazha
12-07-2006, 18:02
Vabè XGL gira da dio anche con una 9550 coi driver proprietari ATi (penosi).
La differenza la senti sui giochi, non su i desktop 3D che richiedono potenze ridicole.
Non mi risulta di aver parlato di XGL ;)
Per quello che viene usato attualmente XGL (far ruotare i desktop sui lati di un cubo) va benissimo un integrato Intel.

Al contrario prova LG3D ( https://lg3d.dev.java.net ) con una scheda ATI e fammi sapere (o aspetta anche che venga utilizzato XGL per qualcosa di più impegnativo).

;)

bist
12-07-2006, 18:15
Non mi risulta di aver parlato di XGL ;)
Per quello che viene usato attualmente XGL (far ruotare i desktop sui lati di un cubo) va benissimo un integrato Intel.

Al contrario prova LG3D ( https://lg3d.dev.java.net ) con una scheda ATI e fammi sapere (o aspetta anche che venga utilizzato XGL per qualcosa di più impegnativo).

;)
Scusa ma se LG3D fa solo quello che si vede nei video e va a scatti con una Radeon 9xxx c'è qualcosa che non va in LG3D, non solo nei driver ATi.

ekerazha
12-07-2006, 18:28
Scusa ma se LG3D fa solo quello che si vede nei video e va a scatti con una Radeon 9xxx c'è qualcosa che non va in LG3D, non solo nei driver ATi.
Non fa solo quello che c'è nel video (penso tu abbia scaricato il video del CeBIT 2006). Comunque LG3D esegue appunto animazioni 3D in tempo reale (che vanno oltre ad un cubo che ruota di 90 gradi) e anche se non è un videogioco richiede un minimo di accelerazione 3D. Non è questione di Radeon 9xxx etc. puoi avere anche una scheda ATI di ultimissima generazione il problema è che i driver ATI per Linux sono a dir poco penosi e non supportano l'accelerazione 3D. Fai conto che a me gira fluidamente con una GeForce FX 5200 con bus a 64bit: la differenza è che i driver nVidia sono buoni e quelli ATI sono pessimi.

Se vuoi leggerti un po' di menate con le schede ATI guarda qua: http://forums.java.net/jive/thread.jspa?threadID=11578&start=0&tstart=0

;)

P.S.
Fa conto che alcune persone che utilizzano LG3D hanno venduto la loro scheda ATI e comperato una nVidia ;)

bist
12-07-2006, 18:35
Non fa solo quello che c'è nel video (penso tu abbia scaricato il video del CeBIT 2006). Comunque LG3D esegue appunto animazioni 3D in tempo reale (che vanno oltre ad un cubo che ruota di 90 gradi) e anche se non è un videogioco richiede un minimo di accelerazione 3D. Non è questione di Radeon 9xxx etc. puoi avere anche una scheda ATI di ultimissima generazione il problema è che i driver ATI per Linux sono a dir poco penosi e non supportano l'accelerazione 3D. Fai conto che a me gira fluidamente con una GeForce FX 5200 con bus a 64bit: la differenza è che i driver nVidia sono buoni e quelli ATI sono pessimi.

Se vuoi leggerti un po' di menate con le schede ATI guarda qua: http://forums.java.net/jive/thread.jspa?threadID=11578&start=0&tstart=0

;)

P.S.
Fa conto che alcune persone che utilizzano LG3D hanno venduto la loro scheda ATI e comperato una nVidia ;)
Scusa ma io coi driver ATi sotto Linux giocavo tranquillamente ad Half Life (il primo), l'accelerazione 3D c'è, non e vero che non è supportata. Che poi i driver siano prestazionalmente indegni è verissimo, ma mi vien da dire che pure Looking Glass è un mattone se fa così fatica sulle ATi.

ekerazha
12-07-2006, 19:09
Scusa ma io coi driver ATi sotto Linux giocavo tranquillamente ad Half Life (il primo), l'accelerazione 3D c'è, non e vero che non è supportata. Che poi i driver siano prestazionalmente indegni è verissimo, ma mi vien da dire che pure Looking Glass è un mattone se fa così fatica sulle ATi.
Si mi sono espresso male io, l'accelerazione 3D teoricamente c'è... ma è appunto pessima.

Se LG3D fosse un mattone non girerebbe perfettamente fluido sulla mia GeForce FX 5200 (con bus a 64bit) che sulla carta è prestazionalmente inferiore a praticamente qualsiasi Radeon 9xxx. Evidentemente il problema sono proprio i driver. Che poi tu riuscissi a giocare al primo Half Life è possibile, evidentemente era meno impegnativo a livello di GPU o utilizzava meno effetti etc. non saprei bisognerebbe chiedere agli sviluppatori. I fatti restano appunto che su Linux una scheda nVidia entry level ha prestazioni mediamente superiori ad una scheda ATI high end ;)

ekerazha
12-07-2006, 19:19
Se guardi nel thread che ti ho linkato viene anche spiegato quali sono nel caso specifico i problemi del driver ATI:


ATI driver disable GLX when XComposite extension enabled (XComposite is
need by lg3d-session to capture X11 windows). therefore LG in session
mode will not work with ATI driver.


;)

P.S.
Quindi è indubbio che vi possano essere casi in cui le schede ATI funzionano più o meno correttamente (vedi primo Half Life), ma come vedi in casi specifici danno enormi problemi.

Doraneko
12-07-2006, 19:53
Io sono d'accordo con chi dice che questa non è la scheda funzionanate.
Le memorie non ci sono,anche se avessero i pedini sotto,sarebbero troppo sottili.Guardando la foto si vede che sono completamente SENZA SPESSORE!!
Poi c'è anche il fatto che non c'è neanche una scritta su quelle "memorie".
Mancano totalmente i percorsi del circuito stampato (a meno che non ci abbiano colorato sopra...).C'è anche quella ventolina che mi convince poco.Non so che consumi abbia sta scheda ma mi sembra difficile che quella ventolina montata su un dissi con così poche lamelle possa fare il suo lavoro...
IMHO questa è una specie di prototipo per dare a grandi linee l'idea di come sarà la scheda.

gianni1879
12-07-2006, 21:18
Si parla di S3 e di una scheda Dx 10 e spuntano i driver Ati per linux? Fantastico :muro:
e si è continuato ancora. Ogni volta che si parla
di driver Ati vien sempre sto discorso di linux

@ekerazha
mi sa che non conosci bene Att dato che dici che ha funzioni limitate, è proprio al contrario, ha delle funz richiamabili da tray ma dispone di opzioni altamente avanzate, direi che è come il rivatuner per le Nvidia.
Prova il ControlCENTER e vedi se non si adatta bene a win.... se non ti piace ATT che sostituisce il vecchio pannello di controllo con tantissime funz.

chiuso ot

ekerazha
12-07-2006, 21:24
@ekerazha
mi sa che non conosci bene Att dato che dici che ha funzioni limitate, è proprio al contrario, ha delle funz richiamabili da tray ma dispone di opzioni altamenti avanzati, direi che è come il rivatuner per le Nvidia.

Parlavo proprio delle funzioni richiamabili da tray infatti. RivaTuner non fa molto di più di quello che fa già il pannello nVidia, che come già detto è oltretutto molto più curato e integrato in Windows rispetto al corrispettivo ATI ;)

bist
12-07-2006, 23:26
Se guardi nel thread che ti ho linkato viene anche spiegato quali sono nel caso specifico i problemi del driver ATI:

ATI driver disable GLX when XComposite extension enabled (XComposite is
need by lg3d-session to capture X11 windows). therefore LG in session
mode will not work with ATI driver.

;)

P.S.
Quindi è indubbio che vi possano essere casi in cui le schede ATI funzionano più o meno correttamente (vedi primo Half Life), ma come vedi in casi specifici danno enormi problemi.
Ok, se è quello il problema, non è legato alle prestazioni: semplicemente non si avvia nulla, non è che va "a scatti".
Da sempre i driver ATi non supportano l'estensione Composite insieme all'accelerazione 3D, anche se le due cose separatamente sì. Ed è ovviamente una bella cagat*.

Sarebbe comunque ora che Xorg integrasse l'estensione di default per tagliare la testa al toro...

sinadex
12-07-2006, 23:51
@ Doraneko: la foto è di bassa qualità sia tecnica che fotografica. imho i chip ci sono e sono molto sottili. le piste non si vedono per via dei riflessi, dell'angolazione di ripresa, del colore stesso del pcb ma anche perchè il questo è a più strati, per cui sono nascosti come il ripieno al cioccolato dei wafer.
in quanto alla ventola, secondo me bisogna pensare al fatto che la scheda supporta le dx10, non che avrà prestazioni da primato. per questo motivo non dovrebbe aver bisogno di alimentazione potente e di conseguenza di sistemi di raffreddamento grossi

ekerazha
13-07-2006, 08:09
Ok, se è quello il problema, non è legato alle prestazioni: semplicemente non si avvia nulla, non è che va "a scatti".
Da sempre i driver ATi non supportano l'estensione Composite insieme all'accelerazione 3D, anche se le due cose separatamente sì. Ed è ovviamente una bella cagat*.

Sarebbe comunque ora che Xorg integrasse l'estensione di default per tagliare la testa al toro...
Questo è "uno" dei problemi... altri problemi riguardano appunto le prestazioni (in modalità finestra si avvia), se leggi il thread che ti ho linkato lo capisci (nel primo post un utente si lamenta dell'estrema lentezza usando una scheda ATI).

dema86
13-07-2006, 08:39
Tanto per fugare i dubbi Ati Tray Tools non fa nulla di meno del CC!!
Anzi secondo me fa di più!
Per quanto riguarda la S3, basta che riescano a fare dei drivers decenti, e possibilmente che mettano un team di sviluppo costantemente al lavoro su di essi! Il vantaggio di Ati e Nvidia é che hanno driver unificati, e quando preparano una release, servono tutta la clientela. S3 avendo un solo modello non ha risparmi.

bist
13-07-2006, 09:06
Questo è "uno" dei problemi... altri problemi riguardano appunto le prestazioni (in modalità finestra si avvia), se leggi il thread che ti ho linkato lo capisci (nel primo post un utente si lamenta dell'estrema lentezza usando una scheda ATI).
Scusa se mi intestardisco, ho dato un'occhio al thread e si lamentano che è lento sempre perché non riescono a usare l'accelerazione 3D del DRI con xcomposite! :)

maximumwarp
13-07-2006, 09:30
Ma non è che con le schede DirectX 9.0c non si possa giocare con i giochi che sfrutteranno DX10, solo che le feature presenti nella versione 10 delle API non potranno essere usate con le schede DX9. Nessuna delle schede oggi sul mercato è full DX10, nè singole nè in SLI/Crossfire, con 2 7950 in SLI potrai giocare coi i giochi DX10 ma non sfruttando le nuove caratteristiche grafiche che il gioco userà e che necessiteranno di una scheda full DX10.

shark555
13-07-2006, 09:37
ma il dx10 che vantaggi da? piu frame? migliore qualità dell'immagine?

dema86
13-07-2006, 10:26
ma il dx10 che vantaggi da? piu frame? migliore qualità dell'immagine?
Fatti una ricerca anche sullo stesso HWUP, si parla di una grande diminuzione del tempo di overhead ( necessario al trattamento di un oggetto) e di conseguenza di una veloce e più efficace gestione di oggetti multipli visualizzati a schermo. Ovvio che poi ci saranno nuove istruzioni Shader Model e quindi nuovi effetti.
In generale mi sembra che sia un leggero upgrade degli effetti e una massiccia reingegnerizzazione del codice per aumentare decisivamente la velocità.

dema86
13-07-2006, 10:27
P.S: INFO SU DX10 by HWUP (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_index.html)

bist
13-07-2006, 10:42
Ma non è che con le schede DirectX 9.0c non si possa giocare con i giochi che sfrutteranno DX10, solo che le feature presenti nella versione 10 delle API non potranno essere usate con le schede DX9. Nessuna delle schede oggi sul mercato è full DX10, nè singole nè in SLI/Crossfire, con 2 7950 in SLI potrai giocare coi i giochi DX10 ma non sfruttando le nuove caratteristiche grafiche che il gioco userà e che necessiteranno di una scheda full DX10.
Correggetemi se sbaglio.

Con una scheda DX9 posso giocare a giochi con DX10 anche se con scarse prestazioni perché non si ha in hardware il necessario per sfruttarne le caratteristiche e allora si fa via software (un po' come usare HDR su una scheda che non lo supporta).

Se cerco di far girare un gioco DX10 su una scheda DX9, il fatto che si rifiuti di partire è a discrezione del gioco giusto?

ekerazha
13-07-2006, 10:45
Scusa se mi intestardisco, ho dato un'occhio al thread e si lamentano che è lento sempre perché non riescono a usare l'accelerazione 3D del DRI con xcomposite! :)
Allora sono molteplici problemi... in modalità session (full screen) non riesce proprio a partire utilizzando i driver ATI (restituisce degli errori), mentre in modalità a finestra parte ma va lentissimo... adesso non saprei dirti se tutti questi problemi fanno capo o meno ad un unico motivo (dovrei approfondire la cosa e non mi interessa più di tanto farlo perchè grazie a dio ho tutte schede nVidia) ma i problemi riscontrati sono appunto molteplici a seconda dei casi.

:)

DjLode
13-07-2006, 10:52
Con una scheda DX9 posso giocare a giochi con DX10 anche se con scarse prestazioni perché non si ha in hardware il necessario per sfruttarne le caratteristiche e allora si fa via software (un po' come usare HDR su una scheda che non lo supporta).


Via software non emuli niente. Così come non esiste HDR emulato via software.


Se cerco di far girare un gioco DX10 su una scheda DX9, il fatto che si rifiuti di partire è a discrezione del gioco giusto?

Se ha solo un path dx 10 il gioco senza scheda dx 10 non parte, altrimenti va previsto un path che utilizzi dx di una versione precedente.

bist
13-07-2006, 11:24
Via software non emuli niente. Così come non esiste HDR emulato via software.
Come fanno ad abilitare l'HDR nei videogiochi anche per le schede che non lo supportano?

DjLode
13-07-2006, 11:28
Come fanno ad abilitare l'HDR nei videogiochi anche per le schede che non lo supportano?

Una scheda non supporta l'hdr o meno, tanto per fare chiarezza. Supporta qualcosa che permette di usare una certa tipologia di hdr. Non esiste una sola maniera di fare hdr. Quindi su una scheda che non permette di renderizzare superfici in FP (R420 ad esempio) si può usare una tecnica diversa che utilzza i ps 2.0 (vedi half life 2). Non esiste, ripeto, hdr finto o emulato.

shark555
13-07-2006, 12:58
grazie x la dritta.. mi informo un po'!

fgioia
13-07-2006, 13:34
ci puoi giocare ma non visualizzi tutti gli effetti grafici delle DX10 o lo fara' via Sw con conseguente perdita di fps...

DjLode
13-07-2006, 14:48
ci puoi giocare ma non visualizzi tutti gli effetti grafici delle DX10 o lo fara' via Sw con conseguente perdita di fps...

Quindi io ho appena parlato al vento :muro:
Non riesci ad emulare un tubo...

leoneazzurro
13-07-2006, 15:52
Vorrei ricordare che i drivers ATI sono "leggermente "OT in questa discussione.

Grazie.