Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Dopo oltre 4 anni si rinnova la serie Sony Alpha 7 con la quinta generazione, che porta in dote veramente tante novità a partire dai 30fps e dal nuovo sensore partially stacked da 33Mpixel. L'abbiamo provata per un breve periodo, ecco come è andata dopo averla messa alle strette.
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1
realme e Aston Martin Aramco F1 Team si sono (ri)unite dando alla vita un flagship con chip Snapdragon 8 Elite Gen 5 e design esclusivo ispirato alle monoposto di Formula 1. La Dream Edition introduce la nuova colorazione Lime Essence abbinata al tradizionale Aston Martin Racing Green, decorazioni intercambiabili personalizzate e una confezione a tema F1, intorno a uno smartphone dall'ottima dotazione tecnica con batteria da 7000mAh ricaricabile a 120W e isola fotografica intercambiabile
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
Abbiamo partecipato all'OVHcloud Summit 2025, conferenza annuale in cui l'azienda francese presenta le sue ultime novità. Abbiamo parlato di cloud pubblico e privato, d'intelligenza artificiale, di computer quantistici e di sovranità. Che forse, però, dovremmo chiamare solo "sicurezza"
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 23-10-2004, 00:17   #21
superCippo
Senior Member
 
L'Avatar di superCippo
 
Iscritto dal: Sep 2003
Messaggi: 809
Quote:
Originariamente inviato da BTinside
Ah alla fine vedo ke mi avete ben compreso, e avete capito che anche io evidenziavo l'efficienza di 2 architetture diverse
Bello l'esempio AMD-Intel, è azzeccato. Secondo quel ke volevo dire io allora si vede che l'architettura AMD è più efficiente, perchè nei puri calcoli velocistici i mhz netti e puri dei Pentium 4 si fanno notare, ma nei giochi gli Amd risultano più efficienti.




Mi hai fatto pentire di aver preso la 6800ultra

Cioè sei sicuro di quel ke dici?! Guarda che la demo Nalu utilizza una caratteristica degli shader 3.0
Dove l'hai appresa questa cosa? è appurata?

Come si può truffare in questo modo, scrivendo full Directx9c
compatible??? quando invece non lo è?

Ma tu guarda un po', cioè se nn era per gli shder 3.0 mi prendevo la X800XT! solo solo che sacrifica un solo molex e bastano 350w di ali

Per quanto riguarda l'errore di Ati con la X800pro io l'ho sempre sostenuto, ha sabgliato mettendo le 12 pipeline, a quest'ora avrebbe venduto molte più schede.
Che la X800XT PE è superiore (ma non in tutto) alla 6800ultra si sapeva

Cosa intendi per X800XT pompata????E' vero che l'incremento di prestazioni delle 6800 in SLI è di circa il 40% ma Non penso che la x800 possa essere spinta tanto da superare due 6800ultra SLI

non è cmq DC3 è 3Dc
pentire di aver preso una skeda come la 6800u ma stai skerzando???
l'unica cosa ke mi fa sorridere di questa cosa è ke.... (ritorno al tuo discorso d nvidia con i gioki ogl) se continuiamo cosi tra qualke hanno ci ritroveremo una skeda per il d3d e una per le ogl... siamo veramente al colmo
cmq l unica cosa di cui t puoi pentire è solo la "vagonata" di soldi spesi... ma a me piace vederlo come un investimento a lungo termine
__________________
Intel Core 2 Duo 6300@2800Mhz (400*7) / Zalman 9500 / Asus P5b Deluxe / 2x1gb Kingston DDR2 333@400 / xfx 8800gts 640mb / X-Fi Xtreme Audio
superCippo è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 01:06   #22
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
ne ho spesi 448€ eh eh
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 01:16   #23
superCippo
Senior Member
 
L'Avatar di superCippo
 
Iscritto dal: Sep 2003
Messaggi: 809
io d piu, ma nn ci voglio pensare xke mi viene male.. per un cavolo d rettangolo rosso con una ventola e un dissi in rame...
xo viaggia
__________________
Intel Core 2 Duo 6300@2800Mhz (400*7) / Zalman 9500 / Asus P5b Deluxe / 2x1gb Kingston DDR2 333@400 / xfx 8800gts 640mb / X-Fi Xtreme Audio
superCippo è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 01:23   #24
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Dai che però in doom3 te le dò
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 02:36   #25
Maiorana
Bannato
 
Iscritto dal: Oct 2004
Messaggi: 53
Quote:
Originariamente inviato da BTinside
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?

Cioè il 6800Ultra più o meno riesce a tenere il passo di X800XT PE con 120Mhz di core in meno, 100Mhz di ram in meno, 100 milioni di poligoni al sec in meno è una banda passante leggermente inferiore (35,2 contro 35,8),
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800. Questo ovviamente in teoria, ma sembra abbastanza ovvio però no? E' come overclocckare tantissimo un 6800ultra e certo che la superi una X800. Correggetemi se sbaglio
Come potrà Nvidia eguagliare le frequenze di Ati visto il processo produttivo e il numero di transistor in più?A mio avviso il paragone non ha fondamenta
Maiorana è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 02:48   #26
Maiorana
Bannato
 
Iscritto dal: Oct 2004
Messaggi: 53
Quote:
Originariamente inviato da BTinside
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?
L'architettura dell Nvidia è sicuramente più complessa dell'Ati,ma non sono d'accordo sul fatto che la nv 40 sia più efficiente dell' R 420!
Si da il caso che attivando i filtri di Ati(X 800 xt P.E.),quest'ultima surclassa l'Nvidia (6800 ultra).
Gli shader 3.0?
Ma a che servono ora?
Un investimento fututro?
Non credo vista l 'uscita di tale versione shader in epoca tarda,praticamente quando saranno disponibile schede video sicuramente più performanti dell'attuale Ultra!!
Ati - minestra?
Ma fatemi la cortesia.... grazie....

[/quote]
Maiorana è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 10:55   #27
Athlon 64 3000+
Bannato
 
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
Quote:
Originariamente inviato da Maiorana
L'architettura dell Nvidia è sicuramente più complessa dell'Ati,ma non sono d'accordo sul fatto che la nv 40 sia più efficiente dell' R 420!
Si da il caso che attivando i filtri di Ati(X 800 xt P.E.),quest'ultima surclassa l'Nvidia (6800 ultra).
Gli shader 3.0?
Ma a che servono ora?
Un investimento fututro?
Non credo vista l 'uscita di tale versione shader in epoca tarda,praticamente quando saranno disponibile schede video sicuramente più performanti dell'attuale Ultra!!
Ati - minestra?
Ma fatemi la cortesia.... grazie....
[/quote]

Ti quoto IO!
Athlon 64 3000+ è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 11:05   #28
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Come potrà Nvidia eguagliare le frequenze di Ati visto il processo produttivo e il numero di transistor in più?A mio avviso il paragone non ha fondamenta


Mamma mia, mi convine scappare dal forum



Ma è ovvio che con il normale processo produttivo 0.13 micron nvidia non può eguagliare le frequenze di X800 che usa un low-k 0.13 micron ed ha meno transistor.

io parlavo dell'arhitettura dal punto di vista della gestione di shader poligoni etc. tralasciando l'alimentazione e il numero di tansistor capite?



Ma poi vi dico che non è che mi sono svegliato una bella mattina e l'ho deciso io, l'ha detto un recensore di Tom's Hardware o della stessa Hardware Upgrade in un bench di schede le cui protagoniste erano appunto 6800ultra e X800XT.
Quindi in primis prendetevela con lui o lei che sia.

Fai finta che anche 6800 sia low-k e aumenti le frequenze, come il discorso AMD-Intel.

Ma poi vi dico che io stesso mi sn un po' petito di averla comprata.

Se avessi preso la X800XT avrei avuto:

-più potenza in D3d (campo chemi interessa di più)

-meno calore

-un molex libero

-meno rumore (perchè ho preso una gainward)

-avrei attivato i filtri con più serenità

E' vero che oggi gli shader 3.0 non vengono supportati (a parte Far Cry ) ma neanche il 3Dc mi pare che sia così utilizzato no??

Io sono sempre stato un sostenitore Ati da tempo, perchè nvidia è stata truffaldina e ci ha impaccato la serie FX con gli shader con sola funzione simbolica, ma adesso mi pare che anche Ati se la stia prendendo comoda, con tutte le questioni sul filtro trilineare ottimizzato e tante altre cosette e accuse che gli sono state mosse.
Per cui una volta tanto che Nvidia fa un progetto buono e si sta dimostrando più onesta di Ati in certi frangenti vorrei evitare di buttarla a terra come tutti abbiam fatto fino a quest'inverno per la serie FX.

Ultima modifica di BTinside : 23-10-2004 alle 11:13.
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 11:08   #29
romansnake
Senior Member
 
L'Avatar di romansnake
 
Iscritto dal: Nov 2002
Città: Roma
Messaggi: 5248
Quote:
Originariamente inviato da BTinside
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800.
Se anche AMD proponesse un modello di A64 di pari frequenza di un P4 3.8...
romansnake è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 11:33   #30
Maiorana
Bannato
 
Iscritto dal: Oct 2004
Messaggi: 53
Quote:
Originariamente inviato da BTinside
Mamma mia, mi convine scappare dal forum



Ma è ovvio che con il normale processo produttivo 0.13 micron nvidia non può eguagliare le frequenze di X800 che usa un low-k 0.13 micron ed ha meno transistor.

io parlavo dell'arhitettura dal punto di vista della gestione di shader poligoni etc. tralasciando l'alimentazione e il numero di tansistor capite?



Ma poi vi dico che non è che mi sono svegliato una bella mattina e l'ho deciso io, l'ha detto un recensore di Tom's Hardware o della stessa Hardware Upgrade in un bench di schede le cui protagoniste erano appunto 6800ultra e X800XT.
Quindi in primis prendetevela con lui o lei che sia.

Fai finta che anche 6800 sia low-k e aumenti le frequenze, come il discorso AMD-Intel.

Ma poi vi dico che io stesso mi sn un po' petito di averla comprata.

Se avessi preso la X800XT avrei avuto:

-più potenza in D3d (campo chemi interessa di più)

-meno calore

-un molex libero

-meno rumore (perchè ho preso una gainward)

-avrei attivato i filtri con più serenità

E' vero che oggi gli shader 3.0 non vengono supportati (a parte Far Cry ) ma neanche il 3Dc mi pare che sia così utilizzato no??

Io sono sempre stato un sostenitore Ati da tempo, perchè nvidia è stata truffaldina e ci ha impaccato la serie FX con gli shader con sola funzione simbolica, ma adesso mi pare che anche Ati se la stia prendendo comoda, con tutte le questioni sul filtro trilineare ottimizzato e tante altre cosette e accuse che gli sono state mosse.
Per cui una volta tanto che Nvidia fa un progetto buono e si sta dimostrando più onesta di Ati in certi frangenti vorrei evitare di buttarla a terra come tutti abbiam fatto fino a quest'inverno per la serie FX.
A mio avviso,sia la x 800 xt P.E. che la 6800 ultra sono due schede video eccellenti nel senso che il punto di forza di una rappresenta il punto debole dell'altra e viceversa,quindi si eguagliano.
Gli shader 3.0 saranno operativi fra qualche anno,non sono presenti in Farcry.La maggior parte delle recensioni relative alle schede video di alta fascia sostengono che tali schede hanno risorse future,quando poi nella fattispecie concreta dopo un anno dall'acquisto della Top delle Top,serve praticamente poco
coi i giochi di ultima generazione.
Ascolta,il tuo acquisto della 6800 ultra è stato degno di ogni cosa,quindi non pentirtene!
Maiorana è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 12:45   #31
superCippo
Senior Member
 
L'Avatar di superCippo
 
Iscritto dal: Sep 2003
Messaggi: 809
Quote:
Originariamente inviato da BTinside
Dai che però in doom3 te le dò
io xo posso giocare a tocaricedriver2 a 1600x1200 con aniso16x a 60fps a te è gia tanto se t arriva a 30
__________________
Intel Core 2 Duo 6300@2800Mhz (400*7) / Zalman 9500 / Asus P5b Deluxe / 2x1gb Kingston DDR2 333@400 / xfx 8800gts 640mb / X-Fi Xtreme Audio
superCippo è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 14:15   #32
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Gli shader 3.0 saranno operativi fra qualche anno,non sono presenti in Farcry
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b






Quote:
io xo posso giocare a tocaricedriver2 a 1600x1200 con aniso16x a 60fps a te è gia tanto se t arriva a 30
In effetti, non hai tutti i torti, ma tu pensi ke io non legga i bench eh???! lo so che sei andato a prendere l'unico bench dove attualmente la X800XT ha un netto vantaggio, cioè il bench dove ha + vantaggio in assoluto , bastardone che sei!!

Mi sa che anche in Half-Life 2 godrai di questi vantaggi

Proviamo invece con Call Of Duty , anche una "misera" 6800GT ti surclassa,
quindi si vede che un po' di efficienza c'è in NV40,
perchè ai tempi delle GeForceFX in Call Of Duty erano ancora le 9800pro e XT ad averela piena supremazia, adesso le cose cambiano


Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 15:45   #33
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17240
Quote:
Originariamente inviato da BTinside
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b
A dire il vero Crytek è stata presa con le mani nella marmellata, e ha praticamente usato Shader lunghi invece che Shader 3.0. In pratica attivando sulle Ati l'estensione allo shader model 2.0b si ottengono gli stessi risultati qualitativi e di prestazioni che si ottengono attivando sulle Nvidia lo SM3.
In pratica non hanno inserito un bel nulla

Quote:
Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.
Interessa interessa
E' da un pò che Ati si sta sforzando sotto quel punto di vista, si vocifera di una riscrittura della parte OGL, solo che è una cosa che non richiede 2 giorni.
Anche se dubito che possa recuperare tutto il divario in poco tempo, Nvidia è da tanto che affina i driver sotto il reparto OGl e anche in mesi Ati non credo possa arrivare a risultati confrontabili.
__________________
Twinkle, twinkle, little star how I wonder what you are.

Ultima modifica di DjLode : 23-10-2004 alle 15:48.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 15:54   #34
DarKilleR
Senior Member
 
L'Avatar di DarKilleR
 
Iscritto dal: May 2003
Città: Paesello fuori Pontedera
Messaggi: 6866
Quote:
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0

é una ladrata bella e buona...Far Cry è il primo gioco che supporta i 64bit....

Il fatto del supporto ai pixel shader 3.0...è stata una grossa cavolata, in quanto con questa patch venivano abilitati i PS 2.0b solo per le Nvidia...e non per ATI (par conditio no????) con un certo incremento di prestazioni...

Il problema è venuto quando qualche programmatore è riuscito ad abilitare la stessa patch anche per ATI, e le X800 acquistavano lo stesso vantaggio che aveva preso Nvidia....

Cmq non ti devi pentire di avere una 6800 Ultra...cazzo la vorrei io...fai a cambio????
ho una X800 Pro e cmq faccio 12743 punti al 3dmark 2003 (in OC), la cosa bella è che occupa un solo slot e ha solo un molez.

---> Per il fatto di cosa sono gli SM 3.0 l'avevo letto su un link di un sito inglese....c'era una discussione propio su questo forum o quello di TGM non ricordo...

in oltre dicevano che x molti programmatori fare programmi che sfruttassero i PS 3.0 era un po' + complicato (il motivo non lo so), e richiedeva più tempo...ma non ne capisco il motivi.

P.S. qualcuno fa il 3dmark 2005 con una 6800 U con i PS 3.0 e i PS 2.0b??? e vediamo i risultati????


Quote:
Cosa intendi per X800XT pompata????E' vero che l'incremento di prestazioni delle 6800 in SLI è di circa il 40% ma Non penso che la x800 possa essere spinta tanto da superare due 6800ultra SLI
Il record del 3dmark 2005 è di una X800 XT overcloccata e fa quasi 8000 punti (7986 se non erro) .... , 2 6800 U in SLI fanno 8150 punti, la differenza non è che sia esagerata...
__________________

"Fatti non foste per viver in default, ma per seguir virtude ed overclock"
i7 2600K@4500 MHz | AsRock Extreme 4 P67 | 8GB DDR3 2133 Mhz CL9 Corsair Vengeance Pro | VTX HD7870 black edition 1240/1640 | Cooler Master Cosmos 1000 liquid cooled | Dual monitor Samsung 226BW + DELL 1908FP
DarKilleR è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:03   #35
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17240
Quote:
Originariamente inviato da DarKilleR
P.S. qualcuno fa il 3dmark 2005 con una 6800 U con i PS 3.0 e i PS 2.0b??? e vediamo i risultati????
Sono identici. E' presumibile che la Ultra quando è richiesto lo shader model 2.0b "scali" al 3.0 anche perchè il primo non dovrebbe essere supportato (anche se si tratta di un subset del 3 o di qualcosa di inferiore).
Adesso come adesso le differenze sono minime, basti pensare che a quanto ne so lo shader più complesso (o dovrei meglio dire lungo) in giro (intendo in giochi o bench) è quello della parete riocciosa del 3d mark 05 che è esattamente 96 istruzioni, il massimo eseguibile con lo SM2 puro. Direi che c'è ancora margine
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:07   #36
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Quote:
Anche se dubito che possa recuperare tutto il divario in poco tempo, Nvidia è da tanto che affina i driver sotto il reparto OGl e anche in mesi Ati non credo possa arrivare a risultati confrontabili.
Beh comq i risultati oggi di Ati in Ogl non sono poi così deludenti, di passi avanti ne ha fatti.
Se poi andiamo a guardare sul frangente FireGl e Quadro praticamente queste due soluzioni, nelle loro versioni più spinte, si equivalgono, se poi ci aggiungete che le firegl costano la metà della metà di una quadro top della gamma allora veramente siamo avanti. (questa cosa che ho detto ora suscita un flame per gli appassionati di quadro).



8000punti sono niente male rispetto agli 8150 delle SLI, ma dì un po' con che processore sono stati fatti questi bench???? Io penso che se per adesso siamo più o meno in CPU limited con una sola scheda, figurati con due 6800ultra SLI,
quindi credo che col passare del tempo il vantaggio di ben 2 6800ultra si farà quantomeno più marcato!
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:17   #37
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Cioè praticamente sti Shader 3.0 nons ervono a un caz**
Tempo fa mi litigavo con un mio amico fanatico Nvidia che difendeva la sua posizione per gli shader 3.0, e io gli ho sempre spiegato che quando gli shader 3.0 saranno uno standard la 6800ultra reggerà al massimo 30fps in un gioco , e neanche.
Ma lui non ci credeva, secondo me andrà a finire cosi!

E lui mi ha sempre ribadito che l'Unreal Engine 3 con SM 3 al momento della presentazione girava su 6800Ultra,
allora gli ho spiegato che anche alla presentazione di doom3 questo girava su 5800ultra fluidissimo!!!
Ma quando poi andrai ad applicare il motore fisico e l'intelligenza artificiale a un motore come l'Unreal Engine 3.0 mi sà che le richieste hardware salgano di un bel pò,
ditemi se ho torto.

E poi anche se ho sempre ribadito, e lo ribadisco, che NV40 sia EX novo è più complesso e difficile da programmare di R420, ma alla fine alla ati fanno le cose più azzeccate.
Ciò che non mi piace di un X800 è la precisione ancora a 24bit, è assurdo, fino a R350 lo accettavo, considerano che i GeforceFX erano 32bit ma renderizzavano a 16(vedi i quadrettoni di far cry quando ti appiccihi a un muro ma). Per questo ritengo il chip NV40 dotato di caratteristiche più nuove, diciamo la verità alla Nvidia si sono sforzati molto di più che alla Ati,
L'R420 si potrebbe definire anche un R350 ultra pompato ma con shader più lunghi, 3Dc e temporal AA, fine!
BTinside è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:20   #38
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17240
Quote:
Originariamente inviato da BTinside
Beh comq i risultati oggi di Ati in Ogl non sono poi così deludenti, di passi avanti ne ha fatti.
Il fatto è che su questo forum se una scheda fa 0.2 fps in meno di un'altra, la prima fa schifo, la seconda è la migliore. Quindi distanze di 10 fps amplificano la cosa da prestazioni scadenti a prestazioni ridicole e via dicendo.
Francamente a me basta che un gioco sia giocabile come lo gioco io al massimo (o quasi) delle opzioni grafiche. Se poi una scheda (che io non ho e quindi non mi frega) fa 5 fps in più... pazienza, meglio per chi la possiede.
Detto questo, le prestazioni in OGL delle Ati non sono deludenti, ma inferiori a quelle Nvidia (anche se i primi test con Doom 3 davano la 9800 Pro più veloce dell'avversaria Nvidia anche di poco). Prestazioni deludenti per me sono quelle che non ti permettono di giocare ad un qualcosa.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:30   #39
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17240
Quote:
Originariamente inviato da BTinside
Cioè praticamente sti Shader 3.0 nons ervono a un caz**
Tempo fa mi litigavo con un mio amico fanatico Nvidia che difendeva la sua posizione per gli shader 3.0, e io gli ho sempre spiegato che quando gli shader 3.0 saranno uno standard la 6800ultra reggerà al massimo 30fps in un gioco , e neanche.
Ma lui non ci credeva, secondo me andrà a finire cosi!
Aspetta, non esagerare. Al giorno d'oggi sono poco utili perchè nessun gioco o motore grafico dell'imminente futuro li utilizza come base nativa e quindi anche lo SM2.0b è sufficiente.
Però sono molto utili per i programmatori, prima di arrivare allo SM4 (con le prossime DX che si chiameranno in un altro modo che non ricordo lo si vedrà) lo SM3 diventerà lo standard e quindi chi vorrà far uscire un gioco che lo supporti dovrà programmarlo su una 6800 o sulla futura R520 (che si vociferà avrà lo SM3).

Quote:
E lui mi ha sempre ribadito che l'Unreal Engine 3 con SM 3 al momento della presentazione girava su 6800Ultra,
allora gli ho spiegato che anche alla presentazione di doom3 questo girava su 5800ultra fluidissimo!!!
Ma quando poi andrai ad applicare il motore fisico e l'intelligenza artificiale a un motore come l'Unreal Engine 3.0 mi sà che le richieste hardware salgano di un bel pò,
ditemi se ho torto.
Girava su una Ultra a 20fps se non ricordo male, ma era appunto una presentazione. Come hai detto tu mettici fisica e tutto il resto e sicuramente il gioco avrà dei problemi a girare su sistemi attuali. Cmq a detta dei programmatori del motore di U3 anche le R420 si comportano bene, generando ben pochi artefatti grafici dovuti alla precisione di calcolo inferiore (32bit per le Nvidia e 24bit per le Ati).

Quote:
E poi anche se ho sempre ribadito, e lo ribadisco, che NV40 sia EX novo è più complesso e difficile da programmare di R420, ma alla fine alla ati fanno le cose più azzeccate.
Su certi giudizi non mi soffermo. Sicuramente R420 per i programmatori è un'architettura più "amichevole" non è che è più facile da programmare. Come R3x0 digerisce molto bene il codice scritto in HLSL delle DX. Cosa che ora fa molto bene anche NV40 senza dove ottimizzare di molto il codice come si doveva fare con NV3x.

Quote:
Ciò che non mi piace di un X800 è la precisione ancora a 24bit, è assurdo, fino a R350 lo accettavo,
Ora come ora è inutile come lo SM3. Non esistono sul mercato shader tali da dover eccedere i 16 bit, figurati i 24bit (che sono sufficienti). Con R520 e lo SM3 vedremo i 32bit anche su Ati.

Quote:
considerano che i GeforceFX erano 32bit ma renderizzavano a 16(vedi i quadrettoni di far cry quando ti appiccihi a un muro ma).
Era un problema dello shader non delle schede Nvidia. Anche a 16bit non si generano artefatti perchè sono sufficienti per farci stare i dati dei calcoli. Non confondere la profondità di colore con la precisione dei calcoli. Le FX scalavano (anzi erano i programmatori che lo facevano) a 16bit perchè i 32bit erano troppo pesanti per essere gestiti da tali GPU. NV40 soffre molto meno di questo problema

Quote:
Per questo ritengo il chip NV40 dotato di caratteristiche più nuove, diciamo la verità alla Nvidia si sono sforzati molto di più che alla Ati,
L'R420 si potrebbe definire anche un R350 ultra pompato ma con shader più lunghi, 3Dc e temporal AA, fine!
Nvidia aveva un'architettura non all'altezza da cui partire, l'ha dovuto "reinventare" (allineandosi con le scelte progettuali dell'avversaria a dire il vero). Ati da parte sua ha un'architettura "perfetta" (passami il termine) e anche R520 sarà un progetto derivato da questa architettura (architettura e gpu sono due cose diverse, occhio). Quindi anche R520 sarà un R300 con 32bit, SM3 e tante altre cose. Quindi non sarà un R300
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2004, 16:36   #40
BTinside
Senior Member
 
L'Avatar di BTinside
 
Iscritto dal: Oct 2004
Città: Palermo
Messaggi: 16598
Si ma tu devi ben capire che 10fps sono ASSAI!
finchè le schede sono nuove e ti segnao 100fps una e 90l'altra la cosa è irrilevante!
ma quando poi queste due schede saranno al limite e una ti fa 20fps mentre l'altra te ne fa 30, e quì c'è une bella differenza,
perchè 20fps è ingiocabile , 30 è giocabile!!

In realta anche da 25 a 30fps le cose migliorano quindi non sottovalutare quelle manciatie di frame in meno perchè un giorno saranno importanti.

Per quanto riguarda le 9800pro uguali alle 5900 in Doom3, ti ricordo che la serie FX era quel ke era, doom3 usa anche gli shader quindi......

Anche una 9800XT supera una 5950 in Doom3, adesso che però NV40 è un buon progetto, il divario c'è e come
BTinside è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator Sony Alpha 7 V, anteprima e novità della ...
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1 realme GT 8 Pro Dream Edition: prestazioni da fl...
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum OVHcloud Summit 2025: le novità del cloud...
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI C...
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro DJI Neo 2 in prova: il drone da 160 grammi guada...
Anche a Bergamo controlli sulle e-bike: ...
Mario Kart World, con l'ultimo aggiornam...
Oracle apre una seconda Region per il cl...
Euro NCAP 2026, cambiano completamente i...
In Russia centinaia di Porsche diventano...
Gli operatori mobile italiani offrono se...
realme GT 8 Pro in promo lancio con 100€...
Autostrade, dal 2026 arrivano i rimborsi...
Carenza di memoria flash NAND e prezzi a...
EA Sports FC 26 fa felici i fan: tornano...
Anthropic studia i suoi ingegneri: l'IA ...
Kioxia Exceria Plus G4: l'SSD PCIe 5.0 p...
HBO Max debutta in Italia: data, contenu...
Qual è lo smartphone Android pi&u...
Il camion elettrico Semi è davver...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:34.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v