View Full Version : Memorie GDDR5 per le schede ATI Radeon
Redazione di Hardware Upg
22-05-2008, 11:08
Link alla notizia: http://www.hwupgrade.it/news/memorie/memorie-gddr5-per-le-schede-ati-radeon_25390.html
AMD ha anticipato che utilizzerà tecnologia di memoria GDDR5 per la propria prossima generazione di schede video top di gamma
Click sul link per visualizzare la notizia.
spannocchiatore
22-05-2008, 11:17
alzare il bus cosa comporta??
le rops dovrebbero essere 16 non 12.
gianni1879
22-05-2008, 11:25
le rops dovrebbero essere 16 non 12.
infatti sarà un errore
HackaB321
22-05-2008, 11:26
alzare il bus cosa comporta??
1) difficoltà tecniche enormi su chip così piccoli
2) occupazione di spazio sul die che può essere utilizzata per altro
3) maggiore consumo/calore rispetto all' uso di DDR5
alzare il bus (512bit ad esempio) comporta un raddoppio netto della banda passante...ma con ram che lavorano alla soglia di 4Ghz non penso darebbe gran benefici...la stessa nvidia utilizzerà il bus a 512bit però con GDDR3 da 2,3Ghz o giù di lì...alla fine son due modi diversi di interpretare la stessa cosa...la banda è pressochè analoga...
giusto....io ho parlato di valori...e a livello tecnico tutte le complicazioni dette da HackaB321! secondo me come approccio è più sensato quello di Ati da questo punto di vista..
1) difficoltà tecniche enormi su chip così piccoli
2) occupazione di spazio sul die che può essere utilizzata per altro
3) maggiore consumo/calore rispetto all' uso di DDR5
Aggiungo solo che le GDDR5 potrebbero però avere latenze superiori alle GDDR3.
le stanno provando tutte...
Gaming_Minded
22-05-2008, 11:36
Domanda per ATI :
Ma perchè fabbricare schede grafiche che dipendono strettamente dall applicazione con cui vengono usate ?
Non possono concentrarsi di piu' sul perfezionare le performance a scopi piu'consoni ? Piu' conosono intendo per i giochi.
ATI alza frequenze a go go le sue GPU lavorano a numeri altissimi, ma in un gioco vanno bene in altre 3 no sono scadenti, mi chiedo perchè ?
Secondo me qui nvidia la spunta ancora 512bit + 1Gb DDR3 su un solo PCB e su una GPU, sono la politica giusta. Non quello che fa ATI.
La X2 è durata neanche 3 mesi dopo che usci' la 9800GX2.
non ho capito il senso del commento.
meglio no?
Bhairava
22-05-2008, 11:47
Domanda per ATI :
Ma perchè fabbricare schede grafiche che dipendono strettamente dall applicazione con cui vengono usate ?
Non possono concentrarsi di piu' sul perfezionare le performance a scopi piu'consoni ? Piu' conosono intendo per i giochi.
ATI alza frequenze a go go le sue GPU lavorano a numeri altissimi, ma in un gioco vanno bene in altre 3 no sono scadenti, mi chiedo perchè ?
Secondo me qui nvidia la spunta ancora 512bit + 1Gb DDR3 su un solo PCB e su una GPU, sono la politica giusta. Non quello che fa ATI.
La X2 è durata neanche 3 mesi dopo che usci' la 9800GX2.
I giochi sono tagliati su misura per Nvidia. Cosa vedi ogni vota che avvii un gioco? The way it's meant to be played.....:rolleyes:
I giochi sono tagliati su misura per Nvidia. Cosa vedi ogni vota che avvii un gioco? The way it's meant to be played.....:rolleyes:
D'altronde chi arriva prima e con un ottimo prodotto non può fare altro che dettare lo standard :)
Bhairava
22-05-2008, 11:55
D'altronde chi arriva prima e con un ottimo prodotto non può fare altro che dettare lo standard :)
Questo è palesemente falso.
Nvidia ha tutte le partnership perchè è più potente sul mercato e ha molti più soldi. Che vuol dire è arrivata prima? :rolleyes:
E che mi dici sulla sporca mossa di Ubisoft di rimuovere le dx10.1 con la prima patch di Assassin's Creed? Anche lì Nvidia è arrivata prima?
:rolleyes: :rolleyes: :rolleyes: :rolleyes:
Kharonte85
22-05-2008, 11:57
non ho capito il senso del commento.
meglio no?
no, è meglio avere latenze piu' basse, ma nel complesso i moduli Gddr5 compensano con altre caratteristiche (fra cui quelle legate al risparmio energetico) restera' da capire quanto incideranno sul prezzo e se ci sara' una effettiva disponibilità adeguata al lancio della scheda oppure bisognerà aspettare un po'...
Erian Algard
22-05-2008, 11:58
Questo è palesemente falso.
Nvidia ha tutte le partnership perchè è più potente sul mercato e ha molti più soldi. Che vuol dire è arrivata prima? :rolleyes:
E che mi dici sulla sporca mossa di Ubisoft di rimuovere le dx10.1 con la prima patch di Assassin's Creed? Anche lì Nvidia è arrivata prima?
:rolleyes: :rolleyes: :rolleyes: :rolleyes:
Nvidia non ci costringe con la forza a comprare le sue schede. Se vende un motivo ci sarà no?:rolleyes:
Bhairava
22-05-2008, 11:58
no, è meglio avere latenze piu' basse, ma nel complesso i moduli Gddr5 compensano con altre caratteristiche (fra cui quelle legate al risparmio energetico) restera' da capire quanto incideranno sul prezzo e se ci sara' una effettiva disponibilità adeguata al lancio della scheda oppure bisognerà aspettare un po'...
Speriamo non succeda quello che successo per la 3870 e la 8800gt. :muro:
pieraptor
22-05-2008, 12:00
e si!
ATI le sta pensando davvero tutte per poter superare in qualche modo NVIDIA.
Ci riuscirà?
Ma come prezzi, cosa costeranno?
Kharonte85
22-05-2008, 12:02
Questo è palesemente falso.
Nvidia ha tutte le partnership perchè è più potente sul mercato e ha molti più soldi. Che vuol dire è arrivata prima? :rolleyes:
E che mi dici sulla sporca mossa di Ubisoft di rimuovere le dx10.1 con la prima patch di Assassin's Creed? Anche lì Nvidia è arrivata prima?
:rolleyes: :rolleyes: :rolleyes: :rolleyes:
ma non è nemmeno una cosa indipendente dalla bonta' dei prodotti e del relativo mercato:
Invariate le quote di mercato di ATI e NVIDIA in questo segmento rispetto al quarto trimestre 2007: troviamo sempre avanti NVIDIA con circa il 65% del totale, seguita per il restante 35% da ATI.
Chiamali scemi gli sviluppatori di giochi...:fagiano:
Bhairava
22-05-2008, 12:05
Nvidia non ci costringe con la forza a comprare le sue schede. Se vende un motivo ci sarà no?:rolleyes:
Certo come Microsoft! Non ci costringe con la forza!
:rotfl: :rotfl: :rotfl:
E' ovvio che Nvidia fa ottime schede video e ha avuto il consenso da parte del pubblico. Ma una volta raggiunta una posizione predominate si tende a mantenerla anche con mosse scorrette.
Le schede video dual gpu, così come attualmente concepite, sono dei pessimi acquisti.
Gli utenti che hanno acquistato la HD3870 X2, o la 9800 GX2, ne avranno una chiara dimostrazione il mese prossimo, così come la ebbero quelli della 7950 GX2 con l'uscita della 8800GTX.
In merito alla convenienza o meno di GDDR5 e 256bit o GDDR3 e 512bit, io faccio questo ragionamento: nel primo caso ho a che fare con un pcb più semplice ed economico (ma cmq più complesso di quello attuale della HD3870), ma finchè le memorie me le fornisce un solo produttore (per ora Qimonda), devo sottostare alle loro richieste economiche ed alle loro forniture, e trattasi di prodotto uscito dalla fase di sampling da soli 6 mesi (parole di Qimonda).
Con un bus a 512bit, ho un costo maggiore per il pcb, ed anche della gpu, ma almeno sul pcb il produttore ha margini di manovra e può riuscire ad abbattere il costo di produzione.
Per esempio, la 2900XT ha un bus a 512bit e pcb a 12 layers
La 8800GTS ha 10 layers con 256bit.
La 9800 GTX ha 12 layers sempre con 256bit e le memorie GDDR3 più costose disponibili.
Ma guardate il prezzo finale della 9800GTX, rispetto alla 8800GTS a dicembre o la 2900XT 1 anno fa'.
Quindi PCB complesso è sì un costo, ma rispetto a quello della gpu e delle memoria, ha un'incidenza evidentemente limitata.
In più le GDDR3 sono ampiamente collaudate, ma soprattutto le forniscono 3 produttori e si può contrattare più facilmente sul prezzo.
Erian Algard
22-05-2008, 12:07
Certo come Microsoft! Non ci costringe con la forza!
:rotfl: :rotfl: :rotfl:
E' ovvio che Nvidia fa ottime schede video e ha avuto il consenso da parte del pubblico. Ma una volta raggiunta una posizione predominate si tende a mantenerla anche con mosse scorrette.
E quindi? E' normale e poi non son mosse scorrette. Una casa di software mi pare anche giusto che ottimizzi il gioco per le schede che sono maggiormente diffuse(Nvidia pagherà pure per questo, e comunque fa parte del gioco).
Poi se ritieni ciò scorretto son problemi tuoi, non è che c'è, mi pare, qualche legge che vieti ciò.
Bhairava
22-05-2008, 12:12
E quindi? E' normale e poi non son mosse scorrette. Una casa di software mi pare anche giusto che ottimizzi il gioco per le schede che sono maggiormente diffuse.
Poi se ritieni ciò scorretto son problemi tuoi, non è che c'è mi pare qualche legge che vieti ciò.
Non ci sono prove che Nvidia faccia mosse scorrette per mantenere il suo parziale monopolio, certo. C'è la sensazioni che Nvidia abbia fatto manbassa e abbia preso tutto quello che c'era da prendere, e questo non è sbagliato.
La cosa assurda e che voi non capite che sostenere ATI fa bene a Nvidia, dal punto di vista del consumatore. Voi che disprezzate e deridete sempre ATI, e osannate Nvidia (come se fosse qualcosa che vi riguarda personalmente :asd:) non capite che se ATI fallisse, Nvidia vi massacrerebbe. Sarebbe finita l'era del gaming, il pc sarebbe morto come piattaforma da gioco. La concorrenza è tutto in questo campo.
PS: la mossa di Ubisoft a palese vantaggio di Nvidia è stata una porcheria. Credi che non ci sia una bella mazzetta dietro?
Erian Algard
22-05-2008, 12:17
Non ci sono prove che Nvidia faccia mosse scorrette per mantenere il suo parziale monopolio, certo. C'è la sensazioni che Nvidia abbia fatto manbassa e abbia preso tutto quello che c'era da prendere, e questo non è sbagliato.
La cosa assurda e che voi non capite che sostenere ATI fa bene a Nvidia, dal punto di vista del consumatore. Voi che disprezzate e deridete sempre ATI, e osannate Nvidia (come se fosse qualcosa che vi riguarda personalmente :asd:) non capite che se ATI fallisse, Nvidia vi massacrerebbe. Sarebbe finita l'era del gaming, il pc sarebbe morto come piattaforma da gioco. La concorrenza è tutto in questo campo.
PS: la mossa di Ubisoft a palese vantaggio di Nvidia è stata una porcheria. Credi che non ci sia una bella mazzetta dietro?
Hai voglia se non c'è una mazzetta dietro, l'ho anche scritto sopra che Nvidia è probabile che le comparsate del suo logo all'avvio dei giochi le paga(ipotesi mia).
Per il resto io non disprezzo proprio nessuno. Rispondevo a quanto avevi scritto tu. Per quanto mi riguarda io compro il prodotto che trovo migliore fregandomene altamente del brand.
Bhairava
22-05-2008, 12:20
Hai voglia se non c'è una mazzetta dietro, l'ho anche scritto sopra che Nvidia è probabile che le comparsate del suo logo all'avvio dei giochi le paga(ipotesi mia).
Per il resto io non disprezzo proprio nessuno. Rispondevo a quanto avevi scritto tu. Per quanto mi riguarda io compro il prodotto che trovo migliore fregandomene altamente del brand.
Ok ok, ti stavo usando per fare un predicozzo a tutti gli nvidiaboyfans. Sorry. :D
:mano:
alla ATI secondo me spendono troppa fatica in architetture hardware senza dargli il giusto supporto driver...
Non è colpa dei giochi nè dei programmatori di questi!!
E poi directx è uno standard, se la scheda lo rispetta il gioco deve DEVE anzi DEVE funzionare tranquillo con quello standard.
Punto e basta.
Avevo una ati X1650 che freezava in direcxt pure con google earth...non mi pare che qui possa esserci una questione di mazzette sotto...
Su molte cose funzionava solo in opengl sennò directx faceva sempre crash!!! :cry: :cry:
Con le nvidia si gioca bene pure coi driver compresi nella scatola senza aggiornali.
E lo stesso problema con la 1600 lo ha avuto un mio amico.
E' evidente che sono (ero) dalla parte di ati e che non sono un fanboy convinto, sennò la radeon x1650 non la compravo...ma dopo 6 mesi di attesa dell'arrivo di driver VERAMENTE funzionanti, l'ho dovuta cambiare perchè non riuscivo nemmeno a giocare con l'emulatore del nintendo64 che usa le semplici directx7 (e ho detto tutto).
E non è colpa dell'emulatore perchè appena messa scheda geforce è partito come TUTTe le altre applicazioni che prima crashavano...compreso pure lo stupido Google Earth...
Se ATI migliora dal punto di vista driver sarei contentissimo visto che fa delle belle schede a ottimi prezzi!!!
Sono sicuro che stavolta ATI si riprende anche perchè ora sta producendo il processore video delle XBOX360 (che stanno fortunatamente vendendo bene) quindi gli stanno entrando un po' di soldi per buttarsi meglio sullo sviluppo driver che è una cosa che finora non brillava.
"Domanda per ATI :
Ma perchè fabbricare schede grafiche che dipendono strettamente dall applicazione con cui vengono usate ?
Non possono concentrarsi di piu' sul perfezionare le performance a scopi piu'consoni ? Piu' conosono intendo per i giochi.
ATI alza frequenze a go go le sue GPU lavorano a numeri altissimi, ma in un gioco vanno bene in altre 3 no sono scadenti, mi chiedo perchè ?"
riposnde ati : dipende dai driver e da come è implementato il gioco (ma sorpatutto dai driver).
Kharonte85
22-05-2008, 12:25
Le schede video dual gpu, così come attualmente concepite, sono dei pessimi acquisti.
Gli utenti che hanno acquistato la HD3870 X2, o la 9800 GX2, ne avranno una chiara dimostrazione il mese prossimo, così come la ebbero quelli della 7950 GX2 con l'uscita della 8800GTX.
In merito alla convenienza o meno di GDDR5 e 256bit o GDDR3 e 512bit, io faccio questo ragionamento: nel primo caso ho a che fare con un pcb più semplice ed economico (ma cmq più complesso di quello attuale della HD3870), ma finchè le memorie me le fornisce un solo produttore (per ora Qimonda), devo sottostare alle loro richieste economiche ed alle loro forniture, e trattasi di prodotto uscito dalla fase di sampling da soli 6 mesi (parole di Qimonda).
Con un bus a 512bit, ho un costo maggiore per il pcb, ed anche della gpu, ma almeno sul pcb il produttore ha margini di manovra e può riuscire ad abbattere il costo di produzione.
Per esempio, la 2900XT ha un bus a 512bit e pcb a 12 layers
La 8800GTS ha 10 layers con 256bit.
La 9800 GTX ha 12 layers sempre con 256bit e le memorie GDDR3 più costose disponibili.
Ma guardate il prezzo finale della 9800GTX, rispetto alla 8800GTS a dicembre o la 2900XT 1 anno fa'.
Quindi PCB complesso è sì un costo, ma rispetto a quello della gpu e delle memoria, ha un'incidenza evidentemente limitata.
In più le GDDR3 sono ampiamente collaudate, ma soprattutto le forniscono 3 produttori e si può contrattare più facilmente sul prezzo.
Ti stai dimenticando che c'è anche il discorso del processo produttivo che ha influito sul prezzo del G92...
Le schede video dual gpu, così come attualmente concepite, sono dei pessimi acquisti.
Gli utenti che hanno acquistato la HD3870 X2, o la 9800 GX2, ne avranno una chiara dimostrazione il mese prossimo, così come la ebbero quelli della 7950 GX2 con l'uscita della 8800GTX.
In merito alla convenienza o meno di GDDR5 e 256bit o GDDR3 e 512bit, io faccio questo ragionamento: nel primo caso ho a che fare con un pcb più semplice ed economico (ma cmq più complesso di quello attuale della HD3870), ma finchè le memorie me le fornisce un solo produttore (per ora Qimonda), devo sottostare alle loro richieste economiche ed alle loro forniture, e trattasi di prodotto uscito dalla fase di sampling da soli 6 mesi (parole di Qimonda).
Con un bus a 512bit, ho un costo maggiore per il pcb, ed anche della gpu, ma almeno sul pcb il produttore ha margini di manovra e può riuscire ad abbattere il costo di produzione.
Per esempio, la 2900XT ha un bus a 512bit e pcb a 12 layers
La 8800GTS ha 10 layers con 256bit.
La 9800 GTX ha 12 layers sempre con 256bit e le memorie GDDR3 più costose disponibili.
Ma guardate il prezzo finale della 9800GTX, rispetto alla 8800GTS a dicembre o la 2900XT 1 anno fa'.
Quindi PCB complesso è sì un costo, ma rispetto a quello della gpu e delle memoria, ha un'incidenza evidentemente limitata.
In più le GDDR3 sono ampiamente collaudate, ma soprattutto le forniscono 3 produttori e si può contrattare più facilmente sul prezzo.
alla fine se non si conoscono realmente i costi sia dell'uno che dell'altro, le nostre sono e resteranno semplici speculazioni.
Ati ha gia' (a contrario di Nvidia) prodotto schede con bus a 512bit, quindi non credo fossero incapaci di farsi due conti, probabilemnte anche Nvidia avra' le sue ragioni, inutile dire quindi chi ha fatto bene e chi male, se non si conosce realmente come stanno le cose.
Bhairava
22-05-2008, 12:36
alla ATI secondo me spendono troppa fatica in architetture hardware senza dargli il giusto supporto driver...
Non è colpa dei giochi nè dei programmatori di questi!!
E poi directx è uno standard, se la scheda lo rispetta il gioco deve DEVE anzi DEVE funzionare tranquillo con quello standard.
Punto e basta.
Avevo una ati X1650 che freezava in direcxt pure con google earth...non mi pare che qui possa esserci una questione di mazzette sotto...
Su molte cose funzionava solo in opengl sennò directx faceva sempre crash!!! :cry: :cry:
Con le nvidia si gioca bene pure coi driver compresi nella scatola senza aggiornali.
E lo stesso problema con la 1600 lo ha avuto un mio amico.
E' evidente che sono (ero) dalla parte di ati e che non sono un fanboy convinto, sennò la radeon x1650 non la compravo...ma dopo 6 mesi di attesa dell'arrivo di driver VERAMENTE funzionanti, l'ho dovuta cambiare perchè non riuscivo nemmeno a giocare con l'emulatore del nintendo64 che usa le semplici directx7 (e ho detto tutto).
E non è colpa dell'emulatore perchè appena messa scheda geforce è partito come TUTTe le altre applicazioni che prima crashavano...compreso pure lo stupido Google Earth...
Se ATI migliora dal punto di vista driver sarei contentissimo visto che fa delle belle schede a ottimi prezzi!!!
Sono sicuro che stavolta ATI si riprende anche perchè ora sta producendo il processore video delle XBOX360 (che stanno fortunatamente vendendo bene) quindi gli stanno entrando un po' di soldi per buttarsi meglio sullo sviluppo driver che è una cosa che finora non brillava.
Io ho avuto una x1600 e una x1650 e non ho avuto mai problemi. Con la x1600 mi sono giocato tutta la serie Splinter Cell, Far cry, Fear UT2004 e tutti i giochi fino ad meno di un anno fa.
Credo che il tuo sistema aveva qualche problema.
Bhairava
22-05-2008, 12:37
"Domanda per ATI :
Ma perchè fabbricare schede grafiche che dipendono strettamente dall applicazione con cui vengono usate ?
Non possono concentrarsi di piu' sul perfezionare le performance a scopi piu'consoni ? Piu' conosono intendo per i giochi.
ATI alza frequenze a go go le sue GPU lavorano a numeri altissimi, ma in un gioco vanno bene in altre 3 no sono scadenti, mi chiedo perchè ?"
riposnde ati : dipende dai driver e da come è implementato il gioco (ma sorpatutto dai driver).
Ma infatti sono domande senza senso...:rolleyes:
Credo che il tuo sistema aveva qualche problema.
No no...se cerchi su internet c'erano parecchi a lamentarsi, mica solo io.
Non possono vendere schede che funzionano a culo su certe configurazioni e su altre no....
Io poi compro solo pezzi di marca.
Bhairava
22-05-2008, 12:42
No no...se cerchi su internet c'erano parecchi a lamentarsi, mica solo io.
Non possono vendere schede che funzionano a culo su certe configurazioni e su altre no....
Io poi compro solo pezzi di marca.
Io la 1650 ce l'ho ancora sul muletto, ed è una bellezza. :D
leoneazzurro
22-05-2008, 12:48
forza ati!
Evitiamo i cori da stadio. Sospeso 1 giorno.
Per gli altri. evitiamo i discorsi alla "è meglio il mio". Grazie.
solo con le schede in mano potremo capire se la scelta è stata giusta...
t.giuliano
22-05-2008, 12:48
domanda da assoluto incompente: che differenza c'è tra le memorie delle schede video e la RAM di sistema? Perchè come RAM si sta inizziando ora con le ddr3 mentre qui siamo già alla ddr5?
sdjhgafkqwihaskldds
22-05-2008, 12:52
a 124gb/s la banda è passante così velocemente che manco te ne accorgi :asd:
Questo è palesemente falso.
Dimostralo ;)
Nvidia ha tutte le partnership perchè è più potente sul mercato e ha molti più soldi. Che vuol dire è arrivata prima? :rolleyes:
Ha più partnership perchè ha proposto per prima una scheda Dx10 su cui gli sviluppatori hanno, appunto, sviluppato. O credi che abbiano sviluppato su G80 solo per soldi?
E che mi dici sulla sporca mossa di Ubisoft di rimuovere le dx10.1 con la prima patch di Assassin's Creed? Anche lì Nvidia è arrivata prima?
:rolleyes: :rolleyes: :rolleyes: :rolleyes:
Ma scusa se il produttore di AC avesse avuto le palle, micca la rimuoveva no? Non le ha avute, si è fatto comprare (a detta tua, poi magari se hai prove concrete, proponile pure) e la storia è andata come sapete.
E' bello che nel 2008 ci sia ancora qualcuno che crede alle favole di aziende che fanno solo beneficienza e non i loro sporchi interessi monetari :asd:
leoneazzurro
22-05-2008, 15:16
"Domanda per ATI :
Ma perchè fabbricare schede grafiche che dipendono strettamente dall applicazione con cui vengono usate ?
Perchè magari TUTTE le schede grafiche hanno prestazioni che dipendono dall'applicazione?
BlueKnight
22-05-2008, 15:26
Nvidia non ci costringe con la forza a comprare le sue schede. Se vende un motivo ci sarà no?:rolleyes:
Perchè tu pensi che il numero di schede che compriamo noi da mettere nei pc assemblati contino qualcosa? Sarà massimo il 5% della quota di mercato.
Contano di più le schede discrete che mettono HD, DELL, ACER, MEDION, ecc nei loro catorci preassemblati.. e come hanno già spiegato, nVidia ha più "le mani in pasta" con i produttori. E' la stessa cosa successa con Intel, che in maniera più o meno "losca" obbligava i grandi brand a montare CPU di propria produzione invece di scegliere AMD, e infatti c'è ormai un processo in corso contro Intel che dura da parecchi anni.
Gaming_Minded
22-05-2008, 15:28
La mia domanda tanto osannata ovvero la prima che ho fatto è un dato di fatto, non passateci su o girateci attorno, ho visto alcune recensioni di sistemi con CrossfireX ( due X2 messe in parallelo ) che addirittura abilitando il crossfire scendono sotto la soglia dei 40 fps, assurdo a dir poco !!
Cioè prendi FEAR Ati con la X2 arriva a 170fps con uno schermo del 22" quindi risoluzione nativa 1680x1050, la 9800GX2 è poco piu sotto con 150fps. Cioè hanno tutti questi grossi numeri core Mhz alle stelle e solo in ALCUNI giochi riescono ad esprimersi al meglio.
Alla fine con ATI devi consultare quali siano i giochi con cui puoi giocare sfruttando la potenza e i soldi che hai speso e ottenendo cosi una bella soddisfazione.
Invece con Nvidia questo non accade mai, le Geforce fanno sempre i loro numeri non saranno neanche loro ultra performanti in tutti i games ma almeno una MEDIA ce l'hanno !!
ATI è o tutto o niente.
Bhairava
22-05-2008, 15:52
La mia domanda tanto osannata ovvero la prima che ho fatto è un dato di fatto, non passateci su o girateci attorno, ho visto alcune recensioni di sistemi con CrossfireX ( due X2 messe in parallelo ) che addirittura abilitando il crossfire scendono sotto la soglia dei 40 fps, assurdo a dir poco !!
Cioè prendi FEAR Ati con la X2 arriva a 170fps con uno schermo del 22" quindi risoluzione nativa 1680x1050, la 9800GX2 è poco piu sotto con 150fps. Cioè hanno tutti questi grossi numeri core Mhz alle stelle e solo in ALCUNI giochi riescono ad esprimersi al meglio.
Alla fine con ATI devi consultare quali siano i giochi con cui puoi giocare sfruttando la potenza e i soldi che hai speso e ottenendo cosi una bella soddisfazione.
Invece con Nvidia questo non accade mai, le Geforce fanno sempre i loro numeri non saranno neanche loro ultra performanti in tutti i games ma almeno una MEDIA ce l'hanno !!
ATI è o tutto o niente.
Mah, io riesco a giocare bene a tutti giochi a 1680x1050 (tranne Crysis, che non fa testo).
Questi miti sulle schede ATI sono proprio buffi. :rolleyes:
bah ati continua a proporre sempre nuove cavolate innovative , ma se la becca in quel posto ogni volta. Nvidia con le sue " vetuste " tecnologie riesce ,da due anni a sta parte, ad avere lo scettro delle prestazioni e a nuotare nei soldi. Ma come diavolo fanno??? Poi bus a 256bit??? Quando pensano di alzarlo?
Bhairava
22-05-2008, 15:57
bah ati continua a proporre sempre nuove cavolate innovative , ma se la becca in quel posto ogni volta. Nvidia con le sue " vetuste " tecnologie riesce ,da due anni a sta parte, ad avere lo scettro delle prestazioni e a nuotare nei soldi. Ma come diavolo fanno??? Poi bus a 256bit??? Quando pensano di alzarlo?
Bello questo intervento. Da vero conoscitore del mondo delle vga.
Come fanno?
Leggi le prime due pagine di questa discussione e troverai la risposta.
Mister Tarpone
22-05-2008, 16:00
bah ati continua a proporre sempre nuove cavolate innovative , ma se la becca in quel posto ogni volta. Nvidia con le sue " vetuste " tecnologie riesce ,da due anni a sta parte, ad avere lo scettro delle prestazioni e a nuotare nei soldi. Ma come diavolo fanno??? Poi bus a 256bit??? Quando pensano di alzarlo?
+ Gddr5 ;)
alla fine saranno delle buone schedozze....vedrai... ;)
gianni1879
22-05-2008, 16:00
Mah, io riesco a giocare bene a tutti giochi a 1680x1050 (tranne Crysis, che non fa testo).
Questi miti sulle schede ATI sono proprio buffi. :rolleyes:
i problemi in generale sono nelle configurazioni multigpu, quindi SLi e CF, ma parlare di problemi alle Ati in generale è ridicolo, vuol dire solo che non le hanno mai provate
Bhairava
22-05-2008, 16:05
i problemi in generale sono nelle configurazioni multigpu, quindi SLi e CF, ma parlare di problemi alle Ati in generale è ridicolo, vuol dire solo che non le hanno mai provate
Già, hai perfettamente ragione.
O non le hanno provate, o chi le ha provate è troppo nabbo.
amagriva
22-05-2008, 16:10
Originariamente inviato da: T3mp
forza ati!
Evitiamo i cori da stadio. Sospeso 1 giorno.
Va bene non sarà il massimo dell'intelligenza come commento però...
pierluigi86
22-05-2008, 16:17
Originariamente inviato da: T3mp
forza ati!
Evitiamo i cori da stadio. Sospeso 1 giorno.
Va bene non sarà il massimo dell'intelligenza come commento però...
le decisioni dei moderatori non possono essere commentate in pubblico. Se credi che ci sia stata un' ingiustizia scrivi un messaggio privato a leoneazzurro
Bhairava
22-05-2008, 16:19
Originariamente inviato da: T3mp
forza ati!
Evitiamo i cori da stadio. Sospeso 1 giorno.
Va bene non sarà il massimo dell'intelligenza come commento però...
:wtf:
leoneazzurro
22-05-2008, 17:08
Originariamente inviato da: T3mp
forza ati!
Evitiamo i cori da stadio. Sospeso 1 giorno.
Va bene non sarà il massimo dell'intelligenza come commento però...
Domanda: come si ridurrebbe un thread informativo su un forum tecnico se si consentisse di postare commenti che contenessero solo "Nvidia rulezz" "Ati Suxx" "Vai Intell"?
Perchè è stata presa la decisione di punire i post "numerici"?
Bloody Tears
22-05-2008, 18:59
a mio avviso il discorso delle "Ati catorce" poteva valere qualche tempo fa, ma non tanto per l'hardware (che è cmq sempre stato di tutto rispetto, anzi...), ma per il supporto driver non all'altezza (non per niente il passaggio agli omega portava risultati a dir poco sorprendenti).
Ad oggi mi son riconvinto, dopo una serie d NVIDIA a ridar fiducia ad ATI e devo dire che sono stato colpito molto molto positivamente.
Tornando a queste schede, sarà appunto interessante capirne i prezzi e vedere se effettivamente ci saranno reali benefici.
Conan_81
23-05-2008, 00:13
mah.. qui si passa sempre da 2-3 commenti tecnici e i successivi sul dibattito di chi ha fatto più capp.. cavolate nella vita.
Io su sto mondo ci sto dalla mattina alla sera, il mio socio insiste a dire "io vendo nvidia perchè almeno una volta messa la scheda, i drivers, i giochi non andranno velocissimi (parlasi della8600gt in questo caso, rispetto alla 3850) ma almeno partono tutti.."
oh picchia il martello, 3-4 persone che ho sentito che l'hanno presa, i giochi prima del 2006 non ne parte nemmeno mezzo.. io che ho una 2900xt, 1600pro sul muletto (e una x800gto per qualche settimana), non c'è stato un gioco che non mi fosse partito, sia su xp che su vista.
quindi, come la mettete la mettete, ogniuna scheda ha i suoi pregi e difetti, indipendemente dal brand.
dopo.. se ti dice cu..fortuna (:P) di non avere conflitti hw/sw (perchè diciamocela tutta, i pc perfetti se ne vedono 1 su 1000000), ci spendi 4 soldi, overclocchi e passa la paura.
Ma evitiamo di andare troppo OT.
IO, mi definisco ottimista sulle prossime uscite ATI, come 1 anno fa che comprai la 2900XT appena uscita, senza aver visto 1 bench, e sicuramente la 4850 (ma le vecchie *950 che fine hanno fatto? ati si accontenta con poco?) sarà il mio prossimo acquisto :)
bye
Bella mazzata, son contento voglio proprio vedere come reagira' nvidia a queste schede...
Aspettiamo di vedere tra queste e le nuove schede nvidia in uscita.
Aspettiamo i bench che voglio vedere quanto filano ste nuove schede...
Cioè prendi FEAR Ati con la X2 arriva a 170fps con uno schermo del 22" quindi risoluzione nativa 1680x1050, la 9800GX2 è poco piu sotto con 150fps. Cioè hanno tutti questi grossi numeri core Mhz alle stelle e solo in ALCUNI giochi riescono ad esprimersi al meglio.
Non voglio andare addosso a nessuno senza offendere nessuno ma... Imho, finche' nelle "scene peggiori" dei giochi, ovvero dove ti va male e il gioco scende fino a 30fps, cosa interessa se c'e' la scheda che ne fa 40 e costa 200 euro in piu', insomma l'occhio umano vede 24 (o 25 non ricordo) frame al secondo...
Ovvero: se il gioco non ti scatta mai, che ti lamenti che c'e' la scheda ati o nvidia che va di piu'? E' ovvio che ci sia e se non c'e' uscira' tra poco, ormai ne sfornano una ogni 2/3 mesi :)
E poi scusa eh, 150 e 170 fps sai che differenza :) manco li vedo quei 20fps in piu' :D
Alla fine con ATI devi consultare quali siano i giochi con cui puoi giocare sfruttando la potenza e i soldi che hai speso e ottenendo cosi una bella soddisfazione.
Invece con Nvidia questo non accade mai, le Geforce fanno sempre i loro numeri non saranno neanche loro ultra performanti in tutti i games ma almeno una MEDIA ce l'hanno !!
ATI è o tutto o niente.
Questo succede perche' le case creano giochi fatti apposta per girare meglio su piattaforma nvidia, vedi spesso il logo quando ti parte il gioco...
Dicevi il contrario se invece i giochi erano costruiti intorno ad Ati...
Se Ati facesse davvero schifo come tanti dicono sarebbe gia' fallita :rolleyes:
A me non interessa se sia Ati o Nvidia, se sia AMD o Intel, chi di questi butta fuori un buon prodotto performante ed economico io lo prendo. Non odio ne' Ati ne' Nvidia ne' AMD ne' Intel. Adesso Ati tira fuori sta scheda che risultera' migliore della nuova di Nvidia? Bene, se devo cambiare la mia me la compro.
Angelonero87
23-05-2008, 15:25
Non voglio andare addosso a nessuno senza offendere nessuno ma... Imho, finche' nelle "scene peggiori" dei giochi, ovvero dove ti va male e il gioco scende fino a 30fps, cosa interessa se c'e' la scheda che ne fa 40 e costa 200 euro in piu', insomma l'occhio umano vede 24 (o 25 non ricordo) frame al secondo...
Ovvero: se il gioco non ti scatta mai, che ti lamenti che c'e' la scheda ati o nvidia che va di piu'? E' ovvio che ci sia e se non c'e' uscira' tra poco, ormai ne sfornano una ogni 2/3 mesi :)
E poi scusa eh, 150 e 170 fps sai che differenza :) manco li vedo quei 20fps in piu' :D
.
i problema è che un videogioco non è una semplice renderizzazione di una scena 3d in cui 25-30 fps sono + che sufficenti, con 30 fps hai grossi problemi di "fluidità" nel controllo dell'interfaccia del gioco; 50-60 fps sono il minimo per giocare senza problemi, oltre i 100 fps nn ci sono miglioramenti avvertibili ed è solo una dimostrazione degli ampi margini di prestazioni della tua scheda che ti permetterà di giocare senza problemi anche cn il prossimo gioco. Generalmente questo tipo di problema si sente maggiormente nei giochi online in cui la fluidità del gioco fa la differenza.
con 30 fps hai grossi problemi di "fluidità" nel controllo dell'interfaccia del gioco
http://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gif
Ma che stai dicendo? A 30fps il gioco e' fluido, semmai hai problemi se ti scende sotto i 25 http://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gifhttp://digilander.libero.it/baboo85/blink.gif
Se poi il tuo occhio rileva 30fps complimenti :D hai un dono ;) i miei piu' di 24-25 non vedono :)
Bhairava
24-05-2008, 15:43
http://img.forumfree.net/html/emoticons/black/blink.gifhttp://img.forumfree.net/html/emoticons/black/blink.gifhttp://img.forumfree.net/html/emoticons/black/blink.gifhttp://img.forumfree.net/html/emoticons/black/blink.gif
Ma che stai dicendo? A 30fps il gioco e' fluido, semmai hai problemi se ti scende sotto i 25 http://img.forumfree.net/html/emoticons/black/blink.gifhttp://img.forumfree.net/html/emoticons/black/blink.gifhttp://img.forumfree.net/html/emoticons/black/blink.gif
Se poi il tuo occhio rileva 30fps complimenti :D hai un dono ;) i miei piu' di 24-25 non vedono :)
No stai sbagliando di grosso. Quello che vale per il flusso video televisivo non vale per i giochi. Non diciamo sciocchezze...qui siamo troppo OT per discuterne.
No stai sbagliando di grosso. Quello che vale per il flusso video televisivo non vale per i giochi. Non diciamo sciocchezze...qui siamo troppo OT per discuterne.
Ok chiudo l'OT dicendo che ho fatto una ricerca al volo e l'occhio umano vede 24-25fps sulle pellicole dei film ma nei videogiochi la questione e' diversa e ne vede dai 50 ai 70 a seconda della persona, per un movimento fluido. Non la sapevo questa differenza, sorry.
No stai sbagliando di grosso. Quello che vale per il flusso video televisivo non vale per i giochi. Non diciamo sciocchezze...qui siamo troppo OT per discuterne.
Ok chiudo l'OT dicendo che ho fatto una ricerca al volo e l'occhio umano vede 24-25fps sulle pellicole dei film ma nei videogiochi la questione e' diversa e ne vede dai 50 ai 70 a seconda della persona, per un movimento fluido. Non la sapevo questa differenza, sorry.
io ho sempre saputo che nei videogiochi bastano 25-30fps ma in ogni caso queste nuove ati faranno fare a quasi tutti i giochi tanti di quei fps che il problema non si porrà :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.