PDA

View Full Version : Le prime indiscrezioni su ATI R700


Redazione di Hardware Upg
24-11-2007, 07:55
Link alla notizia: http://www.hwupgrade.it/news/skvideo/le-prime-indiscrezioni-su-ati-r700_23373.html

La prossima generazione di GPU di AMd dovrebbe introdurre il concetto di mini core: più core affiancati sullo stesso Die, maggiore potenza elaborativa a disposizione

Click sul link per visualizzare la notizia.

Jenjuro
24-11-2007, 08:10
Ma fino adesso la AMD/ATI non ha ancora fatto uscire una scheda video capace di contrastare la potenza delle Nvidia 8800GTX, ovviamente qualcuno potrebbe affermare che sono per pochi, visto il loro prezzo, ma è anche vero che i più accaniti giocatori vogliono il meglio.

nj
24-11-2007, 08:13
in pratica sono mesi che AMD va avanti solo a parole e indiscrezioni....
Riusciranno anche con questa scheda a fare la solita magra figura ?

AndreaG.
24-11-2007, 08:16
in pratica sono mesi che AMD va avanti solo a parole e indiscrezioni....
Riusciranno anche con questa scheda a fare la solita magra figura ?

no guarda, proprio no! i prodotti sono usciti sul lato ATI, che poi non abbiano entusiasmato è un altro discorso, ma non è solo parole e indiscrezioni...

Cmq il discorso che le gpu erano già di per loro dei multicore per come erano progettate? va a farsi benedire? faranno un multicore di multicore!? :sofico: oppure ci siamo sempre sbagliati con le nostre definizioni? :help:

killer978
24-11-2007, 08:18
Si ma è anche vero che in rete si trovano le HD3870 a 200€ IVA inclusa schede che dal prezzo prestazioni non hanno rivali IMHO!!!

Tornando alla notizia, credo che questo sia il modo + semplice x creare future VGA, + core tipo CPU, anche se a differenza di queste ultime dovrebbero rendere di + vista la natura delle GPU , calcoli paralleli!!!

vedremo cosa ci riserva il futuro!!! anche se gia oggi le cose sono mooolto migliorate rispetto al passato, le ultime VGA hanno consumi mooolto contenuti e prezzo/prestazioni che in passato ci sognavamo!!! con 250€ prezzo della 8800GT ti porti a casa il top ( solo 3% - di una GTX)

Sig. Stroboscopico
24-11-2007, 08:30
In questo modo dovrebbero poter spegnere i core inutilizzati al momento e finalmente lanciare la gpu sulla strada del basso consumo energetico.

Magari, almeno al 90% del tempo le ventole stanno quasi ferme...

Master Mystery
24-11-2007, 08:34
Ancora non ho capito come saranno, se saranno come le CPU con i core integrati o se semplicemente ci saranno 2-3-4 GPU affiancate..

zanardi84
24-11-2007, 08:39
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.

djseta
24-11-2007, 08:39
Ottima mossa questa del multi core, in questo modo potrà creare un'unica architettura e adattarla alle varie fasce di mercato. Secondo me R700 segnerà davvero la rinascita di Ati.
Vorrei spezzare una lancia a favore delle 3870, se consideriamo il prezzo a cui sono vendute direi che non hanno rivali, sono schede tecnologicamente molto avanzate vendute a un prezzo si potrebbe dire "di realizzo". Visto il panorama VGA attuale le 38xx possono essere molto indicate a chi come me deve cambiare PC ma non vuole spendere una cifra assurda su questa generazione di VGA (a mio avviso fallimentare) ma preferisce investire sulla prossima. Nel frattempo gioco alla grande lo stesso e con quattro soldi.
Brava Ati.

Spitfire84
24-11-2007, 08:53
Ma fino adesso la AMD/ATI non ha ancora fatto uscire una scheda video capace di contrastare la potenza delle Nvidia 8800GTX, ovviamente qualcuno potrebbe affermare che sono per pochi, visto il loro prezzo, ma è anche vero che i più accaniti giocatori vogliono il meglio.

E' vero che ati non ha fatto uscire UNA scheda capace di rivaleggiare con le top nvidia, ma se ti prendi 2 3870, spendi meno di 400 euro e vai + di una 8800 gtx che costa pure di +.. ;)

Marcus Scaurus
24-11-2007, 08:56
Ecco a che serviva R600... A preparare questa... A partire dal ringbus che non ha garantito il salto prestazionale sperato e gli shader unificati... Ecco dove andava a parare Ati... Però cavolo se sta parata è costata...:O

Fray
24-11-2007, 09:42
E' vero che ati non ha fatto uscire UNA scheda capace di rivaleggiare con le top nvidia, ma se ti prendi 2 3870, spendi meno di 400 euro e vai + di una 8800 gtx che costa pure di +.. ;)

e se ti prendi 2 8800gt? :rolleyes:

leddlazarus
24-11-2007, 10:00
e se ti prendi 2 8800gt? :rolleyes:

ne spendi 500

Bambù
24-11-2007, 10:06
Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.

Per me dovremmo smetterla di dare le colpe a chi non le ha...
Le ultime generazioni sia AMD che NVIDIA vanno bene e di potenza ne hanno da vendere!
Il problema sta in cosa devono far girare... CRYSIS è mal programmato non è colpa dell'hardware! se tu attacchi un rimorchio da camion ad una ferrari non puoi aspettarti prestazioni da urlo! Lo stesso con i giochi mal fatti!
Purtroppo per pc è sempre stato così: per la gran quantità di periferiche leggermenti differenti tra loro non si è mai sfruttato a pieno l'hw... cosa che si fa a fondo con le console (unica piattaforma)!
è vero però che alcune case (es. EPIC) lavorano meglio di altre e i risultati si vedono!! è inutile fare giochi super belli con milioni di effetti se poi ci giochi a 30 fps o peggio ancora a scatti!
Io la penso così, dopo... a tutti piace la bella grafica ma non se va a scapito del divertimento!
Ciao

Micene.1
24-11-2007, 10:32
trovo che i minicore sia un'ottima cosa...dovrebbe abbassare i costi di produzione di molto...anche i 45nm sono un bel traguardo se la'architettura la progettano come si deve cosi su due piedi mi sembra che le premesse positive ci siano tutte

degac
24-11-2007, 10:44
AMD ha sicuramente la tecnologia e le competenze per fare delle GPU multi core; mi sa tanto che utilizzerà il suo HyperTransport 3.0 (o magari una nuova revisione dedicata) - del resto tra memory controller integrato nelle CPU da 4/5 oramai, multichannel per l'utilizzo di multi-CPU (Opteron - Barcelona) qualcosa avrà imparato o no?
Se poi risulta 'semplice' assemblare le schede - via con le economie di scala: produco sempre lo stesso core e cambio solo il numero x1 x2 x4...sulla carta sembra fattibile, poi è il mercato che decide.

Nota personale: sono estremamente contento dei risultati avuti con Crysis+Vista+Dx10+Nvidia8800 - una grandissima presa per il c**o dei clienti...alla fine non so davvero chi abbia vinto la guerra delle schede grafiche, chi vende una scheda 'normale' oppure chi ti vende una scheda 'ultra vitaminizzata' (e strapagata) che non rende lo stesso....

worldrc
24-11-2007, 10:49
la ati non ha rivali in quanto prestazioni/prezzo e mi associo a tutti quelli che dicono non avra il top del top ma al fascia medio alta con la hd 38xx sono le migliori visto il prezzo ... e a no gamer e questo quello che interessa giocare al massimo spendendo poco la fascia top di gamma e riservata solo al 7 percento del mercato ....


un applauso speciale e sincero io lo farei a degac che a centrato il problema .... sono d'accordo con te

goldorak
24-11-2007, 10:53
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.


Infatti, quello che molti si rifiutano di vedere e' che nei giochi in cui una 88xx rende anche la 3870 va bene, e laddove una 88xx arranca anche una 3870 arranca.
Non serve a niente dire la 88xx fa 20 fps in Crysis mentre la 3870 ne fa solo 15 fps perche' ne' l'una ne' l'altra sono schede idonee per giocare come si deve all'ultima fatica dei Crytek.
Bisogna saperli interpretare i dati, e non guardare solo ai numeri in assoluto. :stordita:

Ps : per la cronaca ho una scheda Nvidia, metto le mani avanti per evitare di essere trattato da fanboy ATI.

OmgKllL
24-11-2007, 11:00
allora il divaqrio prestazionale fra 3870 e 8800gt è del 15% x questo 15% in + io spendo volentieri 20 euro in + (le 8800 nn costano 250 euro...le trovi facilmente a 230...)

lucasantu
24-11-2007, 11:05
Commento # 7 di: zanardi84 pubblicato il 24 Novembre 2007, 09:39

Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione



hai pienamente ragione .
però una cosa sbagliata l'hai detta , ci sarà sempre un gioco che le attuali gpu nn riusciranno mai a far girar bene.
è successo così ora , l'anno scorso e così via.
per girar bene intendo BENE , senza cali di framerate o altro.
ora posseggo una 8800gtx presa all'uscita , prima avevo 2 7800gtx in sli .
beh insomma , mai un gioco che girasse al masssimo del massimo mantenendo un framerate altissimo.
:banned:

halduemilauno
24-11-2007, 11:14
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.

questo giro generazionale non è ancora finito. manca la 8800gts512. quindi spetterei a dire che non è all'altezza della situazione.
;)


ps e mancano anche le dual gpu 3870x2, 8850gx2.

Vertex
24-11-2007, 11:18
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.

Se Crysis non è ottimizzato che colpa ha Nvidia :rolleyes:

gianni1879
24-11-2007, 11:46
idea molto interessante! ma sarà reale o pura fantasia di fud?

The_SaN
24-11-2007, 13:04
allora il divaqrio prestazionale fra 3870 e 8800gt è del 15% x questo 15% in + io spendo volentieri 20 euro in + (le 8800 nn costano 250 euro...le trovi facilmente a 230...)

Facendo una media delle recensioni viene una differenza tra il 10% e il 15%.
Peró ho trovato le 8800GT a partire da 230Euro, come te.
La 3870 a 186,25 Euro.
Sono il 23,5% di differenza :)

::NSM::
24-11-2007, 13:06
Alla Crytek hanno lavorato su schede Nvidia... ottimizzazione o no dovrebbe girare bene su quelle. Mica loro sviluppano Crysis come han voglia e aspettano che qualche GPU degna riesca a farlo girare. Crysis dovrebbe girare su queste schede: loro ci tengono a farlo girare bene. Se non vendono mezza copia perchè bisogna aspettare il 2010 chi è a perderci?

Sono ATI e Nvidia a dover correre dietro agli sviluppatori?

Quando le 8800GTX erano una novità tutti a sbavare per il salto dalla generazione precedente; ora di colpo non sono abbastanza potenti? Ma per cosa? Non ha senso.

In attinenza alla notizia :D perchè, se effettivamente la strada è quella della parallelizzazione, SLI e Crossfire hanno avuto così poco successo? Sperem.

:)/:rolleyes:

FedNat
24-11-2007, 13:39
Cmq il discorso che le gpu erano già di per loro dei multicore per come erano progettate? va a farsi benedire? faranno un multicore di multicore!? :sofico: oppure ci siamo sempre sbagliati con le nostre definizioni? :help:

E' vero le GPU sono gia' estremamente parallele, non ha molto senso parlare di multi core. Personalmente credo che questa cosa dei mini-core serva dal punto di vista dell'organizzazione interna: IMHO AMD vuole raggruppare gli stream processor in gruppi funzionali indipendenti ed abbastanza autosufficenti tutti coordinati da una logica di controllo centrale.

Questo porta due vantaggi:
1) Semplifica la gestione dell'offerta tra fascia alta, media e bassa compreso il recupero di die difettosi. basta giocera sull'abilitazione dei mini.-core
2) Facilita l'estrazione di una parte della GPU per inserirla come core di una CPU (Fusion docet)

Saluti

Dexther
24-11-2007, 13:41
che sia la volta buona :sperem:..

Rufus86
24-11-2007, 13:55
Preciso che non si tratta di un sistema multi-GPU, come visto sinora, ma di un sistema modulare intro GPU, mai visto sinora. All'atto pratico, R700 sarebbe riconosciuta dall'applicazione come una singola GPU. ;)

Verosimilmente i core, nella top di gamma, dovrebbero essere cinque: quello centrale di coordinamento, che dovrebbe contenere tra gli altri il memory controller, e quelli intorno contenenti le ALU e le TMU (e forse anche le ROPs).

Ben intenso, ammesso che quanto detto da Fudzilla sia vero.

McGraw
24-11-2007, 13:59
"Le informazioni su R700 sono al momento piuttosto ridotte, in quanto il debutto di questa architettura non avverrà prima della seconda metà del 2008."

Correggerei con la seconda metà del 2010 mi sembra appena piu plausibile! La storia dei mini core nasce per creare economia di progetto a lungo termine senza ricorrere continuamente a nuovi progetti per ogni fascia di mercato e quindi a nuovi investimenti, lo scopo é creare un progetto agiornabile nel tempo per tre fasce di mercato, quando invece la priorità dovrebbe essere una costante ricerca delle prestazioni! Mentre nei prossimi 2 anni si apprenderanno sempre piu dettagli su R700 la concorrenza annuncerà e lancerà un'infinità di schede nuove e sempre piu potenti, poi quando AMD sarà pronta per lanciarla sul mercato e noi con le p***e piene dai discorsi e continue post date di lancio sarà una scheda superata e scavalcata SICURAMENTE per prestazioni da Nvidia!
Questa politica di AMD all'entusiamo generale non appena hanno due fogli di progetto in mano protratto per mesi e culminante con prodotti al di sotto della concorrenza non la condivido, appare piu come una presa in giro collettiva verso chi deve comprare, come una falsa soddisfazione dell'aquirente che si deve accontentare, come uno stare dalla parte di chi vuol risparmiare e che in realtà si traduce in incapacità di competere su fasce di prodotti!
Il malcontento della gente inizia a farsi sentire, speriamo che il 2008 per AMD sia un anno diverso! me lo auguro!

MenageZero
24-11-2007, 17:38
Per me dovremmo smetterla di dare le colpe a chi non le ha...
Le ultime generazioni sia AMD che NVIDIA vanno bene e di potenza ne hanno da vendere!
Il problema sta in cosa devono far girare... CRYSIS è mal programmato non è colpa dell'hardware! se tu attacchi un rimorchio da camion ad una ferrari non puoi aspettarti prestazioni da urlo! Lo stesso con i giochi mal fatti!
Purtroppo per pc è sempre stato così: per la gran quantità di periferiche leggermenti differenti tra loro non si è mai sfruttato a pieno l'hw... cosa che si fa a fondo con le console (unica piattaforma)!
è vero però che alcune case (es. EPIC) lavorano meglio di altre e i risultati si vedono!! è inutile fare giochi super belli con milioni di effetti se poi ci giochi a 30 fps o peggio ancora a scatti!
Io la penso così, dopo... a tutti piace la bella grafica ma non se va a scapito del divertimento!
Ciao

che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)

per quel che riguarda la mi esperienza personale, forse tutto dipende dalla risoluzione a cui lo si vuole giocare, ferma restando l'intenzione di tenere effetti e filtri al max o quasi: a 1280x960 va benone anche con tutti gli effetti al max (compresi quelli attivabili editando i file di configurazione e che dovrebbero essere riservati all gpu dx10 su vista) e con qualche piccola rinuncia sui filtri; questo su una "schifosa" x1900xt.
da tenere presente che probabilmente la risluzione di riferimento dell'industria videoludica è ora 1280x720 o giù di lì come num totale di pixel/frame, dato che è quella del framebuffer del 99% (se non il 100%) dei titoli delle attuali console

non mi sembra qualcuno abbia mai affermato esplicitamente che con una delle ultime gpu sia essa ati o nv si sarebbe potuto giocare crysis con tutto al max e risoluzione elevata a piacere ottenendo per es un min di fps intorno a 30 e/o una media sui 60 ... tantomeno qualcuno te lo "garantisce" quando compri la scheda video o crysis

"Le informazioni su R700 sono al momento piuttosto ridotte, in quanto il debutto di questa architettura non avverrà prima della seconda metà del 2008."

Correggerei con la seconda metà del 2010 mi sembra appena piu plausibile! La storia dei mini core nasce per creare economia di progetto a lungo termine senza ricorrere continuamente a nuovi progetti per ogni fascia di mercato e quindi a nuovi investimenti, lo scopo é creare un progetto agiornabile nel tempo per tre fasce di mercato, quando invece la priorità dovrebbe essere una costante ricerca delle prestazioni! Mentre nei prossimi 2 anni si apprenderanno sempre piu dettagli su R700 la concorrenza annuncerà e lancerà un'infinità di schede nuove e sempre piu potenti, poi quando AMD sarà pronta per lanciarla sul mercato e noi con le p***e piene dai discorsi e continue post date di lancio sarà una scheda superata e scavalcata SICURAMENTE per prestazioni da Nvidia!
Questa politica di AMD all'entusiamo generale non appena hanno due fogli di progetto in mano protratto per mesi e culminante con prodotti al di sotto della concorrenza non la condivido, appare piu come una presa in giro collettiva verso chi deve comprare, come una falsa soddisfazione dell'aquirente che si deve accontentare, come uno stare dalla parte di chi vuol risparmiare e che in realtà si traduce in incapacità di competere su fasce di prodotti!
Il malcontento della gente inizia a farsi sentire, speriamo che il 2008 per AMD sia un anno diverso! me lo auguro!

senza volre entrare nel merito del ragionamento, difficile capire da dove ti venga tanta fiducia nello "sparare" il 2010 per r700: anzi, facendo semplicemente un discorso probabilistico, vista la storia recente in cui sia nv che ati tirano fuori, che venga "bene" o "male", almeno un sostanzioso step architetturale all'anno, e visto che non c'è stato mai ancora un singolo rumor che semntisca questo ritmo come "caso peggiore", direi che la tua ipotesi sia più improbabile di una volesse l'inter non vincere lo scudetto 07/08 :sofico:
(secondo te il successore di r600 uscirebbe dopo circa 3 anni dalla presentazione della generazione precedente, in fondo non suona strana anche a te che l'hai pensata, sta cosa ?)

MenageZero
24-11-2007, 17:57
tornando all'architettura presunta di r700, ovvero modulare con un approccio multicore simile a quello delle attuali cpu, con la fascia di una gpu detreminata primariamente dal num di core che integra ...
probabilmente se così sarà, avranno vantaggi in sede di produzione rispetto all'approccio attuale ... ma concettualmente all fine non è quello che già fanno ora e da un pezzo diminuendo/aumentando le unità di esecuzione ? (oggi sono gli "stream processor", ieri si chiamavano in altro modo ma il ruolo è quello)
tanto più che si dice che in futuro non spariranno certo le variazioni sui clock e sui bit totali del bus gpu<->vram, nonché anche il mem. controller delle attuali gpu è "già multicore" se vogliamo vederla in questo modo

e poi, mettiamo che anche nel 2008 nv presenti un'arch molto ben riuscita e quindi quantomeno con un ottimo incremento di performance rispetto alle gen precedenti, un approcio del genere rende più agevole o ancora più difficile competere per il max delle prestazioni per singola gpu ?

:wtf:

MiKeLezZ
24-11-2007, 19:17
L'idea dei multicore è di per sé geniale, poichè si riduce di 1/4 l'impegno nella progettazione (integrata/bassa/media/alta), si crea una base comune di sviluppo (percui un eventuale UVD ci sarebbe a prescindere). Senza contare la possibilità di "spegnere core inutili".
Il problema sarà l'ottimizzazione... Se è basato su CrossFire o comunque una sua derivazione, è difficile aspettarsi una perfetta scalabilità, cosa che invece avviene tranquillamente con i chip "proprietari" (nel senso, una scheda da 128 sp è realmente il doppio più potente di una da 64 sp, ma non si può dire che due schede da 64 sp siano potenti quanto una da 128 sp).
Infatti, quello che molti si rifiutano di vedere e' che nei giochi in cui una 88xx rende anche la 3870 va bene, e laddove una 88xx arranca anche una 3870 arranca.
Non serve a niente dire la 88xx fa 20 fps in Crysis mentre la 3870 ne fa solo 15 fps perche' ne' l'una ne' l'altra sono schede idonee per giocare come si deve all'ultima fatica dei Crytek.
Bisogna saperli interpretare i dati, e non guardare solo ai numeri in assoluto. :stordita:

Ps : per la cronaca ho una scheda Nvidia, metto le mani avanti per evitare di essere trattato da fanboy ATI.Quello che dici non è corretto. Crysis mi gira a 20/25FPS con le schedine ATI e 30/35FPS con le schedine NVIDIA.
Questo è proprio l'esempio opposto, ovvero come sia possibile creare un così grande divario fra due prodotti in realtà molto simili...
10FPS di differenza spesso sono niente, nel caso di Crysis fanno la differenza fra "NON GIOCABILE" e "GIOCABILE", e questo significa tanto.che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)Mal programmato non so... Sicuramente non è proprio fatto da dei geni della programmazione, visto che riducendo l'impatto grafico sembra molto simile a Far Cry, eppure le richieste hardware rimangono elevatissime, e non ci si schioda dai 30FPS (con saltuari stuttering). E qui Oblivion mi è subito saltato alla mente...

Tasslehoff
24-11-2007, 19:36
che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)

per quel che riguarda la mi esperienza personale, forse tutto dipende dalla risoluzione a cui lo si vuole giocare, ferma restando l'intenzione di tenere effetti e filtri al max o quasi: a 1280x960 va benone anche con tutti gli effetti al max (compresi quelli attivabili editando i file di configurazione e che dovrebbero essere riservati all gpu dx10 su vista) e con qualche piccola rinuncia sui filtri; questo su una "schifosa" x1900xt.Quoto.
Questa faccenda della scarsa ottimizzazione su pc è diventato un tormentone, non c'è gioco, non c'è rinnovo tecnologico che non si porti dietro questa frase...
Per contro magicamente i giochi su console invece sono sempre iperottimizzati, ignorando i cali di fps (visibilissimi anche sulle ultime console), ignorando spesso la differenza nella risoluzione utilizzata tra le diverse piattaforme, ignorando la differenza qualitativa tra pc e console.
C'è gente che con una X800 che si lamenta perchè non riesce a giocare a Bioshock o UT3, magari su un display disastrosamente immenso con una risoluzione nativa allucinante, e da la colpa alla "scarsa ottimizzazione dei giochi per pc", insomma diamoci una regolata :rolleyes:

Io con la configurazione in sign a Bioshock sto giocando in 1280x1024 con dettagli sparati al massimo e sto sempre sopra i 30 fps, stiamo parlando di hw per certi versi preistorico e ben al di sotto della più ridicola configurazione attuale entry-level. A me non pare proprio una dimostrazione di scarsa ottimizzazione...

Una osservazione e un piccolo spunto di riflessione, nella storia dei videogiochi per pc c'è sempre stato un minimo di configurabilità dei dettagli grafici, e sebbene il progresso abbia portato a giochi visivamente sempre più belli, l'aspetto grafico è sempre stato considerato di importanza più o men secondaria rispetto al divertimento, alla giocabilità, all'esperienza di gioco.
I titoli attuali spesso hanno una granularità tale nella configurazione grafica da far vacillare anche le conoscenze del più esperto videogiocatore (se si somma anche la configurazione dei drivers video si sale a livelli da MIT), eppure nonostante questo si tende sempre a sparare tutto a razzo, se l'hw non ce la fa i casi son due, o si upgrada oppure ci si lamenta della scarsa ottimizzazione.
Ma dove sta scritto che non si possono ridurre i dettagli?
Da quando siamo diventati tutti così intransigenti da non poter sopportare un misero spigolo di poligono leggermente scalettato?
Imho stiamo diventando un po' troppo viziati, questo è il problema, non la scarsa ottimizzazione :D

MenageZero
24-11-2007, 19:52
Mal programmato non so... Sicuramente non è proprio fatto da dei geni della programmazione, visto che riducendo l'impatto grafico sembra molto simile a Far Cry, eppure le richieste hardware rimangono elevatissime, e non ci si schioda dai 30FPS (con saltuari stuttering). E qui Oblivion mi è subito saltato alla mente...

non ho provato a vedere se segando di brutto la qualità grafica mancasse un visibile aumento di fps, quindi sul punto specifico non posso aggiungere nulla. mi sono limitato a cercare di giocarlo al max possibile, e facendo questo non ho avuto la sensazione di una "pesantezza" seriamente eccessiva (dopotutto graficamente non credo ci sia di meglio in giro attualmente ed io non è che l'ho fatto girare su una 8800ultra); voglio dire che la mia impressione è quantomeno che ci siano stati titoli di primo piano o presunti tali con un "rapporto pesantezza / qualità / hw usato" nettamente peggiore (tipo vegas... e spesso neanche sembra che abbia l' U.E.3 ...)

forse la poca scalabilità degli fps rispetto alle impostazioni grafiche potrebbe essere dovuta magari ad un numero di poligoni totale che rimane cmq elevato, ad aspetti che pesano più sulla cpu come "fisica" e "i.a."... cioè per dire aspetti che anche quando faccio avvicinare la qualità visiva ad un far cry, forse rimangono nettamenete più pesanti computazionalmente di quanto lo fossero le rispettive implementazioni del primo capitolo, e magari tanto pesanti da non essere una "piuma" per l'hw attuale (ammesso che quanto appena detto possa essere una ipotesi sensata :D, se poi ciò sia in sé da considerare cmq un grave difetto o meno, non lo so :boh:)

MenageZero
24-11-2007, 20:05
...
Io con la configurazione in sign a Bioshock sto giocando in 1280x1024 con dettagli sparati al massimo e sto sempre sopra i 30 fps, stiamo parlando di hw per certi versi preistorico e ben al di sotto della più ridicola configurazione attuale entry-level. A me non pare proprio una dimostrazione di scarsa ottimizzazione...

occhio alle parole, visto che , a quanto pare, se c'è una costante nell'informatica "domestica", è che, per giocare ai super-titoloni del momento, quando anche una nuova generazione di chip grafici dovessero prenderla direttamente da una astronave aliena, le gpu entry-level faranno sempre schifo visto che pare debbano essere sempre inferiori quantomeno alla fascia media di generazione precedente e di generazione in generazione con un divario sempre crescente con le fasce superiori contemporanee .... :sofico:

Oireen
25-11-2007, 10:51
Un unico appunto personale. All'uscita la 8800GTX (che tuttora posseggo) era decantata come la prima (e migliore) scheda video per Windows (s)Vista.

All'uscita di Vista (dopo 18 mesi più o meno di betatesting) non c'era UN DRIVER UNO per la 8800GTX NON BETA in grado di funzionare con Vista. Il primo driver WHQL s'è visto 1 mese dopo il lancio sul mercato del nuovo obrobrio di Microsoft.

Il primo driver con un claudicante supporto directX 10 s'è visto a fine marzo-inizio aprile 2007 mentre per lo SLI abbiamo dovuto aspettare maggio (per DX9) e metà luglio per DX10. Ed ancora, ad ogni titolo rilasciato per DirectX10 nVidia rilascia un nuovo driver video (e a me sa di cheating) per ottenere delle prestazioni accettabili. Basti vedere il susseguirsi di drivers... Lost Planet, Call of Juarez, World in Conflict, Crysis...

C'è poi la vicenda alta definizione... Ho comprato quella scheda dopo le acclamate promesse di nVidia di un supporto alla decodifica HD per Bluray e HD-DVD. Avete mai provato a collegare una TV LCD via HDMI (con cavo DVI-HDMI) ? E' già un mezzo miracolo se riuscite a far si che il driver imposti la risoluzione ed abiliti il display. Lanciate poi un player e sappiatemi dire. La protezione HDCP funziona così bene che per poter vedere un HD-DVD sul mio TV Samsung da PC devo usare AnyDVD HD per bypassare la protezione del supporto.

Io sono stato un fanboy di nVidia per ANNI. Ma con questa scheda mi hanno davvero fatto cadere i contrappesi. Spero che ATi, ora AMD-ATi sappia fare qualcosa di meglio con le future architetture.

Con qualche anno di esperienza nel campo di PC ed assemblaggio mi sento di dire solo una cosa. I numeri contano poco. FPS, 3DMark etc. L'importante è che i consumatori non vengano presi per i fondelli con promesse non mantenute in cambio di un prodotto estremamente costoso e rapidamente condannato all'obsolescenza.

Cert'è che il mio prossimo upgrade non vedrà un'altra "the way is meant to be played" montata sulla mia macchina... nel frattempo gioco ad Assassins Creed sulla PS3 :P

Buone feste a tutti quanti!

M4R1|<
25-11-2007, 11:20
su fudzilla si dice anche che dovrebbe avere un potenza complessiva di 2Tflops. òa 8800ultra in super oc nn arriva nemmeno a 500Gflops, se fosse vero con la prossima generazione si vedrebbero delle schede che sono quasi 4 volte più potenti di tutte le attuali!!!!

Defragg
25-11-2007, 11:32
questo giro generazionale non è ancora finito. manca la 8800gts512. quindi spetterei a dire che non è all'altezza della situazione.
;)


ps e mancano anche le dual gpu 3870x2, 8850gx2.

Parliamo per il presente, del domani non c'è certezza. ;)

M4R1|<
25-11-2007, 11:40
Ecco a che serviva R600... A preparare questa... A partire dal ringbus che non ha garantito il salto prestazionale sperato e gli shader unificati... Ecco dove andava a parare Ati... Però cavolo se sta parata è costata...:O

imho verissimo ati si è fatta le ossa per programmare R600 e credo che molte cose nn siano più così difficili con R700 ;)

Preciso che non si tratta di un sistema multi-GPU, come visto sinora, ma di un sistema modulare intro GPU, mai visto sinora. All'atto pratico, R700 sarebbe riconosciuta dall'applicazione come una singola GPU. ;)

Verosimilmente i core, nella top di gamma, dovrebbero essere cinque: quello centrale di coordinamento, che dovrebbe contenere tra gli altri il memory controller, e quelli intorno contenenti le ALU e le TMU (e forse anche le ROPs).

Ben intenso, ammesso che quanto detto da Fudzilla sia vero.

secondo te potrebbe essere vero fare una vga da 2Tflops? utilizzando quest'architettura? in fondo dalla precedente generazione all'attuale si è "solo" raddoppiata la potenza elaborativa, ma qui si parla di quadruplicare, fattibile?

MiKeLezZ
25-11-2007, 11:47
imho verissimo ati si è fatta le ossa per programmare R600 e credo che molte cose nn siano più così difficili con R700 ;)Generalmente i team di lavoro sono due e lavorano in modo alterno, percui R700 sarà fatto da altri ragazzi, mentre quelli che han lavorato su R600 stanno ora progettando R800.
E poi è un discorso che deve esser fatto in due direzioni, come se l'è fatte ATI, se l'è fatte pure NVIDIA (e a quanto pare dalle prestazioni, anche in modo più efficace).
Secondo te potrebbe essere vero fare una vga da 2Tflops? utilizzando quest'architettura? in fondo dalla precedente generazione all'attuale si è "solo" raddoppiata la potenza elaborativa, ma qui si parla di quadruplicare, fattibile?Per R700 si parla di "mini-core", percui i 2TF possono anche esser solo un'indiscrezione nata dal calcolo 1 mini-core = 500GF; 4 mini-core = 2TF , che ovviamente per ora è buona solo sulla carta...

gianni1879
25-11-2007, 12:07
su fudzilla si dice anche che dovrebbe avere un potenza complessiva di 2Tflops. òa 8800ultra in super oc nn arriva nemmeno a 500Gflops, se fosse vero con la prossima generazione si vedrebbero delle schede che sono quasi 4 volte più potenti di tutte le attuali!!!!

io su fudzilla non ci metterei le mani sul fuoco, il problema che non ci sono altre news da siti più autorevoli, quindi aspettiamo notizie più certe oppure divertiamoci a fantasticare un pò che male non fa. :D

MiKeLezZ
25-11-2007, 23:49
io su fudzilla non ci metterei le mani sul fuoco, il problema che non ci sono altre news da siti più autorevoli, quindi aspettiamo notizie più certe oppure divertiamoci a fantasticare un pò che male non fa. :DNeppure io ci metterei la mano sul fuoco... però ragazzi, è innegabile che fudzilla ultimamente ne abbia prese parecchie.
A cominciare da quel R680 che era il nome di una scheda e non di un chip, che era la nuova denominazione di R670, e che era formato da due chip RV670... tutto questo in anteprima (credo) mondiale.
Insomma, diamo a Cesare quel che è di Cesare...

halduemilauno
26-11-2007, 07:27
Neppure io ci metterei la mano sul fuoco... però ragazzi, è innegabile che fudzilla ultimamente ne abbia prese parecchie.
A cominciare da quel R680 che era il nome di una scheda e non di un chip, che era la nuova denominazione di R670, e che era formato da due chip RV670... tutto questo in anteprima (credo) mondiale.
Insomma, diamo a Cesare quel che è di Cesare...

ancor prima quando disse in anteprima assoluta e come dichiarazione ufficiale da parte di amd che l'r600 non era competitivo con la 8800gtx.
;)


ps la tua signature è un poema. un poema di verità.
;)

gianni1879
26-11-2007, 07:37
Neppure io ci metterei la mano sul fuoco... però ragazzi, è innegabile che fudzilla ultimamente ne abbia prese parecchie.
A cominciare da quel R680 che era il nome di una scheda e non di un chip, che era la nuova denominazione di R670, e che era formato da due chip RV670... tutto questo in anteprima (credo) mondiale.
Insomma, diamo a Cesare quel che è di Cesare...

vedremo allora non ci resta altro che sperare in questa cosa, che sembra almeno per adesso positiva :D

cmq la tua firma un pò da boyzFan ;)

Scrambler77
26-11-2007, 09:44
Quelli di fudzilla sono proprio degli incompetenti! Hanno sempre ragione!! :asd:

bernh
26-11-2007, 14:46
x OmgKIIL

Le 8800GT non si trovano! Forse se si trovassero magari avresti ragione a dire che si portano via anche a 230 e non a 250.... ma non si trovano e la situazione non cambierà fino a Gennaio!

E non si tratta di 20€ ma di oltre 40€ visto che le HD3870 le trovi sotto i 200€!

Comunque per conto mio, valutando le prestaizoni e il prezzo, l'attuale scheda migliore in commercio è la HD3850 overclockata con presa HDMI nativa e con 512MB di quel partner ati di cui ora mi sfugge il nome(Mi pare Powercool o qualcosa del genere).

Marko91
26-11-2007, 14:51
Generalmente i team di lavoro sono due e lavorano in modo alterno, percui R700 sarà fatto da altri ragazzi, mentre quelli che han lavorato su R600 stanno ora progettando R800.
E poi è un discorso che deve esser fatto in due direzioni, come se l'è fatte ATI, se l'è fatte pure NVIDIA (e a quanto pare dalle prestazioni, anche in modo più efficace).
Per R700 si parla di "mini-core", percui i 2TF possono anche esser solo un'indiscrezione nata dal calcolo 1 mini-core = 500GF; 4 mini-core = 2TF , che ovviamente per ora è buona solo sulla carta...

Leggendo su Beyond3d e in giro, R700 potrebbe avere anche uno shader clock separato da quello della GPU, seguendo la strada scelta da Nvidia.
Si potrebbe fare anche qualche calcolo teorico.
2 Teraflops si possono ottenere con 1024 maad alla frequenza di 1 Ghz oppure 512 maad a 2 Ghz. Dividendo per 4 questo numero, troviamo 128 maad per core@2 Ghz su una superficie di 72sqmm e 300 milioni di transistor. Sono possibili? Direi di si, ad esempio R630 ha 120 maad , una superficie di 153mm²@65nm e 390 milioni di transistor. A 45nm potrebbe effettivamente occupare 72mm² e senza UVD e memory controller (probabilmente presenti nel solo core master) utilizzare solo 300 milioni di transistor.

Spitfire84
26-11-2007, 16:57
e se ti prendi 2 8800gt? :rolleyes:

Se ne prendi 2 spendi 70-80 euro in + rispetto ad ati per ritrovarti questa differenza prestazionale:
http://forums.vr-zone.com/showthread.php?t=207702
;)

halduemilauno
26-11-2007, 17:05
x OmgKIIL

Le 8800GT non si trovano! Forse se si trovassero magari avresti ragione a dire che si portano via anche a 230 e non a 250.... ma non si trovano e la situazione non cambierà fino a Gennaio!

E non si tratta di 20€ ma di oltre 40€ visto che le HD3870 le trovi sotto i 200€!

Comunque per conto mio, valutando le prestaizoni e il prezzo, l'attuale scheda migliore in commercio è la HD3850 overclockata con presa HDMI nativa e con 512MB di quel partner ati di cui ora mi sfugge il nome(Mi pare Powercool o qualcosa del genere).

veramente in fatto di disponibilità anche le 3870 non scherzano. ecco per esempio la scheda che hai citato(3850 512) si trova a 181€ ma con una 3870(che secondo te si trova a meno di 200€)chi se la compra???? ed è(secondo te)la migliore in commercio?
:boh:

bernh
26-11-2007, 19:30
Si esatto per conto mio è la migliore in commercio per rapporto prezzo prestazioni.

Ora ti posto 3 link... dimmi tu cosa sceglieresti?

HD3870 disponibile dal 4 Dicembre.... ho sbagliato è vero non si trova sotto i 200€ ma a 201€, almeno da questo sito, ma non è l'unico

http://mytech.eprice.it/default.aspx?sku=1421520

HD3850 disponibile dal 10 Dicembre 174€, non è quella che dicevo io è della Sapphire, ma è molto simile ha i 512MB ma nn ha l'HDMI nativa

http://mytech.eprice.it/default.aspx?sku=1421518

8800GT 512MB la versione base, quella al prezzo più basso che ho trovato su questo sito, 239€, prodotto NON disponibile

http://mytech.eprice.it/default.aspx?sku=1404345

Non so.... tu cosa scegli? Io continuo a scegliere la HD3850, ma obiettivamente potrei anche spendere 30€ in più per la HD3870 certo!!

O ne spendo 70 in più e mi prendo la 8800GT? Ah no non posso.... non è disponibile!

The_SaN
26-11-2007, 20:58
Se volete trovare le 3870 a meno di 190 Euro andate su trovaprezzi, cercate la 3850 e cercate sui siti con il prezzo piú basso.

In un negozio ad esempio vendono la 3850 256mb a 146Euro, la 3850 512mb a 159Euro e la 3870 a 183Euro.
Disponibile solo la prima, ma fino a settimana scorsa c' erano tutte...

PS: Mikelezz, hai la firma irregolare :D La 3870 consuma meno in idle, ovvero nel 90% del tempo :)
Sul resto mi trovi daccordo, ed era quello che dicevo anche io.

Comunque cosa c' entra tutto questo con r700? :confused:

Torniamo a parlare di questo, dai :)

MenageZero
27-11-2007, 17:36
x OmgKIIL

Le 8800GT non si trovano! Forse se si trovassero magari avresti ragione a dire che si portano via anche a 230 e non a 250.... ma non si trovano e la situazione non cambierà fino a Gennaio!

E non si tratta di 20€ ma di oltre 40€ visto che le HD3870 le trovi sotto i 200€!

Comunque per conto mio, valutando le prestaizoni e il prezzo, l'attuale scheda migliore in commercio è la HD3850 overclockata con presa HDMI nativa e con 512MB di quel partner ati di cui ora mi sfugge il nome(Mi pare Powercool o qualcosa del genere).

mah, magari beccando la giusta shceda con rv670 becchi il miglior rapporto prezzo/fps del momento (che niente non è, ma poi bisogna anche vedere le prestazioni assolute "minime" che l'acquirente va cercando), questo non lo so ... ma non mi pare cmq un chip in sé fortemente "appetibile":

sembra che questo rv670, nonostante abbia implementato le specifiche dx10.1 (che sarebbero anche una bella feature "in prospettiva"), non implementi le correzioni ai problemi hw con cui era nato r600 e che ad un certo punto ci si aspettavano, opinione della quale sembra essere anche Corsini:
http://www.hwupgrade.it/forum/showpost.php?p=19643973&postcount=5

anche alla luce di ciò, unitamenete al fatto che nemmeno si è rivelato un "missile" nella sua fascia, ed al fatto che cmq è molto probabile che ora che ci saranno engine che useranno funzioni specifiche(cioè non utilizzabili con gpu 4.0) dello shadermodel 4.1 saranno fuori anche le gpu dx10.1 della concorrenza (da appassionato di tecnologia spero che nv ci faccia vedere uno step architetturale almeno nella prima metà dell'anno prossimo, non vorrei che faccia il record di arrivare all'autunno 2008 ancora con l'attuale arch. :sofico:),

non mi pare quel mezzo capolavoro che ci si attendeva relativamente alla fascia medio alta né un chip molto interessante in generale, soprattutto per chi per es la s.video non la cambia spesso (cioè per es uno che se la tiene min. circa 1 anno)

inoltre alla fine delle rece delle hd3xxx, vedi che l'autore semplicemente consiglia la 8800gt rispetto alla hd3870 a meno che con i prezzi che uno trova nel momento di comprare non reputi eccessiva(aggettivo che poi ovviamnte ognuno deve quantificare soggettivamente per sé) la differenza necessaria per prendere la 8800gt; sottolineo che non è stato detto un concetto tipo "+/-, dato che quella che va di più costerà di più, sono prodotti sostanzialemente equivalenti" e forse ho cattiva memoria al riguardo ma non mi pare che hwupg si solito sbilanciarsi in tale modo in un verso o l'altro, quindi anche la conclusione di quella recensione mi pare piuttosto indicativa ...

edit: il tutto detto da uno che, in base prima ai rumors e poi alle notizie e specifiche ufficiose, nei mesi tra la presentazione di g80 e quella di r600, credeva(!= da sperava, nel senso che non faccio il tifo per una o l'altra) che a 'sto giro ati avrebbe bastonato come non mai una nv "rea" di non aver messo abbastanza "forza bruta"(nelle ipotesi dell'epoca) nel g80 e di essere un po' indietro nei processi produttivi ... :sofico:

...

ora apparte le disquisizioni su rv670, leggo in questo thread che r680 non esiste (nel senzo che non è un nuovo chip), notizia che mi ero perso ...
... mi chiedo ora: non è che per vedere la base architetturale attuale di ati con gli sperati "fix" ed in gardo di esprimere tutto il presunto potenziale, bisognerà aspettare direttamente il nuovo pezzo da novanta r700 ?(a meno che ovviamente r700 oltre ad essere multicore non implementi una base internamente totalmente diversa da r6xx, tipo come lo quest'ultimo da r5xx)
:wtf:

MiKeLezZ
02-12-2007, 10:11
Mal programmato non so... Sicuramente non è proprio fatto da dei geni della programmazione, visto che riducendo l'impatto grafico sembra molto simile a Far Cry, eppure le richieste hardware rimangono elevatissime, e non ci si schioda dai 30FPS (con saltuari stuttering). E qui Oblivion mi è subito saltato alla mente...Qua devo fare una correzione; ieri mi sono accorto, per caso, di alcuni miei problemi lato driver scheda video...
Insomma, risolti quelli ora sono davanti a tutto un'altro gioco e assolutamente spettacolare, altro che "grafica simile a Far Cry"! E tutto sommato alla risoluzione di 1280x720 ci riesco a giocare degnamente (23fps), a dettagli medium, con un H/W di 1,5 anni fa...