PDA

View Full Version : AMD Radeon HD 7000, spuntano le specifiche finali?


Redazione di Hardware Upg
06-09-2011, 09:32
Link alla notizia: http://www.hwupgrade.it/news/skvideo/amd-radeon-hd-7000-spuntano-le-specifiche-finali_38327.html

Spuntano in rete le specifiche dell'intera famiglia Radeon HD 7000, nome in codice Southern Islands. AMD sembra prepararsi in grande stile al lancio dei 28 nanometri

Click sul link per visualizzare la notizia.

boboviz
06-09-2011, 09:38
"Tutte le nuove GPU sfrutteranno l'architettura VLIW4, che va a migliorare l'esecuzione SIMD."

E no. La tabella mostra che solo le schede di fascia bassa utilizzerebbero tale tecnologia. Le altre farebbero affidamento alla nuova tecnologia GCN

AnonimoVeneziano
06-09-2011, 09:40
Tutte le nuove GPU sfrutteranno l'architettura VLIW4, che va a migliorare l'esecuzione SIMD. Le informazioni riportate, come abbiamo premesso, non sono ufficiali e porebbero pertanto subire modifiche prima dell'arrivo in commercio.



Ma proprio no ;)

Edgar83
06-09-2011, 09:48
Ne è passata di acqua sotto i ponti dai tempi della ati radeon 7000 :D

dav1deser
06-09-2011, 09:48
Le 79x0 useranno memorie XDR2? E' solo una supposizione o c'è qualche indizio a riguardo?

GByTe87
06-09-2011, 09:52
Ne è passata di acqua sotto i ponti dai tempi della ati radeon 7000 :D

In effetti in prima battuta mi ero perso l'HD, pensavo di essere nella zona vintage di HWUpgrade.

FroZen
06-09-2011, 09:52
Sfondata quota 2000 SP con un TDP inferiore ai 200W..........bella bestia.......

FroZen
06-09-2011, 09:53
Ehm certo, da prendere con le pinze ovviamente eheheheh

Pat77
06-09-2011, 09:55
Sfondata quota 2000 SP con un TDP inferiore ai 200W..........bella bestia.......

In pratica tutto si sposta in avanti, curioso di sapere se 7850 sia in grado o meno di competere e battere la mia 6950@900/1400, le frequenze di base imho sono eccezionali.

lucabeavis69
06-09-2011, 10:01
Mammamia, la 7970 si mangerà la GTX580 a colazione se le specifiche finali saranno queste.

predator87
06-09-2011, 10:09
memorie xdr? non sono quelle di ps3?

PhoEniX-VooDoo
06-09-2011, 10:10
"Tutte le nuove GPU sfrutteranno l'architettura VLIW4, che va a migliorare l'esecuzione SIMD."

E no. La tabella mostra che solo le schede di fascia bassa utilizzerebbero tale tecnologia. Le altre farebbero affidamento alla nuova tecnologia GCN

Ma proprio no ;)


una volta gli utenti leggevano le news/articoli di hwupgrade per imparare
ora tocca leggerli per far editare le castronerie, anche perchè parliamo sempre di roba nota da tempo nel forum/altri siti :asd:

go core business go

Taurus19-T-Rex2
06-09-2011, 10:12
Mammamia, la 7970 si mangerà la GTX580 a colazione se le specifiche finali saranno queste.


bhè è il minimo che ci si aspetta, la GTX 580 è da 1 anno sul mercato, dopo nvidia farà uscire la 680 e la storia infinita riprenderà il suo corso :sofico:

Lele:D
06-09-2011, 10:16
La mia Zotac AMP TI 560 necessità di cambi vero? :asd:

piv3z
06-09-2011, 10:17
Mammamia, la 7970 si mangerà la GTX580 a colazione se le specifiche finali saranno queste.

effettivamente nvidia rimarrá li ferma a guardare *sarcasm*

cmq si, belle schede... speriamo anche di prezzo :D

kirk0101
06-09-2011, 10:21
.....perchè al giorno d'oggi, a parte la parte affettiva dei fanboy, la reale differenza tra AMD e nVidia è che nVidia ha un 3D robusto, AMD no! e lo dico purtroppo da fanboy ATI

piererentolo
06-09-2011, 10:24
A me interessavano i dati della 7790, ve li siete scordati? :D

Capozz
06-09-2011, 10:24
Personalmente del 3D non ne sento assolutamente la mancanza, quantomeno non trovo che sia una feature fondamentale.

predator87
06-09-2011, 10:25
Personalmente del 3D non ne sento assolutamente la mancanza, quantomeno non trovo che sia una feature fondamentale.

quoto, fà solo partire prima gli occhi :asd:

boboviz
06-09-2011, 10:27
Sono curioso di vedere come se la cava questa nuova tecnologia GNC con il calcolo distribuito su Boinc....

ulk
06-09-2011, 10:30
Quindi se ho messo la mia 6950 passiva amaggior ragione potrò metterci la 7950 e maggari moddarla a 7970 come la mia 6950 che di fatto è una 7970?
Sicuri dei TDP, sarebbe utile una tabella di confronto con le controparti della vecchia serie e le percentuali di miglioramento specie nei migliramenti termici.

Marlon-83
06-09-2011, 10:31
quoto, fà solo partire prima gli occhi :asd:


:doh:

riporto
06-09-2011, 10:35
Ma una bella scheda di medio-alto livello half height mai? Almeno tolgo dal case questo

http://2.bp.blogspot.com/-fetWDFe04Bg/TVkiHoCkFuI/AAAAAAAAADI/D_IBjCqtSmU/s400/IMG_1669s.jpg

:asd:

kirk0101
06-09-2011, 10:40
Personalmente del 3D non ne sento assolutamente la mancanza, quantomeno non trovo che sia una feature fondamentale.

Parli di mancanza, ma lo hai mai provato?
Quale pensi sarà, se già non lo è, la più immediata nuova esperienza di gioco e/o simulazione? Il 3D o assorbire una manciata di watts in meno?

quoto, fà solo partire prima gli occhi :asd:

:muro:

rb1205
06-09-2011, 10:42
quoto, fà solo partire prima gli occhi :asd:

Maledetti pali del telegrafo, portano via le nuvole e ci fanno fare la siccità :D (cit. Verga)

Goofy Goober
06-09-2011, 10:43
dopo aver provato la stereoscopia con gli occhiali nvidia, ho capito che dopo 20 minuti mi cuoceva gli occhi a puntino e per di più ammazzava il framerate, ho compreso che è l'ultimo tipo di esperienza visiva che voglio avere. vade retro.

vediamo come saranno queste nuove schede e i loro effettivi consumi anche in oc

mircocatta
06-09-2011, 10:48
Parli di mancanza, ma lo hai mai provato?
Quale pensi sarà, se già non lo è, la più immediata nuova esperienza di gioco e/o simulazione? Il 3D o assorbire una manciata di watts in meno?



:muro:

perdonami ma finchè il 3d sarà legato ad occhialini che alterano i colori non vedo perchè dovrei pensare al 3d...

semmai, non capisco perchè non è stato ancora creato un driver o programma che permetta, tramite una banale webcam da 20€, di fare il 3d come funziona con il nintendo 3DS (cioè tramite il tracciamento del viso visto dalla webcam).. per i monitor da pc, dove chi lo utilizza è fisso davanti allo schermo, funzionerebbe (discorso diverso per una tv in sala)

se non sbaglio qualcuno ci era riuscito grazie al telecomando della wii

kirk0101
06-09-2011, 10:51
dopo aver provato la stereoscopia con gli occhiali nvidia, ho capito che dopo 20 minuti mi cuoceva gli occhi a puntino e per di più ammazzava il framerate, ho compreso che è l'ultimo tipo di esperienza visiva che voglio avere. vade retro.

vediamo come saranno queste nuove schede e i loro effettivi consumi anche in oc

Se vuoi un 3D serio devi avere obbligatoriamente un harware che lo supporti e che generi almeno 120fps su ogni render, se non si soddisfa questo valore allora si il 3D non è assolutamente da considerare.

Quando ho provato per la prima volta il 3D su tre monitor a render separato ad oltre 120 fps mi sono convinto che sarà assolutamente il punto di arrivo per il prossimo step di coinvolgimento ed esperienza di gioco. :)

Ciao

predator87
06-09-2011, 10:53
:doh:

edit..

:muro:

Maledetti pali del telegrafo, portano via le nuvole e ci fanno fare la siccità :D (cit. Verga)

Rispettiamo le opinioni altrui: io la penso così dopo averlo provato e l'ho espresso, liberissimi voi di pensarla diversamente. :rolleyes:

Goofy Goober
06-09-2011, 10:56
Se vuoi un 3D serio devi avere obbligatoriamente un harware che lo supporti e che generi almeno 120fps su ogni render, se non si soddisfa questo valore allora si il 3D non è assolutamente da considerare.

Quando ho provato per la prima volta il 3D su tre monitor a render separato ad oltre 120 fps mi sono convinto che sarà assolutamente il punto di arrivo per il prossimo step di coinvolgimento ed esperienza di gioco. :)

Ciao

per ora l'ho provato su 2 580.

a me non ha coinvolto per niente più di tanto, proprio perchè mi frega gli occhi in 20-30 minuti. poi devo riposarmi.
inoltre portando occhiali da miope non è proprio il massimo avere occhiali su occhiali (le lenti a contatto non le uso).

la stereoscopia per me rimane uno di quegli effetti da circo e nulla più :)

motoreasincrono
06-09-2011, 10:58
[quote=piv3z]effettivamente nvidia rimarrá li ferma a guardare *sarcasm*

cmq si, belle schede... speriamo anche di prezzo [\quote]


beh, se e' vero che usciranno con 2-3 mesi di ritardo per il diverso approccio al processo produttivo restera' a gardare eccome. on quester specifiche e tdp il primo trimentre 2012 e' troppo tardi per una risposta

motoreasincrono
06-09-2011, 10:58
effettivamente nvidia rimarrá li ferma a guardare *sarcasm*

cmq si, belle schede... speriamo anche di prezzo


beh, se e' vero che usciranno con 2-3 mesi di ritardo per il diverso approccio al processo produttivo restera' a gardare eccome. on quester specifiche e tdp il primo trimentre 2012 e' troppo tardi per una risposta

C++Ronaldo
06-09-2011, 11:00
semmai, non capisco perchè non è stato ancora creato un driver o programma che permetta, tramite una banale webcam da 20€, di fare il 3d come funziona con il nintendo 3DS (cioè tramite il tracciamento del viso visto dalla webcam).. per i monitor da pc, dove chi lo utilizza è fisso davanti allo schermo, funzionerebbe (discorso diverso per una tv in sala)


no, niente cam!!

la 3DS ha un monitor autostereoscopico senza occhialini sviluppato da sharp.
è sempre stereoscopia ma senza occhilini...per cui i tuoi occhi ricevono comunque immagini sfalsate...solo anzichè sulla lente dell'occhiale ci sono dei prismi che deviano all'occhio destro certe informazioni e al sinistro le complementari.

Anche il 3ds...stanca!! infatti vende meno del previsto :)

predator87
06-09-2011, 11:01
no, niente cam!!

la 3DS ha un monitor autostereoscopico senza occhialini sviluppato da sharp.
è sempre stereoscopia ma senza occhilini...per cui i tuoi occhi ricevono comunque immagini sfalsate...solo anzichè sulla lente dell'occhiale ci sono dei prismi che deviano all'occhio destro certe informazioni e al sinistro le complementari.

Anche il 3ds...stanca!! infatti vende meno del previsto :)

difetti ieri l'ho regalato alla mia ragazza a 179€ (e qualche giorno prima lo davano a 249 :asd:)

Aegon
06-09-2011, 11:21
Belle bestioline! Non appena entrano sul mercato rifaccio il PC con una 7870 e un bel Bulldozer! :sofico:

Riguardo al 3D: è vaporware, puro marketing, un'illusione inutile solo per vendere e illudere i ragazzini. Quando sarà realistico, senza il bisogno degli occhiali, quando non stancherà la vista e quando non brucerà i neuroni varrà la pena averlo. Poi ognuno pensa alla propria salute e al proprio portafogli... ma per ora, fuffa. MyPOV.

predator87
06-09-2011, 11:25
Belle bestioline! Non appena entrano sul mercato rifaccio il PC con una 7870 e un bel Bulldozer! :sofico:

Riguardo al 3D: è vaporware, puro marketing, un'illusione inutile solo per vendere e illudere i ragazzini. Quando sarà realistico, senza il bisogno degli occhiali, quando non stancherà la vista e quando non brucerà i neuroni varrà la pena averlo. Poi ognuno pensa alla propria salute e al proprio portafogli... ma per ora, fuffa. MyPOV.

son d'accordissimo con te.

calabar
06-09-2011, 11:38
Se i dati fossero veri (il condizionale è d'obbligo), spunterebbe una notizia interessante: GNC anche per la fascia media, mentre nella scorsa generazione vliw4 era relegata solo alla fascia alta.

Insomma, hanno preservato esclusivamente la possibilità di crossifire con trinity, adottando la nuova architettura nelle fascie superiori.

Una buona notizia per chi non punta alle 7900.

bertux
06-09-2011, 11:46
perdonami ma finchè il 3d sarà legato ad occhialini che alterano i colori non vedo perchè dovrei pensare al 3d...

semmai, non capisco perchè non è stato ancora creato un driver o programma che permetta, tramite una banale webcam da 20€, di fare il 3d come funziona con il nintendo 3DS (cioè tramite il tracciamento del viso visto dalla webcam).. per i monitor da pc, dove chi lo utilizza è fisso davanti allo schermo, funzionerebbe (discorso diverso per una tv in sala)

se non sbaglio qualcuno ci era riuscito grazie al telecomando della wii

il 3ds non funziona tramite tracciamento della webcam, solo una vecchia applicazione per il DS classico, tramite webcam, consentiva un 3d simulato ma di scarsa profondità.

Il 3ds ha uno schermo autostereoscopico con angoli di visuale limitatissimi.

Foglia Morta
06-09-2011, 11:57
Se i dati fossero veri (il condizionale è d'obbligo), spunterebbe una notizia interessante: GNC anche per la fascia media, mentre nella scorsa generazione vliw4 era relegata solo alla fascia alta.

Insomma, hanno preservato esclusivamente la possibilità di crossifire con trinity, adottando la nuova architettura nelle fascie superiori.

Una buona notizia per chi non punta alle 7900.

Non è indispensabile che le gpu appartengano alla stessa generazione per abilitare il crossfire: http://forum.beyond3d.com/showpost.php?p=1569541&postcount=594

quindi la prossima serie di gpu discrete potrebbe anche essere composta interamente da architettura GCN senza precludere il crossfire con le apu

Ghostfox
06-09-2011, 11:59
Scusatemi anticipatamente, so che forse a qualcuno questa mia domanda potrà dare fastidio a qualche Fanboy, ma non è mia assoluta intenzione alimentare un flame.. il mio quesito è semplice:
Non c'e traccia di nessuna nuova tecnologia in queste nuove AMD che sfrutti ciò che Nvidia abilita tramite Physx tramite qualche emulazione o tecnologia proprietaria?!
Mica per farla sempre lunga: a parte le differenze di immedesimazione/realismo "causate" dal physx già esistenti in tantissimi giochi, se vi guardate il video di metro2034 last light, senza vedere gli stracci sui vetri che vengono spostati dal treno in velocità, panni a coprire scatoloni, effetti di vetri ecc ecc.. sembra praticamente un'altro gioco..
Amd ha qualcosa a riguardo o ancora nada per non perdersi queste caratteristiche in game?

!fazz
06-09-2011, 12:18
Scusatemi anticipatamente, so che forse a qualcuno questa mia domanda potrà dare fastidio a qualche Fanboy, ma non è mia assoluta intenzione alimentare un flame.. il mio quesito è semplice:
Non c'e traccia di nessuna nuova tecnologia in queste nuove AMD che sfrutti ciò che Nvidia abilita tramite Physx tramite qualche emulazione o tecnologia proprietaria?!
Mica per farla sempre lunga: a parte le differenze di immedesimazione/realismo "causate" dal physx già esistenti in tantissimi giochi, se vi guardate il video di metro2034 last light, senza vedere gli stracci sui vetri che vengono spostati dal treno in velocità, panni a coprire scatoloni, effetti di vetri ecc ecc.. sembra praticamente un'altro gioco..
Amd ha qualcosa a riguardo o ancora nada per non perdersi queste caratteristiche in game?

guarda che la gestione della fisica in game non è certo un esclusiva di nvidia con le sue schede video, per la gestione della fisica ci sono svariati motori che gestiscono la fisica su cpu in maniera più efficente di physix in particolare havok

comunque l'argomento è ot e rischia di scatenare flame

calabar
06-09-2011, 12:21
@Foglia Morta
Ecco, il passaggio mi era sfuggito! Ottima cosa, in linea generale. Magari però al momento la resa tra architetture differenti non è altrettanto buona, oppure semplicemente per la fascia bassa non serve usare la nuova architettura.

Ghostfox
06-09-2011, 12:25
guarda che la gestione della fisica in game non è certo un esclusiva di nvidia con le sue schede video, per la gestione della fisica ci sono svariati motori che gestiscono la fisica su cpu in maniera più efficente di physix in particolare havok

comunque l'argomento è ot e rischia di scatenare flame

non sto parlando della fisica ma essenzialmente delle differenze fra PHYSX ON e OFF verificabili su molti giochi o sul tubo.. la gestione della fisica ok, ma sto semplicemente parlando di cio che viene visualizzato e cio che NON viene visualizzato fra l'ON e l'OFF... se il mio argomento è OT sono OT anche tutti quelli sul 3D, se stiamo parlando di nuove VGA AMD, una domanda sul Physx On/OFF o qualcosa di simile presente su queste nuove architetture e VGA AMD non mi sembra una domanda fuori luogo...:O
mi sembra soltanto uan domanda per raccogliere info a riguardo...

bertux
06-09-2011, 12:27
non sto parlando della fisica ma essenzialmente delle differenze fra PHYSX ON e OFF verificabili su molti giochi o sul tubo.. la gestione della fisica ok, ma sto semplicemente parlando di cio che viene visualizzato e cio che NON viene visualizzato fra l'ON e l'OFF... se il mio argomento è OT sono OT anche tutti quelli sul 3D, se stiamo parlando di nuove VGA AMD, una domanda sul Physx On/OFF presente non mi sembra una domanda fuori luogo...:O

da utente amd la tua domanda mi interessava e non mi sembrava per niente OT, anzi

bertux
06-09-2011, 12:28
guarda che la gestione della fisica in game non è certo un esclusiva di nvidia con le sue schede video, per la gestione della fisica ci sono svariati motori che gestiscono la fisica su cpu in maniera più efficente di physix in particolare havok

comunque l'argomento è ot e rischia di scatenare flame

scusa ma perchè è OT o____O, è molto inerente invece.

Goofy Goober
06-09-2011, 12:31
non sto parlando della fisica ma essenzialmente delle differenze fra PHYSX ON e OFF verificabili su molti giochi o sul tubo.. la gestione della fisica ok, ma sto semplicemente parlando di cio che viene visualizzato e cio che NON viene visualizzato fra l'ON e l'OFF... se il mio argomento è OT sono OT anche tutti quelli sul 3D, se stiamo parlando di nuove VGA AMD, una domanda sul Physx On/OFF presente non mi sembra una domanda fuori luogo...:O

guarda, nvidia ha comprato ageia e ha il physx sui giochi supportati, ATI o si "inventa" una cosa proprietaria simile (un atiysx :asd:) e la fa implementare in ALTRI giochi per avere effetti simili a physx, oppure nisba.
il punto è che non credo possibile che un gioco che supporta physx possa avere al contempo implementata un'altra tech per la fisica da parte di ATI che sia interscambiabile con gli stessi effetti di physx.
questo per il semplice fatto che physx stesso perderebbe tutto il suo significato di esistenza, visto che se entrambe hanno una tech proprietaria che fa praticamente la stessa cosa, allora si fa prima a far nascere uno standard per tutto e che si usi in tutti i giochi.

la cosa "peggiore" sarebbe se si iniziassero a vedere tot giochi con physx e tot giochi con atiysx e per attivare gli effetti bisogna o avere una nvidia o una amd/ati.
perlomeno adesso sai che avendo un nvidia godi di tutti i dettagli in tutti i giochi perchè al massimo ti capita physx come discriminante...

altrimenti la gente invece che comprarsi 2 schede per SLI o Cross, si compra 2 schede, una nvidia e un ati, per attivare tutti i dettagli grafici nei giochi :doh:

Ghostfox
06-09-2011, 12:31
scusa ma perchè è OT o____O, è molto inerente invece.

eh.. se mi aiuti a capire TU dove starebbe l'OT quando chiedi se una nuova VGA ha o meno alcune caratteristiche che a TE personalmente interessano... boh... :mbe:
:doh:

Ghostfox
06-09-2011, 12:35
guarda, nvidia ha comprato ageia e ha il physx sui giochi supportati, ATI o si "inventa" una cosa proprietaria simile (un atiysx :asd:) e la fa implementare in ALTRI giochi per avere effetti simili a physx, oppure nisba.
il punto è che non credo possibile che un gioco che supporta physx possa avere al contempo implementata un'altra tech per la fisica da parte di ATI che sia interscambiabile con gli stessi effetti di physx.
questo per il semplice fatto che physx stesso perderebbe tutto il suo significato di esistenza, visto che se entrambe hanno una tech proprietaria che fa praticamente la stessa cosa, allora si fa prima a far nascere uno standard per tutto e che si usi in tutti i giochi.

la cosa "peggiore" sarebbe se si iniziassero a vedere tot giochi con physx e tot giochi con atiysx e per attivare gli effetti bisogna o avere una nvidia o una amd/ati.
perlomeno adesso sai che avendo un nvidia godi di tutti i dettagli in tutti i giochi perchè al massimo ti capita physx come discriminante...

altrimenti la gente invece che comprarsi 2 schede per SLI o Cross, si compra 2 schede, una nvidia e un ati, per attivare tutti i dettagli grafici nei giochi :doh:

Chiaramente, non era neanche da descrivere e il tuo concetto non fa na piega.. ero già a conoscenza di questo.. chiaramente dopo essermi abituato a vedere il PHYSX ON, faccio molta fatica ad abbandonarlo.. ma non perchè in mano ho la bandierina verde, semplicemente perchè il tutto ( A ME ) risulta molto più realistico e da più immedesimazione.. esempi sul tubo fra ON e OFF ce ne sono a bizzeffe e sono praticamente lampanti su cosa manca,gli effetti mancanti,texture mancanti, ecc ecc.. NON cambia sicuramente la giocabilità, ma cambia la pura immedesimazione secondo il mio punto di vista...(chiaro che ora mi sentirò qualcuno che dirà: il physx ON/OFF non ha nessuna differenza o è una boiata.. amen..) a me interessava a titolo informativo, non mi interessa parlare di ciò che uno VEDE o non VEDE e se SERVE o non SERVE.. ;)

calabar
06-09-2011, 12:46
@Ghostfox
A mio parere il tema è OT, così come quello sul 3D. La news riguarda una voce sulle possibili specifiche tecniche della nuova generazione ati, mentre qui si stava andando verso una discussione generica sul 3D, ed ora se ne rischia una generica su physics.

In ogni caso, non c'è nulla che impedisca alle ati di far girare physics, se non il blocco da parte di nvidia. Non sono aggiornato sulla questione, ma fino a qualche tempo fa si trovano modi per farlo girare sulle ati, anche se non in modo efficientissimo. Più efficiente invece farlo girare su una nvidia secondaria bypassando il blocco dei driver nvidia.
Inoltre AMD non crede in queste soluzioni proprietarie e non intende supportarle.
La cosa migliore che possiamo augurarci è che physics non venga più utilizzato nei giochi in favore di soluzioni open, o venga reso open esso stesso.

Spero che questo possa chiudere il discorso, altrimenti sarebbe bene aprire un topic specifico (o usarne uno esistente, se presente) e linkare la discussione qui.

Goofy Goober
06-09-2011, 12:46
certamente, ho solo cercato di esporre quel che penso.
di mio non ho mai giocato un gioco con phsyx con una scheda ATI, ho sempre aspettato di cambiare e prendere una Nvidia, tanto fretta non ne ho (sto giocando adesso a Mirror's Edge).

per me è una mancanza rilevante quella di physx per ATI, ma dubito che implementeranno qualcosa di simile e proprietario in futuro.

l'unica cosa da vedere è la sopravvivenza di physx stesso, teoricamente se andasse a morire col tempo sarebbe solo un vantaggio per gli utenti, perchè o infilano gli stessi effetti nei giochi in altro modo, o li eliminano completamente sostituendoli con analoghe aggiunte grafiche.
p.s. mi pare che nvidia stessa avesse ammesso che i calcoli necessari agli effetti phsyx non erano nulla di speciale ma erano resi apposta "indigeribili" da tutto meno che le gpu nvidia.

bertux
06-09-2011, 12:51
eh.. se mi aiuti a capire TU dove starebbe l'OT quando chiedi se una nuova VGA ha o meno alcune caratteristiche che a TE personalmente interessano... boh... :mbe:
:doh:

scusa davo ragione a te, ho dimenticato il punto interrogativo.

La tua domanda mi interessa eccome

CrapaDiLegno
06-09-2011, 12:51
Un rapido conto di frequenze e n. di shaders però sembra portare ad aumento della potenza di calcolo per il 3D a "solo" il 70% in più circa della 7970 rispetto alla 6970.
Sempre che tutto funzioni perfettamente al primo giro e i driver siano già più che decenti...

Ghostfox
06-09-2011, 13:27
scusa davo ragione a te, ho dimenticato il punto interrogativo.

La tua domanda mi interessa eccome

ma infatti chiedevo a te aiuto per capirne il senso del mio essere apparentemente OT :) mica darti contro ;)

User111
06-09-2011, 13:32
New Zealand HD 7990 - Come ci ha oramai abituato da diverso tempo, anche per questa famiglia AMD intende sviluppare la propria soluzione top di gamma basandosi su due GPU montate sullo stesso PCB. La soluzione sarà sviluppata su due GPU Tahiti XT/Pro: il TDP dovrebbe risultare superiore ai 300W.

:eek: ma c'è bisogno di un alimentatore per la sola scheda video :asd:? come mai cosi tanto? ok che consumano, sinceramente più di 300w per la sola scheda video mi sembrano un tantino esagerati

WarDuck
06-09-2011, 13:38
:eek: ma c'è bisogno di un alimentatore per la sola scheda video :asd:? come mai cosi tanto? ok che consumano, sinceramente più di 300w per la sola scheda video mi sembrano un tantino esagerati

Beh se sono due chip singoli da 150W non ci vedo nulla di strano.

Attualmente come stanno messi a consumi le dual-gpu?

User111
06-09-2011, 13:40
Beh se sono due chip singoli da 150W non ci vedo nulla di strano.

Attualmente come stanno messi a consumi le dual-gpu?

no, mi sembrava tanto, visto che consuma come un pc medio, attualmente (o poco di meno)

Enrico picchi
06-09-2011, 13:49
voglio vedere i test prestazionali in vista di unpgrade pc massiccio

CrapaDiLegno
06-09-2011, 14:24
Visto che l'architettura è diversa questo conto non si può fare.
Vero, ma non credo che cambierà poi tanto per quanto riguarda il rendering 3D.

Forse nel GPGPU avrà dei vantaggi.

calabar
06-09-2011, 14:35
Cambia completamente l'approccio architetturale, non è come il passaggio da vliw5 a vliw4.
Difficile dire quindi in che termini potranno cambiare le prestazioni.

CrapaDiLegno
06-09-2011, 15:40
Facendo un altro rapido check, le schede di livello medio hanno lo stesso numero di shader di Cayman, ed essendo un numero di serie sotto (7870 vs 6970) dovrebbero avere le stesse prestazioni di quelle vecchie (se pensiamo alle 3870 vx 4770 o 4870 vs 5770).
O quasi, dato che AMD ci ha dimostrato che non è sempre vero nemmeno che numeri di serie uguali di una nuova famiglia abbia prestazioni maggiori (i.e. 5870 vs 6870).

Però con questi numeri che sono pubblicizzati credo che più o meno i calcoli sulle prestazioni siano quelli che ho detto, ovvero la nuova top gamma avrà prestazioni all'incirca il 70% superiori a Cayman consumando uguale.

CrapaDiLegno
06-09-2011, 15:43
Addirittura Cypress e Barts pur condividendo la stessa VLIW5 non sono confrontabili solo a numero di SP
In verità basta moltiplicare il numero di shader x la frequenza in queste architetture e ottieni numeri perfettamente comparabili alle prestazioni reali. L'unica cosa è che con la serie 6xxx hanno migliorato la tesselation e quindi SOLO in quelle funzioni si hanno dei vantaggi (peraltro nemmeno tanto marcati).

Lithium_2.0
06-09-2011, 15:45
Mica per farla sempre lunga: a parte le differenze di immedesimazione/realismo "causate" dal physx già esistenti in tantissimi giochi, se vi guardate il video di metro2034 last light, senza vedere gli stracci sui vetri che vengono spostati dal treno in velocità, panni a coprire scatoloni, effetti di vetri ecc ecc.. sembra praticamente un'altro gioco..

Non è colpa di AMD se THQ ha deciso di "collaborare" con nVidia inserendo degli effettini farlocchi e il 3D fruibili solo ai possessori di schede verdi...
Per dire, è solo un problema di scelte degli sviluppatori, se per esempio avessero voluto gestire gli stessi effetti con Havok e quindi vedere il gioco girare in maniera identica anche su sistemi AMD potevano farlo, ma chissà perchè non è così :)

Ther0
06-09-2011, 16:04
Mammamia, la 7970 si mangerà la GTX580 a colazione se le specifiche finali saranno queste.

Mi pare anche normale dopo 1 anno..

.....perchè al giorno d'oggi, a parte la parte affettiva dei fanboy, la reale differenza tra AMD e nVidia è che nVidia ha un 3D robusto, AMD no! e lo dico purtroppo da fanboy ATI

Guarda. Io posso anche capire di avere sfortuna nella configurazione che ho.. ma ti posso garantire che la reale differenza non è il 3D ma i Driver. Non c'è ma, non c'è se. Se i driver delle Ati sono una Fiat (che non c'è nulla di male) quelli delle nvidia sono una BMW. E non lo dico per flammare o che, so solo che per trovare una release stabile e che funzioni per il mio crossfire e con i giochi a cui gioco ho dovuto aspettare 6 mesi, di cui 4 mesi per liberarmi delle bsod causate dai crash dei driver. Ora vanno bene e son contento di aver risparmiato bei soldoni (in rapporto alle prestazioni\prezzo che c'erano allora) comprando un AMD, però il problema dei driver l'ho avuto come supponevo prima del mio acquisto. Ci tengo a non generare Flame. Ho solo riportato la mia esperienza in merito a questo particolare argomento.

effettivamente nvidia rimarrá li ferma a guardare *sarcasm*

cmq si, belle schede... speriamo anche di prezzo


beh, se e' vero che usciranno con 2-3 mesi di ritardo per il diverso approccio al processo produttivo restera' a gardare eccome. on quester specifiche e tdp il primo trimentre 2012 e' troppo tardi per una risposta

Beh.. doveva essere dardi anche per le GTX400 (indubbiamente sono arrivate tardi), però con l'avvento della GTX460 le nvidia si sono riprese parecchio. Idem con le GTX500. Uscire 3 mesi dopo non è un grosso problema, uscire 6/9 mesi dopo ben che lo è.

guarda che la gestione della fisica in game non è certo un esclusiva di nvidia con le sue schede video, per la gestione della fisica ci sono svariati motori che gestiscono la fisica su cpu in maniera più efficente di physix in particolare havok

comunque l'argomento è ot e rischia di scatenare flame

Non penso possa scatenare flame. Detto ciò ha ragione, tralasciando che physx sia proprietario, è indubbiamente uno dei migliori motori fisici che ho avuto modo di vedere. Certo, Havok non è male, ma siamo su un altro livello secondo me, proprio perché non ha dalla sua (com'è nvidia per physx) un azienda (in questo caso ovviamente l'ideale sarebbe AMD) che lo curi come si deve.

@Veradun : le reali migliorie in ambito tessellation sono avvenute con le HD6900.

!fazz
06-09-2011, 16:21
Mi pare anche normale dopo 1 anno..



Guarda. Io posso anche capire di avere sfortuna nella configurazione che ho.. ma ti posso garantire che la reale differenza non è il 3D ma i Driver. Non c'è ma, non c'è se. Se i driver delle Ati sono una Fiat (che non c'è nulla di male) quelli delle nvidia sono una BMW. E non lo dico per flammare o che, so solo che per trovare una release stabile e che funzioni per il mio crossfire e con i giochi a cui gioco ho dovuto aspettare 6 mesi, di cui 4 mesi per liberarmi delle bsod causate dai crash dei driver. Ora vanno bene e son contento di aver risparmiato bei soldoni (in rapporto alle prestazioni\prezzo che c'erano allora) comprando un AMD, però il problema dei driver l'ho avuto come supponevo prima del mio acquisto. Ci tengo a non generare Flame. Ho solo riportato la mia esperienza in merito a questo particolare argomento.



Beh.. doveva essere dardi anche per le GTX400 (indubbiamente sono arrivate tardi), però con l'avvento della GTX460 le nvidia si sono riprese parecchio. Idem con le GTX500. Uscire 3 mesi dopo non è un grosso problema, uscire 6/9 mesi dopo ben che lo è.



Non penso possa scatenare flame. Detto ciò ha ragione, tralasciando che physx sia proprietario, è indubbiamente uno dei migliori motori fisici che ho avuto modo di vedere. Certo, Havok non è male, ma siamo su un altro livello secondo me, proprio perché non ha dalla sua (com'è nvidia per physx) un azienda (in questo caso ovviamente l'ideale sarebbe AMD) che lo curi come si deve.

@Veradun : le reali migliorie in ambito tessellation sono avvenute con le HD6900.

non mi pare difficile da capire, questo thread parla delle serie 7 di ati e tutto ciò che riguarda nvidia è ot non mi pare difficile da capire

CrapaDiLegno
06-09-2011, 16:38
Parliamo della stessa cosa?
Non lo so. Che cosa vuoi dimostrare con quel grafico? Barts è più lento di Cypress perché il valore degli shader x la loro frequenza è inferiore a quelli di Cypress.
Poi ovviamente ci sono altre modifiche (differente rapporto di ROP e TMU e banda e ottimizzazioni alla tesselizzazione) per cui a seconda del tipo di lavoro Barts può lavorare meglio o peggio. Ma siamo più o meno in quel rapporto di prestazioni.

Ther0
06-09-2011, 16:45
In effetti il povero Havok è di una piccola azienda con poche pretese e bassissimo fatturato con uno share praticamente insignificante sul mercato e pochissime risorse da investirci sopra. Si chiama Intel Corporation (NASDAQ:INTC).

Intel è evidente che non lo cura, come motore fisico. E' lì il problema. Il fatto che intel sia un colosso non la rende particolarmente devota allo sviluppo di Havok (ne è la prova la qualità stessa di havok confrontato con physx.)

Detto ciò il succo era che AMD dovrebbe O trovare il modo di collaborare con la havok (quindi anche intel) in modo da ottimizzare il motore anche per farlo lavorare bene sulle GPU in modo tale che possano raggiungere i livelli di physx.. o di inglobare un motore grafico tipo Bullet dentro l'azienda..

Infine per tornare in Ot e non far arrabbiare !fazz, spero escano presto delle notizie ufficiali, oltre ai rumors, e che non facciano come per le hd6000 che praticamente le notizie ufficiali sono uscite 3 giorni prima del lancio..

Snickers
06-09-2011, 17:26
In pratica tutto si sposta in avanti, curioso di sapere se 7850 sia in grado o meno di competere e battere la mia 6950@900/1400, le frequenze di base imho sono eccezionali.
Confrontando le specifiche, le 7850/70 non sono altro che un semplice die-shrink con frequenze leggermente superiori e consumi inferiori (il conto delle unità logiche è rimasto del tutto invariato), da una parte potrebbe essere una buona notizia per amd: non penso che possano avere problemi di resa su quei chip e quindi gli sforzi si potrebbero concentrare sul far uscire in volumi la gamma medio-alta e alta in tempi "umani"... :read:

Blackcat73
06-09-2011, 18:18
Intel è evidente che non lo cura, come motore fisico. E' lì il problema. Il fatto che intel sia un colosso non la rende particolarmente devota allo sviluppo di Havok (ne è la prova la qualità stessa di havok confrontato con physx.)

Detto ciò il succo era che AMD dovrebbe O trovare il modo di collaborare con la havok (quindi anche intel) in modo da ottimizzare il motore anche per farlo lavorare bene sulle GPU in modo tale che possano raggiungere i livelli di physx.. o di inglobare un motore grafico tipo Bullet dentro l'azienda..

Infine per tornare in Ot e non far arrabbiare !fazz, spero escano presto delle notizie ufficiali, oltre ai rumors, e che non facciano come per le hd6000 che praticamente le notizie ufficiali sono uscite 3 giorni prima del lancio..

Io questo mostruoso vantaggio di physix su havok non lo ho ancora notato, l'unico gioco dove ricordo che la fisica conta veramente e influisce sulla giocabilità mi pare di ricordare che sfrutti havok... se poi ci si lascia influenzare da dei fogli e delle tende svolazzanti siamo messi male.

Capozz
06-09-2011, 18:53
Physix è una ciofeca semplicemente perchè non serve a niente, è pesante in modo indecente ed è implementato per avere solo qualche effettuccio di contorno (mi vengono in mente i vetri che si rompono in Mirror's Edge o i pezzi di mattonella in Mafia 2)
Nei giochi in cui la fisica conta ed influenza significativamente il gameplay non c'è ombra di Physix...Crysis, usa un motore proprietario, i vari Battlefield sono basati su Havoc, Red Facion Armageddon è basato su Havoc ecc...

Capozz
06-09-2011, 19:10
Non e' un problema tecnico, Physx non credo avrebbe problemi ad essere utilizzato allo stesso modo. Il problema e' di altro tipo: tu faresti un gioco che funziona solo con meta' dell'hardware in commercio? Nel momento in cui la fisica influenza attivamente il gameplay tagli automaticamente fuori Physx.

E' ovvio che la diffusione è legata al fatto che sia una tecnologia proprietaria.
Ciò non toglie che sia fatta anche male...per due effetti del cavolo serve una vga dedicata, anche abbastanza potente.

calabar
06-09-2011, 19:39
@Snickers
Secondo la tabella le 78xx hanno architettura GNC, quindi non si tratterebbe affatto di un die shrink.
Certo, riproporre i numeri della vecchia serie con una nuova architettura da un po' da pensare sul fatto che i dati riportati siano veritieri.

KoDen78
06-09-2011, 19:46
La redazione di HWupgrade colpisce ancora con notizie che che finiscono col punto interrogativo?

:D

CrapaDiLegno
06-09-2011, 20:25
HD6870:
1120SP*900MHz=1.008.000

HD5850:
1440SP*725MHz=1.044.000

Secondo il tuo metodo dovrebbe andare leggermente di piu' la 5850, invece va sensibilmente di piu' la 6870. Questo era querllo che volevo dimostrare e in effetti l'ho fatto.

parliamo di chip non tagliuzzati:

HD5870
1600SP * 850 = 1.360.000

HD6870:
1120SP*900MHz=1.008.000

Ecco che la differenza tra le due c'è tutta. Poi, come detto, dipende da come sono fatti i test. Se usi giochi con la tesselizzazione o una geometria esagerata le 68xx vanno meglio.
Se usi giochi dove conta la potenza di calcolo degli shader le 58xx vanno meglio.
Infatti se guardi i bench singolarmente vedi che la 6870 va sempre uno sputo in più della 5850 tranne in giochi come Metro2033 e LostPlanet dove va ben oltre anche alla 5870. Per il resto le due schede (6870 e 5850) si equivalgono.

Diciamo che le schede sono diversamente bilanciate tra potenza di shader e resto e quindi dipende da come è fatto il motore. Tuttavia la potenza tra le schede è più o meno quella.
Mi aspetto che la nuova generazione di AMD non sia particolarmente diversa in prestazioni per numero di shader (i miracoli si sà, li faceva uno solo ed è morto da tempo). Tutt'al più sarà ottimizzata per fare in modo di avere un numero maggiore di shader rispetto alla vecchia architettura.

Comunque vedremo quando usciranno, anche perché stiamo dimenticando di tenere conto dei driver che dovranno essere completamente riscritti per la nuova architettura.

Therinai
06-09-2011, 21:13
non mi pare difficile da capire, questo thread parla delle serie 7 di ati e tutto ciò che riguarda nvidia è ot non mi pare difficile da capire

Un utente ha chiesto se nelle nuove schede AMD, o perlomeno nel futuro in generale, sarà implementato qualcosa simile a phisx di nvidia... si parla di AMD, non di nvidia, non mi sembra difficile da capire. Qua l'unico ot sei tu rispondendo OT e FLAME di cui nessu'altro sta parlando lol!

Snickers
06-09-2011, 23:58
@Snickers
Secondo la tabella le 78xx hanno architettura GNC, quindi non si tratterebbe affatto di un die shrink.
Certo, riproporre i numeri della vecchia serie con una nuova architettura da un po' da pensare sul fatto che i dati riportati siano veritieri.
In teoria no, visto che la news dice vliw-4 per low e mainstream, e la serie 78xx è considerata mainstream, inoltre tempo fa girava una slide che era chiarrissima e indicava come la serie 78xx avrebbe sfruttato l'architettura vliw-4.
Ps al posto di stare a leggere cos'ha scritto il redattore, guarda più attentamente la slide e capirai che è come ho scritto io prima. :read:

RustyAngel
07-09-2011, 00:06
memorie xdr? non sono quelle di ps3?

Certo PS3 ha 256MB XDR DRAM a 3.2 GHz con banda passante di 12.8 GB/s. Le XDR2 sarebbero la loro evoluzione, anche se 2 GB di XDR2 non oso pensare alla potenza di calcolo che implicherebbero avendo velocità 8Gbps e banda passante a 256 GB/s... chissà il prezzo

qiplayer
07-09-2011, 03:55
Per quanto concerne physics e havoc, secondo me essendo intel in concorrenza con amd per quanto riguarda le cpu, non ha interesse a sviluppare un prodotto che arricchisca amd in un altro campo, quello delle gpu.
Se amd non facesse cpu sarebbe imho tutto un altro discorso.
Amd deve restare competitiva in almeno un campo,
Non credo nelle cpu siano messi bene,
Poi l'idea potrebbe essere di sfruttare il know how dell'uno per l'altro.

Poi...
Un utente ha scritto che ci son voluti 6 mesi per far funzionare la scheda come si deve, per via dei driver.
Hai una 6979?
Io ho una 6870 e non ho avuto problemi.
Peccato per questi ritardi, io per quanto riguarda le schede vorrei boicottare i produttori per il solo fatto di negarci la garanzia se la scheda viene aperta, anche solo per cambiare la pessima pasta termica.

calabar
07-09-2011, 09:32
@Snickers
Ovvio che se prendi dati provenienti da altre parti cambia tutto.
Ma qui si stanno commentando i dati di questa news. Non puoi prenderne per buoni alcuni e decidere che altri siano sbagliati.
La tabella iniziale parla chiaro, assegnando alle 7800 (e persino alla 7790) architettura GNC. E nelle ultime righe della news, parla di vliw4 solo per la fascia bassa (niente mainstream quindi).

Che poi questi dati possano essere speculazioni senza fondamento è un altro discorso.

@Therinai
Ti sei accorto che hai risposto ad un moderatore, vero? O_o

CrapaDiLegno
07-09-2011, 09:48
Siamo ben lontani dal 36% di differenza rappresentato da quei numeri, ma tanto meno. Cosa che continua a confermare che numero di sp * frequenza non funziona nemmeno per due GPU VLIW5.
Ben lontani non mi sembra.
Comunque hai sempre il diritto di sperare nei miracoli ;)

!fazz
07-09-2011, 09:55
Un utente ha chiesto se nelle nuove schede AMD, o perlomeno nel futuro in generale, sarà implementato qualcosa simile a phisx di nvidia... si parla di AMD, non di nvidia, non mi sembra difficile da capire. Qua l'unico ot sei tu rispondendo OT e FLAME di cui nessu'altro sta parlando lol!

e non mi pare difficile da capire che se la news parla delle ati serie 7 un confronto tra quale sia il miglior motore fisico non centra una mazza con la discussione
detto questo e ricordando che, come da regolamento, le spiegazioni ai mod si possono richiedere solo in via privata e soprattutto è vietato fare polemica sull'operato dei moderatori fanno 2 giorni di sospensione


e visto che non la volete proprio capire da questo momento qualsiasi post non strettamente in topic verrà sanzionato

RICKYL74
07-09-2011, 10:12
Interessante, se queste specifiche sono veritiere gran belle schedozze davvero!! credo che farò un pensierino sulla 7950 anche perchè la sorella maggiore costerà sicuramente uno sbotto.. vedremo.

CrapaDiLegno
07-09-2011, 10:19
La differenza media di prestazioni tra la serie 58xx e 68xx è del 10% a favore di quest'ultima.
Ora, se vogliamo tagliare il capello in due possiamo lavorare con i numeri con virgole (mobili). Ma se stiamo parlando di numeri a grandi linee e tenendo conto che i benchmark fanno vedere solo una parte delle prestazioni (hai visto come funzionano le 68xx con il GPGPU?) non vedo come questo 10% possa influire sul dire che a parità di numero di shader * frequenza le prestazioni rimangono pressoché invariate.
Aggiungendo il fatto che la nuova architettura va a sostituire le schede oggi sul mercato con lo stesso numero di shader, direi che a parte fluttuazioni che sono determinate dal bilanciamento geometria/texture/calcolo le prestazioni saranno più o meno le stesse.

Secondo un paio di calcoli basati su scenari plausibili che non tengono conto di miracoli, 2048 shader a 1GHz vs 1536 shader a 850Mhz equivale ad un aumento del 65% circa, che potrebbe diventare 70-75% in caso si ulteriori raffinamenti.
Se vogliamo credere ai miracoli allora sì, possiamo dire che le nuove schede di AMD andranno dal 200 al 300% più veloci delle attuali consumando la metà. E perché no, anche 1000%, tanto se dobbiamo avere un miracolo, perché non averlo fatto per bene?
Ah, speriamo nel vero miracolo dei driver pronti e funzionanti da subito, quantomeno.

aldogdl
07-09-2011, 10:45
secondo voi una 7670 in base alle caratteristiche dichiarate nn dovrebbe avere le stesse prestazioni o leggermente superiori di un attuale 5770 ? Consumano poco pure !!!

!fazz
07-09-2011, 10:49
secondo voi una 7670 in base alle caratteristiche dichiarate nn dovrebbe avere le stesse prestazioni o leggermente superiori di un attuale 5770 ? Consumano poco pure !!!

difficile da dire, è un'architettura nuova quindi è impossibile dire come saranno le prestazioni senza dei bench

roccia1234
07-09-2011, 10:59
Dai dati di targa sembrano delle belle bestie :oink: . E nonostante tutto hanno un TDP "ridotto"... non male.

Personalmente, missà che salterò anche questa generazione... con i giochi attuali la 4870 continua a tenere botta spendidamente, nonostante l'età e i soli 512mb di vram :) .

EDIT: memorie xdr2? ma sono quelle di rambus?

§l4§h
07-09-2011, 11:12
Peccato che tutti ci ammazziamo quando esce una news su una nuova generazione di schede video, quando in realtà a mio modesto parere,per uso gaming, sono totalmente inutili se non a riempire le tasche ai produttori visto le conversioni con grafica da PlayStation 2 che spacciano per versioni PC.

Giochi tipo Deus Ex: HR girerebbero al massimo anche con la 7570 Mobile a momenti.....

RICKYL74
07-09-2011, 11:18
Peccato che tutti ci ammazziamo quando esce una news su una nuova generazione di schede video, quando in realtà a mio modesto parere,per uso gaming, sono totalmente inutili se non a riempire le tasche ai produttori visto le conversioni con grafica da PlayStation 2 che spacciano per versioni PC.

Giochi tipo Deus Ex: HR girerebbero al massimo anche con la 7570 Mobile a momenti.....


beh! ma tu valuti soltanto dal lato delle prestazioni! le schede di nuova generazione apportano sempre novità sul fronte consumi/qualità/prestazioni ecc.. e poi non è vero che i giochi vengono convertiti tutti da PS2 a PC "fortunatamente" ci sono giochi che nascono per PC e dopo "forse" vanno su console.. e non ti dimenticare comunque che siamo alla generazione 3 della play, diciamo quasi alla 4 perchè ci manca poco..

§l4§h
07-09-2011, 11:48
beh! ma tu valuti soltanto dal lato delle prestazioni! le schede di nuova generazione apportano sempre novità sul fronte consumi/qualità/prestazioni ecc.. e poi non è vero che i giochi vengono convertiti tutti da PS2 a PC "fortunatamente" ci sono giochi che nascono per PC e dopo "forse" vanno su console.. e non ti dimenticare comunque che siamo alla generazione 3 della play, diciamo quasi alla 4 perchè ci manca poco..
Perchè tu pensi che un giocatore "comune" con una 4870 per esempio passa ad una nuova generazione di schede solo perchè consumano meno o ti fanno guadagnare 5 fps spendendo però chissà quanto? Io ne dubito, e penso che la maggior parte (o comunque tutti quelli che non hanno soldi a palate da spendere per schede top) si conservino una scheda per almeno 2 o 3 generazioni, se non di più e senza accusare mai necessità. Parlo di gaming sempre ovviamente.
e poi non è vero che i giochi vengono convertiti tutti da PS2 a PC "fortunatamente" ci sono giochi che nascono per PC e dopo "forse" vanno su console..
Ehm......esempi? Quanti nascono nativamente su PC da 5 anni a questa parte? Per adesso mi viene in mente StarCraft, qualche MMORPG, Civilization, addirittura Crytek ha rilasciato la patch per le texture Hi-Res e le DirectX 11 per Crysis 2 solo DOPO aver rilasciato già il gioco!!.....E quanti invece sono solo conversioni? Credo che il rapporto sia circa 1:15 a voler essere buoni.
e non ti dimenticare comunque che siamo alla generazione 3 della play, diciamo quasi alla 4 perchè ci manca poco..
Buon Dio, vivendo sulla terra, anche io so che siamo alla terza Play, ciò non toglie che con l'hardware a disposizione e la potenza di calcolo dei programmatori PC, a confronto la PS3 è un Nokia 3310.

Una HD7990 costerà quanto 2 PS3 e mezzo probabilmente. Se non a fare score sui bechmark, ditemi a che diavolo servirà....

RICKYL74
07-09-2011, 12:18
Perchè tu pensi che un giocatore "comune" con una 4870 per esempio passa ad una nuova generazione di schede solo perchè consumano meno o ti fanno guadagnare 5 fps spendendo però chissà quanto? Io ne dubito, e penso che la maggior parte (o comunque tutti quelli che non hanno soldi a palate da spendere per schede top) si conservino una scheda per almeno 2 o 3 generazioni, se non di più e senza accusare mai necessità. Parlo di gaming sempre ovviamente.

Ehm......esempi? Quanti nascono nativamente su PC da 5 anni a questa parte? Per adesso mi viene in mente StarCraft, qualche MMORPG, Civilization, addirittura Crytek ha rilasciato la patch per le texture Hi-Res e le DirectX 11 per Crysis 2 solo DOPO aver rilasciato già il gioco!!.....E quanti invece sono solo conversioni? Credo che il rapporto sia circa 1:15 a voler essere buoni.

Buon Dio, vivendo sulla terra, anche io so che siamo alla terza Play, ciò non toglie che con l'hardware a disposizione e la potenza di calcolo dei programmatori PC, a confronto la PS3 è un Nokia 3310.

Una HD7990 costerà quanto 2 PS3 e mezzo probabilmente. Se non a fare score sui bechmark, ditemi a che diavolo servirà....


primo:
qui nessuno sta dicendo che un giocatore DEVE PER FORZA cambiare scheda ogni 6 mesi o ad ogni nuova generazione, saranno problemi di chi compra o di chi decide l'upgrade?

secondo:
5fps lo stai dicendo tu! non mi risulta, le schede di nuova generazione non la vedono nemmeno una 4870 sotto ogni punto di vista, che tu poi riesca a giocare senza problemi con i titoli passati è ovvio, con quelli attuali bisogna vedere il tuo concetto di giocare bene.

terzo:
per quando riguarda i soldi, credo che fare i conti in tasca alla gente non sia molto corretto..

quarto:
la chiudo qui altrimenti si scatenano le solite discussioni inutili, ciao.

predator87
07-09-2011, 12:37
Certo PS3 ha 256MB XDR DRAM a 3.2 GHz con banda passante di 12.8 GB/s. Le XDR2 sarebbero la loro evoluzione, anche se 2 GB di XDR2 non oso pensare alla potenza di calcolo che implicherebbero avendo velocità 8Gbps e banda passante a 256 GB/s... chissà il prezzo

esatto, era quello cui stavo pensando..

§l4§h
07-09-2011, 13:48
primo:
qui nessuno sta dicendo che un giocatore DEVE PER FORZA cambiare scheda ogni 6 mesi o ad ogni nuova generazione, saranno problemi di chi compra o di chi decide l'upgrade?

secondo:
5fps lo stai dicendo tu! non mi risulta, le schede di nuova generazione non la vedono nemmeno una 4870 sotto ogni punto di vista, che tu poi riesca a giocare senza problemi con i titoli passati è ovvio, con quelli attuali bisogna vedere il tuo concetto di giocare bene.

terzo:
per quando riguarda i soldi, credo che fare i conti in tasca alla gente non sia molto corretto..

quarto:
la chiudo qui altrimenti si scatenano le solite discussioni inutili, ciao.
:mbe:

primo, secondo, terzo, frutta, dolce, caffè e ammazzacaffè:

era solo una mia opinione, non vedo perchè discuterla debba per forza essere inutile. La chiudo qui più che altro perchè vedo che ti stai inutilmente(questo si) agitando.

ciao
:ops:

aldogdl
07-09-2011, 15:32
Perchè tu pensi che un giocatore "comune" con una 4870 per esempio passa ad una nuova generazione di schede solo perchè consumano meno o ti fanno guadagnare 5 fps spendendo però chissà quanto? Io ne dubito, e penso che la maggior parte (o comunque tutti quelli che non hanno soldi a palate da spendere per schede top) si conservino una scheda per almeno 2 o 3 generazioni, se non di più e senza accusare mai necessità. Parlo di gaming sempre ovviamente.

Ehm......esempi? Quanti nascono nativamente su PC da 5 anni a questa parte? Per adesso mi viene in mente StarCraft, qualche MMORPG, Civilization, addirittura Crytek ha rilasciato la patch per le texture Hi-Res e le DirectX 11 per Crysis 2 solo DOPO aver rilasciato già il gioco!!.....E quanti invece sono solo conversioni? Credo che il rapporto sia circa 1:15 a voler essere buoni.

Buon Dio, vivendo sulla terra, anche io so che siamo alla terza Play, ciò non toglie che con l'hardware a disposizione e la potenza di calcolo dei programmatori PC, a confronto la PS3 è un Nokia 3310.

Una HD7990 costerà quanto 2 PS3 e mezzo probabilmente. Se non a fare score sui bechmark, ditemi a che diavolo servirà....

mi piace molto quello che scrivi e in massima parte condivito il tuo pensiero, anzi direi che lo condivido in pieno. Mi sembri una persona matura e che ha capito determinate cose....