PDA

View Full Version : Nuove immagini per le schede R600


Redazione di Hardware Upg
12-02-2007, 08:03
Link alla notizia: http://www.hwupgrade.it/news/skvideo/20100.html

Dimensioni imponenti per la scheda AMD basata su GPU R600, destinata ai partner OEM

Click sul link per visualizzare la notizia.

Devil!
12-02-2007, 08:10
240-270 Watt :eek:

Kintaro70
12-02-2007, 08:13
La circuiteria di alimentazione prevede un connettore a 6 pin, affiancato da un secondo a 8 pin: quest'ultimo è una novità nel mercato delle schede video e dovrebbe permettere di garantire la corretta alimentazione supplementare necessaria per il funzionamento di queste schede. Alcuni produttori hanno già mostrato in funzione alimentatori dotati di questo nuovo connettore, mentre per altri è presumibile che il Cebit di Hannover possa diventare lo scenario adatto per la presentazione.


Mi sembra che l'agiunta di un nuovo connettore sia dettata da questioni commerciali per far cambiare gli alimentatori, più che da questioni tecniche.
A livello di supporto in corrente, le sezioni dei fili che attualmente portano l'alimentazione supplementare a 6 pin, sono decisamente sovradimensionati.

Dr3amer
12-02-2007, 08:15
troppi watt porcamiseria. devono trovare un modo per diminuirli, non si puo' continuare su questa strada...

Lihid Zoil
12-02-2007, 08:16
ma è uno scherzo?

vincino
12-02-2007, 08:20
A me sembra un prototipo più che una skeda pronta per la commercializzazione!

BlackHawkk
12-02-2007, 08:22
Un phon da parrucchiere consuma di meno :D

Ollo
12-02-2007, 08:23
E' un incubo, ne sono convinto...

AndreaG.
12-02-2007, 08:24
o sono indietro abbestia nella realizzazione del prodotto finito... oppure cambieremo ali e case per questa scheda! :)

MasterGuru
12-02-2007, 08:25
cos'è quella schifezza?

ma possibile che, nell'era della nanotecnologia, sfornano caldaie del genere?

questa scheda me la vedo in un barebone o mini-itx :hehe:

The Predator
12-02-2007, 08:27
In effetti consuma troppi watt.Qualcuno sa quanto consumo G80?

Dexther
12-02-2007, 08:29
Ragazzi non è la VGA definitiva! E' un prototipo , come le 7800gtx che commercializzava DELL , più lunghe anche di questa ;)
Non vi allarmate :)

Per i consumi fin quando non c'è una versione definitiva non se ne può parlare :boh:

Catan
12-02-2007, 08:32
ragazzi ma xè non leggete...
quella è una scheda per il mercato OEM distinata a produttori come dell e alienware che fanno pc su misura.
non è la scheda definitiva che verrà commercializzata.
riguardo a chi invoca la diminuzione di consumo o di dimensione,
bèhcredo questo non sia possibile visto che la vga sta diventando la componente fondamentale del pc,visto che noi richiediamo sempre + potenza per giocare le schede devono salire in complessità e clock.
a meno che alla prima scheda che va il 20% di meno e consuma il 50% di meno sono sicuro che verrà stroncata da pubblico e utenza finale.

zanardi84
12-02-2007, 08:33
Non vorrei dire, ma la dimensione di questa scheda mi puzza quasi di fake!
E' possibile che montino un dissipatore così? Dual slot e dalla lunghezza così spropositata? Non sarebbe montabile su alcun case! E poi non c'è il rischio che agganciandola solo al pci express (oltre alla vite della staffa) si strappi tutta la parte all'estremità non agganciata? Quel sistema dissipante mi sembra pesantuccio. A quel punto era meglio un tri slot o una scultura imponente ma meno estesa di quella ventola agganciata.
E non mi suona ancora bene una cosa: quando comparirà il marchio AMD anche sulle schede video?

Sarà... intanto vorrei capire quando usciranno di preciso e vorrei vedere qualche benchmark.

Riamaniamo in attesa..

Drakogian
12-02-2007, 08:36
Ragazzi non è la VGA definitiva! E' un prototipo , come le 7800gtx che commercializzava DELL , più lunghe anche di questa ;)
Non vi allarmate :)

Per i consumi fin quando non c'è una versione definitiva non se ne può parlare
:boh:

Il trend sui consumi delle VGA purtroppo è questo.... e anche la versione definitva non se ne discosterà.

KinKlod
12-02-2007, 08:37
Va bene che la normale versione retail sarà più corta, ma in generale nel settore delle schede video si sta un po' esagerando con dimensioni e consumi (e costi), il tutto per poter mettere fuori una scheda che riesca a fare un paio di FPS in più di quella avversaria (e si parla magari di 150 FPS). Volendo rinunciando ad un po' di prestazioni riescono a fare schede video più umane in termini di consumi e dimensioni, vedi futura 8600 (che potrà avere migliori prestazioni se da quella GPU in futuro uscirà una versione con bus di memoria a 256 bit).

Edo15
12-02-2007, 08:39
ahahah e pensare che le 8800 fino a poco tempo fa sembravano astronavi!!! ahahaha adesso in confronto sembrano schedine di fascia bassa a giudicare solo dalle dimensioni...che assurdità....

Dexther
12-02-2007, 08:39
visto che noi richiediamo sempre + potenza per giocare le schede devono salire in complessità e clock.


in realtà non siamo noi a volerle ma programmatori sempre più fancazzisti che non sanno più cosa sia l'ottimizzazione di un gioco :D

dwfgerw
12-02-2007, 08:43
le dimensioni sono da prototipo ma i consumi no dato che il processo produttivo e le ram adottate saranno le stesse.... I forni di ATi continuano...

gianni1879
12-02-2007, 08:46
Non vorrei dire, ma la dimensione di questa scheda mi puzza quasi di fake!
E' possibile che montino un dissipatore così? Dual slot e dalla lunghezza così spropositata? Non sarebbe montabile su alcun case! E poi non c'è il rischio che agganciandola solo al pci express (oltre alla vite della staffa) si strappi tutta la parte all'estremità non agganciata? Quel sistema dissipante mi sembra pesantuccio. A quel punto era meglio un tri slot o una scultura imponente ma meno estesa di quella ventola agganciata.
E non mi suona ancora bene una cosa: quando comparirà il marchio AMD anche sulle schede video?

Sarà... intanto vorrei capire quando usciranno di preciso e vorrei vedere qualche benchmark.

Riamaniamo in attesa..
Questa versione è fatta per OEM:
Chiariamo cosa si intende con il termine OEM:
con tale termine vengono indicate delle aziende che utilizzano un insieme di prodotti di terze parti per poi commercializzare computer completi con il proprio marchio: Dell, Alienware, HP, gli esempi sono davvero tanti.

Infatti spesso chi compra un computer pre-assemblato ha l'esigenza di non riscontrare alcun tipo di problema e/o uno scorretto montaggio o un funzionamento problematico (non sarebbe molto gradito che la scheda penzoli all'interno del case, specie durante i trasporti dato le sollecitazioni che ricevono), sono particolari che un'azienda OEM non può permettersi.
Una lunghezza tale è fatta in modo da trovare all'interno dello chassis un sistema di aggancio sia posteriore che anteriore, in modo che la scheda sia fissata in maniera impeccabile e non causa problemi durante il trasporto e non possa essere estratta accidentalmente

gianni1879
12-02-2007, 08:47
le dimensioni sono da prototipo ma i consumi no dato che il processo produttivo e le ram adottate saranno le stesse.... I forni di ATi continuano...
beh G80 mica è messo meglio ;)

Bisognerà attendere nuove evoluzioni per la riduzione di consumi

goldorak
12-02-2007, 08:51
Deludente (non sul livello prestazionale) ma per il resto meglio che non mi pronuncio.
I processori vanno nella strada opposta, ottimizzazione, minor consumo, minor calore prodotto etc... sul versante grafico invece andiamo totalmente controcorrente.
Qui ce' veramente da aspettare l'ingresso della intel nel mercato delle schede video di fascia medio alta.
Forse con una maggiore concorrenza sia Ati che Nvidia si daranno una regolata per le prossime schede video.

crepesdesela
12-02-2007, 08:51
Ma perché non tenete conto degli utilizzi secondari? Sono un valore aggiunto non indifferente. Basta solo uno sforzo di fantasia (anche piccolo):

1) Asciugare gli scarponi da sci
2) Riscaldare lo yogurt uscito dal frigo per evitare congestioni
3) Tatuarsi il logo a caldo sulla schiena
4) Fare i popcorn
5) Far volare una mongolfiera
6) Farsi applaudire dall'enel
7) Stasare il WC con la POTENZA del VENTO
8) Giocarci a PONG

Zannawhite
12-02-2007, 08:52
Non vorrei dire, ma a mio parere dei tir dentro i case sono da boicottare.
Stiamo andando a rotoli con queste schede.

Ho una vocina nel cervello che mi dice sempre più forte PS3 or XBOX360, è veramente un periodo CUPO e BUIO nel settore delle VGA

safendi
12-02-2007, 09:00
sono skede video ke non tutti si possono permettere, quindi ki può penso ke non guardi + di tanto al consumo, xè non è ke incida molto

pg08x
12-02-2007, 09:01
Ho letto che da alcuni test recenti un gioco molto atteso come Crysis, con tutto al massimo andrebbe solo a 1024x768 su un sistema quad core con 4Gb ram e 2 8800 in sli. Ho letto anche che dovranno tagliare parecchio per il porting su XBox 360 (l'hardware dell'Xbox non sarebbe sufficiente).
Potrebbero farle tranquillamente delle skede dal consumo umano.
Fra 2 anni una scheda potente come questa R600 costerà e consumerà poco, solo che ci sarà qualche nuovo forno 4 volte + veloce a destare i nostri "appetiti"

hibone
12-02-2007, 09:03
ahahhaha
il processore lo hanno chiamato barcelona...
con la scheda video come puoi non giocarci alla "pelota basca" ?!?!?
auauuauauaua

crepesdesela
12-02-2007, 09:03
... 9) Far bollire il luppolo.

monsterman
12-02-2007, 09:08
non c'è problema volevo prendere una 8800 o una r600 ma risparmiando un paio di centoni ho preso una xbox completa con gears of war incluso. Schede grafiche forni, processori svalutati, directx10, windows vista+hardware spaziale ADDIO. Il pc lo uso solo per navigare e poc'altro ormai

ghiltanas
12-02-2007, 09:08
io nn capisco tutti questi commenti critici.
primo è un prototipo, due è + corta della 8800gtx e anche questa è la versione top di gamma, tre la 8800 gtx indica un consumo sotto carico di 400w questa 270 e inoltre dovrebbe avere frequenze molto + elevate.A criticare si è sempre in tempo quindi aspettiamo di vedere come vanno e come sono realmente

MesserWolf
12-02-2007, 09:10
looool stiamo arrivando a pc stile fast and furious .... che fanno le fiammate dallo scarico. :sofico:
240 W ? lool anche se fosse solo 120 W sarebbe troppo imo.

CS25
12-02-2007, 09:11
Ad una prima occhiata superficiale mi son sentito frullare nelle orecchie (mai termine fu piu' appropriato) l'NV30, alias GeforceFX 5800 Ultra alias "L'asciugacapelli".
Poi leggendo ho anche io capito si tratti di un modello allestito appositamente per i vari produttori che dovranno incastrarlo in qualche case bellissimo a vedersi ma ventilato quanto un cubo di piombo abbandonato nel mezzo del Sahara...

...insomma, un po' presto per giudicare :)

permaloso
12-02-2007, 09:15
in realtà non siamo noi a volerle ma programmatori sempre più fancazzisti che non sanno più cosa sia l'ottimizzazione di un gioco :D
quoto elogio e sottoscrivo... se penso a cosa riuscivano a fare con la potenza elaborativa di un 486dx devo valutare i programmatori attuali una banda di incapaci totali!!!

gianni1879
12-02-2007, 09:15
io nn capisco tutti questi commenti critici.
primo è un prototipo (non si tratta di prototipo ma vers. per OEM), due è + corta della 8800gtx e anche questa è la versione top di gamma, tre la 8800 gtx indica un consumo sotto carico di 400w questa 270 (?????) e inoltre dovrebbe avere frequenze molto + elevate.A criticare si è sempre in tempo quindi aspettiamo di vedere come vanno e come sono realmente

Il problema che nessuno legge le news come si deve e subito commenta....

la versione RETAIL dovrebbe essere lunga 9,5 pollici per la XT e XTX circa 24/25 cm mentre per gli altri modelli XL e GT, etc. di 21/22 cm,

safendi
12-02-2007, 09:16
io nn capisco tutti questi commenti critici.
primo è un prototipo, due è + corta della 8800gtx e anche questa è la versione top di gamma, tre la 8800 gtx indica un consumo sotto carico di 400w questa 270 e inoltre dovrebbe avere frequenze molto + elevate.A criticare si è sempre in tempo quindi aspettiamo di vedere come vanno e come sono realmente
guarda ke consuma 220w max

Zannawhite
12-02-2007, 09:17
non c'è problema volevo prendere una 8800 o una r600 ma risparmiando un paio di centoni ho preso una xbox completa con gears of war incluso. Schede grafiche forni, processori svalutati, directx10, windows vista+hardware spaziale ADDIO. Il pc lo uso solo per navigare e poc'altro ormaiCredo che la tendenza sarà sempre di più in questa direzione, a mio avviso il trend si è lanciato in una direzione con troppi modelli in pochi mesi rivoluzioni pesanti della tecnologia, insomma stanno facendo terreno bruciato intorno a loro.

Draco81
12-02-2007, 09:21
Un sistema con G80 consuma da 180 in idle a 280 in full load. (fonte anandtech (http://anandtech.com/video/showdoc.aspx?i=2873&p=7) )

Zannawhite
12-02-2007, 09:22
Scusate ma il consumo di una 8800GTX è attestato in full attorno ai 150Watt.

omega726
12-02-2007, 09:24
Dai raga, non è neanche troppo giusto il ragionamento sul consuma troppo....
Stiamo parlando di una scheda top ma veramente top di gamma....se la volete, chissene dei consumi...altrimenti vi comprate una 8600 o che altro...
Conoscete qualcuno che, potendo, va a comprarsi la ferrari e poi rompe le palle xchè fa 2 km con un litro?
Il ragionamento è il medesimo....

fukka75
12-02-2007, 09:27
la 8800 gtx indica un consumo sotto carico di 400w questa 270 e inoltre dovrebbe avere frequenze molto + elevate.A criticare si è sempre in tempo quindi aspettiamo di vedere come vanno e come sono realmente
:rolleyes: :rolleyes:
E questa dove l'hai sentita? 400W è il consumo di tutto il pc, e lo si raggiunge con una configurazione SLI tra l'altro
http://www.hwupgrade.it/articoli/skvideo/1644/geforce-8800-gtx-e-gts-overclocked_5.html ;)
A criticare si è sempre in tempo :mbe:

bonomork
12-02-2007, 09:28
sembra una fake

Dexther
12-02-2007, 09:33
io nn capisco tutti questi commenti critici.
primo è un prototipo, due è + corta della 8800gtx e anche questa è la versione top di gamma, tre la 8800 gtx indica un consumo sotto carico di 400w questa 270 e inoltre dovrebbe avere frequenze molto + elevate.A criticare si è sempre in tempo quindi aspettiamo di vedere come vanno e come sono realmente

l'ahi sparata grossa :D

400w è il consumo di tutto il PC :p

Dexther
12-02-2007, 09:34
la versione RETAIL dovrebbe essere lunga 9,5 pollici per la XT e XTX circa 24/25 cm mentre per gli altri modelli XL e GT, etc. di 21/22 cm,

E' da un pò che leggo questa cosa e spero con tutto il cuore che sia vera :D .

Beelzebub
12-02-2007, 09:35
...visto che noi richiediamo sempre + potenza per giocare le schede devono salire in complessità e clock.

Veramente, non siamo noi a chiedere più potenza, sono i programmatori a costringerci a cambiare scheda ogni 2 mesi sfornando giochi programmati sempre peggio... Lo stesso gioco, su una console come Xbox360 è nettamente più ottimizzato e garantisce un framerate molto più stabile rispetto a pc ultrapotenti... In alcuni casi, anche la 8800, che dovrebbe essere il top al momento, scende a livelli di fps preoccupanti...

Se continuano con questa politica votata a mungere le vacche, la vedo nera...

gianni1879
12-02-2007, 09:36
E' da un pò che leggo questa cosa e spero con tutto il cuore che sia vera :D .
dovrebbe essere proprio così :ave: :asd: :D

permaloso
12-02-2007, 09:39
dunque la 8800 consumerebbe per qualcuno 180 watt in idle per qualcun altro 280watt full load peer qualcun altro 150 watt per qualcun altro 220 watt max.... per qualcun altro un pc completo con lo SLI circa 400 watt (quindi la vga largamente meno di 150.. glieli vogliamo dare 150a procio HD lettorI e bischerate varie?)
risultato finale.. parlare di consumo di questa che deve ancora uscire è aria fritta,dimostrazione di presunzione e del fatto di essere di parte,visto che ogni fonte dichiara valori diversi per ciò che addirittura è già in commercio!

DjLode
12-02-2007, 09:40
sono i programmatori a costringerci a cambiare scheda ogni 2 mesi

Ecco chi erano quei due che sono entrati l'altro giorno in casa mia con una 8800 in mano... non capivo cosa volevano.
Ma per favore, nessuno ti obbliga a fare niente. Sopratutto a cambiare scheda ogni 2 mesi...

Beelzebub
12-02-2007, 09:43
Ecco chi erano quei due che sono entrati l'altro giorno in casa mia con una 8800 in mano... non capivo cosa volevano.
Ma per favore, nessuno ti obbliga a fare niente. Sopratutto a cambiare scheda ogni 2 mesi...
Prova a giocare a Rainbow Six Vegas, GRAW, Splinter Cell DA, Tomb Raider Legend Next Gen On, con qualcosa che sia meno potente di una x1900, e dimmi se il framerate è soddisfacente... :rolleyes:

E' chiaro che nessuno mi mette la pistola alla tempia, ma su PC il discorso è: "vuoi giocare? Spendi..." e non si parla di cifre irrisorie, almeno per me...

Se poi oltre alla scheda bisogna pensare anche all'ali, perchè magari non basta a soddisfare la voracità delle nuove schede video, mi sembra proprio che si stia passando il limite... :O

DjLode
12-02-2007, 09:45
Un gioco non mi fa di certo cambiare pc... non mi gira? Lo lascio dov'è.

ghiltanas
12-02-2007, 09:46
allora sul consumo magari mi sono sbagliato cmq questi valori sono indicativi e ci sta che li abbiano pompati. però sulle dimensioni avevo ragione che sono + piccole queste schede rispetto alle nvidia. infine il discorso sui programmatori è il seguente: l'ottimizzazione di un software costa quanto se nn di + del processo stesso di sviluppo e programmazione quindi xè una software house deve spendere il doppio quando l'ati e nvidia sfornano nuove schede ogni 15 minuti e molta gente le cambia con la stessa freq?

zopi
12-02-2007, 09:46
Ecco chi erano quei due che sono entrati l'altro giorno in casa mia con una 8800 in mano... non capivo cosa volevano.
Ma per favore, nessuno ti obbliga a fare niente. Sopratutto a cambiare scheda ogni 2 mesi...

Beh se la metti così, allora nessuno ci obbliga a giocare con i videogames... Fatto sta che una persona che vuole farlo gradirebbe comprare una scheda video pagando anche 400-500 euro e riuscirci a giocare a)decentemente b)per + di 6 mesi....
Non è il mio caso ma credo comunque che il mercato stia cercando di spremere troppo, la fascia di persone che possono permettersi un sistema top si assottiglia sempre di +....

Beelzebub
12-02-2007, 09:49
Un gioco non mi fa di certo cambiare pc... non mi gira? Lo lascio dov'è.
Veramente ne ho citati 4... ma sarebbero anche di più...

Con il tuo ragionamento, saremmo ancora tutti fermi a PacMan...

essereumano
12-02-2007, 09:52
Ho trovato il fornello da campeggio che cercavo!!!!

ghiltanas
12-02-2007, 09:53
io cmq sono del parere che lo sviluppo dei giochi sia importante ma nn deve essere sviluppata solo la grafica ma anche la storia e il complesso del gioco.io nn sono un'esperto dei giochi moderni ma credo che un gioco fantastico come mafia nn l'abbiano ancora eguagliato (parlo della storia e dell'accuratezza dei dettagli in proporzione alla data d'uscita) e inoltre nn era neache molto esigente dal punto di vista hw

DjLode
12-02-2007, 10:02
Veramente ne ho citati 4... ma sarebbero anche di più...
Con il tuo ragionamento, saremmo ancora tutti fermi a PacMan...

Fammi capire come il mio ragionamento ci farebbe rimanere a pacman... io non ho detto che schede video più potenti siano inutili, ho solo detto che nessuno ti obbliga a cambiare scheda ogni 2 mesi.
Ma si sa, leggere quello che uno scrive costa molta fatica :asd:
Dai, torniamo a parlare di R600 va e lasciamo i programmatori incapaci a fare le loro cose :rolleyes:

Superpelo
12-02-2007, 10:02
io non la posso comprare, perchè mi piace fare le lan e portare in giro il pc

Prurtoppo ho una lancia y, e quindi sulla mia macchina non ci sta e non posso portarla in giro.

Appena compro un camion magari la prendo.

CS25
12-02-2007, 10:03
Cambiare scheda ogni due mesi? A dire la verita' basta scegliere oculatamente il prodotto.
Si potevano coprire gli ultimi 3-4 anni con sole due schede : Radeon 9700 pro e Radeon X1900, a mio modesto parere :)

hackboyz
12-02-2007, 10:12
Prova a giocare a Rainbow Six Vegas, GRAW, Splinter Cell DA, Tomb Raider Legend Next Gen On, con qualcosa che sia meno potente di una x1900, e dimmi se il framerate è soddisfacente... :rolleyes:

E' chiaro che nessuno mi mette la pistola alla tempia, ma su PC il discorso è: "vuoi giocare? Spendi..." e non si parla di cifre irrisorie, almeno per me...

Se poi oltre alla scheda bisogna pensare anche all'ali, perchè magari non basta a soddisfare la voracità delle nuove schede video, mi sembra proprio che si stia passando il limite... :O
E' la prova che siamo nell'anno buio non tanto delle GPU quanto proprio dei giochi per PC. Speriamo in tempi migliori.

I giochi per PC non sono mai stati ottimizzati, forse solo Forsaken ai tempi di 3dfx :D però ora si è toccato il fondo, considerando anche la spesa per le schede di fascia medio alta. L'ho già detto e lo ripeto: vedere un RS Las Vegas (engine "quasi" next gen ma comunque dx9) che a momenti arranca su una 8800GTX (o comunque non ha un frame rate soddisfacente) è sconfortante. Aggiungiamoci che per i prossimi mesi praticamente non uscirà NULLA (apparte quella - molto probabile - delusione di STALKER e C&Q3 che comunque spero non richiederà chissà chè essendo un RTS).

Io AL MASSIMO e PER SFIZIO potrei prendere una scheda di fascia media dx10 (ATI o nVdia che sia) ma giusto perchè la mia attuale la vorrei usare per l'HTPC e per poter giocare un po' meglio a qualche gioco passato. Per il futuro si vedrà, ma per ora all'orizzonte non si vede la luce

Beelzebub
12-02-2007, 10:23
Fammi capire come il mio ragionamento ci farebbe rimanere a pacman... io non ho detto che schede video più potenti siano inutili, ho solo detto che nessuno ti obbliga a cambiare scheda ogni 2 mesi.
Ma si sa, leggere quello che uno scrive costa molta fatica :asd:
Dai, torniamo a parlare di R600 va e lasciamo i programmatori incapaci a fare le loro cose :rolleyes:
Il "2 mesi" è palesemente esemplificativo, per dire che bisogna aggiornare l'hardware in tempi sempre più brevi... basti pensare a chi ha preso non molto tempo fa una scheda serie x800, e oggi non riesce a far partire i giochi più recenti a causa del mancato supporto agli SM 3.0.

Io il tuo post l'ho letto eccome, sei tu che non vuoi capire il senso di quello che dico. Vuoi che te lo spieghi? E spieghiamo: se dici che un gioco non ti porta ad aggiornare il PC, e che se non ti gira lo lasci dov'è, mi spieghi cosa dovrebbe spingerti ad acquistare una scheda video di nuova generazione? :confused:

Quello che voglio dire è che il divario tra PC e Console in quanto a ottimizzazione e sfruttamento effettivo delle potenzialità hardware è troppo elevato... nel primo caso vengono assicurate prestazioni nettamente inferiori che nel secondo, a parità di potenza. Questo perchè su PC le risorse sono virtualmente illimitate: un gioco arranca? Cambio un componente... Su console no. I programmatori fanno forza su questo, e il meccanismo funziona: gioco nuovo=scheda nuova.

Poi è ovvio che c'è tutta una schiera di persone, tra cui il sottoscritto, che si accontenta di scendere a compromessi per non farsi abbindolare da queste logiche di mercato, ma negare che esistano e che muovano sia il mercato dei VG che quello dell'hardware significa avere il prosciutto sugli occhi.

P.s.: io ti ho risposto educatamente e pacatamente, quindi il tuo sarcasmo e la tua saccenza mi sembrano un pò fuori luogo...

Free Gordon
12-02-2007, 10:40
Il "2 mesi" è palesemente esemplificativo, per dire che bisogna aggiornare l'hardware in tempi sempre più brevi... basti pensare a chi ha preso non molto tempo fa una scheda serie x800, e oggi non riesce a far partire i giochi più recenti a causa del mancato supporto agli SM 3.0.


Scusami, ma questo è dovuto solamente all'imperizia dei programmatori (o, penso io :D , ad accordi di altro genere... :D ) più che all'impossibilità di far girare quei giochi con schede SM2.0

Fai conto che anche Crysis darà il supporto minimo a schede SM2.0... se SC: DA non lo fa è perchè, purtroppo, c'è qualcosa che non va nel sistema (come in molti altri sistemi :D ).

Il bello è che se facessero uscire giochi DAVVERO SM3.0, la maggioranza delle schede SM3 sul mercato (praticamente tutte le schede, tranne R580 e G80) non riuscirebbero a gestire i giochi in modo soddisfacente.. :rotfl:

Beelzebub
12-02-2007, 10:46
Scusami, ma questo è dovuto solamente all'imperizia dei programmatori (o, penso io :D , ad accordi di altro genere... :D ) più che all'impossibilità di far girare quei giochi con schede SM2.0

Fai conto che anche Crysis darà il supporto minimo a schede SM2.0... se SC: DA non lo fa è perchè, purtroppo, c'è qualcosa che non va nel sistema (come in molti altri sistemi :D ).

Il bello è che se facessero uscire giochi DAVVERO SM3.0, la maggioranza delle schede SM3 sul mercato (praticamente tutte le schede, tranne R580 e G80) non riuscirebbero a gestire i giochi in modo soddisfacente.. :rotfl:
E' quello che penso anch'io. ;)

@ndre1
12-02-2007, 10:50
Ora è chiaro tutto :stordita:
I tecnici di Nvidia e di Ati sono in gara :D chi ha più lungo :rotfl:

Sua Eminenza
12-02-2007, 10:51
Questa è la scheda per avere prestazioni senza compromessi e per fare un buon investimento nel futuro.

Ci sono persone (come me) che se ne fregano della silenziosità e del consumo di un pc... quando mi sono fatto 4-5 anni fa il mio mostro, me ne sono fregato totalmente di quanto consumava o di quanto faceva casino: il mostro doveva correre e basta.

Tutti quelli che si lamentano dell'enorme consumo di questa scheda forse nn si sono resi conto che l'R600 sarà la scheda più veloce della Ati/AMD e sarà rivolta ad un pubblico particolare.

Prestazioni da Fast & Furious non vanno a braccetto con consumi contenuti.
Sarebbe come pretendere che una Ferrari consumasse come la mia Aygo.
Assurdo.
Questa scheda è l'equivalente di una Ferrari e nn si può pretendere che scenda a compromessi.
E' giusto così.
Stop.

Rantolo
12-02-2007, 10:53
io con una vecchia radeon 9800pro 128Mb sono in difficoltà da un paio di anni abbondanti... titoli come HalfLife2, FEAR, Prey, Neverwinter Nights, Star Wars KOTOR2, MaxPayne 2 e altri che non ricordo + li ho dovuti giocare molto sacrificati (1024x768 con 2xAA e poco altro o addirittura a 800x600)....
se vuoi giocare bene devi pure spendere 'bene', altrimenti ci sono le console, che sono senz'altro un'ottima alternativa.
Io rimango fedele al pc e sto aspettando in settimana il mio nuovo scatolotto con 8800GTX (8800 pagata poco più di 500 beuri) sbav sbav..
poi me li rigioco tutti quei giochi e me li godo finalmente al top!

un bel ciao ciao con la manina alle r600 che mi hanno fatto attendere troppo e che alla fine non saranno nè meno care delle 8800 nè tanto superiori probabilmente

sempre imho

Zannawhite
12-02-2007, 10:55
Questa è la scheda per avere prestazioni senza compromessi e per fare un buon investimento nel futuro.

Ci sono persone (come me) che se ne fregano della silenziosità e del consumo di un pc... quando mi sono fatto 4-5 anni fa il mio mostro, me ne sono fregato totalmente di quanto consumava o di quanto faceva casino: il mostro doveva correre e basta.........Il tuo, a mio avviso è un commento decisamente superficiale.
Come puoi paragonare una configurazione di 4-5 anni fa, rispetto agli ultimi anni :doh:

baronz
12-02-2007, 10:59
che bello finalmente potrò spegnere la stufetta elettrica che mi riscalda il locale e usare questa al suo posto ! il problema sarà solo l'estate ! mi organizzo per la sauna ! :rolleyes:

maeco84
12-02-2007, 11:00
Scuate ma che c'è di strano? Quando ho preso la X1900XT ero consapevole del fatto che poteva consumare fino a 300W... per questo ho preso un alimentatore da 500W!!! Mi sembra che i consumi del G80 siano li...

bs82
12-02-2007, 11:03
Ma siete capaci di gurdare la foto e leggere sto cavolo di articolo? O dovete sempre spararle grosse, niubboni che non siete altro!
Si vede chiaramente che la scheda è più corta di un 8800gtx e che il cm in più sono per quel dissipatore, realizzato in modo tale da essere agganciato a SPECIALI case di alcuni costruttori in modo che la scheda non oscilli... e il consumo max è stimato a quei valore....ma anche la 8800gtx succhia al max 240 watt..quindi non vedo tutto sto stupore. E si parla di top di gamma, quindi se sein un hardcore gamer e vuoi il massimo, non credo che vai a vedere quanti watt ti consuma...

WarDuck
12-02-2007, 11:04
Francamente non vedo come ci si possa scandalizzare... è una scheda dalle alte prestazioni che offre una potenza di calcolo che fa impallidire 2-4 processori in parallelo, chi bada ai consumi prenderà una Radeon 9250 non vedo il problema...

Poi presumo che quello sia il consumo in Full Load...

Mparlav
12-02-2007, 11:07
I consumi delle schede attuali sono:

8800GTX - 170W
8800GTS - 130W
x1950XTX - 125W

I TDP dichiarati da Nvidia sono 177W per la GTX e 147W per la GTS.

A me stupisce soprattutto aver letto che la RV630 (fascia media), consumerà 125W la scheda con GDDR4 (cioè quanto una x1950XTX e quasi il doppio della x1950Pro), nonostante sia la prima scheda prodotta a 65nm.

Con 240W di x2900XTX retail, spero, a sto' punto, che le prestazioni siano altrettanto "stupefacenti" :-)

Sua Eminenza
12-02-2007, 11:21
Il tuo, a mio avviso è un commento decisamente superficiale.
Come puoi paragonare una configurazione di 4-5 anni fa, rispetto agli ultimi anni

La configurazione di 4-5 anni fa era per allora uno scandalo di consumo energetico per non parlare del casino che facevano (fanno) le ventole.
E' ovvio e scontato che adesso quei numeri facciano ridere, ma ritorna a 4 anni fa, i tempi della X800XT, e pensa ad allora lo stupore e la rabbia che suscitò quel Molex addizionale sulla scheda video sugli utenti.

Ed è uguale oggi, e sarà uguale per sempre. Vedrai che tra un paio di anni i numeri dell'R600 ci faranno ridere.

maeco84
12-02-2007, 11:22
Poi basta con sta storia che ogni due mesi bisogna cambiare scheda video... con una G80 o R600 top di gamma si va avanti per 3 4 anni... come lo è stato per la 6800 Ultra... altrimenti imparate a fare una cosa, diminuite la risoluzione o i dettagli... invece che giudicare i programmatori incompetenti!!! ;-)

Rantolo
12-02-2007, 11:34
Guardate dove la ventola è avvitata; è chiaro che tutta la parte ventola va oltre il limite della scheda. Toglietela e avrete una idea di quanto la scheda sarà lunga (e nelle schede che arriveranno nei negozi la ventolozza sarà posizionata sopra e non di lato).
Neanche tanto lunga tutto sommato no?

IlGranTrebeobia
12-02-2007, 11:36
Mah, programmatori incompetenti... Finchè solo per far partire il SO ci sarà bisogno di risorse pari se non maggiori di quelle che le console usano per fare andare tutto...
E' il trend del mercato del PC di questi anni "fuori strada", i programmatori si limitano a fare quello che gli chiedono nulla di più :D

Sta cheda è chiaramente brutta, aspetto quella vera :Prrr:

Free Gordon
12-02-2007, 11:40
I consumi delle schede attuali sono:
8800GTX - 170W
8800GTS - 130W
x1950XTX - 125W
I TDP dichiarati da Nvidia sono 177W per la GTX e 147W per la GTS.
A me stupisce soprattutto aver letto che la RV630 (fascia media), consumerà 125W la scheda con GDDR4 (cioè quanto una x1950XTX e quasi il doppio della x1950Pro), nonostante sia la prima scheda prodotta a 65nm.
Con 240W di x2900XTX retail, spero, a sto' punto, che le prestazioni siano altrettanto "stupefacenti" :-)



Quindi, in teoria, ci sarebbero 63W di differenza a favore della 8800GTX tra le due future top di gamma (R600 - G80)?

A meno che non esca un G81 con consumi più alti, dovuti a frequenze più alte e più ram ecc ecc...

jpjcssource
12-02-2007, 11:46
Quindi, in teoria, ci sarebbero 63W di differenza a favore della 8800GTX tra le due future top di gamma (R600 - G80)?

A meno che non esca un G81 con consumi più alti, dovuti a frequenze più alte e più ram ecc ecc...

Un eventuale G81 però dovrebbe essere a 65 nanometri quindi consumare solo poco di più.

Mparlav
12-02-2007, 12:11
Nvidia non farà uscire G81 (forse a 65nm ma non è detto), prima di giugno-luglio.
Per ora per "controbattere" le R600, Nvidia ha dato mano libera ai vari produttori per schede "overcloccate" di fabbrica, vedi XFX a 620Mhz e Asus a 630Mhz, oltre a giocarsela sui prezzi.
Tutte le 8800GTX hanno il limite intorno a 640 a voltaggio standard.

La G81 "consumerebbe" di meno se fosse allo stesso clock, ma se la mettono a 700Mhz o più, i consumi restano quelli.
Dipende da quanto la vogliono tirare.

Cmq, i consumi delle 8800 sono quelli: sfido chiunque a dimostrarmi il contrario ;-)

Io non ho "preconcetti" su una scheda da 240W: se va il 40% più della GTX, è giustificato.
Se fa' il 10-15%, no.

Se batte 2x 8800GTS 320Mb in SLI, che consumano e costano uguale, va' bene.

Altrimenti è uno "sforzo" tecnologico sprecato.

Stesso dicasi per una RV630 da 125W rapportata ad una x1950XTX.

MiKeLezZ
12-02-2007, 12:25
In effetti consuma troppi watt.Qualcuno sa quanto consumo G80?
G80 consuma rispetto a R600 esattamente 100W in meno.
Un gioco non mi fa di certo cambiare pc... non mi gira? Lo lascio dov'è.
Più che altro i giochi non scappano mica.
Vedi ad esempio chi si gioca ora FEAR con una 8800GTS mentre noi abbiamo dovuto togliere tutti i dettagli per farlo andare fluido.

loperloper
12-02-2007, 12:27
no per ridurre i consumi probabilmente bisognerà attendere intel e le sue soluzioni video a 32nm....

MiKeLezZ
12-02-2007, 12:27
Nvidia non farà uscire G81 (forse a 65nm ma non è detto), prima di giugno-luglio. Conta 6 mesi da Novembre, primi di Maggio.

Mparlav
12-02-2007, 12:39
Da 90nm a 65nm è necessario un totale ridisegno delle maschere (sono 680M di transistor, non dimentichiamolo).
Tra la 7800GTX e la 7900GTX sono passati 9 mesi (da 130nm a 90nm), ma quelle schede avevano meno della metà dei transistor.

Quindi, a meno che al lancio delle G80 non avessero già fatto il pinout di quelle a 65nm, ho forti dubbi che G81 esca prima dell'estate.
Tra l'altro a me sembra strano che Nvidia voglia fare la fascia media a 80nm a marzo e la fascia alta a 65nm solo 2 mesi dopo, ma chi può saperlo ;-)

Ligos
12-02-2007, 12:40
Ma l'avete vista la foto?
la scheda in se, non è molto lunga, è il complesso dissipatore che la fa sembrare enorme.

Dreadnought
12-02-2007, 12:45
240W?
Con quel dissy?

Secondo me sono troppi, in un case un po' spuzzo fonderebbe.

masterpol
12-02-2007, 12:59
è più grossa della 8800!!!!!!!!!!!

bonzuccio
12-02-2007, 13:04
C'è sicuramente qualcosa che non quadra,
se il top di gamma che ti garantisce che giocherai bene per 2 anni consuma 240W
significa che qui qualcuno non ha capito una mazza ed è tranquillo sul fatto che il mercato non lo punirà..
la fascia media per me è un must non perchè non giochi o perchè ho problemi di denaro ma proprio perchè non voglio mondezza nel mio case nè nel mio hard disk

icoborg
12-02-2007, 13:07
io con una vecchia radeon 9800pro 128Mb sono in difficoltà da un paio di anni abbondanti... titoli come HalfLife2, FEAR, Prey, Neverwinter Nights, Star Wars KOTOR2, MaxPayne 2 e altri che non ricordo + li ho dovuti giocare molto sacrificati (1024x768 con 2xAA e poco altro o addirittura a 800x600)....
se vuoi giocare bene devi pure spendere 'bene', altrimenti ci sono le console, che sono senz'altro un'ottima alternativa.
Io rimango fedele al pc e sto aspettando in settimana il mio nuovo scatolotto con 8800GTX (8800 pagata poco più di 500 beuri) sbav sbav..
poi me li rigioco tutti quei giochi e me li godo finalmente al top!

un bel ciao ciao con la manina alle r600 che mi hanno fatto attendere troppo e che alla fine non saranno nè meno care delle 8800 nè tanto superiori probabilmente

sempre imho

scusa ma dovevi avere qualke problema ....max payne 2 quanto cazzo pesera? ke cpu avevi?
e poi confrontare max payne 2 con prey e far cry...mi pare azzardato.

Ri-Prova
12-02-2007, 13:14
Indipendentemente dal fatto che questa scheda video sia l'equivalente di una Ferrari o meno, come si è detto, rimane da condannare un simile scempio energetico solo per fare andare dei giochi.

Neanche stessimo parlando di hardware rivolto ad applicazioni mediche, cazzo!

ErminioF
12-02-2007, 13:15
Questa scheda sta facendo la fine delle geforce5...le versione 5800 erano allucinanti, con le 5900 le avevano fatte diventare schede "decenti" :)

DjLode
12-02-2007, 13:17
Più che altro i giochi non scappano mica.
Vedi ad esempio chi si gioca ora FEAR con una 8800GTS mentre noi abbiamo dovuto togliere tutti i dettagli per farlo andare fluido.

Appunto. Ancora meglio :)
Un gioco bello lo è anche tra 6 mesi. Io mi sono giocato Far Cry con la 9700, entro fine anno ho intenzione di cambiare e di rigiocarlo con tutti annessi e connessi inseriti dopo. Così come di godermi HL2 e vari episodi a risoluzioni più alte di 1024x768 e con tutti attivi (leggi hdr).

Gsche
12-02-2007, 13:19
Ho giusto finito ieri di costruire una centrale atomica in giardino...

ErminioF
12-02-2007, 13:19
altrimenti imparate a fare una cosa, diminuite la risoluzione o i dettagli... invece che giudicare i programmatori incompetenti!!!
Non sono incompetenti, ma fanno parte di una catena ("alimentare" :asd: ), giochi e os sempre più pesanti ---> ricambio hw assicurato.
Altrimenti sai che bello, esce vista che gira perfettamente su un p3 e 128mb di ram, chi cambia più il pc? Migliaia di ingegneri progettisti a spasso :asd:

killer978
12-02-2007, 13:36
G80 consuma rispetto a R600 esattamente 100W in meno.

Più che altro i giochi non scappano mica.
Vedi ad esempio chi si gioca ora FEAR con una 8800GTS mentre noi abbiamo dovuto togliere tutti i dettagli per farlo andare fluido.

Bo io ho giocato Fear con una X1800Xl ed era fluidissimo!!!

x chi vuole risparmiare basta aspettare e prendersi il top al momento giusto :D io adesso ho preso una X1900XTX con pochi spiccioli e posso dire che non esiste gioco che la pieghi, e penso di stare tranquillo x altri 6/7mesi quando R600 costerà meno della metà :D

killer978
12-02-2007, 13:39
Indipendentemente dal fatto che questa scheda video sia l'equivalente di una Ferrari o meno, come si è detto, rimane da condannare un simile scempio energetico solo per fare andare dei giochi.

Neanche stessimo parlando di hardware rivolto ad applicazioni mediche, cazzo!

Chi ti dice di comprarla???? le ferrari arrivano a 330kmh ma qui in italia + di 130 non puoi andare eppure le vendono!! ;) per chi si lamenta può sempre ripiegare su una 8600 o quivalente ATI!!!

Parecchia gente usa il Mulo x navigare e fare altre cosuccie, il PC brutale :D lo usano solo quando serve, potresti fare così anche te ;) con 200€ oggi lo trovi un bel Mulo completo magari con un A643000+

Beelzebub
12-02-2007, 13:46
Poi basta con sta storia che ogni due mesi bisogna cambiare scheda video... con una G80 o R600 top di gamma si va avanti per 3 4 anni... come lo è stato per la 6800 Ultra... altrimenti imparate a fare una cosa, diminuite la risoluzione o i dettagli... invece che giudicare i programmatori incompetenti!!! ;-)
3 o 4 anni? :mbe: Non dico una scheda, ma neanche un intero sistema regge il passo per così tanto tempo... :rolleyes:

Beelzebub
12-02-2007, 13:47
Non sono incompetenti, ma fanno parte di una catena ("alimentare" :asd: ), giochi e os sempre più pesanti ---> ricambio hw assicurato.
Altrimenti sai che bello, esce vista che gira perfettamente su un p3 e 128mb di ram, chi cambia più il pc? Migliaia di ingegneri progettisti a spasso :asd:
Appunto: io ho ipotizzato l'incompetenza per voler essere in buona fede; ma è più probabile che sia come dici tu, e che la non ottimizzazione su PC sia più che intenzionale, il che mi fa incavolare ancora di più quanto sento e/o leggo che la colpa delle sempre maggiori richieste hardware è da imputare agli utenti...

Gurzo2007
12-02-2007, 14:01
per me è chiaramente un fake...infatti se ci fate caso se togliete la mega ventola laterale...la lunghezza della skeda è uguale alle normali sk dx9......

Lud von Pipper
12-02-2007, 14:10
Per me è chiaramente un fake...infatti se ci fate caso se togliete la mega ventola laterale...la lunghezza della skeda è uguale alle normali sk dx9......

Complimenti per la brillante deduzione... :rolleyes:
La prossima volta però leggi oltre a guardare le figure... :muro:

Il problema del software esiste: NWN2 mi gira a 4FPS su una 1950XT e R6Vegas gira a malapena a 1280x1024 e dettagli medi.
Stiamp parlando di schede veloci, quindi come è possibile che giochi DX9 le pieghino in questo modo?

Scarsissima ottimizzazione, dovuta alla necessità di porting a e soprattutto da consolle.

Per il consumo, R600 mont un Gb di Gddr4 ad altissima frequenza, quindi che pretendete?
La ram consuma anche lei.

waterball
12-02-2007, 14:21
se davvero brevettano quel cavo x il le periferiche pci-ex esterne
abbiamo una schheda multifunzione....fornello,asciugacapelli ed infine co eutilizzo secondario,scheda video

safendi
12-02-2007, 14:23
Bo io ho giocato Fear con una X1800Xl ed era fluidissimo!!!

x chi vuole risparmiare basta aspettare e prendersi il top al momento giusto :D io adesso ho preso una X1900XTX con pochi spiccioli e posso dire che non esiste gioco che la pieghi, e penso di stare tranquillo x altri 6/7mesi quando R600 costerà meno della metà :D
gioko ke non la pieghi sarà dura, prova rainbow six a 1280x1024 hdr e aa a palla e poi dimmi

Beelzebub
12-02-2007, 14:25
gioko ke non la pieghi sarà dura, prova rainbow six a 1280x1024 hdr e aa a palla e poi dimmi
Quotone. :O

MenageZero
12-02-2007, 14:26
:eek: i consumi delle gpu top iniziano a diventare veramente "mostruosi";
specie se si volesse pensare ad abbinarle con cpu pesantemente overclockate anziché cpu top di gamma, o ad una ipotetica config (con cpu "regolare") con 2 gpu e magari una terza (anche se diversa e meno esosa) per la fisica... inizia veramente a spuntare la necessità concreta di alimentatori altrettanto "mostruosi" ...

con questi valori prendi anche "solo," un crossfire di r600 con una cpu che almeno da almeno 100W di tdp, e anche un ottimo ali da 600W può non bastare per usare cpu e gpu in full load (anzi stando a valori nominali non basta proprio; e senza contare che per il consumo che paghi ci devi aggiungere pure quello dell'ali stesso :sofico:)

inoltre, per montare un r600 servirà per forza un nuovo ali per via del connettore 8pin o si potrà risolvere tramite adattatori come fu all'epoca delle prime schede video top pci-e (es gf6800) per il connettore da 6 pin ?

x ErminioF e Beelzebub:
relativamente al "catena alimentare" ( sarà vero che magari su alcune cose i produttori del settore informatico possono "marciarci", anche se l'ambito grafico sembra quello meno plausibile, imho)di cui si parlava poco sopra, per rimanere limitatamente all'esempio gpu/giochi e "pesantezza": è vero che c'è un loop di influenza reciproca , ma non ho capito se si volesse intendere che

ad un certo punto si dovrebbe arrestare lo sviluppo delle tecnologie relative all grafica, almeno finché non si trovi il modo(se mai ci sarà) di non aumentare i consumi e non si decida di bloccare pure i prezzi,

o che ad esempio gli stessi risultati che possiamo vedere nel 2007 erano magari ottenibili con un p2/p3 e una tnt/tnt2 (to', una gf1/2 a stare larghi) e non venivano prodotti solo per secondi fini

:wtf:

imho entrambe le eventualità suonano poco verosimili :boh:

safendi
12-02-2007, 14:28
Quotone. :O
non dico ke il mio sistema faccia fatica. anzi. ma non mi spara 100 fps ma siamo sui 60 medi e 40 minimi con pikki di 90. dubito ke l'x1900xtx abbia gli stessi result rendendo ingiocabile il tutto a tali risoluzioni e filtri

safendi
12-02-2007, 14:31
:eek: i consumi delle cpu top iniziano a diventare veramente "mostruosi";
specie se si volesse pensare ad abbinarle con cpu pesantemente overclockate anziché cpu top di gamma, o ad una ipotetica config (con cpu "regolare") con 2 gpu e magari una terza (anche se diversa e meno esosa) per la fisica... inizia veramente a spuntare la necessità concreta di alimentatori altrettanto "mostruosi" ...

con questi valori prendi anche "solo," un crossfire di r600 con una cpu che almeno da almeno 100W di tdp, e anche un ottimo ali da 600W può non bastare per usare cpu e gpu in full load (anzi stando a valori nominali non basta proprio; e senza contare che per il consumo che paghi ci devi aggiungere pure quello dell'ali stesso :sofico:)

inoltre, per montare un r600 servirà per forza un nuovo ali per via del connettore 8pin o si potrà risolvere tramite adattatori come fu all'epoca delle prime schede video top pci-e (es gf6800) per il connettore da 6 pin ?

x ErminioF e Beelzebub:
relativamente al "catena alimentare" ( sarà vero che magari su alcune cose i produttori del settore informatico possono "marciarci", anche se l'ambito grafico sembra quello meno plausibile, imho)di cui si parlava poco sopra, per rimanere limitatamente all'esempio gpu/giochi e "pesantezza": è vero che c'è un loop di influenza reciproca , ma non ho capito se si volesse intendere che
ad un certo punto si dovrebbe arrestare lo sviluppo delle tecnologie relative all grafica, almeno finché non si trovi il modo(se mai ci sarà) di non aumentare i consumi e non si decida di bloccare pure i prezzi,

o che ad esempio gli stessi risultati che possiamo vedere nel 2007 erano magari ottenibili con un p2/p3 e una tnt/tnt2 (to', una gf1/2 a stare larghi) e non venivano prodotti solo per secondi fini

:wtf:

imho entrambe le eventualità suonano poco verosimili :boh:
anke l'8800 è stata progettata x un 8 pin, ma x non fare cambiare ali nvidia ha cambiato l'attacco da 8 pin a 6 pin, infatti si vedono 2 contatti non utilizzati

Beelzebub
12-02-2007, 14:33
x ErminioF e Beelzebub:
relativamente al "catena alimentare" ( sarà vero che magari su alcune cose i produttori del settore informatico possono "marciarci", anche se l'ambito grafico sembra quello meno plausibile, imho)di cui si parlava poco sopra, per rimanere limitatamente all'esempio gpu/giochi e "pesantezza": è vero che c'è un loop di influenza reciproca , ma non ho capito se si volesse intendere che
ad un certo punto si dovrebbe arrestare lo sviluppo delle tecnologie relative all grafica, almeno finché non si trovi il modo(se mai ci sarà) di non aumentare i consumi e non si decida di bloccare pure i prezzi,

o che ad esempio gli stessi risultati che possiamo vedere nel 2007 erano magari ottenibili con un p2/p3 e una tnt/tnt2 (to', una gf1/2 a stare larghi) e non venivano prodotti solo per secondi fini

:wtf:

imho entrambe le eventualità suonano poco verosimili :boh:
Personalmente, niente di tutto questo: voglio dire solo che, così come i programmatori si sbattono a sfruttare l'hardware come si deve con le console, garantendo un elevato standard di qualità/fluidità, potrebbero farlo anche con i PC, anzichè sfornare conversioni da console che richiedono una potenza esageratamente maggiore per far girare lo stesso gioco.

Tanto per fare un altro esempio: durante lo sviluppo di Oblivion, la Bethesda dovette eliminare una serie di effetti grafici che mettevano a dura prova la Xbox360, in virtù di un accordo siglato con MS, che imponeva un framerate MINIMO, per i giochi sviluppati per la sua piattaforma.

Vi risulta che sia mai successo su PC? A me no...

safendi
12-02-2007, 14:35
Personalmente, niente di tutto questo: voglio dire solo che, così come i programmatori si sbattono a sfruttare l'hardware come si deve con le console, garantendo un elevato standard di qualità/fluidità, potrebbero farlo anche con i PC, anzichè sfornare conversioni da console che richiedono una potenza esageratamente maggiore per far girare lo stesso gioco.

Tanto per fare un altro esempio: durante lo sviluppo di Oblivion, la Bethesda dovette eliminare una serie di effetti grafici che mettevano a dura prova la Xbox360, in virtù di un accordo siglato con MS, che imponeva un framerate MINIMO, per i giochi sviluppati per la sua piattaforma.

Vi risulta che sia mai successo su PC? A me no...
infatti con le dx10 dovrebbero riuscire meglio nelle conversioni pc-console

Beelzebub
12-02-2007, 14:36
infatti con le dx10 dovrebbero riuscire meglio nelle conversioni pc-console
Eh, speriamo! :sperem:

Altrimenti dovrebbero prendere tutti esempio da TombRaider Legend (che tu ben conosci... :D ) che da la possibilità di giocare in modalità "next gen" ON oppure OFF, a seconda del proprio hardware.

mjordan
12-02-2007, 14:38
in realtà non siamo noi a volerle ma programmatori sempre più fancazzisti che non sanno più cosa sia l'ottimizzazione di un gioco :D

Diciamo che per la maggiorparte sono gli utenti che non hanno mai saputo che si intende per ottimizzazione e usano costantemente questa parola a sproposito ;)

mjordan
12-02-2007, 14:40
le dimensioni sono da prototipo ma i consumi no dato che il processo produttivo e le ram adottate saranno le stesse.... I forni di ATi continuano...

Mi sai dire quanto consuma una Geforce 8800GTX?

jappilas
12-02-2007, 14:41
in realtà non siamo noi a volerle ma programmatori sempre più fancazzisti che non sanno più cosa sia l'ottimizzazione di un gioco :Dloro lo sanno, eccome ... il problema è che molti non percepiscono la difficoltà necessaria nel progettare e tarare un engine che debba funzionare in modo accettabile tanto su macchine di fascia alta attuali come di fascia medio - bassa di qualche anno fa...
Non vorrei dire, ma la dimensione di questa scheda mi puzza quasi di fake!
E' possibile che montino un dissipatore così? Dual slot e dalla lunghezza così spropositata? Non sarebbe montabile su alcun case! X tutti:
Lo spazio interno di un case ATX o micro ATX mid tower standard (*), è dimensionato per consentire l' alloggiamento di schede fino a 33 cm di lunghezza compresa la staffa terminale
Inoltre in ambito professionale la staffa terminale è praticamente richiesta anche qualora la scheda abbia un PCB più corto (in tal caso prevedendo anche una placca di estensione) - questo perchè la staffa deve poter concorrere o alla separazione delle zone volumetriche / termiche, o a sostenere il peso della scheda stessa

che poi le schede full length siano rare per via della miniaturizzazione e della riduzione dei componenti che porta a uan maggioranza di schede half length o poco più lunghe, è un discorso secondario, che non inficia i criteri di progettazione degli chassis - almeno di quelli fedeli allo standard
* quindi escludendo i barebone SFF e alcuni che sebbene in formato ATX, optano per il posizionamento di un rack da 3.5" (originariamente chimato "godzilla bay") nella zona delle schede di espansione, deviando dallo standard industriale
E non mi suona ancora bene una cosa: quando comparirà il marchio AMD anche sulle schede video? forse mai, amd ha annunciato di volerlo lasciare perchè il mercato vi era abituato
:eek: i consumi delle gpu top iniziano a diventare veramente "mostruosi"il fatto è che diventano mostruosi anche il numero di transistor che integrano e le frequenze a cui vengono fatti operare :p

mjordan
12-02-2007, 14:43
Tanto per fare un altro esempio: durante lo sviluppo di Oblivion, la Bethesda dovette eliminare una serie di effetti grafici che mettevano a dura prova la Xbox360, in virtù di un accordo siglato con MS, che imponeva un framerate MINIMO, per i giochi sviluppati per la sua piattaforma.

Vi risulta che sia mai successo su PC? A me no...

La Xbox360 ha una sola scheda grafica di una sola marca e di un solo modello da tenere in considerazione. Ti risulta a te che su PC la cosa sia fattibile e/o abbia senso?

Beelzebub
12-02-2007, 14:49
loro lo sanno, eccome ... il problema è che molti non percepiscono la difficoltà necessaria nel progettare e tarare un engine che debba funzionare in modo accettabile tanto su macchine di fascia alta attuali come di fascia medio - bassa di qualche anno fa...


Questo era vero per titoli di qualche tempo fa (D3, Quake4, HL2, Fear, Far Cry, ecc...) ma ultimamente, i giochi non solo faticano sui sistemi datati, ma anche su quelli recenti e di fascia alta, laddove una console permette di ottenere risultati decisamente migliori.

MenageZero
12-02-2007, 14:50
Personalmente, niente di tutto questo: voglio dire solo che, così come i programmatori si sbattono a sfruttare l'hardware come si deve con le console, garantendo un elevato standard di qualità/fluidità, potrebbero farlo anche con i PC, anzichè sfornare conversioni da console che richiedono una potenza esageratamente maggiore per far girare lo stesso gioco.

Tanto per fare un altro esempio: durante lo sviluppo di Oblivion, la Bethesda dovette eliminare una serie di effetti grafici che mettevano a dura prova la Xbox360, in virtù di un accordo siglato con MS, che imponeva un framerate MINIMO, per i giochi sviluppati per la sua piattaforma.

Vi risulta che sia mai successo su PC? A me no...

il motivo principale della (presunta) "mancanza di ottimizzazione" su pc è proprio che pc != da console, diversità che implica un smisurata varietà di configurazioni di cui i dev devono tenere debitamente conto conto.
pensa solo all elemento hw di primaria importanza per i vg, al gpu:
i code-path devono tenere conto di "millemila" modelli diversi e si deve fare un prodotto opportunamente "scalabile" su di essi, i quali non solo presentano spesso consistenti gap a livello di potenza di calcolo offerta, ma anche rilevanti differenze architetturali (anche quelle tra una serie ed un'altra, un vg quando esce funziona la max su poche gpu, ma funziona su tante e non solo dell'ultima serie).
mettici pure che oggi spesso un sw commerciale non esce "quando è pronto" ma "quando il markketing/menagement dice che deve uscire" ...

la situazione potrebbe migliorare con le dx10 in quanto un engine scritto con dx10 può girare solo su hw dx10 (dx9 e 10 sono proprio radicalmente differenti sia come api che implementazione delle stesse, back-end hw compreso), nonché mi sembra che ms abbia adottato una politica di certificazione per la conformità dx10 dei chip più rigida che in passato (in sostanza non sarebbero ammesse "variazioni sul tema" specifiche del produttore riguardo alle funzionalità hw esposte che devono anadare sotto la specifica dx10); quindi almeno per la gpu i dev, quando sviluppano in dx10, avranno una situazione molto + vicina a quella delle consoles

poi magari quando devi partire da codice originariamente scritto solo per una console, questo peggiora ulteriormente le cose, non lo so (ma azzarderi che ormai i giochi multipiattaforma sono previsti tali fin dall'inizio e che la progettazione e stesura del codice vera e proria venga fatta tenedone conto il + possibile) :boh:

Beelzebub
12-02-2007, 14:51
La Xbox360 ha una sola scheda grafica di una sola marca e di un solo modello da tenere in considerazione. Ti risulta a te che su PC la cosa sia fattibile e/o abbia senso?
Ti risulta che sia mai stato diverso su PC? Come mai la situazione è peggiorata nettamente negli ultimi 2 anni? E come mai, casualmente, proprio con l'uscita di schede dai prezzi esorbitanti, del PCI-Express, e di tutta una serie di innovazioni, vere o presunte, che spingono i consumatori ad aggiornare i propri PC?

hackaro75
12-02-2007, 14:56
ciao a tutti!

secondo me il problema più grosso è che i costruttori di chip video non vogliono pagare l'aggiornamento tecnologico oramai necessario ed abbandonare i processi produttivi a 90 ed 80 nm!!! :muro:

Col risultato che siamo noi utenti a pagarne lo scotto (è proprio il caso di dirlo! ;) ) in termini di calore e di bolletta! :doh:

Sono sicuro che se i vari radeon o G70, G80 fossero a 65nm o meglio ancora già a 45 nm scalderebbero la metà e consumerebbero di conseguenza! :mad:

ErminioF
12-02-2007, 15:06
x ErminioF e Beelzebub:
relativamente al "catena alimentare" ( sarà vero che magari su alcune cose i produttori del settore informatico possono "marciarci", anche se l'ambito grafico sembra quello meno plausibile, imho)di cui si parlava poco sopra, per rimanere limitatamente all'esempio gpu/giochi e "pesantezza": è vero che c'è un loop di influenza reciproca , ma non ho capito se si volesse intendere che

ad un certo punto si dovrebbe arrestare lo sviluppo delle tecnologie relative all grafica, almeno finché non si trovi il modo(se mai ci sarà) di non aumentare i consumi e non si decida di bloccare pure i prezzi,

o che ad esempio gli stessi risultati che possiamo vedere nel 2007 erano magari ottenibili con un p2/p3 e una tnt/tnt2 (to', una gf1/2 a stare larghi) e non venivano prodotti solo per secondi fini

Entrambe i discorsi, anche se li hai passati all'eccesso: è bello l'avanzamento tecnologico, ma porta sempre con sè una parte di potenza dispersa/non sfruttata quando si passa ad una nuova generazione hw.
Le console sono completamente diverse dai pc, però guarda in 2-3 anni di ottimizzazione dei tools di sviluppo cosa riescono a tirar fuori rispetto ai primi giochi.
Tutto questo discorso viene perso nel mondo pc, causa svariati motivi (il principale, il fatto che un gioco debba girare sia su single core che dual che una ventina di schede video tra amd/ati e nvidia).
Ovvio che alle sw non convenga finire un gioco e spendere 6 mesi/1 anno per ottimizzarlo al limite, anche perchè in quell'anno usciranno nuove schede/processori/più ram che vanificherebbero ogni ottimizzazione.
Il p3 + una tnt2 non raggiungerebbero gli attuali risultati, ma forse un 2500+ e una 9800pro... :)

jappilas
12-02-2007, 15:07
Questo era vero per titoli di qualche tempo fa (D3, Quake4, HL2, Fear, Far Cry, ecc...) ma ultimamente, i giochi non solo faticano sui sistemi datati, ma anche su quelli recenti e di fascia alta, laddove una console permette di ottenere risultati decisamente migliori.infatti, su una console si sa con precisione di quali e quante risorse dispone l' HW, e che paradigma strutturale impiegare per sfruttarle nei giochi che nascono in funzione di quell' HW (paradigma in determinati casi - ps3/cell in primis - concettualmente distanti dalla programmazione classica su PC)

riguardo i giochi su PC mi azzarderei a dire che nel prossimo futoro la situazione peggiorerà da questo punto di vista : questo perchè alla problematica di cui si parlava prima MenageZero, si sovrapporrà quella del porting (o sviluppo parallello) di titoli da console a PC, e quella dello sviluppo di titoli operabili su DX10 (che dal canto loro hanno anche l' interessante caratteristica di creare un set di funzionalità unificato eliminando i capability bit, proprio per limitare l' incidenza di funzionalità architetturali opzionali) o alternativamente sulle DX9 "legacy"

forse, migliorerà di nuovo quando superato il periodo di transizione, tutti i giochi nuovi avranno un code path unico basato su DX10 ...

mjordan
12-02-2007, 15:11
Non sono incompetenti, ma fanno parte di una catena ("alimentare" :asd: ), giochi e os sempre più pesanti ---> ricambio hw assicurato.
Altrimenti sai che bello, esce vista che gira perfettamente su un p3 e 128mb di ram, chi cambia più il pc? Migliaia di ingegneri progettisti a spasso :asd:

Diciamo che se si seguisse la tua filosofia, oggi useremmo ancora MS-DOS e i giochi in grafica CGA.

Dexther
12-02-2007, 15:11
Diciamo che per la maggiorparte sono gli utenti che non hanno mai saputo che si intende per ottimizzazione e usano costantemente questa parola a sproposito ;)

illuminami/ci :D.

mjordan
12-02-2007, 15:12
Indipendentemente dal fatto che questa scheda video sia l'equivalente di una Ferrari o meno, come si è detto, rimane da condannare un simile scempio energetico solo per fare andare dei giochi.

Neanche stessimo parlando di hardware rivolto ad applicazioni mediche, cazzo!

Visto che ci sei, vai anche nei forum di automobili a dire che il pianeta si sta surriscaldando, dobbiamo risparmiare energia e che le Ferrari sono macchine di merda perchè non fanno 25KM con un litro di benzina. ;)

P.S.: Come mai "ri-prova"? Che è successo a Prova?

MenageZero
12-02-2007, 15:12
ciao a tutti!

secondo me il problema più grosso è che i costruttori di chip video non vogliono pagare l'aggiornamento tecnologico oramai necessario ed abbandonare i processi produttivi a 90 ed 80 nm!!! :muro:

Col risultato che siamo noi utenti a pagarne lo scotto (è proprio il caso di dirlo! ;) ) in termini di calore e di bolletta! :doh:

Sono sicuro che se i vari radeon o G70, G80 fossero a 65nm o meglio ancora già a 45 nm scalderebbero la metà e consumerebbero di conseguenza! :mad:

sono d'accordo che gli attuali nm inizano ad essere veramente troppi per le nuove gpu dx10 e anche io (mesi fa) speravo per qusto "giro" in una maggiore miniaturizzazione, ma il problema è che sia ati che nv sono fabless e che attualmente né tsmc né umc sono pronte per i 65nm (le "fonderie" taiwanesi finora utilizzate dai due), nonché pare che ati non userà ancora le fab di amd per i primi r6xx (forse limiti di capacità produttiva, volendo fare sia cpu che gpu,non so); la più vicina (quindi anch'essa non ancora effettivamente pronta) a poter "stampare" (in volumi per la commercializzazione si intende) chp complessi a 45nm e maggiore capacità produttiva è intel (o forse anche ibm), ma se (almeno negli ultimi anni, per qual che ne so) nessuno le ha mai "chiesto" di produrre le proprie gpu (per questo periodo si poteva tranquillamente chiedere per i 65nm, quanto a tecnologia e possibilità produttive, penso), magari c'è pure un motivo ... :boh:

mjordan
12-02-2007, 15:16
illuminami/ci :D.

1) C. Toffalori, F. Corradini, S. Leonesi, S. Mancini, "Teoria della Computabilità e della Complessità", McGraw-Hill, Milano, 2005.

2) C. Papadimitriou, "Computational Complexity", Addison-Wesley, 1994.

Quando hai finito fammi un fischio... :asd:

stgww
12-02-2007, 15:18
Ma che è ??? :confused: L'hanno staccato a rocco e ce lo rifilano come scheda video???
Nel frattempo mi compro metà delle azioni di Enel, e ordino un gigantesco sistema di raffreddamento industriale da Candy :D

MenageZero
12-02-2007, 15:18
...
il fatto è che diventano mostruosi anche il numero di transistor che integrano e le frequenze a cui vengono fatti operare :p

lo so che è quello il motivo (con una miniaturizzazione che "non tiene il passo")... ma sono "mostruosi" lo stesso :D

(x mia fortuna gioco poco e se lo faccio mi accontento della mia 9600... fino a circa 1,5 anni fa avevo una tnt fan-less nel case del pc che uso maggiormente... :sofico: )

Dexther
12-02-2007, 15:24
1) C. Toffalori, F. Corradini, S. Leonesi, S. Mancini, "Teoria della Computabilità e della Complessità", McGraw-Hill, Milano, 2005.

2) C. Papadimitriou, "Computational Complexity", Addison-Wesley, 1994.

Quando hai finito fammi un fischio... :asd:

Illuminaci te, i signori Toffalori, Corradini e Papadimitriou non penso postino sul forum di hwup :D .

P.S. non sto scherzando eh, dato che ho un concetto appena vago ed assolutamente non tecnico di cosa voglia dire "ottimizzazione" , apprendere qualcosa di nuovo, seppur in maniera sommaria, non farebbe male :p.

Beelzebub
12-02-2007, 15:27
Illuminaci te, i signori Toffalori, Corradini e Papadimitriou non penso postino sul forum di hwup :D .

P.S. non sto scherzando eh, dato che ho un concetto appena vago di cosa voglia dire "ottimizzazione" , apprendere qualcosa di nuovo, seppur in amniera sommaria, non farebbe male :p.
Ma secondo te una mente illuminata di tale portata, si abbassa a spiegare a noi poveri ignoranti dei concetti così elementari? Oltrettutto, siamo anche così sfrontati da pretendere di parlare di schede video e videogiochi senza sapere come si costruisca una scheda video, ne come si programmi un videogioco...

baronz
12-02-2007, 15:27
Ho giusto finito ieri di costruire una centrale atomica in giardino...

:D :D :D posso collegarmi pure io ? :doh:

ErminioF
12-02-2007, 15:29
Diciamo che se si seguisse la tua filosofia, oggi useremmo ancora MS-DOS e i giochi in grafica CGA.
Vedo che hai capito tutto :rotfl: :asd:

Dexther
12-02-2007, 15:30
Ma secondo te una mente illuminata di tale portata, si abbassa a spiegare a noi poveri ignoranti dei concetti così elementari? Oltrettutto, siamo anche così sfrontati da pretendere di parlare di schede video e videogiochi senza sapere come si costruisca una scheda video, ne come si programmi un videogioco...

Guarda, io parto dal presupposto che se qualcuno ha qualcosa da insegnarmi , questo benvenga. Se poi si è espresso con un pò troppa saccenteria non mi importa troppo, dato che ,se è davvero in grado di spiegare qualcosa a qualcuno, non posso che essere contento di imparare. :)

Beelzebub
12-02-2007, 15:32
Guarda, io parto dal presupposto che se qualcuno ha qualcosa da insegnarmi , questo benvenga. Se poi si è espresso con un pò troppa saccenteria non mi importa troppo, dato che ,se è davvero in grado di spiegare qualcosa a qualcuno, non posso che essere contento di imparare. :)
Ecco, appunto... postare i titoli di due volumi, non mi sembra il massimo della spiegazione... :D

jappilas
12-02-2007, 15:33
(x mia fortuna gioco poco e se lo faccio mi accontento della mia 9600... fino a circa 1,5 anni fa avevo una tnt fan-less nel case del pc che uso maggiormente... :sofico: )idem :mano:
sapphire 9600SE, low profile, bus VRAM a 64 bit, fanless (diventata la mia preferita dopo la rottura delle gf4200 per bruciatura della ventola) :cool:
c'è poi la radeon x1800xt dell' altro pc, ma non conta perchè usata solo per far pratica di shader programming :stordita:

Gurzo2007
12-02-2007, 15:34
Lud von Pipper

certo ke avevo letto l'articolo....la mia afferamzione era rivolta al fatto ke a differenza della nvidia ke ha 700 e passa mb di ram gddr3..questa ke ha 1gb gddr4 ...si a lunga quanto una sk normale tipo x1950...

quinid o è una foto poco veritiera oppure i chip gddr4 sono molto pià piccoli dei gddr3....chiedo lumi al riguardo

mjordan
12-02-2007, 15:39
Illuminaci te, i signori Toffalori, Corradini e Papadimitriou non penso postino sul forum di hwup :D .

P.S. non sto scherzando eh, dato che ho un concetto appena vago ed assolutamente non tecnico di cosa voglia dire "ottimizzazione" , apprendere qualcosa di nuovo, seppur in maniera sommaria, non farebbe male :p.

Non è saccenteria, affatto. Solo che alcuni termini andrebbero usati con cognizione di causa, altrimenti diventa spammeria :stordita:

mjordan
12-02-2007, 15:40
Ecco, appunto... postare i titoli di due volumi, non mi sembra il massimo della spiegazione... :D

Hai ragione, ma pretendere di farsi spegare un concetto del genere senza avere conoscenze a priori e per di piu' in un thread di un forum (off topic, per altro) non mi sembra nemmeno il massimo dell'intelligenza ;)
Considerando poi che l'argomento non è un concetto ma una materia intera definita, dimmi che pretendi :D Se ti interessa veramente, hai i mezzi per partire. Cioè leggere i libri.

MenageZero
12-02-2007, 15:41
Entrambe i discorsi, anche se li hai passati all'eccesso: è bello l'avanzamento tecnologico, ma porta sempre con sè una parte di potenza dispersa/non sfruttata quando si passa ad una nuova generazione hw.
Le console sono completamente diverse dai pc, però guarda in 2-3 anni di ottimizzazione dei tools di sviluppo cosa riescono a tirar fuori rispetto ai primi giochi.
Tutto questo discorso viene perso nel mondo pc, causa svariati motivi (il principale, il fatto che un gioco debba girare sia su single core che dual che una ventina di schede video tra amd/ati e nvidia).
Ovvio che alle sw non convenga finire un gioco e spendere 6 mesi/1 anno per ottimizzarlo al limite, anche perchè in quell'anno usciranno nuove schede/processori/più ram che vanificherebbero ogni ottimizzazione.
Il p3 + una tnt2 non raggiungerebbero gli attuali risultati, ma forse un 2500+ e una 9800pro... :)

infatti in un post successivo a quello che mi hai quotato mi riferivo esattamente a qusto tipo di problematiche ... ;)

riguardo al 2500+ con 9800pro... non lavorando nel settore vg non posso ovviamente dirti si/no o stare a fare ipotesi con totale cognizione di causa... ma mi parrebbe un scommessa un po' azzardata... :sofico:

(le ultime console come risorse di calcolo offrono come o anche qalcosa meno dei migliori pc di ora, specie se prendi le ultime gpu dx10; anche se le consoles non fossero ora sfruttate al max neanche nei migliori titoli, essendo consoles, per esempio un goW non può essere troppo lontano dal limite di x360; sui migliori pc di ora abbiamo risultati vicini o cmq ne avremo di del tutto analoghi o migliori a breve, non appena per es escono titoli con u.e.3:
dato che l'hw dipsonibile su x360 o ps3 è proprio diverso e anche molto + performante di 2500+&9800pro, mi rimane difficile immaginare di tirar fuori i risultati ottenibili sui pc di ora, non lontani dai migliori nelle nuove consoles, dai suddetti athlon&radeon... :stordita: )

Dexther
12-02-2007, 15:48
Non è saccenteria, affatto. Solo che alcuni termini andrebbero usati con cognizione di causa, altrimenti diventa spammeria :stordita:


Ti spiego, per me è ottimizzato quel gioco che, confrontato con un altro gioco, a parità di poligoni da muovere, gira con più FPS sullo stesso hardware. Adesso, per quanto grossolana e insoddisfacente sia la mia idea di ottimizzazione, credo risponda perfettamente a ciò che pensano gli altri utenti che come me utilizzano questa parola impropriamente. Ultimamente si sono visti titoli che senza innovazioni grafiche di sorta , girano peggio di come non girino altri titoli graficamente a pari livello.
Secondo me questo trend rincorre quello delle VGA......dietro alla potenza di queste ultime si nascondono le lacune della progettazione di un videogame.

Non ho mai pensato di essere un esperto d'informatica (saper assemblare un PC non ha nulla a che vedere con l'informatica) ma da consumatore esprimo la mia opinione, con o senza cognizione di causa, su quello che il mercato mi propina.

P.S. non penso si sia OT :mc:

stgww
12-02-2007, 16:10
@ManageZero
Non sono daccordo sul fatto che GOW sia il limite della 360, basti pensare alla grafica dei giochi per ps2 appena usciti e quelli che fanno adesso e , se nache vero che certe conversioni hanno una grafica pietosa, i giochi per PS2 hanno fatti giganteschi passsi avanti.
Gurda la serie PoP

mjordan
12-02-2007, 16:13
Ti spiego, per me è ottimizzato quel gioco che, confrontato con un altro gioco, a parità di poligoni da muovere, gira con più FPS sullo stesso hardware. Adesso, per quanto grossolana e insoddisfacente sia la mia idea di ottimizzazione, credo risponda perfettamente a ciò che pensano gli altri utenti che come me utilizzano questa parola impropriamente. Ultimamente si sono visti titoli che senza innovazioni grafiche di sorta , girano peggio di come non girino altri titoli graficamente a pari livello.
Secondo me questo trend rincorre quello delle VGA......dietro alla potenza di queste ultime si nascondono le lacune della progettazione di un videogame.


E' tutto qui il concetto. Ti basi su premesse che sono del tutto aleatorie e di cui non conosciamo i requisiti iniziali, pertanto la parola "ottimizzazione" è abusata a priori. Innanzitutto "a parità di poligoni" non ha senso, primo perchè una scena di un gioco non avrà mai "gli stessi poligoni" di una scena di un'altro gioco, secondo perchè la complessità delle mesh utilizzate nel gioco influiscono per una minima parte rispetto al complessivo.
Se dovessimo usare queste concezioni, allora oggi dovremmo dire che nel 2007 Doom 3 è un gioco "ottimizzato" mentre quando è uscito non lo era affatto. Ha senso? No.

Un gioco è ottimizzato se dai requisiti iniziali, riesce a trarre il massimo delle performance in tutti i settori in base a quei requisiti. A prescindere se va veloce o meno. Un gioco che va lento potrebbe essere ottimizzato al massimo mentre uno che va veloce potrebbe essere inefficiente in egual misura. Seti@home è forse un programma non ottimizzato perchè impiega maggiori risorse computazionali? Claro che no.

Ora i requisiti non possono nemmeno essere determinati da quello che l'occhio vede su schermo, quindi parlare di gioco ottimizzato o non ottimizzato non ha troppo senso. Al massimo possiamo dire che un determinato gioco ha dei requisiti troppo alti per le schede attuali, ma questo non ha nulla a che vedere con il concetto di ottimizzazione.


Non ho mai pensato di essere un esperto d'informatica (saper assemblare un PC non ha nulla a che vedere con l'informatica) ma da consumatore esprimo la mia opinione, con o senza cognizione di causa, su quello che il mercato mi propina.
P.S. non penso si sia OT :mc:


Ma io infatti non ho mai detto che devi esserlo o intendevo attaccare te in particolare o qualcun altro. Ho semplicemente detto che è una parola abusata in modo intercambiabile con la parola "requisito" che per i piu' può essere la stessa cosa, ma in pratica sono due cose completamente diverse (sebbene in una certa misura indissolubilmente legate).

Beelzebub
12-02-2007, 16:15
Hai ragione, ma pretendere di farsi spegare un concetto del genere senza avere conoscenze a priori e per di piu' in un thread di un forum (off topic, per altro) non mi sembra nemmeno il massimo dell'intelligenza ;)
Considerando poi che l'argomento non è un concetto ma una materia intera definita, dimmi che pretendi :D Se ti interessa veramente, hai i mezzi per partire. Cioè leggere i libri.
Ti sfugge un piccolissimo particolare: io non ti ho chiesto nessuna spiegazione. :O :D

EDIT: Ho letto solo ora il tuo secondo post: la stai facendo troppo difficile... Per come la vedo io, se un gioco fa 30fps minimi su xbox360, e si attesta intorno ai 40-50 di media, non è possibile che su PC con configurazioni high-end, abbia dei crolli che sfiorino i 10 fps... Poi se ottimizzazione non è il termine appropriato, ok, la chiamerò in un altro modo, ma è di quello che sto parlando.

Proporre schede video con consumi da capogiro per fornire una potenza di calcolo esorbitante, ma che viene messa in discussione da giochi convertiti in modo approssimativo, non mi sembra il massimo... :O

jappilas
12-02-2007, 16:19
E' tutto qui il concetto. Ti basi su premesse che sono del tutto aleatorie e di cui non conosciamo i requisiti iniziali, pertanto la parola "ottimizzazione" è abusata a priori. Innanzitutto "a parità di poligoni" non ha senso, primo perchè una scena di un gioco non avrà mai "gli stessi poligoni" di una scena di un'altro gioco, secondo perchè la complessità delle mesh utilizzate nel gioco influiscono per una minima parte rispetto al complessivo.nella fattispecie dei poligoni, se non ricordo male si considera anche che il numero di poligoni presenti varia da scena a scena nell' ambito di uno stesso gioco perchè dipende da come è gestito il scene graph :O
Un gioco è ottimizzato se dai requisiti iniziali, riesce a trarre il massimo delle performance in tutti i settori in base a quei requisiti. A prescindere se va veloce o meno. Un gioco che va lento potrebbe essere ottimizzato al massimo mentre uno che va veloce potrebbe essere inefficiente in egual misura. Seti@home è forse un programma non ottimizzato perchè impiega maggiori risorse computazionali? Claro che no.

Ora i requisiti non possono nemmeno essere determinati da quello che l'occhio vede su schermo, quindi parlare di gioco ottimizzato o non ottimizzato non ha troppo senso. Al massimo possiamo dire che un determinato gioco ha dei requisiti troppo alti per le schede attuali, ma questo non ha nulla a che vedere con il concetto di ottimizzazione.non credo che avrei saputo dirlo meglio :)
Ti sfugge un piccolissimo particolare: io non ti ho chiesto nessuna spiegazione. :O :Dinfatti l' avevi chiesta a me , ma io non so spiegarmi :O

Beelzebub
12-02-2007, 16:22
infatti l' avevi chiesta a me , ma io non so spiegarmi :O
Ma quando? :mbe: Quotami il post, perchè non mi pare proprio... :confused:

Dexther
12-02-2007, 16:27
Un gioco è ottimizzato se dai requisiti iniziali, riesce a trarre il massimo delle performance in tutti i settori in base a quei requisiti. A prescindere se va veloce o meno. Un gioco che va lento potrebbe essere ottimizzato al massimo mentre uno che va veloce potrebbe essere inefficiente in egual misura. Seti@home è forse un programma non ottimizzato perchè impiega maggiori risorse computazionali? Claro che no.

Ora i requisiti non possono nemmeno essere determinati da quello che l'occhio vede su schermo, quindi parlare di gioco ottimizzato o non ottimizzato non ha troppo senso. Al massimo possiamo dire che un determinato gioco ha dei requisiti troppo alti per le schede attuali, ma questo non ha nulla a che vedere con il concetto di ottimizzazione.

Ok, la spiegazione non fà una piega ;)
Il concetto mi era vagamente chiaro ma in effetti in maniera sfumata ed imprecisa.



Ma io infatti non ho mai detto che devi esserlo o intendevo attaccare te in particolare o qualcun altro. Ho semplicemente detto che è una parola abusata in modo intercambiabile con la parola "requisito" che per i piu' può essere la stessa cosa, ma in pratica sono due cose completamente diverse (sebbene in una certa misura indissolubilmente legate).

tranqui, e grazie della spiegazione , :mano:

Marclenders
12-02-2007, 16:31
qualcuno mi sà dire perche le gpu Ati per console XBox360 consumano molto meno?

jappilas
12-02-2007, 16:38
Questo era vero per titoli di qualche tempo fa (D3, Quake4, HL2, Fear, Far Cry, ecc...) ma ultimamente, i giochi non solo faticano sui sistemi datati, ma anche su quelli recenti e di fascia alta, laddove una console permette di ottenere risultati decisamente migliori.mi pareva che questo, pur non essendo una domanda esplicita, "chiamasse" una replica chiarificante :O :p

... sono completamente stordito, non ci fare caso (torno al mio debug che è meglio) :stordita:

Beelzebub
12-02-2007, 16:43
mi pareva che questo, pur non essendo una domanda esplicita, "chiamasse" una replica chiarificante :O :p

... sono completamente stordito, non ci fare caso (torno al mio debug che è meglio) :stordita:
Tranqui, no problem! ;)

mjordan
12-02-2007, 16:43
EDIT: Ho letto solo ora il tuo secondo post: la stai facendo troppo difficile... Per come la vedo io, se un gioco fa 30fps minimi su xbox360, e si attesta intorno ai 40-50 di media, non è possibile che su PC con configurazioni high-end, abbia dei crolli che sfiorino i 10 fps... Poi se ottimizzazione non è il termine appropriato, ok, la chiamerò in un altro modo, ma è di quello che sto parlando.


Per quanto ti possa sembrare paradossale, questo è il risultato di un'eccessiva ottimizzazione, al contrario di quanto vuoi evidenziare. Giochi che sono progettati su un hardware definito, ne sfruttano appieno le caratteristiche tecniche e poi vengono portati quasi "1 a 1" su PC laddove dovrebbero avere requisiti piu' "generici". Oserei dire che è una conversione perfetta, invece, altro che grossolana :rotfl:
Non a caso sono sempre scettico sui porting ;)

Beelzebub
12-02-2007, 16:50
Per quanto ti possa sembrare paradossale, questo è il risultato di un'eccessiva ottimizzazione, al contrario di quanto vuoi evidenziare. Giochi che sono progettati su un hardware definito, ne sfruttano appieno le caratteristiche tecniche e poi vengono portati quasi "1 a 1" su PC laddove dovrebbero avere requisiti piu' "generici". Oserei dire che è una conversione perfetta, invece, altro che grossolana :rotfl:
Non a caso sono sempre scettico sui porting ;)
Se fosse così, e cioè conversioni perfette 1 a 1, dovrebbe essere impossibile che un PC con una potenza di calcolo nettamente superiore alla console, tipo un Core Duo 6600+ Geforce 8800gtx+2gb di ram, tanto per sparare una configurazione da esempio, faccia girare peggio lo stesso identico gioco... :mbe: :confused: :wtf:

Io sto parlando di non ottimizzazione su PC, non su console!!! E' chiaro che i giochi su console siano ottimizzati, anche se mi sembrava di aver capito che questo termine è sbagliato... :stordita:

safendi
12-02-2007, 16:54
Se fosse così, e cioè conversioni perfette 1 a 1, dovrebbe essere impossibile che un PC con una potenza di calcolo nettamente superiore alla console, tipo un Core Duo 6600+ Geforce 8800gtx+2gb di ram, tanto per sparare una configurazione da esempio, faccia girare peggio lo stesso identico gioco... :mbe: :confused: :wtf:

Io sto parlando di non ottimizzazione su PC, non su console!!! E' chiaro che i giochi su console siano ottimizzati, anche se mi sembrava di aver capito che questo termine è sbagliato... :stordita:
sono tirato in causa nell'esempio?

Beelzebub
12-02-2007, 17:06
sono tirato in causa nell'esempio?
:asd:

No, è del tutto casuale... :D

mjordan
12-02-2007, 18:14
Se fosse così, e cioè conversioni perfette 1 a 1, dovrebbe essere impossibile che un PC con una potenza di calcolo nettamente superiore alla console, tipo un Core Duo 6600+ Geforce 8800gtx+2gb di ram, tanto per sparare una configurazione da esempio, faccia girare peggio lo stesso identico gioco... :mbe: :confused: :wtf:

Io sto parlando di non ottimizzazione su PC, non su console!!! E' chiaro che i giochi su console siano ottimizzati, anche se mi sembrava di aver capito che questo termine è sbagliato... :stordita:

Due pezzi di hardware possono avere una componente in comune mentre eseguire codice specifico per determinati effetti o quant'altro in modo del tutto differente. In pochi campi il supporto hardware dedicato per qualcosa è cosi importante come nella grafica. I giochi per PC non usano quasi mai caratteristiche esclusive di una singola scheda, ma quasi sempre il minimo comun denominatore fra tutte le schede disponibili. Questo per una questione di compatibilità. Cosa che non si fa su console, dove l'hardware è definito e quindi non hai problemi di compatibilità. Quindi puoi usare fino all'ultima caratteristica hardware. Nelle conversioni, potrebbe (e dico potrebbe) succedere che ciò che su console viene eseguito nella GPU per via di un particolare supporto hardware, su alcune configurazioni PC potrebbe non essere accelerato affatto. Da qui la battuta della "conversione perfetta 1 a 1" e il probabile caso che hardware potente il doppio giri a metà della velocità.

Ora, se questa è una situazione scomoda e fastidiosa c'è anche da dire che fa parte del mondo PC. Una scheda top di gamma presenta caratteristiche tecniche interessanti ma "morte" nel senso che nessuno userà mai, a parte i demo dei produttori stessi, perchè incompatibili con quelle di altri produttori.
Se questa situazione non vi è congeniale, questo è il motivo per passare alle console.

pg08x
12-02-2007, 18:17
Il paragone con la Ferrari è inopportuno.

La Ferrari usata con il tempo si rivaluta
(una gto dell' 85 vale oltre un milione di euro...).

Queste schede dopo pochi mesi non valgono + niente.

Domandina:

Quanto sareste disposti a spendere per una Geforce fx 5800 Ultra adesso ???

Un utente normale Non la vorrebbe nemmeno se gliela regalassero, consuma troppo e fa troppo rumore...

Ora come ora vale di + una Geforce 4, lente per lente almeno quest'ultima consuma poco e non fa casino.

sec_death
12-02-2007, 18:18
non potevano mettere 2 connettori da 6 pin come hanno la maggior parte degli alimentatatori nuovi... io un anno fa ho speso 100 euro di ali e adesso già gli manca 1 connettore...
da 8 pin.. il prox anno quello da 10 perchè è sicuramente necessario fornire un sacco di tensioni diverse..
io non mi abbasserò a comprare ste stufe.
si nota che oramai l'ottimizzazione nessuno sa cos'è e te la passano come generazione successiva, cosi ora paghiamo 600 euro dei prototipi lunghi mezo metro e che scaldano come stufe

MenageZero
12-02-2007, 18:22
@ManageZero
Non sono daccordo sul fatto che GOW sia il limite della 360, basti pensare alla grafica dei giochi per ps2 appena usciti e quelli che fanno adesso e , se nache vero che certe conversioni hanno una grafica pietosa, i giochi per PS2 hanno fatti giganteschi passsi avanti.
Gurda la serie PoP

non ho detto che è il limite ultimo per x360, ho detto solo che non può essere molto lontano dal limite, almeno imho per semplice logica per una serie di fattori: ;)

primo fra tutti x360 è una console, quindi si può ottimizzare con un target unico, a diffrenza del pc

per quanto detto sopra, non mi pare strano pensare che un titolo di punta, universalmente apprezzato come lavoro molto ben riuscito, basato su uno degli engine + recenti e all'avanguardia e che sarà alla base di molti futuri titoli anche su pc, sfrutti se non al "100%" le risorse a dipsosizione magari intorno al 90%...

GoW è uscito circa 1 anno dopo x360, non al lancio

piovono, almeno nelle dichiarazioni pubbliche, da parte di molti dev lodi alla (detto da me in -pessime- parole povere) efficacia/completezza/"potenza" nonchè relativa semplicità dei tool di sviluppo by ms

i dev di GoW non sono certo gli ultimi arrivati...

qasert
12-02-2007, 18:24
scusate ma le gpu x notebook non consumano la meta rispetto a quelle normali???Xchè non le vendono?chi ha un noteb potrebbe cambiare gpu ,e chi ha un pc potrebbe montarle al posto delle gpu normali che consumano 2 3 volte di+ o no?

killer978
12-02-2007, 19:13
gioko ke non la pieghi sarà dura, prova rainbow six a 1280x1024 hdr e aa a palla e poi dimmi

Ci gioco a 1440x900 AF16x tutto al MAX senza scendere mai sotto i 30 fps!! ;)

Cimmo
12-02-2007, 19:18
Due pezzi di hardware possono avere una componente in comune mentre eseguire codice specifico per determinati effetti o quant'altro in modo del tutto differente. In pochi campi il supporto hardware dedicato per qualcosa è cosi importante come nella grafica. I giochi per PC non usano quasi mai caratteristiche esclusive di una singola scheda, ma quasi sempre il minimo comun denominatore fra tutte le schede disponibili. Questo per una questione di compatibilità. Cosa che non si fa su console, dove l'hardware è definito e quindi non hai problemi di compatibilità. Quindi puoi usare fino all'ultima caratteristica hardware. Nelle conversioni, potrebbe (e dico potrebbe) succedere che ciò che su console viene eseguito nella GPU per via di un particolare supporto hardware, su alcune configurazioni PC potrebbe non essere accelerato affatto. Da qui la battuta della "conversione perfetta 1 a 1" e il probabile caso che hardware potente il doppio giri a metà della velocità.

Ora, se questa è una situazione scomoda e fastidiosa c'è anche da dire che fa parte del mondo PC. Una scheda top di gamma presenta caratteristiche tecniche interessanti ma "morte" nel senso che nessuno userà mai, a parte i demo dei produttori stessi, perchè incompatibili con quelle di altri produttori.
Se questa situazione non vi è congeniale, questo è il motivo per passare alle console.
si ma questo non doveva essere risolto con le DX10? Cioe' ogni scheda video non deve supportare un dato set di istruzioni/feature in hardware per poter vantarsi di essere DX10 compliant?

Apple80
12-02-2007, 19:20
oooohh... finalmente ho trovato quello che mi serve per il mio tronco.


http://img478.imageshack.us/img478/6872/r600segajv8.jpg

samuello 85
12-02-2007, 19:22
sta di fatto che questo problema era meno accentuato 6 o 7 anni fa.
un geforce 2 ultra costava si 1.200.000lire ma non poteva messere messa in crisi da nessun gioco.
ora non è piu cosi...

Apple80
12-02-2007, 19:27
si ma questo non doveva essere risolto con le DX10? Cioe' ogni scheda video non deve supportare un dato set di istruzioni/feature in hardware per poter vantarsi di essere DX10 compliant?


infatti pare che a quanto si dice, le dx10 , servono per far nascere già ottimizzati di propio. Nel senso che sviluppare un gioco con le dx10 ( e di conseguenza su GPU a shader unificati) , sià più semplice. ANche perchè hanno a disposizione , una maggior unità di calcolo .

bollicina31
12-02-2007, 19:27
ma che èèèèèè???
la nuova astronave di startrekkkkk????


Ci vorrà una centrale elettrica sotto il letto tra un po per giocare a doomxx, oltre hai mille permessi di disturbo alla quiete pubblica che mi serviranno ogni volta che avvio il pc

Apple80
12-02-2007, 19:29
un geforce 2 ultra costava si 1.200.000lire ma non poteva messere messa in crisi da nessun gioco.
ora non è piu cosi...

o almeno ora succede ad ogni cambio di architettura.
La 9700pro (450 euro=870.000 lire ) è stata messa in ginocchio dopo 18 mesi dal lancio. Cioè con l'arrivo di Farcry. E direi che è un ottimo record. :)

mjordan
12-02-2007, 20:02
oooohh... finalmente ho trovato quello che mi serve per il mio tronco.


http://img478.imageshack.us/img478/6872/r600segajv8.jpg

:rotfl: :rotfl:
Ma dove le prendi tutte ste cose? :rotfl:

Ci vai a caccia o ci sta qualche sito di satira hardware? :asd:

ErminioF
12-02-2007, 20:15
Paintshop si chiama :asd:
Cmq per me gow sfrutterà la console al 50%, voglio vedere cosa tireranno fuori tra 3-4 anni dalle console attuali, avere lo sviluppo di nuovi tools + esperienza di 1-2 giochi alle spalle sulla stessa macchina danno i loro frutti :)

MenageZero
12-02-2007, 20:46
si ma questo non doveva essere risolto con le DX10? Cioe' ogni scheda video non deve supportare un dato set di istruzioni/feature in hardware per poter vantarsi di essere DX10 compliant?

si è così, ma non so se lui parlasse del futuro (+/-) prossimo, quindi dx10, o del recente passato... e più che altro mi pare il punto fosse sulla conversione console->pc... e ad ora nessuna è dx10 compliant... (anche se dicono che le api dell'x360 abbiano delle forti similitudini)
;)

ps: scusate l'intromissione :stordita:

neo27
12-02-2007, 21:56
alla faccia del risparmio energetico mondiale.......................

^Krasty^
12-02-2007, 23:31
la lunghezza mi ricorda la voodoo...

da un lato si parla di ridurre i consumi alle amd quad core, di qui invece si parla di cambiare il parco alimentatori per adattarsi a queste dx10.
visto che le due case sono congiunte è meglio se fanno una riunione interna quelli della amd\ati

mjordan
12-02-2007, 23:48
si è così, ma non so se lui parlasse del futuro (+/-) prossimo, quindi dx10, o del recente passato... e più che altro i pare il punto fosse sulla conevrsione console->pc... e ad ora nessuna è dx10 compliant... (anche se dicono che le api dell'x360 abbiano delle forti similitudini)
;)

ps: scusate l'intromissione :stordito:

Esattamente... Che poi sto "partial DirectX 10" su XboX 360 sa tanto di commercialese piuttosto che una caratteristica tecnica. A un'API, soprattutto grafica, o sei compliant o non lo sei.

Cimmo
12-02-2007, 23:51
si è così, ma non so se lui parlasse del futuro (+/-) prossimo, quindi dx10, o del recente passato... e più che altro i pare il punto fosse sulla conevrsione console->pc... e ad ora nessuna è dx10 compliant... (anche se dicono che le api dell'x360 abbiano delle forti similitudini)
;)

ps: scusate l'intromissione :stordito:
ok, cmq con le DX10 non c'e' + la scusa che una scheda ha una feature e un'altra altre e che il minimo comun denominatore e' scarso...

mjordan
13-02-2007, 00:04
ok, cmq con le DX10 non c'e' + la scusa che una scheda ha una feature e un'altra altre e che il minimo comun denominatore e' scarso...

Avevo sentito anche io di questo concetto ma non mi sono mai informato piu' di tanto. Come dovrebbe fare a mantenere valido questo proposito?

Cimmo
13-02-2007, 00:22
Avevo sentito anche io di questo concetto ma non mi sono mai informato piu' di tanto. Come dovrebbe fare a mantenere valido questo proposito?
a livello di programmazione credo basterebbe un check delle feature supportate e se non ci sono almeno un tot non fa partire nulla...
...poi non so cosa in specifico alla MS abbiano adottato per raggiungere lo scopo o se e' solo propaganda...

Personalmente mi serve soltanto che continuino a sviluppare driver per Linux decenti (nvidia), per quanto riguarda Ati la evitero' come la peste finche' non fara' qualcosa di decente.

MenageZero
13-02-2007, 01:05
ok, cmq con le DX10 non c'e' + la scusa che una scheda ha una feature e un'altra altre e che il minimo comun denominatore e' scarso...
infatti, ma rispetto alle consoles rimane cmq lo svantaggio che ciò che produci dovrà almeno essere "scalabile" su n modelli di gpu full dx10 compliant ma con potenza di calcolo nettamente differente; ma questo è il meno e credo che un dev di videogiochi (senza uscire dall'ambito pc) se potesse occuparsi solo di sviluppare con dx10, sarebeb già in relativo "paradiso": infatti attualmente il problema a cui ti riferivi non ha origine solo dalle "variazioni sul tema" ammesse per le implementazioni di una stessa specifica di dx da parte di un produttore di chip, ma anche dal fatto che cmq deveno essere supportate tante gpu anche di "generazioni" differenti e quindi con consistenti differenze in features/modelli di programmazione
(per esempio, io non sono molto aggiornato come videogiocatore, ma credo che ancora molti giochi recenti non si rifiutino di partiire con schede dx8)

e quest'ultimo tipo di "inconveniente" permarrà ancora, almeno nel supporto "legacy" dx9, per il non brevissimo periodo di transizione totale a dx10, dato che per ovvi motivi di "copertura" dell'utenza potenziale, i anche i prossimi vg che verranno sviluppati per gpu dx10 come target primario necessiteranno di un ulteriore engine in dx9 data la totale non-retrocompatibilità delle dx10 e relative implementazioni sw e hw (se l'app è fatta con chiamate dx10, no gpu dx10, no "party")


...
Personalmente mi serve soltanto che continuino a sviluppare driver per Linux decenti (nvidia), per quanto riguarda Ati la evitero' come la peste finche' non fara' qualcosa di decente.


io c'ho una 9600 ma non faccio da tempo su linux nulla che mi abbia spinto a installare i drv ati, ma vedio che come quelli per windows, rilasciano orma da tempo un nuova release ogni mese... possibile che siano ancora in questo stato tale da meritare le ormai tradizionali ire degli utenti linux e da farsi "annichilire" nel paragone con quelli nv ? :wtf:

mjordan
13-02-2007, 03:14
a livello di programmazione credo basterebbe un check delle feature supportate e se non ci sono almeno un tot non fa partire nulla...
...poi non so cosa in specifico alla MS abbiano adottato per raggiungere lo scopo o se e' solo propaganda...


Bhè, questo esiste già da sempre, per esempio con il meccanismo di estensioni di OpenGL. Quelle nel "core" sono comuni a tutti i produttori (e necessarie per passare la certificazione OpenGL) mentre quelle proprietarie si riferiscono a caratteristiche hardware presenti solo nell'uno o nell'altro produttore. Mettere un set "massimale" in modo da avere un "minimo comune denominatore non banale" significa ampliare semplicemente il core della libreria con delle feature comuni. Questo lo si fa già con le nuove revisioni delle nuove librerie (per esempio, OpenGL 2.0 promuove nel core molte estensioni che prima erano proprietarie nVidia / ATI). Ma siamo punto e a capo, perchè comunque non c'è limite all'implementazione di estensioni proprietarie.

Quello che ha in mente Microsoft probabilmente è un'imposizione a livello di architettura. Ma se cosi fosse... Con che faccia può dire che una GPU di XboX360 è una "partial DirectX 10"? Se il limite architetturale fosse cosi stretto, allora non avrebbe senso, a maggior ragione. Cioè o sei Direct X 10 o non lo sei. :confused:

Mi documenterò comunque.

mjordan
13-02-2007, 03:18
io c'ho una 9600 ma non faccio da tempo su linux nulla che mi abbia spinto a installare i drv ati, ma vedio che come quelli per windows, rilasciano orma da tempo un nuova release ogni mese... possibile che siano ancora in questo stato tale da meritare le ormai tradizionali ire degli utenti linux e da farsi "annichilire" nel paragone con quelli nv ? :wtf:


Ti basti pensare che l'ultima volta che ho provato i driver ATI, oltre ad avere un'implementazione OpenGL estremamente poco performante (rispetto a Windows), non disponeva praticamente di alcuna forma di compilatore GLSL per gli shader OpenGL 2.0. Ovvero, zero supporto agli shader programmabili.

Magari oggi le cose sono cambiate, non saprei. Ho convertito tutto l'hardware in mio possesso passando a nVidia. Piu' che altro anche per una questione di principio. ATI, se permette, deve capire che il SO su cui far girare la mia scheda lo dovrei scegliere io.
Con nVidia non ho nessuna limitazione usando Linux, ho pari performance in entrambi i sistemi e soprattutto posso scaricare anche il Cg compiler per Linux, praticamente equivalente a quello per Windows.

Per me queste cose rendono sensato l'acquisto di una scheda, visto che con una scheda grafica ci gioco si e no al 20% del suo utilizzo complessivo.

Si critica il supporto di nVidia, ma essa, a differenza di ATI, supporta ben 4 sistemi operativi differenti, Windows, Linux, FreeBSD e Solaris. Se questo non è supporto.

Apple80
13-02-2007, 06:22
Ci vai a caccia o ci sta qualche sito di satira hardware? :asd:


no. sono fatte da mè. uso paintshop con adobe photoshop.


http://img489.imageshack.us/img489/303/r600pic2bk6.jpg


:asd:

fat4l
13-02-2007, 07:09
tra un po' x sti pc ci vuole la centraline dell'enel in casa...

safendi
13-02-2007, 07:58
Ci gioco a 1440x900 AF16x tutto al MAX senza scendere mai sotto i 30 fps!! ;)
mah :fagiano: avrai modificato qualke file. magari non vai sotto i 30 ma non andrai sopra i 40 :Prrr: :Prrr:

JohnPetrucci
13-02-2007, 11:01
Certo, non è una versione definitiva.
Ma le premesse di questo primo sample sui consumi e sulle dimensioni, non mostrano di certo un cambio di rotta rispetto alla strada seguita in questi anni dai produttori di vga, cioè la lunghezza direttamente proporzionale a calore e consumi. :rolleyes:

Cimmo
13-02-2007, 11:15
Quello che ha in mente Microsoft probabilmente è un'imposizione a livello di architettura. Ma se cosi fosse... Con che faccia può dire che una GPU di XboX360 è una "partial DirectX 10"? Se il limite architetturale fosse cosi stretto, allora non avrebbe senso, a maggior ragione. Cioè o sei Direct X 10 o non lo sei. :confused:

Mi documenterò comunque.
Con la faccia di sempre scusa eh? :D

leoneazzurro
13-02-2007, 11:47
Quello che ha in mente Microsoft probabilmente è un'imposizione a livello di architettura. Ma se cosi fosse... Con che faccia può dire che una GPU di XboX360 è una "partial DirectX 10"? Se il limite architetturale fosse cosi stretto, allora non avrebbe senso, a maggior ragione. Cioè o sei Direct X 10 o non lo sei. :confused:

Non è DX10, anche se implementa molte soluzioni che si ritrovano nelle GPU Directx10. Il senso di quella frase sarebbe "è capace di fare quasi tutto ciò che fa una GPU DX10, anche se non c'è la completa conformità"

Horizont
13-02-2007, 12:33
fantastica!! anche se la preferivo un pelino più lunga :oink:
che sia questa la prima fantomatica scheda sulla quale ci puoi fare una bella grigliata? :D

RICKYL74
13-02-2007, 14:03
:eekk:

dai stanno scherzando la vera scheda non è questa!! lo stanno facendo a posta per mettere fuori strada la concorrente nVidia per evitare una contromossa stellare, ma il G81 è ormai alle porte!! :asd:

comunque se la scheda fosse davvero questa un solo commento..

:Puke:

mjordan
13-02-2007, 17:23
no. sono fatte da mè. uso paintshop con adobe photoshop.


http://img489.imageshack.us/img489/303/r600pic2bk6.jpg


:asd:

Azz, hai inventiva... :asd:

mjordan
13-02-2007, 17:28
Con la faccia di sempre scusa eh? :D

Questo è pure vero... :asd: :asd:

Apple80
13-02-2007, 17:54
Azz, hai inventiva... :asd:

sarà utilizzata nel prissimo film horror de

"Non aprite quel case ! " :eekk:

ghghghgh

killer978
13-02-2007, 20:45
sarà utilizzata nel prissimo film horror de

"Non aprite quel case ! " :eekk:

ghghghgh

Ancora non esce e come vedo gli Nvidisti gia rosicano come sempre :asd:

safendi
13-02-2007, 21:40
Ancora non esce e come vedo gli Nvidisti gia rosicano come sempre :asd:
grande uscita. 6 propio obiettivo. :banned:

Apple80
13-02-2007, 22:01
Ancora non esce e come vedo gli Nvidisti gia rosicano come sempre :asd:


cosa centrano gli Nvidisti. Pensa che tengo ancora le foto ricordo del NV30


http://img468.imageshack.us/img468/9320/fxfun03rp2.jpg

http://img468.imageshack.us/img468/473/fxfun14ct9.jpg



questa è oT ma và bane lo stesso :D


http://img455.imageshack.us/img455/9688/avatarxf4qr3.th.gif (http://img455.imageshack.us/my.php?image=avatarxf4qr3.gif)

http://img456.imageshack.us/img456/6711/alluvionexj0.jpg

DjLode
13-02-2007, 22:26
Dio mio per NV30 ne uscirono di quelle da oscar :)

mjordan
13-02-2007, 23:45
Ancora non esce e come vedo gli Nvidisti gia rosicano come sempre :asd:

Quello che mi chiedo è cosa ci sia da rosicare, in questo caso. Può essere potente quanto vuoi che con quei consumi se la possono tenere in ogni caso.

mjordan
13-02-2007, 23:45
Dio mio per NV30 ne uscirono di quelle da oscar :)

Già è vero :rotfl:
Quello che non mi capacito è cosa ci azzecca lo squalo con NV30 :wtf:

Apple80
14-02-2007, 06:21
Già è vero :rotfl:
Quello che non mi capacito è cosa ci azzecca lo squalo con NV30 :wtf:


niente. Pero' l' immagine è divertente. ghghghgh

silipaolix
14-02-2007, 07:37
:O A quando la VPU integrata nel die della CPU?! Basta con ste schede che per farle andare occorre un reattore nucleare dedicato! E non me ne frega se è ancora un prototipo, di quanto pensate che cali il consumo...resteranno sempre almeno 180W-200W ma siamo impazziti!
Piuttosto, visto che ATI & AMD sono fuse, che integrino la VPU nel processore di sistema: il top sarebbe potenza grafica proporzionale a quella del system core; ram di sistema condivisa con allocazione massima assegnabile dinamicamente riguardo la grafica(previa quantitativo massimo fissato in BIOS/EFI) e per non lasciare vuoto lo slot pci-ex, gli hard-core gamers potranno metterci una scheda che gestisca la fisica, tipo quella che ASUS già propone (migliora il realismo e scarica la VPU da questo compito). Mica male neh?!A quando la VPU integrata nel die della CPU?! Basta con ste schede che per farle andare occorre un reattore nucleare dedicato! E non me ne frega se è ancora un prototipo, di quanto pensate che cali il consumo...resteranno sempre almeno 180W-200W ma siamo impazziti!
Piuttosto, visto che ATI & AMD sono fuse, che integrino la VPU nel processore di sistema: il top sarebbe potenza grafica proporzionale a quella del system core; ram di sistema condivisa con allocazione massima assegnabile dinamicamente riguardo la grafica(previa quantitativo massimo fissato in BIOS/EFI) e per non lasciare vuoto lo slot pci-ex, gli hard-core gamers potranno metterci una scheda che gestisca la fisica, tipo quella che ASUS già propone (migliora il realismo e scarica la VPU da questo compito). Mica male neh?! :D

Free Gordon
14-02-2007, 12:09
Tanto per fare un altro esempio: durante lo sviluppo di Oblivion, la Bethesda dovette eliminare una serie di effetti grafici che mettevano a dura prova la Xbox360, in virtù di un accordo siglato con MS, che imponeva un framerate MINIMO, per i giochi sviluppati per la sua piattaforma.

Vi risulta che sia mai successo su PC? A me no...


Ma dove l'hai sentita sta "cosa"? :asd:
La vers Xbox360, AD ESEMPIO, è l'unica che è uscita con supporto ad AA+HDR, questo dovrebbe farti capire che ciò che hai riportato, è falso...

Free Gordon
14-02-2007, 12:16
o almeno ora succede ad ogni cambio di architettura.
La 9700pro (450 euro=870.000 lire ) è stata messa in ginocchio dopo 18 mesi dal lancio. Cioè con l'arrivo di Farcry. E direi che è un ottimo record. :)


Ho giocato a Far Cry proprio con la 9700pro e non mi pare fosse in ginocchio, con setting medio/alti. ;)
Mettere in ginocchio vuol dire un'altra cosa, imho..

jappilas
14-02-2007, 12:42
:O A quando la VPU integrata nel die della CPU?! Basta con ste schede che per farle andare occorre un reattore nucleare dedicato!...non è detto che una gpu integrata abbia prestazioni equivalenti a una su scheda separata... se non altro, per la banda di cui potrebbe disporre verso il banco di memoria assegnatogli (limitata a monte dall' interfaccia prevista dal socket - con tutta probabilità, due canali DDR 2/3 - e in più dalla condivisione con i core cpu a cui è accorpato) :O Già è vero :rotfl:
Quello che non mi capacito è cosa ci azzecca lo squalo con NV30 :wtf:giuro, avevo pensato di fare la stessa domanda :D

mjordan
14-02-2007, 14:36
Già è vero :rotfl:
Quello che non mi capacito è cosa ci azzecca lo squalo con NV30 :wtf:

Ah ecco. Pensavo ci fosse qualche attinenza. Uno squalo, a parte essere grosso, non scalda. :asd:

Apple80
14-02-2007, 17:36
Ho giocato a Far Cry proprio con la 9700pro e non mi pare fosse in ginocchio, con setting medio/alti. ;)
Mettere in ginocchio vuol dire un'altra cosa, imho..

Appunto. 1024 AA2x e AF4x effetti di luce, acqua ecc su medio , voleva dire la "morte" di una scheda topgamma.

ranmamez
16-02-2007, 04:38
Appunto. 1024 AA2x e AF4x effetti di luce, acqua ecc su medio , voleva dire la "morte" di una scheda topgamma.

Bisogna anche vedere qual'e' la configurazione consigliata per quel gioco.

Apple80
16-02-2007, 07:44
Bisogna anche vedere qual'e' la configurazione consigliata per quel gioco.


dietro la confezione non specifica in modo dettagliato.
QUando passai alla 6800GT@ultra , tutto cambio' di colpo.

ranmamez
17-02-2007, 00:31
dietro la confezione non specifica in modo dettagliato.
Brutta cosa quando non specificano, ma non c'era neanche la config minima?

QUando passai alla 6800GT@ultra , tutto cambio' di colpo.
Cos'avevi prima di questa?

Apple80
17-02-2007, 09:47
Brutta cosa quando non specificano, ma non c'era neanche la config minima?


Cos'avevi prima di questa?


la config dettagliata era nel readme.

prima avevo la 9700pro.

Dexther
17-02-2007, 11:30
lIl chip R600 sarà composto da 700 milioni di transistor (R580 ne contiene 384 milioni), un'interfaccia di memoria a 512 bit e supporto per le memorie GDDR3 e GDDR4. La data di debutto negli store sarà il 30 marzo e la prima scheda che arriverà nei negozi sarà la ATI Radeon X2900 XTX, disponibile in versione retail e OEM.

La differenza tra le due riguarda la lunghezza: la versione retail sarà lunga 24 centimetri, mentre quella OEM circa 30 cm.

La scheda retail avrà un dissipatore che sfrutterà la tecnologia "vapor chamber", già utilizzata in dissipatori di fascia alta per CPU. Attraverso questa tecnologia viene trasferito il calore fuori dalla base del blocco di dissipazione grazie ad heatpipe che dirottano il calore verso molteplici alette presenti. Pensiamo che sia presente anche una ventola..

La scheda Radeon X2900 XTX integrerà 1 GByte di memoria GDDR4 Samsung e, un mese dopo il lancio, sarà seguita dalla Radeon X2900 XT con GDDR3. Quest'ultima avrà "solo" 512 MByte e frequenze più basse del modello XTX.

Le schede Radeon X2900 figureranno il supporto CrossFire attraverso un bridge interno: non avrete più bisogno di un cavo esterno e di una scheda Master.

L'HDMI farà la sua comparsa su tutte le schede Radeon X2900.

Per quanto riguarda il comparto di alimentazione, ci saranno due connettori a 8-pin (2x4), retrocompatibili con i cavi di alimentazione a 6 pin.

Le frequenze di lavoro non sono state discusse perchè ancora in definizione.


ottimo, 24 cm :)

WarDuck
17-02-2007, 16:00
Preso da DailyTech:

"AMD's guidance claims R600 will feature 700 million transistors. By comparison, the Radeon X1900 series R580 GPU incorporated 384 million transistors into its design; the half-generation before that, R520, only featured 320 million.

As disclosed by DailyTech earlier this year, the GPU features a full 512-bit memory interface with support for GDDR3 and GDDR4. R580 was also similar in this regard as it supported GDDR3 and GDDR4. "

Più del doppio di transistor rispetto alla scheda di precedente generazione e bus memorie a 512bit... secondo me ci sarà da divertirsi!

Freisar
17-02-2007, 16:40
Un mostro in DX9....