View Full Version : Schede video Desk e Note!
theFIERCE
27-03-2006, 01:04
Quaicuno sa come si possono comparare le prestazione delle schede video "mobile" con quelle dei desktop?
Mi spiego meglio, una x1600 liscia da desk è uguale ad una montata sui portatili come prestazioni, pipeline, etc?
Lo chiedo perchè Ati non utilizza sigle per le sue schede in versione notebook, mentre Nvidia ne utilizza di diverse (o almeno lo fa spesso).
Esistono punteggi ai benchmark di vari note, si possono fare classifiche fra le varie soluzioni proposte, ma difficilmente ci sono paragoni, anche solo indicativi, fra le controparti desk e portatili.
Se qualcuno potesse far lumi sulla vicenda...
theFIERCE
27-03-2006, 11:45
Nessuno sa niente?
Sto cercando un note con cui giocare, tra l' altro, a Oblivion, e volevo sapere se 7800 / 6800 a parte, ci fosse qualche macchina ad un prezzo più o meno accessibile con cui farlo girare?
In particolare mi interessavano le soluzioni con Ati: secondo voi con la x1600 128+128 si riesce (più Turion MT34 e 1Giga di ram) a giocare a Oblivion?
Grazie
La x1600 fa letteralmente decollare Oblivion... :sofico:
conta che attualmente le prestazioni delle vga da note sono sempre in linea con le corrispettive da desk, il margine di vantaggio delle desk va man mano azzerandosi.
Se vai sul thread di 3DMark06 nella sezione schede video vedrai le 6800Go stare più o meno sugli score di quelle da desk.
Quaicuno sa come si possono comparare le prestazione delle schede video "mobile" con quelle dei desktop?
Mi spiego meglio, una x1600 liscia da desk è uguale ad una montata sui portatili come prestazioni, pipeline, etc?
Lo chiedo perchè Ati non utilizza sigle per le sue schede in versione notebook, mentre Nvidia ne utilizza di diverse (o almeno lo fa spesso).
Esistono punteggi ai benchmark di vari note, si possono fare classifiche fra le varie soluzioni proposte, ma difficilmente ci sono paragoni, anche solo indicativi, fra le controparti desk e portatili.
Se qualcuno potesse far lumi sulla vicenda...
Una Mobility Radeon X1600 ha prestazioni pressochè identiche ad una X1600 Pro PCI-E da desktop. Riuscirai a giocare bene ad Oblivion, almeno a 1024x768. L'unico problema per quel note in particolare sono i soli 128 MB di ram dedicati; già ora sono diversi i giochi che chiedono schede con almeno 128 MB, la ram di sistema comunque è + lenta della dedicata... Meglio una X1600 con 256 MB dedicati, non per le prestazioni, che sono uguali, quanto per il fatto che in futuro un framebuffer di 256 MB diventerà standard per i giochi.
Altrimenti puoi puntare a qualcosa con la Geforce Go 7600, che però ha solo 8 pixel shaders, contro i 12 della X1600 (per contro ha però + TMU e ROPs, 8 contro 4, ma queste caratteristiche non saranno molto influenti sui giochi futuri, che esalteranno le operazioni sugli shaders).
Ah, dimenticavo un altro punto a favore delle ATI X1600 nei confronti delle 7600 Go: la possibilità di attivare l'HDR e l'AA contemporaneamente, cosa che nessuna Nvidia ancora permette (nemmeno la 7900 GTX...). Per Oblivion potrebbe tornare utile.
[QUOTE=A.L.M.]Una Mobility Radeon X1600 ha prestazioni pressochè identiche ad una X1600 Pro PCI-E da desktop. Riuscirai a giocare bene ad Oblivion, almeno a 1024x768.[QUOTE]
Scusa, ma io direi che la X1600 da 128 fa girare senza problemi un gioco come The Chronicles of Riddick a 128x800 in dettaglio alto.
Un gioco di ruolo come Oblivion è relativamente leggero, imho a 1024x768 puoi dowclockare la X1600 della metà e farlo girare cmq... ;)
Ad esempio con la 6800 gioco a Civilization 4 a 1440x900 con filtri attivi e dettagli massimi sfruttando la vga a 150 Mhz di core e 300 di ram... :eek:
theFIERCE
27-03-2006, 13:01
Purtroppo Oblivion pur essendo un rpg, è forse il gioco attualmente più esoso di risorse hw, tant' è che come configurazione minima consigliata si parla di 6800 (con molti effetti disattivati e al max a 1024x768 può bastare forse una 6600GT)!
Comunque le vostre notizie mi confortano parecchio!
Certo, sarebbe meglio trovare una x1600 256+256 piuttosto che la 128+128 (non per le prestazioni attuali che paiono poco differenti, quanto per il futuro come dicevi tu) ma sul note in questione (Asus A6KT) non è attualmente prevista.
Grazie a tutti, se avete altre notizie (se qualcuno magari lo avesse provato) fatevi sentire!
Scusa, ma io direi che la X1600 da 128 fa girare senza problemi un gioco come The Chronicles of Riddick a 1280x800 in dettaglio alto.
Un gioco di ruolo come Oblivion è relativamente leggero, imho a 1024x768 puoi dowclockare la X1600 della metà e farlo girare cmq... ;)
Ad esempio con la 6800 gioco a Civilization 4 a 1440x900 con filtri attivi e dettagli massimi sfruttando la vga a 150 Mhz di core e 300 di ram... :eek:
E questo ti sembra un gioco leggero? :D ;) Guarda un po' gli screenshots postati da kellone sul thread dell'Amilo M3438G (ha la tua stessa scheda video), lui dice di riuscire a giocare alla risoluzione nativa (1440x900) con quasi tutto al max e di avere un framerate medio di 25-30 fps.
http://img396.imageshack.us/img396/8093/goblin6zz.th.jpg (http://img396.imageshack.us/my.php?image=goblin6zz.jpg)
http://img396.imageshack.us/img396/505/interno8tx.th.jpg (http://img396.imageshack.us/my.php?image=interno8tx.jpg)
http://img366.imageshack.us/img366/8148/lucefiltrante9wo.th.jpg (http://img366.imageshack.us/my.php?image=lucefiltrante9wo.jpg)
http://img366.imageshack.us/img366/4061/lucefiltrante16ye.th.jpg (http://img366.imageshack.us/my.php?image=lucefiltrante16ye.jpg)
http://img50.imageshack.us/img50/6443/paesaggio26qt.th.jpg (http://img50.imageshack.us/my.php?image=paesaggio26qt.jpg)
Tra l'altro, ha anche attivato l'HDR, che sulle Nvidia esclude in automatico l'AA. Se notate infatti si vedono chiaramente le scalettature sui bordi di alcune cose. Ecco perchè parlavo del probabile vantaggio delle ATI. Secondo me con una X1600 a 1024x768 si può giocare con quasi tutto al max, HDR e AA2x attivati.
Azz non credevo fosse così esoso... :eek:
Dagli screen sembra davvero bello, almeno graficamente... :D
me lo procuro e lo provo... :p
Ma siete sicuri che neanche le 7900go potranno fare HDR + AA? Io ero convinto del contrario...
Ma siete sicuri che neanche le 7900go potranno fare HDR + AA? Io ero convinto del contrario...
Effettivamente sembra di no, ma non mi spiego perchè in "Lost Coast" di Half Life 2 potevo attivarle entrambe dalle opzioni video... :mbe:
almeno nel menù mi dava la possibilità di farlo, poi sinceramente non ci ho fatto caso mentre giocavo :p .
Di sicuro l'HDR era attivato, inconfondibile... :D
Effettivamente sembra di no, ma non mi spiego perchè in "Lost Coast" di Half Life 2 potevo attivarle entrambe dalle opzioni video... :mbe:
almeno nel menù mi dava la possibilità di farlo, poi sinceramente non ci ho fatto caso mentre giocavo :p .
Di sicuro l'HDR era attivato, inconfondibile... :D
Lost coast utilizza il bloom, effetto raggiungibile anche dalle SM2.0 e non l'HDR. Ecco perché si può attivare anche l'AA.
Oblivion usa sia bloom che HDR, a scelta.
Effettivamente sembra di no, ma non mi spiego perchè in "Lost Coast" di Half Life 2 potevo attivarle entrambe dalle opzioni video... :mbe:
almeno nel menù mi dava la possibilità di farlo, poi sinceramente non ci ho fatto caso mentre giocavo :p .
Di sicuro l'HDR era attivato, inconfondibile... :D
Infatti puoi attivarli entrambi, ma la scheda poi disattiva in automatico l'antialiasing. Sinceramente non capisco il perchè di questa scelta...
Infatti leggevo in giro su internet che proprio a causa di questa cosa neanche la PS3 (che quasi sicuramente avrà una 7900 modificata come scheda video) potrà attivarli contemporaneamente...
Lost coast utilizza il bloom, effetto raggiungibile anche dalle SM2.0 e non l'HDR. Ecco perché si può attivare anche l'AA.
Oblivion usa sia bloom che HDR, a scelta.
Ah, quindi era solo un simil-HDR in Lost Coast?
Visivamente era una favola... :D
Aspetta un attimo, ho appena avviato HL2 e ho proprio l'HDR attivabile ovviamente sulle mappe che implementano l'HDR...
Ah, quindi era solo un simil-HDR in Lost Coast?
Visivamente era una favola... :D
Si si... sinceramente non so quale sia più prestante... visto che con la mia GeForce 3 non posso vedere ne uno ne l'altro... :D
Comunque appena uscirà il Dell con la 7900Go sarò felicissimo di fare questo confronto. :)
Aspetta un attimo, ho appena avviato HL2 e ho proprio l'HDR attivabile ovviamente sulle mappe che implementano l'HDR...
Ti ripeto che è il bloom, un effetto quasi analogo.
Se non sei ancora sicuro leggi sto topic riguardante Oblivion:
http://forum.tgmonline.it/forum/index.php?t=msg&th=297195&start=0&rid=23262
Ti ripeto che è il bloom, un effetto quasi analogo.
Se non sei ancora sicuro leggi sto topic riguardante Oblivion:
http://forum.tgmonline.it/forum/index.php?t=msg&th=297195&start=0&rid=23262
No, per carità, ci credo anche, non dico che dici ca**ate... :D
Io dicevo che nel menù di HL2 si parla di HDR, è questo che non mi spiego visto quanto dici tu al riguardo. ;)
Sarà un errore di dicitura?
In effetti il tipo del tthread che hai postato suppone si tratti di bloom, ma solo perchè è riuscito ad attivarlo insieme all'AA... :mbe:
e conferma che nelle opzioni del gioco si parla di HDR... :D
Sai che ti dico???
BOH????!?!?! :D
E' un HDR per SM 2.0, dovrebbe essere qualcosa in + che semplice blooming, ecco perchè HL2: LC dice che è HDR. Il vero HDR comunque dovrebbe essere quello per schede SM 3.0. Dovrebbe essere la stessa cosa che in Call of Duty 2 e Serious Sam II.
Ah, tra l'altro blooming e HDR Rendering sono 2 cose abbastanza diverse...
http://www.bit-tech.net/gaming/2005/09/14/lost_coast_screens/1.html
theFIERCE
28-03-2006, 15:41
Nessuno ha provato su note con x1600 Oblivion o altri giochi "esigenti", tanto per aver un dato un po' più diretto rispetto ai punteggi dei bench, che spesso non sono proprio indicativi?
Comunque non credo che ci sia molta differenza in prestazioni fra una 128+128 ed una 256+256 (posto che preferirei comprare la seconda!)
Allora, mai giocato a Oblivion, ma se vuoi un raffronto con giochi pesanti ti dico che io gioco Far Cry a 1440x900 tutto a palla.
A Riddick ci gioco a 1440 dettaglio a palla e filtri bassi.
Battlefield 2, 1440 e tutto a palla.
Call of Duty 2 1440 dettagli alti e filtri bassi.
Lost Coast a 1440 tutto a palla e fps medi sopra i 50...
Adesso,sarà anche pesantuccio sto Oblivion, ma fossi in te mi renderei conto che la X1600 farà girare qualsiasi cosa ALMENO a 1280x800 con dettagli alti e filtri bassi.
No?
Se potete smentirmi fatelo, sarei anch'io curioso di sapere le prestazioni reali...
Imho la X1600 è un'ottima vga, non un compromesso...
theFIERCE
28-03-2006, 17:50
Anch' io sono certo che sia un' ottima scheda, ma se è anche lontanamente parente della controparte desktop, meno performante di quanto non si creda considerando che rappresenta attualmente la soluzione di punta di Ati mobility (almeno vedendo quel che si trova in giro).
Sinceramente credo che la tua scheda sia decisamente più veloce e performante (anche montata su modelli parecchio più costosi), quindi non sono certo che un confronto con il tuo note sia indicativo (sicuramente a te girerebbe più che bene).
Mah, io sarei + ottimista sulle potenzialità della X1600 nel gioco reale. Certo la 6800 Go ha dalla sua un'overcloccabilità notevole ed il bus a 256 bit, ma credo che la nuova architettura X1k non sia da sottovalutare. Alla fin fine le pixel e le vertex pipelines sono in ugual numero, no? In più è vero che il bus verso la memoria della X1600 è di soli 128 bit, ma bisogna considerarne anche la migliore struttura interna: i dati all'interno del chip usufruiscono del Ring Bus a 128+128 bit. Nella 6800 Go e nella 7800 Go i dati hanno a disposizione un unico bus a 128 bit (per quanto riguarda la circolazione interna dei dati), o sbaglio? Questo imho potrebbe essere un bel collo di bottiglia.
fireball33
29-03-2006, 13:46
Mah, io sarei + ottimista sulle potenzialità della X1600 nel gioco reale. Certo la 6800 Go ha dalla sua un'overcloccabilità notevole ed il bus a 256 bit, ma credo che la nuova architettura X1k non sia da sottovalutare. Alla fin fine le pixel e le vertex pipelines sono in ugual numero, no? In più è vero che il bus verso la memoria della X1600 è di soli 128 bit, ma bisogna considerarne anche la migliore struttura interna: i dati all'interno del chip usufruiscono del Ring Bus a 128+128 bit. Nella 6800 Go e nella 7800 Go i dati hanno a disposizione un unico bus a 128 bit (per quanto riguarda la circolazione interna dei dati), o sbaglio? Questo imho potrebbe essere un bel collo di bottiglia.
quoto.. il ring bus è una delle + grandi innovazioni della serie x1000 (assieme alla codifica avivo)... cmq provato cod2 in dx9 con hdr (ho tolto qualche filtrino però :p ) è uno spettacolo!!! mappa toujane: riflessi sui tetti illuminati, effetto riverbero se si guarda direttamente verso il sole, effetto vapore nelle zone calde.... tutto un altro mondo! :D
theFIERCE
30-03-2006, 14:02
Le vostre opinioni mi rincuorano parecchio, soprattutto visto che con il monitor da 15.4" e la risoluzione 1280x800 non dovrebbero esserci grossi problemi a far girare più o meno tutto.
Certo che se uscisse qualcosa con processore amd (magari turion dual core) e 7800 o più...
Allora, sto provando Oblivion sulla 6800 a 1440x900 con dettagli alti e HDR attivo...e gira senza problemi, raramente gli fps scendono a 20...
Tutto questo in oc piuttosto spinto, il gioco è bello pesante... :eek:
theFIERCE
30-03-2006, 15:28
Allora, sto provando Oblivion sulla 6800 a 1440x900 con dettagli alti e HDR attivo...e gira senza problemi, raramente gli fps scendono a 20...
Tutto questo in oc piuttosto spinto, il gioco è bello pesante... :eek:
La tua configurazione è tosta comunque, e poi lo fai girare ad una risoluzione piuttosto alta, anche sui desktop non sono in molti quelli che giocano a Oblivion a risoluzioni del genere (tolti quelli che si sono svenati per x1900 - 7900 pompate).
Io spero proprio di riuscire a farlo girare a 1280x800 (risoluzione nativa), senza dover rinunciare a troppo dettaglio, alla peggio scenderò a 1024x768 cercando di implementare le bande nere laterali per non deformare l' immagine.
Certo che, indipendentemente dalla qualità visiva, gli sviluppatori dovrebbero cercare di ottimizzare meglio i motori grafici!
Io spero proprio di riuscire a farlo girare a 1280x800 (risoluzione nativa), senza dover rinunciare a troppo dettaglio, alla peggio scenderò a 1024x768 cercando di implementare le bande nere laterali per non deformare l' immagine.
Ma se il gioco supporta il widescreen (anche in 16:10) anche a 1024x768 non dovrebbe deformarsi + di tanto l'immagine, o no? :confused:
theFIERCE
31-03-2006, 17:47
Potrei sbagliarmi, ma in 1024x768, ovvero in 4:3, l' immagine viene per forza deformata se costretta ad adattarsi al formato wide, per questo motivo vorrei giocarlo in 16:10 (1280x800), che poi è più o meno la stessa risoluzione, solo in formato widescreen.
Comunque non ho il gioco sottomano, e nemmeno un monitor 16:10 per controllare.
Giovannino
31-03-2006, 17:56
Non vedo l'ora di provare oblivion con la quadro FX2500M in arrivo.
So che farà schifo con i videogame non essendo una scheda da gioco, ma magari la qualità visiva sarà impressionante con AA hardware e tutte le diavolerie che c'ha dentro sta schedina di derivazione 7900gtx :sofico:
Poi magari viaggerà a 3 frame per secondo a 800x600 per via dei driver non ottimizzati per i videogiochi e andrò a piangere nell'angolino :D
P.s: a oblivion ci gioco già con la x850xt da desktop in sign e viaggia tranquillo a 1920x1200 tutto attivo al max, AA 2x. In esterni raramente scendo a 10-12 fps, però davvero raramente.
theFIERCE
03-04-2006, 00:54
Qualcuno sa consigliare i driver per l' x1600?
Pare che quelli preinstallati più o meno su tutti i note siano pessimi, quelli del A6KT lo sono senz' altro!
Molti consigliano gli Omega, ma non so, ci sono altre alternative valide?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.