View Full Version : NVIDIA GeForce GTX 260 con 216 stream processors
Redazione di Hardware Upg
09-09-2008, 07:30
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-260-con-216-stream-processors_26437.html
Nuove conferme per la prossima evoluzione architetturale delle schede video NVIDIA GeForce GTX 260
Click sul link per visualizzare la notizia.
mokaverus
09-09-2008, 07:39
:cry:
perchè continuano con la loro politica...
scheda diversa, stesso nome... :muro:
Più che altro avessi comprato una GTX e mi trovassi ora di fronte ad un cambio comunque abbastanza significativo di architettura....non ne sarei molto contento!!
costa@73
09-09-2008, 07:52
perchè continuano con la loro politica...
scheda diversa, stesso nome...
Basta che noi continuiamo con la nostra di non comprare i loro prodotti...
ma qual'è il problema? il nome?
alla fine sono le prestazioni che contano, se la scheda e bona e va forte non vedo motivi per non comprarla.
ThePunisher
09-09-2008, 08:03
Per poter riconoscere la presenza di una di queste GPU nella propria scheda video è indispensabile osservare le sigle serigrafate sul chip: per il modello con 192 stream processors il nome è G200-100, mentre per quello con 216 stream processors troviamo la sigla G200-103.
LOL! Beh, facilissimo quindi... basta solo aprire la scatola... togliere il cooler e la pasta e leggere sopra al chip? :muro:
Il problema si chiama: "chiarezza".
Dovevano chiamarla GTX 260+ e stop... o GTX 270.
Basta che noi continuiamo con la nostra di non comprare i loro prodotti...
Se sarà all'altezza non vedo perchè non comprarla
Dalle stelle alle stalle...:stordita:
halduemilauno
09-09-2008, 08:11
bassa priorità e visibilità. per la massima si aspettano questi...
http://en.expreview.com/2008/09/09/elsa-hints-nvidias-next-step-is-45nm-gt212/
http://en.expreview.com/img/2008/09/09/NVIDIA-roadmap-GT212-GT206.jpg
;)
PsyCloud
09-09-2008, 08:11
stanno facendo questo per mettere la 260 al pari con la 4870 in modo da sfornare una scheda doppia gpu pari-livello con la 4870x2 senza avere i consumi mostruosi di uno sli di 280
Se sarà all'altezza non vedo perchè non comprarla
Non è il fatto di essere all'altezza o no.Tu nel caso volessi prenderla NUOVA,come diamine fai a capire che è il modello vecchio o quello revisionato?
C'è poco da dire,trattano col **** i potenziali acquirenti.E devo dire che nVidia in questo periodo ne sta facendo un'arte
marcel_71
09-09-2008, 08:17
stanno facendo questo per mettere la 260 al pari con la 4870 in modo da sfornare una scheda doppia gpu pari-livello con la 4870x2 senza avere i consumi mostruosi di uno sli di 280
è la stessa impressione che ho avuto io.
La 4870 sta marciando bene, e, con questa uscita, secondo me cercano di non perdere quote di mercato.
halduemilauno
09-09-2008, 08:19
stessa operazione che portò alla 8800gts 112 shader dai 96 originali.
;)
"stessa operazione che portò alla 8800gts 112 shader dai 96 originali"
E invece no...con le 8800 il quantitativo di ram era differente, i primi modelli con 96sp avevano tagli da 320 e da 640, mentre il modello revisionato né aveva 512. In questo modo una persona che segue il settore sapeva quale scheda scegliere. Qui a quanto ho capito non c'è nessuna caratteristica in evidenza che possa distinguere le due versioni.
Mr_Paulus
09-09-2008, 08:29
ma qual'è il problema? il nome?
alla fine sono le prestazioni che contano, se la scheda e bona e va forte non vedo motivi per non comprarla.
il problema è che questi continuano a pigliarci per il culo ma la soluzione è semplice, non comprerò più schede nvidia finché non la smettono di creare confusione con schede diverse sotto lo stesso nome.
Mr_Paulus
09-09-2008, 08:31
"stessa operazione che portò alla 8800gts 112 shader dai 96 originali"
E invece no...con le 8800 il quantitativo di ram era differente, i primi modelli con 96sp avevano tagli da 320 e da 640, mentre il modello revisionato né aveva 512. In questo modo una persona che segue il settore sapeva quale scheda scegliere. Qui a quanto ho capito non c'è nessuna caratteristica in evidenza che possa distinguere le due versioni.
infatti, qui siamo davanti a qualcosa di simile alle 9600gt mi sembra, quando ne hanno fatta uscire una versione a processo produttivo inferiore (- consumi + overclock ecc...) con lo stesso nome e le stesse caratteristiche, in pratica impossibili da riconoscere senza smontare il dissy.
:mad: :mad:
halduemilauno
09-09-2008, 08:34
"stessa operazione che portò alla 8800gts 112 shader dai 96 originali"
E invece no...con le 8800 il quantitativo di ram era differente, i primi modelli con 96sp avevano tagli da 320 e da 640, mentre il modello revisionato né aveva 512. In questo modo una persona che segue il settore sapeva quale scheda scegliere. Qui a quanto ho capito non c'è nessuna caratteristica in evidenza che possa distinguere le due versioni.
ti confondi io mi riferivo proprio a quella scheda che era identica alle 8800gts 640 che aveva 112 shader al posto dei 96. tu ti riferisci alla 8800gts512 basata su g92 io mi riferisco sempre al g80.
;)
ThePunisher
09-09-2008, 08:35
ti confondi io mi riferivo proprio a quella scheda che era identica alle 8800gts 640 che aveva 112 shader al posto dei 96. tu ti riferisci alla 8800gts512 basata su g92 io mi riferisco sempre al g80.
;)
o_O... la 8800GTS 640 in 2 versioni me l'ero proprio persa!
Mr_Paulus
09-09-2008, 08:35
o_O... la 8800GTS 640 in 2 versioni me l'ero proprio persa!
anch'io, mi ricordo la 640 e la 320 ma con uguale numero di sp mi pare.
Più che alla pari, direi che la supera la HD 4870.
Il punto è che continuerà a costare di più, e dovrà vedersela con la HD 4850 X2 che uscirà a breve.
E per i consumi mostruosi quella che si contraddistingue negativamente è la HD 4870 X2, con i suoi 260-300W in full load a seconda del programma utilizzato. Speriamo che Nvidia non faccia anch'essa una dual gpu.
Mr_Paulus
09-09-2008, 08:41
Non mi pare proprio sia mai accaduta una cosa del genere... :asd:
hai ragione era la 9800GT
http://www.hwupgrade.it/news/skvideo/due-versioni-di-gpu-per-le-schede-geforce-9800-gt_25302.html
:asd: :asd: :asd:
Kharonte85
09-09-2008, 08:46
pessimo...speriamo che al fotofinish gli venga l'illuminazione di aggiungere un +
Già mi vedo chiedere al negoziante: mi scusi potrei smontare la scheda video per verificare che sia la versione che mi interessa? :doh: :nono:
Mr_Paulus
09-09-2008, 08:49
Non mi pare proprio sia mai accaduta una cosa del genere... :asd:
ah eccola la nostra 9600gt
http://www.hwupgrade.it/news/skvideo/55-nanometri-per-le-schede-geforce-9600-gt_26137.html
:asd: :asd: :asd:
ghiltanas
09-09-2008, 08:49
ovviamente il prezzo sarà sproporzionato, mettiamo anche che vada + della 4870, quanto costerà di +? la differenza di prezzo sarà giustificata dalla differenza di prestazioni? ho i miei dubbi
Mr_Paulus
09-09-2008, 08:50
ovviamente il prezzo sarà sproporzionato, mettiamo anche che vada + della 4870, quanto costerà di +? la differenza di prezzo sarà giustificata dalla differenza di prestazioni? ho i miei dubbi
bisogna aspettare dei bench, ma considerando che la 4870 in certi casi avvicina la gtx280 penso che sia preferibile ancora AMD
e comunque imho solo per il rischio di beccarsi la versione con meno sp per almeno 2 o 3 mesi sta scheda è da lasciar perdere (poi magari ci sarà la nuova architettura quindi è da lasciar perdere proprio :asd: )
nvidia sempre più ridicola... nn gli andava affatto giù che la gtx260 (con 192sp) fosse alla pari con la 4870, quindi ha deciso di fare un'altra vga con lo stesso nome così potrà dire che la gtx260 sia superiore alla 4870...
cioè ma mi chiedo ma chi compra una gtx260 come ca##o fa a sapere cosa compra????
Nvidia sei ridicola! (e ho nvidia nel case)
spero in una 4890 (Rv770 XTX)
PsyCloud
09-09-2008, 08:56
la 4890 non uscirà mai e non ha senso di uscire.
spero in una revision della 4870 che ne abbassa ulteriormente i consumi in modo da avere una 4870x2 più umana (sulla bolletta della luce)
ghiltanas
09-09-2008, 08:57
bisogna aspettare dei bench, ma considerando che la 4870 in certi casi avvicina la gtx280 penso che sia preferibile ancora AMD
e comunque imho solo per il rischio di beccarsi la versione con meno sp per almeno 2 o 3 mesi sta scheda è da lasciar perdere (poi magari ci sarà la nuova architettura quindi è da lasciar perdere proprio :asd: )
ma quello è certo, anche in virtù del fatto che continuano imperterriti a nn voler inserire le lib grafiche aggiornate, e quindi rallentano una possibile adozione di quest'ultime nei giochi :muro:
io aspetto di vedere come vanno le nuove gpu con pp ridotto
ghiltanas
09-09-2008, 08:58
la 4890 non uscirà mai e non ha senso di uscire.
spero in una revision della 4870 che ne abbassa ulteriormente i consumi in modo da avere una 4870x2 più umana (sulla bolletta della luce)
a me basterebbe vedere una 4870 con 1gb di gddr5 a prezzo contenuto e diverebbe molto probabilmente la mia gpu
Mr_Paulus
09-09-2008, 08:59
L'hai mai vista in vendita? :rolleyes:
lol certo che non la vedevi perchè si confondevano con quelle a 65 nm :asd: :asd:
Mr_Paulus
09-09-2008, 09:00
la 4890 non uscirà mai e non ha senso di uscire.
spero in una revision della 4870 che ne abbassa ulteriormente i consumi in modo da avere una 4870x2 più umana (sulla bolletta della luce)
sicuramente usciranno nuovi stepping della gpu che ne abbaseranno il consumo con l'affinamento delle linee produttive ;)
Mr_Paulus
09-09-2008, 09:03
:mbe:
Dopo le tue risatine, manco avessi chissà cosa da dimostrare nei miei confronti, cosa vuoi che ti risponda...
comprati una ATI. :boh:
ti dimostro questo:
http://www.trovaprezzi.it/prezzo_schede-grafiche_9600gt.aspx
tu sai distinguere le schede a 65nm da quelle a 55 nm?
se non lo sai fare io ti ho dimostrato che nVidia ci piglia per il culo.
bon.
Brava nVidia: cosi' finalmente nei benchmark la gtx260 figurera' piu' veloce della readeon HD 4870!
Mi chiedo quanto andranno avanti con questa confusa politica sui nomi che rende quasi impossibile per l'aquirente medio stabilire quale effettivamente sia il prodotto migliore nella sua fascia di prezzo!
Mr_Paulus
09-09-2008, 09:04
comprati una ATI. :boh:
no grazie, la mia 6800GT può durare ancora un annetto ;)
la 4890 non uscirà mai e non ha senso di uscire.
spero in una revision della 4870 che ne abbassa ulteriormente i consumi in modo da avere una 4870x2 più umana (sulla bolletta della luce)
be basta selezionare le gpu e farle andare a tipo 825 Mhz ed ecco fatta la 4890 ;) (per le ram nn c'è bisogno di selezionarle visto come salgono)
a me basterebbe vedere una 4870 con 1gb di gddr5 a prezzo contenuto e diverebbe molto probabilmente la mia gpu
be guarda che cmq la 4870 a 512 si trova a 200€ o poco più, adesso nn so se siano già usciti i modelli con 1 GB ma credo che la differenza tra 512 e 1024 sia di circa 60€ quindi direi che ci può stare ;) soprattutto considerato che la 4870 512 alle alte risoluzioni è limitata dalla ram ed è poco sotto la gtx280
Mr_Paulus
09-09-2008, 09:12
Forse non leggi quello che scrivo...
la 55nm non è mai stata messa in commercio. :banned:
Vediamo se ora capisci... :stordita:
fonte?
perchè se permetti alla tua parola preferisco la loro:
http://www.tomshw.it/news.php?newsid=14905
http://www.hwupgrade.it/news/skvideo/55-nanometri-per-le-schede-geforce-9600-gt_26137.html
http://en.expreview.com/2008/07/28/nv-shrinks-9600gt-to-55nm-without-changing-the-name/
ci sono le foto del nuovo chip, e siccome nvidia non fa schede video per poi tenersele in magazzino ------>la scheda è entrata in commercio (o comunque entrerà in commercio adesso ma la sosanza non cambia)
tutto chiaro?
sara secondo me un best buy un pttima vga sicuramente che stara di sicuro sopra la 4870 di un discreto margine .........
poretti alla nvidia, non sanno più che pesci pigliare ormai... l'unica è pigliare a pesci in faccia gli utenti... contenti loro!
Una mossa intelligente(ladra) per poter fare uscire una nuova scheda senza dover tagliare il prezzo alle schede già in vendita...
anche io sono con voi...cioè ma che diamine??!? ma non ne leggono forum e dicerie su di loro in giro? BASTAAAA scheda nuova NOME NUOVOOO che la chiamino GTX260+ o GTX270! maledizione a loro...
il problema cmq io personalmente non me lo pongo...piu che altro è un problema per chi ne capisce poco di pc...comprare un'nvidia è diventato difficile...troppe vga che si sovrappongono nelle prestazioni con nomi nuovi e chip vecchi e chip vecchi con nomi nuovi...ma l'anti trust non può fare nulla? non è giusto
cmq ragazzi non per citare "l'altra testata importante italiana"....ma li hanno indicato una road map nvidia e la vga con 216 stream processor sarà indicata con un NOME NUOVO... o GTX206 o GTX216 o roba simile(cmq orrendo come nome e fuori luogo dato che sembra inferiore a GTX260...)
ghiltanas
09-09-2008, 09:52
be basta selezionare le gpu e farle andare a tipo 825 Mhz ed ecco fatta la 4890 ;) (per le ram nn c'è bisogno di selezionarle visto come salgono)
be guarda che cmq la 4870 a 512 si trova a 200€ o poco più, adesso nn so se siano già usciti i modelli con 1 GB ma credo che la differenza tra 512 e 1024 sia di circa 60€ quindi direi che ci può stare ;) soprattutto considerato che la 4870 512 alle alte risoluzioni è limitata dalla ram ed è poco sotto la gtx280
troppo, a prezzo contenuto intendo nn superiore ai 230 euro.
ThePunisher
09-09-2008, 09:53
cmq ragazzi non per citare "l'altra testata importante italiana"....ma li hanno indicato una road map nvidia e la vga con 216 stream processor sarà indicata con un NOME NUOVO... o GTX206 o GTX216 o roba simile(cmq orrendo come nome e fuori luogo dato che sembra inferiore a GTX260...)
Hai letto male la news... quella a 55nm sarà indicata con nome diverso (che ancora non si conosce comunque) e il chip sarà GT206, mentre il chip di quella a 40 o 45 (ancora non si sa) sarà indicato con un nome diverso ancora (GT212).
La GTX 260 con 216 SP sarà invece sempre GTX 260.
halduemilauno
09-09-2008, 09:56
cmq ragazzi non per citare "l'altra testata importante italiana"....ma li hanno indicato una road map nvidia e la vga con 216 stream processor sarà indicata con un NOME NUOVO... o GTX206 o GTX216 o roba simile(cmq orrendo come nome e fuori luogo dato che sembra inferiore a GTX260...)
gt206 e gt212 sono i nomi dei nuovi chip come quello attuale è gt200.
:banned:
Ginger79
09-09-2008, 10:03
GT 206 e GT212 sono i nomi in codice delle prossime ed imminenti GPU di fascia alta Nvidia.. prodotte a 55nm.
La prima uscirà tra 1 mese circa mentre per la seconda dovremo aspettare Gennaio 2009 (non molto considerando che le prossime schede AMD/Ati sono previste non prima di Maggio 2009).
Per quanto riguarda questa "nuova" GTX260... sarà venduta allo stesso prezzo (250€) ed avrà prestazioni mediamente superiori alla HD4870 (che costa però 220€). Se pensiamo poi alle già ottime capacità di overclock dell'attuale GTX260.. questa nuova proposta si candida come il prossimo best buy.
La HD4870 da 1Gb (se mai verrà commercializzata) avrà marginali benefici prestazionali (solo a risoluzioni spropositate) e costerà non meno di 270€.
Ginger79
09-09-2008, 10:05
gt206 e gt212 sono i nomi dei nuovi chip come quello attuale è gt200.
:banned:
Mi hai preceduto... :p
ghiltanas
09-09-2008, 10:08
GT 206 e GT212 sono i nomi in codice delle prossime ed imminenti GPU di fascia alta Nvidia.. prodotte a 55nm.
La prima uscirà tra 1 mese circa mentre per la seconda dovremo aspettare Gennaio 2009 (non molto considerando che le prossime schede AMD/Ati sono previste non prima di Maggio 2009).
Per quanto riguarda questa "nuova" GTX260... sarà venduta allo stesso prezzo (250€) ed avrà prestazioni mediamente superiori alla HD4870 (che costa però 220€). Se pensiamo poi alle già ottime capacità di overclock dell'attuale GTX260.. questa nuova proposta si candida come il prossimo best buy.
La HD4870 da 1Gb (se mai verrà commercializzata) avrà marginali benefici prestazionali (solo a risoluzioni spropositate) e costerà non meno di 270€.
si parla di 40 e 45 nm.
Che diventi il bestbuy la gtx260 ho forti dubbi, inoltre ad esempio per me è molto utile anche la funzione di gestione dell'audio hd presente nelle nuove ati. Perchè la nvidia nn si degna di realizzare una cosa del genere? Aggiungerei anche che se è vero che fra un mese esce la "gt206" adesso nn ha molto senso cambiare gpu. Per quanto riguarda amd magari nn introduce una nuova architettura, ma realizzerà delle revision come farà nvidia
ThePunisher
09-09-2008, 10:09
Mi hai preceduto... :p
Beh io ho preceduto entrambi se è per questo asd.
ThePunisher
09-09-2008, 10:10
si parla di 40 e 45 nm.
Che diventi il bestbuy la gtx260 ho forti dubbi, inoltre ad esempio per me è molto utile anche la funzione di gestione dell'audio hd presente nelle nuove ati. Perchè la nvidia nn si degna di realizzare una cosa del genere? Aggiungerei anche che se è vero che fra un mese esce la "gt206" adesso nn ha molto senso cambiare gpu. Per quanto riguarda amd magari nn introduce una nuova architettura, ma realizzerà delle revision come farà nvidia
1 mese? Si parla minimo di metà novembre.
ghiltanas
09-09-2008, 10:12
1 mese? Si parla minimo di metà novembre.
nn l'ho detto io un mese, ho ripreso quanto detto da Ginger79 "un mese circa"
PsyCloud
09-09-2008, 10:16
la versione da 1gb della 4870 non può costare più di 260 perchè altrimenti nessuno la comprerebbe dato che a 400 euro c'e' la 4870x2 da 2gb...
Wolfhang
09-09-2008, 10:17
l'unica cosa che fa preferire una hd4870 alla gtx260 è il prezzo, se cominciano ad arrivare a queste cifre secondo me sono da preferire...http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb
PsyCloud
09-09-2008, 10:19
su bow c'e' a catalogo la 4870 da 1 gb a 289 (troppo) con la 4870x2 a 498
Si trova comunque a meno la 4870x2
ghiltanas
09-09-2008, 10:20
la versione da 1gb della 4870 non può costare più di 260 perchè altrimenti nessuno la comprerebbe dato che a 400 euro c'e' la 4870x2 da 2gb...
poi se vogliono introdurre la 4850x2 nn avrebbe molto senso a quel prezzo. Imho devono far calare la 4870 da 512 e poi lanciare la versione da 1gb a un prezzo contenuto, intorno ai 230 euro, allora si :)
Ginger79
09-09-2008, 10:25
Incredibile il link postato poco sopra... non sapevo che la GTX260 fosse scesa a 228€. A questo punto il futuro mi sembra ben chiaro :D
PsyCloud
09-09-2008, 10:25
ghiltanas concordo.
A proposito di prezzi... ci devessere qualche errore nei listini online dei processori intel: il q9450 costa di più (in media) del q9550 non è che voi ne sapete qualche cosa?
ghiltanas
09-09-2008, 10:26
ghiltanas concordo.
A proposito di prezzi... ci devessere qualche errore nei listini online dei processori intel: il q9450 costa di più (in media) del q9550 non è che voi ne sapete qualche cosa?
siamo ot, cmq in media a dir la verità ci sono 40 euro di diff, a favore del q9450 :mbe:
ghiltanas
09-09-2008, 10:28
l'unica cosa che fa preferire una hd4870 alla gtx260 è il prezzo, se cominciano ad arrivare a queste cifre secondo me sono da preferire...http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb
mi sa che vogliono esaurire le scorte, in previsione della nuova versione, che nn possono proporre ad un prezzo troppo elevato, ma deve restare sui livelli della 260 attuale
PsyCloud
09-09-2008, 10:30
beh oltre al prezzo (minore) anche quella superiorità in quasi tutti i benchmark visti.
Mercuri0
09-09-2008, 10:30
Per quanto riguarda amd magari nn introduce una nuova architettura, ma realizzerà delle revision come farà nvidia
Buh, "secondo programma" dovrebbe esserci una revision a gennaio anche per AMD, ma non s'è sentito niente in giro.
Penso che la loro preoccupazione ora sia più che altro tirare fuori i chip mainstream in tempo da infilarceli nei computer OEM natalizi.
Per la fascia alta possono abbassare i prezzi delle 48xx a piacere, se nVidia dovesse calcare la mano.
Viceversa spero che prima o poi nVidia riesca a fare ordine nei suoi magazzini: questa politica "Compra la scheda e poi scopri quale hai preso" non mi entusiasma affatto.
Diciamo la verità, glielo consentiamo perché è "nVidia" e ci fidiamo a causa dei trascorsi: es: "Anche ad essere sfigato sempre una nVidia è"
Fosse stata un'azienda meno nota (ma anche AMD) l'avremmo semplicemente depennata dalla lista delle scelte. es: "Voglio sapere cosa compro con chiarezza senza dovermi sbattere"
Ginger79
09-09-2008, 10:37
Per la fascia alta possono abbassare i prezzi delle 48xx a piacere, se nVidia dovesse calcare la mano.
Purtroppo (per noi acquirenti) non è così. Che i chip RV700 costino meno ad AMD di quanto GT200 costi ad Nvidia è cosa risaputa ma sotto una certa soglia non si può scendere e sembra che quella della 4870 sia intorno ai 200€.
purtroppo di SONY ne esiste solo una ed AMD non può certo permettersi di imitarla (mi riferisco alla perdita su ogni singola PS3 per chi fosse meno informato).
Wolfhang
09-09-2008, 10:38
Incredibile il link postato poco sopra... non sapevo che la GTX260 fosse scesa a 228€. A questo punto il futuro mi sembra ben chiaro :D
senza considerare che praticamente ha 1GB di ram....
ghiltanas
09-09-2008, 10:40
senza considerare che praticamente ha 1GB di ram....
a proposito di ram, direi che nn è affatto da escludere l'adozione di gddr5 da parte delle nuove nvidia, questo sarebbe molto interessante
Ginger79
09-09-2008, 10:44
a proposito di ram, direi che nn è affatto da escludere l'adozione di gddr5 da parte delle nuove nvidia, questo sarebbe molto interessante
Sarebbe tanto bello quanto improbabile dato che la banda passante risultante dall'abbinamento di GDDR5 + Bus a 512bit risulterebbe sproporzionata.
ghiltanas
09-09-2008, 10:48
Sarebbe tanto bello quanto improbabile dato che la banda passante risultante dall'abbinamento di GDDR5 + Bus a 512bit risulterebbe sproporzionata.
decisamente :asd:, cmq la gtx260 nn ha bus a 512bit se nn sbaglio
Ginger79
09-09-2008, 10:54
decisamente :asd:, cmq la gtx260 nn ha bus a 512bit se nn sbaglio
448bit
P.s. Hai un PM cmq.
Marko#88
09-09-2008, 12:32
Vorrei dire un paio di cose:
in primo luogo chi dice che la 4870 conviene di peso rispetto alla gtx260 fa un confronto sbagliato utilizzando la 4870 con 512mb di vram...visto che la gtx260 ne ha 896 il confronto ideale sarebbe con la versione da 1GB della 4870...e in questo caso la 4870 costa circa 250 euri contro i 230 della gtx260 che va circa uguale e con poca vram in meno...la 4870 in versione da 512 si trova a poco più di 210 euri in meno...ma con la metà della vram in pratica...e su queste schede i 512 potrebbero diventrare strettini presto...e la 4870 batte nvidia di pochissimo come prestazioni ma perde miseramente in fatto di sistema di dissipazione...quindi tutto sommato non vedo perchè gettare merda sulla gtx260...capisco tempo fa quando costava un botto ma adesso le cose sono cambiate, molti di voi scommetto che nemmeno si sono informati un attimo prima i far prendere aria alla bocca...
e in secondo luogo...da quando ati e nvidia sono associazioni umanitarie o dedicate alla difesa dei consumatori? Che io sappia da mai e di conseguenza il loro scopo è fare soldi, non regali...quindi non vedo perchè non fare uscire una versione aggiornata di una delle proprie vga...so già che qualcuno dirà che ati invece ha tenuto i prezzi bassi fin da subito...eh grazie dico io, nelle condizioni in cui era non poteva permettersi di far pagare troppo le schede, aveva bisogno di volumi di vendita...in passato anche ati ha fatto i suoi prezzi assassini...e lo dico da uno che ha avuto una 4850 fino a qualche giorno fa quindi non sono un anboy, ne di una casa nè dell'altra...
costa@73
09-09-2008, 13:35
Ma per favore..
é dai tempi della geforce4 mx/ti che nvidia lo mette nel deretano di chi non ha tempo/voglia di informarsi...
Intanto ( sempre grazie ad nvidia), aspettiamo ancora per vedre dx 10.1..
Dopo lo scherzo della patch di AC, neanche ci provano piu'..
Grazie Nvidia
Wolfhang
09-09-2008, 13:44
Ma per favore..
é dai tempi della geforce4 mx/ti che nvidia lo mette nel deretano di chi non ha tempo/voglia di informarsi...
Intanto ( sempre grazie ad nvidia), aspettiamo ancora per vedre dx 10.1..
Dopo lo scherzo della patch di AC, neanche ci provano piu'..
Grazie Nvidia
...vallo a dire a chi si è preso la 8800GTX due anni fa e sono ancora sulla cresta dell'onda....
ThePunisher
09-09-2008, 13:49
...vallo a dire a chi si è preso la 8800GTX due anni fa e sono ancora sulla cresta dell'onda....
La mia ha un anno e mezzo :asd:... :D.
MenageZero
09-09-2008, 13:54
cmq non capisco come si possano vendere 2 prodotti con prestazioni effettivamente differenti ma impossibili da distinguere se non dopo l'acquisto (o almeno così sembra dalla news), dato soprattutto che probabilmente per un periodo saranno in vendita contemporaneamente ...
(mah forse si può perché tanto sono "dettagli" di cui si accorge solo una nicchia numericamente insignificante di persone :sofico:)
ma le leggi italiane sul commercio per es, permettono effettivamente che questo avvenga ?
voglio sperare che, semplicemente, anche se il nome della scheda sarà uguale tutte le confezioni e le schede prodotto riporteranno una qualche scritta che permetta di distinguere i due tipi di gtx260 ...
ps: @halduemilauno
quella scheda con g80 e 112 sp attivi, ma chiamata sempre 8800gts me la ero proprio persa :stordita: ... ma la commecializzarono persino retail sui normali canali, ovunque ?
halduemilauno
09-09-2008, 14:06
cmq non capisco come si possano vendere 2 prodotti con prestazioni effettivamente differenti ma impossibili da distinguere se non dopo l'acquisto (o almeno così sembra dalla news), dato soprattutto che probabilmente per un periodo saranno in vendita contemporaneamente ...
(mah forse si può perché tanto sono "dettagli" di cui si accorge solo una nicchia numericamente insignificante di persone :sofico:)
ma le leggi italiane sul commercio per es, permettono effettivamente che questo avvenga ?
voglio sperare che, semplicemente, anche se il nome della scheda sarà uguale tutte le confezioni e le schede prodotto riporteranno una qualche scritta che permetta di distinguere i due tipi di gtx260 ...
ps: @halduemilauno
quella scheda con g80 e 112 sp attivi, ma chiamata sempre 8800gts me la ero proprio persa :stordita: ... ma la commecializzarono persino retail sui normali canali, ovunque ?
ovviamente fu una commercializzazione limitata a 2/3 partner e di brevissima durata tipo 2/3 settimane e anche meno.
;)
Wolfhang
09-09-2008, 14:08
cmq non capisco come si possano vendere 2 prodotti con prestazioni effettivamente differenti ma impossibili da distinguere se non dopo l'acquisto (o almeno così sembra dalla news), dato soprattutto che probabilmente per un periodo saranno in vendita contemporaneamente ...
(mah forse si può perché tanto sono "dettagli" di cui si accorge solo una nicchia numericamente insignificante di persone :sofico:)
ma le leggi italiane sul commercio per es, permettono effettivamente che questo avvenga ?
voglio sperare che, semplicemente, anche se il nome della scheda sarà uguale tutte le confezioni e le schede prodotto riporteranno una qualche scritta che permetta di distinguere i due tipi di gtx260 ...
ps: @halduemilauno
quella scheda con g80 e 112 sp attivi, ma chiamata sempre 8800gts me la ero proprio persa :stordita: ... ma la commecializzarono persino retail sui normali canali, ovunque ?
io invece non capisco tutto questo scandalizzarsi, io invece penso che oltre che sul cip la revisione differente sarà riportata anche nella scatola.
Oltretutto non succede questo anche per i processori?? Quante revisioni esistono di uno stesso processore? Anche più di due, addirittura ATI\AMD ti fà la revisione con e senza BUG :cry:
Mr_Paulus
09-09-2008, 14:09
voglio sperare che, semplicemente, anche se il nome della scheda sarà uguale tutte le confezioni e le schede prodotto riporteranno una qualche scritta che permetta di distinguere i due tipi di gtx260 ...
non l'hanno fatto con le 9600GT e le 9800GT quindi non mi meraviglirei.
comunque in questo caso basta andare a cercare il numero di sp (sempre se c'è :stordita:)
La G80 con 112SU fu commercializzata retail con i marchi EVGA e BFG, ed era "distinguibile" perchè riportato esplicitamente nelle specifiche.
Anche per questa GTX260 sicuramente le 216SU saranno riportate nelle specifiche del produttore, quindi non vedo il problema.
D'altronde, qualsiasi nome fosse adottato, è certo che qualcuno si lamenterà cmq :-)
Mr_Paulus
09-09-2008, 14:11
io invece non capisco tutto questo scandalizzarsi, io invece penso che oltre che sul cip la revisione differente sarà riportata anche nella scatola.
Oltretutto non succede questo anche per i processori?? Quante revisioni esistono di uno stesso processore? Anche più di due, addirittura ATI\AMD ti fà la revisione con e senza BUG :cry:
ma se tra un mese vai a comprarti la gtx260 contando di prendere quella annunciata dall'articolo e ti trovi una scheda col numero più basso di sp (e sulla scatola non c'è scritto niente) tu che fai? ti incazzi o no?
poi ovvio che se lo scrivono BELLO E COMPRENSIBILE sulla scatola allora niente da dire ;)
halduemilauno
09-09-2008, 14:17
La G80 con 112SU fu commercializzata retail con i marchi EVGA e BFG, ed era "distinguibile" perchè riportato esplicitamente nelle specifiche.
Anche per questa GTX260 sicuramente le 216SU saranno riportate nelle specifiche del produttore, quindi non vedo il problema.
D'altronde, qualsiasi nome fosse adottato, è certo che qualcuno si lamenterà cmq :-)
esatto confermo. la prima parte almeno.
;)
Wolfhang
09-09-2008, 14:18
ma se tra un mese vai a comprarti la gtx260 contando di prendere quella annunciata dall'articolo e ti trovi una scheda col numero più basso di sp (e sulla scatola non c'è scritto niente) tu che fai? ti incazzi o no?
poi ovvio che se lo scrivono BELLO E COMPRENSIBILE sulla scatola allora niente da dire ;)
scusa, quando mi sono preso il processore esistevano (ed esistono) i B3 e i G0, ho chiesto un G0 e quello mi hanno dato, dove stà il problema??
Ginger79
09-09-2008, 14:22
Intanto ( sempre grazie ad nvidia), aspettiamo ancora per vedre dx 10.1..
Dopo lo scherzo della patch di AC, neanche ci provano piu'..
Grazie Nvidia
Usciranno a breve le DX11 (parola di Microsoft) ... le 10.1 non servono a niente.... è inutile che continuate con questa solfa. Capisco che sia l'unico appiglio al quale aggrapparsi per giustificare l'acquisto di una 4870 su una GTX260 (soprattutto ora che oltre ad un prezzo concorrenziale avrà anche prestazioni superiori) tuttavia è stato detto e ridetto che la differenza in termini qualitativi (tra DX10 e DX10.1) è impercettibile.
Non venite poi a tirar fuori la storia della "Tessellation" in quanto se questa caratteristica poteva inizialmente rappresentaree un pregio delle 48XX ora rappresenta un difetto poichè Microsoft ha detto che non sarà compatibile con quella implementata nelle DX11... ergo il supporto alle DX10.1 e alla Tessellation nelle schede attuali è INUTILE.
Mettetevi il cuore in pace.
Mr_Paulus
09-09-2008, 14:24
scusa, quando mi sono preso il processore esistevano (ed esistono) i B3 e i G0, ho chiesto un G0 e quello mi hanno dato, dove stà il problema??
ok, tu SAI, ma l'utonto non SA, è questo il problema ;) (poi bisogna vedere anche se il commesso di turno è un pirl@ o no :asd:)
anche per i processori secondo me dovrebebro segnalare meglio la varie revision (poi se ci sono cambiamenti degni di nota viene segnalato bene (esempio AMD con i phenom)).
ma qui imho è più grave perchè non si tratta di una semplice revision, si tratta di una scheda che probabilmente andrà di più della corrispettiva AMD e di una che va leggermente meno, è una roba da pazzi secondo me commerciarle con lo stesso nome.
Mr_Paulus
09-09-2008, 14:26
Usciranno a breve le DX11 (parola di Microsoft) ... le 10.1 non servono a niente.... è inutile che continuate con questa solfa. Capisco che sia l'unico appiglio al quale aggrapparsi per giustificare l'acquisto di una 4870 su una GTX260 (soprattutto ora che oltre ad un prezzo concorrenziale avrà anche prestazioni superiori) tuttavia è stato detto e ridetto che la differenza in termini qualitativi (tra DX10 e DX10.1) è impercettibile.
Non venite poi a tirar fuori la storia della "Tessellation" in quanto se questa caratteristica poteva inizialmente rappresentaree un pregio delle 48XX ora rappresenta un difetto poichè Microsoft ha detto che non sarà compatibile con quella implementata nelle DX11... ergo il supporto alle DX10.1 e alla Tessellation enlle schede attuali è INUTILE.
Mettetevi il cuore in pace.
se per te un aumento degli fps con l'antialiasing con miglioramento anche se poco evidente della qualità vuol dire non servire a niente allora beh, non ha senso discutere :)
EDIT
per le dx11 si parla di almeno 2 anni quindi non mi pare che siano proprio dietro l'angolo.
MenageZero
09-09-2008, 14:31
io invece non capisco tutto questo scandalizzarsi, io invece penso che oltre che sul cip la revisione differente sarà riportata anche nella scatola.
Oltretutto non succede questo anche per i processori?? Quante revisioni esistono di uno stesso processore? Anche più di due, addirittura ATI\AMD ti fà la revisione con e senza BUG :cry:
se c'è qualcosa sulla scatola (e quindi si spera ci sarà anche nelle schede prodotto, quando per es compri on-line o per chi compra un pc intero), ok, anche non fosse qualcosa di evidente il minimo indipsensabile per poter scegliere ci sarebbe.
nelle cpu ma non solo di norma quando sotto un medesimo nome commerciale viene venduta una nuova revison del chip, le caratteristiche funzionali e soprattutto la prestazioni non cambiano.
poi sul bug famoso del k10, se è a quello che ti riferivi, non sapevo ci fossero in commercio cpu con identico nome ma con e senza correzzione in hw del bug :boh:
inoltre in quel caso (oltre che era estremamente difficile far manifestare il problema) ad avere un impatto prestazionale in negativo non era il bug ma il workaround implementabile tramite bios
TheDarkAngel
09-09-2008, 14:36
Usciranno a breve le DX11 (parola di Microsoft) ... le 10.1 non servono a niente.... è inutile che continuate con questa solfa. Capisco che sia l'unico appiglio al quale aggrapparsi per giustificare l'acquisto di una 4870 su una GTX260 (soprattutto ora che oltre ad un prezzo concorrenziale avrà anche prestazioni superiori) tuttavia è stato detto e ridetto che la differenza in termini qualitativi (tra DX10 e DX10.1) è impercettibile.
Non venite poi a tirar fuori la storia della "Tessellation" in quanto se questa caratteristica poteva inizialmente rappresentaree un pregio delle 48XX ora rappresenta un difetto poichè Microsoft ha detto che non sarà compatibile con quella implementata nelle DX11... ergo il supporto alle DX10.1 e alla Tessellation nelle schede attuali è INUTILE.
Mettetevi il cuore in pace.
ti piacerebbe che la gtx260 andasse di più vero :asd: ? invece dovrai sopportare queste schede che costano meno e vanno di più :asd: ci vedo tanto :rosik: :rosik:
MenageZero
09-09-2008, 14:36
se per te un aumento degli fps con l'antialiasing con miglioramento anche se poco evidente della qualità vuol dire non servire a niente allora beh, non ha senso discutere :)
EDIT
per le dx11 si parla di almeno 2 anni quindi non mi pare che siano proprio dietro l'angolo.
2 anni da ora ? l'ultima che avevo letto io (ma mesi fa) era che venivano pronte, come specifiche finali almeno, tra fine anno e inizio 2009 ... :sofico:
dici che, per es, nel frattempo esce "seven"(pur sempre inizio 2010, mica poche settimane) e non ci includono la v.11 ? :wtf:
Ginger79
09-09-2008, 14:38
se per te un aumento degli fps con l'antialiasing vuol dire non servire a niente allora beh, non ha senso discutere :)
L'aumento di FPS (tutto da verificare cmq) non aumenta la qualità dell'immagine ;) e con la nuova GTX260 di Fps in più ne avremo a iosa :D
per le dx11 si parla di almeno 2 anni quindi non mi pare che siano proprio dietro l'angolo.
Quello che affermi è stato smentito poco tempo fa. Inizialmente era prevista un'uscita in concomitanza con Windows 7 (2010) ma poi hanno deciso di rilasciarle anticipatamente (2009) su richiesta di molti sviluppatori. Poi si sa... in questo settore niente è mai certo al 100%. Time will tell !
Mr_Paulus
09-09-2008, 14:39
boh io ho letto qui ed è aggiornato al 23 luglio :boh:
http://gaming.800a.ws/directx-11-microsoft-svela-i-dettagli/
comunque ricordo che girava voce (ma qui non sono sicuro) che microsoft non le presenterà prima di seven.
Futura12
09-09-2008, 14:39
"stessa operazione che portò alla 8800gts 112 shader dai 96 originali"
E invece no...con le 8800 il quantitativo di ram era differente, i primi modelli con 96sp avevano tagli da 320 e da 640, mentre il modello revisionato né aveva 512. In questo modo una persona che segue il settore sapeva quale scheda scegliere. Qui a quanto ho capito non c'è nessuna caratteristica in evidenza che possa distinguere le due versioni.
Non è vero,si trattava della 8800GTS 640Mb con 112 Stream Processor e 320Bit e core G80 io in commercio manco le ho mai viste però c'erano;).
La GTS 512Mb ha 128 processor e il G92.
MenageZero
09-09-2008, 14:41
ti piacerebbe che la gtx260 andasse di più vero :asd: ? invece dovrai sopportare queste schede che costano meno e vanno di più :asd: ci vedo tanto :rosik: :rosik:
ammonito per post unicamente volto alla polemica
comunicazione generale: se qualcuno sta pensando di spostare il thread verso una gpu-war, se lo tolga dalla testa ...
Ginger79
09-09-2008, 14:43
ti piacerebbe che la gtx260 andasse di più vero :asd: ? invece dovrai sopportare queste schede che costano meno e vanno di più :asd: ci vedo tanto :rosik: :rosik:
Complimenti per il senso e per la logica del tuo commento... Oxford ?
:banned:
Ginger79
09-09-2008, 14:45
boh io ho letto qui ed è aggiornato al 23 luglio :boh:
http://gaming.800a.ws/directx-11-microsoft-svela-i-dettagli/
comunque ricordo che girava voce (ma qui non sono sicuro) che microsoft non le presenterà prima di seven.
La notizia è stata data all'Nvision di Agosto 2008... dunque è successiva a tale data. Ma ripeto "time will tell" .
Mr_Paulus
09-09-2008, 14:46
L'aumento di FPS (tutto da verificare cmq) non aumenta la qualità dell'immagine ;) e con la nuova GTX260 di Fps in più ne avremo a iosa :D
e invece si perchè le dx10,1 tolgono un passaggio di rendering "inutile" nell'applicazione dell'antialiasing e quindi la qualità aumenta e aumentano anche gli fps.
comunque se n'è già discusso a lungo in schede video dove ha postato gente come leoneazzurro e yossarian, vai a cercarti le discussioni ;)
vatti anche a cercare dei bench su assassin's creed e troverai la conferma per le prestazioni ;)
e per la gtx 260 da noi c'è un detto:
non dire figa prima di averla bombata
:asd: :D
quindi aspettiamo e vedremo le prestazioni.
anche perchè la gtx280 non è che distrugga la 4870 e quasta sicuramente andrà meno quindi..
corradobernardi
09-09-2008, 14:52
ma qual'è il problema? il nome?
alla fine sono le prestazioni che contano, se la scheda e bona e va forte non vedo motivi per non comprarla.
si che è ovvio il problema...
il problema è che se ordini una GT260, c'è il vendor che ti da la versione con 192sp rimasta a magazzino e quello che ha la partita di 260 nuove, ti da quella con 216...
fagli capire poi che vuoi la 260 nuova e non la 260 di 2 mesi fa...
MenageZero
09-09-2008, 14:56
Complimenti per il senso e per la logica del tuo commento... Oxford ?
:banned:
mi obblighi all'ammonizione, post solo per rispondere polemicamente ad un'altro a sua volta fatto solo per polemica, e dopo che l'altro utente era già stato richiamato proprio per quello
che confusione!
In questo modo, confondendo la gente, sicuramente non invogliano la gente a comprare..!
Mister Tarpone
09-09-2008, 14:59
infatti, qui siamo davanti a qualcosa di simile alle 9600gt mi sembra, quando ne hanno fatta uscire una versione a processo produttivo inferiore (- consumi + overclock ecc...) con lo stesso nome e le stesse caratteristiche, in pratica impossibili da riconoscere senza smontare il dissy.
:mad: :mad:
mai successo. la 9600GT c'è solo a 65nm.
Mr_Paulus
09-09-2008, 14:59
si che è ovvio il problema...
il problema è che se ordini una GT260, c'è il vendor che ti da la versione con 192sp rimasta a magazzino e quello che ha la partita di 260 nuove, ti da quella con 216...
fagli capire poi che vuoi la 260 nuova e non la 260 di 2 mesi fa...
già è difficile con nomi diversi.
a volte ti capitano dei commessi del tipo:
io: ehm, vorrei una nvidia gtx260
commesso: uh? nVidia? :confused: si mangia? :mbe:
:asd: :asd:
Mr_Paulus
09-09-2008, 15:01
mai successo. la 9600GT c'è solo a 65nm.
oi regà continuate a dirlo ma non riuscite a postarmi una fonte che dica il contrario di questa.
http://www.hwupgrade.it/news/skvideo/55-nanometri-per-le-schede-geforce-9600-gt_26137.html
Ginger79
09-09-2008, 15:04
mi obblighi all'ammonizione, post solo per rispondere polemicamente ad un'altro a sua volta fatto solo per polemica, e dopo che l'altro utente era già stato richiamato proprio per quello
Abbiamo scritto il commento insieme: Il tuo alle 15:41 e il mio alle 15:43 ergo non potevo aver letto il tuo commento nel momento in cui ho postato (non sempre aggiorno la pagina quando posto).
Mister Tarpone
09-09-2008, 15:09
visto.. non cambia una sega come numero di sp e come frequenze dalla 65nm
cmq è normale...hanno fatto come con le 7600GT.. prima erano a 90nm dopo affinarono il processo produttivo passando a 80nm... ma le prestazioni eran sempre quelle.
Mr_Paulus
09-09-2008, 15:11
visto.. non cambia una sega come numero di sp e come frequenze dalla 65nm
si ma cambiano i consumi (e in quella fascia non è poco) e (ma di questo non ne sono sicuro, correggetemi pure) mi sembra che solo la 55 supporta l'hybrid power.
ghiltanas
09-09-2008, 15:11
oi regà continuate a dirlo ma non riuscite a postarmi una fonte che dica il contrario di questa.
http://www.hwupgrade.it/news/skvideo/55-nanometri-per-le-schede-geforce-9600-gt_26137.html
preso dall'articolo:
"Il sito expreview ha pubblicato, a questo indirizzo, informazioni su una nuova revision di GPU NVIDIA GeForce 9600 GT, proposta di gamma media del produttore americano che starebbe passando alla tecnologia produttiva a 55 nanometri contro quella a 65 nanometri utilizzata sin dal debutto."
condizionale, quindi nn una notizia certa
Mister Tarpone
09-09-2008, 15:12
preso dall'articolo:
"Il sito expreview ha pubblicato, a questo indirizzo, informazioni su una nuova revision di GPU NVIDIA GeForce 9600 GT, proposta di gamma media del produttore americano che starebbe passando alla tecnologia produttiva a 55 nanometri contro quella a 65 nanometri utilizzata sin dal debutto."
condizionale, quindi nn una notizia certa
ahhh ecco... mi sembrava strano.. se fosse uscita fuori realmente se ne sarebbe sentito parlare ancora..
Mr_Paulus
09-09-2008, 15:14
preso dall'articolo:
"Il sito expreview ha pubblicato, a questo indirizzo, informazioni su una nuova revision di GPU NVIDIA GeForce 9600 GT, proposta di gamma media del produttore americano che starebbe passando alla tecnologia produttiva a 55 nanometri contro quella a 65 nanometri utilizzata sin dal debutto."
condizionale, quindi nn una notizia certa
ho capito ma nel link ci sono foto del chip e numeri di serie, quindi le certezze aumentano ;) (a meno che inventano ma lì sarebbe un altro discorso)
comunque io non dicevo nulla sul fatto che siano in commercio o no, ma sul fatto dell'impossibilità di identificarle (a meno che cambino il nome ma non sembra a quanto pare).
ghiltanas
09-09-2008, 15:16
ho capito ma nel link ci sono foto del chip e numeri di serie, quindi le certezze aumentano ;)
sicuramente, cmq credo sarebbero obbligati a specificarlo in qualche modo sulla confezione che sono 2 edizioni diverse, specie se quella a 55nm supporta l'hybrid power, oppure no? :confused:
Mister Tarpone
09-09-2008, 15:18
sicuramente, cmq credo sarebbero obbligati a specificarlo in qualche modo sulla confezione che sono 2 edizioni diverse, specie se quella a 55nm supporta l'hybrid power, oppure no? :confused:
beh vedi anche le 9800GT 55nm.. mi sembra che è specificato nella scatola che supportano le nuove feature dell'hybrid power ecc.
Mr_Paulus
09-09-2008, 15:18
sicuramente, cmq credo sarebbero obbligati a specificarlo in qualche modo sulla confezione che sono 2 edizioni diverse, specie se quella a 55nm supporta l'hybrid power, oppure no? :confused:
è appunto quello che dico io. ora i casi sono 2:
sono entrate silenziosamente in commercio = gli utenti lo prendono in saccoccia.
non sono ancora entrate in commercio= si spera che i produttori mettano qualche distintivo tra le 2.
Io ho la 260 attuale e la 4870...due ottime vga che reputo gia ora alla pari.
Nvidia ha però un miglior dissipatore ma una lunghezza da barca.
Ati ha dei driver penosetti confrontati ad nvidia e evidenti problemi con il dissipatore di serie.
Alla fine non sapendo cosa scegliere me le sono tenute entrambe.
Questa cosa della 260 con qualche shader in più mi sa tanto di 280 uscite male e rimarchiate 260 per non buttarle via.
La generazione attuale di vga è comunque da saltare, troppi bug e troppe prese per i fondelli.
Non buttate via denaro se siete persone che vogliono vga da montare e usare...c'è da smanettare ancora troppo tra bios e cambi di dissipatore.
mikepedo
09-09-2008, 15:37
Trovo la cosa scandalosa, e questo comportamento mi fa pensare ad una sola cosa: Nvidia si ritrova un sacco di chip difettati su un solo TPC, e visto che la HD4870 è leggermente più veloce, con questa nuova revisione faranno vedere che la GTX260 è più veloce, ma poi quando un consumatore la compra deve "indovinare" il modello buono!
P.S. era giusto chiamarla GTX270, ma a quel punto rischiavano di non vendere più le attuali GTX260, considerando che il costo di acquisto (conseguenza di quello di produzione) sarebbe stato identico tra le 2 schede, di fatto uguali per componentistica!
Strategia molto delundente :(
amagriva
09-09-2008, 15:47
Commento # 8 di: REPERGOGIAN pubblicato il 09 Settembre 2008, 11:20
se costano 595 dollari per blocco da 1000 unità significa che al singolo acquirente costeranno di più?
Ma noo! Funziona così:
Se ne compri uno costa un dollaro, se ne compri due ti costa due dollari, se ne compri tre ti costa tre dollari.
E' il nuovo schema commerciale rivoluzionario detto anche convenienza esponenziale inversa di Kondratieff...
amagriva
09-09-2008, 15:48
Ho incoolato nel post sbagliato...Sorry
yossarian
09-09-2008, 16:25
Usciranno a breve le DX11 (parola di Microsoft) ... le 10.1 non servono a niente.... è inutile che continuate con questa solfa. Capisco che sia l'unico appiglio al quale aggrapparsi per giustificare l'acquisto di una 4870 su una GTX260 (soprattutto ora che oltre ad un prezzo concorrenziale avrà anche prestazioni superiori) tuttavia è stato detto e ridetto che la differenza in termini qualitativi (tra DX10 e DX10.1) è impercettibile.
scritto da chi? Immagino tu non sappia neppure quali sono le differenze tra dx10 e dx10.1.
Il fatto che escano le dx11 non significa che escano anche i giochi basati sulle dx11 dato che ancora non si vedono titoli dx10 :D
Non venite poi a tirar fuori la storia della "Tessellation" in quanto se questa caratteristica poteva inizialmente rappresentaree un pregio delle 48XX ora rappresenta un difetto poichè Microsoft ha detto che non sarà compatibile con quella implementata nelle DX11... ergo il supporto alle DX10.1 e alla Tessellation nelle schede attuali è INUTILE.
Mettetevi il cuore in pace.
e la motivazione tecnica sarebbe?
L'aumento di FPS (tutto da verificare cmq) non aumenta la qualità dell'immagine ;) e con la nuova GTX260 di Fps in più ne avremo a iosa :D
vero non c'è aumento di qualità ma solo di fps (quasi il 25% in più con il solo MSAA 4x); l'aumento di qualità, tra l'altro non trascurabile, si ha con altre feature dx10.1. La nuova 260 dovrà farne tanti di fps in più per battere una 4870 con MSAA 4x se si utilizzano due differenti render target per z e color ops (come previsto dalle dx10.1 e dalle dx11): diciamo più di una 280 GTX :D
Io ho la 260 attuale e la 4870...due ottime vga che reputo gia ora alla pari.
Nvidia ha però un miglior dissipatore ma una lunghezza da barca.
Ati ha dei driver penosetti confrontati ad nvidia e evidenti problemi con il dissipatore di serie.
Alla fine non sapendo cosa scegliere me le sono tenute entrambe.
Questa cosa della 260 con qualche shader in più mi sa tanto di 280 uscite male e rimarchiate 260 per non buttarle via.
La generazione attuale di vga è comunque da saltare, troppi bug e troppe prese per i fondelli.
Non buttate via denaro se siete persone che vogliono vga da montare e usare...c'è da smanettare ancora troppo tra bios e cambi di dissipatore.
le 260 sono comunque 280 uscite male; il fatto che escano adesso chip con un solo cluster disattivato significa che stanno affinando il processo produttivo ed è giusto che anche questi "scarti" siano commercializzati. In quanto alla possibile confusione, non credo che sulle confezioni non ci saranno indicazioni sul numero di alu
appleroof
09-09-2008, 17:11
scritto da chi? Immagino tu non sappia neppure quali sono le differenze tra dx10 e dx10.1.
Il fatto che escano le dx11 non significa che escano anche i giochi basati sulle dx11 dato che ancora non si vedono titoli dx10 :D
il punto non sono le librerie, imho, ma le nuove relative vga di Ati ed Nvidia (ed in questo senso anche rv770 è ridimensionato)
e la motivazione tecnica sarebbe?
di fatto però è così, ha ragione :boh:
cut
le 260 sono comunque 280 uscite male; il fatto che escano adesso chip con un solo cluster disattivato significa che stanno affinando il processo produttivo ed è giusto che anche questi "scarti" siano commercializzati. In quanto alla possibile confusione, non credo che sulle confezioni non ci saranno indicazioni sul numero di alu
così come nei maggiori siti di e-commerce, dove vengono sempre riportati tutti i dati tecnici, compresi il numenro di sp :)
Guardate che nessuno ha detto che si chiameranno Geforce GTX 260, il suo nome viene fatto solo come riferimento per confrontare le variazioni delle specifiche
yossarian
09-09-2008, 17:53
il punto non sono le librerie, imho, ma le nuove relative vga di Ati ed Nvidia (ed in questo senso anche rv770 è ridimensionato)
il fatto che domani ci saranno gpu più veloci e dx11 full compliant non inficia il fatto che oggi RV770 si fa preferire perchè di quelle dx11 può asfruttare almeno parte delle feature che garantiscono prestazioni migliori e maggiore qualità d'immagine. Fattore che chi acquista una vga oggi non dovrebbe trascurare
di fatto però è così, ha ragione :boh:
un conto è ciò che è stato affermato, un altro quello che sarà realizzato. Gli algoritmi per le high order surface sono comunque sempre gli stessi e le attuali gpu sono, almeno relativamente allo shader core, interamente programmabili e anche il tessellator attuale è di tipo programmabile
MenageZero
09-09-2008, 17:55
scritto da chi? Immagino tu non sappia neppure quali sono le differenze tra dx10 e dx10.1.
Il fatto che escano le dx11 non significa che escano anche i giochi basati sulle dx11 dato che ancora non si vedono titoli dx10 :D
questo è interessante, imho.
quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?
sai qualcosa su eventuali engine in lavorazione, a questo proposito ?
che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?
che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
sdjhgafkqwihaskldds
09-09-2008, 18:04
mah...
ThePunisher
09-09-2008, 18:06
Guardate che nessuno ha detto che si chiameranno Geforce GTX 260, il suo nome viene fatto solo come riferimento per confrontare le variazioni delle specifiche
MMh non proprio... qualcuno su forum stranieri specializzati è già in possesso di qualche esemplare e GPU-Z indica come nome proprio "GTX 260" e basta.
appleroof
09-09-2008, 18:20
il fatto che domani ci saranno gpu più veloci e dx11 full compliant non inficia il fatto che oggi RV770 si fa preferire perchè di quelle dx11 può asfruttare almeno parte delle feature che garantiscono prestazioni migliori e maggiore qualità d'immagine. Fattore che chi acquista una vga oggi non dovrebbe trascurare
si, il concetto era (è chiaro): oggi le gtx260 vanno uguale alle 4870, domani prossimo, con i giochi dx10.1, la 4870 avrà un vantaggio sulla gtx260 perchè appunto dx10.1. La conseguenza logica è che una 4870 ha maggiore longevità di una gtx260
ma in un quadro più generale, sia per chi compra le vga per tenerle a lungo (ed aspetta il momento migliore per farlo --leggi architettura nuova dx11--), sia per l'entusiasta che le cambia spesso/spessissimo, anche la 4870 ha un quadro molto limitato nel tempo, perchè l'anno prossimo verrà surclassata non solo dalla nuova architettura Nvidia, presumibilmente, ma anche da quella nuova Ati, sicuramente.
un conto è ciò che è stato affermato, un altro quello che sarà realizzato. Gli algoritmi per le high order surface sono comunque sempre gli stessi e le attuali gpu sono, almeno relativamente allo shader core, interamente programmabili e anche il tessellator attuale è di tipo programmabile
allora credi che Microsoft dica che l'unità di tassellazione presente oggi nelle vga (cioè solo Ati) sia incompatibile con quelle previste dalle dx11 solo per fare un piacere ad Nvidia? E Ati se ne stà zitta a guardare senza fare una minima reazione?
se lo dici tu....:boh:
ThePunisher
09-09-2008, 18:21
La vera domanda è... NVIDIA ha fatto addirittura uno shrink del G92... e un chip nuovo (GT200), anche se sempre evoluzione del G92... perchè diavolo non ha implementato il supporto DX10.1?
appleroof
09-09-2008, 18:22
questo è interessante, imho.
quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?
sai qualcosa su eventuali engine in lavorazione, a questo proposito ?
che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?
che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
non sono yossarian :D ma imho "veri" giochi dx10 (10.1) si cominceranno a vedere verso la fine dell'anno prossimo/primi 2010; "veri" giochi dx11 non prima di tre anni almeno
Mr_Paulus
09-09-2008, 18:27
La vera domanda è... NVIDIA ha fatto addirittura uno shrink del G92... e un chip nuovo (GT200), anche se sempre evoluzione del G92... perchè diavolo non ha implementato il supporto DX10.1?
forse perchè costa meno pagare le sh per non implementare queste features (e quindi che amd non se ne avvantaggi) piuttosto che riprogettare il chip?..........
ok questa era cattiva :D :ops:
p.s. a scanso di flames era una battuta ;)
ghiltanas
09-09-2008, 18:34
questo è interessante, imho.
quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?
sai qualcosa su eventuali engine in lavorazione, a questo proposito ?
che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?
che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
la cosa intelligente a sto punto, sarebbe saltare le dx10 e puntare a programmare direttamente in dx11, cosi quando uscirà l'hardware adatto usciranno anche gli engine adatti. Ogni volta sennò siamo da capo, escono le dx10 e i titoli sono finalmente ottimizzati in dx9, escono le 11 e vai di titoli in dx10...e che cacchio :muro:
appleroof
09-09-2008, 18:35
MMh non proprio... qualcuno su forum stranieri specializzati è già in possesso di qualche esemplare e GPU-Z indica come nome proprio "GTX 260" e basta.
ti dirò, può non significare nulla: a volte bisogna aspettare una nuova release di gpu-z/di driver per avere il nome corretto, su quell'applicazione...
la cosa intelligente a sto punto, sarebbe saltare le dx10 e puntare a programmare direttamente in dx11, cosi quando uscirà l'hardware adatto usciranno anche gli engine adatti. Ogni volta sennò siamo da capo, escono le dx10 e i titoli sono finalmente ottimizzati in dx9, escono le 11 e vai di titoli in dx10...e che cacchio :muro:
il fatto è imho che se vedessimo un "vero" gioco dx10 (o 10.1) rimarremmo già così :eek: (ovviamente su hw sufficientemente potente :asd: )
quindi direi che cmq sarebbe già una svolta rispetto ad ora (che abbiamo solo "assaggiato" qualche effetto posticcio dx10 su giochi scritti in dx9)
ghiltanas
09-09-2008, 18:36
cmq aspetto anche una risp da yossorian, trovo i suoi interventi tecnici sempre molto istruttivi :sofico:
Mister Tarpone
09-09-2008, 18:41
il fatto è imho che se vedessimo un "vero" gioco dx10 (o 10.1) rimarremmo già così :eek: (ovviamente su hw sufficientemente potente :asd: )
io intanto sono rimasto così :eek: vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10 :asd:
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi :boh:
Mr_Paulus
09-09-2008, 18:43
io intanto sono rimasto così :eek: vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10 :asd:
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi :boh:
eppure dicevano che i giochi dx10 dovrebbero essere più leggeri a parità di effetti rispetto ai dx9.
magari le performance scandalose sono date dal fatto che i presunti giochi dx10 sono in realtà dx9 con qualche effetto dx10 :boh:
appleroof
09-09-2008, 18:44
io intanto sono rimasto così :eek: vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10 :asd:
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi :boh:
sicuramente....
considera cmq che non considero clear sky un campione di ottimizzazione (come crysis ovviamente :D ) e la ragione molto probabilmente è proprio (o cmq incide molto) nel fatto che è dx9 e 1/2 o "quasi" dx10 che vogliamo dire :D
yossarian
09-09-2008, 18:54
questo è interessante, imho.
quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?
no, al momento non ci sono titoli dx10; ci sono aolo alcune feature (poche per la verità) dx10 che era possibile portare su un engine dx9 (e in alcuni casi addirittura dx8, tipo quello di stalker). Uno di questi permette l'utilizzo di MSAA con motori che fanno uso di deferred lightning attraverso (si renderizza su una texture il contenuto dello z-buffer per renderlo riutilizzabile, cosa che con le dx9 è impossibile).
sai qualcosa su eventuali engine in lavorazione, a questo proposito ?
che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?
non so molto; so che ci sono degli engine dx10 in lavorazione ma non ne conosco i tempi di rilascio. Il ritardo è, comunque fisiologico e dovuto principalmente al fatto che in un primo tempo non c'erano piattaforme su cui lavorare (lo sviluppo di un gioco o anche di un motore grafico richiede tempi piuttosto lunghi); ora le piattaforme di sviluppo ci sono, ma l'HW è ancora piuttosto limitato (le fasce basse o medio basse non vanno tenute in conto, poichè non sufficientemente potenti da elaborare codice complesso). Un altro fattore di ritardo è lo sviluppo di titoli multipiattaforma e le relative operazioni di porting. Le dx10.1 sono le dx10 con alcune ottimizzazioni miranti a migliorare la qualità e, in alcuni casi a velocizzare l'elaborazione e a facilitare il compito del porgrammatore. Per questo sarebbe stupido scrivere codice dx10 senza includere le estensioni dx10.1. Il caso degli attuali titoli non fa testo, in quanto il codice scritto non è dx10.
che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
per l'uscita delle dx11 suppongo che sarà rispettata la roadmap (probabilmente le vedremo prima di seven). Per l'HW, direi tra il Q3 e il Q4 del 2009; diciamo che prima esce e prima possonmo iniziare le sWhouse a lavorarci su :D .
Mister Tarpone
09-09-2008, 18:56
sicuramente....
considera cmq che non considero clear sky un campione di ottimizzazione (come crysis ovviamente :D ) e la ragione molto probabilmente è proprio (o cmq incide molto) nel fatto che è dx9 e 1/2 o "quasi" dx10 che vogliamo dire :D
non sono ottimizzati.. però se ci fai caso proprio questi tengono una grafica allucinante... eh!!!
vabbè stalker fa cagare per alcune cose... ma l'illuminazione massima è SPAVENTOSA... mai vista in un altro videogame ;)
appleroof
09-09-2008, 19:01
non sono ottimizzati.. però se ci fai caso proprio questi tengono una grafica allucinante... eh!!!
vabbè stalker fa cagare per alcune cose... ma l'illuminazione massima è SPAVENTOSA... mai vista in un altro videogame ;)
appunto...immagina un gioco scritto interamente in dx10.1...:D (con hw dx11 per poterlo pompare al massimo :stordita: )
ghiltanas
09-09-2008, 19:17
visto che parlate di illuminazione, nel warhead proprio l'illuminazione e gli effetti particellari sono stati migliorati:
- New Global Ambient Lighting system that improves how lights and shadows interact to better show off normal mapping and shaders.
- Denser and more intense particle effects.
MenageZero
09-09-2008, 20:14
no, al momento non ci sono titoli dx10; ci sono aolo alcune feature (poche per la verità) dx10 che era possibile portare su un engine dx9 (e in alcuni casi addirittura dx8, tipo quello di stalker). Uno di questi permette l'utilizzo di MSAA con motori che fanno uso di deferred lightning attraverso (si renderizza su una texture il contenuto dello z-buffer per renderlo riutilizzabile, cosa che con le dx9 è impossibile).
non so molto; so che ci sono degli engine dx10 in lavorazione ma non ne conosco i tempi di rilascio. Il ritardo è, comunque fisiologico e dovuto principalmente al fatto che in un primo tempo non c'erano piattaforme su cui lavorare (lo sviluppo di un gioco o anche di un motore grafico richiede tempi piuttosto lunghi); ora le piattaforme di sviluppo ci sono, ma l'HW è ancora piuttosto limitato (le fasce basse o medio basse non vanno tenute in conto, poichè non sufficientemente potenti da elaborare codice complesso). Un altro fattore di ritardo è lo sviluppo di titoli multipiattaforma e le relative operazioni di porting. Le dx10.1 sono le dx10 con alcune ottimizzazioni miranti a migliorare la qualità e, in alcuni casi a velocizzare l'elaborazione e a facilitare il compito del porgrammatore. Per questo sarebbe stupido scrivere codice dx10 senza includere le estensioni dx10.1. Il caso degli attuali titoli non fa testo, in quanto il codice scritto non è dx10.
per l'uscita delle dx11 suppongo che sarà rispettata la roadmap (probabilmente le vedremo prima di seven). Per l'HW, direi tra il Q3 e il Q4 del 2009; diciamo che prima esce e prima possonmo iniziare le sWhouse a lavorarci su :D .
mitico, grazie delle info :)
... premesso che, non so se lo fanno, ma non sembrerebbe troppo problematico lato ms fornire delle beta di uan nuova major version di dxe relativo sdk, ati ed nv, se non veri e propri prototipi, non danno mai dei "sample", con significativo anticipo sulla commercializzazione, alle sw house (quantomeno ad alcune) per guadagnare, che so, almeno qualche mese ?
altra cosa, parzialmente collegata al discorso degli engine attuali, (tanto ormai ho svariato parecchio ... temo necessiti di auto-richiamo :sofico: ):
che tu sappia, una certa differenza di fps che molti trovano (o dicono di trovare) tra vista ed xp, con uno stesso titolo a parità di tutto il resto (hw, vers. drv, impostazione vari, config generale sw pc etc.)
(per es con crysis a very high su entrambi i sistemi - tanto se ho capito bene sono cmq sempre al 99% chiamate dx9, anche su vista)
è dovuta all'ottimizzazione lato drv su vista non ancora ai livelli di quelli per xp, o al fatto che magari l'implementazione delle dx9 su vista è un po' meno performante (non so se lo sia ... ipotesi "a naso" :sofico:) o significativamente ad entrambi i fattori ? (... o altro ?)
su vista, programmando "in dx10" per ottenere il medesimo risultato finale, in termini di quello che viene reso a schermo, che si è ottenuto con un certo lavoro "in dx9" , si otterrebbe un significativo incremento di fps, rispetto all'esecuzione del codice dx9 ? rispetto sempre al medesimo codice dx9 ma eseguito su xp ?
(oppure ovviamente ci si può porre questo quesito anche dal pdv "duale", ovvero del poter, o meno, ottenere maggiore qualità a prestazioni sostanzialmente pari)
SfiAndrInA
10-09-2008, 08:50
ma qual'è il problema? il nome?
alla fine sono le prestazioni che contano, se la scheda e bona e va forte non vedo motivi per non comprarla.
probabilmente ancora siete in molti a pensarla cosi e infatti Nvidia "continua nei suoi giochetti rubando soldini ai poveretti della città"
Senza offesa , ma è chiaro che ATi ha dato una bella batosta a Nvidia con la serie 4xxx !
Ma la batosta + significativa è stata quella dei prezzi .... Infatti Nvidia che aveva già lanciato le sue ottime schede a prezzi esorbitanti , si è dovuta inmediatamente ridimensionare per restare competitiva da quel lato ...
Ora ritorna (come ha già fatto con la 9800GTX+) a strizzare le sue schedozze ,facendone uscire mille varianti con piccoli incrementi che corrisponderanno a incrementi di prezzo . Cosi potrà ritirar su alcuni nuovi soldini dalla stessa tecnologia ....:banned:
Marko#88
10-09-2008, 12:32
probabilmente ancora siete in molti a pensarla cosi e infatti Nvidia "continua nei suoi giochetti rubando soldini ai poveretti della città"
Senza offesa , ma è chiaro che ATi ha dato una bella batosta a Nvidia con la serie 4xxx !
Ma la batosta + significativa è stata quella dei prezzi .... Infatti Nvidia che aveva già lanciato le sue ottime schede a prezzi esorbitanti , si è dovuta inmediatamente ridimensionare per restare competitiva da quel lato ...
Ora ritorna (come ha già fatto con la 9800GTX+) a strizzare le sue schedozze ,facendone uscire mille varianti con piccoli incrementi che corrisponderanno a incrementi di prezzo . Cosi potrà ritirar su alcuni nuovi soldini dalla stessa tecnologia ....:banned:
non mi sembra che nessuno abbia messp in dubbio il miglior rapporto qualità prezzo della serie HD4000 di Ati...non vedo perchè rimarcarlo sempre e comunque...il discorso è diverso, la GTX260 è semplicemente frutto dei chip che non reggono tutti gli sp che sono presenti nella GTX280...ora che stanno affinando la produzione possono riuscire a creare chip intermedi e fanno bene a venderli...quelli che vengono fregati sono i soliti coglioni, gli utenti un minimo appassionati sono i primi ad informarsi su ciò che acquistano...e se gli utonti che non si informano vengono fregati...beh, da che mondo è mondo c'è gente che non sa e compra di getto, non parlo solo di schede video...affari loro, si informino meglio prima...
MenageZero
10-09-2008, 13:19
non mi sembra che nessuno abbia messp in dubbio il miglior rapporto qualità prezzo della serie HD4000 di Ati...non vedo perchè rimarcarlo sempre e comunque...il discorso è diverso, la GTX260 è semplicemente frutto dei chip che non reggono tutti gli sp che sono presenti nella GTX280...ora che stanno affinando la produzione possono riuscire a creare chip intermedi e fanno bene a venderli...quelli che vengono fregati sono i soliti coglioni, gli utenti un minimo appassionati sono i primi ad informarsi su ciò che acquistano...e se gli utonti che non si informano vengono fregati...beh, da che mondo è mondo c'è gente che non sa e compra di getto, non parlo solo di schede video...affari loro, si informino meglio prima...
il regolamento non ammette insulti, nemmeno andando "per categorie" ...
1 giorno di vacanza dal forum
oldseawolf666
11-09-2008, 14:31
Notizie su quando uscira la GTX 260 con 216 stream processors e quanto costerà?????
Marko#88
11-09-2008, 17:30
Notizie su quando uscira la GTX 260 con 216 stream processors e quanto costerà?????
dovrebbe uscire la settimana prossima, nulla di ufficiale ancora per quanto riguarda il prezzo...
yossarian
13-09-2008, 02:34
mitico, grazie delle info :)
... premesso che, non so se lo fanno, ma non sembrerebbe troppo problematico lato ms fornire delle beta di uan nuova major version di dxe relativo sdk, ati ed nv, se non veri e propri prototipi, non danno mai dei "sample", con significativo anticipo sulla commercializzazione, alle sw house (quantomeno ad alcune) per guadagnare, che so, almeno qualche mese ?
la cosa non funziona come per le console, per tutta una serie di ragioni. L'evoluzione è molto più rapida e spesso, tra un chip ed il suo "refresh" non passano molti mesi (non è quindi possibile sviluppare avendo come riferimento un unico chip); chip differenti (soprattutto di marche diverse) non hanno la stessa architettura anche se l'api di riferimento è la stessa, figuriamoci per versioni diverse delle api (e chi sviluppa giochi per pc deve tener conto del fatto che più sono le piattaforme su cui gira il suo SW più ha possibilità di vendere). Moltissimi giochi sono multipiatta (e non c'è nessuna console dx10 o, tanto meno dx11). Infine, una vga di fascia alta nasce anche per giocare ma va, comunque, ad equipaggiare un dispositivo che non serve solo per giocare: con questo intendo dire che una ps3 non la vendi se, contestualmente al suo lancio, non escono anche giochi che ne giustifichino l'acquisto; al contrario, una 8800 la vendi anche se per vedere il primo gioco dx10 devi aspettare 3 o 4 anni.
mitico, grazie delle info :)
altra cosa, parzialmente collegata al discorso degli engine attuali, (tanto ormai ho svariato parecchio ... temo necessiti di auto-richiamo :sofico: ):
che tu sappia, una certa differenza di fps che molti trovano (o dicono di trovare) tra vista ed xp, con uno stesso titolo a parità di tutto il resto (hw, vers. drv, impostazione vari, config generale sw pc etc.)
(per es con crysis a very high su entrambi i sistemi - tanto se ho capito bene sono cmq sempre al 99% chiamate dx9, anche su vista)
è dovuta all'ottimizzazione lato drv su vista non ancora ai livelli di quelli per xp, o al fatto che magari l'implementazione delle dx9 su vista è un po' meno performante (non so se lo sia ... ipotesi "a naso" :sofico:) o significativamente ad entrambi i fattori ? (... o altro ?)
non conosco nello specifico crysis, però, in alcuni casi, dipende dall'implementazione di alcune feature che è differente tra path dx9 e path dx10. Considera che si sta parlando sempre di engine sviluppati con le dx8 o le dx9 comeriferimento, su cui si "appiccicano" alcuni effetti mutuati dalle dx10. Un esempio è quello dell'illuminazione dinamica con MSAA con engine che fanno deferred rendering. Con le dx10 si adotta lo stratagemma di renderizzare su una texture i valori dello z-buffer e questo permette di riutilizzarli; di conseguenza si ha la possibilità di avere illuminazione dinamica e AA. Con le dx9, al contrario, ciò non è possibile: la soluzione adottata è quella di far uso di una sorta di blurring che simuli un MSAA e un'illuminazione di tipo statico. I due approcci hanno, ovviamente, conseguenze differenti sul frame rate.
su vista, programmando "in dx10" per ottenere il medesimo risultato finale, in termini di quello che viene reso a schermo, che si è ottenuto con un certo lavoro "in dx9" , si otterrebbe un significativo incremento di fps, rispetto all'esecuzione del codice dx9 ? rispetto sempre al medesimo codice dx9 ma eseguito su xp ?
(oppure ovviamente ci si può porre questo quesito anche dal pdv "duale", ovvero del poter, o meno, ottenere maggiore qualità a prestazioni sostanzialmente pari)
in dx10 si possono adottare alcune "scorciatoie" che permettono, a parità di tipologia di istruzioni, di ottenere dei vantaggi prestazionali (o maggior qualità a parità di prestazioni).
yossarian
13-09-2008, 03:01
si, il concetto era (è chiaro): oggi le gtx260 vanno uguale alle 4870, domani prossimo, con i giochi dx10.1, la 4870 avrà un vantaggio sulla gtx260 perchè appunto dx10.1. La conseguenza logica è che una 4870 ha maggiore longevità di una gtx260
ma in un quadro più generale, sia per chi compra le vga per tenerle a lungo (ed aspetta il momento migliore per farlo --leggi architettura nuova dx11--), sia per l'entusiasta che le cambia spesso/spessissimo, anche la 4870 ha un quadro molto limitato nel tempo, perchè l'anno prossimo verrà surclassata non solo dalla nuova architettura Nvidia, presumibilmente, ma anche da quella nuova Ati, sicuramente.
ovvio che in un quadro generale, chi può permettersi di aspettare, fa bene ad attendere la prossima generazione saltando l'attuale. Il problema sorge per chi deve cambiare il pc o la vga adesso (con le dx11 e i relativi chip non propriamente dietro l'angolo)
allora credi che Microsoft dica che l'unità di tassellazione presente oggi nelle vga (cioè solo Ati) sia incompatibile con quelle previste dalle dx11 solo per fare un piacere ad Nvidia? E Ati se ne stà zitta a guardare senza fare una minima reazione?
se lo dici tu....:boh:
e quale reazione dovrebbe avere? La serie 4xxx non si vende per la presenza dell'unità di tessellation. Molto più pesante, a livello d'immagine, la mancata implementazione di feature dx10.1 che permetterebbero ai chip ATi di avvantaggiarsi in maniera non trascurabile sulla concorrenza.
Certo, anche l'utilizzo di algoritmi per le high order surface rappresenterebbe un vantaggio non indifferente (molti meno vertici per ottenere lo stesso dettaglio poligonale significa meno carico di lavoro sullo shader core e minor banda passante richiesta). Ad oggi, l'utilizzo delle tecniche di tessellation è frenato soprattutto dalla carenza di HW in grado di supportare algoritmi per la creazione di HOS più complessi di un subset delle n-patches (qualcosa tipo truform); questo anche a causa del limite di 16 float4 vertex imput value delle dx dx9 e 10 (portati a 32 con le 10.1).
La vera domanda è... NVIDIA ha fatto addirittura uno shrink del G92... e un chip nuovo (GT200), anche se sempre evoluzione del G92... perchè diavolo non ha implementato il supporto DX10.1?
perchè avrebbe dovuto riprogettare gran parte del chip, aumentandone la complessità già così molto elevata.
yossarian
13-09-2008, 04:26
doppio
ghiltanas
13-09-2008, 10:37
yossorian hai scritto due post identici :p
SfiAndrInA
14-09-2008, 22:27
non mi sembra che nessuno abbia messp in dubbio il miglior rapporto qualità prezzo della serie HD4000 di Ati...non vedo perchè rimarcarlo sempre e comunque...il discorso è diverso, la GTX260 è semplicemente frutto dei chip che non reggono tutti gli sp che sono presenti nella GTX280...ora che stanno affinando la produzione possono riuscire a creare chip intermedi e fanno bene a venderli...quelli che vengono fregati sono i soliti coglioni, gli utenti un minimo appassionati sono i primi ad informarsi su ciò che acquistano...e se gli utonti che non si informano vengono fregati...beh, da che mondo è mondo c'è gente che non sa e compra di getto, non parlo solo di schede video...affari loro, si informino meglio prima...
Bè guarda mi avevi quasi convinto , ma nell'ultima parte del discorso mi sei cascato dal pero ...
Un modo elegante per dire che il mondo è fatto per i furbi e non per gli smaliziati ! ma siccome di smaliziati in sto campo e in altri ancora ce ne stanno a flotte e sono la maggior parte , allora lasciami commentare in modo critico le decisione di questa azienda che da paracchio usa una politica che mi stà sul gozzo . Nonostante io abbia praticamente sempre acquistato Nvidia .
Tanto per aggiungermi al tuo motto , dico che la Vann... March.... faceva benissimo a fregare la gente poco "informata" ...:banned:
Ma perpiacereeeeeeee:doh:
Futura12
14-09-2008, 23:21
Comunque se vogliono vendere tale scheda video la devo proporre a un prezzo di circa 190-200€ non un euro di più;) Gia la 4870 riesce a spuntare su la 260 'normale' se questa venisse venduta sui 220€ gli devono rimanere sul groppone tutto....come è giusto che sia;)
P.s: io preferisco Nvidia ma non sono di parte;)
Marko#88
15-09-2008, 06:20
Bè guarda mi avevi quasi convinto , ma nell'ultima parte del discorso mi sei cascato dal pero ...
Un modo elegante per dire che il mondo è fatto per i furbi e non per gli smaliziati ! ma siccome di smaliziati in sto campo e in altri ancora ce ne stanno a flotte e sono la maggior parte , allora lasciami commentare in modo critico le decisione di questa azienda che da paracchio usa una politica che mi stà sul gozzo . Nonostante io abbia praticamente sempre acquistato Nvidia .
Tanto per aggiungermi al tuo motto , dico che la Vann... March.... faceva benissimo a fregare la gente poco "informata" ...:banned:
Ma perpiacereeeeeeee:doh:
un discorso è fregare la gente facendola parlare con gente morta e ricattandola per il malocchio, non è proprio la stessa cosa che vendere schede video...ma ti sembra un ragionamento sensato?:rolleyes:
In campo informatico è facilissimo accendere il computer e verificare di persona le prestazioni di una scheda video piuttosto che di un'altra...internet è pieno di recensioni e di forum...se non si ha voglia di controllare e se si vuole la pappa pronta..beh, allora non è nemmeno giusto pretendere...se si è un minimo vogliosi di leggere qualcosa su internet non si resta fregati, semplice...
e lo ripeto, nvidia non è una casa che pensa al benessere dell'umanità, pensa ai soldi...e anche ati in passato ha fatto i suoi prezzi folli...non mi pare che le X1900 venissero regalate, anzi...solo che adesso tutti danno contro nvidia, sembra vada di moda ultimamemente...
è chiaro che
Marko#88
15-09-2008, 06:24
Comunque se vogliono vendere tale scheda video la devo proporre a un prezzo di circa 190-200€ non un euro di più;) Gia la 4870 riesce a spuntare su la 260 'normale' se questa venisse venduta sui 220€ gli devono rimanere sul groppone tutto....come è giusto che sia;)
P.s: io preferisco Nvidia ma non sono di parte;)
la 4870 sta a circa 210...la GTX260 ha le stesse prestazioni, quasi il doppio della vram e un dissipatore decisamente migliore...in meno ha le dx10.1...non vedo perchè debba partire da 200 per essere competitiva...anche per 210/220 è competitiva e non ha nulla da invidiare alla controparte ati...ovvio che se la differenza comincia ad essere come qualche tempo fa, sui 40/50 euri, allora la 4870 è una scelta decisamente migliore..ma per 10 euri si andrebbe solo a simpatia...e io prenderei la 260 per il dissipatore e gli 896mb di vram...poi questa con 216sp magari se la faranno pagare oro e non avrà senso ma può anche essere di no e la 260 standard cala...difficile ma non impossibile...
Wolfhang
15-09-2008, 10:08
la 4870 sta a circa 210...la GTX260 ha le stesse prestazioni, quasi il doppio della vram e un dissipatore decisamente migliore...in meno ha le dx10.1...non vedo perchè debba partire da 200 per essere competitiva...anche per 210/220 è competitiva e non ha nulla da invidiare alla controparte ati...ovvio che se la differenza comincia ad essere come qualche tempo fa, sui 40/50 euri, allora la 4870 è una scelta decisamente migliore..ma per 10 euri si andrebbe solo a simpatia...e io prenderei la 260 per il dissipatore e gli 896mb di vram...poi questa con 216sp magari se la faranno pagare oro e non avrà senso ma può anche essere di no e la 260 standard cala...difficile ma non impossibile...
...basta andare a vedere a quanto vendono le 4870 1GB di ram...http://www.trovaprezzi.it/prezzo_schede-grafiche_4870_1gb.aspx
Marko#88
15-09-2008, 12:23
...basta andare a vedere a quanto vendono le 4870 1GB di ram...http://www.trovaprezzi.it/prezzo_schede-grafiche_4870_1gb.aspx
Appunto, lo dissi qualche giorno fa prima di essere sospeso...vista la quantità di vram le GTX260 sarebbero confrontabili con le 4870 da 1gb...e questo è un confronto che in pratica non esiste, la GTX260 vince ad occhi chiusi...contro la 4870 512mb è più o meno alla pari come dicevo prima...ma la ati paga lo scotto di avere circa la metà della vram, magari più avanti o in certi scenari può farsi sentire...
halduemilauno
15-09-2008, 14:23
zotac amp 2...
http://forums.vr-zone.com/showthread.php?t=327564
;)
notare il 2.
halduemilauno
15-09-2008, 14:27
la 4870 sta a circa 210...la GTX260 ha le stesse prestazioni, quasi il doppio della vram e un dissipatore decisamente migliore...in meno ha le dx10.1...non vedo perchè debba partire da 200 per essere competitiva...anche per 210/220 è competitiva e non ha nulla da invidiare alla controparte ati...ovvio che se la differenza comincia ad essere come qualche tempo fa, sui 40/50 euri, allora la 4870 è una scelta decisamente migliore..ma per 10 euri si andrebbe solo a simpatia...e io prenderei la 260 per il dissipatore e gli 896mb di vram...poi questa con 216sp magari se la faranno pagare oro e non avrà senso ma può anche essere di no e la 260 standard cala...difficile ma non impossibile...
...basta andare a vedere a quanto vendono le 4870 1GB di ram...http://www.trovaprezzi.it/prezzo_schede-grafiche_4870_1gb.aspx
Appunto, lo dissi qualche giorno fa prima di essere sospeso...vista la quantità di vram le GTX260 sarebbero confrontabili con le 4870 da 1gb...e questo è un confronto che in pratica non esiste, la GTX260 vince ad occhi chiusi...contro la 4870 512mb è più o meno alla pari come dicevo prima...ma la ati paga lo scotto di avere circa la metà della vram, magari più avanti o in certi scenari può farsi sentire...
quoto.
;)
Ginger79
15-09-2008, 14:40
A quanto pare non sarà poi così difficile surclassare la 4870 in prestazioni visto che quando si richiede potenza vera (DX10 e nuovi effetti di illuminazione dinamica) questa scheda mostra grossi cedimenti. In questo test non è presente la GTX260 ma considerando le prestazioni della GTX280 è facile intuire la posizione della nuova GTX260 216sp:
S.T.A.L.K.E.R: CLEAR SKY
http://img519.imageshack.us/img519/5522/stalkerclearskynb8.png
incredibile la potenza della 9800GTX (scheda della passata generazione) che in situazioni di grosso carico si porta sotto alla 4870. Stesso discorso per la 4850... decisamente migliore della sorella maggiore per rapporto prezzo/prestazioni.
P.s. Sulla mia 8800GTS (G80) sto gioco è fermo e molto più pesante di Crysis.
yossarian
15-09-2008, 15:38
A quanto pare non sarà poi così difficile surclassare la 4870 in prestazioni visto che quando si richiede potenza vera (DX10 e nuovi effetti di illuminazione dinamica) questa scheda mostra grossi cedimenti. In questo test non è presente la GTX260 ma considerando le prestazioni della GTX280 è facile intuire la posizione della nuova GTX260 216sp:
S.T.A.L.K.E.R: CLEAR SKY
http://img519.imageshack.us/img519/5522/stalkerclearskynb8.png
incredibile la potenza della 9800GTX (scheda della passata generazione) che in situazioni di grosso carico si porta sotto alla 4870. Stesso discorso per la 4850... decisamente migliore della sorella maggiore per rapporto prezzo/prestazioni.
P.s. Sulla mia 8800GTS (G80) sto gioco è fermo e molto più pesante di Crysis.
stalker ha un engine che con le dx10 non ha nulla a che vedere: è un ibrido dx8/dx9 ed è solo pesantemente texture bounded e fa un pessimo uso della banda passante, il che avvantaggia vga con grandi quantitativi di ram e bus enormi. Motivo per cui si può considerare tutt'altro che indicativo di ciò che saranno i giochi dx10 che faranno uso di un rapporto math/texture più favorevole alle prime e faranno miglior uso della banda passante anche per le operazioni di texturing (con strumenti come texture array e cube map array, tanto per citarne un paio)
Ginger79
16-09-2008, 18:37
stalker ha un engine che con le dx10 non ha nulla a che vedere
Nessuno ha parlato di ENGINE DX10 ma di OPZIONE che abilita effetti DX10 (c'è anche scritto bello grosso nel gioco). Chissà perchè quell'opzione è abilitabile solo sotto Vista...mah... chissà...:D
Prima di fare commenti è opportuno sapere di cosa si sta parlando. In questo caso acquistando il gioco e installandolo sia su XP che su Vista.
Ad ogni modo la sostanza del mio precedente commento è chiara e non cambia... i fatti sono fatti: Abilitando l'opzione DX10 la situazione è esattamente quella prospettata dal grafico nella quale l'HD 4870 dimostra (come si sapeva da tempo) di essere una scheda poco superiore ad una semplice 9800GTX+ e nettamente inferiore ad una GTX280. Ragion per cui è facile intuire la posizione che occuperà la nuova GTX260.
Quando si richiede potenza le GPU di qualità vengono a galla mentre le altre mostrano tutte le loro debolezze.
oldseawolf666
16-09-2008, 19:25
Ma qualcuno allora sa frà quanto diavolo sa disponibile stà Gtx260 a 216S.P.????????????????????????????
:mad: :mad: :mad: :mad: :mad: :mad: :confused: :confused: :confused: :confused: :confused: :muro: :muro: :muro: :muro: :muro:
halduemilauno
16-09-2008, 19:26
per gli interessati...
http://www.hwupgrade.it/forum/showthread.php?p=24141445&posted=1#post24141445
;)
TheDarkAngel
16-09-2008, 19:29
Quando si richiede potenza le GPU di qualità vengono a galla mentre le altre mostrano tutte le loro debolezze.
e certo quando si parla di potenza bruta le vere schede mostrano i muscoli :asd: le altre invece, schede di cartone, mostrano la loro inferiorità rispetto al potente e brutale nemico, alziamo i calici e brindiamo alle 260gtx :asd: . Invece per me le vere schede si vedono solo in Grid ( ove la 280gtx deve piegarsi alla sozza 4870 :asd: ), gli altri giochi non hanno abbastanza testo e gh mi spiace :asd:
yossarian
16-09-2008, 19:32
Nessuno ha parlato di ENGINE DX10 ma di OPZIONE che abilita effetti DX10 (c'è anche scritto bello grosso nel gioco). Chissà perchè quell'opzione è abilitabile solo sotto Vista...mah... chissà...:D
Prima di fare commenti è opportuno sapere di cosa si sta parlando. In questo caso acquistando il gioco e installandolo sia su XP che su Vista.
quali sarebbero questi mirabiolanti effetti dx10 che richiederebbero questa enorme potenza di calcolo? :D
Ad ogni modo la sostanza del mio precedente commento è chiara e non cambia... i fatti sono fatti: Abilitando l'opzione DX10 la situazione è esattamente quella prospettata dal grafico nella quale l'HD 4870 dimostra (come si sapeva da tempo) di essere una scheda poco superiore ad una semplice 9800GTX+ e nettamente inferiore ad una GTX280.
abilitando l'opzione dx10 dimostri solo che un gioco già texture bounded nella sua versione iniziale lo è diventato ancora di più se si fa uso di texture più pesanti; questo significa maggior occupazione di memoria e limite imposto dal quantitativo di ram, non certo dalla potenza di calcolo. E dimostri anche di non sapere cosa sono le dx10 :D
Ragion per cui è facile intuire la posizione che occuperà la nuova GTX260.
c'è poco da intuire, visto che esiste già una review di Anand :D
Quando si richiede potenza le GPU di qualità vengono a galla mentre le altre mostrano tutte le loro debolezze.
la potenza è nulla senza il controllo; si stava meglio quando si stava peggio; non esiste più la mezza stagione; la mamma è sempre la mamma; quando c'era lui, caro lei! una rondine non fa primavera; l'erba del vicino è sempre più verde....................................................:sofico:
ghiltanas
16-09-2008, 19:40
ora le prestazioni sono sostanzialmente allineate, tuttavia con la 4870 nn ci siamo con i consumi, possibile che in idle arrivi a superare i 200w il consumo del sistema, mentre ance con la 280 nn si superano i 160??? :muro:
(fonte anandtech)
edit: in full invece anche i consumi sono allineati (gtx260 216sp e 4870)
Ginger79
16-09-2008, 20:25
quali sarebbero questi mirabiolanti effetti dx10 che richiederebbero questa enorme potenza di calcolo? :D
Basta comprare il gioco, installarlo, andare nelle opzioni e leggere invece di fare affermazioni per sentito dire. :D
abilitando l'opzione dx10 dimostri solo che un gioco già texture bounded nella sua versione iniziale lo è diventato ancora di più se si fa uso di texture più pesanti; questo significa maggior occupazione di memoria e limite imposto dal quantitativo di ram, non certo dalla potenza di calcolo. E dimostri anche di non sapere cosa sono le dx10 :D
Purtroppo ti sbagli e continui a sprofondare nell'errore (ma sappiamo che ne sei avvezzo). Le suddette opzioni abilitano effetti di illuminazione ambientale e sulle superfici (totalmente reale) che nulla hanno a che fare con le texture. Ripeto: informati prima di parlare così eviti queste brutte figure. :D
c'è poco da intuire, visto che esiste già una review di Anand :D
Preferisco aspettare la recensione ufficiale del nostro staff per trarre conclusioni e per ora mi limito ad intuire. ;)
la potenza è nulla senza il controllo; si stava meglio quando si stava peggio; non esiste più la mezza stagione; la mamma è sempre la mamma; quando c'era lui, caro lei! una rondine non fa primavera; l'erba del vicino è sempre più verde....................................................:sofico:
No comment... sempre peggio.:banned:
Ginger79
16-09-2008, 20:38
Ed ecco un po' di pratica:
http://img388.imageshack.us/img388/360/scsjx0.jpg
Direi che questa nuova recensione non fa altro che avvalorare quello che ho detto prima... ma chissà perchè tutti parlano di DX10... mah saran tutti pazzi :D
Ginger79
16-09-2008, 20:43
Non so se vi sia sfuggito... forse sono trasparente,
dunque lo ripeto...
in Stalker CS DX10 non viene aggiunto alcun effetto di illuminazione dinamica che non sia già presente in DX9. :stordita: :fagiano:
Non ci è sfuggito il tuo commento. Ho solo evitato di rispondere perchè pensavo ti fossi ricreduto. Se vai a vedere qualche recensione tecnica su CS ti renderai conto che non è come dici. A prescindere dal fatto che nelle opzioni ci siano solo 2 nuove abilitazioni (quelle che dicevi nel post precedente) tra la versione installata su Vista e quella su XP è stato dimostrato (tramite ripetuti screenshots) che nella modalità DX10 la luce è totalmente dinamica (si parla di 100% reale) mentre in quella DX9 no. Se trovo il link te lo passo e ti ricrederai come ho fatto io (anch'io all'inizio la pensavo come te). Però siamo OT... qui stiamo parlando della GTX260+
oldseawolf666
16-09-2008, 22:16
Ma qualcuno allora sa frà quanto diavolo sa disponibile stà Gtx260 a 216S.P.????????????????????????????
:mad: :mad: :mad: :mad: :mad: :mad: :confused: :confused: :confused: :confused: :confused: :muro: :muro: :muro: :muro: :muro:
UP
Ginger79
16-09-2008, 23:20
Beh visto che sono già state recensite da una decina di siti credo che entro una settimana al massimo saranno acquistabili.
Ad ogni modo i prox 2 mesi saranno ricchi di novità... a partire dalla HD4850 X2 (che si preannuncia una GTX280 killer) fino ad arrivare a GT206 @55nm che imho sconvolgerà tutti i discorsi che stiamo facendo in questi giorni.
Pensate ad una dual GPU @55nm composta da questa nuova bestiolina (GTX260+)... cosumi contenuti e prestazioni superiori alla 4870 X2... sarebbe un bel colpo... utile alla discesa dei prezzi delle proposte attuali.
yossarian
17-09-2008, 02:22
Basta comprare il gioco, installarlo, andare nelle opzioni e leggere invece di fare affermazioni per sentito dire. :D
e io che speravo che fossi tu ad illuminarmi :sofico:
Purtroppo ti sbagli e continui a sprofondare nell'errore (ma sappiamo che ne sei avvezzo).
ti prego, maestro, riconducimi sulla retta via! :cry:
Le suddette opzioni abilitano effetti di illuminazione ambientale e sulle superfici (totalmente reale) che nulla hanno a che fare con le texture. Ripeto: informati prima di parlare così eviti queste brutte figure. :D
cioè abilitano lampade che si accendono sulla scena ad illuminare gli oggetti?
Mi sono perso qualcosa oppure la computer grafica è andata ben al di là del fotorealismo, arrivando al "verismo"? :D
Preferisco aspettare la recensione ufficiale del nostro staff per trarre conclusioni e per ora mi limito ad intuire. ;)
intendevi dire "sognare"? :ciapet:
No comment... sempre peggio.:banned:
cercavo di mettermi al tuo livello, ma devo ammettere che sei più originale :D
ti posto il commento di johnp ed i suoi link perchè vedo che siamo in molti sulla strada della perdizione
scusate se vado OT... ma posto giusto per mettere la parola fine alla discussione:
dalla guida di tweakguides a Stalker Clear Sky
ENHANCED DYNAMIC LIGHTING DX10
http://www.tweakguides.com/images/ClearSky_6a.jpg
ENHANCED DYNAMIC LIGHTING DX9
http://www.tweakguides.com/images/ClearSky_6b.jpg
commento:
In this mode, DirectX 10 graphics are used, and thus it is only available when running Clear Sky under Windows Vista and using a DirectX 10-capable graphics card. This mode is almost identical to the standard 'Enhanced Full Dynamic Lighting' mode, as the screenshot comparison also demonstrates. However the following additional effects are possible in DX10 mode: Volumetric Smoke, which allows for more realistic smoke and fog effects; and Wet Surfaces which allows water to flow along walls and other surfaces much more realistically. Once again, the DirectX 10 mode comes at a great cost in performance, however in most areas the performance is identical to the DX9 Enhanced Full Dynamic Lighting mode.
http://www.tweakguides.com/ClearSky_5.html
come volevasi dimostrare,
bye
yossarian
17-09-2008, 03:01
scusate se vado OT... ma posto giusto per mettere la parola fine alla discussione:
dalla guida di tweakguides a Stalker Clear Sky
ENHANCED DYNAMIC LIGHTING DX10
http://www.tweakguides.com/images/ClearSky_6a.jpg
ENHANCED DYNAMIC LIGHTING DX9
http://www.tweakguides.com/images/ClearSky_6b.jpg
commento:
In this mode, DirectX 10 graphics are used, and thus it is only available when running Clear Sky under Windows Vista and using a DirectX 10-capable graphics card. This mode is almost identical to the standard 'Enhanced Full Dynamic Lighting' mode, as the screenshot comparison also demonstrates. However the following additional effects are possible in DX10 mode: Volumetric Smoke, which allows for more realistic smoke and fog effects; and Wet Surfaces which allows water to flow along walls and other surfaces much more realistically. Once again, the DirectX 10 mode comes at a great cost in performance, however in most areas the performance is identical to the DX9 Enhanced Full Dynamic Lighting mode.
http://www.tweakguides.com/ClearSky_5.html
come volevasi dimostrare,
bye
effetti ottenuti con chiamate dx10 (texture array e GS per texture volumetriche) motivo per cui non sono presenti in dx9
De Visu Carlo
17-09-2008, 03:35
Grazie yossarian, è sempre un piacere leggerti :)
Marko#88
17-09-2008, 06:22
Basta comprare il gioco, installarlo, andare nelle opzioni e leggere invece di fare affermazioni per sentito dire. :D
Purtroppo ti sbagli e continui a sprofondare nell'errore (ma sappiamo che ne sei avvezzo). Le suddette opzioni abilitano effetti di illuminazione ambientale e sulle superfici (totalmente reale) che nulla hanno a che fare con le texture. Ripeto: informati prima di parlare così eviti queste brutte figure. :D
Preferisco aspettare la recensione ufficiale del nostro staff per trarre conclusioni e per ora mi limito ad intuire. ;)
No comment... sempre peggio.:banned:
invece basterebbe informarsi...ad oggi in dx10 non abbiamo ancora visto praticamente nulla che non sia fattibile in dx9...crysis l'ha dimostrato...per ora le dx10 sono solo marketing...
ThePunisher
17-09-2008, 07:00
Altra review:
http://www.guru3d.com/article/geforce-gtx-260-core-216--bfg-ocx-maxcore/
ThePunisher
17-09-2008, 07:08
E visto che ci sono vi linko anche i nuovi driver PhysX!
http://www.nvidia.it/object/physx_8.09.04_whql_it.html
halduemilauno
17-09-2008, 09:53
vi posto una rece dove sono la 192 shader, la 216 default e due 216 proposte oc in due diverse frequenze...
http://firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/
;)
Ginger79
17-09-2008, 11:47
vi posto una rece dove sono la 192 shader, la 216 default e due 216 proposte oc in due diverse frequenze...
http://firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/
;)
L'ho appena letta... impressionante! La BFG è a livello della GTX280 ed alcune volte la supera... meno male che non mi sono lanciato nell'acquisto della 280 un mese fa.
Marko#88
17-09-2008, 12:31
vi posto una rece dove sono la 192 shader, la 216 default e due 216 proposte oc in due diverse frequenze...
http://firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/
;)
ottima la BFG pare...resta da vendere a quanto pretenderanno di venderla...per una vga del genere sarei disposto a spendere tranquillamente un po' di più che per la gtx260 "old"...considerando che ha ancora un po' di margine di oc poi...sarebbe in pratica una vga pari alla gtx280 standard (che poi si occherebbe a sua volta) quindi niente male per un centinaio di euri in meno...:)
SingWolf
04-10-2008, 13:48
Ecco la causa dei dati sballati:
http://img512.imageshack.us/img512/3435/nvidiagh6.jpg
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.