View Full Version : Aspettando R600 [Thread ufficiale]
Pagine :
1
2
3
4
5
[
6]
7
8
9
10
Alla fine credo che 3 mesi di ritardo nn siano niente di grave, a patto che Ati presenti una scheda veramente competitiva dal punto di vista della performace e del prezzo senza dimenticare i consumi. Per adesso mi tengo la x1800 in attesa di una degna sostituta. :)
devono giocare a chi ce l'ha piu lungA che ci devi fare :asd:
speriamo che vinca nvidia......
appleroof
08-01-2007, 18:50
avrà fatto un pò di confusione.
;)
mi hai tolto le parole di bocca... ;)
Window Vista
08-01-2007, 19:10
Certo la frase di Inquirer si riferisce a qualche testata italiana e croata. Quindi prima di dire che l'ironia è malriuscita, bisognerebbe capire a chi si riferiva, non trovate?
Parrebbe dire che questa cosa di 2 R600 ecc. sia stata vista ben 5 mesi fà!!!
Parrebbe dire che questa cosa di 2 R600 ecc. sia stata vista ben 5 mesi fà!!!
Scusa puoi spiegarti meglio, non ho capito :fagiano:
Scusa puoi spiegarti meglio, non ho capito :fagiano:
praticamente in quell'articolo danno per assodato il 1gb di ram e il bus da 512mb.
cosa reale ed effettiva e noi gia da tempo ne discutevamo.
l apresenza di 2 r600 non dice che ci sono 2 r600 su una board ma semplicemente dice che la versione che finirà o è finita sul banco di alcuni giornalisti o siti non è la versione del chip che verrà venduta.
ora una frase come ha vari significati.
1)ai giornalisti o per la review verrà data una sorta di r600 A1 per fare le recensione e poco dopo in commercio si troveranno le revision A2 magari esenti da alcuni problemi
questo vorrebbe dire che atia-amd o stanno il classico paper launc utilizzando i pochi r600 A1 che non hanno dato problemi dati agli editore per fare le review mentre a 2 o 3 settimane dal lancio sugli scaffali si troveranno le revision A2 esenti dai problemi che hanno portato l'ultimo aggiornamento che ha fatot perdere quel mesetto ad ati-amd.
oppure semplicemente per abbreviare le tempistiche di consegna e fare un lancio con immediata disponibilità ai redatori con 2 settimane di anticipo è stata data la versione A1 e in quelle 2 settimane si sono prodotti i chip A2.
fatto sto che credo che inquirer con al solita lingua lunga abbia voluto insinuare che le recensioni presenti sul web all'uscita di r600 avranno o performances differenti(ma non credo i clock sono quelli)oppure insinuano che ci sarà una certa differenza in ambito overclock(i chip A1 riusciti bene saliranno di + forse?) ma d'altro canto i chip A2 che finiranno in commercio saranno sicuramente esenti da possibili problematiche.
poi in italia mi pare che nessuno abbia detto questo 5 mesi fà,come credo non lo abbiano detto in croazia...
fatto sta il solito the inquirer profondamente di parte che cerca di screditare in quealche modo ati,salvo poi qual'ora r600 fosse molto + veloce di g80 affermare che gia ne aveva decantato le lodi...
cmq gddr3 1800mhz,bus 512bit=banda mostruosa da 115gb...
possibile versione gddr4 almeno da 2400mhz banda di 153gb...
signori forse AA4x always on è feritiera^^
praticamente in quell'articolo danno per assodato il 1gb di ram e il bus da 512mb.
cosa reale ed effettiva e noi gia da tempo ne discutevamo.
l apresenza di 2 r600 non dice che ci sono 2 r600 su una board ma semplicemente dice che la versione che finirà o è finita sul banco di alcuni giornalisti o siti non è la versione del chip che verrà venduta.
ora una frase come ha vari significati.
1)ai giornalisti o per la review verrà data una sorta di r600 A1 per fare le recensione e poco dopo in commercio si troveranno le revision A2 magari esenti da alcuni problemi
questo vorrebbe dire che atia-amd o stanno il classico paper launc utilizzando i pochi r600 A1 che non hanno dato problemi dati agli editore per fare le review mentre a 2 o 3 settimane dal lancio sugli scaffali si troveranno le revision A2 esenti dai problemi che hanno portato l'ultimo aggiornamento che ha fatot perdere quel mesetto ad ati-amd.
oppure semplicemente per abbreviare le tempistiche di consegna e fare un lancio con immediata disponibilità ai redatori con 2 settimane di anticipo è stata data la versione A1 e in quelle 2 settimane si sono prodotti i chip A2.
fatto sto che credo che inquirer con al solita lingua lunga abbia voluto insinuare che le recensioni presenti sul web all'uscita di r600 avranno o performances differenti(ma non credo i clock sono quelli)oppure insinuano che ci sarà una certa differenza in ambito overclock(i chip A1 riusciti bene saliranno di + forse?) ma d'altro canto i chip A2 che finiranno in commercio saranno sicuramente esenti da possibili problematiche.
poi in italia mi pare che nessuno abbia detto questo 5 mesi fà,come credo non lo abbiano detto in croazia...
fatto sta il solito the inquirer profondamente di parte che cerca di screditare in quealche modo ati,salvo poi qual'ora r600 fosse molto + veloce di g80 affermare che gia ne aveva decantato le lodi...
cmq gddr3 1800mhz,bus 512bit=banda mostruosa da 115gb...
possibile versione gddr4 almeno da 2400mhz banda di 153gb...
signori forse AA4x always on è feritiera^^
Credo che il primo punto sia piu' realistico. ;)
cmq gddr3 1800mhz,bus 512bit=banda mostruosa da 115gb...
possibile versione gddr4 almeno da 2400mhz banda di 153gb...
signori forse AA4x always on è feritiera^^
sempre detto io :)
per me un ipotetico AA 24x con R600 sarebbe fattibile
davide155
08-01-2007, 20:53
signori forse AA4x always on è feritiera^^
Feritiera :D
Cmq quanto mi piacciono queste parole :O
Cmq quanto mi piacciono queste parole :O
:asd:
praticamente in quell'articolo danno per assodato il 1gb di ram e il bus da 512mb.
cosa reale ed effettiva e noi gia da tempo ne discutevamo.
l apresenza di 2 r600 non dice che ci sono 2 r600 su una board ma semplicemente dice che la versione che finirà o è finita sul banco di alcuni giornalisti o siti non è la versione del chip che verrà venduta.
ora una frase come ha vari significati.
1)ai giornalisti o per la review verrà data una sorta di r600 A1 per fare le recensione e poco dopo in commercio si troveranno le revision A2 magari esenti da alcuni problemi
questo vorrebbe dire che atia-amd o stanno il classico paper launc utilizzando i pochi r600 A1 che non hanno dato problemi dati agli editore per fare le review mentre a 2 o 3 settimane dal lancio sugli scaffali si troveranno le revision A2 esenti dai problemi che hanno portato l'ultimo aggiornamento che ha fatot perdere quel mesetto ad ati-amd.
oppure semplicemente per abbreviare le tempistiche di consegna e fare un lancio con immediata disponibilità ai redatori con 2 settimane di anticipo è stata data la versione A1 e in quelle 2 settimane si sono prodotti i chip A2.
fatto sto che credo che inquirer con al solita lingua lunga abbia voluto insinuare che le recensioni presenti sul web all'uscita di r600 avranno o performances differenti(ma non credo i clock sono quelli)oppure insinuano che ci sarà una certa differenza in ambito overclock(i chip A1 riusciti bene saliranno di + forse?) ma d'altro canto i chip A2 che finiranno in commercio saranno sicuramente esenti da possibili problematiche.
poi in italia mi pare che nessuno abbia detto questo 5 mesi fà,come credo non lo abbiano detto in croazia...
fatto sta il solito the inquirer profondamente di parte che cerca di screditare in quealche modo ati,salvo poi qual'ora r600 fosse molto + veloce di g80 affermare che gia ne aveva decantato le lodi...
cmq gddr3 1800mhz,bus 512bit=banda mostruosa da 115gb...
possibile versione gddr4 almeno da 2400mhz banda di 153gb...
signori forse AA4x always on è feritiera^^
Fermo fermo :D
ho capito perfettamente la notizia di the inquirer. Lo leggo spesso e non mi posso lamentare della mia conoscenza dell'inglese hehe
Ho fatto un commento sulla frecciatina che l'autore dell'articolo fa verso l'italiano "corto" e il croato "lungo".
Mi sono lamentato del fatto che alcuni utenti qui sul forum, abbiano criticato questa frecciatina senza nemmeno porsi le domande "a cosa allude the inquirer?" , "si parla di testate giornalistiche?" , "si parla di persone reali, giornalisti, pr?". E se parlano di testate giornalistiche o giornalisti, che hanno dato notizie false screditando magari inq?... se fosse veramente cosi, perchè dar contro a questa innocente frecciatina, considerando le valanghe di merda che ogni volta vengono rivolte a questo sito, da destra e manca, come se l'unica certezza della nostra esistenza, fosse l'inaffidabilità di the inquirer stesso :) ?
Tutto qui :)
Kharonte85
08-01-2007, 21:40
Fermo fermo :D
ho capito perfettamente la notizia di the inquirer. Lo leggo spesso e non mi posso lamentare della mia conoscenza dell'inglese hehe
Ho fatto un commento sulla frecciatina che l'autore dell'articolo fa verso l'italiano "corto" e il croato "lungo".
Mi sono lamentato del fatto che alcuni utenti qui sul forum, abbiano criticato questa frecciatina senza nemmeno porsi le domande "a cosa allude the inquirer?" , "si parla di testate giornalistiche?" , "si parla di persone reali, giornalisti, pr?". E se parlano di testate giornalistiche o giornalisti, che hanno dato notizie false screditando magari inq?... se fosse veramente cosi, perchè dar contro a questa innocente frecciatina, considerando le valanghe di merda che ogni volta vengono rivolte a questo sito, da destra e manca, come se l'unica certezza della nostra esistenza, fosse l'inaffidabilità di the inquirer stesso :) ?
Tutto qui :)
http://www.mmorpgitalia.it/forum/images/smilies/best66.gif
http://www.mmorpgitalia.it/forum/images/smilies/best66.gif
http://www.mmorpgitalia.it/forum/images/smilies/best66.gif
appleroof
08-01-2007, 21:57
Mah...veramente non per fare lo :cool: ma aa4x always on è già alla portata di G80 (almeno con Oblivion, Half life 2 episodio 1 e naturalmente half life 2, Fear, Most wanted, Condamned, Prey, cioè i giochi che ho provato ora non scendo mai sotto 16xq e supersampling e aa correzione gamma a 1680x1050) poi con i giochi futuri si vedrà...
cmq con quella banda mostruosa R600 avrà di certo eccellenti prestazioni con i filtri attivi ;)
Mah...veramente non per fare lo :cool: ma aa4x always on è già alla portata di G80 (almeno con Oblivion, Half life 2 episodio 1 e naturalmente half life 2, Fear, Most wanted, Condamned, Prey, cioè i giochi che ho provato ora non scendo mai sotto 16xq e supersampling e aa correzione gamma a 1680x1050) poi con i giochi futuri si vedrà...
cmq con quella banda mostruosa R600 avrà di certo eccellenti prestazioni con i filtri attivi ;)
Dipende sempre da quanti fps sono per te il minimo per un esperienza di gioco fluida.
Per me ce ne vogliono 60 minimi sempre, non medi. Alcuni si accontentano di 60 di media, altri anche di 30. Dipende un po' come sei abituato.
Cmq sia a 1280x1024, risoluzione del 90% dell'utenza di videogiocatori, 4xaa always on con g80 è una certezza... almeno con i giochi usciti fino ad ora :)
davide155
08-01-2007, 22:13
Dipende sempre da quanti fps sono per te il minimo per un esperienza di gioco fluida.
Per me ce ne vogliono 60 minimi sempre, non medi. Alcuni si accontentano di 60 di media, altri anche di 30. Dipende un po' come sei abituato.
Cmq sia a 1280x1024, risoluzione del 90% dell'utenza di videogiocatori, 4xaa always on con g80 è una certezza... almeno con i giochi usciti fino ad ora :)
Concordo.....
Con le impostazioni che dice appleroof a oblivion inizia a scatticchiare........e rallenta in diversi punti della mappa.
Certo fatto sta che per quella mole di dati da calcolare la giocabilità c'è tutta!
Ho visto diversi video di gente che ha filmato la propria partita......youtube e googlevideo sono pieni
appleroof
08-01-2007, 22:15
Dipende sempre da quanti fps sono per te il minimo per un esperienza di gioco fluida.
Per me ce ne vogliono 60 minimi sempre, non medi. Alcuni si accontentano di 60 di media, altri anche di 30. Dipende un po' come sei abituato.
si diciamo che per me fluidità significa almeno 50 in media con picchi minimi di 30, poi dipende dal gioco, se fps o no ecc...(naturalmente lascio fisso l'anisotropico 16x): risultato raggiunto in tutti quei giochi citati (quello che mi ha lasciato veramente stupefatto cmq è stato Oblivion a quelle impostazioni)
Cmq sia a 1280x1024, risoluzione del 90% dell'utenza di videogiocatori, 4xaa always on con g80 è una certezza... almeno con i giochi usciti fino ad ora :)
il bello è che lo è anche a 1680x1050! :)
L'unico gioco che mi mette in crisi è incredibilmente call of duty 2 che devo mettere a aa4x per avere un frame medio decente (resto uguale) ma visto che è un caso isolato non credo faccia testo.
In ogni caso ripeto, anche R600 farà vedere i numeri con i filtri, viste le caratteristiche che sembra avere
Inoltre, c'è da vedere come si comporteranno queste schede con i giochi dx10 (o dx9 e 1/2 o quello che vi pare :D )
;)
appleroof
08-01-2007, 22:20
Concordo.....
Con le impostazioni che dice appleroof a oblivion inizia a scatticchiare........e rallenta in diversi punti della mappa.
Certo fatto sta che per quella mole di dati da calcolare la giocabilità c'è tutta!
Ho visto diversi video di gente che ha filmato la propria partita......youtube e googlevideo sono pieni
non esiste (cavolo...ce l'ho davanti! :asd: )
senza andare su google o youtube, chiedi un pò sul tread ufficiale della GTX come gira Oblivion con questa scheda (prima fra tutti ti consiglio di leggere il I post) ;)
cmq qui su hwupgrade riporta un frame medio di 53fps a 1920x1200 aa4x as16x :boh:
;)
Dipende sempre da quanti fps sono per te il minimo per un esperienza di gioco fluida.
Per me ce ne vogliono 60 minimi sempre, non medi. Alcuni si accontentano di 60 di media, altri anche di 30. Dipende un po' come sei abituato.
Cmq sia a 1280x1024, risoluzione del 90% dell'utenza di videogiocatori, 4xaa always on con g80 è una certezza... almeno con i giochi usciti fino ad ora :)
anche con una x1950xt a 1280x1024 con i giochi attuali aa4x always è una certezza, bisogna vedere nei giochi futuri! Comunque spero che r600 sia più corta di qualche centimetro rispetto alla 8800gtx, altrimenti amd/ati poteva anche stare zitta sulle dimensioni della 8800gtx se poi ne tira fuori una più lunga!
(scusate per i doppi sensi :D )
davide155
08-01-2007, 22:25
non esiste (cavolo...ce l'ho davanti! :asd: )
senza andare su google o youtube, chiedi un pò sul tread ufficiale della GTX come gira Oblivion con questa scheda (prima fra tutti ti consiglio di leggere il I post) ;)
cmq qui su hwupgrade riporta un frame medio di 53fps a 1920x1200 aa4x as16x :boh:
;)
Non ricordo il punto esatto della mappa, ma ci sono centinaia se non migliaia di pagliuzze gialle che si muovono come erba per terra.
Li ha messo in ginocchio pure la 8800gtx......per non parlare della mia x1900xt :cry:
Fatto sta che la gtx stava a 1600x1200 con aa2x aniso 16x.......
Cmq piccolo ot: Appleroof quanto fai al 3dmark 2006? Così per sapere :p
Ps: Il primo post del thread 8800gtx lo so a memoria :D
si diciamo che per me fluidità significa almeno 50 in media con picchi minimi di 30, poi dipende dal gioco, se fps o no ecc...(naturalmente lascio fisso l'anisotropico 16x): risultato raggiunto in tutti quei giochi citati (quello che mi ha lasciato veramente stupefatto cmq è stato Oblivion a quelle impostazioni)
il bello è che lo è anche a 1680x1050! :)
L'unico gioco che mi mette in crisi è incredibilmente call of duty 2 che devo mettere a aa4x per avere un frame medio decente (resto uguale) ma visto che è un caso isolato non credo faccia testo.
In ogni caso ripeto, anche R600 farà vedere i numeri con i filtri, viste le caratteristiche che sembra avere
Inoltre, c'è da vedere come si comporteranno queste schede con i giochi dx10 (o dx9 e 1/2 o quello che vi pare :D )
;)
soprattutto secondo me fino al 2008 vedremo le prestazioni in dx9 e mezzo... per le vere dx10 dovremo aspettare minimo novembre/dicembre 2007 se non il 2008 :)
appleroof
08-01-2007, 22:27
soprattutto secondo me fino al 2008 vedremo le prestazioni in dx9 e mezzo... per le vere dx10 dovremo aspettare minimo novembre/dicembre 2007 se non il 2008 :)
si l'abbiamo capito, senza offesa eh? :mano:
appleroof
08-01-2007, 22:31
Cmq piccolo ot: Appleroof quanto fai al 3dmark 2006? Così per sapere :p
L'ho fatto solo una volta appena presa e a freq. default il resto come in firma ho fatto circa 10000k (nulla di speciale, sono in linea con chi ha un processore Amd) ;)
davide155
08-01-2007, 22:34
L'ho fatto solo una volta appena presa e a freq. default il resto come in firma ho fatto circa 10000k (nulla di speciale, sono in linea con chi ha un processore Amd) ;)
Grazie ;)
appleroof
08-01-2007, 22:35
Grazie ;)
e di che? :)
non esiste (cavolo...ce l'ho davanti! :asd: )
senza andare su google o youtube, chiedi un pò sul tread ufficiale della GTX come gira Oblivion con questa scheda (prima fra tutti ti consiglio di leggere il I post) ;)
cmq qui su hwupgrade riporta un frame medio di 53fps a 1920x1200 aa4x as16x :boh:
;)
Sto bramando la gtx... ma devo resistere... Dio mi aiuti :muro:
Free Gordon
08-01-2007, 22:43
Non confondete i giochi DX10 only, cioè Vista only (che usciranno nella seconda metà dell'anno, Alan Wake, Halo 2, Hellgate: London e altri già previsti da tempo), ma che potranno girare anche con vga DX9, con quelli sm4.0 only (che richiederanno cioè vga sm4.0) che, verosimilmente, non vedremo prima del 2008 inoltrato ;)
AW esce nel 2008, purtroppo.
appleroof
08-01-2007, 22:47
Sto bramando la gtx... ma devo resistere... Dio mi aiuti :muro:
:asd:
non vorrei peggiorare la situazione ma veramente guardare quel gioco (tra l'altro ho la versione moddata) in quel modo non ti fà rimpiangere 1 euro di quello che hai speso (che poi è il fine ultimo di chi compra una vga no?)
Non sono mai stato un hard gamer (giocavo un grosso titolo ogni tot, infatti pensa che sono andato avanti per quasi 2 anni con una 5700ultra) ma da quando ho questa vga mi sono giocato tutti quei titoli che ho citato di un fiato (a parte che ho avuto la fortuna di scoprirli quasi tutti per la I volta, tranne most wanted, Oblivion e prey che avevo già giocato con la 7800gtx): uno spettacolo per chi ama giocare, veramente :)
Free Gordon
08-01-2007, 22:49
G80 o R600 soffriranno quando ci saranno giochi che le sfrutteranno e a quel punto anche un AA4X farà calare notevolmente i frames... :p
appleroof
08-01-2007, 22:50
So che sono molto OT, mi scuso con i mod (ma qui ormai il discorso si intreccia con le dx10 in senso lato) ma che voi sappiate half life episodio 2 sarà anche dx10?
So che sono molto OT, mi scuso con i mod (ma qui ormai il discorso si intreccia con le dx10 in senso lato) ma che voi sappiate half life episodio 2 sarà anche dx10?
no non è stato detto niente a riguardo anche perchè era previsto per questo dicembre ed è slittato solo successivamente a giugno. L'unica miglioria al motore grafico da quello che si dice è data da un uso migliore degli shader e un HDR più realistico (in episode 1 era troppo accentuato in alcune aree) :)
davide155
08-01-2007, 23:12
So che sono molto OT, mi scuso con i mod (ma qui ormai il discorso si intreccia con le dx10 in senso lato) ma che voi sappiate half life episodio 2 sarà anche dx10?
No al 99% :)
No al 99% :)
mi sa che lo vedremo tra un bel po' half life in dx10 purtroppo, anche se forse per l'episode 3 (se mai ci sarà) potrebbero aggiornare il source ad una sorta di dx9 e mezzo o dx10-1/4. Altrimenti dovremo aspettare il prossimo capitolo della serie con magari il nuovo motore grafico (il source2 ??)
l'episodio 2 credo sara al 98% in dx9
anche con una x1950xt a 1280x1024 con i giochi attuali aa4x always è una certezza, bisogna vedere nei giochi futuri! Comunque spero che r600 sia più corta di qualche centimetro rispetto alla 8800gtx, altrimenti amd/ati poteva anche stare zitta sulle dimensioni della 8800gtx se poi ne tira fuori una più lunga!
(scusate per i doppi sensi :D )
per quel che riguarda la mia cognizione di fluidità di gioco, una x1950xtx con filtri attivi non mi basta. Poi è solo questione di abitudine :)
Se mi fosse bastata, avrei comprato quella e risparmiato 200 euro non credi :D ?
Free Gordon
09-01-2007, 03:14
Coi giochi attuali, se uno ha uno schermo classico 1280x1024, la 1950XTX basta e avanza. Se si vuole salire in res invece, non basta più.
La stessa cosa accadrà con il G80 quando ci saranno giochi che la sfrutteranno.. E' 'na ruota..! :D
per quel che riguarda la mia cognizione di fluidità di gioco, una x1950xtx con filtri attivi non mi basta. Poi è solo questione di abitudine :)
Se mi fosse bastata, avrei comprato quella e risparmiato 200 euro non credi :D ?
io non mi trovo così male (per ora)
...a leggere certi commenti alle volte cadono veramente le braccia (per non dire altro).
Una X1950 XTX a F.E.A.R. con risoluzione 1600x1200, AA 4x e AF 16x (memorizzare bene) riesce a fare 58 fps medi; una 7900 GTX fa 49 fps medi.
Se la risoluzione "scende" a 1280x1024 si arriva a 84 e 70 fps medi.
Una X1950 XTX ad Oblivion con risoluzione 1920x1200, AA 4x e AF 16x (memorizzare molto bene) riesce a fare 38 fps medi; una 7900 GTX fa 33 fps medi.
Se la risoluzione "scende" a 1280x1024 e si attiva HDR, si arriva a 63 e 65 fps medi.
...no comment.
...a leggere certi commenti alle volte cadono veramente le braccia (per non dire altro).
Una X1950 XTX a F.E.A.R. con risoluzione 1600x1200, AA 4x e AF 16x (memorizzare bene) riesce a fare 58 fps medi; una 7900 GTX fa 49 fps medi.
Se la risoluzione "scende" a 1280x1024 si arriva a 84 e 70 fps medi.
Una X1950 XTX ad Oblivion con risoluzione 1920x1200, AA 4x e AF 16x (memorizzare molto bene) riesce a fare 38 fps medi; una 7900 GTX fa 33 fps medi.
Se la risoluzione "scende" a 1280x1024 e si attiva HDR, si arriva a 63 e 65 fps medi.
...no comment.
appunto.
...a leggere certi commenti alle volte cadono veramente le braccia (per non dire altro).
Una X1950 XTX a F.E.A.R. con risoluzione 1600x1200, AA 4x e AF 16x (memorizzare bene) riesce a fare 58 fps medi; una 7900 GTX fa 49 fps medi.
Se la risoluzione "scende" a 1280x1024 si arriva a 84 e 70 fps medi.
Una X1950 XTX ad Oblivion con risoluzione 1920x1200, AA 4x e AF 16x (memorizzare molto bene) riesce a fare 38 fps medi; una 7900 GTX fa 33 fps medi.
Se la risoluzione "scende" a 1280x1024 e si attiva HDR, si arriva a 63 e 65 fps medi.
...no comment.
A me cadono le braccia a leggere risposte come la tua.
Hai la presunzione di ritenere che il tuo modo di giocare e di concepire la fluidità di gioco sia l'unico giusto. Evidentemente dovresti scendere dal piedistallo e pensare che altre persone non si accontentano di 40 fps medi, ma nemmeno 50 o 60.
Dalla tua risposta si evince che non hai mai giocato in multiplayer, sennò non diresti queste scemenze. Ti sfido a mirare qualcuno in maniera precisa con un computer che varia da 20 a 60 fps di continuo (40 fps di media) ma anche tra 20 e 80 e via cosi. Soprattutto in considerazione del fatto che gli fps si abbassano all'arrivo dei nemici, momento cruciale per l'esperienza di gioco. Figo girare per tamriel a guardare gli alberi con 40 fps di media. Poi se all'arrivo di un bandito in mezzo alla vegetazione gli fps scendono a 10 e scatta tutto chissenefrega. A me basta godermi il panorama. mah
Ripeto, ognuno ha la sua percezione. Rispettiamola.
Ho preso degli esempi estremi, basta saperli leggere. Giocare a 1600*1200 o 1920*1200 non è la normalità. E comunque, anche a queste risoluzioni, con filtri attivati, le vga X1900/7900 se la cavano bene.
La stragrande maggioranza (o totalità?!) delle persone utilizza 1024*768 o 1280*1024. Se la tua percezione "giusta" è quella di avere una 8800GTX con relativo monitor da almeno 1600*1200 fai pure...nessuno ti critica per questo, i soldi sono tuoi e li spendi giustamente come vuoi. Però bisogna sottolineare (fortemente) che con una X1800/X1900/7800/7900 si gioca alla grande con qualsiasi gioco single player e multiplayer. Altrimenti si manda un messaggio sbagliato. E non veritiero.
Tutto qui. Mi sembrava d'esser stato abbastanza chiaro.
Ho preso degli esempi estremi, basta saperli leggere. Giocare a 1600*1200 o 1920*1200 non è la normalità. E comunque, anche a queste risoluzioni, con filtri attivati, le vga X1900/7900 se la cavano bene.
La stragrande maggioranza (o totalità?!) delle persone utilizza 1024*768 o 1280*1024. Se la tua percezione "giusta" è quella di avere una 8800GTX con relativo monitor da almeno 1600*1200 fai pure...nessuno ti critica per questo, i soldi sono tuoi e li spendi giustamente come vuoi. Però bisogna sottolineare (fortemente) che con una X1800/X1900/7800/7900 si gioca alla grande con qualsiasi gioco single player e multiplayer. Altrimenti si manda un messaggio sbagliato. E non veritiero.
Tutto qui. Mi sembrava d'esser stato abbastanza chiaro.
effettivamente come non quotarlo,dall'uscita delle x1900 io ho iniziato a dire in risposta i commenti soliti "sta cheda è cpu limited" che ormai le schede moderne sono monitor limited,la risoluzione media fino a circa 2 anni fà era di 1024x768 e ricordo molto bene quanto le vga di fascia altra dovevano garantire a questa risolzuzione massiam fluidita con aa4x,ora la risoluzione media si è attestata attorno ai 1280 e qui le vga di fascia alta devono garantire fluidità a aa4x.
ora con i nuovi monitor da 1600 oppure quelli moderni che si spostano a 1920 è giusto se si hanno pretendere il massimo e acquistare le ultime schede che siano 8800gtx o r600,
solo che persone e ce ne sono che si sono prese le 8800gtx o hanno una x1950xtx che poi le senti e hanno ancora un lcd da 15" è come sottosfruttare la propia vga ancora di + che mettergli vicino un processore non propio performattissimo.
ovviamente questa salita di potenza con vga di fascia alta che per andare in crisi e scendere sotto i 45fps le devi mettere a 1600 con aa4x è ottima anche in campo delle mid-end dove se continuiamo cosi chi prima aveva un ottimo monitor da 17" e per sfruttarlo prima doveva acquistare schede da 400-500E
adesso con una da 250 se la cava perfettamente
gianlu75xp
09-01-2007, 15:32
A me cadono le braccia a leggere risposte come la tua.
Hai la presunzione di ritenere che il tuo modo di giocare e di concepire la fluidità di gioco sia l'unico giusto. Evidentemente dovresti scendere dal piedistallo e pensare che altre persone non si accontentano di 40 fps medi, ma nemmeno 50 o 60.
Dalla tua risposta si evince che non hai mai giocato in multiplayer, sennò non diresti queste scemenze. Ti sfido a mirare qualcuno in maniera precisa con un computer che varia da 20 a 60 fps di continuo (40 fps di media) ma anche tra 20 e 80 e via cosi. Soprattutto in considerazione del fatto che gli fps si abbassano all'arrivo dei nemici, momento cruciale per l'esperienza di gioco. Figo girare per tamriel a guardare gli alberi con 40 fps di media. Poi se all'arrivo di un bandito in mezzo alla vegetazione gli fps scendono a 10 e scatta tutto chissenefrega. A me basta godermi il panorama. mah
Ripeto, ognuno ha la sua percezione. Rispettiamola.
Chi gioca in multi a livello semiserio generalmente lima all'osso i dettagli grafici, se ne sbatte dell'AA e dell'hdr e tweakka la cfg eliminando tutte, ma proprio tutte le chicche grafiche superflue. Non parlo per sentito dire eh, i giocatori "pVo" appartenenti a clan con skill fenomenali non hanno sistemi da paura e l'ultima vga sul mercato ;)
Altro discorso per il single player... dove peraltro non ho mai visto 10 fps in Oblivion a dettagli alti.
halduemilauno
09-01-2007, 15:39
Secondo quanto riportato da DailyTech, AMD ha in programma tre importanti presentazioni nei prossimi mesi: R600, R610 e R630.
Il chip R600 è il successore della Radeon X1950 ed è atteso per il Cebit 2007 che si terrà a metà marzo. La disponibilità della soluzione non dovrebbe tuttavia essere immediata. Non è ancora chiaro invece se le versioni saranno due, con GDDR4 o GDDR3, anche se è veramente molto probabile. La versione con GDDR4 sarà la più veloce, tuttavia non abbiamo dettagli sulle frequenze di lavoro.
La nuova roadmap dell'azienda è stata infarcita di due ulteriori GPU: R610 e R630. Come solitamente accade in casa AMD/ATi, questi nomi in codice potrebbero indicare rispettivamente il modello entry level e mid-range. Queste due soluzioni dovrebbero debuttare prima di giugno.
http://www.tomshw.it/news.php?newsid=8739
;)
Andrea deluxe
09-01-2007, 15:41
A need for speed carbon devo mettere per forza l'AA a 4x @1680x1050 altrimenti il gioco va a tratti! :confused:
Chi gioca in multi a livello semiserio generalmente lima all'osso i dettagli grafici, se ne sbatte dell'AA e dell'hdr e tweakka la cfg eliminando tutte, ma proprio tutte le chicche grafiche superflue. Non parlo per sentito dire eh, i giocatori "pVo" appartenenti a clan con skill fenomenali non hanno sistemi da paura e l'ultima vga sul mercato ;)
Altro discorso per il single player... dove peraltro non ho mai visto 10 fps in Oblivion a dettagli alti.
ricordo quando giocavo a ut2004 col mio clan e settavo tutto a 800*600, dettagli medio-bassi, no filtri e avevo una 9800pro sotto, mi prendevano pure per il :ciapet: :asd: in single player è effettivamente un discorso a parte...se faccio dai 35 fps in su non mi lamento
Ho preso degli esempi estremi, basta saperli leggere. Giocare a 1600*1200 o 1920*1200 non è la normalità. E comunque, anche a queste risoluzioni, con filtri attivati, le vga X1900/7900 se la cavano bene.
La stragrande maggioranza (o totalità?!) delle persone utilizza 1024*768 o 1280*1024. Se la tua percezione "giusta" è quella di avere una 8800GTX con relativo monitor da almeno 1600*1200 fai pure...nessuno ti critica per questo, i soldi sono tuoi e li spendi giustamente come vuoi. Però bisogna sottolineare (fortemente) che con una X1800/X1900/7800/7900 si gioca alla grande con qualsiasi gioco single player e multiplayer. Altrimenti si manda un messaggio sbagliato. E non veritiero.
Tutto qui. Mi sembrava d'esser stato abbastanza chiaro.
esatto, la 8800GTX è il meglio e non si discute, ma questo non vuol dire che il resto del panorama delle vga non sia in grado di far divertire la gente senza problemi.
Foglia Morta
09-01-2007, 16:21
http://www.theinquirer.net/default.aspx?article=36799
R600 is pretty much done. We got confirmation that the chips are just fine and there are no hardware errors or respins necessary.
However, the chip is delayed and might not even make it for the scheduled late February planned launch.
AMD simply won’t let ATI release the new chip without being able to ship it in volumes, our sources claim. That is the whole story and end of Q1 is the targeted date now.
It begins to look more like a Cebit or around Cebit launch but we suggest the PR announcement might be even before that date. R600 is a 512Mbit chip at 80 nanometre. That is the whole conspiracy story. µ
Kharonte85
09-01-2007, 16:22
Secondo quanto riportato da DailyTech, AMD ha in programma tre importanti presentazioni nei prossimi mesi: R600, R610 e R630.
Il chip R600 è il successore della Radeon X1950 ed è atteso per il Cebit 2007 che si terrà a metà marzo. La disponibilità della soluzione non dovrebbe tuttavia essere immediata. Non è ancora chiaro invece se le versioni saranno due, con GDDR4 o GDDR3, anche se è veramente molto probabile. La versione con GDDR4 sarà la più veloce, tuttavia non abbiamo dettagli sulle frequenze di lavoro.
La nuova roadmap dell'azienda è stata infarcita di due ulteriori GPU: R610 e R630. Come solitamente accade in casa AMD/ATi, questi nomi in codice potrebbero indicare rispettivamente il modello entry level e mid-range. Queste due soluzioni dovrebbero debuttare prima di giugno.
http://www.tomshw.it/news.php?newsid=8739
;)
Andiamo bene... :doh:
Kharonte85
09-01-2007, 16:28
http://www.theinquirer.net/default.aspx?article=36799
R600 is pretty much done. We got confirmation that the chips are just fine and there are no hardware errors or respins necessary.
However, the chip is delayed and might not even make it for the scheduled late February planned launch.
AMD simply won’t let ATI release the new chip without being able to ship it in volumes, our sources claim. That is the whole story and end of Q1 is the targeted date now.
It begins to look more like a Cebit or around Cebit launch but we suggest the PR announcement might be even before that date. R600 is a 512Mbit chip at 80 nanometre. That is the whole conspiracy story. µ
Ecco adesso la scheda non ha piu' problemi...:asd:
http://www.theinquirer.net/default.aspx?article=36799
fine del primo quarto ? Aprile ?
Foglia Morta
09-01-2007, 16:37
fine del primo quarto ? Aprile ?
Mi ricordi qualcuno :D
un quarto di anno è un trimestre ;)
Kharonte85
09-01-2007, 16:38
fine del primo quarto ? Aprile ?
12/4=3 mesi :tapiro:
:asd:
relo@ded
09-01-2007, 17:41
sarà per Marzo allora.
nulla di nuovo.
speriamo di vedere presto le specifiche definitive.
Mi ricordi qualcuno :D
un quarto di anno è un trimestre ;)
:ops: :ops:
Mi autosospendo per 5gg :asd:
appleroof
09-01-2007, 19:37
:ops: :ops:
Mi autosospendo per 5gg :asd:
:D mi raccomando in quei 5 giorni in ginocchio sui ceci eh? :asd: :asd: :asd:
per quel che riguarda la mia cognizione di fluidità di gioco, una x1950xtx con filtri attivi non mi basta. Poi è solo questione di abitudine :)
Se mi fosse bastata, avrei comprato quella e risparmiato 200 euro non credi :D ?
si ti credo, dipende dalle abitudini, io ho sempre sacrificato un po' di fluidità x maggiori dettagli e sono abituato così, daltronde ho sempre avuto vga mid-range: 9600pro 6600gt e x1800gto, adesso che mi ritrovo con una x1950xt mi sembra di poter giocare fluidamente a tutto con dettagli max e mi rendo conto che ad esempio a cod2 con la x1800gto giocavo a dettaglio max con fps medi intorno ai 25, adesso mi sono accorto che il gioco andava abbastanza a scatti perchè con la x1950 ho ben 50/60fps medi ed è tutta un'altra cosa!
Coi giochi attuali, se uno ha uno schermo classico 1280x1024, la 1950XTX basta e avanza. Se si vuole salire in res invece, non basta più.
La stessa cosa accadrà con il G80 quando ci saranno giochi che la sfrutteranno.. E' 'na ruota..! :D
basta anche una x1800xt secondo me! A me è bastata la x1800gto fino a 2 mesetti fa! :)
effettivamente come non quotarlo,dall'uscita delle x1900 io ho iniziato a dire in risposta i commenti soliti "sta cheda è cpu limited" che ormai le schede moderne sono monitor limited,la risoluzione media fino a circa 2 anni fà era di 1024x768 e ricordo molto bene quanto le vga di fascia altra dovevano garantire a questa risolzuzione massiam fluidita con aa4x,ora la risoluzione media si è attestata attorno ai 1280 e qui le vga di fascia alta devono garantire fluidità a aa4x.
ora con i nuovi monitor da 1600 oppure quelli moderni che si spostano a 1920 è giusto se si hanno pretendere il massimo e acquistare le ultime schede che siano 8800gtx o r600,
solo che persone e ce ne sono che si sono prese le 8800gtx o hanno una x1950xtx che poi le senti e hanno ancora un lcd da 15" è come sottosfruttare la propia vga ancora di + che mettergli vicino un processore non propio performattissimo.
ovviamente questa salita di potenza con vga di fascia alta che per andare in crisi e scendere sotto i 45fps le devi mettere a 1600 con aa4x è ottima anche in campo delle mid-end dove se continuiamo cosi chi prima aveva un ottimo monitor da 17" e per sfruttarlo prima doveva acquistare schede da 400-500E
adesso con una da 250 se la cava perfettamente
ti straquoto, quindi IMHO (che ho un monitor lcd 17'' 1280x1024) va ALLA GRANDE la x1950xt e sono sicuro che sarà così almeno fino a giugno)
Ecco adesso la scheda non ha piu' problemi...:asd:
d'altronde cosa vuoi aspettarti da the inquirer? domani dirà ancora che ci sono 2 revisioni... vabbé, tra 1 po' è da compatire... ;)
fine del primo quarto ? Aprile ?
:ciapet: :ciapet: :ciapet:
ok basta, scusate se ho scritto 4/5 post insieme ma mi sono perso 1 giorno di 3d e ho voluto rispondere a tutti! ;)
Andiamo bene... :doh:
.. e nVidia ringrazia :sofico:
E aspettiamo allora... :D
appleroof
10-01-2007, 15:20
Coi giochi attuali, se uno ha uno schermo classico 1280x1024, la 1950XTX basta e avanza. Se si vuole salire in res invece, non basta più.
La stessa cosa accadrà con il G80 quando ci saranno giochi che la sfrutteranno.. E' 'na ruota..! :D
Ma infatti non capivo la frase "aa4x always on" io con quelle caratteristiche pretenderei almeno aa8x always on....
Ma infatti non capivo la frase "aa4x always on" io con quelle caratteristiche pretenderei almeno aa8x always on....
quoto, l'ho già detto anche più sopra! :)
Skullcrusher
10-01-2007, 17:08
Ma infatti non capivo la frase "aa4x always on" io con quelle caratteristiche pretenderei almeno aa8x always on....
:asd:
Già, ora come ora, una scheda con le caratterisctiche di R600 può tenere sempre attivo l'AA a 8x senza colpo ferire.....tra un anno magari no, ma ora come ora sì :sofico:
appleroof
10-01-2007, 17:50
:asd:
Già, ora come ora, una scheda con le caratterisctiche di R600 può tenere sempre attivo l'AA a 8x senza colpo ferire.....tra un anno magari no, ma ora come ora sì :sofico:
...esatto! :boh:
:asd:
Già, ora come ora, una scheda con le caratterisctiche di R600 può tenere sempre attivo l'AA a 8x senza colpo ferire.....tra un anno magari no, ma ora come ora sì :sofico:
secondo me anche tra un anno a risoluzione di 1280x1024 (cioè ormai quella standard dei videogiocatori)
secondo me anche tra un anno a risoluzione di 1280x1024 (cioè ormai quella standard dei videogiocatori)
il "problema" è che chi oggi ha acquistato G80 e domani R600 si è anche spesso corredato di monitor dal 24" a salire e quindi la longevità delle schede si accorcia al progredire della pesantezza dei giochi.
Kharonte85
10-01-2007, 18:45
http://www.theinquirer.net/default.aspx?article=36799
Per chi è monolingua: (è ora di studiarlo l'inglese pero' :O :D )
Incerto il lancio di fine febbraio per la R600
CES 2007 - La R600 di AMD+ATI è quasi pronta. Abbiamo avuto conferma che il processore ora funziona bene, che non ci sono errori nell'hardware e non saranno necessari aggiustamenti di sorta.
Malgrado ciò, l'uscita del nuovo processore viene ritardata e ATI potrebbe non essere pronta nemmeno per il previsto lancio della fine di febbraio.
AMD semplicemente non vuole lasciare che ATI lanci il nuovo giocattolo prima di essere in grado di produrlo in volumi elevati. La fine del primo trimestre del 2007 è ora diventata la data di riferimento.
A quanto sembra il lancio sarà vicino alla data del Cebit, anche se speriamo che le PR avranno pronto l'annuncio ben prima di quella data.
Articolo originale di: Fuad Abazovic
http://it.theinquirer.net/2007/01/incerto_il_lancio_di_fine_febb.html
;)
appleroof
10-01-2007, 18:48
il "problema" è che chi oggi ha acquistato G80 e domani R600 si è anche spesso corredato di monitor dal 24" a salire e quindi la longevità delle schede si accorcia al progredire della pesantezza dei giochi.
se anche fosse, cmq, I c'è sempre l'overclock dal quale spremere prestazioni (la 8800gtx arriva tranquillamente a 650/2000, qualcuno, alimentatore permettendo, senza flash bios e dissi standard l'ha portata 690/2050 :eek: , cioè più di 100mhz sul core che non sono proprio bruscolini) II puoi abbassare i filtri fino ad escluderli, III fare l'una e l'altra cosa :asd: (insomma alla fine quello che si fà con qualsiasi scheda da sempre)
credo che così G80 o R600, considerando inoltre che siamo all'alba delle dx10, hanno una longevità assicurata, in assoluto.
Il problema è chiedersi quanto tempo invece la scheda sarà capace di stare a aa8x as16x a freq. default con ris. da 1680x1050: io credo che schede con la banda così mostruosa abbiano i numeri per mantenere queste impostazioni a lungo ;)
(senza dimenticare che chi gioca a risoluzioni elevate, tipo 1920x1200 può tranquillamente tenere l'aa 2x o addirittura escluderlo magari tenendo solo l'anisotropico)
se anche fosse, cmq, I c'è sempre l'overclock dal quale spremere prestazioni (la 8800gtx arriva tranquillamente a 650/2000, qualcuno, alimentatore permettendo, senza flash bios e dissi standard l'ha portata 690/2050 :eek: , cioè più di 100mhz sul core che non sono proprio bruscolini) II puoi abbassare i filtri fino ad escluderli, III fare l'una e l'altra cosa :asd: (insomma alla fine quello che si fà con qualsiasi scheda da sempre)
credo che così G80 o R600, considerando inoltre che siamo all'alba delle dx10, hanno una longevità assicurata, in assoluto.
Il problema è chiedersi quanto tempo invece la scheda sarà capace di stare a aa8x as16x a freq. default con ris. da 1680x1050: io credo che schede con la banda così mostruosa abbiano i numeri per mantenere queste impostazioni a lungo ;)
(senza dimenticare che chi gioca a risoluzioni elevate, tipo 1920x1200 può tranquillamente tenere l'aa 2x o addirittura escluderlo magari tenendo solo l'anisotropico)
io penso il contrario, così come le vga "normali" dopo un pò faticano a tenere ler ris "umane", così le vga potenti (oggi) faticheranno a tenere le ris "disumane". Quindi non cambierà nulla rispetto ad oggi: si cambierà vga allo stesso ritmo.
appleroof
10-01-2007, 19:15
io penso il contrario, così come le vga "normali" dopo un pò faticano a tenere ler ris "umane", così le vga potenti (oggi) faticheranno a tenere le ris "disumane". Quindi non cambierà nulla rispetto ad oggi: si cambierà vga allo stesso ritmo.
Bè si alla fine abbiamo detto la stessa cosa da 2 punti di vista differenti. Cioè io non ho mai creduto che G80 o R600 dovessero allungare la vita media delle vga, anche perchè quello è un dato del tutto soggettivo: c'è chi la tiene 4 anni finchè proprio non fà nemmeno partire i giochi, c'è chi pretende sempre il massimo di prestazioni con gli ultimi giochi e ne cambia 1 al mese ecc..
Quello che cambia con queste top secondo me è lo standard di riferimento (non a caso le rece in giro nemmeno considerano risoluzioni minori a 1600x1200), mi spiego: ho avuto una 7800gtx per 1 anno e non ho mai cambiato le impostazioni (aa4x as8x) a 1280x1024, con nessun gioco (al limite mettevo di volta in volta qualche dettaglio su medio, dopo aver provato come andava al max). Se l'avessi mantenuta credo che se la sarebbe cavata per un altro anno pieno a quella risoluzione, magari overcloccandola un pò e/o togliendo/abbassando i filtri, ma a quella risoluzione ci avrei giocato.
Rapportando il discorso s schede del calibro di G80 e R600, la stessa cosa vale con risoluzioni più alte, secondo me, per i motivi già detti: d'altra parte fino a solo 1 anno e mezzo/2 fà, la risoluzione tipica e media era 1024x768....
Bè si alla fine abbiamo detto la stessa cosa da 2 punti di vista differenti. Cioè io non ho mai creduto che G80 o R600 dovessero allungare la vita media delle vga, anche perchè quello è un dato del tutto soggettivo: c'è chi la tiene 4 anni finchè proprio non fà nemmeno partire i giochi, c'è chi pretende sempre il massimo di prestazioni con gli ultimi giochi e ne cambia 1 al mese ecc..
Quello che cambia con queste top secondo me è lo standard di riferimento (non a caso le rece in giro nemmeno considerano risoluzioni minori a 1600x1200), mi spiego: ho avuto una 7800gtx per 1 anno e non ho mai cambiato le impostazioni (aa4x as8x) a 1280x1024, con nessun gioco (al limite mettevo di volta in volta qualche dettaglio su medio, dopo aver provato come andava al max). Se l'avessi mantenuta credo che se la sarebbe cavata per un altro anno pieno a quella risoluzione, magari overcloccandola un pò e/o togliendo/abbassando i filtri, ma a quella risoluzione ci avrei giocato.
Rapportando il discorso s schede del calibro di G80 e R600, la stessa cosa vale con risoluzioni più alte, secondo me, per i motivi già detti: d'altra parte fino a solo 1 anno e mezzo/2 fà, la risoluzione tipica e media era 1024x768....
esatto :)
appleroof
10-01-2007, 19:33
esatto :)
e aggiungo che secondo me cambia anche il tempo con cui si gioca a quelle risoluzioni con i filtri attivi: ecco che quindi mi chiedo se queste schede manterranno un aa8x as16x almeno per un anno a una risoluzione "standard" di 1600x1200 (o la corrispondente wide :p ), invece del "vecchio" canonico (per le top e medio-alte) aa4x as8x...secondo me, considerando la potenza di calcolo mostruosa (G80 praticamente raddoppia R580+, sicuramente anche R600) e le altre caratteristiche che hanno, si ;)
davide22
10-01-2007, 19:35
il "problema" è che chi oggi ha acquistato G80 e domani R600 si è anche spesso corredato di monitor dal 24" a salire e quindi la longevità delle schede si accorcia al progredire della pesantezza dei giochi.
esatto , se poi ci si mette pure una scarsa ottimizzazione, l'impressione di avere qlcosa di "vecchio" aumenta, restringendo ancor prima la longevità della stessa scheda (che nella maggior parte dei casi ha potenza da vendere ma come al solito ovviamente è sfruttata ben poco)
appleroof
10-01-2007, 19:39
esatto , se poi ci si mette pure una scarsa ottimizzazione, l'impressione di avere qlcosa di "vecchio" aumenta, restringendo ancor prima la longevità della stessa scheda (che nella maggior parte dei casi ha potenza da vendere ma come al solito ovviamente è sfruttata ben poco)
effettivamente ultimamente parecchi "grossi" titoli (scda su tutti) fanno pietà davvero, (tra l'altro se continua così la migrazione verso le consolle per chi usa il pc al 90% per giocare è quasi scontata!)
ma io confido che la scars(issim)a ottimizzazione di molti titoli usciti a fine 2006 sia dovuta allo spostamento d'attenzione sulle dx10.....
Kharonte85
10-01-2007, 20:21
ma io confido che la scars(issim)a ottimizzazione di molti titoli usciti a fine 2006 sia dovuta allo spostamento d'attenzione sulle dx10.....
:sperem:
appleroof
10-01-2007, 20:37
:sperem:
già....sennò :bsod: :asd:
e cmq consideravo anche (su quello che ha detto Davide22) che in ogni caso un utente un minimo sgamato non cambia scheda perchè il gioco (o i giochi) non è ottimizzato (al limite mi incacchio come una bestia verso la sw house che mi ha fatto buttare bei soldini), almeno io di sicuro no.... per cui in media direi che questo aspetto c'entra poco con quello di cui discutevamo IMHO:)
io penso il contrario, così come le vga "normali" dopo un pò faticano a tenere ler ris "umane", così le vga potenti (oggi) faticheranno a tenere le ris "disumane". Quindi non cambierà nulla rispetto ad oggi: si cambierà vga allo stesso ritmo.
Concordo. A meno di rivoluzioni tali da non tenere come metro di paragone il semplice x per y con aaNx e afNx. Personalmente la risoluzione non e' una cosa che (a prescindere dalla tanto osannata era dell'HD) mi affascina piu' di tanto mantenere. Cio' che mi interessa e' che la scheda mantenga capacita' sfruttate sebbene anche a risoluzioni minori. E' ovvio che in titoli come Crysis queste schede non manterrano certo risoluzioni e filtri che al momento possono permettersi visto che saranno sfruttate ben meno delle loro capacita'. ;)
appleroof
10-01-2007, 21:50
E' ovvio che in titoli come Crysis queste schede non manterrano certo risoluzioni e filtri che al momento possono permettersi visto che saranno sfruttate ben meno delle loro capacita'. ;)
:what: :D
Kharonte85
10-01-2007, 21:57
al limite mi incacchio come una bestia verso la sw house che mi ha fatto buttare bei soldini),
Pure io... :mad:
per cui in media direi che questo aspetto c'entra poco con quello di cui discutevamo IMHO:)
Concordo...
appleroof
10-01-2007, 22:34
A proposito di Crysis, vista e dx10, avete visto l'ultimo video?? (fisica, e resto??) :eek: :eek:
The Inquirer got talking with Cevat Yerli at CES 2007. They asked a few questions which provided a little bit of new info. Nothing major but definitely interesting. I've listed them below.
* Crytek are going for a middle of the year release (late Q2).
* Crysis is currently in the pre-alpha development stage and is expected to make it to alpha by about march.
* The systems running Crysis at CES 2007 have a single 8800GTX, an Intel Core 2 Duo processor and windows vista which runs the game at 60+ fps for the most part (awesome).
da http://www.crysis-online.com/
quello in neretto è per tutti i discorsi fatti finora circa capacità o meno delle schede top dx10 e circa la qualità dei giochi stessi rispetto a quanto visto finora in dx9 (per i mod. : ovviamente se vale per G80 imho vale per R600, per quello l'ho postato qui)
ovviamente è da prendere con le molle trattandosi sempre degli amici di The inquirer :asd:
Bè si alla fine abbiamo detto la stessa cosa da 2 punti di vista differenti. Cioè io non ho mai creduto che G80 o R600 dovessero allungare la vita media delle vga, anche perchè quello è un dato del tutto soggettivo: c'è chi la tiene 4 anni finchè proprio non fà nemmeno partire i giochi, c'è chi pretende sempre il massimo di prestazioni con gli ultimi giochi e ne cambia 1 al mese ecc..
Quello che cambia con queste top secondo me è lo standard di riferimento (non a caso le rece in giro nemmeno considerano risoluzioni minori a 1600x1200), mi spiego: ho avuto una 7800gtx per 1 anno e non ho mai cambiato le impostazioni (aa4x as8x) a 1280x1024, con nessun gioco (al limite mettevo di volta in volta qualche dettaglio su medio, dopo aver provato come andava al max). Se l'avessi mantenuta credo che se la sarebbe cavata per un altro anno pieno a quella risoluzione, magari overcloccandola un pò e/o togliendo/abbassando i filtri, ma a quella risoluzione ci avrei giocato.
Rapportando il discorso s schede del calibro di G80 e R600, la stessa cosa vale con risoluzioni più alte, secondo me, per i motivi già detti: d'altra parte fino a solo 1 anno e mezzo/2 fà, la risoluzione tipica e media era 1024x768....
quoto il tuo ragionamento, se prima si considerava la frequenza standard a 1280x1024, adesso si considera 1600x1200 (o la corrispettiva wide) e a queste risoluzioni secondo me la longevità delle 2 schede (g80 e r600) rimarrà uguale a quella di r580 e g71 a 1280x1024, altrimenti che senso avrebbe avuto aumentare il bus verso la memoria a 384/512bit dopo 4 anni che era fisso a 256bit e corredare le schede di 1GB di memoria (utile solo appunto ad alte/altissime risoluzioni)??
A proposito di Crysis, vista e dx10, avete visto l'ultimo video?? (fisica, e resto??) :eek: :eek:
The Inquirer got talking with Cevat Yerli at CES 2007. They asked a few questions which provided a little bit of new info. Nothing major but definitely interesting. I've listed them below.
* Crytek are going for a middle of the year release (late Q2).
* Crysis is currently in the pre-alpha development stage and is expected to make it to alpha by about march.
* The systems running Crysis at CES 2007 have a single 8800GTX, an Intel Core 2 Duo processor and windows vista which runs the game at 60+ fps for the most part (awesome).
da http://www.crysis-online.com/
quello in neretto è per tutti i discorsi fatti finora circa capacità o meno delle schede top dx10 e circa la qualità dei giochi stessi rispetto a quanto visto finora in dx9 (per i mod. : ovviamente se vale per G80 imho vale per R600, per quello l'ho postato qui)
ovviamente è da prendere con le molle trattandosi sempre degli amici di The inquirer :asd:
hai fatto benissimo a postarlo qui (anche se non sono un mod :D ) xkè ormai la discussione è andata a finire sulle dx10 in generale e sulle vga dx10.
Io spero che sia davvero così come ha detto The Inquirer anche se l'ha detto The Inquirer :sofico:
quoto il tuo ragionamento, se prima si considerava la frequenza standard a 1280x1024, adesso si considera 1600x1200 (o la corrispettiva wide) e a queste risoluzioni secondo me la longevità delle 2 schede (g80 e r600) rimarrà uguale a quella di r580 e g71 a 1280x1024, altrimenti che senso avrebbe avuto aumentare il bus verso la memoria a 384/512bit dopo 4 anni che era fisso a 256bit e corredare le schede di 1GB di memoria (utile solo appunto ad alte/altissime risoluzioni)??
tieni conto che sposando questo ragionamento si arriva a dire che la longevita' di una X1950XTX e' la medesima di G80/R600 solo a risoluzioni differenti. Probabilmente se si utilizzassero le nuove vga DX10 su di un 20" wide srebbero ora sotto utilizzate ma allungherebbero la loro longevita' anche con titoli piu' pesanti con i filtri attivi non dovendo salire troppo di risoluzione.
A proposito di Crysis, vista e dx10, avete visto l'ultimo video?? (fisica, e resto??) :eek: :eek:
The Inquirer got talking with Cevat Yerli at CES 2007. They asked a few questions which provided a little bit of new info. Nothing major but definitely interesting. I've listed them below.
* Crytek are going for a middle of the year release (late Q2).
* Crysis is currently in the pre-alpha development stage and is expected to make it to alpha by about march.
* The systems running Crysis at CES 2007 have a single 8800GTX, an Intel Core 2 Duo processor and windows vista which runs the game at 60+ fps for the most part (awesome).
da http://www.crysis-online.com/
quello in neretto è per tutti i discorsi fatti finora circa capacità o meno delle schede top dx10 e circa la qualità dei giochi stessi rispetto a quanto visto finora in dx9 (per i mod. : ovviamente se vale per G80 imho vale per R600, per quello l'ho postato qui)
ovviamente è da prendere con le molle trattandosi sempre degli amici di The inquirer :asd:
Si sa a che risoluzione?
quoto il tuo ragionamento, se prima si considerava la frequenza standard a 1280x1024, adesso si considera 1600x1200 (o la corrispettiva wide) e a queste risoluzioni secondo me la longevità delle 2 schede (g80 e r600) rimarrà uguale a quella di r580 e g71 a 1280x1024, altrimenti che senso avrebbe avuto aumentare il bus verso la memoria a 384/512bit dopo 4 anni che era fisso a 256bit e corredare le schede di 1GB di memoria (utile solo appunto ad alte/altissime risoluzioni)??
Io non penso che sia come dite voi. Anche i giochi "crescono" in qualità grafica e prima o poi saremo costretti (chi prima , io, e chi dopo) ad abbassare la risoluzione per avere gli fps che preferiamo.
L'aumento di potenza delle schede grafiche serve in fondo a poter gestire texture più definite, più poligoni a schermo ecc ecc. Le software house, considerando la poca propensione all'ottimizzazione dei giochi, punteranno su grafiche sempre più realistiche, e prima o poi anche l'hw che una volta era il top, diventerà seconda scelta e cosi via...
relo@ded
11-01-2007, 09:33
Personalmente credo che la corsa a monitor con ris. sempre più alte ha un limite fisico.
Insomma, oltre una certa soglia (non so, 24" ??) sarà difficile andare; chi si mette su una scrivania per pc un monitor così grande? A meno che non ci si metta a 1metro e più di distanza altrimenti si può dire addio alla propria vista.
Già ora trovo che un monitor da 20"\22", posizionato alla distanza classica di quello che può concedere una qualsiasi scrivania, è già sufficiente.
Pertanto, secondo me la corsa a giocare con risoluzioni sempre più alte si fermerà.
:what: :D
Saranno sfruttate (in questo momento)... ;):D
halduemilauno
11-01-2007, 10:55
http://www.dinoxpc.com/News/news.asp?ID_News=11814&What=News
;)
sulla lunghezza:
The picture shown is obviously the OEM version. Quadro cards have had a similiar extension added to them in the past. To put it in perspective, the 8800GTX is 9" long.
sulla lunghezza:
in cm ? :stordita:
Kharonte85
11-01-2007, 11:18
http://www.dinoxpc.com/public/images/9dd2b72bd8c5fb9e2327bbf7feaae40a_R600.jpg
Questa sarebbe la versione OEM... :eekk:
Athlon 64 3000+
11-01-2007, 11:22
in cm ? :stordita:
dovrebbe essere lunga come la 8800GTX
Skullcrusher
11-01-2007, 11:37
Davvero strana la differenziazione tra oem e utenti finali....boh..in ogni caso, 30cm sono davvero tanti...per fortuna che la versione riservata a noi è lunga quanto l'8800GTX
:sofico:
Personalmente credo che la corsa a monitor con ris. sempre più alte ha un limite fisico.
Insomma, oltre una certa soglia (non so, 24" ??) sarà difficile andare; chi si mette su una scrivania per pc un monitor così grande? A meno che non ci si metta a 1metro e più di distanza altrimenti si può dire addio alla propria vista.
Già ora trovo che un monitor da 20"\22", posizionato alla distanza classica di quello che può concedere una qualsiasi scrivania, è già sufficiente.
Pertanto, secondo me la corsa a giocare con risoluzioni sempre più alte si fermerà.
nel momento in cui arriveremo al fotorealismo credo ma qui inieremo a pretendere di vedere questi ormai film interattivi + che giochi su monitor sempre + grandi arrivando de facto ad una fusione tra monitor e tv.
cosa che tra l'altro vedendo i primi dell 16:9 da 24" ci siamo molto vicini.
personalmente tra poco mi prendo un samsung da 19" con tr da 8ns appositamente per il gioco e me lo terrò stretto!
http://www.dinoxpc.com/public/images/9dd2b72bd8c5fb9e2327bbf7feaae40a_R600.jpg
Questa sarebbe la versione OEM... :eekk:
a sta minch..... :eek:
halduemilauno
11-01-2007, 11:56
in cm ? :stordita:
un pollice sono 2.54 cm. fai conti sono due versioni una da 9 e l'altra da 12.
;)
un pollice sono 2.54 cm. fai conti sono due versioni una da 9 e l'altra da 12.
;)
quella per gli utenti finali sarà lunga 22cm!!! Un casino!!
halduemilauno
11-01-2007, 14:42
quella per gli utenti finali sarà lunga 22cm!!! Un casino!!
22.86.
;)
22.86.
;)
piccola in confronto alla mastodontica gtx :D
GeForce 8800 GTX è lunga 27 centimetri
GeForce 8800 GTS è lunga 23 centimetri
Radeon X1950 XTX è lunga 23 centimetri
;)
GeForce 8800 GTX è lunga 27 centimetri
GeForce 8800 GTS è lunga 23 centimetri
Radeon X1950 XTX è lunga 23 centimetri
;)
:doh:
ogni volta che leggo questi numeri non sò se ho più voglia di buttarmi dalla finestra o di ridere a crepacuore :asd:
Kharonte85
11-01-2007, 14:48
sulla lunghezza:
Aspetta, c'è qualcosa che non quadra...allora la 8800gtx non è 9 pollici... :confused:
appunto, se non ho capito male dovrebbe essere lunga tipo una 1950 R600, sarebbe fantastico..
halduemilauno
11-01-2007, 14:52
Aspetta, c'è qualcosa che non quadra...allora la 8800gtx non è 9 pollici... :confused:
che io sappia è 10 pollici. che sarebbero 25,4 cm. forse 11? quindi 28?
;)
Kharonte85
11-01-2007, 14:52
appunto, se non ho capito male dovrebbe essere lunga tipo una 1950 R600, sarebbe fantastico..
Allora è sbagliato il sito dove hai preso la citazione: "the 8800GTX is 9" long"
Allora è sbagliato il sito dove hai preso la citazione: "the 8800GTX is 9" long"
a sto punto sì..
a sto punto sì..
anche perchè se non sbaglio l'aveva preso da The Inquirer... quindi torna tutto!
Cmq spettacolare se è lunga come le x1950!!
Bel colpo al g80 (sempre se sarà vero) :D
... e io che pensavano che stessero giocando a "io ce l'ho più lunga!" :ciapet:
Allora è sbagliato il sito dove hai preso la citazione: "the 8800GTX is 9" long"
...si, è sbagliato, come ho scritto è lunga 27 centrimenti o 10.5 inches... millimetro più, millimetro meno! :D
...ciao!
gianlu75xp
11-01-2007, 15:06
Spero abbia un dissipatore efficiente e relativamente silenzioso... in ogni caso sarà una bella lotta a marzo se, come sembra, nvidia ha già in cantiere la 8900 con ddr4 e 1 mb di ram on board...
io mi accontenterei anche di 9 e mezzo, 9 e tre quarti..:asd:
Spero abbia un dissipatore efficiente e relativamente silenzioso... in ogni caso sarà una bella lotta a marzo se, come sembra, nvidia ha già in cantiere la 8900 con ddr4 e 1 mb di ram on board...
mi sa che nn ci gira manco prato fiorito così..:asd: :sofico:
io mi accontenterei anche di 9 e mezzo, 9 e tre quarti..:asd:
Harry Potter docét :asd:
gianlu75xp
11-01-2007, 15:09
mi sa che nn ci gira manco prato fiorito così..:asd: :sofico:
:doh:
ovviamente gb :asd:
se la fanno lunga come la 1900 mi va anche bene un dissi rumoroso e un consumo spropositato cmq.. :p :D
gianlu75xp
11-01-2007, 15:17
se la fanno lunga come la 1900 mi va anche bene un dissi rumoroso e un consumo spropositato cmq.. :p :D
ultimamente invece io ho un occhio (sarebbe più indicato un orecchio) di riguardo alla rumorosità, sarà che gioco sempre con le cuffie e quindi non ci ho mai fatto caso ma... ogni tanto vorrei giocare, specialmente a qualche gestional-strategico, senza oggetti ingombranti in testa (ho delle Zalman 5.1) e in full il dissi della mia X1900 (che è un HIS di concezione prossima o identica ai dissi delle X1950) ronza fastidiosamente... quindi soppeserò bene le caratteristiche di G81 e R600 anche sotto questo punto di vista :)
appleroof
11-01-2007, 15:31
Saranno sfruttate (in questo momento)... ;):D
ahhhh.....ok :)
p.s.: cmq visto il video di crysis al ces? Girava in dx10, e stando a quella citazione, con una 8800gtx lì si parla di 60fps e più (effettivamente il video và fluido una meraviglia già ad occhio nudo, e per inciso è semplicemte spettacolare molto più di tutto ciò che girava finora su questo gioco), però non si dice a che risoluzione....
appleroof
11-01-2007, 15:34
http://www.dinoxpc.com/public/images/9dd2b72bd8c5fb9e2327bbf7feaae40a_R600.jpg
Questa sarebbe la versione OEM... :eekk:
:eek: :eek:
ostrega!!! sicuramente quella foto è un fake dai.....
però non si dice a che risoluzione....
azz...speriamo si parli di 1920x1200 o roba del genere :sperem:
appleroof
11-01-2007, 15:39
azz...speriamo si parli di 1920x1200 o roba del genere :sperem:
Bè lo spererei anche io ovviamente ma la vedo dura...io mi accontenterei che fosse a 1680x1050 :read: :asd:
http://www.dinoxpc.com/public/images/9dd2b72bd8c5fb9e2327bbf7feaae40a_R600.jpg
Questa sarebbe la versione OEM... :eekk:
ma che è sta cosa, l'enterprise :asd:
Bè lo spererei anche io ovviamente ma la vedo dura...io mi accontenterei che fosse a 1680x1050 :read: :asd:
egoista :mad:
:rotfl:
appleroof
11-01-2007, 15:48
egoista :mad:
:rotfl:
:fiufiu:
:asd: :asd:
gianlu75xp
11-01-2007, 15:57
Se andate nel topic "aspettando Crysis" vedrete che ho linkato un video ripreso con videocamera mentre provano il gioco al Ces su un monitor wide, presumibilmente la risoluzione è 1680x1050.
In ogni caso lo riposto anche qui
http://www7.incrysis.com/incrysis_dot_com_bd.zip
Window Vista
11-01-2007, 16:00
Dio che MOSTRO :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:
:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:
sembra che giri molto bene :eek: Il tipo cmq non sa usare il lanciarazzi :asd:
appleroof
11-01-2007, 16:08
Se andate nel topic "aspettando Crysis" vedrete che ho linkato un video ripreso con videocamera mentre provano il gioco al Ces su un monitor wide, presumibilmente la risoluzione è 1680x1050.
In ogni caso lo riposto anche qui
http://www7.incrysis.com/incrysis_dot_com_bd.zip
EDIT
cmq veramente spettacolare quel gioco! Ma se è praticamente pronto per che cacchio di motivo non ne anticipano l'uscita?? :muro: :muro: (maledette regole di mercato.... :mad: )
cmq veramente spettacolare quel gioco! Ma se è praticamente pronto per che cacchio di motivo non ne anticipano l'uscita?? :muro: :muro: (maledette regole di mercato.... :mad: )
perchè stanno ottimizzando il gioco per i poveri mortali come noi che non hanno due X1950XTX o una 8800GTX ;)
appleroof
11-01-2007, 16:11
perchè stanno ottimizzando il gioco per i poveri mortali come noi che non hanno due X1950XTX o una 8800GTX ;)
e accattatevill' ste cacchio 'e dx10!!!! :sofico: :sofico:
(più che altro secondo me aspettano una maggiore diffusione di altre schede dx10, sennò Ati si incazza, :asd: )
EDIT
cmq veramente spettacolare quel gioco! Ma se è praticamente pronto per che cacchio di motivo non ne anticipano l'uscita?? :muro: :muro: (maledette regole di mercato.... :mad: )
ottimizzazione...scusa ma vorrei giocarlo anche sulla mia 7900 :p
...si, è sbagliato, come ho scritto è lunga 27 centrimenti o 10.5 inches... millimetro più, millimetro meno! :D
...ciao!
bene, ci entra :D
appleroof
11-01-2007, 16:15
bene, ci entra :D
:asd:
mi stava venendo una battuta da osteria che poi ho deciso di tralasciare...... :oink:
:D :D
e accattatevill' ste cacchio 'e dx10!!!! :sofico: :sofico:
(più che altro secondo me aspettano una maggiore diffusione di altre schede dx10, sennò Ati si incazza,:asd: ):rolleyes:
crytek stà lavorando molto con nVidia e ATi ma, con quest'ultima un po' di più...ribadisco...secondo me stanno finendo un lavoro di ottimizzazione (e meno male)...lasciamoglielo fare in santa pace :D
bene, ci entra :D
:asd:
:asd:
mi stava venendo una battuta da osteria che poi ho deciso di tralasciare...... :oink:
:D :D
:asd:
vuoi mettere gli fps che guadagnerei?? :sofico:
appleroof
11-01-2007, 16:22
:asd:
vuoi mettere gli fps che guadagnerei?? :sofico:
:ciapet: :ciapet:
:asd: :asd:
Kharonte85
11-01-2007, 16:33
:eek: :eek:
ostrega!!! sicuramente quella foto è un fake dai.....
Si spera...cmq mi è venuto un dubbio atroce...non è che la 2a versione, quella che dovrebbe essere 22cm, diventano 28 e passa visto che si parlava di un dissipatore molto ingombrante (+ della scheda stessa...) :wtf:
Anche vedendo quel disegno...mmm...http://gaming.ngi.it/forum/images/smilies/afraid.gif
appleroof
11-01-2007, 16:37
Si spera...cmq mi è venuto un dubbio atroce...non è che la 2a versione, quella che dovrebbe essere 22cm, diventano 28 e passa visto che si parlava di un dissipatore molto ingombrante (+ della scheda stessa...) :wtf:
Anche vedendo quel disegno...mmm...http://gaming.ngi.it/forum/images/smilies/afraid.gif
non sarebbe certo un'ipotesi assurda (i rumors hanno sempre parlato di dissipatore mostruoso per questa scheda, cosa che tra l'altro magari si collegherebbe a calore molto alto, che certo non sarebbe una novità per ati)
però a questo punto bisogna (come al solito :rolleyes: ) aspettare dettagli più prescisi...
Si spera...cmq mi è venuto un dubbio atroce...non è che la 2a versione, quella che dovrebbe essere 22cm, diventano 28 e passa visto che si parlava di un dissipatore molto ingombrante (+ della scheda stessa...) :wtf:
Anche vedendo quel disegno...mmm...http://gaming.ngi.it/forum/images/smilies/afraid.gif
anche a me è venuto questo dubbio mostruoso, soprattutto vedendo quell'immagine, infatti se tu vedi la scheda è relativamente corta ma il dissipatore è enorme (sporge dalla scheda di minimo 6 o 7 cm!). Spero che questo sia il dissipatore della 1° versione e che le versioni in commercio siano migliori. Comunque l'importante è che la scheda sia piccola, per il dissipatore al massimo c'è rimedio (anche se comunque è una rottura di coglioni!)
Ah il video di crysis è una cosa allucinante, in alcune zone sembra un video fatto realmente non sembra nemmeno un videogioco! Ha una grafica spettacolare se rimarrà davvero così, mi immagino cosa si potrà fare con i prossimi giochi dx10 se il primo è già così!!! Non vedo l'ora di giocarci (anche se in dx9, ma spero che la qualità grafica non si discosti molto)!!
appleroof
11-01-2007, 17:54
Ah il video di crysis è una cosa allucinante, in alcune zone sembra un video fatto realmente non sembra nemmeno un videogioco! Ha una grafica spettacolare se rimarrà davvero così, mi immagino cosa si potrà fare con i prossimi giochi dx10 se il primo è già così!!! Non vedo l'ora di giocarci (anche se in dx9, ma spero che la qualità grafica non si discosti molto)!!
:asd:
;)
:asd:
;)
hai messo la risatina bastarda apposta perchè ho appena preso la x1950xt?? :D :)
hai messo la risatina bastarda apposta perchè ho appena preso la x1950xt?? :D :)
si
appleroof
11-01-2007, 18:07
hai messo la risatina bastarda apposta perchè ho appena preso la x1950xt?? :D :)
no, ti assicuro che l'ho messa perchè condivido il tuo entusiasmo, credimi:
anche io sono rimasto sbalordito da quel video, sopratutto per quello che si diceva sui giochi dx9 e 1/2 ecc ecc...
poi se proprio la vuoi mettere così, adesso che ci penso... :Perfido: :D :D (scherzo :) )
appleroof
11-01-2007, 18:09
si
:nonsifa:
non bisogna essere così maliziosi eh? ;)
no, ti assicuro che l'ho messa perchè condivido il tuo entusiasmo, credimi:
anche io sono rimasto sbalordito da quel video, sopratutto per quello che si diceva sui giochi dx9 e 1/2 ecc ecc...
poi se proprio la vuoi mettere così, adesso che ci penso... :Perfido: :D :D (scherzo :) )
:D :D
si stavo scherzando eh!
Comunque è vero è spettacolare ci sono delle scene che sembra proprio un paesaggio reale! Non vedo l'ora di provarlo!
Al massimo se la qualità grafica cambia tanto da dx9 a dx10 lo giocherò 2 volte (prima in dx9 e poi in dx10, intanto ci sono abituato xkè l'ho già fatto con COD2: prima a dettaglio basso e poi al massimo!) :)
:nonsifa:
non bisogna essere così maliziosi eh? ;)
dopo tutti i discorsi che abbiamo fatto mi sembrava logico :) :Prrr:
appleroof
11-01-2007, 18:15
:D :D
si stavo scherzando eh!
Comunque è vero è spettacolare ci sono delle scene che sembra proprio un paesaggio reale! Non vedo l'ora di provarlo!
Anche io: sarà il giocone del 2007, non ci piove :)
Al massimo se la qualità grafica cambia tanto da dx9 a dx10 lo giocherò 2 volte (prima in dx9 e poi in dx10, intanto ci sono abituato xkè l'ho già fatto con COD2: prima a dettaglio basso e poi al massimo!) :)
oppure dai via la scheda di adesso e ti fai una dx10 per quando esce ;)
tra un mesetto dovrebbe uscire la GTS con meno memoria e la tua ora la daresti ancora ad un buon prezzo..... :fiufiu:
tra un mesetto dovrebbe uscire la GTS con meno memoria e la tua ora la daresti ancora ad un buon prezzo..... :fiufiu:
mi interessava pure a me quella :fiufiu:
tra un mesetto dovrebbe uscire la GTS con meno memoria e la tua ora la daresti ancora ad un buon prezzo..... :fiufiu:
ma circa 2000 ani fa offrivi delle mele sotto forma di serpente ?
appleroof
11-01-2007, 18:19
dopo tutti i discorsi che abbiamo fatto mi sembrava logico :) :Prrr:
io rimango convinto di quello che ho sostenuto finora (fino a prova contraria, per carità, che ancora però non è arrivata :) ).....però davvero in questo caso specifico non volevo prenderlo in giro, non sono così bastardo dentro! :D
appleroof
11-01-2007, 18:20
ma circa 2000 ani fa offrivi delle mele sotto forma di serpente ?
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
ma circa 2000 ani fa offrivi delle mele sotto forma di serpente ?
siamo ambigui...
:rotfl: :rotfl:
Kharonte85
11-01-2007, 18:26
ma circa 2000 ani fa offrivi delle mele sotto forma di serpente ?
:asd:
appleroof
11-01-2007, 18:29
ma circa 2000 ani fa offrivi delle mele sotto forma di serpente ?
ha ha non me ne ero nemmeno accorto.... :sbonk: :sbonk: :sbonk:
allora vedi che quella battuta che mi sono risparmiato prima me la tiri proprio??? :D :D
:asd:
sono rimasto scosso dalla battuta pensata prima da Appleroof :sofico:
Kharonte85
11-01-2007, 18:38
Scuste l'OT ma questa la dovete leggere: http://it.theinquirer.net/2007/01/amd_aveva_quasi_acquisito_nvid.html per tre giorni saprò cosa fare...ridere...:asd: :rotfl:
Ma se nemmeno Intel poteva permettersi di comprarla.... :rolleyes:
appleroof
11-01-2007, 18:41
http://it.theinquirer.net/2007/01/amd_aveva_quasi_acquisito_nvid.html
:eh:
Scuste l'OT ma questa la dovete leggere: per tre giorni saprò cosa fare...ridere...:asd: :rotfl:
Ma se nemmeno Intel poteva permettersi di comprarla.... :rolleyes:
:asd: :asd:
potremmo rispondergli noi, a quella domanda finale.... :rotfl: :rotfl:
Scuste l'OT ma questa la dovete leggere: http://it.theinquirer.net/2007/01/amd_aveva_quasi_acquisito_nvid.html per tre giorni saprò cosa fare...ridere...:asd: :rotfl:
Ma se nemmeno Intel poteva permettersi di comprarla.... :rolleyes:
:ciapet: :ciapet: :ciapet: :ciapet:
ma vanno da vanna marchi per sapere le notizie quelli di the inquirer???
Ormai sono scandalosi...
vabbé oh.
@appleroof: Comunque ho sentito della gts semicastrata, penso che in dx9 vada di poco più veloce della mia xt, quindi rimango della mia idea nonostante crysis :D
Sarò testardo ma la penso così e non mi va di vendere una scheda appena presa con cui ci gioco benissimo! :)
(al massimo verrò a casa tua a giocare con la GTX! :ciapet: )
appleroof
11-01-2007, 22:38
@appleroof: Comunque ho sentito della gts semicastrata, penso che in dx9 vada di poco più veloce della mia xt, quindi rimango della mia idea nonostante crysis :D
Sarò testardo ma la penso così e non mi va di vendere una scheda appena presa con cui ci gioco benissimo! :)
bè ci credo....solo che sono due mesi che vado dicendo di non prendere più dx9.... :boh:
(al massimo verrò a casa tua a giocare con la GTX! :ciapet: )
non credo ti vada di farti 300km solo per vedere come và la gtx :asd: ma se passi da queste parti con piacere! ;)
bè ci credo....solo che sono due mesi che vado dicendo di non prendere più dx9.... :boh:
non credo ti vada di farti 300km solo per vedere come và la gtx :asd: ma se passi da queste parti con piacere! ;)
ovvio era una battuta! :D
lo so che non fa ridere come quelle di the inquirer... :sofico:
appleroof
11-01-2007, 23:01
ovvio era una battuta! :D
lo so che non fa ridere come quelle di the inquirer... :sofico:
:asd:
Scuste l'OT ma questa la dovete leggere: http://it.theinquirer.net/2007/01/amd_aveva_quasi_acquisito_nvid.html per tre giorni saprò cosa fare...ridere...:asd: :rotfl:
Ma se nemmeno Intel poteva permettersi di comprarla.... :rolleyes:
Ragazzi scusate se continuo l'OT finanziario, ma invece devo dare ragione a The Inquirer. AMD poteva comprare benissimo Nvidia, almeno dal punto di vista teorico. Nvidia è leggermente più grande di AMD in termini di market cap (=valore di borsa), ma è possibile che aziende comprino aziende anche del 30-40% più grandi. Alcuni dei motivi che hanno spinto AMD a rinunciare ad una simile soluzione (che forse dal punto di vista industriale avrebbe avuto ancora più senso, come giustamente sottolinea l'articolo) sono, a mio avviso: la propria condizione finanziaria (AMD fino a 3 esercizi fa faceva perdite mostruose, e tutt'ora non mi risulta che sia sanissima finanziariamente, dunque un'operazione del genere avrebbe potuto peggiorare la sua situazione, con conseguenti downgrades del debito, ripercussioni sullo stock, ecc...) ed il fatto che Nvidia è troppo cara. ATI invece ha sempre tradato a sconto rispetto a Nvidia ed è valutata poco sopra la media del settore dei semiconduttori.
Quanto ad Intel, se volesse e se l'Antitrust glielo permettesse, potrebbe comprare non solo Nvidia, ma anche AMD-ATI contemporaneamente. Il suo valore di borsa è oltre 10 volte più grande di quello di Nvidia, ed il suo fatturato è 7 volte più grande di quello di AMD (per non parlare degli utili).
Chiuso OT. Chiedo venia ai moderatori, ma credevo potesse essere interessante approfondire un attimo l'argomento. ;)
Ragazzi scusate se continuo l'OT finanziario, ma invece devo dare ragione a The Inquirer. AMD poteva comprare benissimo Nvidia, almeno dal punto di vista teorico. Nvidia è leggermente più grande di AMD in termini di market cap (=valore di borsa), ma è possibile che aziende comprino aziende anche del 30-40% più grandi. Alcuni dei motivi che hanno spinto AMD a rinunciare ad una simile soluzione (che forse dal punto di vista industriale avrebbe avuto ancora più senso, come giustamente sottolinea l'articolo) sono, a mio avviso: la propria condizione finanziaria (AMD fino a 3 esercizi fa faceva perdite mostruose, e tutt'ora non mi risulta che sia sanissima finanziariamente, dunque un'operazione del genere avrebbe potuto peggiorare la sua situazione, con conseguenti downgrades del debito, ripercussioni sullo stock, ecc...) ed il fatto che Nvidia è troppo cara. ATI invece ha sempre tradato a sconto rispetto a Nvidia ed è valutata poco sopra la media del settore dei semiconduttori.
Quanto ad Intel, se volesse e se l'Antitrust glielo permettesse, potrebbe comprare non solo Nvidia, ma anche AMD-ATI contemporaneamente. Il suo valore di borsa è oltre 10 volte più grande di quello di Nvidia, ed il suo fatturato è 7 volte più grande di quello di AMD (per non parlare degli utili).
Chiuso OT. Chiedo venia ai moderatori, ma credevo potesse essere interessante approfondire un attimo l'argomento. ;)
effettivamente si lo hanno detto anche testate finanziarie molto in voga oltreoceano amd ha inglobato ati semplicemente perchè era un operazione finanziaramente + fattibile per un semplice motivo che le azioni di ati costavano circa il 40% in meno di quelle nvidia
Kharonte85
12-01-2007, 00:27
effettivamente si lo hanno detto anche testate finanziarie molto in voga oltreoceano amd ha inglobato ati semplicemente perchè era un operazione finanziaramente + fattibile per un semplice motivo che le azioni di ati costavano circa il 40% in meno di quelle nvidia
= non poteva permettersi di prendersi Nvidia...è inutile che ci diamo alla fantaeconomia...e la stessa Intel avrebbe dovuto sborsare parecchio di piu' x Nvidia:
Alcuni osservatori dicono di dubitare che Intel intenda acquistare NVIDIA: quest’ultima infatti è troppo cara. La compagnia ha un capitale azionario sul mercato di circa10 miliardi di dollari; ciò significa che l’acquisizione avverrebbe a un prezzo ben maggiore rispetto a quello che AMD sta pagando per ATI.
Amd ha comprato ATI per 4,2 miliardi in contanti e 57 milioni di titoli.
Fra l'altro al momento le azioni AMD stanno a 20$ quelle di nvidia a 35$...
/OT
Fra l'altro al momento le azioni AMD stanno a 20$ quelle di nvidia a 35$...
Il prezzo da solo non indica niente. Occorre moltiplicarlo per il numero di azioni (che può essere molto diverso) per ottenere il valore di borsa. AMD attualmente vale un po' più di 11mld di dollari circa, mentre Nvidia un po' più di 12. ;)
Chiuso l'OT, qualcuno sa qualcosa riguardo alle future schede di fascia medio-alta di ATI? Articoli, specifiche ed eventuale range di prezzo saranno bene accetti... :D
halduemilauno
12-01-2007, 08:55
:ciapet: :ciapet: :ciapet: :ciapet:
ma vanno da vanna marchi per sapere le notizie quelli di the inquirer???
Ormai sono scandalosi...
vabbé oh.
@appleroof: Comunque ho sentito della gts semicastrata, penso che in dx9 vada di poco più veloce della mia xt, quindi rimango della mia idea nonostante crysis :D
Sarò testardo ma la penso così e non mi va di vendere una scheda appena presa con cui ci gioco benissimo! :)
(al massimo verrò a casa tua a giocare con la GTX! :ciapet: )
:rotfl: :rotfl: :rotfl:
halduemilauno
12-01-2007, 08:58
Ragazzi scusate se continuo l'OT finanziario, ma invece devo dare ragione a The Inquirer. AMD poteva comprare benissimo Nvidia, almeno dal punto di vista teorico. Nvidia è leggermente più grande di AMD in termini di market cap (=valore di borsa), ma è possibile che aziende comprino aziende anche del 30-40% più grandi. Alcuni dei motivi che hanno spinto AMD a rinunciare ad una simile soluzione (che forse dal punto di vista industriale avrebbe avuto ancora più senso, come giustamente sottolinea l'articolo) sono, a mio avviso: la propria condizione finanziaria (AMD fino a 3 esercizi fa faceva perdite mostruose, e tutt'ora non mi risulta che sia sanissima finanziariamente, dunque un'operazione del genere avrebbe potuto peggiorare la sua situazione, con conseguenti downgrades del debito, ripercussioni sullo stock, ecc...) ed il fatto che Nvidia è troppo cara. ATI invece ha sempre tradato a sconto rispetto a Nvidia ed è valutata poco sopra la media del settore dei semiconduttori.
Quanto ad Intel, se volesse e se l'Antitrust glielo permettesse, potrebbe comprare non solo Nvidia, ma anche AMD-ATI contemporaneamente. Il suo valore di borsa è oltre 10 volte più grande di quello di Nvidia, ed il suo fatturato è 7 volte più grande di quello di AMD (per non parlare degli utili).
Chiuso OT. Chiedo venia ai moderatori, ma credevo potesse essere interessante approfondire un attimo l'argomento. ;)
aggiungo che il costo dell'operazione è stato di 5.4 miliardi di $. l'eventuale acquiso di nvidia sarebbe stato di 11 miliardi esatti di $.
;)
halduemilauno
12-01-2007, 09:00
Il prezzo da solo non indica niente. Occorre moltiplicarlo per il numero di azioni (che può essere molto diverso) per ottenere il valore di borsa. AMD attualmente vale un po' più di 11mld di dollari circa, mentre Nvidia un po' più di 12. ;)
Chiuso l'OT, qualcuno sa qualcosa riguardo alle future schede di fascia medio-alta di ATI? Articoli, specifiche ed eventuale range di prezzo saranno bene accetti... :D
la alta a marzo le medie a seguire fine aprile inizio maggio.
;)
Kharonte85
12-01-2007, 10:21
Il prezzo da solo non indica niente. Occorre moltiplicarlo per il numero di azioni (che può essere molto diverso) per ottenere il valore di borsa. AMD attualmente vale un po' più di 11mld di dollari circa, mentre Nvidia un po' più di 12. ;)
Quindi é piu' facile che Nvidia compri AMD.... :sofico:
Chiuso l'OT, qualcuno sa qualcosa riguardo alle future schede di fascia medio-alta di ATI? Articoli, specifiche ed eventuale range di prezzo saranno bene accetti... :D
Per quanto riguarda gli articoli a parte un fake che gira, non c'è niente...per le caratteristiche l'unica cosa certa pare il bus a 512bit e si parla di piu' di 700mlrd di transistor e probabilmente avra' 1gb di Ram...per il resto non si sa ancora con sicurezza (siamo ancora ai rumors)...ma si dice che Amd-ati presentera' r-600 a fine febbraio...ma che la distribuzione inizi da meta' Marzo...per la fascia media bisognera' aspettare di piu'... ;)
Grazie a tutti per le risposte: quindi si sa quello che sapevo pure io, cioè poco... :D :stordita:
E' che ho mio fratello piccolo che deve cambiare il fisso nei prossimi mesi (con scheda video sui 300€ circa, ma i miei non cambiano spesso pc, anzi) e non sapevo se consigliargli una dx10 o una dx9... :confused:
Ma il form factor delle schede con R600 sarà lo stesso delle 8800 (ossia una roba che a malapena sta nel case? :D ) o saranno più piccole? Io avevo letto che forse per la fascia media e medio-alta ATI avrebbe adottato il processo a 65nm...
Kharonte85
12-01-2007, 12:07
Grazie a tutti per le risposte: quindi si sa quello che sapevo pure io, cioè poco... :D :stordita:
E' che ho mio fratello piccolo che deve cambiare il fisso nei prossimi mesi (con scheda video sui 300€ circa, ma i miei non cambiano spesso pc, anzi) e non sapevo se consigliargli una dx10 o una dx9... :confused:
Fra un mese dovrebbe uscire una versione della 8800gts identica ma con memoria Ram 320mb...e dovrebbe aggirarsi sui 300 come prezzo...fossi in te ci farei un pensierino... ;)
Ma il form factor delle schede con R600 sarà lo stesso delle 8800 (ossia una roba che a malapena sta nel case? :D ) o saranno più piccole? Io avevo letto che forse per la fascia media e medio-alta ATI avrebbe adottato il processo a 65nm...
Si parlava di una versione OEM da ben 30 cm mentre un'altra da 22cm ma di sicuro non c'è niente...
Cmq si' è quasi certo che sia a 65nm... ;)
Fra un mese dovrebbe uscire una versione della 8800gts identica ma con memoria Ram 320mb...e dovrebbe aggirarsi sui 300 come prezzo...fossi in te ci farei un pensierino... ;)
Ci avevo pensato anch'io, ma i 320Mb non vorrei fossero pochini: ho 256Mb veri sul note... :D Ecco perchè mi chiedevo se ci sarà qualcosa di simile di ATI, con 512Mb. Grazie ancora. ;)
Kharonte85
12-01-2007, 12:24
Ci avevo pensato anch'io, ma i 320Mb non vorrei fossero pochini: ho 256Mb veri sul note... :D Ecco perchè mi chiedevo se ci sarà qualcosa di simile di ATI, con 512Mb. Grazie ancora. ;)
Secondo me a risoluzioni non superiori ai 1280 la differenza fra 320mb e 512mb non si sente nemmeno...e anche oltre credo che cambi poco...basta vedere la differenza che c'è oggi fra la x1950xt 256mb e quella da 512mb... ;)
Ati è piuttosto indietro in confronto a Nvidia...non credo che prima di maggio tirera' fuori una fascia media...
Secondo me a risoluzioni non superiori ai 1280 la differenza fra 320mb e 512mb non si sente nemmeno...e anche oltre credo che cambi poco...basta vedere la differenza che c'è oggi fra la x1950xt 256mb e quella da 512mb... ;)
Ati è piuttosto indietro in confronto a Nvidia...non credo che prima di maggio tirera' fuori una fascia media...
concordo lo penso anche io,ma meglio avere conferme da una bella recensione perchè potremmo essere smentiti :p
Kharonte85
12-01-2007, 12:45
concordo lo penso anche io,ma meglio avere conferme da una bella recensione perchè potremmo essere smentiti :p
:D
Secondo me a risoluzioni non superiori ai 1280 la differenza fra 320mb e 512mb non si sente nemmeno...e anche oltre credo che cambi poco...basta vedere la differenza che c'è oggi fra la x1950xt 256mb e quella da 512mb... ;)
Ati è piuttosto indietro in confronto a Nvidia...non credo che prima di maggio tirera' fuori una fascia media...
avevano detto che r610 e r630 sarebbero state presentate in maggio e quindi se rispettano i tempi (se...) saranno disponibili per giugno, mentre la fascia media nvidia dovrebbe arrivare per aprile / maggio. Insomma ati è rimasta 1 po' indietro, speriamo che almeno i 22cm siano veri...
appleroof
12-01-2007, 15:25
concordo lo penso anche io,ma meglio avere conferme da una bella recensione perchè potremmo essere smentiti :p
già...e poi potrebbero decidere di far uscire contemporaneamente la xtx, la xt e la xl (come mi pare di aver letto tempo fà sempre qui sul tread) proprio per rispondere al meglio al fuoco di fila di Nvidia....
e forse questo potrebbe essere il motivo di quei "problemini" di R600 di cui si leggeva poco tempo fà e che avrebbero determinato l'impossibilità di farla uscire a fine gennaio... :boh:
già...e poi potrebbero decidere di far uscire contemporaneamente la xtx, la xt e la xl (come mi pare di aver letto tempo fà sempre qui sul tread) proprio per rispondere al meglio al fuoco di fila di Nvidia....
Dragon Head, Cat Eye, UFO
:rotfl:
UFO è il più fiQo :fagiano: (nerd)
appleroof
12-01-2007, 15:37
Dragon Head, Cat Eye, UFO
:rotfl:
UFO è il più fiQo :fagiano: (nerd)
Preferisco non pensare a quei nomi, cercavo di non riportarli alla memoria... :D
Kharonte85
12-01-2007, 15:38
già...e poi potrebbero decidere di far uscire contemporaneamente la xtx, la xt e la xl (come mi pare di aver letto tempo fà sempre qui sul tread) proprio per rispondere al meglio al fuoco di fila di Nvidia....
:boh:
e forse questo potrebbe essere il motivo di quei "problemini" di R600 di cui si leggeva poco tempo fà e che avrebbero determinato l'impossibilità di farla uscire a fine gennaio... :boh:
Dubito...se le avesse avute pronte perche' aspettare le medie per fare un lancio?
Secondo me i problemini erano che la scheda doveva essere lunga piu' di 30cm (la versione OEM)... :D
Preferisco non pensare a quei nomi, cercavo di non riportarli alla memoria... :D
io sono andato a cercarli apposta :asd:
UFO però è figo davvero :)
appleroof
12-01-2007, 15:43
io sono andato a cercarli apposta :asd:
UFO però è figo davvero :)
:asd:
appleroof
12-01-2007, 15:44
:boh:
Dubito...se le avesse avute pronte perche' aspettare le medie per fare un lancio?
in effetti hai proprio ragione....
Secondo me i problemini erano che la scheda doveva essere lunga piu' di 30cm (la versione OEM)... :D
:D :D
:boh:
Dubito...se le avesse avute pronte perche' aspettare le medie per fare un lancio?
Secondo me i problemini erano che la scheda doveva essere lunga piu' di 30cm (la versione OEM)... :D
quoto, infatti non è un caso che le prime che distribuiranno (quelle agli oem) saranno lunghe 30cm mentre quelle retail 22cm!
avevano detto che r610 e r630 sarebbero state presentate in maggio e quindi se rispettano i tempi (se...) saranno disponibili per giugno, mentre la fascia media nvidia dovrebbe arrivare per aprile / maggio. Insomma ati è rimasta 1 po' indietro, speriamo che almeno i 22cm siano veri...
Invece sembrerebbe che AMD voglia interrompere la brutta abitudine che ha avuto ATI ultimamente, di far uscire le schede un mese dopo la presentazione ufficiale. Sperem ben :D
Foglia Morta
12-01-2007, 20:43
avevano detto che r610 e r630 sarebbero state presentate in maggio e quindi se rispettano i tempi (se...) saranno disponibili per giugno, mentre la fascia media nvidia dovrebbe arrivare per aprile / maggio. Insomma ati è rimasta 1 po' indietro, speriamo che almeno i 22cm siano veri...
msi ha già mostrato un notebook che monta la X2600. Quale gpu monti non è certo, in teoria dovrebbe essere un R630 in versione mobile
msi ha già mostrato un notebook che monta la X2600. Quale gpu monti non è certo, in teoria dovrebbe essere un R630 in versione mobile
speriamo bene, io sono contento se finalmente AMD ha interrotto la brutta abitudine di ATI!
Ah, a quanto pare il nome x2000 è stato confermato allora... che fantasia! :asd: ma d'altronde si sapeva... :)
pedro_se_rooot
13-01-2007, 01:46
iscritto :mc:
aspetto con ansia :cry:
Invece sembrerebbe che AMD voglia interrompere la brutta abitudine che ha avuto ATI ultimamente, di far uscire le schede un mese dopo la presentazione ufficiale. Sperem ben :D
a volte credo che siano sono cose per aumentare l'hype.
come solitamente ati aspetta sempre grandi eventi per prensentare le cose,
se ha un prodotto pronoto per il 28febbrario e sa che il 15 marzo c'è una fiera solitamente aspetta sempre il grande evento per mostrare i propri prodotti.
a volte credo che siano sono cose per aumentare l'hype.
come solitamente ati aspetta sempre grandi eventi per prensentare le cose,
se ha un prodotto pronoto per il 28febbrario e sa che il 15 marzo c'è una fiera solitamente aspetta sempre il grande evento per mostrare i propri prodotti.
Non hai capito ciò che intendevo. Ultimamente succedeva che ATI presentava un prodotto prima di averlo disponibile in volumi per la vendita. Sembrerebbe che AMD voglia finalmente far coincidere presentazione e vendita al pubblico.
appleroof
14-01-2007, 20:44
Non hai capito ciò che intendevo. Ultimamente succedeva che ATI presentava un prodotto prima di averlo disponibile in volumi per la vendita. Sembrerebbe che AMD voglia finalmente far coincidere presentazione e vendita al pubblico.
sarebbe ora per lei... :asd:
cmq io continuo davvero a pensare che alla fine lancerà contemporaneamente non solo la xtx e la xt ma anche l'xl....
Alexkidd85
14-01-2007, 22:42
Occhio ragazzi...non pensiamo che 22 o 30 cm non facciano la differenza...rocco siffredi per 8 cm ha fatto eccome la differenza! :D
Scusate ma la dovevo dire :stordita:
Occhio ragazzi...non pensiamo che 22 o 30 cm non facciano la differenza...rocco siffredi per 8 cm ha fatto eccome la differenza! :D
Scusate ma la dovevo dire :stordita:
:mbe:
Occhio ragazzi...non pensiamo che 22 o 30 cm non facciano la differenza...rocco siffredi per 8 cm ha fatto eccome la differenza! :D
Scusate ma la dovevo dire :stordita:
L'avevo già detto anche io che ati e nvidia fanno a gara a chi ce l'ha più lunga :D
Cmq anche io penso che arrivi anche la xt e xl insieme alla xtx, o al massimo saranno disponibili entro 1 mese dal lancio della xtx
Occhio ragazzi...non pensiamo che 22 o 30 cm non facciano la differenza...rocco siffredi per 8 cm ha fatto eccome la differenza! :D
Scusate ma la dovevo dire :stordita:
:asd:
Intanto mi iscrivo....speriamo esca presto che così valuterò cosa prendere! :)
Athlon 64 3000+
16-01-2007, 17:16
Spero che si diano una mossa a presentare R600 perchè sono da troppo tempo che aspetto e molto curioso di vedere le sue caratteristiche e prestazioni.
Se anche uscirà dopo la presentazione a me non interessa perchè se mai dovessi cestinare la mia X1900XT lo farà molti mesi dopo la presentazione di R600.
Occhio ragazzi...non pensiamo che 22 o 30 cm non facciano la differenza...rocco siffredi per 8 cm ha fatto eccome la differenza! :D
Scusate ma la dovevo dire :stordita:
:asd:
Skullcrusher
16-01-2007, 19:28
Spero che si diano una mossa a presentare R600 perchè sono da troppo tempo che aspetto e molto curioso di vedere le sue caratteristiche e prestazioni.
Se anche uscirà dopo la presentazione a me non interessa perchè se mai dovessi cestinare la mia X1900XT lo farà molti mesi dopo la presentazione di R600.
Per quanto si sa, verrà presentata a fine febbraio...l'nda scade a fine gennaio, qualcosa trapelerà :D
appleroof
16-01-2007, 19:47
Per quanto si sa, verrà presentata a fine febbraio...l'nda scade a fine gennaio, qualcosa trapelerà :D
azz....sei sicuro?
Skullcrusher
16-01-2007, 19:55
azz....sei sicuro?
Così si diceva se non sbaglio :mbe:
appleroof
16-01-2007, 20:08
Così si diceva se non sbaglio :mbe:
potrebbe essere...però che senso ha far cadere l'nda a fine gennaio e cominciare la commercializzazione a marzo inoltrato? :confused:
Skullcrusher
16-01-2007, 20:13
potrebbe essere...però che senso ha far cadere l'nda a fine gennaio e cominciare la commercializzazione a marzo inoltrato? :confused:
Perchè se non ci fossero stati problemi di produzione avrebbero dovuto lanciarla a fine gennaio...ma purtroppo a causa di problemi, hanno porticipato il lancio a marzo.....
appleroof
16-01-2007, 20:29
Perchè se non ci fossero stati problemi di produzione avrebbero dovuto lanciarla a fine gennaio...ma purtroppo a causa di problemi, hanno porticipato il lancio a marzo.....
eh però a questo punto credo prolungheranno anche l'nda... :boh:
Cosa significa NDA?
Grazie :)
Skullcrusher
16-01-2007, 20:48
Cosa significa NDA?
Grazie :)
Link (http://en.wikipedia.org/wiki/Non-disclosure_agreement)
in pratica chi sa deve tacere..... :asd:
eh però a questo punto credo prolungheranno anche l'nda...
Lo credo anch'io, è probabile.
Link (http://en.wikipedia.org/wiki/Non-disclosure_agreement)
in pratica chi sa deve tacere..... :asd:
Lo credo anch'io, è probabile.
E chi invece non tace vedra' volatili per diabetici legali. :D
Skullcrusher
16-01-2007, 21:00
E chi invece non tace vedra' volatili per diabetici legali. :D
:sofico:
E chi invece non tace vedra' volatili per diabetici legali. :D
ahi...:fagiano:
appleroof
16-01-2007, 22:28
E chi invece non tace vedra' volatili per diabetici legali. :D
parla!
(in pvt? giuro di stare zitto!!) :asd:
Foglia Morta
17-01-2007, 15:17
http://uk.theinquirer.net/?article=37014
WE LEARNED that upcoming R600 still uses an air cooler. It can do the job without the aid of water.
We know that DAAMIT has been experimenting with Air – water cooler hybrid. This is even more efficient and includes a small pump on the graphics card heatsink.
It is a nice concept but the stock version of R600 will come out with an air cooler.
The card is still on schedule for Q1, probably March launch time, Cebitish. The samples are ready and press kit should be ready in late February.
Of course it is a dual-slot cooler as you really need a lot of fan power to cool the beast. But it will be quiet, as quiet as G80's. µ
http://uk.theinquirer.net/?article=37014
Comunque le prossime schede (intendo ipoteticamente quelle che monteranno R700 e G90?) mi preoccupano lato raffreddamento. Spero che i progressi nella miniaturizzazione dei processi produttivi facciano grossi passi avanti nel risparmio energetico se no il water cooling diventera' un triste standard.
Foglia Morta
17-01-2007, 16:57
Comunque le prossime schede (intendo ipoteticamente quelle che monteranno R700 e G90?) mi preoccupano lato raffreddamento. Spero che i progressi nella miniaturizzazione dei processi produttivi facciano grossi passi avanti nel risparmio energetico se no il water cooling diventera' un triste standard.
basta vedere quali saranno gli standard per l'alimentazione per perdere ogni speranza :D
connettori da 150W + l'alimentazione dello slot del PCI-E 2.0 :eek:
Io sono più curioso di vedere cosa si inventeranno per raffreddarle perchè i consumi , a giudicare dagli alimentatori e dai nuovi standard , è probabile che aumenteranno
Skullcrusher
17-01-2007, 17:36
basta vedere quali saranno gli standard per l'alimentazione per perdere ogni speranza :D
connettori da 150W + l'alimentazione dello slot del PCI-E 2.0 :eek:
Io sono più curioso di vedere cosa si inventeranno per raffreddarle perchè i consumi , a giudicare dagli alimentatori e dai nuovi standard , è probabile che aumenteranno
Già...purtroppo il lato consumo e calore mi preoccupa molto se si va avanti di questo passo... :muro: speriamo che come è avvenuto per le cpu, anche per le vga le cose cambino, altrimenti saranno dolori :cry:
Spero che con le prossime serie facciano vari core paralleli a bassa frequenza, ottimizando il tutto, per ridurre i consumi.....davvero siamo alla frutta (per quanto mi piacciano le sv. high end)
Window Vista
17-01-2007, 18:03
Ormai è da 1 settimana e mezzo che la HWUP ha la R600!!!
Ormai è da 1 settimana e mezzo che la HWUP ha la R600!!!
Davvero?Fonti?
Quindi ci sarà a breve una recensione........ :rolleyes:
Davvero?Fonti?
Quindi ci sarà a breve una recensione........ :rolleyes:
Appena scade l' NDA :D
Skullcrusher
17-01-2007, 18:15
Appena scade l' NDA :D
Strano però...l'NDA scade il 22 gennaio se non erro, quindi per allora ci sarà già la recensione della scheda, ma questa verrà ufficialmente presentata a marzo....secondo me prolungano l'NDA :stordita:
Strano però...l'NDA scade il 22 gennaio se non erro, quindi per allora ci sarà già la recensione della scheda, ma questa verrà ufficialmente presentata a marzo....secondo me prolungano l'NDA :stordita:
Spero di no, a conti fatti la rece sará giá (o quasi) terminata.... :cry:
Kharonte85
17-01-2007, 18:17
basta vedere quali saranno gli standard per l'alimentazione per perdere ogni speranza :D
connettori da 150W + l'alimentazione dello slot del PCI-E 2.0 :eek:
Io sono più curioso di vedere cosa si inventeranno per raffreddarle perchè i consumi , a giudicare dagli alimentatori e dai nuovi standard , è probabile che aumenteranno
:mad:
Window Vista
17-01-2007, 18:27
Davvero?Fonti?
Quindi ci sarà a breve una recensione........ :rolleyes:
E' sempre così!!!!!!!!!!!!!!!!!!
Anche con R580 hanno fatto così!!!
Ormai è da 1 settimana e mezzo che la HWUP ha la R600!!!
tu sai sempre tutto vero? :rolleyes:
Window Vista
17-01-2007, 18:48
tu sai sempre tutto vero? :rolleyes:
No, ma il tempo mi darà ragione, figliolo dai tempo al tempo, aspetta e vedrai.
No, ma il tempo mi darà ragione, figliolo dai tempo al tempo, aspetta e vedrai.
cosa mi chiami figliolo che hai solo un'anno in più di me :sofico: :asd:
potrebbe benissimo essere come dici tu...solo che non mi sembri un'autorità per dirlo...le tue sono solo congetture
in tutta franchezza credo che se HWU abbia degli R600, non credo lo venga a dire a noi ;)
(anche perchè se lo fanno...li castrano :asd: )
cosa mi chiami figliolo che hai solo un'anno in più di me :sofico: :asd:
potrebbe benissimo essere come dici tu...solo che non mi sembri un'autorità per dirlo...le tue sono solo congetture
in tutta franchezza credo che se HWU abbia degli R600, non credo lo venga a dire a noi ;)
(anche perchè se lo fanno...li castrano :asd: )
Ahia :eek:
Ahia :eek:
gli avvocati con i testicoli degli altri sono peggio dei roditori con il formaggio ;)
:stordita:
nico88desmo
17-01-2007, 19:22
ah si? davvero HWU la ha da una sett??
però qualche moderatore potrebbe dirci con certezza se questa
informazione è vera o meno.... :D :D
ah si? davvero HWU la ha da una sett??
però qualche moderatore potrebbe dirci con certezza se questa
informazione è vera o meno.... :D :D
Non credo lo faranno,ma se magari qualcuno ha confidenza! :eek: ;)
Kharonte85
17-01-2007, 19:30
ah si? davvero HWU la ha da una sett??
però qualche moderatore potrebbe dirci con certezza se questa
informazione è vera o meno.... :D :D
Non lo faranno...altrimenti li tartassiamo fino allo sfinimento psicologico... :D
nico88desmo
17-01-2007, 19:38
Non lo faranno...altrimenti li tartassiamo fino allo sfinimento psicologico... :D
si potrebbe fare :D :D :D
Athlon 64 3000+
17-01-2007, 21:24
L'unica cosa che mi interessa e che svelino R600 con tanto di caratteristiche e le recensioni ufficiali per sapere finalmente come è fatto visto che è dal "lontano" 2004 che se ne parla.
Se poi le scheda arriva anche 2 mesi dopo sul mercato non me ne frega niente perchè fino a primavera inoltrata la mia X1900XT me la tengo.
Ma secondo voi Ati si riprenderà il podio?
appleroof
17-01-2007, 21:29
Ma secondo voi Ati si riprenderà il podio?
:asd:
Ma secondo voi Ati si riprenderà il podio?
Teoricamente (con buone probabilitá) si, ma bisogna attendere g81, la risposta di nVidia. Penso che poi avremo una sostanziale paritá, come sempre é avvenuto.
Ricordiamoci poi che in dx10 non abbiamo ancora strumenti per misurare le 2 schede :)
Ma secondo voi Ati si riprenderà il podio?
Considerando che un podio è costituito da tre posizioni, ATI è già sul podio, poiché sono solo due i contendenti :asd: :asd:
Considerando che un podio è costituito da tre posizioni, ATI è già sul podio, poiché sono solo due i contendenti :asd: :asd:
:asd:
appleroof
17-01-2007, 21:36
Considerando che un podio è costituito da tre posizioni, ATI è già sul podio, poiché sono solo due i contendenti :asd: :asd:
:rotfl: :rotfl:
Kharonte85
17-01-2007, 21:37
Considerando che un podio è costituito da tre posizioni, ATI è già sul podio, poiché sono solo due i contendenti :asd: :asd:
:rotfl:
Considerando che un podio è costituito da tre posizioni, ATI è già sul podio, poiché sono solo due i contendenti :asd: :asd:
Si ma interessa solo il primo posto! :Prrr:
appleroof
17-01-2007, 22:02
Si ma interessa solo il primo posto! :Prrr:
fai così: adesso ti prendi la 8800gtx, poi R600, poi G90, poi R700 poi G100, poi R800 poi G200, poi R900, poi G300, poi R1000, poi G400, poi R2000, poi G500
:D
fai così: adesso ti prendi la 8800gtx, poi R600, poi G90, poi R700 poi G100, poi R800 poi G200, poi R900, poi G300, poi R1000, poi G400, poi R2000, poi G500
:D
...e poi crepi perchè avrai già 80 anni! :asd: :asd:
appleroof
17-01-2007, 22:09
...e poi crepi perchè avrai già 80 anni! :asd: :asd:
:asd: :asd: (però crepi felice di essere stato sempre sul podio :D :D )
:asd: :asd: (però crepi felice di essere stato sempre sul podio :D :D )
ogni cosa ha suo prezzo :O
:rotfl:
:asd: :asd: (però crepi felice di essere stato sempre sul podio :D :D )
...e di aver speso talmente tanti $$ da poterti prendere un appartamento... :asd: :asd:
appleroof
17-01-2007, 22:39
raga ma spero avrete capito la sottile (?) ironia dei miei post precedenti.. :stordita:
Alexkidd85
17-01-2007, 22:45
raga ma spero avrete capito la sottile (?) ironia dei miei post precedenti.. :stordita:
Si infatti non poteva essere un'accusa,detta da uno che ha una 8800gtx :Prrr:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.