PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

Mister Tarpone
14-06-2009, 15:39
P.s: Attenti ai frame che scendono a 1.......:asd: :asd: :asd: :boxe:
:cool: :asd:

martinez1983
14-06-2009, 15:52
P.s: Attenti ai frame che scendono a 1.......:asd: :asd: :asd: :boxe:

Vorrà dire che ci faremo un sacco di screen per fare le cartoline da spedire agli amici!!!!:asd:

Simedan1985
14-06-2009, 16:54
Che dite ,se sulla mia mobo mi ci metto anche io in sli:fagiano: , con la bici da spinning a padalare a manetta ,riesco ad avere un frame giocabile per quelle immagini??

Mister Tarpone
14-06-2009, 16:56
boh prova :asd:

gelox15
14-06-2009, 17:07
Che dite ,se sulla mia mobo mi ci metto anche io in sli:fagiano: , con la bici da spinning a padalare a manetta ,riesco ad avere un frame giocabile per quelle immagini??

se pedali forte magari.....:ciapet:

devAngnew
14-06-2009, 17:22
Vorrà dire che ci faremo un sacco di screen per fare le cartoline da spedire agli amici!!!!:asd:

Quoto già li stò facendo con una mia foto + photoshop cosi rosicano........:D :asd: :asd: :asd:

martinez1983
14-06-2009, 21:08
Quoto già li stò facendo con una mia foto + photoshop cosi rosicano........:D :asd: :asd: :asd:

:asd:

Che fenomeno!!!!:D

Foglia Morta
15-06-2009, 00:52
gpu mobile 40nm...

http://www.semiaccurate.com/static/uploads/june/NV_40_Mobile2.jpg

http://www.semiaccurate.com/2009/06/14/nvidia-launches-5-40nm-mobile-parts-monday/

atomo37
15-06-2009, 07:42
DEAR GOD!!
quelle immagini non fanno respirare!!!

davvero impressionanti :eek:

halduemilauno
16-06-2009, 13:21
le nuove M...
http://www.pcgameshardware.com/aid,687342/Nvidia-launches-Geforce-200M-GPU-series-with-GT200-and-GDDR5/News/
http://pcgameshardware.de/screenshots/original/2009/06/G200MSPECS.png
;)

Skullcrusher
16-06-2009, 18:56
le immagini le ho prese da qui http://www.pcgameshardware.com/aid,686987/Crysis-2-Modders-show-possible-graphics/News/

:D :cool:

:eek:

Siamo OT, ma di fronte a simili immagini non posso far altro che restare a bocca aperta :eek:

Mister Tarpone
16-06-2009, 20:40
:eek:

Siamo OT, ma di fronte a simili immagini non posso far altro che restare a bocca aperta :eek:

idem :asd:

Capozz
17-06-2009, 10:52
:eek:

Siamo OT, ma di fronte a simili immagini non posso far altro che restare a bocca aperta :eek:

QUOTO :eek:

martinez1983
17-06-2009, 11:18
Vedo che Crysis ha lasciato il segno anche a questo giro!!!!:D

Hai scatenato l' inferno Mister Tarpone!!!!:D :D

Dai ragazzi torniamo in tema e parliamo di GT di prossima uscita!!!!;)

Crysis90
19-06-2009, 19:46
Dite che 20 Tflops basteranno per Crysis 3 e il CryEngine 4!?!?

http://www.tomshw.it/news.php?newsid=18548

:D :eek:

goldorak
19-06-2009, 19:55
Dite che 20 Tflops basteranno per Crysis 3 e il CryEngine 4!?!?

http://www.tomshw.it/news.php?newsid=18548

:D :eek:


Io dico che nel 2025 avremo schede da 50 TeraFlops, storage olografico e schermi oled da 100 pollici a 100 €. Ho vinto qualche cosa ? :sofico:

appleroof
19-06-2009, 20:12
Dite che 20 Tflops basteranno per Crysis 3 e il CryEngine 4!?!?

http://www.tomshw.it/news.php?newsid=18548

:D :eek:

La parte più interessante è questa

Dally ha dichiarato che le GPU del futuro saranno in grado di eseguire più istruzioni alla volta in modalità asincrona. Questa possibilità dovrebbe essere possibile già con la prossima generazione di chip, pensiamo a Intel Larrabee o il GT300 di Nvidia. Il fatto che Dally abbia citato l'architettura MIMD rafforza le teorie che vedono nel GT300 un grosso passo avanti rispetto al GT200.

gelox15
19-06-2009, 20:16
La parte più interessante è questa

Dally ha dichiarato che le GPU del futuro saranno in grado di eseguire più istruzioni alla volta in modalità asincrona. Questa possibilità dovrebbe essere possibile già con la prossima generazione di chip, pensiamo a Intel Larrabee o il GT300 di Nvidia. Il fatto che Dally abbia citato l'architettura MIMD rafforza le teorie che vedono nel GT300 un grosso passo avanti rispetto al GT200.

vero,infatti siamo qui ad aspettarle.....:sbav:

Mister Tarpone
19-06-2009, 20:17
.....:sbav:

quoto :mano:

appleroof
19-06-2009, 20:19
vero,infatti siamo qui ad aspettarle.....:sbav:

l'architettura nuova...non vedo l'ora di vederla sul campo :read: :D :D

gelox15
19-06-2009, 20:20
l'architettura nuova...non vedo l'ora di vederla sul campo :read: :D :D

nn drimelo...:muro:

halduemilauno
24-06-2009, 07:22
http://www.fudzilla.com/content/view/14350/1/


Yes we can

Our sources have confirmed that Nvidia is working hard to launch its first DirectX 11 in this year. Well informed sources are telling us that the plan is to launch in late Q4 2009, but they can still make it before the end of the year.


Many people were reporting that Nvidia's high end GPU, something that we all call GT300, might be delayed for early 2010. Well we can tell you that this won’t happen, but we strongly believe that Nvidia cannot make it in time for the Windows 7 launch.

ATI has every chance to launch its DirectX 11 before Nvidia. Nvidia will come just a month or two later, but still in 2009.


quindi chiarendo e riassumendo Microsoft rilascerà Windows 7 e relative DX11 il prossimo 22 ottobre. ati la sua scheda una mesata prima mentre nvidia una mesata dopo.
;)

goldorak
24-06-2009, 07:30
Affidabilita' Fudzilla = -100%. ;)

DVD2005
24-06-2009, 09:54
Affidabilita' Fudzilla = -100%. ;)

in effetti :stordita:

halduemilauno
24-06-2009, 11:48
http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx

When we ran TSMC yield story, we left you owning an explanation. Time to clear that too… why TSMC has "f***** up" yields? Because the chip "some say it doesn't exist" has disastrous yields. We refuse to be drawn into the speculation does the GT300 exist or not, since we have enough data that would send nVidia Legal our way - but that was in the past, green guys learned better ;-)

According to our sources close to the [silicon] heart of the matter, the problem that nVidia has are yields in the 20 percentage range. You've guessed, that is waaay [insert several "a"] too low for launching volume production and we probably will see a new revision of silicon until the yields get high enough to earn a little bit of money. Having three faulty chips on one working one is much too much, since those faulty chips aren't exactly "GTX 360" or "slower Quadro FX" grade material. Some faulty parts might work under forced cooling, but the high leakage is an issue with the current graphics card layout. We won't go into the whole instability, does not work etc situation.

As we all know, the graphics chips are at the worst possible position, facing down [unless you put them in testbed/desktop case]. With high leakage parts, thermal shockwave is sent through the organic packaging to the PCB [Printed Circuit Board] and can cause extensive failure, like nVidia learned with their $200 million mistake called "bad bumps" or simply "bumpgate".

We have the exact number, but in order to protect the parties involved, we are going to refrain from posting the exact yield figure on first batch of chips. All we can say is - not yet ready for production.
;)

michelgaetano
24-06-2009, 11:55
Quindi yelds tra il 20 e il 25 %?

Per curiosità, quanto erano (sono) quelli di GT200 e RV770?

halduemilauno
24-06-2009, 14:38
http://www.hwupgrade.it/articoli/sicurezza/2233/intervista-a-bill-dally-nvidia-chief-scientist_index.html

un'estratto...
Hardware Upgrade - Architettura futura, qualche dettaglio?

Risposta - Ovviamente non posso dare alcuna indiscrezione, lo sapete. Continueremo ad incrementare le performance, questo è certo. Posso però preannunciarvi che cambierà sensibilmente il rapporto delle unità all'interno degli shader e la doppia precisione rappresenterà un elemento fondamentale.

;)

michelgaetano
24-06-2009, 14:56
C'entra poco, ma

Hardware Upgrade - Cosa ci può dire circa PhysX?

Risposta - Chiunque abbia provato un applicativo o un gioco con la fisica calcolata in tempo reale attraverso la scheda grafica, sa quanto questa può impattare sulla cosìdetta "visual experience", o esperienza di gioco. Progressivamente anche gli sviluppatori cominceranno a rendersi conto dei reali vantaggi di questa tecnologia e inizieranno ad utilizzarla in modo sempre maggiore. Il nostro PhysX package inoltre subirà continue e importanti evoluzioni.

:doh:

:cry:

Athlon 64 3000+
24-06-2009, 15:19
http://www.hwupgrade.it/articoli/sicurezza/2233/intervista-a-bill-dally-nvidia-chief-scientist_index.html

un'estratto...
Hardware Upgrade - Architettura futura, qualche dettaglio?

Risposta - Ovviamente non posso dare alcuna indiscrezione, lo sapete. Continueremo ad incrementare le performance, questo è certo. Posso però preannunciarvi che cambierà sensibilmente il rapporto delle unità all'interno degli shader e la doppia precisione rappresenterà un elemento fondamentale.

;)

GT300 è sicuro che sarà un bel incremento prestazionale rispetto a GT200b e l'architettura sarà profondamente diversa dalle GT260/275/285.
Mi sbaglio o in un prencedente post avevi ipotizzato che GT300 sarebbe stato presentato entro la fine di novembre?

halduemilauno
24-06-2009, 15:28
GT300 è sicuro che sarà un bel incremento prestazionale rispetto a GT200b e l'architettura sarà profondamente diversa dalle GT260/275/285.
Mi sbaglio o in un prencedente post avevi ipotizzato che GT300 sarebbe stato presentato entro la fine di novembre?

ipotizzato, no non sbagli.
ciao.
;)

martinez1983
24-06-2009, 15:38
Volevo far notare come nell' intervista,come Bill Dally abbia letteralmente smontato il progetto Larrabee!!!:D
Chip dalle prestazioni modeste,che soffrirà molto nella gestione della memoria!!
(che allora dovrebbe surclassare alla grande il gt300)
Staremo a vedere chi avrà ragione!!!!

Insomma nel futuro sarà la scheda video ad essere al centro dell' attenzione!!!

Defragg
24-06-2009, 15:39
C'entra poco, ma

Hardware Upgrade - Cosa ci può dire circa PhysX?

Risposta - Chiunque abbia provato un applicativo o un gioco con la fisica calcolata in tempo reale attraverso la scheda grafica, sa quanto questa può impattare sulla cosìdetta "visual experience", o esperienza di gioco. Progressivamente anche gli sviluppatori cominceranno a rendersi conto dei reali vantaggi di questa tecnologia e inizieranno ad utilizzarla in modo sempre maggiore. Il nostro PhysX package inoltre subirà continue e importanti evoluzioni.

:doh:

:cry:
Lo stesso che ho pensato io :D

appleroof
24-06-2009, 17:04
Hardware Upgrade - In quale ambito la GPU deve essere migliorata?

Risposta - Uno degli aspetti che stiamo curando e che ad oggi rappresenta il più grande limite delle schede video è la banda di memoria e il sistema di interconnessione ad essa.

anche questo passaggio mi sembra interessantissimo, mi pare fosse proprio il principale punto debole di g80 e derivati, sono curiosissimo di vedere se e come proporranno un'alternativa al classico crossbar..

Ren
24-06-2009, 19:46
Mi sa che si riferisce più al pci-e come limite che alla banda verso la memoria...

Chissà se useranno delle ALU a 64bit o un approccio emulativo.

Jackaos
24-06-2009, 20:03
A me pare che parli di memoria e di bus, c'è caso quindi che vedremo qualcosa di effettivamente diverso a livello architetturale, se non con questa next gen, di sicuro con la prossima.

Andrea deluxe
24-06-2009, 20:15
Mi sa che si riferisce più al pci-e come limite che alla banda verso la memoria...

Chissà se useranno delle ALU a 64bit o un approccio emulativo.

no, lui parla di bit e banda delle ram montate sulle vga.....


in effetti siamo vicini alla frutta per quanto rigurda i bit.... oltre i 512bit la vedo dura.... i pcb delle schede sono quasi al limite e le ram montate sulle vga sono strane.....

tutti parlano della loro velocita' e di banda passante, ma c'e' da considerare che quest'ultima e' molto teorica.....

se andate a vedere i timings delle gddr5 rimanete a bocca aperta......


quindi di questi 160gb/s che abbiamo adesso, io li considererei teorici....

purtroppo non esiste nessun test per verificare l'effettiva banda passante delle ram sulle vga..... ma se esistesse ci potrebbero essere grosse delusioni.....

eXeS
24-06-2009, 21:10
no, lui parla di bit e banda delle ram montate sulle vga.....


in effetti siamo vicini alla frutta per quanto rigurda i bit.... oltre i 512bit la vedo dura.... i pcb delle schede sono quasi al limite e le ram montate sulle vga sono strane.....

tutti parlano della loro velocita' e di banda passante, ma c'e' da considerare che quest'ultima e' molto teorica.....

se andate a vedere i timings delle gddr5 rimanete a bocca aperta......


quindi di questi 160gb/s che abbiamo adesso, io li considererei teorici....

purtroppo non esiste nessun test per verificare l'effettiva banda passante delle ram sulle vga..... ma se esistesse ci potrebbero essere grosse delusioni.....

Fu fatto l'anno scorso da computerbase downcloccando la 4870 alle stesse frequenze della 4850, e uniformando le frequenze delle ram

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/#abschnitt_performancerating

I risultati dicono che la banda teorica doppia delle DDR5 rispetto le DDR3 a 1680x1050 da benefici che vanno dal 4 all'11%, quindi, o la banda non è il collo di bottiglia delle architetture attuali, un tubo di 10cm di diametro è sprecato se il flusso di liquido che ci scorre dentro è l'urina espulsa durante una pisciata, oppure le alte latenze ne limitano pesantemente la velocità effettiva di trasferimento dati ;)

appleroof
24-06-2009, 22:11
Fu fatto l'anno scorso da computerbase downcloccando la 4870 alle stesse frequenze della 4850, e uniformando le frequenze delle ram

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/6/#abschnitt_performancerating

I risultati dicono che la banda teorica doppia delle DDR5 rispetto le DDR3 a 1680x1050 da benefici che vanno dal 4 all'11%, quindi, o la banda non è il collo di bottiglia delle architetture attuali, un tubo di 10cm di diametro è sprecato se il flusso di liquido che ci scorre dentro è l'urina espulsa durante una pisciata, oppure le alte latenze ne limitano pesantemente la velocità effettiva di trasferimento dati ;)

:asd:

per il resto, mi piacerebbe vedere una prova del genere su chip dx10 Nvidia...

halduemilauno
25-06-2009, 10:25
http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/gt300_rv870_wann_chips/

zorco
25-06-2009, 11:18
http://www.hwupgrade.it/news/sicurezza/da-nvidia-presto-un-aggiornamento-di-gt200-a-40-nanometri_29426.html

Il colosso americano famoso per lo sviluppo delle proprie GPU ha da poco introdotto sul mercato nuovi modelli di soluzioni mobile caratterizzate da un processo produttivo a 40 nanometri e in grado di garantire il supporto alle DirectX 10.1: dopo alcuneincertezze iniziali, dovute all'ambiguità del numero degli stream processor presenti, è stato confermato che l'architettura su cui tale soluzioni sono state sviluppate è GT200.

Pare che ora, nonostante si tratti ancora di una indiscrezione, NVIDIA abbia intenzione di portare i 40 nanometri anche sul segmento desktop, ma non applicato ad una nuova architettura, bensì andando a rimpicciolire l'attuale GT200 anche se con piccole modifiche. Il mese di Settembre potrebbe quindi vedere l'arrivo di nuove schede desktop in grado di supportare DirectX 10.1 e sviluppate a 40 nanometri, ma caratterizzate da una architettura già vista, provata e consolidata.

I nomi in codice, per quanto non ancora confermati, potrebbero essere GT210 e GT220, e consentiranno, grazie al rinnovato processo produttivo sia di raggiungere maggiori frequenze di funzionamento e una consistente riduzione dei consumi.

Andrea deluxe
25-06-2009, 11:51
http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx

michelgaetano
25-06-2009, 12:02
http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx

Non è stata postata da Hal la pagina dietro? :D

Edit: confermo

Andrea deluxe
25-06-2009, 12:24
ecchccacchio....:muro:

Kharonte85
25-06-2009, 12:59
Se sono vere le ultime notizie si mette male per nvidia...con quegli yelds sono costretti a fare quel refresh non-sense dell'architettura GT200 portandola in dx10.1 per tappare il vuoto e ripresentarsi poi con le dx11 se va bene a Gennaio-Febbraio 2010

Non ci siamo...speriamo siano solo notizie "Fud" sballate.

martinez1983
25-06-2009, 13:28
Se sono vere le ultime notizie si mette male per nvidia...con quegli yelds sono costretti a fare quel refresh non-sense dell'architettura GT200 portandola in dx10.1 per tappare il vuoto e ripresentarsi poi con le dx11 se va bene a Gennaio-Febbraio 2010

Non ci siamo...speriamo siano solo notizie "Fud" sballate.


Però non ha nemmeno tanto senso passare a 40nm sull' architettura GT200!!!
Anche lì non penso che gli yelds siano tanto più elevati!!


Cmq mi auguro che siano solo notizie sballate!!!

michelgaetano
25-06-2009, 13:38
Però non ha nemmeno tanto senso passare a 40nm sull' architettura GT200!!!
Anche lì non penso che gli yelds siano tanto più elevati!!


Cmq mi auguro che siano solo notizie sballate!!!

Più che altro credo cercherebbero di ridurre il divario prestazionale dalle future Ati,alzando i clock e al tempo stesso riducendo i costi, nell'attesa di G300.

Va capito quanto effettivamente renda però.

Simedan1985
25-06-2009, 13:48
Più che altro credo cercherebbero di ridurre il divario prestazionale dalle future Ati,alzando i clock e al tempo stesso riducendo i costi, nell'attesa di G300.

Va capito quanto effettivamente renda però.



Quoto ,pero se l'ati fa belle bestioline credo che sia difficile starle dietro:O

atomo37
25-06-2009, 14:23
Quoto ,pero se l'ati fa belle bestioline credo che sia difficile starle dietro:O

ben vengano sempre le belle bestioline, qualsiasi sia la bandiera che hanno sopra ;)

HaRdCoRe GaMeR
25-06-2009, 14:39
http://www.hwupgrade.it/news/sicurezza/da-nvidia-presto-un-aggiornamento-di-gt200-a-40-nanometri_29426.html

Il colosso americano famoso per lo sviluppo delle proprie GPU ha da poco introdotto sul mercato nuovi modelli di soluzioni mobile caratterizzate da un processo produttivo a 40 nanometri e in grado di garantire il supporto alle DirectX 10.1: dopo alcuneincertezze iniziali, dovute all'ambiguità del numero degli stream processor presenti, è stato confermato che l'architettura su cui tale soluzioni sono state sviluppate è GT200.

Pare che ora, nonostante si tratti ancora di una indiscrezione, NVIDIA abbia intenzione di portare i 40 nanometri anche sul segmento desktop, ma non applicato ad una nuova architettura, bensì andando a rimpicciolire l'attuale GT200 anche se con piccole modifiche. Il mese di Settembre potrebbe quindi vedere l'arrivo di nuove schede desktop in grado di supportare DirectX 10.1 e sviluppate a 40 nanometri, ma caratterizzate da una architettura già vista, provata e consolidata.

I nomi in codice, per quanto non ancora confermati, potrebbero essere GT210 e GT220, e consentiranno, grazie al rinnovato processo produttivo sia di raggiungere maggiori frequenze di funzionamento e una consistente riduzione dei consumi.

Settembre:sbav:





:cincin:

molochgrifone
25-06-2009, 15:08
Settembre:sbav:





:cincin:

Lo shrink di GT200, non il chip nuovo ;)

atomo37
25-06-2009, 15:10
Lo shrink di GT200, non il chip nuovo ;)

l'ennesimo :)

zorco
25-06-2009, 15:15
l'ennesimo :)

in + però hanno il supporto per le dx10.1:fagiano:

martinez1983
25-06-2009, 15:18
Va capito quanto effettivamente renda però.

Questo mi preoccupato!!!!

Alla fine sarebbe uno die-shrink forzato,e nemmeno previsto,per una architettura che ormai sa di muffa in cantina!!!!
E chissà quale miglioramenti potrà dare!!!

Vedremo nelle prossime settimane!!!!

Foglia Morta
25-06-2009, 16:31
da traduzione di google pare di capire che le specifiche circolate sono solamente le speculazioni di Theo Valich e Hardware-Info , che non sanno mai niente. Il codename G300 o GT300 pare che non esista , ma ci sia Fermi , ma non è chiaro se quest'ultimo si riferisca a una gpu o ad una piattaforma gpgpu


http://translate.google.it/translate?u=http%3A%2F%2Fwww.extrahardware.cz%2Fnext-gen-gpu-nvidia-vyvijena-jako-fermi&sl=cs&tl=en&hl=it&ie=UTF-8

The next generation nVidia GPU is not really possible code GT300 or G300. První náznak na toto téma mi poskytl PR společnosti nVidia pro CEE. The first hint on this issue to me by PR nVidia for CEE. Dle jeho slov všichni novináři připravovaný výrobek jejich společnosti označují špatně. In his words, all the journalists prepared to indicate their product is wrong. To samé tvrdil io specifikacích , které postupně pronikaly do spekulativních aktualit hardwarových webů. The same is said about the specifications, which gradually penetrated into the speculative hardware news sites.

Dle sestavených střípků z neověřitelných informací se rýsoval grafický čip s 512 stream procesory (MIMD) o frekvenci 1600 MHz, taktem jádra 700 až 800 MHz, 2,4 mld. tranzistorů a 512bitovou paměťovou sběrnicí s podporou GDDR5. By neověřitelných assembled fragments of information rýsoval graphics chip with 512 stream processors (MIMD) on the frequency 1600 MHz, so the kernel 700 to 800 MHz, 2.4 billion transistors and 512bitovou memory bus with support for GDDR5. Plocha jádra měla být s 40nm výrobním postupem asi 490 milimetrů čtverečních, výkon měl dosahovat 2,46 TFLOPS a propustnost paměté předčit 280 GB/s. Core area should be with 40nm manufacturing process about 490 mm square, the exercise had achieved 2.46 TFLOPS and memory bandwidth surpass 280 GB / s.

Je to ze strany public relations kalifornského výrobce jen snaha o mlžení, nebo si opravdu zejména web Hardware-infos (z něhož čerpal následně Theo Valich na Bright Side of News a další) vymýšlel pohádky? It is the public relations of the California manufacturer of the effort to mlžení, or you really particular site Hardware-infos (which subsequently drew Theo Valich Bright Side of the News and others) to invent fairy tales? Druhou variantu by potvrzovala informace o tom, že žádná všude zmiňovaná GT300 opravdu není a ti, kteří o nové generaci GPU nVidia opravdu něco vědí, o ní mluví jako o Fermi. The second option would confirm the information that no everywhere GT300 is not mentioned and those on the new generation of GPU nVidia really know anything, it speaks as Fermi.

http://img70.imageshack.us/img70/2835/fermi37091713715815.jpg

Andrea deluxe
25-06-2009, 16:49
senza leggere, dalle slide, sparo.....


se qualche programmatore e' abbastanza facoltoso puo' inventarsi funzioni grafiche che non sono contemplate dalle dx10-11?

appleroof
25-06-2009, 17:14
Che han detto per anni essere una libreria inutile... :rolleyes:

cut

segui troppo bene queste cose per scandalizzarti del marketinghese delle varie società

poi a voler essere pignoli di fatto per anni (e tuttora) è una libreria inutile perchè praticamente inesistente :read:

l'unica buona notizia che vedo in questi rumors è proprio che probabilmente l'anno prossimo vedremo finalmente giochi dx10.1, o "veri dx10" che vogliamo dire (cosa che prevedo da mesi :cool: poi magari mi sbaglio totalmente :asd: ), e avremo pure belle e pronte le vga dx11 di entrambe le case per farli rullare ;)

appleroof
25-06-2009, 18:53
cut

Ci son due produttori di VGA. Se uno dei due non le adotta, ed è pure quello con maggior market share, qualunque produttore di videogame si adegua e non le supporta.

I vantaggi tecnici ci sono e si sono visti.
cut

Ma sappiamo che gli sviluppatori ci mettono un bel pò prima di prendere confidenza con le nuove librerie, inoltre il parco macchine deve essere adeguato per poter rischiare di scrivere nativamente un gioco in dx10 (a questo "giro" il tutto aggravato dallo strapotere di rendimento dei giochi per consolle dx9)

non credo sia proprio tutta colpa di Nvidia se le dx10.1 non sono state adottate da subito, ma credo anzi sia un fattore abbastanza minore rispetto alla situazione complessiva

Athlon 64 3000+
25-06-2009, 19:19
Ma sappiamo che gli sviluppatori ci mettono un bel pò prima di prendere confidenza con le nuove librerie, inoltre il parco macchine deve essere adeguato per poter rischiare di scrivere nativamente un gioco in dx10 (a questo "giro" il tutto aggravato dallo strapotere di rendimento dei giochi per consolle dx9)

non credo sia proprio tutta colpa di Nvidia se le dx10.1 non sono state adottate da subito, ma credo anzi sia un fattore abbastanza minore rispetto alla situazione complessiva

Yoss disse tempo fa che G80/GT200 non poteva supportare le dx 10.1 perchè avrebbero dovuto fare diverse modifiche all'architettura cosa che non succedeva a R600 e derivati.

appleroof
25-06-2009, 19:22
Yoss disse tempo fa che G80/GT200 non poteva supportare le dx 10.1 perchè avrebbero dovuto fare diverse modifiche all'architettura cosa che non succedeva a R600 e derivati.

e chi dice il contrario? :)

Defragg
26-06-2009, 10:29
da traduzione di google pare di capire che le specifiche circolate sono solamente le speculazioni di Theo Valich e Hardware-Info , che non sanno mai niente. Il codename G300 o GT300 pare che non esista , ma ci sia Fermi , ma non è chiaro se quest'ultimo si riferisca a una gpu o ad una piattaforma gpgpu

http://img70.imageshack.us/img70/2835/fermi37091713715815.jpg

Imho Fermi è la piattaforma GPGPU basata su GT300. Rivoluzione rispetto alle precedenti sia dal lato architettura che dal lato performance. :)
E poi finalmente un nome italiano :D

gervi
27-06-2009, 12:06
se GT300 è full MIMD , è un salto enorme rispetto a GT200.

dati i problemi con i 40 nani, credo che lo facciano a 28 nani , troppo grosso GT300, x cui aspettano il 2010 x la produzione in volumi maggiori , dato che solo x il primo quarto 2010 , le fabbriche saranno pronte a sfornare wafer da 28 nani.

nel frattempèo, x colmare il vuoto di tempo e di prestazioni anche , rispetto all'imminente ati RV870 , sfornano un gt200 a 40 nani, con volumi maggiori.

credo , io almeno vedo questa logica.

secondo me , GT300 è troppo diverso e mostruoso e puntano dritti a 28 nani, nemmeno i 40 ce la fanno.

concidono anche con la brusca sterzata di TSMC che ha affermato di aver terminato i lavori sui 28 nani e sarà pronta in volumi ad inizio 2010.

Milotto
27-06-2009, 12:10
Tesla -> Fermi

Direi che di senso ne può anche avere...

Sembra esser ritornati al periodo di R300 ed NV30..ATI in netto vantaggio sulla concorrenza.

In quanto ai nomi utilizzati da NVIDIA è evidente una strategia finalizzata al GPGPU, i centri di ricerca come nuovo segmento di mercato ...

Mister Tarpone
27-06-2009, 12:28
Sembra esser ritornati al periodo di R300 ed NV30..ATI in netto vantaggio sulla concorrenza.

c'è una bella differenza. le gt200 come prestazioni sono eccellenti. mica come quei troiai di nv 30.

se invece ti riferisci alle prossime schede anche li bisognerà vedere che viene fuori

Milotto
27-06-2009, 12:48
c'è una bella differenza. le gt200 come prestazioni sono eccellenti. mica come quei troiai di nv 30.

se invece ti riferisci alle prossime schede anche li bisognerà vedere che viene fuori

Non mi riferisco alle VGA attualmente presenti ...ma al contesto che potrebbe concretizzarsi stando ai rumors...

Simedan1985
27-06-2009, 13:57
Con ati qualcosa sul futuro gia si sa ,ma con nvidia scusate il termine ma nn ci sto capendo una mazza:p

Cmq ati mi sembra in netto vantaggio, il nome gt300 è troppo usato ormai da tanto tempo .....ricordo ancora prima che uscisse gt200b.A sto punto è lecito pensare a una revision di tale gpu ,un po pompata,con gddr5,e supporto dx10.1 .Mentre per sto famigerato gt300 o come si chiamera prima di marzo secondo me nn si vedra niente

michelgaetano
27-06-2009, 14:04
Con ati qualcosa sul futuro gia si sa ,ma con nvidia scusate il termine ma nn ci sto capendo una mazza:p

Cmq ati mi sembra in netto vantaggio, il nome gt300 è troppo usato ormai da tanto tempo .....ricordo ancora prima che uscisse gt200b.A sto punto è lecito pensare a una revision di tale gpu ,un po pompata,con gddr5,e supporto dx10.1 .Mentre per sto famigerato gt300 o come si chiamera prima di marzo secondo me nn si vedra niente

Netto vantaggio forse solo dal punto di vista del launch.

michelgaetano
27-06-2009, 14:05
double post

Simedan1985
27-06-2009, 14:14
Netto vantaggio forse solo dal punto di vista del launch.

ma bisognera vedere se solo del launch ,perche a conti fatti amd gia ha presentato una wafer dx10 ,nvidia ha problemi con le fonderie ecc ecc

Simedan1985
27-06-2009, 14:20
Ragazzi nn so se ho problemi io o il forum solo che i miei messaggi nn li visualizzo ....ecco perche magari ho fatto doppio post!!!

edit:sembra risolto

Andrea deluxe
27-06-2009, 14:42
http://techreport.com/discussions.x/17088

michelgaetano
27-06-2009, 16:39
Ragazzi nn so se ho problemi io o il forum solo che i miei messaggi nn li visualizzo ....ecco perche magari ho fatto doppio post!!!

edit:sembra risolto

Sì succede ultimamente.

halduemilauno
30-06-2009, 09:04
http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272

sostitute delle attuali 9400/9500.
;)

Foglia Morta
30-06-2009, 12:50
http://en.expreview.com/2009/06/30/nvidia-geforce-gt220-die-shot-exposed.html

We’ve managed to score a picture of GeForce GT220 codenamed GT216. Shown as above, the die is marked with “GT216-350-A2″. The die size should be smaller to previous ones thanks to the application of 40nm technology.

As NVIDIA’s first 40nm desktop GPU, GeForce GT220 targets entry-level segment, and will take the place of GeForce 9500 series.

http://img8.imageshack.us/img8/1450/gt22024907352495352.jpg

Defragg
30-06-2009, 13:11
http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272

sostitute delle attuali 9400/9500.
;)

Quindi G 210 sostituisce le 9400, 24 vs 16 sp e GT 220 sostituisce le 9500, 48 vs 32 sp. :)
Buono il 50% in più :)

Andrea deluxe
30-06-2009, 15:21
anche se ot posto qui!

http://news.softpedia.com/news/NVIDIA-CUDA-Technology-Could-Support-AMD-GPUs-115397.shtml

elevul
30-06-2009, 15:24
Oh, devo giusto comprare una 9500, ma ero preoccupato per la temperatura, visto che già la 8400 che ho ora sta dando i numeri per via del caldo.
Si sa quando uscirà la gt220?

halduemilauno
30-06-2009, 15:41
Quindi G 210 sostituisce le 9400, 24 vs 16 sp e GT 220 sostituisce le 9500, 48 vs 32 sp. :)
Buono il 50% in più :)

e su questa falsariga dovrebbe esser il resto della futura line-up 96 vs 64, 192 vs 128, 384 vs 216/240 e 512 vs 240x2. ovviamente in attesa di tutti i riscontri e conferme del caso.

Mister Tarpone
30-06-2009, 15:46
e su questa falsariga dovrebbe esser il resto della futura line-up 96 vs 64, 192 vs 128, 384 vs 216/240 e 512 vs 240x2. ovviamente in attesa di tutti i riscontri e conferme del caso.

ma parli dei new gt200 a 40nm?

se si.. non sarebbero male....io ero orientato verso un cipresso rv870pro... però effettivamente anche una gt200 a 384sp 40nani e gddr5....

quello che mi fa incacchiare è che dopo pochi mesi nv farà uscire il gt300... e quindi queste mirabolanti gt200C saranno diventate caccolette nel giro di poco..

Mister Tarpone
30-06-2009, 15:49
dimmi te hal..

halduemilauno
30-06-2009, 15:51
ma parli dei new gt200 a 40nm?

se si.. non sarebbero male....io ero orientato verso un cipresso rv870pro... però effettivamente anche una gt200 a 384sp 40nani e gddr5....

quello che mi fa incacchiare è che dopo pochi mesi nv farà uscire il gt300... e quindi queste mirabolanti gt200C saranno diventate caccolette nel giro di poco..

no. gt200 seppur a 40nm, è e rimane gt200.
;)

Mister Tarpone
30-06-2009, 15:53
no. gt200 seppur a 40nm, è e rimane gt200.
;)

ma quindi quando parlavi di 384sp e 512sp t riferivi al gt300? non t'ho capito hal.... :confused: :mc:

halduemilauno
30-06-2009, 15:56
ma quindi quando parlavi di 384sp e 512sp t riferivi al gt300? non t'ho capito hal.... :confused: :mc:

alle due versioni del gt300. ripeto tutto da verificare e confermare.
;)

Mister Tarpone
30-06-2009, 16:00
alle due versioni del gt300. ripeto tutto da verificare e confermare.
;)

dai hal se viene fuori una schedona poi ti voglio agguerrito :sborone:

halduemilauno
30-06-2009, 16:04
dai hal se viene fuori una schedona poi ti voglio agguerrito :sborone:

credo che per le mie attuali esigenze l'attuale scheda basti e avanzi. tanto per i giochi veramente dx11 ci sarà ancora diverso tempo da aspettare. cmq vedremo.
;)

elevul
30-06-2009, 16:06
ma parli dei new gt200 a 40nm?

se si.. non sarebbero male....io ero orientato verso un cipresso rv870pro... però effettivamente anche una gt200 a 384sp 40nani e gddr5....

quello che mi fa incacchiare è che dopo pochi mesi nv farà uscire il gt300... e quindi queste mirabolanti gt200C saranno diventate caccolette nel giro di poco..

Effettivamente sto notando che gt210 e gt220 saranno disponibili in massa da inizio settembre.
Peccato che pochi mesi dopo dovrebbe uscire la serie gt300...
A sto punto continuo a chiedermi se ha senso aspettare, proprio... :asd:

Mister Tarpone
30-06-2009, 16:16
credo che per le mie attuali esigenze l'attuale scheda basti e avanzi. tanto per i giochi veramente dx11 ci sarà ancora diverso tempo da aspettare. cmq vedremo.
;)

rivoglio il vecchio hal guerriero punto e basta.
;)

zorco
30-06-2009, 16:23
rivoglio il vecchio hal guerriero punto e basta.
;)
se lo sponsorizzi tù hal diventa più che agguerrito :p

Mister Tarpone
30-06-2009, 16:24
se lo sponsorizzi tù hal diventa più che agguerrito :p

:help: :p

Milotto
30-06-2009, 16:35
Tempi buii per la propaganda pro-Nvidia....

Defragg
30-06-2009, 16:36
rivoglio il vecchio hal guerriero punto e basta.
;)

Credo a molti vada bene quello di ora :stordita:

Mister Tarpone
30-06-2009, 16:46
Credo a molti vada bene quello di ora :stordita:

a me no :stordita:

Mister Tarpone
30-06-2009, 16:48
Tempi buii per la propaganda pro-Nvidia....


ma vieni qui solo per postare ste cacchiate tipo questa? e fare previsioni pessimistiche? :confused: :stordita:

Mister Tarpone
30-06-2009, 16:56
qualche news


Mobile gaming

Since Geforce GTS 250 had great success in the desktop market, Nvidia hopes that the new mobile card can repeat the same success in notebooks.

Geforce GTS 250M is clocked at 500MHz core and is of course a 40nm based chip. It features support for DirectX 10.1 and its memory works at 1600MHz. The chip uses GDDR5 and a 128-bit bus.

The rest of the spec includes 96 shader units clocked at 1250MHz. Nvidia plans that this chip should take care of the mobile, power users market and it believes that it is up to 50 percent faster than the previous generation of mobile GPUs, especially in new titles such as Mirror’s Edge and Sacred 2.

We expect quite a few announcements in the next few months, but with a TDP of 28W, this is not the coolest mobile chip we’ve seen, but with more power, comes the bigger TDP.
;)

Simedan1985
30-06-2009, 17:01
ma parli dei new gt200 a 40nm?

se si.. non sarebbero male....io ero orientato verso un cipresso rv870pro... però effettivamente anche una gt200 a 384sp 40nani e gddr5....

quello che mi fa incacchiare è che dopo pochi mesi nv farà uscire il gt300... e quindi queste mirabolanti gt200C saranno diventate caccolette nel giro di poco..

Ragazzi ma a sto punto ancora dobbiamo crederci a sto gt 300:O ?

michelgaetano
30-06-2009, 17:15
Ragazzi ma a sto punto ancora dobbiamo crederci a sto gt 300:O ?

Guarda che ti bruciano vivo :O

E comunque certo che ci si crede, il punto è che non si è capito granchè quando possa uscire :stordita:

Mister Tarpone
30-06-2009, 17:16
io ci credo si. esce esce..aivoglia se esce.
:cool: ;)

michelgaetano
30-06-2009, 18:21
Non ce la fanno proprio a non fare casino -.-

Così la GTS250 è una scheda DX10 e la GTS250M è DX10.1 -.-

QUale di queste poi è un g92? Sui portatili ci ho tristemente rinunciato ad aggiornarmi :stordita:

Mister Tarpone
30-06-2009, 18:37
edit

Mister Tarpone
30-06-2009, 18:41
dove è tutto sto casino in questo caso? se di gts250m ce n'è solo una per portatile? :confused:

gelox15
30-06-2009, 18:52
Ragazzi ma a sto punto ancora dobbiamo crederci a sto gt 300:O ?
esce esce....;)
Guarda che ti bruciano vivo :O

E comunque certo che ci si crede, il punto è che non si è capito granchè quando possa uscire :stordita:
dicono fine anno...

michelgaetano
30-06-2009, 18:55
dicono fine anno...

Se per questo si diceva anche Q1 2010 :stordita:

Io mi sono abbastanza perso :stordita:

sai se mi dicevi la 260m.. ma su portatile non esiste nessun altr gts250, oltre a quella dx10.1. quindi in questo caso non c'è il rischio che uno si confonda.

dove è quindi tutto sto casino in questo caso? se di gts250m ce n'è solo una per portatile? :confused:

Ah ma quindi non c'è già una gts 250? Tanto meglio :asd:

Tarp ma perchè non editi il primo post anzichè metterne 2?

Mister Tarpone
30-06-2009, 19:03
Ah ma quindi non c'è già una gts 250? Tanto meglio :asd:

non mi sembra proprio...c'è solo una gts 250m per portatile. :confused:

halduemilauno
30-06-2009, 19:03
cmq alla luce di queste ultime news/rumors aggiornata la prima pagina che riporto anche qui...
ed ecco quanto dovrebbe accadere nel corso del 2009...
GT212: Q2/2009 - Annullato in funzione del GT300.
GT206: Q2/2009 - Sostituita dal GT200C versione a 40nm del GT200.
GT214: Q3/2009 - Sostituita dal GT215 sostituta della 9600GT/9800GT.
GT216: Q3/2009 - Sostituta della 9500GT.
GT218: Q3/2009 - Sostituta della 9400GT.
GT300: Q4/2009 - Nuova architettura DX11 High-End.
GT304: Q1/2010 - Nuova architettura DX11 Performance.
ripeto rumors.
;)

Mister Tarpone
30-06-2009, 19:05
cmq alla luce di queste ultime news/rumors aggiornata la prima pagina che riporto anche qui...
ed ecco quanto dovrebbe accadere nel corso del 2009...
GT212: Q2/2009 - Annullato in funzione del GT300.
GT206: Q2/2009 - Sostituita dal GT200C versione a 40nm del GT200.
GT214: Q3/2009 - Sostituita dal GT215 sostituta della 9600GT/9800GT.
GT216: Q3/2009 - Sostituta della 9500GT.
GT218: Q3/2009 - Sostituta della 9400GT.
GT300: Q4/2009 - Nuova architettura DX11 High-End.
GT304: Q1/2010 - Nuova architettura DX11 Performance.
ripeto rumors.
;)

capito ;)

ciao Hal :sborone:

halduemilauno
30-06-2009, 19:07
capito ;)

ciao Hal :sborone:

ciao.
:mano:

Milotto
30-06-2009, 19:49
ma vieni qui solo per postare ste cacchiate tipo questa? e fare previsioni pessimistiche? :confused: :stordita:

Facevo dell'ironia...... alla stregua dei tuoi precedenti post... :)

Per quanto mi riguarda , mi limito a sperare che nel prossimo futuro continui la concorrenza che c'è stata negli ultimi tempi tra ATI ed Nvidia..: prezzi abbordabili per VGA performance.


P.S.: libero d'esser pessimista..non credo di dover dar conto a te... :)

Mister Tarpone
30-06-2009, 19:57
Per quanto mi riguarda , mi limito a sperare che nel prossimo futuro continui la concorrenza che c'è stata negli ultimi tempi tra ATI ed Nvidia..: prezzi abbordabili per VGA performance.
concordo..lo spero anch'io ;) :mano:


P.S.: libero d'esser pessimista..non credo di dover dar conto a te... :)

invece si :) e alla prossima se insisti ci scappa la tortura :)

scherzo asd

gelox15
30-06-2009, 20:32
cmq alla luce di queste ultime news/rumors aggiornata la prima pagina che riporto anche qui...
ed ecco quanto dovrebbe accadere nel corso del 2009...
GT212: Q2/2009 - Annullato in funzione del GT300.
GT206: Q2/2009 - Sostituita dal GT200C versione a 40nm del GT200.
GT214: Q3/2009 - Sostituita dal GT215 sostituta della 9600GT/9800GT.
GT216: Q3/2009 - Sostituta della 9500GT.
GT218: Q3/2009 - Sostituta della 9400GT.
GT300: Q4/2009 - Nuova architettura DX11 High-End.
GT304: Q1/2010 - Nuova architettura DX11 Performance.
ripeto rumors.
;)

interessante questa prospettiva....quindi aspetterò il 2010;)

Simedan1985
30-06-2009, 22:38
cmq alla luce di queste ultime news/rumors aggiornata la prima pagina che riporto anche qui...
ed ecco quanto dovrebbe accadere nel corso del 2009...
GT212: Q2/2009 - Annullato in funzione del GT300.
GT206: Q2/2009 - Sostituita dal GT200C versione a 40nm del GT200.
GT214: Q3/2009 - Sostituita dal GT215 sostituta della 9600GT/9800GT.
GT216: Q3/2009 - Sostituta della 9500GT.
GT218: Q3/2009 - Sostituta della 9400GT.
GT300: Q4/2009 - Nuova architettura DX11 High-End.
GT304: Q1/2010 - Nuova architettura DX11 Performance.
ripeto rumors.
;)

Ragazzi scusate ....questo vuol dire che a ottembre:D avremmo delle sostitute delle 295,285,275,260??? e poi subito dopo tre mesi un 'ancor nuova top basata su gt 300???

Spero che state scherzando!!!!;)

The_SaN
30-06-2009, 22:43
Ragazzi scusate ....questo vuol dire che a ottembre:D avremmo delle sostitute delle 295,285,275,260??? e poi subito dopo tre mesi un 'ancor nuova top basata su gt 300???

Spero che state scherzando!!!!;)La fascia performance sta sotto a quella high end ;)

Simedan1985
30-06-2009, 22:48
La fascia performance sta sotto a quella high end ;)

NN parlo del gt300 ,ma della revision dei gt200b ;)

Simedan1985
30-06-2009, 22:51
Cioe voi vi aspettate due schede top nel giro di 4 mesi????:ciapet:

NN si puo avere la moglie ubriaca e la botte piena..........

michelgaetano
30-06-2009, 22:53
Cioe voi vi aspettate due schede top nel giro di 4 mesi????:ciapet:

NN si puo avere la moglie ubriaca e la botte piena..........

Non ho capito :stordita:

I costi su un gt200c non sarebbero certo troppo alti, e consentirebbero ulteriore riduzione di spesa e forse lieve aumento di clock.

Insomma, a prezzo competitivo ben venga. Anche perchè senza esse Nvidia non presenterebbe nulla fino a G300, e chi ci perde siamo noi.

Simedan1985
30-06-2009, 23:01
Non ho capito :stordita:

I costi su un gt200c non sarebbero certo troppo alti, e consentirebbero ulteriore riduzione di spesa e forse lieve aumento di clock.

Insomma, a prezzo competitivo ben venga. Anche perchè senza esse Nvidia non presenterebbe nulla fino a G300, e chi ci perde siamo noi.

Nel senso che se tra 4 mesi esce questo chip aggiornato,apposta per il 7,con stream processor maggiorati /gddr5/dx10.1/40nm,insomma na bella revision nn una toccatina come da gt200 a gt200b ecc ecc....nn vi aspettate a gennaio un altra performance,sicuramente prendono piu tempo ed è capace che se ne riparla tra un anno.....viceversa discorso piu logico queste new gpu a 40 nm ,nn interesseranno la fascia performance,ma semplicemente è un ulteriore passo avanti verso sto benedetto gt 300 che a gennaio comparirà

Inoltre poi nn ci lamentiamo se nvidia chiama le sue schede con + e simboli vari

The_SaN
30-06-2009, 23:23
NN parlo del gt300 ,ma della revision dei gt200b ;)Ah, ok.
In questo caso peró credo che apparterranno a due fasce di prezzo ben diverse.
Non andranno a sostituirsi, ma a complementarsi.

Mister Tarpone
30-06-2009, 23:40
praticamente il gt200c coprirebbe dalla fascia bassa fino alla fascia media ,dando un ulteriore rinnovatina alle auttuali schede. e rendendole ancor + economiche da produrre...passando a 40nani
poi a fine 2009 inizio 2010 escuirà pure la gt300, esclusivamente per la fascia alta e medio alta.

cosa c'è di difficile da capire non lo so...

poi,
tra gennaio / febbraio nessuno si aspetta un altra fascia performance (che a quel punto sarà delle gt200 attuali e prossime gt200c a 40nani).
ma ci si aspetta le schede di fascia alta GTX380 e 360.

Simedan1985
30-06-2009, 23:42
praticamente il gt200c coprirebbe dalla fascia bassa fino alla fascia media ,dando un ulteriore rinnovatina alle auttuali schede. e rendendole ancor + economiche da produrre...passando a 40nani
poi a fine 2009 inizio 2010 escuirà pure la gt300, esclusivamente per la fascia alta e medio alta.

cosa c'è di difficile da capire non lo so...

poi,
tra gennaio / febbraio nessuno si aspetta un altra fascia performance (che apparterrebbe già alle gt200 attuali e prossime gt200c a 40nani).
ma ci si aspetta le schede di fascia alta GTX380 e 360.

grande tarpone ,io proprio questo intendevo come detto nella seconda ipotesi sopracitata:O

Mister Tarpone
30-06-2009, 23:47
io da quello che ha postato hal ho capito questo... byez
:ronf:

halduemilauno
01-07-2009, 09:54
praticamente il gt200c coprirebbe dalla fascia bassa fino alla fascia media ,dando un ulteriore rinnovatina alle auttuali schede. e rendendole ancor + economiche da produrre...passando a 40nani
poi a fine 2009 inizio 2010 escuirà pure la gt300, esclusivamente per la fascia alta e medio alta.

cosa c'è di difficile da capire non lo so...

poi,
tra gennaio / febbraio nessuno si aspetta un altra fascia performance (che a quel punto sarà delle gt200 attuali e prossime gt200c a 40nani).
ma ci si aspetta le schede di fascia alta GTX380 e 360.

no il GT200C coprirebbe la fascia medioalta in attesa che la fascia alta vada ad esser coperta dalle GTX serie 3XX e credo che il chip GT200C non vada ad equipaggiare tutte le attuali GTX serie 2XX.
cmq ecco un'interessante confronto tra le attuali 9400GT/9500GT e le future G210/GT220...
http://www.hardware-infos.com/news.php?news=3045
;)

michelgaetano
01-07-2009, 10:35
no il GT200C coprirebbe la fascia medioalta in attesa che la fascia alta vada ad esser coperta dalle GTX serie 3XX e credo che il chip GT200C non vada ad equipaggiare tutte le attuali GTX serie 2XX.
cmq ecco un'interessante confronto tra le attuali 9400GT/9500GT e le future G210/GT220...
http://www.hardware-infos.com/news.php?news=3045
;)

Quindi hal vedremo o meno le attuali GT200 a 40nm? O sarà solo, chessò, per le attuali 9600 gt, 9800 gtx, gts 250?

zorco
01-07-2009, 10:40
quindi potremmo avere gtx285+ ecc..?:D

DVD2005
01-07-2009, 11:28
quindi potremmo avere gtx285+ ecc..?:D

Ad ogni modo è un pò intricata la questione :p

michelgaetano
01-07-2009, 11:42
Ad ogni modo è un pò intricata la questione :p

Tra le altre cose, ho paura per i nomi :stordita:

Simedan1985
01-07-2009, 11:59
quindi potremmo avere gtx285+ ecc..?:D

NN dirlo manco per scherzo:eek: ....ho appena preso una gtx275 :D

atomo37
01-07-2009, 13:19
quindi potremmo avere gtx285+ ecc..?:D

da quello che ho capito per ora questi 40nm vanno ad equipaggiare le schede di fascia bassa, da 50/100$
correggetemi se sbaglio.

Mister Tarpone
01-07-2009, 13:33
bho vedremo..

halduemilauno
01-07-2009, 13:41
da quello che ho capito per ora questi 40nm vanno ad equipaggiare le schede di fascia bassa, da 50/100$
correggetemi se sbaglio.

per ora dai 30 ai 50/60$.
;)

Mister Tarpone
01-07-2009, 13:43
per ora dai 30 ai 50/60$.
;)

compriamoci un bel GT220 hal
;)

halduemilauno
01-07-2009, 14:02
compriamoci un bel GT220 hal
;)

preferisco puntare alla GTX370.
;)

Mister Tarpone
01-07-2009, 14:05
preferisco puntare alla GTX370.
;)

scherzavo hal :D

cmq concordo per la 370 :sborone:

halduemilauno
01-07-2009, 14:08
scherzavo hal :D

cmq concordo per la 370 :sborone:

lo so certo che scherzavi.
ciao.
;)

Mister Tarpone
01-07-2009, 14:31
lo so certo che scherzavi.
ciao.
;)

poi quando avremo la nostra GTX370 ti sfiderò in oc Hal :boxe:

hal edition vs tarpon edition..chi vincerà? :confused: :Perfido:

halduemilauno
01-07-2009, 14:40
poi quando avremo la nostra GTX370 ti sfiderò in oc Hal :boxe:

hal edition vs tarpon edition..chi vincerà? :confused: :Perfido:
nell'attesa di averle....
:boh: :winner: :Perfido: :friend: :mano: :fiufiu:

Mister Tarpone
01-07-2009, 14:45
nell'attesa di averle....
:boh: :winner: :Perfido: :friend: :mano: :fiufiu:

:eek: mi stupisci con tutti sti smile HAL :asd: :D

Andrea deluxe
07-07-2009, 06:37
ot

http://www.gamezine.co.uk/news/game-types/driving-and-racing/dirt-2-delayed-on-pc-use-directx-11-$1309367.htm

HaRdCoRe GaMeR
07-07-2009, 10:25
E insomma dovrò proprio prenderla subito la GTX3x0:D

http://www.hwupgrade.it/news/videogiochi/posticipato-dirt-2-su-pc-a-causa-del-supporto-directx-11_29533.html

michelgaetano
07-07-2009, 11:03
E insomma dovrò proprio prenderla subito la GTX3x0:D

http://www.hwupgrade.it/news/videogiochi/posticipato-dirt-2-su-pc-a-causa-del-supporto-directx-11_29533.html

Misa che se ti itneressa DiRT su dirx11 o prendi una Ati o aspetti un po', G300 sembra tardare.

Horizont
09-07-2009, 10:02
dove posso vedere la lista di vga che ci attendono?? :)
quale sarà la corrispettiva dell'attuale GTX275 (che quasi quasi intendevo comprare) o della GTX285???
thx :D

gelox15
09-07-2009, 10:08
cmq alla luce di queste ultime news/rumors aggiornata la prima pagina che riporto anche qui...
ed ecco quanto dovrebbe accadere nel corso del 2009...
GT212: Q2/2009 - Annullato in funzione del GT300.
GT206: Q2/2009 - Sostituita dal GT200C versione a 40nm del GT200.
GT214: Q3/2009 - Sostituita dal GT215 sostituta della 9600GT/9800GT.
GT216: Q3/2009 - Sostituta della 9500GT.
GT218: Q3/2009 - Sostituta della 9400GT.
GT300: Q4/2009 - Nuova architettura DX11 High-End.
GT304: Q1/2010 - Nuova architettura DX11 Performance.
ripeto rumors.
;)
ecco qui

Horizont
09-07-2009, 10:34
ecco qui

whoops, era in prima pagina, sorry, cmq grazie mille :D
avendo il topic salvato sull'ultima pagina (dell'epoca) non sono più tornato all'inizio :)

gelox15
09-07-2009, 11:21
whoops, era in prima pagina, sorry, cmq grazie mille :D
avendo il topic salvato sull'ultima pagina (dell'epoca) non sono più tornato all'inizio :)

no problem;)

supersalam
09-07-2009, 12:32
Con la scusa delle DX11 secondo me queste schede costeranno un botto al lancio. La palla non è aspettare che escano, ma aspettare che calino i prezzi.

halduemilauno
09-07-2009, 12:34
Con la scusa delle DX11 secondo me queste schede costeranno un botto al lancio. La palla non è aspettare che escano, ma aspettare che calino i prezzi.

la vera palla sarà aspettare i veri giochi DX11.

gelox15
09-07-2009, 12:38
la vera palla sarà aspettare i veri giochi DX11.

esatto,al di la del costo iniziale delle schede.....:muro:

ssj1000
09-07-2009, 15:56
Concordo in pieno, comprare subito le schede DX11 è assolutamente inutile per tre motivi:
1) Ci sarà la solita (squallida) speculazione e vedremo prezzi fuori mercato per i primi 2 mesi.
2) Giochi che le sfrutteranno sul serio arriveranno nel 2010 inoltrato, ad oggi una GTX285 ti fa girare qualsiasi cosa al massimo dettaglio (Crysis a parte, ovviamente). Tenete conto che ormai il mercato lo fanno le console e quelle non sono progettate per le DX11, dubito che vedremo molti giochi progettati in DX11, in maggior parte saranno programmati in DX10 con l'aggiunta di qualche effettuccio per far contento il popolino.
3) Come tutte le nuove architetture, le prime schede soffriranno di problemi di gioventù, driver poco ottimizzati, ecc.

IMHO è meglio aspettare la primavera 2010 per comprare ;)

Horizont
09-07-2009, 16:43
una GTX285 ti fa girare qualsiasi cosa al massimo dettaglio (Crysis a parte, ovviamente).

Ma io non capisco perchè ancora si dica "Crysis a parte"....e soprattutto cosa si intende per massimo...siamo arrivati ad un punto che anche la 275 tiene tranquillamente a quasi 50fps crysis a 1900...non credo ci sia un appagamento visivo maggiore di quello...persino con high e nessun filtro attivo a 1900 crysis è un orgasmo oculare.

scusate se è un po OT ma davvero non capisco più questo discorso...

io onestamente sto iniziando ad abbandonare l idea di comprare GT300 direttamente, forse passerò per GTX275, o 4890 mmmm, ci penserò.

ah poi domanda...ma le GTX260 ormai si trovano tutte a 55nm?

kinotto88
09-07-2009, 19:18
Ma io non capisco perchè ancora si dica "Crysis a parte"....e soprattutto cosa si intende per massimo...siamo arrivati ad un punto che anche la 275 tiene tranquillamente a quasi 50fps crysis a 1900..

prova a mettere l'AA 16x vsync on tutto in DX10 senza tweak e ne riparliamo....;)

appleroof
09-07-2009, 19:26
prova a mettere l'AA 16x vsync on tutto in DX10 senza tweak e ne riparliamo....;)

e che te ne fai, sopratutto in fullhd? :D

a me un 4x o addirittura un 2x di tipo box, a seconda dei giochi, basta e avanza...

Mister Tarpone
09-07-2009, 19:28
e che te ne fai, sopratutto in fullhd? :D

a me un 4x o addirittura un 2x di tipo box, a seconda dei giochi, basta e avanza...

quoto.. io gioco in full hd ed un aa superiore al 4x ho visto che non serve proprio a niente.
già il 4x rende la grafica perfetta.......

appleroof
09-07-2009, 19:30
quoto.. io gioco in full hd ed un aa superiore al 4x ho visto che non serve proprio a niente.
già il 4x rende la grafica perfetta.......

;) ;)

Mister Tarpone
09-07-2009, 19:31
;) ;)

;)
--;)

gelox15
09-07-2009, 20:10
quoto.. io gioco in full hd ed un aa superiore al 4x ho visto che non serve proprio a niente.
già il 4x rende la grafica perfetta.......

quoto: fullhd con crysis oltre aa 4x non serve....con 285

kinotto88
09-07-2009, 22:38
e che te ne fai, sopratutto in fullhd? :D

a me un 4x o addirittura un 2x di tipo box, a seconda dei giochi, basta e avanza...

quoto.. io gioco in full hd ed un aa superiore al 4x ho visto che non serve proprio a niente.
già il 4x rende la grafica perfetta.......

certo...
era per dire che nessuna attuale vga riesce a gestirlo a quelle impostazioni...nonostante possano non servire..:)

devAngnew
10-07-2009, 10:26
la vera palla sarà aspettare i veri giochi DX11.

Quoto ...

esatto,al di la del costo iniziale delle schede.....:muro:

Infatti visto l'andazzo del game indutry conviene attendere e non svenarsi subito con g300 & company....
Per quanto riguarda CMR dirt 2 bisogna effettivamente vedere se userà l'unità di tessellation e i compute shader (e le differenze con la versione dx 10) per la fisica anche se potrebbero usare CUDA o meglio le librerie per la fisica ad alto livello come physics (cosi farebbero prima anzichè riscrivere un motore fisico da zero) e saremo tutti più contenti anche i possesori di g8x e g2xx.
bha .... vedremo.
;)

Horizont
13-07-2009, 11:59
prova a mettere l'AA 16x vsync on tutto in DX10 senza tweak e ne riparliamo....;)

vabbè questo è ovvio, in realtà sapevo ci si riferisse a quello ma continuare a dire che crysis sia pesante e/o ingiocabile mi pare ormai un'assurdità...io ho la 8800GT e l ho giocato e finito in full hd godendo di una grafica fuori da ogni immaginazione a quel tempo ( e tutt ora onestamente).
Quindi dire che crysis è ingiocabile tutt ora è solo una scusa di chi ha la pretesa bambinesca di mettere "tutto al massimo" -_-

Andrea deluxe
22-07-2009, 14:15
vabbè questo è ovvio, in realtà sapevo ci si riferisse a quello ma continuare a dire che crysis sia pesante e/o ingiocabile mi pare ormai un'assurdità...io ho la 8800GT e l ho giocato e finito in full hd godendo di una grafica fuori da ogni immaginazione a quel tempo ( e tutt ora onestamente).
Quindi dire che crysis è ingiocabile tutt ora è solo una scusa di chi ha la pretesa bambinesca di mettere "tutto al massimo" -_-

chi si accontenta gode!

e beato te che ti accontenti.... (non scherzo)

Mister Tarpone
22-07-2009, 14:29
a giocarlo in full hd con la 8800gt, c'è da accontentarsi parecchio

Andrea deluxe
22-07-2009, 14:32
a giocarlo in full hd con la 8800gt, c'è da accontentarsi parecchio

infatti a me andava male con quad sli di 295....:cry:

Mister Tarpone
22-07-2009, 14:35
mah.. a me va bene con una 260 :asd: ovviamente niente AA (ma uso l'edgeAA del gioco @ 2x + il filtro AF) e dettagli high con qualche effetto very high modifcando i file del gioco

d.lo
22-07-2009, 14:53
Questo genere di 3D esiste per far salire il sangue marcio a chi ha appena cambiato vga? ..in altre parole è una forma di autolesionismo. :D

:asd: ma anche no basta vendere, è una ruota che gira XD

Andrea deluxe
22-07-2009, 14:56
Crysis è uno dei giochi più refrattari alle soluzioni multi-GPU. Si può dire che sia uno dei giochi più refrattari ad avere prestazioni esagerate :D

constatato a mie spese....

:hic:

Massy84
24-07-2009, 16:04
domanda: a conti fatti per vedere i nuovi GT300 anche in fascia mainstream bisognerà aspettare inizio 2010?

Simedan1985
24-07-2009, 17:40
Ragazzi qui tace omai tutto da troppo tempo ....e la cosa nn mi piace x niente:(

Simedan1985
24-07-2009, 17:41
domanda: a conti fatti per vedere i nuovi GT300 anche in fascia mainstream bisognerà aspettare inizio 2010?

Secondo me solo verso la fine del 2010 ....insomma devono smalti prima le scorte di Gt200b ,Gt200,G92 e mettiamoci anche G80:p

Horizont
24-07-2009, 17:42
chi si accontenta gode!

e beato te che ti accontenti.... (non scherzo)

qui non è questione di accontentarsi, mi spiace dirlo, ma è questione di usare un minimo di cervello.

Cioè, voglio dire, c è un EVIDENTE limite dove la grafica da brutta e ingiocabile diventa bella e gradevole...andare oltre è quasi superfluo. poi più penso ai filtri super dispendiosi in prestazioni e più penso che siano boiate inventate per poter far fare cassa alle produttrici di vga...e non solo...divertente poi quando questa corsa assurda all'avere "IL MASSIMO" coinvolge anche ram, hd ecc..

e cmq si, ho giocato con la 8800GT in full hd, non avevo un frame rate stellare ma con i dettagli a medium e filtri off giocavo ottimamente e con una grafica comunque da far uscire gli occhi dalle orbite! anche perchè già solo la risoluzione fa l 80% della bellezza alla vista di un videogame. L'importante è quello! avere una vga in grado di farti giocare a tutti i giochi con la risoluzione massima possibile....tutte le altre boiate relative ai filtri, ombre, bloom, hdr, aa, asd, lol, omg, ffs sì rendono il gioco ancora più apprezzabile ma sono secondarie.

altra cosa comica è che tutto ciò continua nonostante i prezzi siano calati in una maniera INCREDIBILE...la mia vga attualmente si trova a 70 euro online e pensare che fa giocare degnamente a qualsiasi gioco ancora adesso è assurdo. Ricordo ancora quando anni fa comprai la 7900GT a 349 euro e davanti aveva solo la 7900GTX e l'altra dual mi sembra, la 7900GX2....nonostante ciò dovevo scendere a compromessi con i giochi...e comunque se la cavava.

Simedan1985
24-07-2009, 17:46
Ragazzi ......mmi vien da ridere.Parlo x me ....x quello che mi riguarda crysis è una sfida :D ,nel senso che ho avuto la gtx295 ci gicavo benissimo sul mio iiyama tutto al max con vsinc e antialiasing a 2/4x.......
Il fatto è che io ci voglio giocare a manetta con i filtri 16q e fare 60 fps fissi:D
Ovviamente parlo x me prima di essere falciato:p

Andrea deluxe
24-07-2009, 17:57
Ragazzi ......mmi vien da ridere.Parlo x me ....x quello che mi riguarda crysis è una sfida :D ,nel senso che ho avuto la gtx295 ci gicavo benissimo sul mio iiyama tutto al max con vsinc e antialiasing a 2/4x.......
Il fatto è che io ci voglio giocare a manetta con i filtri 16q e fare 60 fps fissi:D
Ovviamente parlo x me prima di essere falciato:p

VOGLIO QUELLO CHE VUOI TU!:D

con le multi gpu non e' solo questione di numero max di fotogrammi.... ma a volte da molto fastidio il re-sync tra le gpu che magari butta giu' i fotogrammi per poi tornare su.....

Simedan1985
24-07-2009, 18:02
VOGLIO QUELLO CHE VUOI TU!:D

con le multi gpu non e' solo questione di numero max di fotogrammi.... ma a volte da molto fastidio il re-sync tra le gpu che magari butta giu' i fotogrammi per poi tornare su.....

Alla fine mi sono preso la 275 gioco al massimo a tutto ....e a crysis ci ripenso all'usciita del gt300,mi era sfiorata l'idea del quad sli ma poi per voci sentite ho lasciato stare:)


Pero pensiamo a una cosa ...stiamo aspettando delle schede che usciranno nel 2010 ....x riuscire a far girare un gioco del 2007

HaRdCoRe GaMeR
24-07-2009, 19:12
Ragazzi ......mmi vien da ridere.Parlo x me ....x quello che mi riguarda crysis è una sfida :D ,nel senso che ho avuto la gtx295 ci gicavo benissimo sul mio iiyama tutto al max con vsinc e antialiasing a 2/4x.......
Il fatto è che io ci voglio giocare a manetta con i filtri 16q e fare 60 fps fissi:D
Ovviamente parlo x me prima di essere falciato:p

Quoto...il mio obbiettivo è stare con un framerate minimo di 60fps con tutto al max con crysis wars;)

Horizont
24-07-2009, 21:18
ma giusto una cosa raga....ma non avete mai pensato che ci possa essere un impedimento oggettivo di programmazione per il quale non sia possibile raggiungere il massimo
per massimo intendo tutto al massimo con frame rate anche solo accettabile

Simedan1985
25-07-2009, 01:33
ma giusto una cosa raga....ma non avete mai pensato che ci possa essere un impedimento oggettivo di programmazione per il quale non sia possibile raggiungere il massimo
per massimo intendo tutto al massimo con frame rate anche solo accettabile

Io parlo sempre x me :Penso che crysis sia semplicemente un capolavoro ,e che il motore grafico per riprodurre tutto quel ben di Dio ha bisogno di potenza.Punto..... Poi ci puo stare che il motore grafico sia poco scalabile,ok.Ma semplicemente penso che crysis per il quasi fotorealismo che offre ,abbia bisogno solo di forza bruta per girare come intendo io,e al momento nessuna scheda ha questa caratteristica.Poi sembra strano che in due anni che sia uscito ,nn si sarebbero inventati qualche correzzione x farlo andare al massimo....Crysis è cosi.:sofico: .

Milotto
25-07-2009, 10:45
ma giusto una cosa raga....ma non avete mai pensato che ci possa essere un impedimento oggettivo di programmazione per il quale non sia possibile raggiungere il massimo
per massimo intendo tutto al massimo con frame rate anche solo accettabile

Quoto alla grande...ed aggiungo che il game in questione prima ancora d'esser tale è un motivo, se non il motivo, per il quale gli utonti cambiano VGA e config....:D

Horizont
25-07-2009, 14:18
E' quello che ho pensato fin dal momento in cui è uscito. E' un engine che non è pensato per funzionare, ma solo per stupire.

concordo alla grande.

è vero, Crysis è proprio così simedan...ma secondo me voi prendete la frase dal lato sbagliato...
ad ogni modo in questo caso buona fortuna coll'inventarvi i octa sli e altre future diavolerie per far andare crysis "al massimo"
la ricerca dell'assurdo proprio...

Crysis90
25-07-2009, 14:37
Ragazzi ......mmi vien da ridere.Parlo x me ....x quello che mi riguarda crysis è una sfida :D ,nel senso che ho avuto la gtx295 ci gicavo benissimo sul mio iiyama tutto al max con vsinc e antialiasing a 2/4x.......
Il fatto è che io ci voglio giocare a manetta con i filtri 16q e fare 60 fps fissi:D
Ovviamente parlo x me prima di essere falciato:p

Alla fine mi sono preso la 275 gioco al massimo a tutto ....e a crysis ci ripenso all'usciita del gt300,mi era sfiorata l'idea del quad sli ma poi per voci sentite ho lasciato stare:)


Pero pensiamo a una cosa ...stiamo aspettando delle schede che usciranno nel 2010 ....x riuscire a far girare un gioco del 2007

Io parlo sempre x me :Penso che crysis sia semplicemente un capolavoro ,e che il motore grafico per riprodurre tutto quel ben di Dio ha bisogno di potenza.Punto..... Poi ci puo stare che il motore grafico sia poco scalabile,ok.Ma semplicemente penso che crysis per il quasi fotorealismo che offre ,abbia bisogno solo di forza bruta per girare come intendo io,e al momento nessuna scheda ha questa caratteristica.Poi sembra strano che in due anni che sia uscito ,nn si sarebbero inventati qualche correzzione x farlo andare al massimo....Crysis è cosi.:sofico: .

Quoto, in tutto e per tutto!:O

Andrea deluxe
25-07-2009, 21:19
ot

la 9800 gt diventa gts 240

http://www.hardware-infos.com/news.php?news=3104

Simedan1985
26-07-2009, 12:58
Secondo me solo verso la fine del 2010 ....insomma devono smalti prima le scorte di Gt200b ,Gt200,G92 e mettiamoci anche G80:p

G92 è morto! Viva G92!

:asd:
Si lo ammetto a casa ho la palla di vetro e vedo il futuro....e anche le Pa+++ piene di schede di 3 anni fa:asd:

Marko91
26-07-2009, 15:48
http://translate.google.com/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F14552-geforce-g300-jiz-za-par-tydnu&sl=cs&tl=en&hl=en&ie=UTF-8


480sp
512bit
2 Gb GDDR5
1 Ottobre 2009
Dx11, stessa architettura di GT200

:D


OBR è la fonte, utente di XS a volte informato, a volte cazzaro. Prendetela con le pinze.

Simedan1985
26-07-2009, 16:39
http://translate.google.com/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F14552-geforce-g300-jiz-za-par-tydnu&sl=cs&tl=en&hl=en&ie=UTF-8


480sp
512bit
2 Gb GDDR5
1 Ottobre 2009
Dx11, stessa architettura di GT200

:D


OBR è la fonte, utente di XS a volte informato, a volte cazzaro. Prendetela con le pinze.

Alla fine sarebbe la soluzione prospettivata...l'ho sempre detto che io nn ci credo al gt300 in gennaio 2010....scusate ma troppe notizie blande e poco di concreto,lo stesso vale per Amd .....di certo sembra che ci siano solo le date di uscita ma sulle caratteristiche del chip tutto tace:stordita:

Foglia Morta
26-07-2009, 17:02
http://translate.google.com/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F14552-geforce-g300-jiz-za-par-tydnu&sl=cs&tl=en&hl=en&ie=UTF-8


480sp
512bit
2 Gb GDDR5
1 Ottobre 2009
Dx11, stessa architettura di GT200

:D


OBR è la fonte, utente di XS a volte informato, a volte cazzaro. Prendetela con le pinze.

più fake di così...

http://s4.directupload.net/images/090724/e7ttg4h2.jpg

http://pctuning.tyden.cz/images/stories/g300.png

Ale985
26-07-2009, 17:20
chi si accontenta gode!

e beato te che ti accontenti.... (non scherzo)

Con le schede attuali crysis te lo giochi anche bene...anche se setti tutto su high e non very high non credo che sia sto dramma a livello grafico :D

okorop
26-07-2009, 17:25
Con le schede attuali crysis te lo giochi anche bene...anche se setti tutto su high e non very high non credo che sia sto dramma a livello grafico :D

be l'effetto foschia non c'è in high.....fidatevi in very high cambia tutto giocato con 2 gtx285 e un i7 920 a 4.2ghz :asd:

Simedan1985
26-07-2009, 17:29
be l'effetto foschia non c'è in high.....fidatevi in very high cambia tutto giocato con 2 gtx285 e un i7 920 a 4.2ghz :asd:

Quotone

Ale985
26-07-2009, 17:32
be l'effetto foschia non c'è in high.....fidatevi in very high cambia tutto giocato con 2 gtx285 e un i7 920 a 4.2ghz :asd:

E belìn ci credo che fila liscio...con una configurazione così il cryengine 2 lo inchiapp...:ciapet: ....:D a 360 gradi....

Simedan1985
26-07-2009, 17:46
Cmq su ste schede troppa confusione ,rumors ma effettivamente nn si sa niente di niente...cioe nn mancano 10000 mesi al lancio eppure di sicuro nn c'è neanche 1%:(

Diobrando_21
26-07-2009, 18:03
be l'effetto foschia non c'è in high.....fidatevi in very high cambia tutto giocato con 2 gtx285 e un i7 920 a 4.2ghz :asd:
presente oko...sicuro va meglio, ma io i 60 fps in full hd nn li ho visti nemmeno da lontano...io l'ho giocato con tutti i dettagli al max ma ho preferito abbassare la risoluzione...

okorop
26-07-2009, 18:14
presente oko...sicuro va meglio, ma io i 60 fps in full hd nn li in visti nemmeno da lontano...io l'ho giocato con tutti i dettagli al max ma ho preferito abbassare la risoluzione...

e manco io dicevo solo che in fullhd con quella risoluzione era giocabile cosa che con una 4870x2 non lo era ;)

Diobrando_21
26-07-2009, 18:29
e manco io dicevo solo che in fullhd con quella risoluzione era giocabile cosa che con una 4870x2 non lo era ;)
nn ho idea di come vada su una 4870x2 però anke a 35-40 fps x quanto bello nn è che sia tutto sto giocabile :(...opinione personale ovviamente :)

okorop
26-07-2009, 20:51
nn ho idea di come vada su una 4870x2 però anke a 35-40 fps x quanto bello nn è che sia tutto sto giocabile :(...opinione personale ovviamente :)

si si hai ragione anche per me a quei frame è poco giocabile.....:)

d.lo
26-07-2009, 23:32
si si hai ragione anche per me a quei frame è poco giocabile.....:)

guardate sarò io che vengo da console ma dire che con quei fps è poco giocabile mi pare una gran cavolata...
per me un gioco è difficilmente giocabile sotto i 30 e ingiocabile sotto i 25...dai trenta in su la velocità di aggiornamento su schermo rende la situazione perfettamente reale tanto che la differenza tra i 30 e 60 è sempre secondo me non poi cosi percepibile per non parlare dei over 60 fps praticamente impercepibile...

Diobrando_21
27-07-2009, 08:43
guardate sarò io che vengo da console ma dire che con quei fps è poco giocabile mi pare una gran cavolata...
per me un gioco è difficilmente giocabile sotto i 30 e ingiocabile sotto i 25...dai trenta in su la velocità di aggiornamento su schermo rende la situazione perfettamente reale tanto che la differenza tra i 30 e 60 è sempre secondo me non poi cosi percepibile per non parlare dei over 60 fps praticamente impercepibile...
scusa se guardi la mia firma anch'io vengo da console e ti giuro che nn ho nessuna intenzione di tornarci...in questo caso c'è da dire che noi intendiamo ingiocabile nel senso che nn accetteremmo mai quei fps anche se effettivamente ci si potrebbe giocare, ovviamente trattasi di gusti soggettivi...ma obbiettivamente parlando nn puoi dire che tra 30 e i 60 cambia poco, xké c'è proprio un abisso. Certo salendo ancora le differenze si assottigliano, ma ci sono cmq. Hai mai giocato su un monitor 120hz? Prova, e poi mi dirai ;)

Simedan1985
27-07-2009, 08:47
scusa se guardi la mia firma anch'io vengo da console e ti giuro che nn ho nessuna intenzione di tornarci...in questo caso c'è da dire che noi intendiamo ingiocabile nel senso che nn accetteremmo mai quei fps anche se effettivamente ci si potrebbe giocare, ovviamente trattasi di gusti soggettivi...ma obbiettivamente parlando nn puoi dire che tra 30 e i 60 cambia poco, xké c'è proprio un abisso. Certo salendo ancora le differenze si assottigliano, ma ci sono cmq. Hai mai giocato su un monitor 120hz? Prova, e poi mi dirai ;)

Quoto.....io riesco ad accoggermi se gioco a ,30 45 o 60 fps :)

Diobrando_21
27-07-2009, 09:59
Quoto.....io riesco ad accoggermi se gioco a ,30 45 o 60 fps :)

si anch'io...e da poco ho sperimentato l'ebrezza di giocare a 120hz e al contrario di quello che credevo anche lì la differenza si vede...cmq senza essere troppo pignolo sto bene con i miei 60hz dove la fluidità è già perfetta...;)

d.lo
27-07-2009, 10:54
scusa se guardi la mia firma anch'io vengo da console e ti giuro che nn ho nessuna intenzione di tornarci...in questo caso c'è da dire che noi intendiamo ingiocabile nel senso che nn accetteremmo mai quei fps anche se effettivamente ci si potrebbe giocare, ovviamente trattasi di gusti soggettivi...ma obbiettivamente parlando nn puoi dire che tra 30 e i 60 cambia poco, xké c'è proprio un abisso. Certo salendo ancora le differenze si assottigliano, ma ci sono cmq. Hai mai giocato su un monitor 120hz? Prova, e poi mi dirai ;)

ok dai io ho voglia di provarlo tu mi dai i soldi e siamo apposto ok?:ubriachi:

no be allora che siete scontenti degli fps è un conto ma dire che non è giocabile mi viene quasi male al cuore..(non per'altro ma perchè più o meno escludeno il processore sono quasi al vostro livello...e dopo aver speso un sacco di soldi, beh mi viene male al cuore :D )comunque si tra 30 e 60 fps la differenza è palpabile non un abisso...

Diobrando_21
27-07-2009, 18:53
ok dai io ho voglia di provarlo tu mi dai i soldi e siamo apposto ok?:ubriachi:

no be allora che siete scontenti degli fps è un conto ma dire che non è giocabile mi viene quasi male al cuore..(non per'altro ma perchè più o meno escludeno il processore sono quasi al vostro livello...e dopo aver speso un sacco di soldi, beh mi viene male al cuore :D )comunque si tra 30 e 60 fps la differenza è palpabile non un abisso...

no non farti venire male al cuore, ma sei matto :D...hai un signor sistema e non ti credere che vai peggio di me...sto solo dicendo che è una questione di gusti, io preferisco tenere sempre al max i dettagli e giocare sulla risoluzione e filtri per avere un'ottima fluidità (in quei pochi casi in cui è necessario)...per quanto riguarda le differenze tra 30 e 60 però non posso quotarti perché secondo me è abissale, tra 60 e 120 è minore ma c'è e purtroppo non posso aiutarti a provarlo perché non me lo sono comprato nemmeno io :p, però ho avuto il piacere di provarlo e obbiettivamente devo riconoscerne il merito, tutto qua ;)

michelgaetano
27-07-2009, 19:11
Tra 60 e 120 non può esserci differenza, è fuori dalla portata dei nostri occhi proprio :mbe:

Se poi parliamo di schifezze come CoD dove chi fa più fps ha accesso a determinate cose, è un altro discorso :stordita:

kinotto88
27-07-2009, 19:14
no non farti venire male al cuore, ma sei matto :D...hai un signor sistema e non ti credere che vai peggio di me...sto solo dicendo che è una questione di gusti, io preferisco tenere sempre al max i dettagli e giocare sulla risoluzione e filtri per avere un'ottima fluidità (in quei pochi casi in cui è necessario)...per quanto riguarda le differenze tra 30 e 60 però non posso quotarti perché secondo me è abissale, tra 60 e 120 è minore ma c'è e purtroppo non posso aiutarti a provarlo perché non me lo sono comprato nemmeno io :p, però ho avuto il piacere di provarlo e obbiettivamente devo riconoscerne il merito, tutto qua ;)

non capisco che differenza ci possa essere passando da 60 a 120hz..come ben saprai l'occhio umano non percepisce alcuna differenza sopra i 60frame, magari è una sensazione..;)

Diobrando_21
27-07-2009, 20:01
Tra 60 e 120 non può esserci differenza, è fuori dalla portata dei nostri occhi proprio :mbe:

Se poi parliamo di schifezze come CoD dove chi fa più fps ha accesso a determinate cose, è un altro discorso :stordita:

non capisco che differenza ci possa essere passando da 60 a 120hz..come ben saprai l'occhio umano non percepisce alcuna differenza sopra i 60frame, magari è una sensazione..;)

ragazzi mi spiace contraddirvi ma la differenza c'è...si vede subito nel desktop appena si spostano le finestre ed anche nei giochi...inoltre avevo letto da qualche parte (sto cercando la fonte ma è difficile ritrovarla) che un occhio ben allenato può percepire le differenze fino a 200hz...cmq la mia non è una sensazione, se anche voi provaste un monitor 120hz mi dareste ragione, non penso di avere un super occhio...

sinfoni
27-07-2009, 20:09
non capisco che differenza ci possa essere passando da 60 a 120hz..come ben saprai l'occhio umano non percepisce alcuna differenza sopra i 60frame, magari è una sensazione..;)

L'occhio non le percepisce già dai 30 fps!

Posso essere ripetitivo, ma i problemi nei games è la fluidità data dalla ottimizzazione, infatti nelle console i 30 fps costanti sembrano i 60 fps sui pc.

Inoltre anni orsono è stato creato il blur trucco per dare una maggiore velocità algi stessi che però oggi viene abbusato come nella ps3 (chissà come mai :asd:) che è una console difficile da programmare e rendere un gioco ottimizzato ai massimi livelli!

Buon proseguimento!

Foglia Morta
27-07-2009, 20:16
dice inizio 2010...

http://www.fudzilla.com/content/view/14810/1/

GT300 to launch in Q4 2009

Late, but volume shipment in Q1

Once more we have confirmed that the chip that we call GT300 is on schedule to launch in 2009. The way it looks now the chip should be launching roughly in November timeframe and of course it will be a high end product.

Nvidia has put in a lot of effort in order to beat ATI and keep the performance leadership, as this is something it cannot afford to lose. The real volume shipment of Nvidia’s new DirectX 11, 40nm high end part should be expected in early Q1 2010 but since $599+ products are not selling in millions of units, Nvidia should be able to ship sufficient cards to consumers.

Even if something goes wrong, Nvidia will still show its hardware in late Q4 2009 just as they did with Geforce GTX 295 dual chip and ship it in early Q1 2010, as the strategy worked last time.

Diobrando_21
27-07-2009, 20:55
L'occhio non le percepisce già dai 30 fps!

Posso essere ripetitivo, ma i problemi nei games è la fluidità data dalla ottimizzazione, infatti nelle console i 30 fps costanti sembrano i 60 fps sui pc.

Inoltre anni orsono è stato creato il blur trucco per dare una maggiore velocità algi stessi che però oggi viene abbusato come nella ps3 (chissà come mai :asd:) che è una console difficile da programmare e rendere un gioco ottimizzato ai massimi livelli!

Buon proseguimento!

guarda non serve essere ripetitivo, la fluidità è data dal corretto funzionamento degli occhi, se tu non percepisci neanche valori sopra i 30 fps vuol dire che hai bisogno di un immediata visita da un oculista :cool: (senza ironia e senza offesa)...poi spiegami 'sta cosa dei 30 fps su console che sembrano 60 perché mi sa che hai bisogno anche di un buon tencnico per console/PC...

non capisco perché la gente divulghi queste oscenità, affermazioni senza cognizione di causa :doh:

michelgaetano
27-07-2009, 21:11
ragazzi mi spiace contraddirvi ma la differenza c'è...si vede subito nel desktop appena si spostano le finestre ed anche nei giochi...inoltre avevo letto da qualche parte (sto cercando la fonte ma è difficile ritrovarla) che un occhio ben allenato può percepire le differenze fino a 200hz...cmq la mia non è una sensazione, se anche voi provaste un monitor 120hz mi dareste ragione, non penso di avere un super occhio...

Se hai qualche prova o link postalo, ma fino a prova contraria tutti concordiamo sulla stessa cosa, non penso stiamo semplicemente inventando ^^"

michelgaetano
27-07-2009, 21:13
guarda non serve essere ripetitivo, la fluidità è data dal corretto funzionamento degli occhi, se tu non percepisci neanche valori sopra i 30 fps vuol dire che hai bisogno di un immediata visita da un oculista :cool: (senza ironia e senza offesa)...poi spiegami 'sta cosa dei 30 fps su console che sembrano 60 perché mi sa che hai bisogno anche di un buon tencnico per console/PC...

non capisco perché la gente divulghi queste oscenità, affermazioni senza cognizione di causa :doh:

Non davvero, e ti dico che dipende dal gioco e dal suo engine.

In UT3 ho problemi se dai 60 frames scendo ai 50, ma Crysis l'ho sempre giocato a dettagli medio-alti con una 8800 gts 512 (anche schede peggiori, ma ora ho questa) e lo trovo giocabilissimo, tralasciando lì dove la scheda non ce la fa e i frames droppano sotto i 30.

Ale985
27-07-2009, 22:17
Confermo. Per quanto il motore di Crysis sia un mattone, e sapete quanto male gli voglio, è uno dei meno fastidiosi quando scende di fps, sarà il motion blur o non so cosa ma il risultato è particolarmente giocabile anche a framerate considerati solitamente bassi.

Credo sia proprio io motion blur...un comportamento simili l'ho notato nella demo di resident evil 5 quando scendevo a 40 fps nel bench variabile

michelgaetano
27-07-2009, 22:18
Confermo. Per quanto il motore di Crysis sia un mattone, e sapete quanto male gli voglio, è uno dei meno fastidiosi quando scende di fps, sarà il motion blur o non so cosa ma il risultato è particolarmente giocabile anche a framerate considerati solitamente bassi.

Sul blur posso risponderti che non è lui a c'entrare sulla cosa, o almeno dalle mie esperienze.
Io lo gioc(av)o senza perchè lo trovo semplicemente irreale (de gustibus, suppongo), ma anche quando era attivato rimaneva fluido e giocabile, seppur lontanissimo dai mirabolanti 60 frames. Certo le prestazioni era più basse, ma rimaneva okay.

Diobrando_21
27-07-2009, 23:14
Se hai qualche prova o link postalo, ma fino a prova contraria tutti concordiamo sulla stessa cosa, non penso stiamo semplicemente inventando ^^"

non penso stiate inventando, ci mancherebbe...penso solo che dobbiate provarlo e poi esprimere un giudizio, in finale anche io pensavo la vostra stessa cosa ma non c'è niente di meglio che l'esperienza personale, no?

io intanto cerco la fonte sarei felice di mostrarvela...intanto voi però cercate di provare i 120hz così poi possiamo parlarne meglio...

Andrea deluxe
27-07-2009, 23:15
edit

Diobrando_21
27-07-2009, 23:20
Non davvero, e ti dico che dipende dal gioco e dal suo engine.

In UT3 ho problemi se dai 60 frames scendo ai 50, ma Crysis l'ho sempre giocato a dettagli medio-alti con una 8800 gts 512 (anche schede peggiori, ma ora ho questa) e lo trovo giocabilissimo, tralasciando lì dove la scheda non ce la fa e i frames droppano sotto i 30.

no...possiamo parlarne per un mese intero, non esistono engine che tengano...i 30 sono i 30 i 60 sono i 60, punto...io me ne accorgo e come me tanti altri, e ribadisco di non avere un super occhio. Come in tutte le cose è solo questione di abitudine, l'occhio può essere ingannato ed abituarsi ai 30 e SEMBRARE fluido ma non lo è...o cmq non come i 60fps...

michelgaetano
27-07-2009, 23:22
no...possiamo parlarne per un mese intero, non esistono engine che tengano...i 30 sono i 30 i 60 sono i 60, punto...io me ne accorgo e come me tanti altri, e ribadisco di non avere un super occhio. Come in tutte le cose è solo questione di abitudine, l'occhio può essere ingannato ed abituarsi ai 30 e SEMBRARE fluido ma non lo è...o cmq non come i 60fps...

Scusami brando, ma punto un bel niente. Come vale la tua opinione qui vale la mia e quella di ogni altro, finchè non dimostri quel che dici.

Per me è fluido e come tale rimane, e se leggi quel che han scritto ratatosk e ale vedrai che non sono il solo.

RaZoR93
27-07-2009, 23:26
L'occhio non le percepisce già dai 30 fps!

Posso essere ripetitivo, ma i problemi nei games è la fluidità data dalla ottimizzazione, infatti nelle console i 30 fps costanti sembrano i 60 fps sui pc.
Assolutamente no :rotfl: L'occhio umano è in grado di percepire fino ai 75-120/130 fotogrammi al secondo

http://gaming.ngi.it/showthread.php?t=50218 Basta con la leggenda dei 30fps. ;)

ArCH85
27-07-2009, 23:30
Assolutamente no :rotfl: L'occhio umano è in grado di percepire fino ai 75-120/130 fotogrammi al secondo

http://gaming.ngi.it/showthread.php?t=50218 Basta con la leggenda dei 30fps. ;)

a lavoro abbiamo messo vicini il samsung a 120hz e un normale monitor a 60hz, la differenza l'abbiamo notata tutti subito..

vi invito ad andare in un mediamondo qualsiasi che abbia il suddetto monitor e provare con i vostri occhi :)

michelgaetano
27-07-2009, 23:35
Assolutamente no :rotfl: L'occhio umano è in grado di percepire fino ai 75-120/130 fotogrammi al secondo

http://gaming.ngi.it/showthread.php?t=50218 Basta con la leggenda dei 30fps. ;)

Dove quel link del 1999 dice che a 120 frames si gioca meglio?

kinotto88
27-07-2009, 23:36
ho trovato questo confronto..link (http://www.youtube.com/watch?v=_fSNbbkIEBk)

michelgaetano
27-07-2009, 23:42
Non vedo molto da quel link però.

Prima comunque che veniamo tutti sospesi per OT, che qualcuno apra un thread apposito o si chiuda la questione.

Diobrando_21
27-07-2009, 23:45
Assolutamente no :rotfl: L'occhio umano è in grado di percepire fino ai 75-120/130 fotogrammi al secondo

http://gaming.ngi.it/showthread.php?t=50218 Basta con la leggenda dei 30fps. ;)

a lavoro abbiamo messo vicini il samsung a 120hz e un normale monitor a 60hz, la differenza l'abbiamo notata tutti subito..

vi invito ad andare in un mediamondo qualsiasi che abbia il suddetto monitor e provare con i vostri occhi :)

quoto...infatti come ho già detto prima dovreste provare e poi giudicare...

kinotto88
27-07-2009, 23:46
Non vedo molto da quel link però.


appunto..:)

chiuso OT

Diobrando_21
27-07-2009, 23:51
appunto..:)

chiuso OT

appunto che? ma secondo te si può vedere la differenza su un filmato di youtube senza nemmeno sapere in che condizione è stato girato? magari ti ci dovevi trovare per essere obbiettivo, no? cmq non è che se io ho ragione ci guadagno qualcosa, andate a vedere e poi mi dite è inutile continuare a parlare di un discorso senza che nemmeno abbiate l'esperienza per giudicare, indipendentemente da qualuque fonte o link...

michelgaetano
27-07-2009, 23:57
appunto che? ma secondo te si può vedere la differenza su un filmato di youtube senza nemmeno sapere in che condizione è stato girato? magari ti ci dovevi trovare per essere obbiettivo, no? cmq non è che se io ho ragione ci guadagno qualcosa, andate a vedere e poi mi dite è inutile continuare a parlare di un discorso senza che nemmeno abbiate l'esperienza per giudicare, indipendentemente da qualuque fonte o link...

Non puoi però parlare di esperienza mancante senza aver chiesto ai diretti interessati.

Io prima avevo un vecchio CRT, la cui frequenza era se non ricordo male 90hz (con l'attuale lcd non posso andare oltre il 60 a 1680*1050). COn quello ci giocavo UT2k4, al quale ho giocato anche con questo. E no, la differenza non l'ho minimamente notata, nonostante di frames ne facessi fin troppi.

Ad ogni modo io chiudo qui, di venir sospeso per una cavolata sugli hz non ne ho davvero voglia, vediamo di tornare a parlare di G300.

Diobrando_21
28-07-2009, 00:24
Non puoi però parlare di esperienza mancante senza aver chiesto ai diretti interessati.

Io prima avevo un vecchio CRT, la cui frequenza era se non ricordo male 90hz (con l'attuale lcd non posso andare oltre il 60 a 1680*1050). COn quello ci giocavo UT2k4, al quale ho giocato anche con questo. E no, la differenza non l'ho minimamente notata, nonostante di frames ne facessi fin troppi.

Ad ogni modo io chiudo qui, di venir sospeso per una cavolata sugli hz non ne ho davvero voglia, vediamo di tornare a parlare di G300.

beh magari potevi farlo presente prima, visto che è dalla prima risposta che ti ho dato che ti avevo chiesto di provarlo ;) ...cmq sia ho anche specificato che oltre i 60 le differenze si assottigliano quindi tra 60 e 90 è sicuramente più difficile notare la differenze ma tra 60 e 120 (quindi il doppio) potrebbe essere diverso...cmq concludiamo l'ot e se magari si aprirà un 3d a riguardo ne torneremo a parlare a patto che tutti provino prima i 120hz però...ciao

Crysis90
28-07-2009, 09:54
Ecco cosa diceva stamani Fudzilla:

Once more we have confirmed that the chip that we call GT300 is on schedule to launch in 2009. The way it looks now the chip should be launching roughly in November timeframe and of course it will be a high end product.

Nvidia has put in a lot of effort in order to beat ATI and keep the performance leadership, as this is something it cannot afford to lose. The real volume shipment of Nvidia’s new DirectX 11, 40nm high end part should be expected in early Q1 2010 but since $599+ products are not selling in millions of units, Nvidia should be able to ship sufficient cards to consumers.

Even if something goes wrong, Nvidia will still show its hardware in late Q4 2009 just as they did with Geforce GTX 295 dual chip and ship it in early Q1 2010, as the strategy worked last time.

Secondo loro, GT300 uscirà a Novembre, esattamente 3 anni dopo G80...:winner:
Interessante anche questa:

http://www.fudzilla.com/content/view/14814/1/

atomo37
28-07-2009, 10:14
Ecco cosa diceva stamani Fudzilla:

Once more we have confirmed that the chip that we call GT300 is on schedule to launch in 2009. The way it looks now the chip should be launching roughly in November timeframe and of course it will be a high end product.

Nvidia has put in a lot of effort in order to beat ATI and keep the performance leadership, as this is something it cannot afford to lose. The real volume shipment of Nvidia’s new DirectX 11, 40nm high end part should be expected in early Q1 2010 but since $599+ products are not selling in millions of units, Nvidia should be able to ship sufficient cards to consumers.

Even if something goes wrong, Nvidia will still show its hardware in late Q4 2009 just as they did with Geforce GTX 295 dual chip and ship it in early Q1 2010, as the strategy worked last time.

Secondo loro, GT300 uscirà a Novembre, esattamente 3 anni dopo G80...:winner:
Interessante anche questa:

http://www.fudzilla.com/content/view/14814/1/

proprio curioso di vedere questo gt300, non mi dispiacerebbe farci girate il nuovo need for speed a natale :)

devAngnew
28-07-2009, 10:22
Bhe c'è anche da dire che la news dice che il lancio di g300 è previsto per novembre ma che l'arrivo in volumi delle schede sarà per il 1 quadrimestre.
Speriamo che ciò non faccia costare le prime schede di novembre uno sproposito....

:D

DVD2005
28-07-2009, 11:04
Bhe c'è anche da dire che la news dice che il lancio di g300 è previsto per novembre ma che l'arrivo in volumi delle schede sarà per il 1 quadrimestre.
Speriamo che ciò non faccia costare le prime schede di novembre uno sproposito....

:D

se sarà davvero così, costeranno un botto eccome.

Diobrando_21
28-07-2009, 11:51
OT

per chiunque sia interessato approfondire il discorso sulla convenienza o meno dei 120hz, c'è il 3d ufficiale del monitor samsung syncmaster 2233rz 120hz, ciao

fine OT

Legolas84
29-07-2009, 13:23
Mi pare di capire che questa scheda una data di uscita ancora non la ha...

Volevo tornare ai pc desktop dopo qualche anno e l'occasione buona era G300 + Win 7.... peccato....

michelgaetano
29-07-2009, 13:27
Mi pare di capire che questa scheda una data di uscita ancora non la ha...

Volevo tornare ai pc desktop dopo qualche anno e l'occasione buona era G300 + Win 7.... peccato....

Si parla di fine 2009, ma questa data sembra più un paper launch in vista della disponibilità ad inizio 2010.

Ma non è ancora certo.

Legolas84
29-07-2009, 13:31
Si parla di fine 2009, ma questa data sembra più un paper launch in vista della disponibilità ad inizio 2010.

Ma non è ancora certo.

Peccato, volevo farmi il pc cazzuto per Risen e Dragon Age... però a questo punto forse andrò sulla X360 perchè quei giochi escono ad Ottobre e di prendere una GTX295 per vederla vecchia dopo pochi mesi non mi sembra il caso....

michelgaetano
29-07-2009, 14:04
Peccato, volevo farmi il pc cazzuto per Risen e Dragon Age... però a questo punto forse andrò sulla X360 perchè quei giochi escono ad Ottobre e di prendere una GTX295 per vederla vecchia dopo pochi mesi non mi sembra il caso....

Beh non penso che un RV870 (le nuova directx 11 Ati in uscita a settembre) sia così poco cazzuto :stordita:

ippo.g
29-07-2009, 14:04
a cosa dovrebbero servire le g300?

Andrea deluxe
29-07-2009, 14:23
a cosa dovrebbero servire le g300?

ho ancora nel comodino gta4

poi vorrei rigiocarmi tutti i crysis al max

colinMcRae DIRT 2

arma 2

prototype (si va a scatti)

nfs shift

bioshock 2

etc

ippo.g
29-07-2009, 14:29
ho ancora nel comodino gta4

poi vorrei rigiocarmi tutti i crysis al max

colinMcRae DIRT 2

arma 2

prototype (si va a scatti)

nfs shift

bioshock 2

etc

non credo che g300 ti risolverà i problemi che hai con questi giochi, tranne crysis

Milotto
29-07-2009, 15:30
a cosa dovrebbero servire le g300?

Se propio non vuoi usarlo per giocarci...considerate le sue dimensioni puoi sempre utilizzarlo come piastrella e farci una graziosa cucina in muratura...CyberFashion....!

FreeMan
29-07-2009, 15:42
Se propio non vuoi usarlo per giocarci...considerate le sue dimensioni puoi sempre utilizzarlo come piastrella e farci una graziosa cucina in muratura...CyberFashion....!

da ora, post utili, tnx

>bYeZ<

Mister Tarpone
29-07-2009, 15:44
ho ancora nel comodino gta4

poi vorrei rigiocarmi tutti i crysis al max

colinMcRae DIRT 2

arma 2

prototype (si va a scatti)

nfs shift

bioshock 2

etc

per giocare bene con bioshok 2, nfs shift basteranno le attuali schede. ma anche per colin mcrae dirt 2...anche se non in modalità dx11.
ma credo che (come al solito) il 99% della qualità grafica si vedrà già in dx9..e con buone prestazioni :asd:

Mister Tarpone
29-07-2009, 15:49
**fixed**

stai scherzando?

voglio dire. se già con una vga tipo la mia (pesantemente occata :asd:) si riesce a giocarlo in full hd con un misto high - very high, con edge AA attivato ed anche il filtro af, non vedo perchè un GT300 (che sarà un altro pianeta rispetto una gtx260) non dovrebbe riuscire a farlo girare al max dettaglio con pure un leggero AA attivato alla solita risoluzione e con buoni fps.

Mister Tarpone
29-07-2009, 15:52
da ora, post utili, tnx

>bYeZ<

quotone ;)

Legolas84
29-07-2009, 16:10
Beh non penso che un RV870 (le nuova directx 11 Ati in uscita a settembre) sia così poco cazzuto :stordita:

La mia ultima ATi è stata R300... e lo rimarrà per sempre....

Adesso devo solo vedere se farmi la X360 (che ha una scheda ATi lo so ma è una cosa diversa) o una GTX295...

Escono troppi giochi interessanti ad ottobre....

sinfoni
29-07-2009, 16:43
stai scherzando?

voglio dire. se già con una vga tipo la mia (pesantemente occata :asd:) si riesce a giocarlo in full hd con un misto high - very high, con edge AA attivato ed anche il filtro af, non vedo perchè un GT300 (che sarà un altro pianeta rispetto una gtx260) non dovrebbe riuscire a farlo girare al max dettaglio con pure un leggero AA attivato alla solita risoluzione e con buoni fps.

Mah..io ho provato per curiosità crysis warhaed la vga con tutto al max e senza AA non riesce a stare neanche a 30 fps..:rolleyes:

Se abbasso a gamer ho picchi di 40 fps ma croli anche a 20 fps...questo a 1680*1050!

Vorrei capire se il primo crysis è + leggero o ho qualche problema io nel pc

Mister Tarpone
29-07-2009, 16:51
mah, son pesi uguali + o -

cmq se leggi bene ho
scritto con MISTO high - very high,non tutto very high che è troppo per le attuali vga a singola gpu

cmq con tutto very high a livello di bench con warhead faccio 30fps a 1920x1080 nel test ambush (quello + peso). che cmq logicamente non bastano per giocare bene in tutte le situazioni.

mentre invece è fattibile giocarci decentemente con un misto high - very high

Mister Tarpone
29-07-2009, 16:59
anche il primo crysis con tutto very high non è fattibile.

ma se si modificano alcuni files per attivare qualche effetto very high, a 1920x1080 diventa fattibilissimo.

a livello di bench con le modifiche fatte da me faccio 43fps @ 1920x1080, solo 7fps persi rispetto a tutto high, e la grafica rulla di brutto, ci perde poco rispetto a tutto very high :D

poi, concordo con chi dice che ci si gioca bene anche se in alcuni punti i fps non sono molti. è vero, si sente fluido lo stesso. non ho mai capito perchè ma è così nel caso di crysis.

Andrea deluxe
30-07-2009, 07:14
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/

Crysis90
30-07-2009, 09:26
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/

:winner:

michelgaetano
30-07-2009, 10:42
Quindi Febbraio se va tutto liscio

Così tanto? Minchia...

zorco
30-07-2009, 10:48
Così tanto? Minchia...

...signor tenente:D

michelgaetano
30-07-2009, 11:31
...signor tenente:D

Mi è partita :asd:

Si sapeva:

- un nuovo chip gigantesco
- le ovvie difficoltà di un progetto completamente nuovo
- un p.p. che si è dimostrato disastroso, almeno agli inizi

A mettere tutte queste cose insieme se a Febbraio ce la fanno mi sembra che sia andata anche troppo bene.

Sapevo il tutto, ma pensavo riuscissero ugualmente per gennaio...

Mister Tarpone
30-07-2009, 11:37
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/

buona notizia via :D

Crysis90
30-07-2009, 11:38
Cavolo mi toccherà aspettare inizio 2010 per rigiocare a qlc??? Che disgrazia...con la X550 che mi ritrovo adesso in atesa di GT300, è un miracolo se posso giocare al solitario...:D

Mister Tarpone
30-07-2009, 11:45
in effetti con quella vga sei messo proprio male :asd:

appleroof
30-07-2009, 11:47
Quindi Febbraio se va tutto liscio

Bisogna vedere quale dei due rumors é vero, se questo o quello che dava per fatto il tape out alcune settimane fa...curioso come vi siano le parti invertite rispetto al lancio delle dx10 e vista

Cmq poco male, non sono ancora deciso a cambiare vga entro fine anno ed inoltre l`architettura nvidia a questo giro pare essere rivoluzionaria rispetto a quella ati... Vedremo : )

michelgaetano
30-07-2009, 11:52
Bisogna vedere quale dei due rumors é vero, se questo o quello che dava per fatto il tape out alcune settimane fa...curioso come vi siano le parti invertite rispetto al lancio delle dx10 e vista

Cmq poco male, non sono ancora deciso a cambiare vga entro fine anno ed inoltre l`architettura nvidia a questo giro pare essere rivoluzionaria rispetto a quella ati... Vedremo : )

Idem, infatti prima aspetterò che escano entrambe...

Però cavolo a febbraio, speriamo un po' prima :|

Mister Tarpone
30-07-2009, 11:58
alla fine cmq è una buona notizia considerando che fino a poco tempo fa si dubitava di sto tape out del gt300... ed invece a sto punto almeno pare confermato giusto?

poi anche se la scheda esce a gennaio / febbraio a me andrebbe bene uguale... tanto da qui fino all'arrivo del monster non credo che uscirà niente capace di mettere in ginocchio la mia attuale config. :fagiano:!!