View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Forse di più del 10%.. certo non sarebbe un cambiamento generazionale, ma perlomeno terrebbero un po' di mercato e potrebbero rimandare GT 300.. ;)
ho fatto dei test con la gtx285 con la gpu a 850mhz e sp lincati si guadagnavano pochissimi frame, va pero' detto che saran messe le gddr5 che dovrebbero aumentare la banda ma non credo che riescano ad apportare un vantaggio assai significativo rispetto alle precedenti gddr3 in termini di prestazioni :)
Uno shrink serve a ridurre i costi -> rebrand di GTX285 in Geforce 3xx per la fascia media
tipo come hanno fatto con la gts250 rebrand di rebrand di g92...
michelgaetano
17-09-2009, 17:56
No, come hanno fatto con la 9800GTX+ rebrand della 8800GTS 512, dopo un shrink. Il passaggio 9800->GTS250 è stato un rebrand puro senza shrink nel mezzo.
Per fare chiarezza, aggiungo.
:asd: :asd:
No, come hanno fatto con la 9800GTX+ rebrand della 8800GTS 512, dopo un shrink. Il passaggio 9800->GTS250 è stato un rebrand puro senza shrink nel mezzo.
Quanto potrebbero arrivare a 40 nm? a 1,2 ghz stock? io credo sarebbe possibile dato che il calore si ridurrebbe data la riduzione del processo produttivo e mantenendo la stessa architettura..(ovviamente dovrebbero aumentare parecchio le tensioni).. con le GDDR 5 penso che un bel boost prestazionale ci potrebbe essere lo stesso (ovviamente non aumenta linearmente ma credo in un 20-30% in più almeno..).. certo 1,2 ghz stock di gpu sarebbero una bella frequenza.. oltre la 4890 che se non ricordo male è quella con la freq più alta sulla gpu (versioni overcloccate)... ma non penso che sarebbe impossibile :O magari poi ritirerebbero fuori una cosa del genere tipo sandwich con 2 pcb ed ecco un altro anno di G80 :eek: :D
michelgaetano
17-09-2009, 18:19
Quanto potrebbero arrivare a 40 nm? a 1,2 ghz stock? io credo sarebbe possibile dato che il calore si ridurrebbe data la riduzione del processo produttivo e mantenendo la stessa architettura..(ovviamente dovrebbero aumentare parecchio le tensioni).. con le GDDR 5 penso che un bel boost prestazionale ci potrebbe essere lo stesso (ovviamente non aumenta linearmente ma credo in un 20-30% in più almeno..).. certo 1,2 ghz stock di gpu sarebbero una bella frequenza.. oltre la 4890 che se non ricordo male è quella con la freq più alta sulla gpu (versioni overcloccate)... ma non penso che sarebbe impossibile :O magari poi ritirerebbero fuori una cosa del genere tipo sandwich con 2 pcb ed ecco un altro anno di G80 :eek: :D
1200 ma di core? :mbe:
Su una architettura che passando da 65 a 55 nm è rimasta sotto i 600 di stock (a default sulla 260 216)? Non credo proprio :stordita:
1200 ma di core? :mbe:
Su una architettura che passando da 65 a 55 nm è rimasta sotto i 600 di stock (a default sulla 260 216)? Non credo proprio :stordita:
vabé la 4890 a quella freq ci arriva.. a quanto pensi potrebbero arrivare 1 ghz?:D
michelgaetano
17-09-2009, 18:23
vabé la 4890 a quella freq ci arriva.. a quanto pensi potrebbero arrivare 1 ghz?:D
La 4890 parte da 850, un ipotetico shrink a 40 nm visto quanto salgono le Nvidia attuali (intorno ai 150 di core, decina in più decina in meno), dovrebbe partire appunto da una frequenza simile, facciamo 800. Su una scheda come la 260 significherebbe passare da 576 a 800.
Lo trovi fattibile? :stordita:
La 4890 parte da 850, un ipotetico shrink a 40 nm visto quanto salgono le Nvidia attuali (intorno ai 150 di core, decina in più decina in meno), dovrebbe partire appunto da una frequenza simile, facciamo 800. Su una scheda come la 260 significherebbe passare da 576 a 800.
Lo trovi fattibile? :stordita:
ma alla fine ratatosk ha detto che 850 mhz li ha presi.. quindi penso che con la riduzione del proc prooduttivo a 900 mhz potrebbero arrivarci.. (o no?)
Per la 4890 mi pare che il massimo delle versioni overclocked fosse sui 950 mhz ma sotto overclock con liquido o altro si potesse arrivare a 1,1-1,2
No, come hanno fatto con la 9800GTX+ rebrand della 8800GTS 512, dopo un shrink. Il passaggio 9800->GTS250 è stato un rebrand puro senza shrink nel mezzo.
giusto giusto:D
vabé la 4890 a quella freq ci arriva.. a quanto pensi potrebbero arrivare 1 ghz?:D
macché 1gz, già è tanto se arrivano a default, stock, sui 700 :Perfido: , ed in overclock sugli 830-850 .. Ad essere molto ottimisti
:confused:
850 li ho presi con una 4870, è un'architettura diversa, non si possono fare confronti di frequenze a cuor leggero ;)
scusa avevo capito male allora.. io non ho mai avuto una scheda serie 2 di nvidia :D .. avevo capito che avevi occato a 850 la 285
io non parlavo della strategia parlavo di prestazioni. cmq le strategie sono diverse? si. sono migliori? il mercato deve dirlo e nvidia è sempre in vantaggio e non di poco(ultime dati dicono 63 vs 34)e da diversi anni ormai.
tutto qui.
Io penso che sia importante il rapporto prezzo-prestazioni, non le prestazioni a sé stanti. Tirare fuori un mostro di scheda che però costa un occhio della testa ed è fuori mercato, che ha un costo di produzione troppo elevato a monte, la ritengo una pessima scelta.
Perché ? Perché la cosa fondamentale è il guadagno per singola unità, in termini di costo durante l'assemblaggio della stessa. E' fondamentale avere un core che costa poco per avere maggiori margini di guadagno, magari da investire su altri progetti a lungo termine, in R&D.
Ad esempio date un'occhiata a questa tabella, sono presenti alcuni errori (in verde scuro) ma il resto dovrebbe essere grossomodo corretto (anche i 19$ del dissipatore della 285 non sono corretti, costano poco meno, idem per la 275 che però al contempo ha un costo leggerissimamente inferiore per le ram onboard) :
http://www.pctunerup.com/up/results/_200909/20090917202514_costoschedevideomod.JPG
Guardate quanto nvidia carica su una singola 285 a livello di MarketPrice(MP) rispetto a quanto costa la scheda video in sé. E guardate quanto costa una 4870 contro una 9800gtx oppure la gts250 avente 1gb GDDR3. Il core della 4890 costa quasi la metà di quello della 285 e fatevi due conti sui costi di produzione spropositati della 295 ! Questo significa che le dual sono soluzioni solo per guadagnare lo scettro delle prestazioni, i ricavi sono molto contenuti (il costo dovrebbe essere circa il MP della singola 275)
Con la 4870 ati ha fatto davvero un ottimo lavoro. Nvidia non è restata a guardare, certo, ma ha dovuto pagare parecchio per rimettersi in carreggiata nella fascia medio alta (80-180$), in termini di incassi mancati e contrazione dei ricavi.
appleroof
17-09-2009, 21:37
Io penso che sia importante il rapporto prezzo-prestazioni, non le prestazioni a sé stanti. Tirare fuori un mostro di scheda che però costa un occhio della testa ed è fuori mercato, che ha un costo di produzione troppo elevato a monte, la ritengo una pessima scelta.
Perché ? Perché la cosa fondamentale è il guadagno per singola unità, in termini di costo durante l'assemblaggio della stessa. E' fondamentale avere un core che costa poco per avere maggiori margini di guadagno, magari da investire su altri progetti a lungo termine, in R&D.
Ad esempio date un'occhiata a questa tabella, sono presenti alcuni errori (in verde scuro) ma il resto dovrebbe essere grossomodo corretto (anche i 19$ del dissipatore della 285 non sono corretti, costano poco meno, idem per la 275 che però al contempo ha un costo leggerissimamente inferiore per le ram onboard) :
http://www.pctunerup.com/up/results/_200909/20090917202514_costoschedevideomod.JPG
Guardate quanto nvidia carica su una singola 285 a livello di MarketPrice(MP) rispetto a quanto costa la scheda video in sé. E guardate quanto costa una 4870 contro una 9800gtx oppure la gts250 avente 1gb GDDR3. Il core della 4890 costa quasi la metà di quello della 285 e fatevi due conti sui costi di produzione spropositati della 295 ! Questo significa che le dual sono soluzioni solo per guadagnare lo scettro delle prestazioni, i ricavi sono molto contenuti (il costo dovrebbe essere circa il MP della singola 275)
Con la 4870 ati ha fatto davvero un ottimo lavoro. Nvidia non è restata a guardare, certo, ma ha dovuto pagare parecchio per rimettersi in carreggiata nella fascia medio alta (80-180$), in termini di incassi mancati e contrazione dei ricavi.
interessantissimo le distanze sono molto mnori di quanto credessi...ma da dove proviene questo grafico?
Kharonte85
17-09-2009, 21:41
interessantissimo le distanze sono molto mnori di quanto credessi...ma da dove proviene questo grafico?
Quelle Ram Gddr3 tiratissime di Nvidia....lo sospettavo che costassero un patrimonio...:fagiano:
appleroof
17-09-2009, 21:44
Quelle Ram Gddr3 tiratissime di Nvidia....lo sospettavo che costassero un patrimonio...:fagiano:
si incidono parecchio...
edit: letto male :P
Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?
No. Semplicemente tenderanno a scegliere il motore fisico che gli consentirà la massima compatibilità. Per lo stesso motivo per cui il CryEngine2, nonostante sia un motore grafico di qualità, non vende un cavolo mentre UE3 è diffusissimo.
Se ciò fosse vero così come nVidia ha scritto il layer CUDA tra PhysX e GPU, perchè non potrebbe scriverlo in OpenCL ?
E' vero che oggi l'operazione ha come scopo primario quello di vendere schede video, ma poichè l'uso di PhysX da parte degli sviluppatori è un ricavo per nVidia che ha quindi interesse nel vendere il numero più alto di licenze, questo potrebbe giustificare anche un porting su OpenCL, mentenendo il layer CUDA e forse promuovere un nuovo slogan, PhysX Run Better On CUDA :)
Perchè significherebbe ammettere il fallimento di CUDA, ergo buttare nel cesso altri soldi di R&D spesi negli anni passati. Poi ti dirò, penso che per evitare il tracollo e sprecare anche i soldi spesi per acquistare PhysX, prima che cada in disuso lo convertiranno per OpenCL e buonanotte al secchio (e a CUDA).
appleroof
17-09-2009, 22:19
No. Semplicemente tenderanno a scegliere il motore fisico che gli consentirà la massima compatibilità. Per lo stesso motivo per cui il CryEngine2, nonostante sia un motore grafico di qualità, non vende un cavolo mentre UE3 è diffusissimo.
Perchè significherebbe ammettere il fallimento di CUDA, ergo buttare nel cesso altri soldi di R&D spesi negli anni passati. Poi ti dirò, penso che per evitare il tracollo e sprecare anche i soldi spesi per acquistare PhysX, prima che cada in disuso lo convertiranno per OpenCL e buonanotte al secchio (e a CUDA).
credo sia appena il caso di sottolineare che si è aperta una nuova "guerra" su questo fronte, immagino che tutto ciò che riguardi la fisica nei giochi la farà da padrone nei mesi a venire, sarà interessante vedere come finirà: io credo che vincerà come sempre lo standard più comune, ma quello proprietario rimarrà cmq un valore aggiunto di modo che physx lo sarà di certo, havock -che mi pare giri su cpu in mancanza di gpu compatibile- no; opencl la avranno entrambe.
Nessuno ha fretta di niente.. l'unico a doverlo avere è nvidia, perchè se non fa uscire niente di nuovo in pochi mesi rischia di perdere quote di mercato :)
Per giocare a cosa poi? eh hai ragione, le esigenze individuali possono essere molto diverse ;)
Per Gt300? Conterà nel computo totale una percentuale che non arriva all'1%, e anche se le esigenze sono diverse il software è sempre, anzi quasi sempre, dx9 e anche i futuri titoli che si prospettano molto venduti, Diablo 3 e Starcraft 2, scelgono questa via.
Secondo me è tempo di introdurre qualcosa di diverso e staccato dal passato, ed è quello che sta tentando di fare Nvidia, e in parte anche Intel.
halduemilauno
18-09-2009, 09:22
http://www.tomshw.it/news.php?newsid=19419
Le prime GPU GT300 sono nelle mani di Nvidia, ma le rese produttive sarebbero drammaticamente ridotte, tanto che la data di vendita delle prime schede è in dubbio.
Non più novembre inoltrato o dicembre, ma l'arrivo sul mercato potrebbe slittare al 2010, con somma gioia di AMD. Le indiscrezioni che circolano in rete su questo chip - prodotto a 40 nanometri e con supporto alle DirectX 11 - non sono certamente confortanti. Tuttavia, si tratta di notizie non ufficiali.
I dati riportano di un chip con un'area di 452mm², per una produzione per wafer di circa un centinaio di chip. "TSMC ha dichiarato di avere una resa del 60% sulla tecnologia a 40 nanometri con chip di fascia media. La resa sul chip GT300 potrebbe essere attualmente tra il 30 e il 50 percento", specula il sito Xbitlabs. Il sito SemiAccurate dipinge un quadro addirittura tragico, affermando che su quattro wafer prodotti, i chip funzionanti sarebbero stati solamente sette, per una resa approssimativa pari al 2%.
Informazioni e numeri a parte, è chiaro che il progetto GT300 non potrà contrastare le schede ATI Radeon HD 5800 in tempi brevi, lasciando ad AMD l'esclusiva DirectX 11 per diverso tempo, forse tutta la stagione natalizia.
;)
Per Gt300? Conterà nel computo totale una percentuale che non arriva all'1%, e anche se le esigenze sono diverse il software è sempre, anzi quasi sempre, dx9 e anche i futuri titoli che si prospettano molto venduti, Diablo 3 e Starcraft 2, scelgono questa via.
Secondo me è tempo di introdurre qualcosa di diverso e staccato dal passato, ed è quello che sta tentando di fare Nvidia, e in parte anche Intel.
La percentuale di persone che compra schede >200€ è molto più alta di così...
In quella fascia di prezzo NVidia per mesi non avrà nulla per controbattere, perchè non ci sarà una sola scheda NVidia che sia una valida alternativa, a meno di scelte disinformate.
Tra un mese anche dai 100€ in su non avrà nulla per contrastare le HD5770-50...
Sull'introdurre qualcosa di nuovo, lo sta facendo anche ATI, e tra l'altro basato su standard aperti e non chiusi come CUDA, questi ultimi indubbiamente destinati a morte prematura.
L'unica vera innovazione sarà l'approccio di Larrabee, ma NVidia non può proporre (e non proporrà) nulla di comparabile, perchè le manca il know-how sulle cpu.
appleroof
18-09-2009, 09:38
In presenza di DirectCompute e OpenCL io credo che difficilmente PhysX potrà anche solo essere un valore aggiunto. Ovviamente parlo del PhysX su GPU, quello che si è visto su 12 giochi da quando esiste. Quello per CPU, essendo comunque generale, potrà ricavarsi una sua nicchia (non dimentichiamoci che per mettere PhysX o Havok in un giochino bisogna dare dei soldini rispettivamente a nVidia e Intel, quindi anche qui se la giocheranno di concorrenza).
Chiaro che nel momento in cui PhysX dovesse appoggiarsi a OpenCL, la concorrenza fra i due sarebbe a tutto campo, ma non sarebbe più un valore aggiunto per nVidia (ammesso sempre che 12 giochi che attivato PhysX vanno da schifo siano un valore aggiunto).
nel momento in cui anche 1 solo gioco(ne) supporterebbe physx (mi pare Mafia 2 lo farà), questo sarebbe già un valore aggiunto, ti pare?
Il concetto è: le nuove vga Ati e le vga Nvidia supportano opencl e tutte le altre diavolerie comuni; le vga Nvidia anche physx=se c'è quel dato gioco supporta physx, la vga Nvidia ha un valore aggiunto; che poi a te e a me ce ne potrebbe fregare, questo non toglie che oggettivamente sia così ;)
p.s.: non so se quei 12 giochi vanno da schifo perchè sono programmati male o perchè le attuali vga Nvidia non ce la fanno a gestirli bene, ma qui si parla delle future vga Nvidia. :)
La percentuale di persone che compra schede >200€ è molto più alta di così...
In quella fascia di prezzo NVidia per mesi non avrà nulla per controbattere, perchè non ci sarà una sola scheda NVidia che sia una valida alternativa, a meno di scelte disinformate.
Tra un mese anche dai 100€ in su non avrà nulla per contrastare le HD5770-50...
Sull'introdurre qualcosa di nuovo, lo sta facendo anche ATI, e tra l'altro basato su standard aperti e non chiusi come CUDA, questi ultimi indubbiamente destinati a morte prematura.
L'unica vera innovazione sarà l'approccio di Larrabee, ma NVidia non può proporre (e non proporrà) nulla di comparabile, perchè le manca il know-how sulle cpu.
Sembra che già sai come andrà a finire, per me il mercato reagisce a delle esigenze in gran parte, poi c'è una nicchia di appassionati che apre la strada a nuove tecnologie, sarà così anche adesso, ma sinceramente non si parla di una generazione di stacco, si parla di un mercato in gran parte con windows xp e Dx9 che dovrebbe passare di botto a Seven e dx11 con schede relative senza alcun software annunciato che giustifichi il passo, almeno Dx10 avevano come campione il deludente Crysis, ripeto, ora, che cosa c'è?
Sai cosa potrebbe cambiare veramente le carte in tavola, e questo lo sostengo da mesi? Ep3 nuovo engine Dx11 nativo, ecco allora che Nvidia rivivrebbe il periodo Fx di rincorsa.
halduemilauno
18-09-2009, 10:18
http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html
Dopo mesi di attesa per vedere le novità prodotto che caratterizzeranno il mese di Ottobre, NVIDIA, nel corso di una conferenza con gli analisti finanziari, ha affermato che le nuove librerie DirectX 11 non rappresenteranno un importante traino per le vendite di schede grafiche discrete. Secondo la società la vera svolta sarà rappresentata dalle funzionalità "general purpose", e, solo la continua e progressiva diffusione di nuovi software in grado di supportare correttamente l'accelerazione grafica sarà un grande stimolo per il mercato.
"Le DirectX 11 da sole non rappresentano una buona e valida ragione per comprare una nuova GPU. Potrà certo essere una delle ragioni, ma non quella determinante. Le nuove API sono il frutto del lavoro di Microsoft, che intende riuscire a portare maggiore libertà per lo sviluppo e maggiore creatività e facilità di utilizzo, il che rappresenta una cosa buona, ma di certo non rappresenta un fattore determinante per investire in una nuova GPU". Così si è espresso Mike Hard, vice presidente delle relazioni con gli investitori per NVIDIA, nel corso della conferenza tenuta mercoledì.
Le parole del portavoce societario cadono stranamente in prossimità dell'arrivo sul mercato della nuova famiglia di GPU ATI, Radeon HD 5800, la prima a supportare correttamente DirectX 11. NVIDIA, al momento, non sembra avere nulla di pronto per le nuove API Microsoft, almeno nell'immediato.
Il colosso californiano ritiene inoltre che il vero futuro delle attuali GPU sia rappresentato non tanto dalle performance grafiche, quanto dalle capacità computazionali delle stesse, non solo per i videogiochi (che sempre più integreranno calcoli inerenti la fisica), ma anche per i diversi e nuovi scenari di utilizzo.
Mike Hard ha poi continuato il suo discorso affermando: "L'industria delle schede grafiche, credo, si trova oggi nello stesso punto in cui l'industria dei microprocessori si è trovata diversi anni fa, quando AMD rese pubblico che le frequenze di funzionamento non erano più rilevanti, ma contavano le performance per watt. Oggi, quindi ci troviamo allo stesso bivio: fps e risoluzioni rappresentano certamente qualcosa di importante, ma oggi fare 120 o 125fps non cambia l'esperienza di gioco. Stereo 3D, PhysX sono invece elementi che cambiano radicalmente l'esperienza dei videogiocatori, e la nuova generazione di schede video NVIDIA sarà sviluppata e dedicata proprio per garantire un maggior potere computazionale in questa direzione."
Più che una semplice affermazione, il discorso portato avanti dalla società rappresenta un cambio di direzione e strategia, non più incentrato sul mero mercato delle schede video e dei videogiochi, ma verso altri scenari. Già in passato, con il passaggio di scettro da David Kirk a Bill Dally, la società aveva dimostrato, anche se indirettamente, di aver preso una scelta importante.
;)
PS credo che si tratti di Mike Hara.
michelgaetano
18-09-2009, 10:31
nel momento in cui anche 1 solo gioco(ne) supporterebbe physx (mi pare Mafia 2 lo farà), questo sarebbe già un valore aggiunto, ti pare?
Il concetto è: le nuove vga Ati e le vga Nvidia supportano opencl e tutte le altre diavolerie comuni; le vga Nvidia anche physx=se c'è quel dato gioco supporta physx, la vga Nvidia ha un valore aggiunto; che poi a te e a me ce ne potrebbe fregare, questo non toglie che oggettivamente sia così ;)
p.s.: non so se quei 12 giochi vanno da schifo perchè sono programmati male o perchè le attuali vga Nvidia non ce la fanno a gestirli bene, ma qui si parla delle future vga Nvidia. :)
Secondo me rimarrebbe sì un valore aggiunto, ma a patto che non ti costringa a dover acquistare una scheda dedicata alla fisica solo per attivare gli effetti. Cioè una GTX 280 non può non arrivare a 30 frames in Batman con PhysX attivato... (e il fatto che secondo Santa Clara una GTS 250 sia meglio di una 5870 perchè ha appunto PhysX in Arkham Asylum fa capire come davvero certe dichiarazioni sono solo tentativi di sminuire la concorrenza - sarei curioso di vedere come va peraltro, ma non ho il gioco e la mia 8800 gts presto andrà a fare visita a quelli della Twintech :cry:)
appleroof
18-09-2009, 10:41
Secondo me rimarrebbe sì un valore aggiunto, ma a patto che non ti costringa a dover acquistare una scheda dedicata alla fisica solo per attivare gli effetti. Cioè una GTX 280 non può non arrivare a 30 frames in Batman con PhysX attivato... (e il fatto che secondo Santa Clara una GTS 250 sia meglio di una 5870 perchè ha appunto PhysX in Arkham Asylum fa capire come davvero certe dichiarazioni sono solo tentativi di sminuire la concorrenza - sarei curioso di vedere come va peraltro, ma non ho il gioco e la mia 8800 gts presto andrà a fare visita a quelli della Twintech :cry:)
bè 30 fps con tutto attivato a me vanno benissimo, non lo dico per dire. In assoluto mi rendo conto che ad altri non possono andare bene...ma ribadisco che qui si parla di future vga Nvidia, che si presumono molto più potenti delle attuali.
http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html
Dopo mesi di attesa per vedere le novità prodotto che caratterizzeranno il mese di Ottobre, NVIDIA, nel corso di una conferenza con gli analisti finanziari, ha affermato che le nuove librerie DirectX 11 non rappresenteranno un importante traino per le vendite di schede grafiche discrete. Secondo la società la vera svolta sarà rappresentata dalle funzionalità "general purpose", e, solo la continua e progressiva diffusione di nuovi software in grado di supportare correttamente l'accelerazione grafica sarà un grande stimolo per il mercato.
"Le DirectX 11 da sole non rappresentano una buona e valida ragione per comprare una nuova GPU. Potrà certo essere una delle ragioni, ma non quella determinante. Le nuove API sono il frutto del lavoro di Microsoft, che intende riuscire a portare maggiore libertà per lo sviluppo e maggiore creatività e facilità di utilizzo, il che rappresenta una cosa buona, ma di certo non rappresenta un fattore determinante per investire in una nuova GPU". Così si è espresso Mike Hard, vice presidente delle relazioni con gli investitori per NVIDIA, nel corso della conferenza tenuta mercoledì.
Le parole del portavoce societario cadono stranamente in prossimità dell'arrivo sul mercato della nuova famiglia di GPU ATI, Radeon HD 5800, la prima a supportare correttamente DirectX 11. NVIDIA, al momento, non sembra avere nulla di pronto per le nuove API Microsoft, almeno nell'immediato.
Il colosso californiano ritiene inoltre che il vero futuro delle attuali GPU sia rappresentato non tanto dalle performance grafiche, quanto dalle capacità computazionali delle stesse, non solo per i videogiochi (che sempre più integreranno calcoli inerenti la fisica), ma anche per i diversi e nuovi scenari di utilizzo.
Mike Hard ha poi continuato il suo discorso affermando: "L'industria delle schede grafiche, credo, si trova oggi nello stesso punto in cui l'industria dei microprocessori si è trovata diversi anni fa, quando AMD rese pubblico che le frequenze di funzionamento non erano più rilevanti, ma contavano le performance per watt. Oggi, quindi ci troviamo allo stesso bivio: fps e risoluzioni rappresentano certamente qualcosa di importante, ma oggi fare 120 o 125fps non cambia l'esperienza di gioco. Stereo 3D, PhysX sono invece elementi che cambiano radicalmente l'esperienza dei videogiocatori, e la nuova generazione di schede video NVIDIA sarà sviluppata e dedicata proprio per garantire un maggior potere computazionale in questa direzione."
Più che una semplice affermazione, il discorso portato avanti dalla società rappresenta un cambio di direzione e strategia, non più incentrato sul mero mercato delle schede video e dei videogiochi, ma verso altri scenari. Già in passato, con il passaggio di scettro da David Kirk a Bill Dally, la società aveva dimostrato, anche se indirettamente, di aver preso una scelta importante.
;)
PS credo che si tratti di Mike Hara.
Ammesso che ogni opinione è rispettabile, non mi sento di condivederla in toto, visto che quando uscì G80 la situazione era sostanzialmente la medesima però a ruoli invertiti e lo stesso discorso lo faceva Ati. O no ?
michelgaetano
18-09-2009, 10:52
bè 30 fps con tutto attivato a me vanno benissimo, non lo dico per dire. In assoluto mi rendo conto che ad altri non possono andare bene...ma ribadisco che qui si parla di future vga Nvidia, che si presumono molto più potenti delle attuali.
Ah certamente, mi riferivo più che altro a quello che abbiamo ora sul mercato e PhysX. Sul discorso 30 fps bastano, io a riguardo ho concluso che dipende dai giochi. Cioè Crysis (:asd:) ad esempio si gioca bene itnrono a quei valori, ma ad altri come UT3 o Street Fighter IV non riesco davvero a giocarci. Forse dipende dal motore grafico :boh:
halduemilauno
18-09-2009, 10:53
Ammesso che ogni opinione è rispettabile, non mi sento di condivederla in toto, visto che quando uscì G80 la situazione era sostanzialmente la medesima però a ruoli invertiti e lo stesso discorso lo faceva Ati. O no ?
sono d'accordo con Te.
;)
appleroof
18-09-2009, 10:55
sono d'accordo con Te.
;)
pure io...:)
michelgaetano
18-09-2009, 10:56
sono d'accordo con Te.
;)
Beh sì.
Se ci pensiamo ragazzi, è sempre la politica che viene adottata quando non si è subito pronti a contrastare la concorrenza.
Toh, un supertitolo con Havok...
Ricordo male o quelli erano anche DirectX 10.1?
situazione dura per nvida dunque, con i 40nm dunque non c'è scampo riescono ad avere solo il 30% sulla resa produttiva comunque io non demordo penso che per novembre le gpu con gt300 saranno presentate sul mercato ovviamente a prezzi alti rispetto alla concorrenza visto che per produrne una ci vogliono 3 gpu.....per quanto riguara le dichiarazioni fatte da nvida riguardo le dx11 in primis le ha fatte per salvaguardare gli interessi degli investitori, ricordo che sia amd sia nvida sono s.p.a., e poi per riuscire a dissuadere alcuni consumatori dal comprare le vga della concorrenza
michelgaetano
18-09-2009, 10:58
situazione dura per nvida dunque, con i 40nm dunque non c'è scampo riescono ad avere solo il 30% sulla resa produttiva comunque io non demordo penso che per novembre le gpu con gt300 saranno presentate sul mercato ovviamente a prezzi alti rispetto alla concorrenza visto che per produrne una ci vogliono 3 gpu.....
Oddio novembre è poco più di un mese... mi sembra improbabile visto il quadro attuale... Strafelice di sbagliarmi, così iniziano a calare i prezzi :D
Oddio novembre è poco più di un mese... mi sembra improbabile visto il quadro attuale... Strafelice di sbagliarmi, così iniziano a calare i prezzi :D
prepariamoci a un gt300 molto costoso pero'....credo che sarà lanciato sul mercato a non meno di 600-700 euro, spero inoltre che in nvida riescano ad usare le gpu difettate per vga di altre fascie tipo una gtx360 castrata in sp rops ecc ecc
appleroof
18-09-2009, 11:04
Oddio novembre è poco più di un mese... mi sembra improbabile visto il quadro attuale... Strafelice di sbagliarmi, così iniziano a calare i prezzi :D
quoto...
prepariamoci a un gt300 molto costoso pero'....credo che sarà lanciato sul mercato a non meno di 600-700 euro, cut
scusa tanto la franchezza, ma come si fà ad affermare queste cose sulla base del nulla? Di certo Nvidia guadagnerà meno di Ati, stando al fatto che le rese produttive sono molto minori, ma questo non è direttamente collegato al prezzo di mercato: se le prestazioni fossero uguali o poco superiori a 5870 (o addirittura inferiori) stai pur certo che rinuncerebbero a lauti guadagni per salvaguardare un fattore importantissimo, la quota di mercato
senza contare che è meglio guadagnare 1$ che non vendere affatto :)
ovviamente a meno che ad Nvidia non si siano dati all'alcolismo :asd:
scusa tanto la franchezza, ma come si fà ad affermare queste cose sulla base del nulla? Di certo Nvidia guadagnerà meno di Ati, stando al fatto che le rese produttive sono molto minori, ma questo non è direttamente collegato al prezzo di mercato: se le prestazioni fossero uguali o poco superiori a 5870 (o addirittura inferiori) stai pur certo che rinuncerebbero a lauti guadagni per salvaguardare un fattore importantissimo, la quota di mercato
senza contare che è meglio guadagnare 1$ che non vendere affatto :)
ovviamente a meno che ad Nvidia non si siano dati all'alcolismo :asd:
io credo che gt300 andrà meglio delle nuove ati in uscita e avranno dalla loro tutto il supporto di cuda physx ecc dunque credo proprio che indipendentemente dalla rivale, che ovviamente batteranno in prestazioni, pur di fare uscire una vga potentissima per natale la faran costare veramente tanto....
per quanto riguarda le quote di mercato saranno sempre in testa, non sono le vga da 600-700 euro ad aumentarle ma quelle di fascia media o bassa considerando che le vga top danno fiducia agli azionisti.....
coccus80
18-09-2009, 11:14
http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html
Dopo mesi di attesa per vedere le novità prodotto che caratterizzeranno il mese di Ottobre, NVIDIA, nel corso di una conferenza con gli analisti finanziari, ha affermato che le nuove librerie DirectX 11 non rappresenteranno un importante traino per le vendite di schede grafiche discrete. Secondo la società la vera svolta sarà rappresentata dalle funzionalità "general purpose", e, solo la continua e progressiva diffusione di nuovi software in grado di supportare correttamente l'accelerazione grafica sarà un grande stimolo per il mercato.
"Le DirectX 11 da sole non rappresentano una buona e valida ragione per comprare una nuova GPU. Potrà certo essere una delle ragioni, ma non quella determinante. Le nuove API sono il frutto del lavoro di Microsoft, che intende riuscire a portare maggiore libertà per lo sviluppo e maggiore creatività e facilità di utilizzo, il che rappresenta una cosa buona, ma di certo non rappresenta un fattore determinante per investire in una nuova GPU". Così si è espresso Mike Hard, vice presidente delle relazioni con gli investitori per NVIDIA, nel corso della conferenza tenuta mercoledì.
Le parole del portavoce societario cadono stranamente in prossimità dell'arrivo sul mercato della nuova famiglia di GPU ATI, Radeon HD 5800, la prima a supportare correttamente DirectX 11. NVIDIA, al momento, non sembra avere nulla di pronto per le nuove API Microsoft, almeno nell'immediato.
Il colosso californiano ritiene inoltre che il vero futuro delle attuali GPU sia rappresentato non tanto dalle performance grafiche, quanto dalle capacità computazionali delle stesse, non solo per i videogiochi (che sempre più integreranno calcoli inerenti la fisica), ma anche per i diversi e nuovi scenari di utilizzo.
Mike Hard ha poi continuato il suo discorso affermando: "L'industria delle schede grafiche, credo, si trova oggi nello stesso punto in cui l'industria dei microprocessori si è trovata diversi anni fa, quando AMD rese pubblico che le frequenze di funzionamento non erano più rilevanti, ma contavano le performance per watt. Oggi, quindi ci troviamo allo stesso bivio: fps e risoluzioni rappresentano certamente qualcosa di importante, ma oggi fare 120 o 125fps non cambia l'esperienza di gioco. Stereo 3D, PhysX sono invece elementi che cambiano radicalmente l'esperienza dei videogiocatori, e la nuova generazione di schede video NVIDIA sarà sviluppata e dedicata proprio per garantire un maggior potere computazionale in questa direzione."
Più che una semplice affermazione, il discorso portato avanti dalla società rappresenta un cambio di direzione e strategia, non più incentrato sul mero mercato delle schede video e dei videogiochi, ma verso altri scenari. Già in passato, con il passaggio di scettro da David Kirk a Bill Dally, la società aveva dimostrato, anche se indirettamente, di aver preso una scelta importante.
;)
PS credo che si tratti di Mike Hara.
Domanda banale secondo voi, perchè in questo discorso di Mike Hara, non si è pronunciato minimamente sulle future vga gt300 e sulla concorrenza con Ati, non mi è ancora chiaro che strategia vuole adottare Nvidia e che cosa abbia in mente e se sta a guardare il probabile trionfo di ATI HD5870 in questi mesi antecedenti al periodo natalizio.
Coccus80. :)
halduemilauno
18-09-2009, 11:27
Domanda banale secondo voi, perchè in questo discorso di Mike Hara, non si è pronunciato minimamente sulle future vga gt300 e sulla concorrenza con Ati, non mi è ancora chiaro che strategia vuole adottare Nvidia e che cosa abbia in mente e se sta a guardare il probabile trionfo di ATI HD5870 in questi mesi antecedenti al periodo natalizio.
Coccus80. :)
Intanto perchè è politica della società non discutere di prodotti che non sono stati ufficialmente rilasciati. e lo stesso vale per i prodotti della concorrenza. Nvidia ne avrà, se vorrà, occasione il prossimo 30 settembre.
;)
appleroof
18-09-2009, 11:27
io credo che gt300 andrà meglio delle nuove ati in uscita e avranno dalla loro tutto il supporto di cuda physx ecc dunque credo proprio che indipendentemente dalla rivale, che ovviamente batteranno in prestazioni, pur di fare uscire una vga potentissima per natale la faran costare veramente tanto....
per quanto riguarda le quote di mercato saranno sempre in testa, non sono le vga da 600-700 euro ad aumentarle ma quelle di fascia media o bassa considerando che le vga top danno fiducia agli azionisti.....
scusa se insisto ma prima quando parlavo di "basarsi sul nulla" mi riferivo proprio a questo: non c'è alcuna certezza (quell' "ovviamente" che dici..) che sia come dici tu...:)
appleroof
18-09-2009, 11:29
Intanto perchè è politica della società non discutere di prodotti che non sono stati ufficialmente rilasciati. e lo stesso vale per i prodotti della concorrenza. Nvidia ne avrà, se vorrà, occasione il prossimo 30 settembre.
;)
ricordo ancora il silenzio assoluto su G80, addirittura sviavano completamente tutte le testate, compresa questa :)
halduemilauno
18-09-2009, 11:35
ricordo ancora il silenzio assoluto su G80, addirittura sviavano completamente tutte le testate, compresa questa :)
come le 6800 a 8/12 shader. che tempi.
;)
coccus80
18-09-2009, 11:38
Perché le presunte prestazioni allucinanti preferiscono farle sapere a Fuad per via traverse, in modo che nessuno possa dir loro qualcosa qualora non vadano a concretizzarsi.
Bella strategia allora se non dovesse andare importo qualcosa, sono protetti e sarà ancora piu' misteriosa le loro uscitè hardware future.
Intanto perchè è politica della società non discutere di prodotti che non sono stati ufficialmente rilasciati. e lo stesso vale per i prodotti della concorrenza. Nvidia ne avrà, se vorrà, occasione il prossimo 30 settembre.
;)
Ciao Hal :ave: , ogni tanto ci ritroviamo e grazie come sempre per la delucidazione in merito che hai espresso, confido nel 30 settembre in qualche bella notizia e imminente uscità in tempi brevi.
Coccus80. :)
halduemilauno
18-09-2009, 11:40
Bella strategia allora se non dovesse andare importo qualcosa, sono protetti e sarà ancora piu' misteriosa le loro uscitè hardware future.
Ciao Hal :ave: , ogni tanto ci ritroviamo e grazie come sempre per la delucidazione in merito che hai espresso, confido nel 30 settembre in qualche bella notizia e imminente uscità in tempi brevi.
Coccus80. :)
Ciao.
:mano:
appleroof
18-09-2009, 11:41
come le 6800 a 8/12 shader. che tempi.
;)
e che schede! :) ;)
halduemilauno
18-09-2009, 11:43
e che schede! :) ;)
certo specie quella vera a 16 shader.
;)
coccus80
18-09-2009, 11:50
Protetti? Se non hanno nulla chiamali protetti...
Protetti nel senso che si tutelano mettendo in giro su Fuda o d'altre parti come hai espresso e temporeggiano con indiscrezioni di dati sul chip gt300 in attesa che esca qualcosa di veritiero e ufficiale nei prossimi mesi, come dice Hal aspettiamo il 30 settembre e staremo a vedere.
Coccus80.
halduemilauno
18-09-2009, 11:53
Protetti nel senso che si tutelano mettendo in giro su Fuda o d'altre parti come hai espresso e temporeggiano con indiscrezioni di dati sul chip gt300 in attesa che esca qualcosa di veritiero e ufficiale nei prossimi mesi, come dice Hal aspettiamo il 30 settembre e staremo a vedere.
Coccus80.
Ho detto e ribadisco se avrà e se vorrà.
;)
scusa se insisto ma prima quando parlavo di "basarsi sul nulla" mi riferivo proprio a questo: non c'è alcuna certezza (quell' "ovviamente" che dici..) che sia come dici tu...:)
ci sono indiscrezioni di nvida che dicono proprio cosi: gt300 avrà delle prestazioni superiori rispetto alle ati. Ricordo inoltre che dato che il produttore dei chip è uguale 6 mesi prima sia Ati sia nvida sanno le caratteristiche e performance del chip concorrente
appleroof
18-09-2009, 12:01
ci sono indiscrezioni di nvida che dicono proprio cosi: gt300 avrà delle prestazioni superiori rispetto alle ati. Ricordo inoltre che dato che il produttore dei chip è uguale 6 mesi prima sia Ati sia nvida sanno le caratteristiche e performance del chip concorrente
bè io me lo auguro poi si vedrà... ;)
halduemilauno
18-09-2009, 12:54
GT300-A1 version of the core clock to Core: 700MHz, SP: 1600MHz. Stream Processor 512个。 Stream Processor 512 Ge.
GT300 GT300
绘图时脉(MHz) 700 MHz Drawing clock (MHz) 700 MHz
处理器时脉(MHz) 1600 MHz * 512 = 819200 Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D54577%26extra%3Dpage%253D1
per confronto la gtx285...
GT200b
绘图时脉(MHz) 648 MHz Drawing clock (MHz) 648 MHz
处理器时脉(MHz) 1476 MHz * 240 = 354240
159.0GB/s GDDR3 <204W 159.0GB / s GDDR3 <204W
PS per calcolare i gigatexel i valori 354240 e 819200 van x3.
;)
Kharonte85
18-09-2009, 13:26
Ammesso che ogni opinione è rispettabile, non mi sento di condivederla in toto, visto che quando uscì G80 la situazione era sostanzialmente la medesima però a ruoli invertiti e lo stesso discorso lo faceva Ati. O no ?
Perfettamente...solite dichiarazioni per fare coltre di fumo...
GT300-A1 version of the core clock to Core: 700MHz, SP: 1600MHz. Stream Processor 512个。 Stream Processor 512 Ge.
GT300 GT300
绘图时脉(MHz) 700 MHz Drawing clock (MHz) 700 MHz
处理器时脉(MHz) 1600 MHz * 512 = 819200 Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D54577%26extra%3Dpage%253D1
per confronto la gtx285...
GT200b
绘图时脉(MHz) 648 MHz Drawing clock (MHz) 648 MHz
处理器时脉(MHz) 1476 MHz * 240 = 354240
159.0GB/s GDDR3 <204W 159.0GB / s GDDR3 <204W
PS per calcolare i gigatexel i valori 354240 e 819200 van x3.
;)
Mica male se partisse già con quelle frequenze...:eek:
Foglia Morta
18-09-2009, 13:53
GT300-A1 version of the core clock to Core: 700MHz, SP: 1600MHz. Stream Processor 512个。 Stream Processor 512 Ge.
GT300 GT300
绘图时脉(MHz) 700 MHz Drawing clock (MHz) 700 MHz
处理器时脉(MHz) 1600 MHz * 512 = 819200 Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D54577%26extra%3Dpage%253D1
per confronto la gtx285...
GT200b
绘图时脉(MHz) 648 MHz Drawing clock (MHz) 648 MHz
处理器时脉(MHz) 1476 MHz * 240 = 354240
159.0GB/s GDDR3 <204W 159.0GB / s GDDR3 <204W
PS per calcolare i gigatexel i valori 354240 e 819200 van x3.
;)
La foto è un fake , è un GT200b , lo stesso fotografato qui: http://forums.atomicmpc.com.au/index.php?s=&showtopic=20430&view=findpost&p=411156
halduemilauno
18-09-2009, 20:02
http://www.tgdaily.com/content/view/44006/135/
Nvidia thinks that its new cards are more powerful that similar efforts by ATI (AMD).
.
Analysts think that ATI has been doing well lately with it is 4800 series and its 5800 series coming very shortly.
However Nvidia does not seem to want to let Ati get away with that and has been trying to release a few press release spoilers.
It claims that its next series of cards are not going to be based on a redesigned GT200 core, but rather will be based on a completely new core architecture currently codenamed the GT300.
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage. Plus if they use two of them in their GX2 arrangement they will be faster than a well greased leopard on its way to a wildebeest convention.
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
se vero aspettiamoci(magari proprio il 30 settembre?)una(mirata?)fuga di notizie.
;)
http://www.tgdaily.com/content/view/44006/135/
Nvidia thinks that its new cards are more powerful that similar efforts by ATI (AMD).
.
Analysts think that ATI has been doing well lately with it is 4800 series and its 5800 series coming very shortly.
However Nvidia does not seem to want to let Ati get away with that and has been trying to release a few press release spoilers.
It claims that its next series of cards are not going to be based on a redesigned GT200 core, but rather will be based on a completely new core architecture currently codenamed the GT300.
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage. Plus if they use two of them in their GX2 arrangement they will be faster than a well greased leopard on its way to a wildebeest convention.
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
se vero aspettiamoci(magari proprio il 30 settembre?)una(mirata?)fuga di notizie.
;)
ecco la conferma di cio' che avevo detto :asd: ovvero uscita in novembre e prestazioni da urlo :eek:
Crysis90
18-09-2009, 20:16
ecco la conferma di cio' che avevo detto :asd: ovvero uscita in novembre e prestazioni da urlo :eek:
W NVIDIA!! W GT300!! Non vedo l'ora di montarlo e spararmi Crysis a 1920x1080 tutto in Very High!!:D
alex oceano
18-09-2009, 20:21
W NVIDIA!! W GT300!! Non vedo l'ora di montarlo e spararmi Crysis a 1920x1080 tutto in Very High!!:D
che bello giocarlo a piena risoluzione con tutto al max senza un minimo di rallentamento
Crysis90
18-09-2009, 20:27
che bello giocarlo a piena risoluzione con tutto al max senza un minimo di rallentamento
Se ci penso, sbavo...
alex oceano
18-09-2009, 20:32
Se ci penso, sbavo...
davvero speriamo che non costi troppo
Crysis90
18-09-2009, 21:08
davvero speriamo che non costi troppo
Se NVidia lancia subito il modello Dual-GPU, la versione Single-chip costerà sui 350-400 euro, al lancio...io prenderò sicuramente il single-chip...ho brutte esperienze con i dual...
Kharonte85
18-09-2009, 22:04
http://www.tgdaily.com/content/view/44006/135/
Nvidia thinks that its new cards are more powerful that similar efforts by ATI (AMD).
.
Analysts think that ATI has been doing well lately with it is 4800 series and its 5800 series coming very shortly.
However Nvidia does not seem to want to let Ati get away with that and has been trying to release a few press release spoilers.
It claims that its next series of cards are not going to be based on a redesigned GT200 core, but rather will be based on a completely new core architecture currently codenamed the GT300.
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage. Plus if they use two of them in their GX2 arrangement they will be faster than a well greased leopard on its way to a wildebeest convention.
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
se vero aspettiamoci(magari proprio il 30 settembre?)una(mirata?)fuga di notizie.
;)
Qualcosa si muove finalmente...speriamo di vedere qualcosa di interessante...
Manco se lo vedo.
Ci credo poco anche io ma se fosse vero tutto di guadagnato per tutti ;)
Se NVidia lancia subito il modello Dual-GPU, la versione Single-chip costerà sui 350-400 euro, al lancio...io prenderò sicuramente il single-chip...ho brutte esperienze con i dual...Credi davvero che un chip da quasi 500mm² e (a quanto pare con rese bassissime) permetta a nVidia di lanciare una scheda single high end a 350 euro?
E una dual disponibile fin dal lancio?
Io no.
Credi davvero che un chip da quasi 500mm² e (a quanto pare con rese bassissime) permetta a nVidia di lanciare una scheda single high end a 350 euro?
E una dual disponibile fin dal lancio?
Io no.
Nvidia rilascherà la propria scheda a 500 euro minimo.. a meno che non decida di vendere sottoprezzo.. ma per ora sono solo ipotesi comunque (per quanto probabili, e 500 potrebbe essere un valore ottimistico)
Nvidia rilascherà la propria scheda a 500 euro minimo.. a meno che non decida di vendere sottoprezzo.. ma per ora sono solo ipotesi comunque (per quanto probabili, e 500 potrebbe essere un valore ottimistico)
ma se andrà un 10-15% in piu della 5870 saran soldi sprecati, se il margine è maggiore ovviamente no, ma dubito riesca ad eguagliare le prestazioni di due 5870 in crossfire ergo il prezzo della gtx380 dovrebbe essere compreso tra la 5870 e la 5870x2
ma se andrà un 10-15% in piu della 5870 saran soldi sprecati, se il margine è maggiore ovviamente no, ma dubito riesca ad eguagliare le prestazioni di due 5870 in crossfire ergo il prezzo della gtx380 dovrebbe essere compreso tra la 5870 e la 5870x2
nemmeno io credo che alla fine andrà tanto di più della 5870.. e comunque superare il cross di 5870 sarà quasi impossibile.
Comunque vedremo..di certo è che c'è un tipo di clientela che anche per un 20% in più sarebbe disposta a spendere il doppio..
Comunque le schede d'elite un po' mi affascinano, anche se credo che non le acquisterei mai..:Prrr: :D
penso comunque sia probabile che alla fine i rispettivi gap di prestazioni rimangano poco invariati rispetto alla precedente generazione.. con la differenza forse che nvidia arrivando tardi ci rimetterà un po'
ma se andrà un 10-15% in piu della 5870 saran soldi sprecati, se il margine è maggiore ovviamente no, ma dubito riesca ad eguagliare le prestazioni di due 5870 in crossfire ergo il prezzo della gtx380 dovrebbe essere compreso tra la 5870 e la 5870x2Quello che mi preoccupa é quanto questo cambio di architettura possa giovare nell'ambito che interessa a oltre il 90% di noi: i giochi.
Perché se giá oggi una gtx285 ha una percentuale di utilizzo degli SP vicina al 100%, con un'architettura full MIMD le cose non cambierebbero molto.
Se questo si avverasse, le differenze con la 5870 non sarebbero elevatissime, e la 5870x2 sarebbe molto lontana (la gtx380 si comporterebbe come una gtx280 con 512SP, quindi neanche raddoppiate...resta da vedere le altre parti).
In questo caso nVidia dovrebbe aumentare le frequenze, diminuendo gli yields.
In ambito GPGPU dovrebbe invece essere un portento.
Ovviamente spero non sia cosi, per avere una diminuzione dei prezzi all'uscita delle nuove vga.
Parlo da niubbo sull'argomento, quindi le possibilitá che le cose vadano diversamente é grande :)
http://www.tgdaily.com/content/view/44006/135/
Nvidia thinks that its new cards are more powerful that similar efforts by ATI (AMD).
.
Analysts think that ATI has been doing well lately with it is 4800 series and its 5800 series coming very shortly.
However Nvidia does not seem to want to let Ati get away with that and has been trying to release a few press release spoilers.
It claims that its next series of cards are not going to be based on a redesigned GT200 core, but rather will be based on a completely new core architecture currently codenamed the GT300.
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage. Plus if they use two of them in their GX2 arrangement they will be faster than a well greased leopard on its way to a wildebeest convention.
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
se vero aspettiamoci(magari proprio il 30 settembre?)una(mirata?)fuga di notizie.
;)
La frase in neretto a me pare insensata... Escono a fine novembre o a Natale? O nè a novembre nè a Natale? :stordita: :fagiano:
michelgaetano
19-09-2009, 00:17
La frase in neretto a me pare insensata... Escono a fine novembre o a Natale? O nè a novembre nè a Natale? :stordita: :fagiano:
Principalmente mi chiedo come fanno con quelle rese produttive, se sono vere :stordita:
Principalmente mi chiedo come fanno con quelle rese produttive, se sono vere :stordita:
speriamo di no.. ma se lo fossero' in qualche modo le faranno uscire.. magari a 799 dollari.. :fagiano: :cry:
La frase in neretto a me pare insensata...
... faranno trapelare qlc info e qualche modello da testare a fine novembre tanto da far venire le voglie agli utenti..... e poi la commercializzeranno per gennaio così tutti aspettano a comprare una vga ;)
michelgaetano
19-09-2009, 00:37
Basta vendere in pesante perdita.
Non è una strategia da escludere, vista la difficile situazione. Ma sarebbe una mossa orientata solo a mantenere segmento di mercato in vista dei miglioramenti delle rese produttive... andrebbe calcolato quanto possano perdere, perchè mantenere le quote rimane fondamentale.
Basta vendere in pesante perdita.
oddio, mi sembra una manovra alquanto azzardata vendere in perdita il proprio prodotto nuovo di zecca di fascia alta.. O_o
sono più propenso al marketing sfrenato e a prezzi stratosferici in attesa di uno shrink, in caso.. o in una review del chip.
halduemilauno
19-09-2009, 07:56
Se NVidia lancia subito il modello Dual-GPU, la versione Single-chip costerà sui 350-400 euro, al lancio...io prenderò sicuramente il single-chip...ho brutte esperienze con i dual...
se ati(amd)vende la 5870 da 2 giga a 449$ la GF380 starà sui 499$.
;)
http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html
Dopo mesi di attesa per vedere le novità prodotto che caratterizzeranno il mese di Ottobre, NVIDIA, nel corso di una conferenza con gli analisti finanziari, ha affermato che le nuove librerie DirectX 11 non rappresenteranno un importante traino per le vendite di schede grafiche discrete. Secondo la società la vera svolta sarà rappresentata dalle funzionalità "general purpose", e, solo la continua e progressiva diffusione di nuovi software in grado di supportare correttamente l'accelerazione grafica sarà un grande stimolo per il mercato.
"Le DirectX 11 da sole non rappresentano una buona e valida ragione per comprare una nuova GPU. Potrà certo essere una delle ragioni, ma non quella determinante. Le nuove API sono il frutto del lavoro di Microsoft, che intende riuscire a portare maggiore libertà per lo sviluppo e maggiore creatività e facilità di utilizzo, il che rappresenta una cosa buona, ma di certo non rappresenta un fattore determinante per investire in una nuova GPU". Così si è espresso Mike Hard, vice presidente delle relazioni con gli investitori per NVIDIA, nel corso della conferenza tenuta mercoledì.
Le parole del portavoce societario cadono stranamente in prossimità dell'arrivo sul mercato della nuova famiglia di GPU ATI, Radeon HD 5800, la prima a supportare correttamente DirectX 11. NVIDIA, al momento, non sembra avere nulla di pronto per le nuove API Microsoft, almeno nell'immediato.
Il colosso californiano ritiene inoltre che il vero futuro delle attuali GPU sia rappresentato non tanto dalle performance grafiche, quanto dalle capacità computazionali delle stesse, non solo per i videogiochi (che sempre più integreranno calcoli inerenti la fisica), ma anche per i diversi e nuovi scenari di utilizzo.
Mike Hard ha poi continuato il suo discorso affermando: "L'industria delle schede grafiche, credo, si trova oggi nello stesso punto in cui l'industria dei microprocessori si è trovata diversi anni fa, quando AMD rese pubblico che le frequenze di funzionamento non erano più rilevanti, ma contavano le performance per watt. Oggi, quindi ci troviamo allo stesso bivio: fps e risoluzioni rappresentano certamente qualcosa di importante, ma oggi fare 120 o 125fps non cambia l'esperienza di gioco. Stereo 3D, PhysX sono invece elementi che cambiano radicalmente l'esperienza dei videogiocatori, e la nuova generazione di schede video NVIDIA sarà sviluppata e dedicata proprio per garantire un maggior potere computazionale in questa direzione."
Più che una semplice affermazione, il discorso portato avanti dalla società rappresenta un cambio di direzione e strategia, non più incentrato sul mero mercato delle schede video e dei videogiochi, ma verso altri scenari. Già in passato, con il passaggio di scettro da David Kirk a Bill Dally, la società aveva dimostrato, anche se indirettamente, di aver preso una scelta importante.
;)
PS credo che si tratti di Mike Hara.
Sì, come le DX10.1... :asd:
Chissà perchè prima non servivano ad una ceppa, poi le hanno adottate, pur se a ridosso delle DX11 (ora sì che non servono a nulla).
Intende che tutto il discorso sulle prestazioni è solo fuffa e la verifica si vedrà a natale con i benchmark
Eh, ma infatti io non capivo il passaggio presentazione a novembre e bench a Natale? Se la presentano ufficialmente i bench escono a novembre....
O piuttosto fanno trapelare un po' di informazioni tra novembre e dicembre e sotto natale fanno un leak con le prestazioni, ma le schede usciranno nel Q1 2010...
(che ovviamente non ci saranno, visto che non ci saranno le schede)
Probabile... :asd:
Sì, come le DX10.1...
Chissà perchè prima non servivano ad una ceppa, poi le hanno adottate, pur se a ridosso delle DX11 (ora sì che non servono a nulla).
Ma non servono a nulla in effetti, forse solo Seven ha qualche vantaggio, per questo le hanno adottate e solo in alcuni ambiti, non certo top di gamma.
Ma non servono a nulla in effetti, forse solo Seven ha qualche vantaggio, per questo le hanno adottate e solo in alcuni ambiti, non certo top di gamma.
Adottare le DX10.1 oggi è un "vorrei le DX11 ma non posso".
Ai tempi delle HD3000 e HD4000, quando le DX11 erano ancora di là da venire, aveva più d'un senso.
Theshark03
19-09-2009, 18:32
C'è una data precisa di uscita delle nuove dx11?
Inoltre nella fascia media (intorno ai 100-130€) quali schede dovrebbero uscire?
Grazie.
michelgaetano
19-09-2009, 18:33
C'è una data precisa di uscita delle nuove dx11?
Inoltre nella fascia media (intorno ai 100-130€) quali schede dovrebbero uscire?
Grazie.
Per quella fascia è probabile vi sia Juniper, facile la 5750, o magari se i prezzi calano la 5770.
Comunque non prima di ottobre stando alle slides AMD
maurilio968
19-09-2009, 19:45
Aspettando (aspettando ?? :D ) le nuove Nvidia GTX ...gli utenti compreranno le nuove ati 5xxx.
Adottare le DX10.1 oggi è un "vorrei le DX11 ma non posso".
Ai tempi delle HD3000 e HD4000, quando le DX11 erano ancora di là da venire, aveva più d'un senso.
Per servire servono, basta vedere la differenza di prestazioni con AA attivato nelle due modalità, poi è chiaro che se chi la forza politica e del contante dice che non ci devono essere...
Resta il fatto che forse, a essere larghi, un 10% dei titoli ha visto qualcosa in Dx10, praticamente nulla in dx10.1, ed è restato quasi tutto dx9, mentre domani vogliono far credere a dx11 indispensabile, io mi chiedo per cosa, personalmente nvidia se la può prendere con calma, tanto il mercato software poco cambierà.
Aspettando (aspettando ?? :D ) le nuove Nvidia GTX ...gli utenti compreranno le nuove ati 5xxx.
C'è già la fila guarda ....LOL
Resta il fatto che forse, a essere larghi, un 10% dei titoli ha visto qualcosa in Dx10, praticamente nulla in dx10.1, ed è restato quasi tutto dx9, mentre domani vogliono far credere a dx11 indispensabile, io mi chiedo per cosa, personalmente nvidia se la può prendere con calma, tanto il mercato software poco cambierà.
Sul nulla in DX10.1 ti devo contraddire, esistono già abbastanza titoli con supporto DX10.1, almeno 5 o 6. E a parità di effetti, l'AA con path DX10.1 consente dei miglioramenti prestazionali.
Ovvio che nulla è indispensabile. Però fa ridere come a volte (certe aziende più di altre) si cerchi di manipolare la realtà...
NVidia diceva che le DX10.1 non servivano a nulla, si vociferava che le avrebbe saltate addirittura, poi, essendo impossibilitata a lanciare schede DX11 in tempo per Windows 7, le adotta. Le DX11 ora sono utili forse più di quanto non lo fossero le DX10 quando NVidia lanciò G80.
La storia dell'aspettare che escano giochi che rendano indispensabili schede DX11 regge fino ad un certo punto.
a) Il salto DX9 -> DX10 fu maggiore di quello DX10->DX11, eppure NVidia all'epoca uscì con delle schede DX10 mesi prima dell'uscita ufficiale di Vista.
b) Le DX11 sono di fatto quello che le DX10 avrebbero dovuto essere fin dall'inizio, ma comunque si basano sulle DX10 in maniera consistente, dunque l'uscita di giochi DX11 sarà più rapida che all'epoca dei primi giochi DX10. DiRT 2 sta per uscire a brevissimo (entro fine anno) e già avrà un path DX11. Entro fine anno ci saranno almeno 3-4 giochi con effetti DX11.
c) Proprio per quanto detto sopra, le DX11 molto probabilmente apporteranno una qualità grafica mai vista prima, finalmente qualcosa che con le DX9 non si può fare (a differenza della maggior parte degli effetti DX10), grazie alla tessellation.
d) I giochi DX10 furono frenati anche dalla scarsa efficienza di Vista coi giochi, che su XP andavano sempre più veloci. Seven in questo è nettamente meglio. Inoltre le DX11 saranno disponibili anche per chi non farà l'upgrade a Seven, quindi il parco OS sarà molto più ampio che quello per le DX10 all'inizio.
Tutto questo per dire che semplicemente quello che i PR NVidia raccontano ultimamente non è molto corrispondente al vero. Semplicemente NVidia a questo giro è in ritardo (anche se non si sa ancora precisamente di quanto) come lo fu ATI all'epoca delle DX10. La cosa più assurda è che hanno sperperato un vantaggio prestazionale e tecnologico davvero notevole nell'arco di un paio d'anni.
Ma se nulla è indispensabile, mi chiedo la necessità.
Un tempo l'upgrade, il nuovo hw era dettato da esigenze, il nuovo motore di Carmack, mi ricordo Unreal, ci fosse uno Starcraft 2 in Dx11 nativo capirei, o un Diablo 3, o un Rage o un Crysis 2, o un Call of Duty o l'atteso Ep3 di Half Life.
Ma non c'è nulla, il vuoto totale, titoli completamente sviluppati in dx9 come Dirt2 o Wic e Nvidia forse ai tempi di G80 si è accorta che doveva farlo veloce in Dx9 per spaccare.
E' vero che in dx 10.1 risparmi sull'AA, e questa sarebbe l'innovazione?
Ripeto per me Gt300 può uscire con estrema calma e forse il marketing dovrebbe essere più realista non in queste bisticciate sulle api dell'asilo, ma nel proporre prodotti che siano coerenti col mercato.
Ma se nulla è indispensabile, mi chiedo la necessità.
Un tempo l'upgrade, il nuovo hw era dettato da esigenze, il nuovo motore di Carmack, mi ricordo Unreal, ci fosse uno Starcraft 2 in Dx11 nativo capirei, o un Diablo 3, o un Rage o un Crysis 2, o un Call of Duty o l'atteso Ep3 di Half Life.
Ma non c'è nulla, il vuoto totale, titoli completamente sviluppati in dx9 come Dirt2 o Wic e Nvidia forse ai tempi di G80 si è accorta che doveva farlo veloce in Dx9 per spaccare.
E' vero che in dx 10.1 risparmi sull'AA, e questa sarebbe l'innovazione?
Ripeto per me Gt300 può uscire con estrema calma e forse il marketing dovrebbe essere più realista non in queste bisticciate sulle api dell'asilo, ma nel proporre prodotti che siano coerenti col mercato.
Scusa perché non farlo uscire in dx 9 allora? i titoli dx 10 non sono così tanti e quelli non nativi sono pochi.. i vantaggi sono irrisori.
A detta di molti crysis con gli effetti "sbloccati" in dx 9 è visivamente uguale a quello con dx 10 (io non lo dico ma loro) e più fluido.
Quindi nvidia, stando al loro ragionamento e soprattutto al tuo, potrebbe fare uscire un bel chippone da 300W in dx 9:sofico:
yossarian
20-09-2009, 01:59
Principalmente mi chiedo come fanno con quelle rese produttive, se sono vere :stordita:
invece io mi chiedo quanto possano essere vere le specifiche in grassetto riportate in basso :p
Quello che mi preoccupa é quanto questo cambio di architettura possa giovare nell'ambito che interessa a oltre il 90% di noi: i giochi.
Perché se giá oggi una gtx285 ha una percentuale di utilizzo degli SP vicina al 100%, con un'architettura full MIMD le cose non cambierebbero molto.
Se questo si avverasse, le differenze con la 5870 non sarebbero elevatissime, e la 5870x2 sarebbe molto lontana (la gtx380 si comporterebbe come una gtx280 con 512SP, quindi neanche raddoppiate...resta da vedere le altre parti).
In questo caso nVidia dovrebbe aumentare le frequenze, diminuendo gli yields.
In ambito GPGPU dovrebbe invece essere un portento.
Ovviamente spero non sia cosi, per avere una diminuzione dei prezzi all'uscita delle nuove vga.
Parlo da niubbo sull'argomento, quindi le possibilitá che le cose vadano diversamente é grande :)
invece io mi chiedo quanto possano essere vere le specifiche in grassetto riportate in basso :pCiao Yossarian! Ci mancavi :D
Purtroppo quelle spec. sono tutto quello che abbiamo in mano...infatti nella mia supposizione il condizionale é d'obbligo...
(Visto che sono poco esperto in questo argomento)
Le mie supposizioni sulle prestazioni sono fondate? Le mie "paure" per il gaming pure?
Ovviamente prendendo per vera l'aria fritta che abbiamo come informazioni :D
Ciao, ed é sempre un piacere leggerti
halduemilauno
20-09-2009, 08:35
http://digitimes.com/news/a20090918PD210.html
Nvidia CEO Jen-Hsun Huang will travel to Taiwan in the second half of October to meet with its motherboard and graphics card partners. Huang is also expected to hold talks with Taiwan Semiconductor Manufacturing Company (TSMC) chairman Morris Chang to discuss contract prices for 40nm production, according to sources at graphics card makers.
Huang is also expected to check on TSMC's 40nm process, for which TSMC has claimed yield rates have already risen from 30%, to 60% in July, and defect density will drop to only 0.2 in October. Huang will also check the progress of its upcoming GT300 GPU which is expected to launch in December.
Meanwhile, Chang is expected to talk to Huang about partnership on TSMC's 28nm process, which will start pilot runs in the first quarter of 2010, and will start contributing revenues in 2011.
Huang is also expected to visit VIA Technologies to make final confirmation on the Ion 2 platform for the end of December, added the sources.
;)
halduemilauno
20-09-2009, 08:46
edit
;)
Ma se nulla è indispensabile, mi chiedo la necessità.
Un tempo l'upgrade, il nuovo hw era dettato da esigenze, il nuovo motore di Carmack, mi ricordo Unreal, ci fosse uno Starcraft 2 in Dx11 nativo capirei, o un Diablo 3, o un Rage o un Crysis 2, o un Call of Duty o l'atteso Ep3 di Half Life.
Ma non c'è nulla, il vuoto totale, titoli completamente sviluppati in dx9 come Dirt2 o Wic e Nvidia forse ai tempi di G80 si è accorta che doveva farlo veloce in Dx9 per spaccare.
E' vero che in dx 10.1 risparmi sull'AA, e questa sarebbe l'innovazione?
Ripeto per me Gt300 può uscire con estrema calma e forse il marketing dovrebbe essere più realista non in queste bisticciate sulle api dell'asilo, ma nel proporre prodotti che siano coerenti col mercato.
Ho già scritto di come, a differenza delle DX10, le DX11 dovrebbero portare una qualità grafica impossibile da raggiungere con un path DX9.
Considera anche la risoluzione alla quale si giocava ai tempi di cui parli... Se oggi uno vuole giocare a risoluzioni da full HD in su con tutto al max ed AA4x, la potenza richiesta da alcuni giochi è notevole...
Le console di questa generazione sono nella fase calante della loro vita, nel 2011 dovrebbero uscire le nuove (con gpu DX11) ed ormai il divario col PC non si può più mascherare. Certamente il passaggio a giochi DX11-heavy non sarà qualcosa di immediato, ma tra un annetto... E non credo proprio che per allora la potenza di una HD5870 non basterà già più.
Non so ogni quanto cambi scheda te, ma io me le faccio durare un po', quindi sinceramente comprare oggi una DX10 per avere una scheda obsoleta tra un anno non mi andrebbe molto...
Quindi, per chi ha necessità di comprare a breve non esiste alcun motivo razionale per preferire l'offerta attuale NVidia DX10 a quella ATI DX11. Non è una questione di necessità delle DX11, ma di maggiore utilità di una scheda più longeva vs una concettualmente più vecchia, tutto qui.
Certo sarebbe una cosa buona e giusta provare ad aspettare anche le nuove NVidia, ma il ritardo può essere notevole. Molti magari si scazzano ad aspettare 2 settimane, figuriamoci mesi. Anche perchè io continuo a vedere come improbabile un'uscita a novembre... Se fosse vera la storia del primo tape-out a settembre, per un chip di queste dimensioni mi pare impossibile che riescano ad andare sul mercato dopo soli 2 mesi.
Considera inoltre che per la fascia media/medio-alta, quella delle HD4850/70 GTX260 192/216/ GTX275, NVidia non avrà nulla da proporre in DX11 per forse 6 mesi e più. Arriveranno refresh di G200b con 40nm, GDDR5 e DX10.1, probabilmente, ma ad ottobre ci saranno già le RV830...
Non è indispensabile nemmeno avere un computer, se è per questo.
:asd:
d) I giochi DX10 furono frenati anche dalla scarsa efficienza di Vista coi giochi, che su XP andavano sempre più veloci. Seven in questo è nettamente meglio. Inoltre le DX11 saranno disponibili anche per chi non farà l'upgrade a Seven, quindi il parco OS sarà molto più ampio che quello per le DX10 all'inizio.
E' stata una situazione transitoria probabilmente più legata ai driver che all'os, oggi Vista è meglio di XP, e Seven in ambito gaming è meglio di Vista solo nelle nostre menti
http://www.driverheaven.net/articles.php?articleid=137&pageid=2
Kharonte85
20-09-2009, 09:44
E' stata una situazione transitoria probabilmente più legata ai driver che all'os, oggi Vista è meglio di XP, e Seven in ambito gaming è meglio di Vista solo nelle nostre menti
http://www.driverheaven.net/articles.php?articleid=137&pageid=2
Vero...aggiungo http://www.guru3d.com/article/windows-7-vs-vista-vga-game-performance/
Vero...aggiungo http://www.guru3d.com/article/windows-7-vs-vista-vga-game-performance/
Un'ulteriore conferma con altri giochi, ed anche con il multi-gpu nVidia e Ati. Chi si aspetta che Seven vada meglio di Vista in ambito gaming avrà una cocente delusione, e non perchè Seven va male, ma perchè Vista va molto meglio di quanto si creda :)
Non è indispensabile nemmeno avere un computer, se è per questo.
Nemmeno i 4 titoli che con dx 10.1 hanno un minimo vantaggio, peraltro non visivo ma solo di performance con fsaa.
Scusa perché non farlo uscire in dx 9 allora? i titoli dx 10 non sono così tanti e quelli non nativi sono pochi.. i vantaggi sono irrisori.
A detta di molti crysis con gli effetti "sbloccati" in dx 9 è visivamente uguale a quello con dx 10 (io non lo dico ma loro) e più fluido.
Quindi nvidia, stando al loro ragionamento e soprattutto al tuo, potrebbe fare uscire un bel chippone da 300W in dx 9
Solitamente la Gpu di nuova generazione, almeno i primi modelli, sono maturi per l'api precedente, in questo caso Dx10, ma visto che in ambito sviluppo, cioè console, the next big thing sarà tra circa 2 anni, facessero un chip dx9 probabilmente perderebbero poco o nulla.
Ho già scritto di come, a differenza delle DX10, le DX11 dovrebbero portare una qualità grafica impossibile da raggiungere con un path DX9.
Considera anche la risoluzione alla quale si giocava ai tempi di cui parli... Se oggi uno vuole giocare a risoluzioni da full HD in su con tutto al max ed AA4x, la potenza richiesta da alcuni giochi è notevole...
Le console di questa generazione sono nella fase calante della loro vita, nel 2011 dovrebbero uscire le nuove (con gpu DX11) ed ormai il divario col PC non si può più mascherare. Certamente il passaggio a giochi DX11-heavy non sarà qualcosa di immediato, ma tra un annetto... E non credo proprio che per allora la potenza di una HD5870 non basterà già più.
Non so ogni quanto cambi scheda te, ma io me le faccio durare un po', quindi sinceramente comprare oggi una DX10 per avere una scheda obsoleta tra un anno non mi andrebbe molto...
Quindi, per chi ha necessità di comprare a breve non esiste alcun motivo razionale per preferire l'offerta attuale NVidia DX10 a quella ATI DX11. Non è una questione di necessità delle DX11, ma di maggiore utilità di una scheda più longeva vs una concettualmente più vecchia, tutto qui.
Certo sarebbe una cosa buona e giusta provare ad aspettare anche le nuove NVidia, ma il ritardo può essere notevole. Molti magari si scazzano ad aspettare 2 settimane, figuriamoci mesi. Anche perchè io continuo a vedere come improbabile un'uscita a novembre... Se fosse vera la storia del primo tape-out a settembre, per un chip di queste dimensioni mi pare impossibile che riescano ad andare sul mercato dopo soli 2 mesi.
Considera inoltre che per la fascia media/medio-alta, quella delle HD4850/70 GTX260 192/216/ GTX275, NVidia non avrà nulla da proporre in DX11 per forse 6 mesi e più. Arriveranno refresh di G200b con 40nm, GDDR5 e DX10.1, probabilmente, ma ad ottobre ci saranno già le RV830...
Io non credo a un passaggio netto e repentino, ne che Seven riesca nel primo anno ad andare oltre, forse, il 15% degli utenti, certo per la nicchia di appassionati le soluzioni per giocare con un livello di dettaglio assoluto saranno probabilmente motori dx9 su schede dx11 molto più velocemente delle soluzioni dx10 e dx10.1 attuali, questa è la mia speranza, soprattutto in classe media.
Il vincolo dell'api per dx7-dx8 e dx9 è stato importante, ma ora è più importante avere configurazioni simili o migliori alle nuove console secondo me.
ciccionamente90
20-09-2009, 13:09
;)
ehi, non sarebbe ora di aggiornare la prima pagina con tutte le info sulla GT300/GTX380? :fagiano: La GTX295 oramai è già uscita da un po' :sofico:
paolox86
20-09-2009, 13:24
http://digitimes.com/news/a20090918PD210.html
Nvidia CEO Jen-Hsun Huang will travel to Taiwan in the second half of October to meet with its motherboard and graphics card partners. Huang is also expected to hold talks with Taiwan Semiconductor Manufacturing Company (TSMC) chairman Morris Chang to discuss contract prices for 40nm production, according to sources at graphics card makers.
Huang is also expected to check on TSMC's 40nm process, for which TSMC has claimed yield rates have already risen from 30%, to 60% in July, and defect density will drop to only 0.2 in October. Huang will also check the progress of its upcoming GT300 GPU which is expected to launch in December.
Meanwhile, Chang is expected to talk to Huang about partnership on TSMC's 28nm process, which will start pilot runs in the first quarter of 2010, and will start contributing revenues in 2011.
Huang is also expected to visit VIA Technologies to make final confirmation on the Ion 2 platform for the end of December, added the sources.
;)
Quindi è sempre previsto per fine anno? Speriamo che non siano confermate le voci preoccupanti sulle rese
http://digitimes.com/news/a20090918PD210.html
Nvidia CEO Jen-Hsun Huang will travel to Taiwan in the second half of October to meet with its motherboard and graphics card partners. Huang is also expected to hold talks with Taiwan Semiconductor Manufacturing Company (TSMC) chairman Morris Chang to discuss contract prices for 40nm production, according to sources at graphics card makers.
Huang is also expected to check on TSMC's 40nm process, for which TSMC has claimed yield rates have already risen from 30%, to 60% in July, and defect density will drop to only 0.2 in October. Huang will also check the progress of its upcoming GT300 GPU which is expected to launch in December.
Meanwhile, Chang is expected to talk to Huang about partnership on TSMC's 28nm process, which will start pilot runs in the first quarter of 2010, and will start contributing revenues in 2011.
Huang is also expected to visit VIA Technologies to make final confirmation on the Ion 2 platform for the end of December, added the sources.
;)
Così da novembre siamo passati a dicembre, ovvero praticamente metà gennaio date le festività ;) = paper launch
appleroof
20-09-2009, 14:23
E' stata una situazione transitoria probabilmente più legata ai driver che all'os, oggi Vista è meglio di XP, e Seven in ambito gaming è meglio di Vista solo nelle nostre menti
http://www.driverheaven.net/articles.php?articleid=137&pageid=2
quoto tutto, personalmente ho vista64 dal lancio, a parte i primissimi tempi di normale adattamento dove avevo dual boot, non mi sono mai sognato di tornare ad Xp, nè per i giochi nè per nessun altro motivo; giudico Seven un grosso SP di Vista per cui sto valutando se lasciare Vista per Seven e credo proprio non lo farò, tanto più che dal punto di vista gaming le dx11 sono compatibili con Vista
piuttosto, il fatto che in questo caso l'effetto placebo la sta già facendo da padrone, con tutti entusiasti -giustamente- di Seven (che si unirà al parco macchine con VIsta), mi fà ben sperare in una più vloce diffusione di giochi simildx11 -anche io credo che veri giochi dx11 prima delle nuove consolle non ne vedremo- rispetto a quelli simildx10...
E' stata una situazione transitoria probabilmente più legata ai driver che all'os, oggi Vista è meglio di XP, e Seven in ambito gaming è meglio di Vista solo nelle nostre menti
http://www.driverheaven.net/articles.php?articleid=137&pageid=2
Vero...aggiungo http://www.guru3d.com/article/windows-7-vs-vista-vga-game-performance/
Un'ulteriore conferma con altri giochi, ed anche con il multi-gpu nVidia e Ati. Chi si aspetta che Seven vada meglio di Vista in ambito gaming avrà una cocente delusione, e non perchè Seven va male, ma perchè Vista va molto meglio di quanto si creda :)
Piccolo OT: forse non vi siete accorti che state confrontando un OS in pre-release vs uno rilasciato da circa 3 anni, quindi già maturo. Ossia Vista era talmente figo come OS per giocare che ci ha messo un paio d'anni e 2 SP per pareggiare e superare nemmeno di tantissimo XP.
Seven non è ancora uscito ufficialmente e di fatto per lo meno pareggia Vista ed in certi test (anche in diversi di quelli che avete postato) lo sopravanza pure. ;)
appleroof
20-09-2009, 14:59
Piccolo OT: forse non vi siete accorti che state confrontando un OS in pre-release vs uno rilasciato da circa 3 anni, quindi già maturo. Ossia Vista era talmente figo come OS per giocare che ci ha messo un paio d'anni e 2 SP per pareggiare e superare nemmeno di tantissimo XP.
Seven non è ancora uscito ufficialmente e di fatto per lo meno pareggia Vista ed in certi test (anche in diversi di quelli che avete postato) lo sopravanza pure. ;)
e tu forse non ti sei accorto che tra xp e vista c'è un kernel tutto nuovo, tra vista e seven è lo stesso identico kernel. ;)
Piccolo OT: forse non vi siete accorti che state confrontando un OS in pre-release vs uno rilasciato da circa 3 anni, quindi già maturo. Ossia Vista era talmente figo come OS per giocare che ci ha messo un paio d'anni e 2 SP per pareggiare e superare nemmeno di tantissimo XP.
Guru3d ha usato la RTM che è la versione finale.
Seven non è ancora uscito ufficialmente e di fatto per lo meno pareggia Vista ed in certi test (anche in diversi di quelli che avete postato) lo sopravanza pure. ;)
Se sono test fatti con versioni precedenti alla RTM allora a mio avviso sono più affidabili quelli di guru3d. Un software in versione beta non necessariamente è più lento di uno in versione final anzi, a volte la correzione di bachi può costringere ad aggiungere pezzi di codice che ne rallentano l'esecuzione :)
quoto tutto, personalmente ho vista64 dal lancio, a parte i primissimi tempi di normale adattamento dove avevo dual boot, non mi sono mai sognato di tornare ad Xp, nè per i giochi nè per nessun altro motivo; giudico Seven un grosso SP di Vista per cui sto valutando se lasciare Vista per Seven e credo proprio non lo farò, tanto più che dal punto di vista gaming le dx11 sono compatibili con Vista
piuttosto, il fatto che in questo caso l'effetto placebo la sta già facendo da padrone, con tutti entusiasti -giustamente- di Seven (che si unirà al parco macchine con VIsta), mi fà ben sperare in una più vloce diffusione di giochi simildx11 -anche io credo che veri giochi dx11 prima delle nuove consolle non ne vedremo- rispetto a quelli simildx10...
Quoto tutto :)
e tu forse non ti sei accorto che tra xp e vista c'è un kernel tutto nuovo, tra vista e seven è lo stesso identico kernel. ;)
Ma anche no.
Il Kernel di Seven è diverso da quello di Vista, seppur sviluppato a partire da quello di Vista. Il fatto che sembri lo stesso (6.1) è solo per una rinominazione dovuta a problemi di compatibilità, almeno questo è quello che avevo capito. ;)
Sicuramente poi le differenze XP - Vista sono molto più marcate che quelle Vista - Seven.
Guru3d ha usato la RTM che è la versione finale.
Se sono test fatti con versioni precedenti alla RTM allora a mio avviso sono più affidabili quelli di guru3d. Un software in versione beta non necessariamente è più lento di uno in versione final anzi, a volte la correzione di bachi può costringere ad aggiungere pezzi di codice che ne rallentano l'esecuzione :)
Rimane il fatto che confronti un OS dopo 2 SP con uno che non è ancora sugli scaffali. O questo non conta? Vista appena uscito coi giochi faceva abbastanza cacare, mi pare innegabile. ;)
appleroof
20-09-2009, 15:51
Ma anche no.
Il Kernel di Seven è diverso da quello di Vista, seppur sviluppato a partire da quello di Vista. Il fatto che sembri lo stesso (6.1) è solo per una rinominazione dovuta a problemi di compatibilità, almeno questo è quello che avevo capito. ;)
Sicuramente poi le differenze XP - Vista sono molto più marcate che quelle Vista - Seven.
Rimane il fatto che confronti un OS dopo 2 SP con uno che non è ancora sugli scaffali. O questo non conta? Vista appena uscito coi giochi faceva abbastanza cacare, mi pare innegabile. ;)
Si, non è esattamente lo stesso, ma è il kernel di Vista con alcune ottimizzazioni, per cui non si può dire che è identico ma nemmeno che è un vero Os nuovo rispetto a Vista.
Riprova di questo è la piena compatibilità driver, che, nel discorso che stiamo facendo, fondamentalmente ti spiega perchè Vista rispetto ad Xp andava inizialmente peggio nei giochi: hai detto che Vista ha 3 anni di sviluppo, tempo che ha fatto si che oggi i driver siano scritti a modo e sfruttino le potenzialità del sistema operativo appieno, esattamente come sfruttano quelle di Seven, essendo gli stessi driver, che si trova "la pappa pronta" rispetto ai tempi del lancio di Vista. Più chiaro così? ;)
Ma anche no.
Il Kernel di Seven è diverso da quello di Vista, seppur sviluppato a partire da quello di Vista. Il fatto che sembri lo stesso (6.1) è solo per una rinominazione dovuta a problemi di compatibilità, almeno questo è quello che avevo capito. ;)
Sicuramente poi le differenze XP - Vista sono molto più marcate che quelle Vista - Seven.
Rimane il fatto che confronti un OS dopo 2 SP con uno che non è ancora sugli scaffali. O questo non conta? Vista appena uscito coi giochi faceva abbastanza cacare, mi pare innegabile. ;)
Vero, ma poichè oggi con gli stessi driver Vista va come Seven, sono più propenso a pensare che i problemi iniziali dipendevano più dai driver che dal resto :)
Kharonte85
20-09-2009, 16:21
Rimane il fatto che confronti un OS dopo 2 SP con uno che non è ancora sugli scaffali. O questo non conta? Vista appena uscito coi giochi faceva abbastanza cacare, mi pare innegabile. ;)
Il problema erano i driver...non è un caso che i driver Vista e 7 siano sostanzialmente gli stessi e siano compatibili (driver grafici inclusi)
Non è mai successo che un Sistema operativo risultasse piu' veloce della versione precedente nelle applicazioni presenti al momento del rilascio (per un fatto di richieste hardware: cosa che ha tagliato le gambe molto a WV); non succederà nemmeno questa volta...al massimo ci possiamo aspettare che Win 7 non peggiori le prestazioni e che pareggi il conto ma solo perchè sostanzialmente è ancora un Windows Vista.
Poi che non si pensi che Win 7 sia dotato di maggiore compatibilità rispetto a Vista...se uno spera di poter far funzionare su win 7 applicativi per XP che non girano su vista rimarrà deluso...l'impressione sarà quella semplicemente perchè i programmi si sono aggiornati nel frattempo e adesso esistono molti piu' driver per prodotti di terze parti ecc... (che alla fine sono quelli per windows vista)
Gran parte dell'entusiasmo per Win 7 è un effetto dovuto al fallimento commerciale di Windows Vista (Troppo diverso da XP e bisognoso di supporto), Microsoft l'ha capito e lo sta sfruttando a suo vantaggio presentando una versione 2.0 di Vista chiamandola con un nome diverso...ma la realtà è che vista ad oggi è SO maturo, stabile e anche migliore di XP sotto molti aspetti.
Kharonte85
20-09-2009, 18:38
Com'è diventata una discussione su XP, Vista e Seven? :stordita:
Win 7 <----> Dx11 <----> Nuove nvidia
:boh:
giulio85
21-09-2009, 09:20
Scusate l'ignoranza ma prendere una gtx 295 adesso (anche se a poco più di 230 euro) è da scemi giusto? E poi non ho capito una cosa non c'è compatibilità tra gtx295 e dx11 o non ho capito niente?:mc: grazie
Scusate l'ignoranza ma prendere una gtx 295 adesso (anche se a poco più di 230 euro) è da scemi giusto? E poi non ho capito una cosa non c'è compatibilità tra gtx295 e dx11 o non ho capito niente?:mc: grazie
secondo me prendere una gtx 295 a quel prezzo non è affatto da scemi ;)
ilratman
21-09-2009, 09:21
Scusate l'ignoranza ma prendere una gtx 295 adesso (anche se a poco più di 230 euro) è da scemi giusto? E poi non ho capito una cosa non c'è compatibilità tra gtx295 e dx11 o non ho capito niente?:mc: grazie
per 230 euro io dire che ne vale la pena invece!
per la compatibilità hai ragione nopn ci sarà e i giochi dx11 li dovrai giocare in dx10!
halduemilauno
21-09-2009, 09:23
Scusate l'ignoranza ma prendere una gtx 295 adesso (anche se a poco più di 230 euro) è da scemi giusto? E poi non ho capito una cosa non c'è compatibilità tra gtx295 e dx11 o non ho capito niente?:mc: grazie
è da prendere subito.
;)
è da prendere subito.
;)
ma anche no, se aspettasse qualche giorno sarebbe meglio.....
p.s.@ilratman per i consigli c'è una sezione adatta, casomai chiedi li....;)
ilratman
21-09-2009, 09:35
p.s.@ilratman per i consigli c'è una sezione adatta, casomai chiedi li....;)
:confused:
mi ca serve a me! :)
ma allora nuove news su ste nuove gt300? quando arriveranno?
:confused:
mi ca serve a me! :)
a lol scusa ho postato male :asd:
ilratman
21-09-2009, 09:42
ma allora nuove news su ste nuove gt300? quando arriveranno?
a lol scusa ho postato male :asd:
spero che ste 5870 escano presto almeno cambierete questi avatar! :D
se va avanti così mi tocca mettere la funzione occhi rossi anche a me! :D
Andrea deluxe
21-09-2009, 10:47
http://www.fudzilla.com/content/view/15587/1/
che fa, li va a cazziare?
http://www.fudzilla.com/content/view/15587/1/
che fa, li va a cazziare?
va li ovviamente per vedere com'è la situazione, e credo che non sia delle piu rosee visto che si tratta del direttore generale nvida...
giulio85
21-09-2009, 11:18
230€? :mbe:
è un'asta... e visto che è in america risparmierei qualcosa sul cambio... cmq mi sa che aspetto qualcosa compatibile con le dx11....
è un'asta... e visto che è in america risparmierei qualcosa sul cambio... cmq mi sa che aspetto qualcosa compatibile con le dx11....
se è un'asta o l'hai già vinta, o sai in anticipo il prezzo di chiusura il che è paranormale.
Bastoner
21-09-2009, 14:19
è da prendere subito.
;)
Certo come no ;)
Ma dico un po' di buon senso no eh? Cosa costa aspettare 2 giorni per vedere i bench? Questa é propaganda. :rolleyes:
Certo come no ;)
Ma dico un po' di buon senso no eh? Cosa costa aspettare 2 giorni per vedere i bench? Questa é propaganda. :rolleyes:
veramente ha ragione hal, 230 una gtx295 la si prende al volo, bench o non bench per quel prezzo hai una bestia, la verità è che non esiste a quel prezzo.
Certo come no ;)
Ma dico un po' di buon senso no eh? Cosa costa aspettare 2 giorni per vedere i bench? Questa é propaganda. :rolleyes:
Straquoto....!
Consigli come questi andrebbero censurati dai moderatori: a 2 giorni dall'uscita delle 58XX si consiglia un acquisto immediato delle GTX295...:doh:
Bhè per 230€.... non credo ci siano dubbi, dato che comunque a 230 non trovi nemmeno dopodomani schede di quella potenza. almeno.. così pare.
Come mai su hwupg non è comparsa la notizia circa le rese produttive basse? ci sono altre voci che la confermano? spero di no.. voglio concorrenza! oramai devo cambiare sistema ma non voglio aspettare gennaio e non voglio prendere schede a prezzi alti se si potrebbe averle a prezzi minori
ilratman
21-09-2009, 14:31
Straquoto....!
Consigli come questi andrebbero censurati dai moderatori: a 2 giorni dall'uscita delle 58XX si consiglia un acquisto immediato delle GTX295...:doh:
scusa ma ti rendi conto di quello che dici
tu vuoi dire che la 5870 che sembra superare la 295 di poco o no la troverai a 230euro
Bastoner
21-09-2009, 14:39
scusa ma ti rendi conto di quello che dici
tu vuoi dire che la 5870 che sembra superare la 295 di poco o no la troverai a 230euro
Quantomeno é obbligatorio consigliare di attendere 48 ore per vedere come va la 5850, perché potrebbe costare più o meno quella cifra e andare più di una gtx285. Magari uno considerando le dx11, tutti i vantaggi di un single gpu e i bassi consumi potrebbe anche preferire la 5850. Poi forse si rivela una ciofeca e sceglie comunque la gtx295, ma consigliare di aspettare é d'obbligo, imho.
Quantomeno é obbligatorio consigliare di attendere 48 ore per vedere come va la 5850, perché potrebbe costare più o meno quella cifra e andare più di una gtx285. Magari uno considerando le dx11, tutti i vantaggi di un single gpu e i bassi consumi potrebbe anche preferire la 5850. Poi forse si rivela una ciofeca e sceglie comunque la gtx295, ma consigliare di aspettare é d'obbligo, imho.
certo uno ha una super offerta per una bwm a metà prezzo e te gli dici: ma no tra due giorni esce la nuova porsche! ma come ragioni?
una gtx 295 a 230€ è un ottimo affare oggi e pure tra 2 giorni, le nuove ati top di gamma si sa già che costeranno intorno ai 400 euro.
apparte il fatto che poi abbiamo scoperto che sti fantomatici 230 erano per un'asta americana nemmeno chiusa, e questo a maggior raggione fa capire quanto era assurdo e irrealistico il prezzo.
cma se davvero uno oggi potesse prendere quella scheda a 230 euro stai sicuro che ci gioca minimo 6 mesi e poi ci rifarebbe gli stessi soldi quando dovrebbe prendere una dx11.
ilratman
21-09-2009, 14:46
Quantomeno é obbligatorio consigliare di attendere 48 ore per vedere come va la 5850, perché potrebbe costare più o meno quella cifra e andare più di una gtx285. Magari uno considerando le dx11, tutti i vantaggi di un single gpu e i bassi consumi potrebbe anche preferire la 5850. Poi forse si rivela una ciofeca e sceglie comunque la gtx295, ma consigliare di aspettare é d'obbligo, imho.
stiamo comunque parlando della gtx295 non della 285.
scusa ma ti rendi conto di quello che dici
tu vuoi dire che la 5870 che sembra superare la 295 di poco o no la troverai a 230euro
Non sono entrato nel merito delle prestazioni...ne dell'utilità delle DX11...ne dei consumi...ne ho fatto presente che una soluzione monoGPU è attualmente da preferire rispetto alle DUAL...!!
Ho semplicemente fatto notare che sarebbe saggio attendere quel paio di giorni..grazie ai quali potrebbe esserci un riposizionamento sul mercato, alias cambio di prezzo...
Se la Vs reazione è di questo tipo..non posso che augurarvi un felice acquisto :) : comprate quello che volete al prezzo che volete!
Andrea deluxe
21-09-2009, 14:56
cmq e' da preferire sempre la single gpu......
parlando per esperienza.....
ilratman
21-09-2009, 14:57
Non sono entrato nel merito delle prestazioni...ne dell'utilità delle DX11...ne dei consumi...ne ho fatto presente che una soluzione monoGPU è attualmente da preferire rispetto alle DUAL...!!
Ho semplicemente fatto notare che sarebbe saggio attendere quel paio di giorni..grazie ai quali potrebbe esserci un riposizionamento sul mercato, alias cambio di prezzo...
Se la Vs reazione è di questo tipo..non posso che augurarvi un felice acquisto :) : comprate quello che volete al prezzo che volete!
guarda io sono un fautore del single gpu da sempre na indubbiamente una gtx295 a 230 euro è un buon acquisto sia adesso che fra 2 giorni!
altra cosa ammettendo che la 5870 vada di più, almeno così sembra, e uscisse a 350€ la gtx295 secondo te va a 230?
per me è ancora un buon prezzo 230 per una 295 poi tutto il resto è discutibile!
ilratman
21-09-2009, 15:00
Visto anche che non c'è alcuna GTX295 a 230€ perché non torniamo in topic? ;)
ma infatti! :)
cmq e' da preferire sempre la single gpu......
parlando per esperienza.....
da più di un anno non è così
parlando per esperienza.
tuttavia c'è da dire che si trovano gtx295 a 375€ il che significa da 15 a 25 € in più delle 5870 (secondo i rumor sui prezzi). Ovvio che se le prestazioni denotano una parità il rapporto qualità prezzo è comunque a favore di ati, ma non poi di così tanto. in ogni caso non credo che la gtx 295 possa fare vera concorrenza essendo una dual gpu.
Andrea deluxe
21-09-2009, 15:19
da più di un anno non è così
parlando per esperienza.
caro ti sei dimenticato che io ho avuto il quad sli? e anche in single per 3 mesi?
caro ti sei dimenticato che io ho avuto il quad sli? e anche in single per 3 mesi?
che la tecnologia sli sia ormai arcimatura è più che noto, davvero difficile trovare in giro qualche incompatibilità o problema, fai conto che io la uso addirittura in dual monitor e una volta si che erano dolori.
se tu poi hai avuto dei problemi con le tue configurazioni mi dispiace ma secondo me sei veramente tra i rarissimi casi.
Ma com'è che la notizia delle rese scarse non è passata per hwupgrade? e come mai il post circa la visita huang-chang a tsmc parlava di rese del 99.8% a ottobre? si riferivano ai chip di fascia bassa? e poi cos'è esattamente che nvidia non ha e che ati invece ha per cui i 40 nm funzionano da una parte e non dall'altra?
Andrea deluxe
21-09-2009, 15:39
che la tecnologia sli sia ormai arcimatura è più che noto, davvero difficile trovare in giro qualche incompatibilità o problema, fai conto che io la uso addirittura in dual monitor e una volta si che erano dolori.
se tu poi hai avuto dei problemi con le tue configurazioni mi dispiace ma secondo me sei veramente tra i rarissimi casi.
non ho avuto problemi particolari (bioshock)
ma le performance non sono entusiasmanti, e quando lo sono sono minate da problemi di re-sinc e memory leak.
unici giochi dove lo sli funziona in maniera perfetta: grid e dirt
veramente da esempio
chiudiamo ot!
non ho avuto problemi particolari (bioshock)
ma le performance non sono entusiasmanti, e quando lo sono sono minate da problemi di re-sinc e memory leak.
unici giochi dove lo sli funziona in maniera perfetta: grid e dirt
veramente da esempio
chiudiamo ot!
mi sembra che la tua esperienza è davvero lontana (per risultati) dalla mia, da quella di molti utenti del forum e da una miriade di benchmark in giro per la rete.
Io sono soddisfattissimo e mi sentirei di consigliare una configurazione sli a chiunque.
fine dell'ot.
giulio85
21-09-2009, 18:51
se è un'asta o l'hai già vinta, o sai in anticipo il prezzo di chiusura il che è paranormale.
E' un "compralo subito" su ebay... non so se conosci... cmq oramai è andato... vediamo come va la 5870...
Su un chip di quasi 500mm^2? Impossibile.
Hai ragione ho sbagliato io, ma comunque si parlava di rese decenti. quindi cos'ha ati che nvida non ha in questo caso?
Kharonte85
21-09-2009, 20:35
Hia ragione ho sbagliato io, ma in ogni caso si parlava di rese decenti comunque. quindi cos'ha ati che nvida non ha in questo caso?
AMD/ATI ce l'ha piccolo...e questo fa una grande differenza :sofico:
AMD/ATI ce l'ha piccolo...e questo fa una grande differenza :sofico:
:confused:
Andrea deluxe
21-09-2009, 20:37
:confused:
il die della gpu nuova gen.
questo causa anche i costi di produzione maggiori per le schede nvidia? non riescono a sviluppare di meglio? all'azienda leader del mercato manca il know-how? non è che non ci provano nemmeno?
leoneazzurro
21-09-2009, 21:07
Hia ragione ho sbagliato io, ma in ogni caso si parlava di rese decenti comunque. quindi cos'ha ati che nvida non ha in questo caso?
Ridondanza fine.
Quando scrivo al pc perdo un po' il senso della grammatica e della forma. ehe, grazie, editato.
leoneazzurro
21-09-2009, 21:18
Quando scrivo al pc perdo un po' il senso della grammatica e della forma. ehe, grazie, editato.
Ehm, no, era la risposta alla tua domanda: lo shader core di ATI é piú "resistente" agli effetti delle imperfezioni rispetto a quello Nvidia, perché in pratica in ogni cluster ci sono delle unitá ridontanti, ossia "in piú" rispetto a quelle dichiarate in specifica, cosicché se ci fosse una impurezza che danneggia una ALU, entra in funzione quella "di riserva". Per questo motivo hanno rese piú alte. (ovviamente vale per le ALU, un danno nel dispatch processor fa buttar via tutto il die, mentre danni nelle TMU e negli RBE possono dar luogo a versioni "castrate" (tipo la 4830, per intenderci)
Nvidia con la serie G ha solo la ridondanza "coarse" ossia grossolana, puó far disabilitare i cluster danneggiati ma cosí facendo ottiene una GPU di fascia inferiore (come nel caso delle GTX260 rispetto alle GTX280)
Lol che figura, bhè grazie della risposta, che mi ha reso un po' più a conoscenza della materia e dell'involontaria correzione. (c'erano ben due ridondanze nel mio post precedente :D :D)
Ma se nvidia ha meno alu ridondanti come mai il die è grande lo stesso? non sono un esperto come avrete capito, non so nemmeno cos'è una alu ridondante sul piano fisico. ma immagino che mettere una cosa di riserva occupi dello spazio.
leoneazzurro
21-09-2009, 21:27
ovviamente si, occupa dello spazio, ma grazie all´architettura dello shader core non tantissimo, e consente di avere rese superiori e quindi di buttare meno silicio (e di conseguenza far costare meno i chip). Lo spazio occupato dipende dall´architettura scelta per gli shader. ATI ha scelto di avere unitá che presentano delle scelte particolari (VLIW, unitá superscalari a 5 vie) che da un lato forse hanno meno "flessibilitá" di quelle Nvidia ma che permettono una elevatissima densitá in fase di implementazione.
raga che c'è all'orizzonte in casa nvidia?
Cosa dovrebbe uscire di nuovo e quando?
thanks ;)
Dovrebbe uscire G300. Quando è come indovinare un terno al lotto...
certo certo, mi riferivo alle varianti di G300 :)
Andrea deluxe
21-09-2009, 21:49
certo certo, mi riferivo alle varianti di G300 :)
non si sa niente....
Se effettivamente faranno un G200@40nm come mi aspetto credo che prima delle varianti ci sia aspettare almeno un annetto dalla presentazione di G300.
nel senso che sparano prima le top gamma?
yossarian
21-09-2009, 23:56
Ehm, no, era la risposta alla tua domanda: lo shader core di ATI é piú "resistente" agli effetti delle imperfezioni rispetto a quello Nvidia, perché in pratica in ogni cluster ci sono delle unitá ridontanti, ossia "in piú" rispetto a quelle dichiarate in specifica, cosicché se ci fosse una impurezza che danneggia una ALU, entra in funzione quella "di riserva". Per questo motivo hanno rese piú alte. (ovviamente vale per le ALU, un danno nel dispatch processor fa buttar via tutto il die, mentre danni nelle TMU e negli RBE possono dar luogo a versioni "castrate" (tipo la 4830, per intenderci)
Nvidia con la serie G ha solo la ridondanza "coarse" ossia grossolana, puó far disabilitare i cluster danneggiati ma cosí facendo ottiene una GPU di fascia inferiore (come nel caso delle GTX260 rispetto alle GTX280)
anche perchè i circuiti di controllo dei chip ATi sono molto meno complessi ed estesi (e sono proprio quelli ad essere più sensibili a disturbi e imperfezioni)
ovviamente si, occupa dello spazio, ma grazie all´architettura dello shader core non tantissimo, e consente di avere rese superiori e quindi di buttare meno silicio (e di conseguenza far costare meno i chip). Lo spazio occupato dipende dall´architettura scelta per gli shader. ATI ha scelto di avere unitá che presentano delle scelte particolari (VLIW, unitá superscalari a 5 vie) che da un lato forse hanno meno "flessibilitá" di quelle Nvidia ma che permettono una elevatissima densitá in fase di implementazione.
aaaarrrgghh...................
leo, edita subito il tuo e il mio messaggio :D
ilratman
21-09-2009, 23:56
nel senso che sparano prima le top gamma?
si una o due schede, tipo 380-360, e un rebrand con 350 (285)-340(275)-320(260)
Bastoner
22-09-2009, 08:01
aaaarrrgghh...................
leo, edita subito il tuo e il mio messaggio :D
Lol...cos'é, una bestemmia? :D
kiriranshelo
22-09-2009, 08:07
Se effettivamente faranno un G200@40nm come mi aspetto credo che prima delle varianti ci sia aspettare almeno un annetto dalla presentazione di G300.
ma anche no! anche se ammetto che, probabilmente, il viaggio del CEO Nvidia alla TSMC sia dovuto alle G200@40nm e non alla G300 :O
Sì. Probabilmente le derivative di G300 nelle fasce di mercato inferiori faranno la loro comparsa nella serie 400, mentre le stesse fasce nella serie G300 saranno coperte dal respin di G200.
tutte a 40 nm? Sinceramente ero in attesa di una buona fascia media come fu la 8800GT a suo tempo, cioè con processo produttivo + basso delle top gamma del tempo, e molto cloccabile per cui quasi alla pari delle stesse top.
Niente fa pensare che per la serie 300 sarà diverso...
Il che è un bene, basta vedere la longevità di 8800.
ilratman
22-09-2009, 08:31
Con G200 è stato così, c'è voluto un anno per vedere delle derivazioni, solo per la fascia bassissima e dopo anche un rimaneggiamento dell'architettura per ottenere la compliance DX10.1
E per la fascia media perdura l'immortale e pluririnominato G92.
Niente fa pensare che per la serie 300 sarà diverso...
certo che un g92b a 40nm per la fascia bassa sarebbe un bel andare!
lo piazzerei subito nell'htpc se consumasse 50W, la 9800gtx+ ne consuma 100w scarsi adesso, a 40nm si potrebbe.
anche se devo dire che un g200b a 40nm, quindi una 285gtx con ddr5 e più corta con dissi più piccolo mi farebbe proprio gola se la facessero!
ilratman
22-09-2009, 08:36
Il che è un bene, basta vedere la longevità di 8800.
non credo si ripeterà la longevità del g80!
anche perchè all'epoca ati non aveva schede da poter competere, g80 è uscito quando c'era la 1900, poi ati ha fatto la 2900 poi la 3870 e poi la 4870, tre generazioni per superare g80 ma adesso è diverso visto che sarà ati in vantaggio stavolta e a meno che nvidia non faccia cose di cui non sappiamo, ossia un'architettura di g300 nuovamente rivoluzionaria, o g300 non avrà vita lunga!
ilratman
22-09-2009, 08:41
L'unico mio dubbio è se si possa fare così semplicemente, ho il sospetto che uno shrink diretto non sia possibile perché il bus non ci entrerebbe, così come un G200@40nm.
Senza contare che probabilmente la conversione a DX10.1 sarebbe più difficoltosa (o non si spiega perché le prime DX10.1 nVidia siano arrivate su una derivazione di G200 invece che di G98/G96/G92)
Che dire, vedremo...
credo perchè costasse meno rimettere mano al g96, visto che il die shrink doveva assolutamente essere fatto per i portatili, piuttosto che riprogettare g200.
infatti g92 era a 65nm e g92b a 55nm ma non ha le dx10.1!
g200 era 65nm e il g200b a 55nm non ha le dx10.1
g84-86 erano a 80nm e il passaggio a 55nm ha richiesto la riprogettazione per cui hanno messo il 10.1!
in pratica da quel che ho capito se il die shrink è leggero, 65->55, si fa e basta, se invece è pesante 80->55, si riprogetta!
Legolas84
22-09-2009, 08:54
Visto che sto aspettando G300 per farmi il PC nuovo stavo pensando una cosa... voi queste bestie su che monitor le usate?
Io è un pò che sono fuori dal mondo PC desktop a causa del lavoro, ma ora in casa mi ritrovo con un ottimo televisore Full-HD da 46".... avrei avuto anche una mezza idea di collegare il PC a quello ma mi pare davvero troppo grosso... voi che ne dite? Meglio andare sui soliti 24"? (il multimonitor non lo prendo nemmeno in considerazione)....
ilratman
22-09-2009, 09:00
Visto che sto aspettando G300 per farmi il PC nuovo stavo pensando una cosa... voi queste bestie su che monitor le usate?
Io è un pò che sono fuori dal mondo PC desktop a causa del lavoro, ma ora in casa mi ritrovo con un ottimo televisore Full-HD da 46".... avrei avuto anche una mezza idea di collegare il PC a quello ma mi pare davvero troppo grosso... voi che ne dite? Meglio andare sui soliti 24"? (il multimonitor non lo prendo nemmeno in considerazione)....
che centra la dimensione del monitor?
quello che conta è la risoluzione e siccome la tv è uguale ad un 24" non c'è problema, anzi il problema è che una tv solo fullHD queste bestie se la mangiano a colazione! :D
queste schede nuove saranno sfruttate solo con il prossimo std double-fullHD!
halduemilauno
22-09-2009, 09:03
Visto che sto aspettando G300 per farmi il PC nuovo stavo pensando una cosa... voi queste bestie su che monitor le usate?
Io è un pò che sono fuori dal mondo PC desktop a causa del lavoro, ma ora in casa mi ritrovo con un ottimo televisore Full-HD da 46".... avrei avuto anche una mezza idea di collegare il PC a quello ma mi pare davvero troppo grosso... voi che ne dite? Meglio andare sui soliti 24"? (il multimonitor non lo prendo nemmeno in considerazione)....
le userete...
consiglierei da un classico 1920x1200.
;)
ilratman
22-09-2009, 09:12
La diagonale è irrilevante, conta solo la risoluzione. La difficoltà di spingere un 23" a 1920x1080 è la stessa che spingere un 46" a 1920x1080, per la scheda video (non per l'impianto elettrico, chiaramente).
La differenza fra le due soluzioni è che il 23" lo vedi molto bene da relativamente vicino mentre per avere una buona resa dal 46" devi stare distante.
Io sono in procinto di comprare un DELL SP2309W (23" @ 2048x1152), la forza bruta delle VGA domani avrà un picco insperato e voglio essere pronto :D
ha ha alla fine ti ho convinto! :D
cmq è l'unica scelta per le nuove schede video, il 1920x1080 ormai è una passeggiata!
ma allora io che ho un classico lcd 22" 1680x1050 dovrei buttarmi su schede next gen di fascia bassa ?:stordita: :fagiano: :D
Andrea deluxe
22-09-2009, 09:20
ma allora io che ho un classico lcd 22" 1680x1050 dovrei buttarmi su schede next gen di fascia bassa ?:stordita: :fagiano: :D
no, se prendi una top di gamma giocherai molto a lungo cosi con i soldi potrai fare altro (al posto di cambiare sk ogni 6 mesi)
ilratman
22-09-2009, 09:21
ma allora io che ho un classico lcd 22" 1680x1050 dovrei buttarmi su schede next gen di fascia bassa ?:stordita: :fagiano: :D
per le nuove schede g330 o rv870 il 1680x1050 è come per la generazione vecchia l'800x600!
il problema è che hanno talmente tanta potenza che se non usate con il multimonitor o con altissima risoluzione sarebbero sprecate!
ilratman
22-09-2009, 09:22
no, se prendi una top di gamma giocherai molto a lungo cosi con i soldi potrai fare altro (al posto di cambiare sk ogni 6 mesi)
quoto anche se poi la cpu diventa determinante a risoluzioni così basse! :D
quoto anche se poi la cpu diventa determinante a risoluzioni così basse! :D
vabbè okko un pò il procio e tiro avanti:O
per le nuove schede g330 o rv870 il 1680x1050 è come per la generazione vecchia l'800x600!
il problema è che hanno talmente tanta potenza che se non usate con il multimonitor o con altissima risoluzione sarebbero sprecate!
beh, non sono le vga ad avere tutta sta potenza, sono i giochi a non sfruttarle + come un tempo.
è tutta una conseguenza dell'invasione console...
Partiamo dall'ultima grande esclusiva PC, ossia crysis... non credo che con quest'ultimo ci sia molto da scherzare, nel senso che specie con filtri attivi, anche un 1680 con un buon rate è un gran risultato...;)
ilratman
22-09-2009, 09:31
vabbè okko un pò il procio e tiro avanti:O
he he ma a 4GHz il q6600 non ci arriva! ;)
cmq fai bene a tirare avanti! :)
ilratman
22-09-2009, 09:32
beh, non sono le vga ad avere tutta sta potenza, sono i giochi a non sfruttarle + come un tempo.
è tutta una conseguenza dell'invasione console...
Partiamo dall'ultima grande esclusiva PC, ossia crysis... non credo che con quest'ultimo ci sia molto da scerzare, nel senso che specie con filtri attivi, anche un 1680 con un buon rate è un gran risultato...;)
eh si hai ragione!
a 1680 in dx10 e con i filtri attivi sarà ben giocabile solo con queste schede!
ma prendere una cosa così per un solo gioco mi pare poco!
eh si hai ragione!
a 1680 in dx10 e con i filtri attivi sarà ben giocabile solo con queste schede!
ma prendere una cosa così per un solo gioco mi pare poco!
certo, questo è un altro discorso....:)
Crysis è stato programmato da un branco di Criceti Mannari Albini™
beh, dicono tutti così, perchè nel vortice dei porting da console, è risultato il + pesante, ma in senso assoluto non lo è.
tuttavia vorrei ricordare che (come promesso di crytec al lancio) si gioca fluido a 30 fps di media, dettagli in high a 1680 con un modesto c2d, 2 gb di ram, ed una 8800/9800 GT, visto lo spettacolo che offre già a queste impo, mi sembra un gran risultato.
Certo, il rate scende di un bel po' con AA attivo, ma non è colpa degli sviluppatori se in una location come una fortesta ci sia un botto da rettificare e la vga faccia fatica.
non credo si ripeterà la longevità del g80!
anche perchè all'epoca ati non aveva schede da poter competere, g80 è uscito quando c'era la 1900, poi ati ha fatto la 2900 poi la 3870 e poi la 4870, tre generazioni per superare g80 ma adesso è diverso visto che sarà ati in vantaggio stavolta e a meno che nvidia non faccia cose di cui non sappiamo, ossia un'architettura di g300 nuovamente rivoluzionaria, o g300 non avrà vita lunga!
E' la mia speranza, che si ripeta un g80, insomma una scheda in grado di durare a lungo e l'intenzione di tagliare col passato mi è sempre apparsa palese.
Per la meraviglia che manda a video Crysis gira benissimo, io non ho nessunissimo problema e gioco a very high :)
Per la meraviglia che manda a video Crysis gira benissimo, io non ho nessunissimo problema e gioco a very high :)
certo, e ti gira bene con una vga di fascia ormai media.. non vedo cosa ci sia da pretendere di +.
Il grosso problema, è che quando un uccellino dice qualcosa (nella fattispecie che crysis è un mattone) un branco di pappagalli comincia a ripeterlo all'infinito fino a renderlo un luogo comune.
yossarian
22-09-2009, 10:04
VLIW è il contrario di Superscalare :>
diciamo che sono piuttosto differenti (diametralmente opposti) a livello di gestione dell'ILP :D
leoneazzurro
22-09-2009, 10:09
VLIW è il contrario di Superscalare :>
aaaarrrgghh...................
leo, edita subito il tuo e il mio messaggio :D
Volevo dire che esegue calcoli su 5 componenti scalari, mi è scappato un "super" di troppo, uff :sofico:
Legolas84
22-09-2009, 11:58
Ragazzi lo so anche io che la diagonale non incie sulle prestazioni della vga :asd: Mi sarò espresso male ma non sono un niubbo dell'informatica :asd:
Il mio discorso non era tanto incentrato sulla risoluzione... lo so che si va almeno a 1920x1200 ma più che altro sulla praticità di usare una TV 46" per i giocare al PC.... forse non è più comodo un 24"?
Perchè la TV essendo in salotto come cavolo fai poi a usare le periferiche del PC? :D
Ma questi eventuali die shrink a 40nm delle gt200 di fascia altina, ammesso che li faranno, potranno secondo voi in qualche modo contrastare le hd5870-5890? no perchè senza concorrenza ati può piazzare prezzi alti senza rischi
Legolas84
22-09-2009, 13:19
Come ti ho detto non c'è differenza, se stai alla giusta distanza dalla TV. Certo se sei troppo vicino a parte il fatto che ti abbronzi ( :asd: ) vedi dei pixel grossi come pompelmi. Io preferisco l'alta risoluzione su monitor piccoli :)
La distanza sarebbe regolare usando il PC seduto sul divano... però a quel punto diventerebbe scomodo se non impossibile usare tastiera e mouse... quindi mi sa che pur essendo potenzialmente una bella soluzione, risulti poi in pratica difficilmente realizzabile...
Quindi si andrebbe comunque a parare su Monitor da 24" al massimo con risoluzioni Full-HD o maggiori... i DeLL sono buoni? (lo so che sono leggermente off ma nemmeno tanto, più che altro ho già deciso tutti i pezzi tranne il monitor :D ).
Legolas84
22-09-2009, 13:31
I DELL hanno una garanzia impareggiabile e questo mi basta :D
Ho scelto l'SP2309H (molto caldeggiato da ilratman :asd: ) perché ha una nativa molto elevata per la diagonale che ha, cosa che solitamente i produttori si scordano fino ai limiti assurdi dei 26" @ 1920x1080 -.-
Io credo andrò massimo su 1920x1200, al massimo userò più filtri se G300 lo permetterà ;)
Come diagonale massimo 24" perchè non voglio starci distante.... Magari poi guardo cosa offre DeLL in questo senso :)
ilratman
22-09-2009, 13:35
I DELL hanno una garanzia impareggiabile e questo mi basta :D
Ho scelto l'SP2309H (molto caldeggiato da ilratman :asd: ) perché ha una nativa molto elevata per la diagonale che ha, cosa che solitamente i produttori si scordano fino ai limiti assurdi dei 26" @ 1920x1080 -.-
he he
concordo che i 26" a 1920x1200 con i pixel grossi come meloni sono uno schifo!
eppure c'è gente che lo prende e poi fa questi commenti
:eek: :D ;) :sofico: :sbav: :ave: :winner: :yeah: :sborone:
io invece farei
:mc: :muro: :banned: :doh: :nono: :hic: :zzz: :asd:
he he
concordo che i 26" a 1920x1200 con i pixel grossi come meloni sono uno schifo!
eppure c'è gente che lo prende e poi fa questi commenti
:eek: :D ;) :sofico: :sbav: :ave: :winner: :yeah: :sborone:
io invece farei
:mc: :muro: :banned: :doh: :nono: :hic: :zzz: :asd:
i 1920 vanno bene su monitor da 21 pollici.. più i punti son piccini e più sono contento :O
Andrea deluxe
22-09-2009, 13:52
perche' non avete ancora visto un dell 27".......:D
ilratman
22-09-2009, 14:05
perche' non avete ancora visto un dell 27".......:D
mai preso in considerazione e nessuno lo compra perchè costa troppo e con poco di più prendi il 30"!
cmq a fine anno con le tv double spero che anche i monitor si adeguino!
mai preso in considerazione e nessuno lo compra perchè costa troppo e con poco di più prendi il 30"!
cmq a fine anno con le tv double spero che anche i monitor si adeguino!
volevi dire "con poco più del doppio prendi il 30" ;)
Legolas84
22-09-2009, 16:15
mai preso in considerazione e nessuno lo compra perchè costa troppo e con poco di più prendi il 30"!
cmq a fine anno con le tv double spero che anche i monitor si adeguino!
Cosa sarebbero le TV double?
Bastoner
22-09-2009, 16:59
beh, dicono tutti così, perchè nel vortice dei porting da console, è risultato il + pesante, ma in senso assoluto non lo è.
tuttavia vorrei ricordare che (come promesso di crytec al lancio) si gioca fluido a 30 fps di media, dettagli in high a 1680 con un modesto c2d, 2 gb di ram, ed una 8800/9800 GT, visto lo spettacolo che offre già a queste impo, mi sembra un gran risultato.
Certo, il rate scende di un bel po' con AA attivo, ma non è colpa degli sviluppatori se in una location come una fortesta ci sia un botto da rettificare e la vga faccia fatica.
Secondo me giocare a 30 frames fa schifo. Me ne sono accorto quanto ho preso la seconda gtx280: Crysis va a 50-60 frame (tutto al max aa4x 1680x1050), e fa paura!!! Sembra un altro gioco rispetto ai 30 frames, é di una bellezza indescrivibile. :D
Life bringer
22-09-2009, 17:30
Quella dei 30frame è una maledizione proveniente dalle console, noi siamo sempre stati abituati ai 60! :yeah:
Secondo me giocare a 30 frames fa schifo. Me ne sono accorto quanto ho preso la seconda gtx280: Crysis va a 50-60 frame (tutto al max aa4x 1680x1050), e fa paura!!! Sembra un altro gioco rispetto ai 30 frames, é di una bellezza indescrivibile. :D
beh, se consideri che a 30 fps ci si gioca pure a shift, o altri giochi di guida, direi che parlare di schifo per un fps, è un eccesso.
Secondo me giocare a 30 frames fa schifo. Me ne sono accorto quanto ho preso la seconda gtx280: Crysis va a 50-60 frame (tutto al max aa4x 1680x1050), e fa paura!!! Sembra un altro gioco rispetto ai 30 frames, é di una bellezza indescrivibile. :D
quoto!!!!
Penso ci vorranno altre 6 generazioni di console per mandare a 30fps l'engine di Crysis scritto da Criceti Mannari Albini™ :asd:
almeno su questo non ci piove
x.vegeth.x
23-09-2009, 13:35
quando dovremmo vedere la nuova ammiraglia basata su g300?
beh, se consideri che a 30 fps ci si gioca pure a shift, o altri giochi di guida, direi che parlare di schifo per un fps, è un eccesso.
io se dovessi giocare a shift o qualsiasi gioco di auto a 30fps mi verrebbe l'orticaria appertutto :rolleyes:
io se dovessi giocare a shift o qualsiasi gioco di auto a 30fps mi verrebbe l'orticaria appertutto :rolleyes:
beh, paragonare il rate in un gioco di corse, con quello di un fps, mi sembra un bel po' azzardato...
DjBaldux
23-09-2009, 14:51
Siamo li :D
Ad un fps muori, ad un gioco di auto perdi la gara, e non è certo bello:ciapet:
Elendil_1
23-09-2009, 14:57
Siamo li :D
Ad un fps muori, ad un gioco di auto perdi la gara, e non è certo bello:ciapet:
Beh, morire è certamente più grave che perdere una gara.
Penso ci vorranno altre 6 generazioni di console per mandare a 30fps l'engine di Crysis scritto da Criceti Mannari Albini™ :asd:
che si fanno le lampade senza crema solare;)
:asd:
Siamo li :D
Ad un fps muori, ad un gioco di auto perdi la gara, e non è certo bello:ciapet:
questa è una cazzata, perchè non ho mai visto nessuno morire in un fps perchè fa 30fps(troppi fps in giro in sta frase :asd:) cioè non mi pare che online la gente vinca perchè uno ha la gtx280 e quello che perde ha la nvidia 6600...
quindi...
beh, paragonare il rate in un gioco di corse, con quello di un fps, mi sembra un bel po' azzardato...
non ho paragonato nulla, ho parlato esclusivamente di fps (fotogrammi per secondo) nei giochi di guida, ed ho semplicemente detto che per me 30 al secondo sono pochi. IMHO
questa è una cazzata, perchè non ho mai visto nessuno morire in un fps perchè fa 30fps(troppi fps in giro in sta frase :asd:) cioè non mi pare che online la gente vinca perchè uno ha la gtx280 e quello che perde ha la nvidia 6600...
quindi...In giochi frenetici la differenza tra 30fps e 60fps é notevole.
Poi é anche un fattore soggettivo...
ilratman
23-09-2009, 15:46
In giochi frenetici la differenza tra 30fps e 60fps é notevole.
Poi é anche un fattore soggettivo...
in tf2 per esempio per me è importante non andare mai sotto i 60fps!
non ho paragonato nulla, ho parlato esclusivamente di fps (fotogrammi per secondo) nei giochi di guida, ed ho semplicemente detto che per me 30 al secondo sono pochi. IMHO
perdonami, non avevo letto che ti riferivi solo ai giochi di guida...:p
Horizont
24-09-2009, 14:09
GT300 deve muoversi ad uscire...io non resisterò tanto a lungo con la 8800GT...e all'orizzonte ci sono titoloni!!
se arriva troppo tardi mi dovrò prende una 260/275! :/
ilratman
24-09-2009, 14:12
GT300 deve muoversi ad uscire...io non resisterò tanto a lungo con la 8800GT...e all'orizzonte ci sono titoloni!!
se arriva troppo tardi mi dovrò prende una 260/275! :/
perchè non una 5850?
io adesso ho la 8800gt ma la curiosità sulle nuove ati è forte!
poi nvidia ha schede troppo lunghe per il mio scopo e ha i connettori messi in modo che non chiudo più il case!
sinceramente poi non prenderò a parità di prezzo una cosa di gen vecchia, soprattutto considerando che le nvidia essendo solo dx10 hanno un innegabile svantaggio usando i filtri e io voglio l'aa al max sempre!
GT300 deve muoversi ad uscire...io non resisterò tanto a lungo con la 8800GT...e all'orizzonte ci sono titoloni!!
se arriva troppo tardi mi dovrò prende una 260/275! :/
io se mi dovessi prendere una scheda di ripiego alla fascia di prezzo della 275 sicuramente mi farei una nuova 5850 ati ;)
cmq secondo me schede gt300 in commercio in italia come minimo ci vuole inizio anno nuovo.
perchè non una 5850?
lol abbiamo postato la stessa considerazione nello stesso momento :)
Life bringer
24-09-2009, 14:17
GT300 deve muoversi ad uscire...io non resisterò tanto a lungo con la 8800GT...e all'orizzonte ci sono titoloni!!
se arriva troppo tardi mi dovrò prende una 260/275! :/
Piccoli fanboy crescono :rotfl:
ilratman
24-09-2009, 14:25
Piccoli fanboy crescono :rotfl:
io sono sempre stato un pro nvidia ma quando ati è superiore lo si deve ammettere!
sono proprio curioso di vedere come va nel mio htpc una 5850.
questo ovviamente se nvidia non mi fa una g300 sotto i 300€, più corta di 25cm e con i connettori in orizzontale sul lato lungo.
Anche io vado di nVidia GTS250 per lavoro ecc.
Ma vedremo come si comporterà
halduemilauno
24-09-2009, 14:29
GT300 deve muoversi ad uscire...io non resisterò tanto a lungo con la 8800GT...e all'orizzonte ci sono titoloni!!
se arriva troppo tardi mi dovrò prende una 260/275! :/
le dx11 saranno ufficialmente rilasciate insieme al nuovo sistema operativo(windows 7)il 22 ottobre. a tutt'ora per quel che so nvidia dovrebbe esser pronta con una mesata di ritardo. ma non è da escludere(tutt'altro anzi)che cmq per quel periodo non rilasci info(leggasi slides)in merito.
;)
halduemilauno
24-09-2009, 14:31
io sono sempre stato un pro nvidia ma quando ati è superiore lo si deve ammettere!
sono proprio curioso di vedere come va nel mio htpc una 5850.
questo ovviamente se nvidia non mi fa una g300 sotto i 300€, più corta di 25cm e con i connettori in orizzontale sul lato lungo.
di GF3xx ne sono previste + modelli quindi si una sotto i 300€ si che ci sarà.
;)
ilratman
24-09-2009, 14:32
Anche io vado di nVidia GTS250 per lavoro ecc.
Ma vedremo come si comporterà
dipende da quello che devi fare, ahimè il g92 ha una pecca architetturale in opengl che compromette le prestazioni.
solo le quadro con il supporto hw riescono a lavorare bene in opengl!
stessa cosa credo il g200.
diciamo che nvidia negli ultimi anno ha lasciato andare le opengl, peccato perchè prima non c'era concorrenza se uno voleva opengl sceglieva nvidia adesso è il contrario! :(
dipende da quello che devi fare, ahimè il g92 ha una pecca architetturale in opengl che compromette le prestazioni.
solo le quadro con il supporto hw riescono a lavorare bene in opengl!
Io lavoro con Photoshop CS4 Illustrator Fireworks ecc..
A me va benissimo per i consumi bassi in idle ;)
Life bringer
24-09-2009, 14:35
io sono sempre stato un pro nvidia ma quando ati è superiore lo si deve ammettere!
sono proprio curioso di vedere come va nel mio htpc una 5850.
questo ovviamente se nvidia non mi fa una g300 sotto i 300€, più corta di 25cm e con i connettori in orizzontale sul lato lungo.
Guarda, siamo nella stessa identica situazione, anche io ho una 8800gt, io vado dove mi spinge la convenienza, ati o nvidia, storicamente ho avuto più nvidia, ora ho nvidia, ma non avrei nessun problema a prendere le ultime uscite ati nel caso si dimostrino superiori nel rapporto prezzo\prestazioni, non capisco che senso abbia andare di gt200 ad oggi, forse pisixixixixixxixi? :asd:
io sono sempre stato un pro nvidia ma quando ati è superiore lo si deve ammettere!
sono proprio curioso di vedere come va nel mio htpc una 5850.
questo ovviamente se nvidia non mi fa una g300 sotto i 300€, più corta di 25cm e con i connettori in orizzontale sul lato lungo.
anche a me ste 58 attizzano, il problema è che ora con titoli attuali vanno ok, ma visto il penoso sviluppo driver, al primo nuovo gioco, si deve aspettare minimo una nuova revision di driver...:muro:
Life bringer
24-09-2009, 14:42
1. Aspetti che crolli il prezzo.
2. La compri con Batman in bundle.
3. La rivendi senza Batman per "errato acquisto" a 30€ in meno.
4. Ti compri una 5850.
Un senso ce l'ha...
Oh man che traffico, machiavellico :asd:
Bastoner
24-09-2009, 14:57
Sono passato ad ATi per la prima volta con una 2600XT, ho fatto poi 3870, 4870 e sono in attesa di Toxic/Vapor per fare 5870 e di problemi con giochi appena usciti non ne ho avuto alcuno.
Forse è un problema delle x2, ma non posso confermare, per me il multigpu possono tenerselo a lungo entrambe.
I pregiudizi sono duri a morire.
I pregiudizi sono duri a morire.
avete ragione, spesso si esagera quando si parla di queste cose, però è anche innegabile che è più facile avere qualche grattacapo con una ATI che con un NVIDIA(qui (http://www.hwupgrade.it/forum/showthread.php?t=2048910)un esempio recente), con questo non voglio dire che ATI faccia schifo, anzi, ma che semplicemente ogni marca ha i suoi pregi e difetti :)
avete ragione, spesso si esagera quando si parla di queste cose, però è anche innegabile che è più facile avere qualche grattacapo con una ATI che con un NVIDIA(qui (http://www.hwupgrade.it/forum/showthread.php?t=2048910)un esempio recente), con questo non voglio dire che ATI faccia schifo, anzi, ma che semplicemente ogni marca ha i suoi pregi e difetti :)
boh, io vedo solo che ultimamente il crossfire scala meglio dell'sli, mentre prima era il contrario
avete ragione, spesso si esagera quando si parla di queste cose, però è anche innegabile che è più facile avere qualche grattacapo con una ATI che con un NVIDIA(qui (http://www.hwupgrade.it/forum/showthread.php?t=2048910)un esempio recente), con questo non voglio dire che ATI faccia schifo, anzi, ma che semplicemente ogni marca ha i suoi pregi e difetti :)
quoto. sono stato atista per anni e anni, se non avessi visto ripetuti e inqualificabili inconvenienti, non l'avrei cambiata per nulla al mondo...
Guarda io tra 2600XT e 9600GT non ho notato nessuna differenza a livello driver...
Anzi, siccome gioco tantissimo con giochi basati sul source, con la nVidia mi crasha quando esco dai giochi, mentre con ATi non succedeva.
Ma siccome succede solo ed esclusivamente quando esco, non é un problema.
Non ho niente da rimproverare a nessuna delle 2 case, e di demo ne provo a bizzeffe :) (anche se poi alla fine gioco sempre a quei 4-5 giochi col source :D)
ilratman
24-09-2009, 21:12
Guarda io tra 2600XT e 9600GT non ho notato nessuna differenza a livello driver...
Anzi, siccome gioco tantissimo con giochi basati sul source, con la nVidia mi crasha quando esco dai giochi, mentre con ATi non succedeva.
Ma siccome succede solo ed esclusivamente quando esco, non é un problema.
Non ho niente da rimproverare a nessuna delle 2 case, e di demo ne provo a bizzeffe :) (anche se poi alla fine gioco sempre a quei 4-5 giochi col source :D)
sai benissimo che anch'io gioco con il source e non ho mai avuto nessun problema con le 3 nvidia con cui lo ho provato, due quadro e la 8800gt!
ati non le prendo dal 2001 perchè avevano troppi problemi in opengl e neanche quelle ch ho preso dopo per lavoro mi hanno soddisfatto!
stavolta ci riprovo con la 5850 speriamo bene!
sai benissimo che anch'io gioco con il source e non ho mai avuto nessun problema con le 3 nvidia con cui lo ho provato, due quadro e la 8800gt!
ati non le prendo dal 2001 perchè avevano troppi problemi in opengl e neanche quelle ch ho preso dopo per lavoro mi hanno soddisfatto!
stavolta ci riprovo con la 5850 speriamo bene!
azz riprovi?:)
x.vegeth.x
24-09-2009, 22:11
ma a quando ste gt 300 gtx?
ilratman
24-09-2009, 22:23
azz riprovi?:)
Si ci riprovo con la 5850 asus gia oc a 1050 per la gpu e 5200 per le ram.
boh, io vedo solo che ultimamente il crossfire scala meglio dell'sli, mentre prima era il contrario
Con due singole GPU si, vediamo se riesce a fare lo stesso anche con due X2!
sai benissimo che anch'io gioco con il source e non ho mai avuto nessun problema con le 3 nvidia con cui lo ho provato, due quadro e la 8800gt!
ati non le prendo dal 2001 perchè avevano troppi problemi in opengl e neanche quelle ch ho preso dopo per lavoro mi hanno soddisfatto!
stavolta ci riprovo con la 5850 speriamo bene!Purtroppo l'informatica non é una scienza esatta (cit.) :D
Per questo non mi sento di incolpare nvidia per il piccolo problemino che ho, e anzi, metto le 2 case sullo stesso piano.
kiriranshelo
25-09-2009, 08:11
...a tutt'ora per quel che so nvidia dovrebbe esser pronta con una mesata di ritardo...
c'è da considerare anche che ci sono di mezzo anche i chipset precedenti (non ricordo le sigle) a 40nm!
avete ragione, spesso si esagera quando si parla di queste cose, però è anche innegabile che è più facile avere qualche grattacapo con una ATI che con un NVIDIA(qui (http://www.hwupgrade.it/forum/showthread.php?t=2048910)un esempio recente), con questo non voglio dire che ATI faccia schifo, anzi, ma che semplicemente ogni marca ha i suoi pregi e difetti :)
Il confronto andrebbe fatto su giochi sviluppati senza il contributo di nessun produttore di schede video, non che il contributo sia sbagliato di per se, ma non si può prendere un software sviluppato ad hoc per una o l'altra casa come esempio.
Doom3 vs Half Life2
6800 vs x800
E' ovvio che se il gioco viene sviluppato come se ci fossero solo schede nvidia con le ATI andrà male. Ti sembra una cosa logica che ad ogni gioco serva un release di driver apposita ?! Magari se invece di pensare al physx avessero ottimizzato il gioco anche per le ATI questo problema non ci sarebbe stato.
Nel menu del gioco non c'è alcuna impostazione relativa all'attivazione degli effetti physx, quindi questi si attivano\disattivano in automatico in presenza di una scheda nvidia oppure in caso la scheda nvidia non ci fosse il carico viene spostato sulla cpu abbassando le prestazioni ? Purtroppo gli effetti aggiunti con il physx sono cosi ridotti, che se non so già quali sono non riesco a notarli.
Si ci riprovo con la 5850 asus gia oc a 1050 per la gpu e 5200 per le ram.
non temi che i driver facciano le bizze coi nuovi titoli?
devAngnew
25-09-2009, 09:26
dipende da quello che devi fare, ahimè il g92 ha una pecca architetturale in opengl che compromette le prestazioni.
solo le quadro con il supporto hw riescono a lavorare bene in opengl!
stessa cosa credo il g200.
diciamo che nvidia negli ultimi anno ha lasciato andare le opengl, peccato perchè prima non c'era concorrenza se uno voleva opengl sceglieva nvidia adesso è il contrario! :(
Ma di quali pecche parli posso essere delucidato ....:)
ilratman
25-09-2009, 09:40
Ma di quali pecche parli posso essere delucidato ....:)
prova a lavorare al cad 3d, parlo di proe ovviamente, con la 8800gt e lo capirai un supplizio usare il wireframe e fare tavole e non ti dico la rigenerazione del 3d dopo uno spostamento. Con le gen prima della 8800, tipo 6600, non succede e ovviamente non succ con le quadro.
http://www.tomshw.it/news.php?newsid=19499
old? :)
halduemilauno
25-09-2009, 09:54
http://www.tomshw.it/news.php?newsid=19499
old? :)
+ che altro è il thread sbagliato.
+ che altro è il thread sbagliato.
:doh: sorry errore mio, avevo tutte e due le finestre aperte :)
lol te la sei pure rivenduta nel t3d giusto :D
Secondo me giocare a 30 frames fa schifo. Me ne sono accorto quanto ho preso la seconda gtx280: Crysis va a 50-60 frame (tutto al max aa4x 1680x1050), e fa paura!!! Sembra un altro gioco rispetto ai 30 frames, é di una bellezza indescrivibile. :D
Secondo me come affermazione è un po' esagerata...ad esempio, come suggerivano altri utenti, nei racing-game, negli RTS, e nei simulatori 30frame/s sono sufficienti..il problema sorge nel momento in cui non c'è costanza nel framerate: se giochi ad un FPS con un framerate medio di 60 un possibile picco minimo è pari a 30/35FPS mentre se giochi lo stesso FPS con un framerate medio pari a 30 il picco minimo è potrebbe essere tali da rendere visibilissima la caduta di fluidità... :)
Tornando IT..noto ancora che la voce secondo la quale i driver ATI sono pessimi stenta a morire... :( ed altri continuano a pensare che Crysis sia mal programmato...=) IMHO è "Crysis stesso" che tiene attive le vendite nel settore VGA/CPU...: siete così sicuri che non la pessima scalabilità in performance non fosse voluta...!?
halduemilauno
25-09-2009, 10:19
ultime news...
http://www.fudzilla.com/content/view/15688/1/
2009 launch if all goes smooth
September is the month when 40nm next generation architecture, something we call GT300 should get taped out. We can confirm that this has already happened and that some VIP analysts and investors have already laid eyes on this DirectX 11 card.
If you do the math, it takes at least six weeks after tape out to release the card and get it ready for full scale production and if the tape out occurred on the first days of September, the full production can start in the middle of October. It is always at least six weeks.
Nvidia was always aiming for a launch close to Black Friday, the first Friday after Thanksgiving and this year it is on November 27th. It is important to launch the product before this date as most of the shopping is usually done around this date.
If something goes wrong with Nvidia's schedule, they can easily start shipping in December time, but the worst case scenario is to show the card in the next few weeks just to keep the fanboys comfortable with waiting for the next Nvidia's DirectX 11 offering and ship it as soon as possible.
You might remember they did this with Geforce GTX 295 last year, and it did work for them.
http://www.fudzilla.com/content/view/15689/1/
Senior manager confirmed
After a lot of rumours about bad yields with GT300, Nvidia has decided to talk to us and give us a simple quote about the state of its next generation 40nm product line.
Senior manager from Nvidia has told Fudzilla that “Our (Nvidia’s) 40nm yields are fine. The rumors you are hearing are baseless.”
This comes after some stories that GT300 yields are really bad and that next generation Nvidia is in really bad shape. According to AMD’s competitive analysis team, only nine chips should work per wafer, but they got this number due to a bad translation and we can definitely dismiss this number as completely inaccurate information.
As we've said before, the chip we call GT300 is a completely new design and it simply could not come out earlier. Nvidia certainly doesn’t like the fact that ATI is first with new technology again, but it comforts them that they can make its DirectX 11 faster.
You can expect a lot of architectural changes - the chip is completely redesigned and much faster than the GT200 generation. We would not be surprised if Nvidia starts talking about the chip ahead of official announcement as it currently hurts from positive Radeon 5870 reviews around the globe.
;)
Life bringer
25-09-2009, 10:25
Yeeee mano male che c'è il buon hal che tiene vive le speranze con una fonte autorevolissima :asd:
devAngnew
25-09-2009, 10:26
prova a lavorare al cad 3d, parlo di proe ovviamente, con la 8800gt e lo capirai un supplizio usare il wireframe e fare tavole e non ti dico la rigenerazione del 3d dopo uno spostamento. Con le gen prima della 8800, tipo 6600, non succede e ovviamente non succ con le quadro.
Ma che io sappia le quadro hanno lo stesso chip delle soluzione per gamer quindi forse è solo questione di driver e non una questione hardware come mi sembra di aver capito di tuoi post.
+ che altro è il thread sbagliato.
L'ha preso per il thread di ATI .....:asd:
:sbonk:
http://www.twenga.it/prezzi/asus-geforce-295-gtx-mars-78273612.html
intanto che aspettiamo G300 potremmo fiondarci a comprare queste
:sbonk:
http://www.twenga.it/prezzi/asus-geforce-295-gtx-mars-78273612.html
intanto che aspettiamo G300 potremmo fiondarci a comprare queste
ma se lasciano un prezzo simile per la mars edition a quanto uscirà GT 300? 4000 euro?
ma se lasciano un prezzo simile per la mars edition a quanto uscirà GT 300? 4000 euro?
la Mars non fa testo, c'è anche un discorso di tiratura limitata (solo 1000 pezzi ne hanno fatto, mi pare).
halduemilauno
25-09-2009, 10:51
:sbonk:
http://www.twenga.it/prezzi/asus-geforce-295-gtx-mars-78273612.html
intanto che aspettiamo G300 potremmo fiondarci a comprare queste
credo che questa tua provocazione sia fuori luogo. visto che tra l'altro le GTX295 si trovano(e diverse)sotto i 400€.
http://www.trovaprezzi.it/categoria.aspx?libera=gtx295&id=28&prezzomin=&prezzomax=&sbox=sb&page=1&sort=Prezzo&sortdir=0
cmq spero che l'ot finisca qui.
:sbonk:
http://www.twenga.it/prezzi/asus-geforce-295-gtx-mars-78273612.html
intanto che aspettiamo G300 potremmo fiondarci a comprare queste
:D
credo che questa tua provocazione sia fuori luogo. visto che tra l'altro le GTX295 si trovano(e diverse)sotto i 400€.
http://www.trovaprezzi.it/categoria.aspx?libera=gtx295&id=28&prezzomin=&prezzomax=&sbox=sb&page=1&sort=Prezzo&sortdir=0
cmq spero che l'ot finisca qui.
però ora come ora 400 son comunque troppi. Il prezzo competitivo delle 295 attualmente sarebbe sui 300-330 euro, non di più
però ora come ora 400 son comunque troppi. Il prezzo competitivo delle 295 attualmente sarebbe sui 300-330 euro, non di più
io una multy gpu non la prenderei a prescindere
halduemilauno
25-09-2009, 10:55
però ora come ora 400 son comunque troppi. Il prezzo competitivo delle 295 attualmente sarebbe sui 300-330 euro, non di più
intanto come si vede sono anche 360/370€. cmq certo ne convengo con te un 40/50€ ancora di meno sarebbero opportuni e graditi.
fine ot.
però ora come ora 400 son comunque troppi. Il prezzo competitivo delle 295 attualmente sarebbe sui 300-330 euro, non di più
mi fanno sempre un po' ridere questo tipo di affermazioni da megaprofessionisti del marketing.
potresti mandare il cv a nvidia e dirgli che hai delle incredibili strategie commerciali per renderli competitivi.
ma forse chi fa i prezzi ha accesso a qualche informazione in più del tipo: scorte, stime di produzione, disponibilità, analisi della concorrenza, previsioni di vendita, etc.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.