View Full Version : Pronte al debutto le nuove NVIDIA GeForce GTX 295
Redazione di Hardware Upg
26-05-2009, 10:14
Link alla notizia: http://www.hwupgrade.it/news/skvideo/pronte-al-debutto-le-nuove-nvidia-geforce-gtx-295_29093.html
Attese al debutto a breve le nuove schede video NVIDIA con due chip GT200, costruite ora con un singolo PCB e nuovo sistema di raffreddamento
Click sul link per visualizzare la notizia.
Severnaya
26-05-2009, 10:20
ma la gpu posta all'interno del case dissiperà bene il calore?!
finalmente un design decente...
g.luca86x
26-05-2009, 10:22
"nuove" gtx295... ma due gpu una sola ventolina? finalmente si ha una scheda video che non è un semplice panino ma ho delle perplessità sulle temperature...
Ecco, così assomiglia di più alla mia 4850X2 :)
Il sistema di raffreddamento è molto interessante, comunque...
Davvero bella e sicuramente incredibilmente prestante!
Quando arriverà a prezzi decenti la prenderò volentieri.
Ben fatto Nvidia.
Tuvok-LuR-
26-05-2009, 10:36
orrenda come tutte le dual gpu
Se quel layout serve a limare quei 30-50 euro sul prezzo finale, ben venga. Ma le indiscrezioni dicono che non cambierà nulla.
Altrimenti, non penso che l'utente stia lì a guardare se le gpu fanno davvero 2-3 C° in meno, o quanta aria resti nel case piuttosto che scaricata all'esterno dalla feritoia posteriore (mentre una metà resta nel case, dalla feritoia anteriore).
si può parlare di bellezza quando si guarda una gpu?
è come essere infastiditi dal fatto che non ci piace l'interno del nostro monitor...
secondo me stiamo arrivando alla frutta!
Bah, io se fossi stato in Nvidia avrei studiato per fare un bel dual core di GPU con 2 GPU Gtx 275 nello stesao package non avrei mai speso altri soldi per sta cosa... a sto punto è meglio il panino :D
Bah, io se fossi stato in Nvidia avrei studiato per fare un bel dual core di GPU con 2 GPU Gtx 275 nello stesao package non avrei mai speso altri soldi per sta cosa... a sto punto è meglio il panino :D
Veramente è il contrario, per fare la GTX275 hanno dimezzato la 295, di fatto la 295 è esattamente l'unione di 2 GPU 275. ;)
g.luca86x
26-05-2009, 11:16
senza contare che fare una dual gpu sullo stesso chip significa fare un chip che come dimensioni è il doppio e a parità di resa del silicio è un suicidio! infatti in caso di chip non funzionante devi buttare il doppio del silicio dopo averlo lavorato di più rispetto alla singola gpu!
No no, niente da fare, aspetto GT 300 anche se questa sembra un'ottima soluzione.
No no, niente da fare, aspetto GT 300 anche se questa sembra un'ottima soluzione.
Anche io aspetto la serie 300: non ha senso cambiare per miglioramenti marginali
provolinoo
26-05-2009, 11:37
Più che altro esistono case abbastanza larghi da montarla? :stordita:
Kharonte85
26-05-2009, 11:39
Prova tecnica per il futuro?
sdjhgafkqwihaskldds
26-05-2009, 11:40
ben venga la versione non appaninata, così costa meno anche il WB, quello per la versione "big mac" costa sui 130-150 euri :eekk:
maumau138
26-05-2009, 12:02
Bene per Nvidia, gli costa di meno (1 PCB is megl che 2), ha prestazioni identiche al panino, e hanno due possibilità.
1)Lasciano lo stesso prezzo aumentano i margini
2)Riducono il prezzo mantenendo gli stessi margini
P.S. non incominciamo con la storia delle GPU multi-core che spunta fuori ad ogni notizia sulle schede video x2
La prenderei solo per il design :D
1- principalmente è una prova tecnica per il futuro.
2- comprare sta scheda per poi rivenderla per comprarsene una con le directx 11 sotto natale non ne vale la pena...
3- ben fatto a nvidia che ha voluto sperimentare una soluzione ati (parlo da utente nvidia e tifoso nvidia...), d'altronde tutti "prendiamo spunto" dal vicino di casa... :D
JohnPetrucci
26-05-2009, 12:19
Più che altro esistono case abbastanza larghi da montarla? :stordita:
Certamente, i tower e il mio HAf 922 middle tower.;) :D
sdjhgafkqwihaskldds
26-05-2009, 12:21
Più che altro esistono case abbastanza larghi da montarla? :stordita:
entra tranquilla anche nel mio microatx
CoolBits
26-05-2009, 12:28
chissa se il prezzo verrà ridotto in teoria ci dovrebbe essere un bel risparmio rispetto al "panino"
Bah, io se fossi stato in Nvidia avrei studiato per fare un bel dual core di GPU con 2 GPU Gtx 275 nello stesao package non avrei mai speso altri soldi per sta cosa... a sto punto è meglio il panino :D
E' proprio questo il motivo per cui in nVidia non ci entrerai mai, forse nemmeno come commerciale... :D
GPU dual core... :asd: Torniamo al 1920... :asd:
@less@ndro
26-05-2009, 12:36
1- principalmente è una prova tecnica per il futuro.
2- comprare sta scheda per poi rivenderla per comprarsene una con le directx 11 sotto natale non ne vale la pena...
3- ben fatto a nvidia che ha voluto sperimentare una soluzione ati (parlo da utente nvidia e tifoso nvidia...), d'altronde tutti "prendiamo spunto" dal vicino di casa... :D
:mbe: maccelafai? :mbe:
comunque ho ragione io. :O
Crimson Skies
26-05-2009, 12:41
Io ho quello che alcuni di voi hanno chiamato "panino" e devo dire che questa nuova "piadina" non è male. Il design è più bello quello del "panino". E poi panino o piadina rimane comunque la migliore scheda del mercato altro che ATI x2.:D
... finalmente dopo una dozzina d'anni hanno rispolverato il design della 3Dfx v5500 :asd:
si può parlare di bellezza quando si guarda una gpu?
è come essere infastiditi dal fatto che non ci piace l'interno del nostro monitor...
secondo me stiamo arrivando alla frutta!Beh, si se il design migliora l'efficienza! Riguardo al monitor, è proprio l'interno che interessa IMHO ed il fatto che il mio 226BW abbia un pannello di un tipo piuttosto che un'altro, si, mi infastidisce perchè ho pagato quanto uno che si è trovato un pannello migliore acquistando lo stesso modello :asd:
Crimson Skies
26-05-2009, 12:53
Se questa scheda dovesse realmente andare meglio di quella dual PCB allora la cambierò. Poi tocca vede cosa cacceranno fuori case come Gainword, POV o Asus, se cambieranno qualcosa nel design e nella dissipazione oltre le frequenze.
@less@ndro
26-05-2009, 13:07
Se questa scheda dovesse realmente andare meglio di quella dual PCB allora la cambierò. Poi tocca vede cosa cacceranno fuori case come Gainword, POV o Asus, se cambieranno qualcosa nel design e nella dissipazione oltre le frequenze.
ebbè, mi pare ovvio.
:muro:
mErLoZZo
26-05-2009, 13:13
ecco un altro modello nvidia di cui, nel parlarne, bisognerà informarsi.. 2hai la 295?" "ma è la singole o dual pcb?" :D:D
sarebbe bello se abbassassero i prezzi, ma ho un non-so-chè di senzasione riguardo al fatto che li terranno invariati o quasi.. d'altronde è una scheda "nuova".. :D
Crimson Skies
26-05-2009, 13:20
ecco un altro modello nvidia di cui, nel parlarne, bisognerà informarsi.. 2hai la 295?" "ma è la singole o dual pcb?" :D:D
sarebbe bello se abbassassero i prezzi, ma ho un non-so-chè di senzasione riguardo al fatto che li terranno invariati o quasi.. d'altronde è una scheda "nuova".. :D
Dubito toglieranno di mezzo le dual PCB. A parte il prezzo che sarà lo stesso toccherà vedere la differenza con un bel bench. E allora potremo dire se Nvidia produrrà solo quella single PCB o in contemporanea.
Se questa scheda dovesse realmente andare meglio di quella dual PCB allora la cambierò. Poi tocca vede cosa cacceranno fuori case come Gainword, POV o Asus, se cambieranno qualcosa nel design e nella dissipazione oltre le frequenze.Innanzitutto dubito che le prestazioni aumenteranno, semmai ho qualche buona sensazione riguardo le temperature e forse i consumi. E' una revisione ed è più compatta ma da qui ad andare a sostituire una scheda pressochè identica... Poi dipende, se hai intenzione di vendere la dual pcb al 90% del costo di della single allora si che ti conviene, anche per una questione di usura :asd:
Se Ati dovesse produrre una HD4890X2 non penso andrei a sostituire la mia HD4870X2, piuttosto attendo la prossima generazione e valuto quella.
Crimson Skies
26-05-2009, 13:32
Innanzitutto dubito che le prestazioni aumenteranno, semmai ho qualche buona sensazione riguardo le temperature e forse i consumi. E' una revisione ed è più compatta ma da qui ad andare a sostituire una scheda pressochè identica... Poi dipende, se hai intenzione di vendere la dual pcb al 90% del costo di della single allora si che ti conviene, anche per una questione di usura :asd:
Se Ati dovesse produrre una HD4890X2 non penso andrei a sostituire la mia HD4870X2, piuttosto attendo la prossima generazione e valuto quella.
Bhe le temperature di quanto potrebbero scendere? 2/3°? i consumi?
Come dici tu è probabile che ci sia una differenza così minima che sarà quasi inpercettibile.
Comunque difficilmente andrei a sostituire la mia con questa visto che le prestazione potrebbero essere uguali. Poi tocca vedere realmente.:)
@less@ndro
26-05-2009, 14:34
Bhe le temperature di quanto potrebbero scendere? 2/3°? i consumi?
Come dici tu è probabile che ci sia una differenza così minima che sarà quasi inpercettibile.
Comunque difficilmente andrei a sostituire la mia con questa visto che le prestazione potrebbero essere uguali. Poi tocca vedere realmente.:)
quindi, per assurdo, se fa 2 fps in più cambi scheda video? :mbe:
Quanto mi ricorda la mia cara vecchia 3dfx Voodoo 2
... finalmente dopo una dozzina d'anni hanno rispolverato il design della 3Dfx v5500 :asd:
Pensa che pure 3dfx lo aveva copiato...
Crimson Skies
26-05-2009, 15:13
quindi, per assurdo, se fa 2 fps in più cambi scheda video? :mbe:
Certo che no. Intendo performance parecchio più alte.;)
@ DjLode
... finora la 3Dfx è stata l'unica a creare una svga con 4 gpu e la 1° con la dual gpu..... ATI e nVidia da questo lato sono indietro come "evoluzione" :mbe:
... era enorme la 5500/6000, ma se tieni conto che sono passati 15 anni e non si sono inventati nulla di nuovo (ATI & nVidia)... vien solo da piangere visto che nVidia ha pure acquisito 3Dfx e tutte le aziende che quest'ultima si era mangiata a sua volta (STB e soci) e tutte le conoscenze che si è portata dietro.
... cmq chissà che sia la volta buona che iniziano a fare le svga decenti e a sfruttare qlc vecchia "nozione" :D
@ DjLode
... finora la 3Dfx è stata l'unica a creare una svga con 4 gpu e la 1° con la dual gpu..... ATI e nVidia da questo lato sono indietro come "evoluzione" :mbe:
Sì, ma i tempi erano diversi. 3dfx ha creato tale abominio perchè non aveva un chip grafico in grado di rivaleggiare con un solo chip Nvidia o Ati. Ai tempi una scheda video con 4 chip e alimentatori esterni erano un abominio (e lo sarebbero tutt'ora). Per fortuna Ati e Nvidia sono talmente più avanti come "evoluzione" da usare il dual gpu solo per gli entusiast...
Ah, Ati Rage Fury MAXX, guarda cos'è su Google :)
... era enorme la 5500/6000, ma se tieni conto che sono passati 15 anni e non si sono inventati nulla di nuovo (ATI & nVidia)... vien solo da piangere visto che nVidia ha pure acquisito 3Dfx e tutte le aziende che quest'ultima si era mangiata a sua volta (STB e soci) e tutte le conoscenze che si è portata dietro.
15 anni? Credo fosse del 2000, ora non so in che pianeta vivi ma 15 anni non sono di certo... Francamente il dual gpu lo ritengo inutile, Nvidia PER FORTUNA non ha ripercorso i "fasti" di 3dfx, le 5500 e le 6000 di fatto hanno segnato la morte di 3dfx. Meno male che qualcuno negli uffici Nvidia ha pensato di ereditare solo lo SLI. Finiamola di mistificare un'azienda morta da quasi un decennio che non aveva niente da offrire al mercato allora come non ha niente di nuovo da offrire oggi.
... cmq chissà che sia la volta buona che iniziano a fare le svga decenti e a sfruttare qlc vecchia "nozione" :D
Tipo alimentatore esterno? Dai su...
l'azienda che ha creato questo mercato. :doh: per la cronaca, tutti gli asset e gli ingegneri di 3dfx sono finiti a lavorare in nVidia...:mbe:
L'azienda che ora è morta. Punto. Non mettermi in bocca parole che non ho detto please :) Si capisce benissimo cosa intendo e cosa ho quotato.
Tutti gli ingegneri (falso) sono finiti a lavorare in Nvidia, e quindi? Cioò tu vorresti "sottointendere" che Nvidia è lì per gli ingegneri 3dfx? Geforce 256. Ecco perchè Nvidia è lì dove si trova. Gpu con cui ha di fatto reso innocua 3dfx (che era alla canna del gas).
io non sto mettendo parole in bocca a nessuno, a differenza tua... se tutti gli ingegneri 3dfx (o quasi tutti, così sei più contento) e tutti gli asset sono stati rilevati da nvidia, credo che ai tempi ("allora") qualcosa da offrire l'avevano, no?:mbe:
Evidentemente pensavano di sì...
Sai cosa?
Ferme restando le specifiche non vedo perché dovrebbero aumentare le prestazioni.
paolo.guidx
26-05-2009, 19:19
Non è che si acquisisce un'azienda solo per il know-how o per gli ingegneri (tra l'altro la maggior parte dei brevetti e delle licenze sono state acquisite da terze parti e non da nVidia)....Nella maggior parte dei casi lo si fà per eliminare un concorrente.... Nel caso di 3Dfx nVidia ha probabilmente dato il colpo di grazia prima che potesse con i nuovi chip rialzare la testa....
Dello SLI è stato usato solo il nome a casa NVidia e la Fury Maxx è arrivata dopo inquanto, come sappiamo, 3Dfx ha immesso nel mercato le sue schede con considerevole ritardo rispetto alla presentazione. Erano anni che con le Voodoo si sperimentava il multigpu. Voodoo 5 5500 e 6000 abomini? Le prestazioni, in Quake 3 come in altri giochi, raddoppiano e quadruplicano con precisione rispetto alla Voodoo 4 4500 senza parlare della assoluta stabilità e compatibilità (che la Maxx non vantava), mi sembra un ottimo risultato, senza considerare le tecnologie purtroppo inespresse :) I bench del periodo non rendono merito a queste schede.
Questo senza nulla togliere alle Radeon e soprattutto alle Geforce che si sono dimostrate dei veri mostri nei calcoli.
Ovviamente so dove volete arrivare, dopo questo intervento mi ritiro a giochicchiare con le mie vecchie vga ;)
Non è che si acquisisce un'azienda solo per il know-how o per gli ingegneri (tra l'altro la maggior parte dei brevetti e delle licenze sono state acquisite da terze parti e non da nVidia)....Nella maggior parte dei casi lo si fà per eliminare un concorrente.... Nel caso di 3Dfx nVidia ha probabilmente dato il colpo di grazia prima che potesse con i nuovi chip rialzare la testa....
Qua sembra che qualcuno sia convinto del contrario :)
Anche se per 70 milioni di dollari qualcosa deve aver portato a casa altrimenti è stato un investimento un pò avventato. Ma solo il nome "Sli" ha fruttato un bel pò. Così come qualche tecnologia di Gigapixel per la rimozione dei poligoni nascosti che Nvidia a quel tempo non aveva (Ati l'aveva dal primo chip Radeon, Nvidia pare dalla 5800 in poi se non ricordo male, ma non ha mai fatto troppa pubblicità alla cosa.
Dello SLI è stato usato solo il nome a casa NVidia e la Fury Maxx è arrivata dopo inquanto, come sappiamo, 3Dfx ha immesso nel mercato le sue schede con considerevole ritardo rispetto alla presentazione.
Mah io ricordo 99 per la fury maxx e 2000 per la voodoo 5500. L'anno di presentazione conta come il due di bastoni a poker.
Erano anni che con le Voodoo si sperimentava il multigpu. Voodoo 5 5500 e 6000 abomini? Le prestazioni, in Quake 3 come in altri giochi, raddoppiano e quadruplicano con precisione rispetto alla Voodoo 4 4500 senza parlare della assoluta stabilità e compatibilità (che la Maxx non vantava), mi sembra un ottimo risultato, senza considerare le tecnologie purtroppo inespresse :) I bench del periodo non rendono merito a queste schede.
Abomini esatto. 4 chip grafici senza T&L più alimentatore esterno io lo considero un abominio buttato fuori (anzi no, non hanno fatto in tempo, diciamo creato) per contrastare due case che ormai correvano troppo. La conseguenza: la morte, come è avvenuto.
Ovviamente so dove volete arrivare, dopo questo intervento mi ritiro a giochicchiare con le mie vecchie vga ;)
Non voglio arrivare da nessuna parte (quando si parla di 3dfx la coda di paglia è sempre enorme), ho semplicemente detto le cose come stavano a chi ha detto che Ati e Nvidia sono dietro 3dfx come innovazione solo perchè quest'ultima (provò) creò una pista di atterraggio con sopra 4 chip grafici perchè aveva finito le idee. 3dfx è un pezzo di antiquariato oggi come lo era nei vecchi tempi quando fu distrutta da Nvidia. Fantasticare di ingegnieri "geni" con la maglietta "3dfx vive" che girano nei laboratori Nvidia proponendo innovazioni epocali senza essere ascoltati è bello, ma aihmè, fatevene una ragione, è fantascienza. Hanno comprato (Nvidia) know how e forza lavorativa, per poi distruggere una concorrente. Basta.
@less@ndro
26-05-2009, 21:12
Ferme restando le specifiche non vedo perché dovrebbero aumentare le prestazioni.
ehhh, ma sai è una scheda nuova, quindi va di più. :O
comunque mi sa che la chiameranno gtx300 per semplificare un po'. :O
1. 15 anni? Credo fosse del 2000, ora non so in che pianeta vivi ma 15 anni non sono di certo
2. creò una pista di atterraggio con sopra 4 chip grafici perchè aveva finito le idee
1. guarda che la 3Dfx è nata nel 1994........ forse è meglio che vai a leggerti un pò di date "vere" e non "a memoria" :D
... cmq, vista l'età che ho, potrei considerarmi il papà di 1/2 forum qui dentro.... anche xchè al tempo vendevo in negozio le varie VooDoo/Banshee/TNT.... quindi forse ho un pò di nozioni che a te sfuggono ;)
2. beh, intanto è stata l'unica ad inventarsi qualcosa che gli altri non si sognavano e che hanno scopiazzato col tempo. e poi non puoi pretendere che nel secolo scorso si inventassero tecnologie che neanche sapevano..... al tempo erano il top e si facevano la gara a 800x600/1024x768.... oggi si fa la gara a 2560/1600 (di cui ancora nutro dubbi sull'utilità per il 99% degli utenti consumer :mbe: )
1. ehhh, ma sai è una scheda nuova, quindi va di più
2. comunque mi sa che la chiameranno gtx300 per semplificare un po'
1. si come no..... fa anche il caffè questa??? :asd:
2. non possono, altrimenti la prox come la chiamano??? :asd:
P.S.= hai abbandonato il topic di CoD5 tu??? sbaglio o la 1° pagina è un pezzetto che non la aggiorni??? :asd:
Crimson Skies
27-05-2009, 00:27
Mazza che grosse che erano le Riva TNT, le Vodoo. Le avute tutte.
Erano schedone enormi. Anche se adesso sembra riandare di moda la scheda grossa e cattiva.;)
Mazza che grosse che erano le Riva TNT, le Vodoo. Le avute tutte.
Erano schedone enormi. Anche se adesso sembra riandare di moda la scheda grossa e cattiva.;)Ne le TNT ne le Voodoo sono mai state grosse (ad eccezione fatta per la serie 5 delle Voodoo)! Incandescenti, sicuro (Voodoo 3 e TNT su tutte) ma grosse no dai :D
1. guarda che la 3Dfx è nata nel 1994........ forse è meglio che vai a leggerti un pò di date "vere" e non "a memoria" :D
... cmq, vista l'età che ho, potrei considerarmi il papà di 1/2 forum qui dentro.... anche xchè al tempo vendevo in negozio le varie VooDoo/Banshee/TNT.... quindi forse ho un pò di nozioni che a te sfuggono ;)
Frase:
"era enorme la 5500/6000, ma se tieni conto che sono passati 15 anni e non si sono inventati nulla di nuovo (ATI & nVidia)"
Soggetto: 5500/6000. Non 3dfx. Quindi 2000. Quindi non 15 anni.
Le date le ricordo perfettamente grazie ;)
Forse hai un pò di nozioni che mi sfuggono... mmmm direi di no. Ma qui dentro sul forum è prassi normale credere che di fronte ci sia un deficiente ;)
2. beh, intanto è stata l'unica ad inventarsi qualcosa che gli altri non si sognavano e che hanno scopiazzato col tempo. e poi non puoi pretendere che nel secolo scorso si inventassero tecnologie che neanche sapevano..... al tempo erano il top e si facevano la gara a 800x600/1024x768.... oggi si fa la gara a 2560/1600 (di cui ancora nutro dubbi sull'utilità per il 99% degli utenti consumer :mbe: )
Tipo? 4 chip grafici che si dividevano la scena (ah, per onore di cronaca la 6000 non ha mai visto il mercato e di fatto non ha mai funzionato correttamente)? Fatti un ripassino delle tecnologie che mettevano in campo le altre in quegli anni.
Fine OT.
Mazza che grosse che erano le Riva TNT, le Vodoo. Le avute tutte.
Erano schedone enormi. Anche se adesso sembra riandare di moda la scheda grossa e cattiva.;)
Io avevo una TNT 2 e non era per nulla grossa.
blade9722
27-05-2009, 17:13
l'azienda che ha creato questo mercato. :doh: per la cronaca, tutti gli asset e gli ingegneri di 3dfx sono finiti a lavorare in nVidia...:mbe:
In realta' gli asset che ha acquistato Nvidia sono stati per lo piu' proprieta' intellettuali come i brevetti e i trademark.
Al di la' di questo dettaglio, 3dfx e' fallita perche' non e' riuscita a proporre in tempi utili una concorrente della Ge-force 256.
@less@ndro
27-05-2009, 17:48
1. si come no..... fa anche il caffè questa??? :asd:
2. non possono, altrimenti la prox come la chiamano??? :asd:
P.S.= hai abbandonato il topic di CoD5 tu??? sbaglio o la 1° pagina è un pezzetto che non la aggiorni??? :asd:
l'avevo lasciata al suo destino, poi l'aggiorno. :D poi tra un pò me tocca aprire quello di modern warfare 2, bioshock 2, assassin's creed 2. :O
l'avevo lasciata al suo destino...
... ma va??? :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.