View Full Version : GeForce Titan: questo il nome della scheda con GPU GK110?
Redazione di Hardware Upg
22-01-2013, 07:21
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-titan-questo-il-nome-della-scheda-con-gpu-gk110_45521.html
Possibile lancio nel corso della primavera per la prima scheda video NVIDIA della famiglia GeForce basata sulla proposta GK110, l'architettura top di gamma tra quelle della famiglia Kepler
Click sul link per visualizzare la notizia.
Cioè.. questa soluzione non sarà una scheda video ma una scheda aggiuntiva affiancata alla GPU discreta?
Per l'utenza home?
..va bene fare gli sboroni.. ma che te ne fai in ambito home??
Anche perchè una bestia del genere consuma come una centrale elettrica e costa un occhio..
Phenomenale
22-01-2013, 07:57
Eccolo!!! Finalmente il chippone :sofico:
moddingpark
22-01-2013, 08:15
Altro fornetto in arrivo?
http://www.hwupgrade.it/articoli/skvideo/2411/480_gtx_front.jpg
AceGranger
22-01-2013, 08:16
Cioè.. questa soluzione non sarà una scheda video ma una scheda aggiuntiva affiancata alla GPU discreta?
:mbe:
sara una classica VGA...
killeragosta90
22-01-2013, 08:22
Cioè.. questa soluzione non sarà una scheda video ma una scheda aggiuntiva affiancata alla GPU discreta?
Per l'utenza home?
Ma di che stai palando? :mbe:
Hai letto l'articolo?
Ah, no avevo capito male..
Avete ragione, è una vga standard.. mi ha portato fuori strada la storia delle schede tesla. :D
...quindi ora al posto delle varie gtx Nvidia propinerà un chip concettualmente vecchio di almeno 1 anno assieme alla next gen di AMD? Titanica presa per i fondelli.
Compulsion
22-01-2013, 08:55
...quindi ora al posto delle varie gtx Nvidia propinerà un chip concettualmente vecchio di almeno 1 anno assieme alla next gen di AMD? Titanica presa per i fondelli.
infatti, nvidia non si sta proprio più regolando. Che diamine di senso ha far uscire una vga over-top-di-gamma che ha un prezzo simile alla dual gpu 690? E le prestazioni di quanto si discosteranno? a me sembra che più passa il tempo e più le compagnie cercano di fregare i polli con trovate di super marketing. Poi 6gb, ma per favore, se non hai uno schermo 2560x1440 che te ne fai?
Amo le schede nvidia, ma molto meno le sue poLLitiche. Spero davvero che AMD gli dia del filo da torcere, così si ridimensionano un po'.
No aspetta un attimo, fin'ora le top di gamma singola GPU con 400 euro circa (che comunque sono tanti) si portavano a casa, adesso bisogna spendere 800-900 euro per una singola GPU? La dual-GPU quanto costerà, 2000 euro? :doh:
Via qui stiamo cadendo nel ridicolo.
gd350turbo
22-01-2013, 09:02
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-titan-questo-il-nome-della-scheda-con-gpu-gk110_45521.html
Possibile lancio nel corso della primavera per la prima scheda video NVIDIA della famiglia GeForce basata sulla proposta GK110, l'architettura top di gamma tra quelle della famiglia Kepler
Click sul link per visualizzare la notizia.
Cè una cosa che mi sfugge...
La mia 670, ha circa la metà dei cuda cores, e funziona a circa il doppio della velocità della futura titanium...
Non ci vedo una grossa innovazione !
Dovè quindi questa supremazia tecnologica tale da valere un costo quasi triplo ?
AceGranger
22-01-2013, 10:21
infatti, nvidia non si sta proprio più regolando. Che diamine di senso ha far uscire una vga over-top-di-gamma che ha un prezzo simile alla dual gpu 690? E le prestazioni di quanto si discosteranno? a me sembra che più passa il tempo e più le compagnie cercano di fregare i polli con trovate di super marketing. Poi 6gb, ma per favore, se non hai uno schermo 2560x1440 che te ne fai?
Amo le schede nvidia, ma molto meno le sue poLLitiche. Spero davvero che AMD gli dia del filo da torcere, così si ridimensionano un po'.
se manterranno il chip cosi com'è senza bloccare la parte FP sara un'ottima scheda acquistabile da utenti prosumer/professionali.
900€ di minestra riscaldata ? Ca**o che affare ! :doh:
E la nuova generazione quando arriverà ?
infatti, nvidia non si sta proprio più regolando. Che diamine di senso ha far uscire una vga over-top-di-gamma che ha un prezzo simile alla dual gpu 690? E le prestazioni di quanto si discosteranno? a me sembra che più passa il tempo e più le compagnie cercano di fregare i polli con trovate di super marketing. Poi 6gb, ma per favore, se non hai uno schermo 2560x1440 che te ne fai?
Amo le schede nvidia, ma molto meno le sue poLLitiche. Spero davvero che AMD gli dia del filo da torcere, così si ridimensionano un po'.
6Gb sono il minimo sindacale per il 2160p in game...ma per stare tranquilli meglio 8 ;) vedi Crytec in 1K=2Gb
Sharp tale monitor lo lancerà in Giappone a metà febbraio...quindi per l'utenza ultra-enthusiast...c'è coerenza temporale.
Con 8Gb nella scheda video...ci vorranno pure 32Gb di ram di cui 24 "a disposizione" per la GPU...per garantirsi i mille mila effetti in 2160p.
Ci aspetta un 2013 degno di nota...in particolare per le nuove console e relative conversioni con CPU e GPU di AMD in x64 (perlomeno per xbox 720)...e relative ottimizzazioni in tal senso che avranno conseguenze dirette presso l'utenza desktop :D
Ovvero...per venire incontro alla tua simpatia verso AMD...è auspicabile che l'FX serie 8000 darà il bianco...dato che le console next-gen saranno basate su CPU a 8 cores...
Io non parlerei di minestra riscaldata, hanno avuto un anno per lavorarci, e probabilmente è servito per domare le richieste energetiche di questo chippone.
Alla fine se sarà un buon prodotto lo vedremo sul campo, sopratutto quando lo si confronterà con la nuova generazione AMD.
Probabilmente Nvidia, consapevole che per questa nuova generazione non avrebbe avuto un nuovo processo produttivo grazie al quale ottenere un salto prestazionale rispetto alla generazione precedente, ha preferito riservare il chippone, dandosi il tempo di ottimizzarlo a dovere, alla nuova generazione.
La strategia potrebbe anche funzionare, secondo me si tornerà ai tempi in cui Nvidia ha il chippone costoso ma più veloce e AMD compete un po' sotto in prestazioni con chip più piccoli ed economici.
A meno che naturalmente anche AMD non decida di tornare al chippone, ma sinceramente ne dubito.
Dopo oltre un anno dalla presentazione di Kepler, questi invece che uscire con una nuova architettura pensano a fare il classico chippone con quello che già hanno.... Mi aspettavo qualcosa di più sinceramente.
prodotto interessante, uscirà davvero entro febbraio? Speriamo di sì in modo da confrontare un po' di bench
Hermes
Horsepower0171
22-01-2013, 19:42
"Che diamine di senso ha far uscire una vga over-top-di-gamma che ha un prezzo simile alla dual gpu 690? E le prestazioni di quanto si discosteranno? a me sembra che più passa il tempo e più le compagnie cercano di fregare i polli con trovate di super marketing. Poi 6gb, ma per favore, se non hai uno schermo 2560x1440 che te ne fai?"
Una volta per tutte vorrei chiarire che queste schede di ultima generazione GeForce vedono il futuro per usi diversi dal gaming e basta:
1) Le GPU "GeFroce" GK110 ereditate dalle schede "Tesla" (€2500) servono soprattutto per il calcolo accelerato delle istruzioni CUDA di nVIDIA, sia chiaro! E non per il gaming!
2) Ne conseguono benefici per tutti quei professionisti che voglio scendere a compromessi tra prezzo/prestazioni nel calcolo CUDA di formule matematiche, nel medicale, ecc..., ecc..., ma soprattutto nel campo della CGI ed in particolare nei Rendering3D, vedi motore di Rendering "iRay" (che si basa appunto quasi esclusivamente sulle GPU anzichè sulla CPU) di 3dsMax v.2012-2013
3) Il calcolo computazionale del motore di Rendering "iRay" CUDA, fatto dalle GPU è di x10 volte più veloce di una CPU Core i7 di ultima generazione! Più CUDA Cores hanno le schede grafiche e più veloce sarà il Rendering di iRay e compagnia bella!
4) 6GB di DDR5 sono appena sufficienti a calcolare delle animazioni3D medie e, delle scene statiche ricche di poligoni, dettagli, grandi textures e grandi dimensioni di output del rendering sopra i 3000x3000 pixels per la stampa in formato A3 e più!
5) E' ovvio che le Tesla da €2500 euro hanno prezzi inaccessibili ai più, e richiedono molti investimenti prima che venga ammortizzato il costo di renderfarm GPU!!!
Così si sta delineando un mercato di schede "GeForce" come le GTX680-4GB e GTX690-DualGPU-2GB che per i "Renderisti-3D" meno esperti e più poverelli, è una vera manna dal cielo per poter sperimentare senza eccedere nel costo!
6) Quindi più CUDA Cores hanno le schede GeForce GK110 (siamo veramente all'altezza delle "Tesla" finalmente!), e meglio è per tutti spendendo veramente poco (la metà rispetto alle "Tesla"), ed ammortizzando relativamente tanto (contando che le GeForce hanno più CUDA Cores delle "Tesla" a parità di modello e sono in assoluto più veloci!!!)
7) Unico neo delle GeForce rispetto alle Tesla è che SCALDANO MOLTO DI PIU', e non sono "certificate" per lavorare 24 ore di seguito per i Rendering3D: ecco che allora la EVGA ha appunto introdotto soluzioni a raffreddamento a liquido come le GTX680-4GB-"HydroCopper-Classified"!!! Per non parlare di Palit con 3 ventole maggiorate, INNO3D con 2 ventolone e solo 2 slot di ingombro, Asus con gli Heat-Pipes+Ventole,... e via dicendo!!!
8) Le GeForce con architettura "KEPLER" della Serie GTX600, hanno una GPU "LIGHT", castrata, rispetto alla GPU "FULL" delle vecchie GTX500 con architettura "Fermi"; finalmente con le GeForce GK110 torna la GPU formato pieno, cioè "FULL"!!!
Tanto di cappello, signori, ai €1000 euro di spesa ben fatta, per una potenza di calcolo CUDA "esagerata"... a dirla tutta!
Horsepower0171
22-01-2013, 19:52
Basti pensare che per questa mia Animazione 3D (di media complessità), fatta con 3dsMax+VRay: "Villette al mare con Piscina"
http://youtu.be/c-GJefJR4rY
il mio 3dsMax 2012 ha succhiato 6GB e rotti a frame per il rendering!
-Evviva i 6GB delle prossime "GeForce GK110"!!!
NemesiAlata
22-01-2013, 20:15
senza offesa ma le texture sono davvero di scadente qualità...
qiplayer
22-01-2013, 22:19
Sono due anni che aspetto queste. E le aspetto per il gaming. Con due gtx680 su tre schermi a crysis due gioco con i dettagli al minimo per avere una buona velocità (70-90 fps).
E 3 o più gtx 680 danno solo problemi. Non è una configurazione che si userebbe volentieri.
Gli fps comunque non sono mai abbastanza. Anche al dettaglio minimo, quando l'azione è veloce ho rallentamenti giù a 40 fps. Ed è brutto se il pc perde colpi proprio sul più bello.
Vi garantisco che queste sono solo un buon inizio. Voi guardate al passato mentre dovreste guardare al futuro.
Arrivano i display retina, pian piano anche su pc.
Oltre al 3D e grafiche da mozzafiato. 6gb sono buoni, fanno proprio bene a non risparmiare.
Per quanto concerne gli mhz spero si arrivi ai 1000 con raffreddamento ad acqua. Al contrario della serie 600 dove non si hanno molti vantaggi se non di rumorosità col watercooling.
Speriamo amd si muova appena ci sarà concorrenza e disponibilità i prezzi scenderanno.
Conta che giochi come crysis 2 gli sono stati appiccicati effetti a caso senza un minimo di ottimizzazione, oggi è difficile trovare un prodotto buono da dare in pasto a schede video potenti
michael1one
23-01-2013, 11:16
senza offesa ma le texture sono davvero di scadente qualità...
Per quel tipo di presentazioni fanno più che bene...
Sono due anni che aspetto queste. E le aspetto per il gaming. Con due gtx680 su tre schermi a crysis due gioco con i dettagli al minimo per avere una buona velocità (70-90 fps).
A mio parere è un'attesa che non ha molto senso.
Tu hai semplicemente necessità di più potenza, ma il ritorno al chippone è a mio parere la strada sbagliata, che incrementa i costi e da solo qualche mese di vantaggio sulle nuove architetture.
Se queste schede sono quel che dovrebbero essere, saranno assolutamente inefficienti per il gioco rispetto alle controparti create per questo. Anche se, con un annetto in più di sviluppo, qualcosa avranno ottenuto, ma ho idea che sia effimera, magari dopo un paio di mesi uscirà una geforce 685 (o 780 cambiano serie) con la stessa architettura e un annetto di ottimizzazioni come questa, che risulterà molto più efficiente nei giochi e non molto sotto in prestazioni rispetto a questo chippone.
Io ho idea che si tratti delle Testa che non hanno superato i più rigidi controlli necessari per queste schede, e siano vendute come scheda gaming. Con chip così grandi saranno molti i prodotti non ottimali, e verranno riutilizzati in ambito consumer.
appleroof
23-01-2013, 14:37
cut
La strategia potrebbe anche funzionare, secondo me si tornerà ai tempi in cui Nvidia ha il chippone costoso ma più veloce e AMD compete un po' sotto in prestazioni con chip più piccoli ed economici.
A meno che naturalmente anche AMD non decida di tornare al chippone, ma sinceramente ne dubito.
un attimo, non dimentichiamo che l'evoluzione di Tahiti dovrebbe avere circa 2500 sp, più ff, sempre a 28nm...dovrebbe girare attorno ai 400mm2 , sempre meno che i 500 e passa di gk110, ma decisamente lontano dai chippini vliw
Ricordo poi che ultimamente erano insistenti le voci di un chip nvidia con circa 2300 cc e senza parte DP, alcuno lo chiamano gk114 altri gk204, insomma questo rumor è decisamente da prendere con le pinze al pari degli altri
gd350turbo
23-01-2013, 14:44
Un rumors, è sempre stato e sarà sempre una notizia priva di attendibilità...
Horsepower0171
24-01-2013, 12:49
Originariamente inviato da NemesiAlata:
senza offesa ma le texture sono davvero di scadente qualità...
Per quel tipo di presentazioni fanno più che bene...
Infatti!
Le Animazioni3D Architettoniche fatte coi Rendering off-line CPU, come VRay:
http://youtu.be/c-GJefJR4rY
...non debbono essere scambiate per la grafica realtime del gaming, dove ovviamente si dispone di una miglior resa grafica grazie all'accelerazione GPU diretta, ed all'uso pieno di tutte le istruzioni DirectX!!!
Ottimizzare un Rendering3D off-line CPU, è molto ma molto più dispendioso in termini di tempo per un solo renderista o architetto, rispetto ad un team di sviluppatori gaming e rispetto alla pipeline di lavorazione del gioco!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.