PDA

View Full Version : Kepler dovrebbe arrivare entro pochi mesi...


sblantipodi
19-06-2011, 14:19
...abbiamo qualcosa di più oltre questo:
http://www.abload.de/img/nvroadmap_correctrku3.png

che lo confermi?

<Masquerade>
19-06-2011, 14:25
anche io cercavo nuove info + dettagliate sulla prossima mossa nvidia ma non ho trovato niente di niente.

They die
20-06-2011, 16:36
intanto ati sta iniziando a far vedere qualcosa

http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute

paolox86
24-06-2011, 19:39
In effetti di Kepler ne sappiamo poco o nulla, non credo di ricordare un simile silenzio di rumors a così relativamente "poco" dal lancio, anche se dubito a questo punto che esca per il 2011.
Cmq per ora non c'è materiale nemmeno per aprire un'Aspettando Kepler.

sblantipodi
24-06-2011, 21:48
Da quel che si dice in giro e' Q2 2012

in effetti chi glielo fa fare ad nvidia a tirare via troppo presto le 580, a chi serve di più?

sblantipodi
24-06-2011, 23:42
Puoi stare certo che se nvidia (o chiunque altro) ha un colpo non se lo tiene in canna ma lo spara.

Andra' sul mercato quando sara' pronto, ne' piu' ne' meno ;)

non è la legge di mercato e non lo è mai stata. :)
il mercato dice di non sparare il colpo finchè non ce ne bisogno, inutile sparare a salve ;)

sblantipodi
25-06-2011, 12:19
In mercati dove R&D non costa nulla puo' essere, non certo in questo. Dopo aver speso centinaia di milioni di $ in sviluppo tenersi l'oggetto sviluppato in cantina e' una perdita non assorbibile.

Solo Intel ha una tale cassa da potersi permettere di esplorare vie particolarmente azzardate per poi staccare la spina a progetto (fallimentare) finito e mandare a ramengo tutti i soldi spesi. Di certo non AMD o NVIDIA.

io sono di idea opposta, quando fermi avrà ammortizzato i costi rimarranno solo i guadagni e saranno sufficienti a tenere a bada i costi di kepler.
è sempre stato così da sempre, sopratutto nel mercato IT.

se ci sono due concorrenti A e B, se A ha il prodotto migliore e il prodotto di A continua a vendere perchè valido, è inutile tirare fuori un nuovo prodotto in un mercato dove non c'è competizione.

Se fosse stato come dicevi tu a ques'ora saremmo già con i computer quantici. :)

sblantipodi
25-06-2011, 13:58
Nello scenario attuale, in cui NVIDIA rincorre, la tua ipotesi e' ancora meno probabile...

la mia non è una ipotesi ma una legge di mercato, di tutti i mercati concorrenziali :)

certo se nvidia fosse nella situazione di rincorrere la concorrenza allora questa teoria ci direbbe che è meglio far uscire rapidamente kepler, però qui non ho dati certi per dire chi rincorre chi.

io da quello che vedo nei bench e dall'apprezzamento generale degli utenti del forum sembrerebbe che chi aveva AMD è passato ad NVIDIA e chi aveva NVIDIA è rimasto in NVIDIA. forse mi sbaglio su questo punto in quanto non ho certezza ma solo "una sensazione" dovuta ai forum che frequento.

K256
25-06-2011, 15:15
Ho una 6950 ma ho intenzione di potenziare il mio HW anche sul video oltre che sulla CPU, qualcuno mi sa dire quando si presume esca Kepler e quanto potente sia rispetto alla attuale controparte nVidia di punta di ora?

abbath0666
25-06-2011, 15:40
sblantipodi..solo tu li puoi aprire sti thread :asd:

DarkVegas93
25-06-2011, 15:44
imho escono nel 2012 inoltrato

sblantipodi
25-06-2011, 16:21
sblantipodi..solo tu li puoi aprire sti thread :asd:

di gente come te che risponde solo per trollare invece ce n'è a palate :D

abbath0666
25-06-2011, 16:51
di gente come te che risponde solo per trollare invece ce n'è a palate :D

puoi dire quello che vuoi,ma è la verità :ciapet: questo pero'..dai.. lo lascerei aperto..:D

Foglia Morta
06-07-2011, 13:32
...abbiamo qualcosa di più oltre questo:
[IMG]http://www.abload.de/img/nvroadmap_correctrku3.png[IMG]

che lo confermi?

Il ritardo è ufficiale... la nuova roadmap:

http://translate.google.it/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C832752%2FNvidia-bestaetigt-Kepler-fuer-2012-und-Maxwell-fuer-2014%2FGrafikkarte%2FNews%2F&sl=de&tl=en&hl=&ie=UTF-8

http://www.pcgameshardware.de/screenshots/medium/2011/07/2011-07-06_132747.png

appleroof
09-07-2011, 10:30
Sono convinto che dopo i bagni di sangue multipli nVIDIA cercherà di abbassare decisamente i toni per concentrarsi sul lavorare.

Credo che imparata la lezione farà molto silenzio su Kepler fino al lancio e che AMD farà bene a non sottovalutarla riproponendo l'errore già fatto da nVIDIA.

Non credo ci sia nessuna lezione da imparare o mettersi a lavorare: nVidia ha dato vita ad un chip molto complesso (e molto più efficiente dal punto di vista prestazionale dei vliw5 e 4 Amd) con Fermi, il quale chip doveva avere la caratteristica di essere adatto al GPGPU. Quest'ultimo dato è quello che ha pesato (e imho peserà) sulle scelte architetturali ecc ecc, scelte tra l'altro obbligate per come si muove il mercato, ed in parte -pare- riprese guarda caso dalla lavoratrice Amd nella paventata prossima architettura (sono curioso di vedere come impatterà la nuova architettura sul die-size ecc ecc)

quelle stesse scelte poi non hanno impattato più di tanto sul mondo gaming: con i chip derivati di Fermi le vga vanno alla grande da questo punto di vista (ho 2 460 in sli, calore e rumore nella norma, grandi prestazioni) e con la revisione di gf100 anche le top sono adeguate all'uso gaming

se guardiamo le cose da questo punto di vista (imho quello più a 360°) vediamo come Fermi non sia un chip da dimenticare, sicuramente da migliorare, certo, ma non la catastrofe che tu delinei.

appleroof
09-07-2011, 13:35
Questo e' il punto di vista del compratore, quello che ho scritto io quello dell'azienda.

Il rapporto prezzo/prestazioni cui ti danno la merce, piu' uno meno, varia poco da una marca all'altra, ferma restando la fascia di prestazioni, perche' se vogliono vendere una VGA devono farlo ad un prezzo che sia concorrenziale.

Non e' quindi sorprendente che chi compri si ponga il problema di cosa scegliere, avendo in effetti alternative tutte papabili, poi si fa la scelta in base al resto, consumo, rumore, simpatia, odio, emulazione etc, ma partendo da un prezzo/prestazioni che e' pur sempre confrontabile.

Quello che ho scritto non si riferiva a questo, ma a quanto le architetture siano sostenibili dal punto di vista economico. Fermi restando i limiti di prezzo che puoi imporre non essendo monopolista (per quanto detto prima), i costi di produzione e le rese produttive diventano centrali e la strategia del bigger is better non fa che accentuare questi problemi, soprattutto nei casi in cui insorgano dei problemi, sul lato produttivo.

Da questo punto di vista nVidia non ha imparato la lezione con G200 (i 65nm TSMC erano piuttosto scarsi) che pur ha potuto correggere con il respin a 55nm (ottimo pp, invece). Con Fermi infatti si e' scontrata con problemi sul processo ancora piu' grandi e l'uscita dal tunnel e' stata molto piu' lunga, per la mancanza di un processo alternativo e 12 mesi di ritardo sono veramente troppi.

Visto che le cose non potranno che peggiorare in futuro (parlo della problematicita' dei processi produttivi), NVDA deve assolutamente smettere di correggere in corsa per adattarsi ai processi, e cambiare strategia, non tanto riguardo al GPU computing, che pur residuale e' l'unico sfogo che ha sul lato GPU, ma proprio riguardo alle scelte architetturali che portano inevitabilmente a die giganteschi e senza ridondanze interne che si tramutano in bagni di sangue dal punto di vista finanziario per la difficolta' nel produrle.

Lo disse JHH qualche mese fa: "la nostra strategia e' di puntare al massimo senza alcun piano B". Ecco, questa strategia e' suicida, se non stupida.

Riguardo le strategia AMD sull'argomento, non e' questa la sede, se vuoi approfondiamo sull'altro thread.

forse non mi sono spiegato: queste aziende hanno capoccia molto più bravi di noi :D e con il senno di poi le cose sembrano essere molto più chiare, almeno credo poi non essendo uno di quei capoccia potrei sempre sbagliare

anni fà nVidia scelse la superscalare perchè non aveva cpu in casa e quindi era una scelta quasi obbligata, se voleva proporre qualcosa di alternativo ai sistemi con cpu x86 per il computing; pure Amd stà dando vita a gpu che abbracciano quella architettura (la vliw credo sia stata l'ultima architettura pensata da Ati indipendente), dando senso -imho molto senso- alla fusione con Ati perchè evidentemente si presta meglio agli scopi che sia Amd adesso (con basi anni fà ai tempi della fusione, imho) ed nVidia anni fà si prefiggono (es.: Moving on, it’s interesting that GCN effectively affirms most of NVIDIA’s architectural changes with Fermi. GCN is all about creating a GPU good for graphics and good for computing purposes; Unified addressing, C++ capabilities, ECC, etc were all features NVIDIA introduced with Fermi more than a year ago to bring about their own compute architecture. I don’t believe there’s ever been a question whether NVIDIA was “right”, but the question has been whether it’s time to devote so much engineering effort and die space on technologies that benefit compute as opposed to putting in more graphics units. With NVIDIA and now AMD doing compute-optimized GPUs, clearly the time is quickly approaching if it’s not already here. http://www.anandtech.com/show/4455/amds-graphics-core-next-preview-amd-architects-for-compute/7 )

questo ha comportato costi industriali elevati per nVidia e molto probabilmente margini molto più risicati rispetto ad Amd con la vliw, ma penso che fossero rischi calcolati (non come quelli della difficoltà di realizzazione con TMSC evidentemente) e cmq, come ho detto, obbligatori di fatto, una volta scelta la strada da percorrere (che poi è quella del mercato, e ricordo ancora chi sosteneva a gran voce che era un mercato inesistente e blabla :asd: )

credo che parte dell'erosione dei margini dovuta a costi alti sia stata bilanciata dall'ottimo successo di Tegra2 (anche qui qualcuno lo dava per morto :D) che ha di fatto aperto una scappatoia ad nVidia rispetto a quanto detto e rispetto alla perdita del mercato dei chipset e nel medio periodo delle gpu di fascia bassa, aprendole possibilità in uno dei mercati più promettenti che ci siano in termini di profitti (molto più delle consolle, addirittura)

parlo dal punto di vista dei produttori, come vedi, non dell'acquirente; poi posso aver travisato tutto ma analizzando i fatti sembrerebbe che le cose stiano così

pierluigi86
09-07-2011, 23:55
anche io penso che keplero sia stato spostato solo per motivi tecnici e non economici, figuriamoci se qualcuno lascia in cantina una nuova gpu con alle porte il back to school e rilascio di nuovi prodotti dalla concorrenza.
Sembra che il problema per nvidia non sia solo di pp a 28 nm ma anche di tape out.

appleroof
10-07-2011, 22:46
Il problema e' e rimane che quel mercato continua ad essere residuale, con enormi margini quando l'hardware non e' in regalo e volumi essenzialmente inesistenti.

Prima o poi serviranno autovetture progettate per la gravita' lunare o marziana, ma produrle ora sarebbe una strategia sbagliata.

Segarsi la propria cash cow sacrificandola sull'altare di un possibile mercato futuro non ha niente di strategico, e' semplicemente stupido: l'R&D come lo paghi?

Be se ci si butta Amd e pure Intel non mi pare sia un possibile mercato futuro, o cmq non ha quella estrema aleatorieta' che vorresti affermare, queste aziende avranno analisti più in gamba di noi, forse. Cmq al di la di questo, mi pare ti sfugga un particolare microscopico, in effetti: le gpu che equipaggiano Tesla sono quelle che equipaggiano le geforce, oltre a continuare ad ignorare il dato di fatto che non avevano molta scelta.

appleroof
11-07-2011, 20:57
In teoria anche Goldman Sachs aveva analisti migliori di noi, ma nessuno di noi due è fallito :D

A parte la facile battuta, da quando nVIDIA ha cominciato da sola a menarla con il GPU Computing (parliamo di circa cinque anni fa con CUDA 1.0) è rimasto un mercato residuale che non da ancora profitti. Poi sulla carta risultano perché i costi dello sviluppo vengono scaricati tutti sulla linea GeForce, motivo per cui la linea Tesla risulta prodotta a costo 0.

Il punto è quindi che prediligere sviluppi architetturali orientati al GPU Computing che penalizzino eccessivamente la competitività nel settore GPU Graphics (quindi linee Quadro e GeForce) non fa altro che restringere il mercato che ti da il pane per uno che non te lo da, con ripercussioni che sono inevitabilmente anche su R&D in una spirale negativa.



Il fatto che le GPU siano le stesse non mi sfugge affatto, quello che sfugge a te è che non sto dicendo che pensare al GPU Computing sia stupido, quello che sostengo è che le architetture devi svilupparle per il GPU Graphics e un occhio al GPU Computing, altrimenti ti seghi il mercato che ti permette di competere su entrambi.
Il tutto condito dal solito tentativo di imporre il solito linguaggio proprietario, che non ha fatto altro che limitare gli sviluppi di questo mercato.
Vista la condizione di debolezza di nVIDIA, che non avendo una CPU x86 deve trovare altri sbocchi, intelligenza strategica avrebbe voluto che si cercasse la maggiore adozione possibile per sviluppare al massimo le dimensioni del mercato che in teoria deve salvarti la vita, non la strategia più proprietaria possibile che renda il mercato il più piccolo possibile.

Boh dovresti proporti come CEO di nVIdia :asd:

Non mi convincono le tue affermazioni, per i motivi che ti ho esposto ed evidentemente non convincono te :boh: .

P.s.: cmq goldman etc non c'entra molto, si parlava di coloro che analizzano il mercato per provare a capire dove va e stabilire la strategia aziendale, non di analisti finanziari, come dire mele e pere.

keroro.90
13-07-2011, 14:19
E quindi Kepler arriva a inizio 2012?...

appleroof
13-07-2011, 14:57
E quindi Kepler arriva a inizio 2012?...

si queste sono le ultime news, più precisamente sul tread delle nuove Amd c'è un fudzilla che riporta che cominceranno ad essere prodotte a fine anno ma disponibili solo ai primi 2012

Foglia Morta
13-07-2011, 15:00
E quindi Kepler arriva a inizio 2012?...

La roadmap aggiornata parla di 2012 , non specifica in quale punto del 2012

appleroof
13-07-2011, 15:03
La roadmap aggiornata parla di 2012 , non specifica in quale punto del 2012

dicembre, speriamo :asd:

<Masquerade>
04-11-2011, 05:17
penso proprio al Fake ma la posto uguale

http://www.pctunerup.com/up/results/_201111/20111104061730_11410164f496z99s4mgdgg.jpg


lol :asd:

<Masquerade>
14-11-2011, 15:45
Nvidia to Start Production of 28nm "Kepler" Chips "Shortly" - Chief Executive.

Nvidia Corp. has been very quiet about its next-gen graphics processing units (GPUs) based on Kepler architecture and publicly said that the chips will only be available in 2012. At the recent conference call with financial analysts, Nvidia's chief exec broke the silence and hinted that thanks to Kepler-generation GPUs the company had managed to win massive amount of notebook designs and that the chips would hit mass production shortly.

When asked about continuously increasing operating expenditures (OpEx) - $359.6 million OpEx in Q3 FY2012 is expected to increase to $372 million in Q4 FY2012 - chief executive officer of Nvidia said that the company needs to spend additional amount of money on 28nm production ramp up and customer engineering. Apparently, Nvidia has managed to win an unprecedented amount of contracts with its next-generation GPUs based on Kepler architecture and made using 28nm process technology. Since all notebooks are different, Nvidia engineers help laptop makers to integrate the GPUs into their systems and balance specifications in order to enable flawless operation.

"The vast majority of the increase is coming from the very significant increase in design wins that we have in several areas. We have more notebook design wins for the Ivy Bridge cycle than we ever had in notebooks; this is likely the most successful notebook cycle we have ever experienced. And so we have got a lot of engineers dedicated to getting those notebooks into production," said Jen-Hsun Huang, chief executive officer of Nvidia.

Besides, the company is in the beginning of the 28nm ramp up curve, which means that it needs to invest into new designs tape outs. What is important is that there are GeForce "Kepler" GPUs that will go into production shortly and will thus be available early next year.

"There is a portion [of operating expenditures] that is related to 28nm tape-out of new processors that will go into production shortly," said Mr. Huang.

http://i.imgur.com/5xVDS.jpg (http://imgur.com/5xVDS)

Kepler is Nvidia's next-generation graphics processor architecture that is projected to bring considerable performance improvements and will likely make the GPU more flexible in terms of programmability, which will speed up development of applications that take advantage of GPGPU (general purpose processing on GPU) technologies. Some of the technologies that Nvidia promised to introduce in Kepler and Maxwell (the architecture that will succeed Kepler) include virtual memory space (which will allow CPUs and GPUs to use the "unified" virtual memory), pre-emption, enhance the ability of GPU to autonomously process the data without the help of CPU and so on. Entry-level chips may not get all the features that Kepler architecture will have to often.

"The reason for our [design win] success, I believe, is because our Kepler generation of GPUs was designed for intense energy efficiency. With energy efficiency, we were able to translate that to simultaneously higher performance, as well as longer battery life," explained Mr. Huang.

http://www.xbitlabs.com/news/graphics/display/20111111104115_Nvidia_to_Start_Production_of_28nm_Kepler_Chips_Shortly_Chief_Executive.html