View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Kharonte85
04-12-2009, 12:48
Devo averlo saltato allora...comunque ripeterlo non fa male...
Ma basta con la tua disinformazione. A questo punto fai prima ad usare uno dei tuoi utenti cloni, che con quel nick non ti crede piu' nessuno :rolleyes:
http://www.atomicmpc.com.au/News/153350,amd-wins-in-the-discrete-gpu-market.aspx
AMD wins in the discrete GPU market
Agosto 2009 (53% market share)
Credo che quei dati si riferiscono al mercato Mobile: http://hothardware.com/News/AMD-claims-to-lead-discrete-mobile-GPU-market/
no una cosa sono i chip video e un'altra cosa sono le schede video discrete... nn confondiamo le mele con le pere per cortesia
...si...son diverse ma il confine è sempre piu' labile...aumento dei notebook e netbook venduti...maggiore potenza di calcolo delle integrate...unificazione sullo stesso socket di cpu gpu...il mercato è dannatamente mutevole...
...ciao Andrea...
halduemilauno
04-12-2009, 12:50
Devo averlo saltato allora...comunque ripeterlo non fa male...
Credo che quei dati si riferiscono al mercato Mobile: http://hothardware.com/News/AMD-claims-to-lead-discrete-mobile-GPU-market/
certo per carità.
;)
halduemilauno
04-12-2009, 12:54
...si...son diverse ma il confine è sempre piu' labile...aumento dei notebook e netbook venduti...maggiore potenza di calcolo delle integrate...unificazione sullo stesso socket di cpu gpu...il mercato è dannatamente mutevole...
...ciao Andrea...
io parlavo e parlo di queste...
http://www.prokoo.com/images/Schede_video/0025.jpg
(è solo un'esempio)
ecco intel di quelle sta a zero.
io parlavo e parlo di queste...
(è solo un'esempio)
ecco intel di quelle sta a zero.
...senza dannarsi con soluzioni come quelle detiene la maggioranza del mercato...non penso sia poi così tanto crucciata...
...ciao Andrea...
Andrea deluxe
04-12-2009, 13:23
ma perche' scrivi ogni volta:
....ciao Andrea
??????????
ma perche' scrivi ogni volta:
....ciao Andrea
??????????
...sarebbe il mio nome...
...ciao Andrea...
Walrus74
04-12-2009, 14:23
Mi pare non sia stata ancora postata:
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
Che dire...
viene una tristezza...
kiriranshelo
04-12-2009, 14:33
Mi pare non sia stata ancora postata:
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
Che dire...
viene una tristezza...
La buona legge di Murphy (http://it.wikipedia.org/wiki/Legge_di_Murphy) si ripete sempre
come si dice... può sempre andare peggio :rolleyes:
Kharonte85
04-12-2009, 15:32
E come fa ad avere l'ECC sulle RAM se non ha la piedinatura addizionale?
Probabilmente è il solito Valich che spara a caso...
Tesla è sicuro che le ha mentre le Geforce e le Quadro non avranno l'ECC attivato sulle RAM (sarebbe assurdo)...dove sarebbe il problema?
Mi pare non sia stata ancora postata:
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
Che dire...
viene una tristezza...
se già AMD fatica a produrre sufficienti Gpu per il mercato (riuscendo a estrarne 130 a wafer) figuriamoci Nvidia che stimiamo ne produca circa 30.
Interessante, è esattamente quello che dicevo qualche tempo fa...fino a che TSMC non si riprende siamo tutti maledetti. :O
Mi pare non sia stata ancora postata:
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
Che dire...
viene una tristezza...
Considerazioni tutt'altro che campate per aria e aggiungo che se i chip in un wafer utilizzabili saranno a malapena un 30% l'ipotetica GTX380 costerà più di 600€
Tesla è sicuro che le ha mentre le Geforce e le Quadro non avranno l'ECC attivato sulle RAM (sarebbe assurdo)...dove sarebbe il problema?
se già AMD fatica a produrre sufficienti Gpu per il mercato (riuscendo a estrarne 130 a wafer) figuriamoci Nvidia che stimiamo ne produca circa 30.
Interessante, è esattamente quello che dicevo qualche tempo fa...fino a che TSMC non si riprende siamo tutti maledetti. :O
Considerazioni tutt'altro che campate per aria e aggiungo che se i chip in un wafer utilizzabili saranno a malapena un 30% l'ipotetica GTX380 costerà più di 600€
La vedo propeio brutta... Secondo me a furia di slittare l'uscita, nvidia perderà troppo denaro che andrebbe investito nello sviluppo...E' stupido che proprio nel mese di dicembre, con natale di mezzo nvidia non abbia presente nel suo listino delle buone vga di ultima generazione a 40nm! Con la vecchia generazione ati ad agosto aveva tirato fuori la 4870x2 e poco dopo arrivò la 295 di nvidia! A Dicembre erano entrambe sugli scaffali degli shop! In queste feste, Ati la farà da padrona tra 57xx - 58xx - 59xx e a gennaio potrebbe arrivare la 5950 essendo l'unica scelta disponibile!E intanto che arriveranno le nvidia voi pensate che AMD stia a girarsi i pollici? probabilmente gli ingegnieri sono già al lavoro per tirare fuori altro!!!!
Con questa generazione di vga a 40nm Ati a giocato d'anticipo su nvidia e si è coperta anche le spalle per evitare che succedesse come la scorsa volta, quando tirata fuori per prima la vga top di gamma, (4870x2) venne poco dopo spodestata dalla successiva uscita della 295!!! Stavolta credo che ATI si sia coperta memore dell'esperienza dell'anno scorso!!!!
elgabro.
04-12-2009, 17:05
entro febbraio escono sicuro....
Scusa, ma la fonte di questa notizia? :mbe:
CMQ a me hanno riferito che escono ad aprile.
Intanto che nVidia impazzisce per far uscire chissà quando Fermi ATI sviluppa la generazione futura con molta più serenità e elabora un bel refresh dell'attuale gamma, a me sembra emssa alla grande! anche perchè le 5xxx stanno arrivando sempre più numerose...
Intanto che nVidia impazzisce per far uscire chissà quando Fermi ATI sviluppa la generazione futura con molta più serenità e elabora un bel refresh dell'attuale gamma, a me sembra emssa alla grande! anche perchè le 5xxx stanno arrivando sempre più numerose...
Mi riferivo proprio a quello con "ati ha le spalle coperte"..... basti pensare che la dual gpu 5970 esce di fabbrica con le frequenze delle gpu e memorie della 5850 e non della 5870....basterà fare una versione con le frequenze della 5870 e il passo avanti non è mica da poco!!!!!
ebbasta con i soliti flame ed attacchi.. se un utente non lo volete + leggere mettetelo in ignore, non farlo vuol automaticamente dire che volete flammare con esso..
finitela. TUTTI!
>bYeZ<
Mi riferivo proprio a quello con "ati ha le spalle coperte"..... basti pensare che la dual gpu 5970 esce di fabbrica con le frequenze delle gpu e memorie della 5850 e non della 5870....basterà fare una versione con le frequenze della 5870 e il passo avanti non è mica da poco!!!!!
Ma infatti, senza contare che la stessa 5870 è conservativa con il clock, il passo verso un'ipotetica 5890 è breve, facile che ATI si sia tenuta questa carta per i prossimi mesi, una bella 5870 con memorie e gpu a clock pompati e via... il filetto è servito.
AMD sta messa bene, recupera quote velocemente, ha steccato Intel incamerando un miliardo e passa di dollari, punta al monopolio dei sui chip set, non è certo lei che deve preoccuparsi, ma bensì nVidia che con affanno cerca scappatoie sentendosi braccata da chi le cpu la fa per davvero...
elgabro.
04-12-2009, 17:50
CMQ io a breve devo cambiare PC, se sta scheda esce ad aprile, io non aspetto così tanto, vado su HD5870.
Ps.
Non è possibile che so sempre così sfigato quando devo cambià pc :muro: :muro: :mad:
Kharonte85
04-12-2009, 17:50
La vedo propeio brutta... Secondo me a furia di slittare l'uscita, nvidia perderà troppo denaro che andrebbe investito nello sviluppo...E' stupido che proprio nel mese di dicembre, con natale di mezzo nvidia non abbia presente nel suo listino delle buone vga di ultima generazione a 40nm! Con la vecchia generazione ati ad agosto aveva tirato fuori la 4870x2 e poco dopo arrivò la 295 di nvidia! A Dicembre erano entrambe sugli scaffali degli shop! In queste feste, Ati la farà da padrona tra 57xx - 58xx - 59xx e a gennaio potrebbe arrivare la 5950 essendo l'unica scelta disponibile!E intanto che arriveranno le nvidia voi pensate che AMD stia a girarsi i pollici? probabilmente gli ingegnieri sono già al lavoro per tirare fuori altro!!!!
Con questa generazione di vga a 40nm Ati a giocato d'anticipo su nvidia e si è coperta anche le spalle per evitare che succedesse come la scorsa volta, quando tirata fuori per prima la vga top di gamma, (4870x2) venne poco dopo spodestata dalla successiva uscita della 295!!! Stavolta credo che ATI si sia coperta memore dell'esperienza dell'anno scorso!!!!
In verità la situazione non è rosea nemmeno pe AMD/ATI, ha lanciato le sue schede da sttembre ma non riesce a produrne abbastanza e la disponibilità rimane rarefatta:
l problema principale nel posticipo di Fermi è il processo produttivo a 40 nm utilizzato da Tsmc per la costruzione dei chip (lo stesso per AMD), che non riesce a garantire rese accettabili. Il problema influenza infatti anche AMD che, nonostante abbia da tempo sul mercato le schede Radeon HD5000 non riesce a produrne tante quante il mercato ne richiede (beh.. se sono questi i problemi…).
Le stime interne indicano che solo il 50% dei chip AMD di fascia alta (con 1.600 shader processor per schede Radeon HD5870) risulti pienamente funzionante, e che un 25% può essere riutilizzato come chip per l schede HD5850 con 1.440 shader. Questo spiega anche la differente disponibilità di schede HD5850, le più ambite ma anche (come quantità) le meno disponibili da parte di AMD.
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
In queste condizioni è ovvio che anche AMD ha difficoltà a capitalizzare il vantaggio su nvidia, ma non solo avrà difficoltà anche a lanciare nuovi prodotti (infatti le nuove schede mobili sono slittate al q1 2010 insieme a quelle di fascia bassa), per il refresh chi lo sa :boh:
Si tutto giusto. AMD aveva RV870 pronto finito e funzionante mesi prima del 22 Ottobre, data di lancio di 7, tanto che stava aspettando Microsoft per il lancio della serie 5000; fonte ufficiale non linkabile non fudzilla.
Qua per Fermi la cosa non è incoraggiante per niente. Non si sa NULLA, il chè equivale a dire che non esiste al momento. Altro che gennaio.
Sia ben chiaro sono smanioso di provare questa nuova architettura, ma se non sappiamo nulla adesso non sapremo nulla neanche a gennaio: quel che non c'è adesso non si ha per gennaio/febbraio e forse /marzo.
Foglia Morta
04-12-2009, 18:05
In queste condizioni è ovvio che anche AMD ha difficoltà a capitalizzare il vantaggio su nvidia, ma non solo avrà difficoltà anche a lanciare nuovi prodotti (infatti le nuove schede mobili sono slittate al q1 2010 insieme a quelle di fascia bassa), per il refresh chi lo sa :boh:
Ma 'ste cose te le inventi tu... la roadmap è sempre stata quella e non è slittato proprio nulla. Anzi è già stato messo a listino un notebook con mobility HD5850 ( http://www.arlt.com/pcsnotebooks/notebooks+oxid/nach+hersteller+oxid+oxid+oxid+oxid+oxid/acer/3003840.html ). Tutte le gpu sono già supportate nei 9.12 beta ( Redwood e Cedar ), quindi i lavori sono terminati da tempo e devono solo lanciare le schede ( probabilmente a Gennaio ). Prima ancora del lancio della prima gpu nVidia serie G300 ATi avrà già completato la line-up , sia desktop che mobile.
In verità la situazione non è rosea nemmeno pe AMD/ATI, ha lanciato le sue schede da sttembre ma non riesce a produrne abbastanza e la disponibilità rimane rarefatta:
Tutto ciò che produce vende, fai tu se è in crisi! Non credere che nel mondo non ne stia piazzando a nastro di serie 5xxx ;)
La verità è che si vede nVidia nei guai e per forza lo dev'essere pure ATI! Non è così, le sue schede ci sono, vanno forte e vendono come il pane.
Iantikas
04-12-2009, 19:42
...fonte?...
...ciao Andrea...
sembravano le percentuali ke da steam... http://store.steampowered.com/hwsurvey
Ma basta con la tua disinformazione. A questo punto fai prima ad usare uno dei tuoi utenti cloni, che con quel nick non ti crede piu' nessuno :rolleyes:
http://www.atomicmpc.com.au/News/153350,amd-wins-in-the-discrete-gpu-market.aspx
AMD wins in the discrete GPU market
Agosto 2009 (53% market share)
mi sembra cmq ke quelle percentuali si riferiscano al mercato mobile...
CMQ io a breve devo cambiare PC, se sta scheda esce ad aprile, io non aspetto così tanto, vado su HD5870.
Ps.
Non è possibile che so sempre così sfigato quando devo cambià pc :muro: :muro: :mad:
imho eri sfigato se ancora dovevano uscire pure le gpu dx11 di ati oltre ke di nvidia...
...ma siccome le HD5xxx ci sono e son pure buone x me fai un ottimo acquisto a prenderne una...
...ciao
appleroof
04-12-2009, 19:56
Tutto ciò che produce vende, fai tu se è in crisi! Non credere che nel mondo non ne stia piazzando a nastro di serie 5xxx ;)
La verità è che si vede nVidia nei guai e per forza lo dev'essere pure ATI! Non è così, le sue schede ci sono, vanno forte e vendono come il pane.
si ma converrai che se ne avesse avuto in volumi, avrebbe guadagnato di più, è stata proprio sfigata a questo giro con i problemi di TMSC
rimane il fatto che però a causa di tali problemi è più sfigata Nvidia a questo giro, perchè non può proporre nulla a contrastare le nuove vga Ati, per ora.
Cmq credo che Nvidia stia attraversando uno dei suoi periodi più neri, evidentemente, ma nello stesso tempo non credo la cosa sarà drammatica: per l'ennesima volta, ricordo come anche r600 arrivò con circa 6 mesi di ritardo su g80 e fù pure deludente (e lo rimase anche in versione rv670, quindi per praticamente 1 anno e 1/2) eppure guardate oggi Ati
sarebbe diverso se, ammesso e non concesso che Fermi deluda in prestazioni/non si possa trarre una line-up completa da esso,entro "max un paio di refresh" Nvidia non si riprendesse.....allora si che la situazione diventerebbe preoccupante imho
appleroof
04-12-2009, 20:35
cut
La sfiga non c'entra nulla ;)
si, usavo quel termine "per brevità" :D
rimane il fatto che TMSC ha avuto problemi che credo nemmeno lei si aspettasse (quantomeno che si protaessero così a lungo) per cui subentra il fattore sfiga, fatalità, imprevedibilità...chiamala come vuoi
sempre ammesso che TMSC fosse e sia in buona fede :D
La situazione è molto diversa, in quel caso coincise con un vero e proprio lancio della divisione chipset (quanto aveva prima di market share nel settore, 1%?) mentre in questo coincide con la morte definitiva di quella divisione. Il tutto mentre un terzo competitor si affaccerà sul mercato, un peso massimo che sarà senz'altro un brutto cliente per entrambe. Direi uno scenario molto più "complicato".
Ammesso che deluda, due refresh sono troppi per risollevarsi in una situazione di mercato come quella odierna. E per risollevarsi intendo rimanere ai livelli odierni senza finire in una nicchia.
non capisco...Nvidia non aveva lanciato la divisione chipset nel 2006 (esisteva da anni prima, e la DFI lanparty con nf4 è la migliore mobo per K8 mai esistita, ancora nei cuori degli overclocker compreso il mio -anche se non ho avuto la lanparty ma la infinity :D - )
inoltre, vedi che dopo K8 Amd arranca contro un mostro di nome Intel, che invece proprio al lancio di core2duo ha ripreso la leadership prestazionale (e non solo, per fortuna nostra imparando da Amd in questo caso)...ebbene Amd non è nemmeno una divisione di Ati, semmai il contrario, per cui alla luce di tutte queste cose proprio non capisco il tuo discorso :boh:
Andrea deluxe
04-12-2009, 20:39
Allora la domanda è: come può essere un bus a 384bit se usa fantomatiche GDDR5 ECC (che fra le altre cose hanno la singolare caratteristica di non esistere :asd: ).
sul white paper e spiegato come funziona.....
la funzione di controllo dei dati e' inserita dentro la gpu, e viene attivata nelle tesla con i driver...
esempio: le ddr2 ecc hanno gli stessi ic delle normali ddr2, ma sul pcb delle ram ci sono le logiche di buffering e controllo nelle quali i dati vengono bufferizzati e controllati prima di essere scritti o letti sugli ic....
"Tecnicamente" lo standard ECC GDDR5 esisteva in maniera parziale ed incompleta, nvidia ha semplicemente finalizzato le spec. per il suo prodotto....
si ma converrai che se ne avesse avuto in volumi, avrebbe guadagnato di più, è stata proprio sfigata a questo giro con i problemi di TMSC
rimane il fatto che però a causa di tali problemi è più sfigata Nvidia a questo giro, perchè non può proporre nulla a contrastare le nuove vga Ati, per ora.
Cmq credo che Nvidia stia attraversando uno dei suoi periodi più neri
Non ci sono dubbi, se ne aveva di più ne vendeva di più con relativi introiti :)
nVidia raccoglierà quel che ha seminato nel tempo, chippone monolitico etc, sono nodi che prima o poi vengono al pettine
appleroof
04-12-2009, 20:55
Non ci sono dubbi, se ne aveva di più ne vendeva di più con relativi introiti :)
nVidia raccoglierà quel che ha seminato nel tempo, chippone monolitico etc, sono nodi che prima o poi vengono al pettine
e cmq può contare ancora su un certo market-share, in cui non solo Ati ancora non la raggiunge, ma d'altro lato Intel schiaccia Amd (giusto per indicazione, un riferimento giusto per i gamer http://store.steampowered.com/hwsurvey/ )
certo, parlando di Nvidia, i prodotti devono cmq arrivare prima o poi, e credo che quanto al chippone debba cambiare in qualche modo rotta: sono ormai mesi che non propone nulla di nuovo sotto la fascia medio-alta, e questo proprio per colpa del chippone, non può andare avanti a lungo così
e cmq può contare ancora su un certo market-share, in cui non solo Ati ancora non la raggiunge, ma d'altro lato Intel schiaccia Amd (giusto per indicazione, un riferimento giusto per i gamer http://store.steampowered.com/hwsurvey/ )
certo, parlando di Nvidia, i prodotti devono cmq arrivare prima o poi, e credo che quanto al chippone debba cambiare in qualche modo rotta: sono ormai mesi che non propone nulla di nuovo sotto la fascia medio-alta, e questo proprio per colpa del chippone, non può andare avanti a lungo così
AMD di suo ha tanti piedi in tanti campi, nVidia è circoscritta alle schede grafiche alla fine, le quote poi sono destinate a variare come la forza del maestrale, oggi sale domani scende, del resto di passi avanti ATI ne ha fatti dall'acquisizione di AMD ;)
Cavolo sinceramente non pensavo che la quota AMD nel mondo CPU fosse tanto alta cmq!
appleroof
04-12-2009, 21:08
AMD di suo ha tanti piedi in tanti campi, nVidia è circoscritta alle schede grafiche alla fine, le quote poi sono destinate a variare come la forza del maestrale, oggi sale domani scende, del resto di passi avanti ATI ne ha fatti dall'acquisizione di AMD ;)
Cavolo sinceramente non pensavo che la quota AMD nel mondo CPU fosse tanto alta cmq!
quella è una classifica di steam, non è assoluta, in realtà è molto sotto ad Intel (qui un esempio in terimini assoluti, il primo che ho trovato su google http://www.pcworld.it/notizia/119108/2009-11-04/Intel-guadagna-market-share-ai-danni-di-AMD-nel-terzo-trimestre.html )
quella è una classifica di steam, non è assoluta, in realtà è molto sotto ad Intel (qui un esempio in terimini assoluti, il primo che ho trovato su google http://www.pcworld.it/notizia/119108/2009-11-04/Intel-guadagna-market-share-ai-danni-di-AMD-nel-terzo-trimestre.html )
Se non è assoluta per le cpu non lo è neanche per le GPU però... e sappiamo bene che se contiamo le integrate AMD se la passa moltoooooooooo bene ;) In ogni caso è bello che tanti videogiocatori si affidino a AMD, è un trend positivo!
GOWMarcus
04-12-2009, 21:12
ragazzi ma anche se ATi è nettamente superiore questa cosa chi la sa ? noi appasionati di informatica rappresentiamo una fetta minuscola nel mercato dei computer o componenti. La gente compra Nvidia comunque, alcuni non la conosocno neanche ATi :O
Quindi vende lo stesso, la GTX 285 per il momento regge benissimo il mercato.
Kharonte85
04-12-2009, 21:20
Ma 'ste cose te le inventi tu... la roadmap è sempre stata quella e non è slittato proprio nulla. Anzi è già stato messo a listino un notebook con mobility HD5850 ( http://www.arlt.com/pcsnotebooks/notebooks+oxid/nach+hersteller+oxid+oxid+oxid+oxid+oxid/acer/3003840.html ). Tutte le gpu sono già supportate nei 9.12 beta ( Redwood e Cedar ), quindi i lavori sono terminati da tempo e devono solo lanciare le schede ( probabilmente a Gennaio ). Prima ancora del lancio della prima gpu nVidia serie G300 ATi avrà già completato la line-up , sia desktop che mobile.
AMD GPU shortage causing PC vendors to delay products to 1Q10
DIGITIMES Research - quarterly ICT and FPD shipments data and charts
Advertisement
Monica Chen, Taipei; Joseph Tsai, DIGITIMES [Thursday 5 November 2009]
Tight supply of AMD GPUs has caused several PC vendors to delay their mass shipment schedules by about two months to the first quarter of 2010, according to sources at the companies.
AMD's 40nm ATI Radeon HD 5000 series and 55nm ATI Radeon HD 4000 series GPUs are currently both facing shortages; the former due low yields on Taiwan Semiconductor Manufacturing Company's (TSMC's) 40nm process and the later due to AMD's conservative attitude towards its 55nm GPU sales after the launch of 40nm products, the sources noted.
In addition to graphics cards and desktops, the shortage is also forcing AMD to delay the mass shipment schedule of its ATI Mobility Radeon HD 5000 series (Manhattan) GPUs for notebooks to the first quarter of 2010 from the originally planned fourth quarter of 2009.
AMD commented that the company is positioned to supply orders placed by partners to meet consumer demand.
http://www.digitimes.com/news/a20091105PD213.html
Me le invento... :rolleyes: Ma poi è pure logico: TSMC è il fornitore ed ha problemi conclamati quindi...un ritardo di 2 mesi era fisiologico (come lo sarà per nvidia solo che per le dimensioni del Chip ce ne vorranno 4 di mesi)
Tutto ciò che produce vende, fai tu se è in crisi! Non credere che nel mondo non ne stia piazzando a nastro di serie 5xxx ;)
La verità è che si vede nVidia nei guai e per forza lo dev'essere pure ATI! Non è così, le sue schede ci sono, vanno forte e vendono come il pane.
Se hai difficoltà di produzione (all'origine) non vendi quanto potresti, il senso è chiaro, forse solo adesso la situazione sta leggermente migliorando.
Per usare la tua metafora se sei a corto di farina il pane non lo puoi vendere.
In questo caso sarebbe più corretto dire che dato che AMD ha problemi con TSMC è improbabile che non ne abbia Nvidia.
Mi risulta, come risulta a chiunque peraltro, che un controller che debba gestire ram di tipo ECC necessiti di bit addizionali per questo.
Allora la domanda è: come può essere un bus a 384bit se usa fantomatiche GDDR5 ECC (che fra le altre cose hanno la singolare caratteristica di non esistere :asd: ).
Sono le solite idiozie che scrive Valich tanto per dire qualcosa...
:nonsifa: Sei stato disattento Te lo spiega direttamente nvidia: http://www.nvidia.com/object/fermi_architecture.html
appleroof
04-12-2009, 21:21
cut
Per usare la tua metafora se sei a corto di farina il pane non lo puoi vendere.
cut
:D
Se hai difficoltà di produzione (all'origine) non vendi quanto potresti, il senso è chiaro, forse solo adesso la situazione sta leggermente migliorando.
Per usare la tua metafora se sei a corto di farina il pane non lo puoi vendere.
Non vendi quanto potresti, ma vendi cmq... e a giuidicare dai prezzi direi che stanno pure facendo cassa! :stordita:
appleroof
04-12-2009, 21:34
Non vendi quanto potresti, ma vendi cmq... e a giuidicare dai prezzi direi che stanno pure facendo cassa! :stordita:
sembra che voglia contraddirti sempre :p ma pare che l'aumento di prezzi, oltre che allo shortage, sia dovuto anche all'aumento del costo delle ddr5
Kharonte85
04-12-2009, 21:35
Non vendi quanto potresti, ma vendi cmq... e a giuidicare dai prezzi direi che stanno pure facendo cassa! :stordita:
Quello senz'altro...comunque battute a parte a me pare evidente che è un momento di difficoltà per tutti. Speriamo che la situazione si sblocchi sia per AMD che per Nvidia (anche perchè comincio ad aver voglia di cambiare scheda video! :D )
Kharonte85
04-12-2009, 21:37
sembra che voglia contraddirti sempre :p ma pare che l'aumento di prezzi, oltre che allo shortage, sia dovuto anche all'aumento del costo delle ddr5
Questa non la sapevo, dove l'hai letta? :fagiano:
appleroof
04-12-2009, 21:43
Questa non la sapevo, dove l'hai letta? :fagiano:
nella rece delle 5x00 di "pcprofessionale" di questo mese :O
sembra che voglia contraddirti sempre :p ma pare che l'aumento di prezzi, oltre che allo shortage, sia dovuto anche all'aumento del costo delle ddr5
Altro che DDR 5 (o meglio non solo) si sa dai, quando non c'è concorrenza qualcosa in più si può spuntare... :D
Foglia Morta
04-12-2009, 21:57
Me le invento... :rolleyes: Ma poi è pure logico: TSMC è il fornitore ed ha problemi conclamati quindi...un ritardo di 2 mesi era fisiologico (come lo sarà per nvidia solo che per le dimensioni del Chip ce ne vorranno 4 di mesi)
E infatti è sbagliato quell'articolo... vatti a guardare la roadmap, Cedar e Redwood sono sempre stati pensati per il Q1 2010 , e per il settore mobile stanno già vendendo Cypress.
appleroof
04-12-2009, 22:05
Altro che DDR 5 (o meglio non solo) si sa dai, quando non c'è concorrenza qualcosa in più si può spuntare... :D
certo :D
Nino Grasso
04-12-2009, 22:46
Sul sito nVidia ho trovato questa IMBARAZZANTE AFFERMAZIONE proferita da un tale di nome Dave Patterson: "I believe history will record Fermi as a significant milestone".
Mi sa che si sta un po' esagerando! :D
Sul sito nVidia ho trovato questa IMBARAZZANTE AFFERMAZIONE proferita da un tale di nome Dave Patterson: "I believe history will record Fermi as a significant milestone".
Mi sa che si sta un po' esagerando! :D
Beh, sulla prima parte della frase ha ragione: senz'altro la storia si ricorderà di Fermi...
Beh, sulla prima parte della frase ha ragione: senz'altro la storia si ricorderà di Fermi...
si per il ritardo che ha avuto :asd:
Kharonte85
04-12-2009, 23:55
nella rece delle 5x00 di "pcprofessionale" di questo mese :O
Professional...:fagiano:
E infatti è sbagliato quell'articolo... vatti a guardare la roadmap, Cedar e Redwood sono sempre stati pensati per il Q1 2010 , e per il settore mobile stanno già vendendo Cypress.
Non riesco a trovare la roadmap...se è sbagliato l'articolo amen ritiro...ma dubito che sia in vendita qualcosa con una hd5000 mobile dato che l'intenzione è presentare il primo notebook il 7 gennaio: http://notebookitalia.it/acer-aspire-8942-con-ati-mobility-radeon-hd5850-7147.html
Sul sito nVidia ho trovato questa IMBARAZZANTE AFFERMAZIONE proferita da un tale di nome Dave Patterson: "I believe history will record Fermi as a significant milestone".
Mi sa che si sta un po' esagerando! :D
Linka linka :D
Adone_1985
05-12-2009, 00:02
Scusate ragazzi...domanda sciocca
voi che non mi sembrate molto preparati sull'argomento...:D sapete in linea di massima quando uscirà questa maledetta scheda video?
Grazie a tutti
Foglia Morta
05-12-2009, 00:04
Non riesco a trovare la roadmap...se è sbagliato l'articolo amen ritiro...ma dubito che sia in vendita qualcosa con una hd5000 mobile dato che l'intenzione è presentare il primo notebook il 7 gennaio: http://notebookitalia.it/acer-aspire-8942-con-ati-mobility-radeon-hd5850-7147.html
è sempre stata questa:
http://www.pctunerup.com/up/results/_200912/th_20091205005926_Hemlock_Roadmap.jpg (http://www.pctunerup.com/up/image.php?src=_200912/20091205005926_Hemlock_Roadmap.jpg)
e dalla presentazione di una gpu alla presentazione di notebook è SEMPRE trascorso un po di tempo per ovvi motivi ( aggiornare e/o progettare un notebook impiega tempo ).
Foglia Morta
05-12-2009, 00:08
Scusate ragazzi...domanda sciocca
voi che non mi sembrate molto preparati sull'argomento...:D sapete in linea di massima quando uscirà questa maledetta scheda video?
Grazie a tutti
Intendi presentazione o presenza sul mercato ? In entrambi i casi è difficile dirlo con precisione. Dovrebbe essere Marzo o Aprile per la presenza sul mercato... per la presentazione bisogna vedere cosa decide nVidia
Scusate ragazzi...domanda sciocca
voi che non mi sembrate molto preparati sull'argomento...:D sapete in linea di massima quando uscirà questa maledetta scheda video?
Grazie a tutti
entro il 2010 si spera:asd:
La cancellazione da parte di Intel delle prime Gpu Larrabee (rinviate a 2011/2012) (http://www.hwupgrade.it/news/skvideo/intel-cancella-le-prime-gpu-della-famiglia-larrabee_30990.html) secondo voi può far "tirare un sospiro" a nvidia o lascia le cose come stanno ?
Severnaya
05-12-2009, 09:28
jene può fregare di meno a nvidia sec me
appleroof
05-12-2009, 09:44
La cancellazione da parte di Intel delle prime Gpu Larrabee (rinviate a 2011/2012) (http://www.hwupgrade.it/news/skvideo/intel-cancella-le-prime-gpu-della-famiglia-larrabee_30990.html) secondo voi può far "tirare un sospiro" a nvidia o lascia le cose come stanno ?
jene può fregare di meno a nvidia sec me
quoto, anche secondo me è ininfluente in questa fase...
halduemilauno
05-12-2009, 10:14
La cancellazione da parte di Intel delle prime Gpu Larrabee (rinviate a 2011/2012) (http://www.hwupgrade.it/news/skvideo/intel-cancella-le-prime-gpu-della-famiglia-larrabee_30990.html) secondo voi può far "tirare un sospiro" a nvidia o lascia le cose come stanno ?
jene può fregare di meno a nvidia sec me
quoto, anche secondo me è ininfluente in questa fase...
http://www.brightsideofnews.com/news/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx
;)
Simedan1985
05-12-2009, 14:00
Ormai tocca solo metterci l'anima in pace:(
Wing_Zero
06-12-2009, 11:10
cmq una gpu x86 imho è la cosa più ridicola che esista.
Andrebbe bene per il gpu computing, non per altro.
Già l'x86 è un architettura che andrebbe presa e buttata nel cesso...(vecchia, rattoppata, piena di istruzioni inutili dovute unicamente alla retrocompatibilità)...vederla utilizzata anche nelle gpu facendo credere che ciò sia "innovativo" mi viene solo da ridere :)
Imho larrabee, se mai uscirà, dovrà per forza di cose consumare un botto...e sono molto dubbioso riguardo sia la sua efficenza che la sua efficacia...
Bah...vedremo...
Alla intel hanno fatto qualcosa tipo:
Otellini: "Ragazzi, da oggi dobbiamo progettare una GPU da zero! "
Capo ricerche settore grafico: "Che ne dici di una cpu x86 moltiplicata per 80 e con istruzioni vettoriali?"
Otellini: "mmmm si ok, puo' andare!"
-.-"
Penso anche io, certo non conviene né ad nVidia né ad AMD che Intel entri nel mercato VGA con un prodotto competitivo, quindi in linea generale non sono certo dispiaciuti, d'altra parte non era sicuramente una preoccupazione nel breve termine e quindi la notizia in sé e per sé cambia poco o nulla.
D'altra parte a noi un terzo competitor avrebbe fatto comodo, soprattutto per evitare che il ritardo di uno degli attori di mercato ci lasci senza scelta (vedi le attese per R600 e ora per Fermi)...
Condivido assolutamente il tuo pensiero pero tra i tempi antecedenti a R600 agli attuali pre Fermi c'è una bella differenza soprattutto sul versante "prezzo delle vga"
GOWMarcus
06-12-2009, 11:25
ma scusate se hanno detto che i primi sample saranno a gennaio come mai fate affermazioni sulle mancate anteprime ?
Se la scheda non c'è fisicamente come fanno a mostrare una ssaggio dei risultati ?
Bastoner
06-12-2009, 11:31
cmq una gpu x86 imho è la cosa più ridicola che esista.
Andrebbe bene per il gpu computing, non per altro.
Già l'x86 è un architettura che andrebbe presa e buttata nel cesso...(vecchia, rattoppata, piena di istruzioni inutili dovute unicamente alla retrocompatibilità)...vederla utilizzata anche nelle gpu facendo credere che ciò sia "innovativo" mi viene solo da ridere :)
Imho larrabee, se mai uscirà, dovrà per forza di cose consumare un botto...e sono molto dubbioso riguardo sia la sua efficenza che la sua efficacia...
Bah...vedremo...
Alla intel hanno fatto qualcosa tipo:
Otellini: "Ragazzi, da oggi dobbiamo progettare una GPU da zero! "
Capo ricerche settore grafico: "Che ne dici di una cpu x86 moltiplicata per 80 e con istruzioni vettoriali?"
Otellini: "mmmm si ok, puo' andare!"
-.-"
Credo che il tuo modo di giudicare sia un po' troppo superficiale. Intel ha speso miliardi di dollari in questo progetto, e creare una gpu HPC/GPGPU è un impresa titanica anche per un colosso di tali dimensioni. Era prevedibile che non sarebbero stati sul mercato alla prima botta. Ci vorrà del tempo.
GOWMarcus
06-12-2009, 11:53
nVidia parla di lancio a gennaio (ora), anche se all'inizio diceva lancio al Black Friday.
Ora tutto il mondo si è reso conto che Marzo è la realtà ottimistica, dopo che in pochi lo dicevamo fin da subito e ci davano dei fanboy o dei guappi :asd:
Quando crei attesa per una data e poi rimandi di un mese e poi di un altro, e poi fai vedere una scheda finta spacciandola per vera e poi dici tutto sull'architettura e poi rimandi ancora è normale che ci siano aspettative che non hanno niente di realistico, ma ci sono per colpa di nVidia stessa...
no scusa la news parla chiaro, ha detto "PRIMI SAMPLE" a gennaio ma non per noi, quindi presumo siano per qualche anteprima o assaggio.
E a marzo il paper lunch :D
ma scusate se hanno detto che i primi sample saranno a gennaio come mai fate affermazioni sulle mancate anteprime ?
Se la scheda non c'è fisicamente come fanno a mostrare una ssaggio dei risultati ?
cè stato un precendete http://www.tomshw.it/news.php?newsid=19598&pag_commenti=1
se noti nel'articolo nvidia aveva ammesso che entro l'anno dovevano essere presentate le nuove gpu nvidia ma fino ad ora non si è visto un kaiser....
Wing_Zero
06-12-2009, 11:58
Credo che il tuo modo di giudicare sia un po' troppo superficiale. Intel ha speso miliardi di dollari in questo progetto, e creare una gpu HPC/GPGPU è un impresa titanica anche per un colosso di tali dimensioni. Era prevedibile che non sarebbero stati sul mercato alla prima botta. Ci vorrà del tempo.
Superficiale a tuo modo di vedere. potranno pure tirare fuori una gpu titanica...ma sono molto dubbioso!
Fatto sta, ed è incontrovertibile, che x86 è un architettura vecchia, superata, piena di pezze, e davvero poco efficente (consumi/prestazioni). Per continuare la discussione in maniera dettagliata via PM o apriamo un altro topic nella sezione opportuna.
appleroof
06-12-2009, 12:10
Penso anche io, certo non conviene né ad nVidia né ad AMD che Intel entri nel mercato VGA con un prodotto competitivo, quindi in linea generale non sono certo dispiaciuti, d'altra parte non era sicuramente una preoccupazione nel breve termine e quindi la notizia in sé e per sé cambia poco o nulla.
D'altra parte a noi un terzo competitor avrebbe fatto comodo, soprattutto per evitare che il ritardo di uno degli attori di mercato ci lasci senza scelta (vedi le attese per R600 e ora per Fermi)...
quoto tutto
Ti ripeto: colpa del reparto marketing di nVidia e delle ramificazioni e gli echi che si ripropongono sui forum grazie ai cari fanboy. Dicono a mezzo mondo di uscire oggi, mentre ai ben selezionati hanno detto da agosto che uscirà ad aprile. Poi rimandano. Nel frattempo i ben selezionati sanno già, gli altri si immaginano sempre cose nuove e tutte sbagliate, mentre usano sprovveduti come Theo e Fuad per fare da altoparlante delle campagne FUD (come la boiata assoluta degli yelds di TSMC).
E' una scelta di inganno e raggiro, in modo che gli utenti si immaginino chissà cosa.
Anche tutte le dichiarazioni ufficiali devono essere indagate linguisticamente con la massima attenzione, perché spaccano continuamente il capello facendo intendere il falso e poter dire mesi dopo che le parole erano state male interpretate perché quella cosa che tutto il mondo ha capito non corrispondeva alle parole.
Nel frattempo gli utenti dei forum che numerosi cadono vittime di queste campagne ci credono e si creano delle aspettative destinate ad essere deluse.
....è un mondo difficile :nono: :D
greeneye
06-12-2009, 13:26
Molta della confuzione è legata a fudzilla (e dei siti che ne ripetono le news come hwupgrade) che tuttora propone date di uscita inverosimili.
Per fare un esempio Semiaccurate il 29 giugno indicava in febbraio 2010 una data plausibile per il lancio di fermi con la possibilità di uno slittamento al q2 2010 se qualcosa fosse andato storto.
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/
Purtroppo quando c'e' un corposo reparto marketing e parecchi fanboy che spargono melma le cose spesso sono poco chiare.
Foglia Morta
06-12-2009, 13:39
Molta della confuzione è legata a fudzilla (e dei siti che ne ripetono le news come hwupgrade) che tuttora propone date di uscita inverosimili.
Per fare un esempio Semiaccurate il 29 giugno indicava in febbraio 2010 una data plausibile per il lancio di fermi con la possibilità di uno slittamento al q2 2010 se qualcosa fosse andato storto.
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/
Purtroppo quando c'e' un corposo reparto marketing e parecchi fanboy che spargono melma le cose spesso sono poco chiare.
Più che al sito in cui viene postato un articolo io faccio riferimento all'autore dell'articolo. Ad esempio questo articolo di Giugno postato su fudzilla: http://www.fudzilla.com/content/view/14104/1/
From what we were told, TSMC is the source of this leak, as they've been talking to various people in the business and said that Nvidia won't have any DirectX 11 parts this year and not even early next year.
Non è Fuad Abazovic ma è Lars-Göran Nilsson.
nVidia parla di lancio a gennaio (ora), anche se all'inizio diceva lancio al Black Friday.Quoto, aggiungerei che, in base alle voci "messe in giro", più di qualcuno ad inizio Ottobre parlava di uscita di g300 a Novembre ^^
halduemilauno
06-12-2009, 17:40
Quoto, aggiungerei che, in base alle voci "messe in giro", più di qualcuno ad inizio Ottobre parlava di uscita di g300 a Novembre ^^
personalmente ben prima di ottobre dissi di fine novembre precisamente 18/24 novembre. evidentemente le difficoltà da una parte di nvidia e dall'altra di tsmc la fonderia taiwanese con il pp a 40nm hanno posticipato il tutto ad inizio gennaio. praticamente quello che ha fatto amd il 23 settembre lo dovrebbe fare nvidia il 7 gennaio.
vedremo.
http://www.hardware-infos.com/news.php?news=3334
Das Warten auf Nvidias nächste Grafikkartengeneration mag in diesen Tagen langwierig erscheinen. AMD hat bereits Ende September seinen ersten DirectX 11-Chip präsentiert und ergänzt nun nach und nach sein Portfolio um Chips auf Basis seiner neuen Grafikkartenarchitektur.
Die Wirklichkeit sieht aber so aus, dass Nvidia allenfalls ein Quartal hinter seinem schon 2008 auf internen Roadmaps skizzierten Zeitplan für Fermi liegt.
Die Chancen, dass Nvidia Fermi, wie lange Zeit geplant, in Q4/2009 vorstellen wird, gehen zwar inzwischen gegen Null, aber schon die Anfang Januar startende Consumer Electronics Show in Las Vegas könnte zum Launchevent werden. Eine gute Verfügbarkeit, so sind sich Experten einig, wird aber erst im Laufe des ersten Quartals 2010 erreicht werden können.
Die Gerüchteseite Fudzilla legt den aktuellen Status, der sich auch mit unseren Informationen deckt, dabei gut dar: So berichtet man, dass Nvidia ab Januar vereinzelt Fermi-Chips haben wird und somit theoretisch einen Launch anleiern könnte, Verfügbarkeit aber erst gegen März realistisch scheint.
An dieser Stelle lässt sich auch gut auf den Nvidia-Mann Michael Hara verweisen, der im Rahmen eines Videos zur Fall Investor Conference betont, dass es im ersten Quartal 2010 eine Rekordanzahl von Fermi-basierten Grafikkarten geben werde.
Was bis hierhin also festgehalten werden kann: Nvidias neue Grafikkartenarchitektur, Fermi, wird mit großer Wahrscheinlichkeit noch im Laufe des nächsten Quartals zu erwerben sein. Wann Nvidia den (Soft)-Launch zelebriert, wird zurzeit wahrscheinlich in den Führungsebenen ausdiskutiert, sobald es finales Silizium des Chips gibt.
Ebenfalls muss man klarstellen, dass Nvidias Next-Generation-Chip damit lediglich ein bis drei Monate seiner Zeit hinterherläuft, nachdem in Foren bereits Vergleiche mit Spätzündern wie Geforce FX und Radeon HD 2000 angestellt wurden. AMD konnte seine neue Grafikkartengeneration dagegen pünktlich in Q3/2009 zur Marktreife bringen, ringt aber bis heute mit mäßiger Verfügbarkeit, so dass man die hohe Nachfrage nicht ansatzweise decken kann und der vermeintliche Zeitvorsprung vor Nvidia kaum nutzbar ist.
;)
Bastoner
06-12-2009, 17:54
personalmente ben prima di ottobre dissi di fine novembre precisamente 18/24 novembre. evidentemente le difficoltà da una parte di nvidia e dall'altra di tsmc la fonderia taiwanese con il pp a 40nm hanno posticipato il tutto ad inizio gennaio. praticamente quello che ha fatto amd il 23 settembre lo dovrebbe fare nvidia il 7 gennaio.
vedremo.
;)
TSMC non c'entra nulla con il ritardo di Nvidia. C'entrerà quando Nvidia avrà finito la progettazione e avrà bisogno di wafer per la grande produzione.
Sempre a mettere pezze....
appleroof
06-12-2009, 19:15
TSMC non c'entra nulla con il ritardo di Nvidia. C'entrerà quando Nvidia avrà finito la progettazione e avrà bisogno di wafer per la grande produzione.
Sempre a mettere pezze....
Il fatto che TMSC abbia problemi con i 40nm, ed il fatto che Fermi è a 40nm credo siano sicuramente legati e i problemi di TMSC imho sono certamente uno dei fattori che hanno causato il ritardo di Fermi.
Saprai che prima della produzione in volumi ci sono i samples e se TMSC non riesce a dar vita a chip affidabili per dare il via alla grande produzione, a causa dei problemi con il pp in generale, capirai che una qualche influenza sul lancio del chip ce l'avrà.
Kharonte85
06-12-2009, 20:06
Il fatto che TMSC abbia problemi con i 40nm, ed il fatto che Fermi è a 40nm credo siano sicuramente legati e i problemi di TMSC imho sono certamente uno dei fattori che hanno causato il ritardo di Fermi.
Saprai che prima della produzione in volumi ci sono i samples e se TMSC non riesce a dar vita a chip affidabili per dare il via alla grande produzione, a causa dei problemi con il pp in generale, capirai che una qualche influenza sul lancio del chip ce l'avrà.
Concordo...prima di conoscere i problemi di TSMC con AMD/ATI (a ottobre) un lancio nel Q4 2009 di fermi era tutto sommato possibile, da quel momento in poi ho pensato che difficilmente l'avremmo visto prima di anno nuovo, ora il problema è che i problemi di TSMC non sembrano pervenire a veloce risoluzione (se è vera la stima del 50% su Cypress) quindi è impossibile che vedremo la scheda sul mercato prima di Marzo (perchè Fermi essendo più grosso e complesso deve essere fisiologicamente più in difficoltà)
Personalmente credo che se il pp fosse stato abbastanza buono avremmo avuto una situazione migliore per tutti: con AMD che presenta le schede a settembre con piena disponibilità e con Fermi che esce a novembre/dicembre come previsto.
E questo discorso ovviamente esula dal fattore prestazioni (cioè pensare che Fermi non esce perchè è più lento di Cypress non ha fondamento).
Bastoner
06-12-2009, 20:54
Il fatto che TMSC abbia problemi con i 40nm, ed il fatto che Fermi è a 40nm credo siano sicuramente legati e i problemi di TMSC imho sono certamente uno dei fattori che hanno causato il ritardo di Fermi.
Saprai che prima della produzione in volumi ci sono i samples e se TMSC non riesce a dar vita a chip affidabili per dare il via alla grande produzione, a causa dei problemi con il pp in generale, capirai che una qualche influenza sul lancio del chip ce l'avrà.
ATI riesce a produrre decine di migliaia di schede a 40nm, pur con tutti i problemi. Questo dovrebbe suggerirti che non è credibile l'ipotesi che Nvidia non riesca ad ultimare i sample anche per colpa di TSMC.
Andrea deluxe
06-12-2009, 21:22
ATI riesce a produrre decine di migliaia di schede a 40nm, pur con tutti i problemi. Questo dovrebbe suggerirti che non è credibile l'ipotesi che Nvidia non riesca ad ultimare i sample anche per colpa di TSMC.
quanti transistor in piu' ha fermi?
trasforma la cifra in percentuale;
poi aggiungi alla casistica delle problematiche in fase di produzione quella percentuale ottenuta;
otterrai la risposta.
Kharonte85
06-12-2009, 22:49
ATI riesce a produrre decine di migliaia di schede a 40nm, pur con tutti i problemi. Questo dovrebbe suggerirti che non è credibile l'ipotesi che Nvidia non riesca ad ultimare i sample anche per colpa di TSMC.
Invece se le rese del pp40nm sono davvero così basse per AMD (50% quando dovrebbero essere al 90%) è proprio così: Nvidia ha un chip molto più grosso e con un bel po' di transistor in più quindi finche' TSMC non migliora non puo' sperare di riuscire a produrne abbastanza per fare un lancio (cosa che secondo me ha spinto nvidia a fare un revision A3 probabilmente per cercare di aggiustare il tiro visti i risultati dell'A2 e le "prove" di produzione che presumo abbiano fatto e soppesato).
Infatti se vedremo una scheda GF100 a Gennaio è plausibile aspettarsi all'opera dei sample A2 "fortunelli", privi di problemi e che reggono le specifiche finali della revision A3...oppure se la situazione dovesse migliorare potremmo vedremo direttamente dei sample A3...questo ammesso che nvidia voglia diffondere qualche dato prestazionale; comunque sul mercato non prima di Marzo ormai è quasi sicuro.
Bastoner
06-12-2009, 23:03
Certo, avete ragione.
Secondo me non è solo questione di quantità, ma anche di competitività sul mercato. Nvidia potrebbe anche avere la possibilità di produrne un numero sufficiente, ma se non sono economicamente competitivi non ha senso farlo fino a quando non si è affinata la produzione (per quanto potrebbe comunque uscire prima con soluzioni tesla e quadro, così da avere maggior i margini e una richiesta minore).
Inoltre sappiamo bene (e l'esperienza del phenom insegna, ma anche R600) che le architetture complesse, al di la della superficie occupata, possono creare grossi problemi di surriscaldamento se prodotte con un processo produttivo non abbastanza evoluto. Forse nvidia stavolta ha sopravvalutato il processo a 40 nm e la complessita di fermi è tale da richiedere processi produttivi migliori per dare il meglio di se.
In ogni caso, se non erro, qualcuno qualche tempo fa spiegava che i chip ati potevano aumentare le percentuali di produzione grazie ad una significativa ridondanza degli SP (prevista in fase progettuale), mentre il chip nvidia da questo punto di vista era meno coperto (o non lo era affatto).
Non mi era ben chiaro se questo fosse dovuto al tipo di architettura differente che si prestava o meno a questo gioco, al fatto che il chip nvidia fosse già troppo grosso per prevedere ridondanze (che ovviamente fanno aumentare il numero di transistor) o semplicemente a scelte progettuali.
papafoxtrot
06-12-2009, 23:43
Non so come NVIDIA affronti le ridondanze.
Ad ogni modo credo che nvidia abbia fatto uno sbaglio già pagatoda altri in passato: cambiare contemporaneamente architettura e processo produttivo.
Penso che avrebbe dovuto, come ha fatto ATI, far uscire prima un GT200 a 40nm, che era anche previsto e doveva essere gt212 se non sbaglio, e una volta che avesse preso confidenza con il processo a 40 nanometri, avviare anche la produzione di GT300.
Allo stesso modo ATI è uscita prima con hd4770, e ancora prima, r600 non uscì col processo disponibile all'epoca: 65nm, ma a 80nm o addirittura 90, se non ricordo male, per evitare problemi in fase di produzione... Intel ha avviato tick tock per lo stesso motivo...
E sinceramente non credo neanche che il ritardo di NVIDIA sia dovuto in toto a TSMC...Per TSMC non è un problema produrre alcuni chip per nvidia... E' la produzione in volumi ad essere impossibile con un processo produttivo così fallato... Gli yelds sarebbero bassissimi. Ma produrne un piccolo numero per iniziare a testarli, approntare il software e quant'altro, sarebbe certamente possibile... Anche che ne riescano a fare uno per ogni wafer non importa... Mica devono produrne migliaia! Invece il chip è ancora in revisione e i primi sample dell'A3 usciranno solo a gennaio... Vuol dire che nvidia stessa è in ritardo.
Nel momento in cui, presumibilmente a febbraio, inizierà la produzione in volumi (confido che l'A3 sia a posto...) allora inizieranno a pesare gli eventuali problemi di TSMC...
greeneye
07-12-2009, 00:57
Quoto quello che ha detto Papafoxtrot
Nvidia non ha ancora sbattuto le corna contro il processo di produzione di tsmc.
Provo a fare una cronistoria dai rumors che ho letto.
Nvidia completa il tape-out dello step A1 la 3a settimana di luglio.
Per la produzione dei primi chips servono 6-8 settimane.
I primi A1 vengono mostrati alla metà di settembre (dopo 7 settimane: in perfetto orario).
Per il debug dello step e per la preparazione delle nuove maschere servono almeno 2 settimane.
Il tape-out dello step A2 viene completato nella 1a settimana di novembre (6 sett. dopo la presentazione dei sample dell'A1)
Questo ritardo è stato probabilmente causato dal bassissimo numero (7) di esemplari adatti per il debug.
I chip A2 saranno quindi disponibili nella 2a-3a settimana di dicembre (cioè adesso).
Passate le 2 settimane di analisi e test nvidia potrebbe decidere se partire con la produzione con l'A2 almeno temporaneamente ma sarebbero necessarie altre 5-6 settimane per avere delle schede pronte.
Se si passa allo step A3 allora le schede non si vedranno prima della fine marzo-inizio aprile.
Se si aggiunge che amd ha accumulato schede per quasi un mese prima del lancio e che iniziano ed essere disponibili in quantità solo ora, non mi stupirei di vederle veramente nei negozi a maggio
ti riesce proprio difficile non andare contro nVidia e\o accettare l'evidenza dei fatti... chissà perchè eh! ;)
a proposito di accettare i fatti.......:rolleyes:
quoto totalmente papafoxtrot.
che io ricordi, la revision A3 non è un problema di TSMC..... quindi 40nm o no il problema ATTUALMENTE è ---solo--- di Nvidia. Per la produzione in volumi si vedrà nel 2010.
(o credi davvero che l'avrebbero commercializzata già dall'A2 a frequenze basse? ):rotfl:
Kharonte85
07-12-2009, 10:56
(o credi davvero che l'avrebbero commercializzata già dall'A2 a frequenze basse? ):rotfl:
Il "successo" delle frequenze non è indipendente dalla qualità del processo produttivo (tenendo presente che se le frequenze le abbassi hai più possibilità di avere Chip utilizzabili viceversa i chip che reggono frequenze più alte diventano più rari)...inoltre è difficile pensare che nvidia non abbia fatto le stime di produzione con TSMC e i conti in tasca propria con le sue revision precedenti.
Se anche la revision A2 fosse stata funzionante/prestante (ma forse vuoi le frequenze, vuoi i consumi qualcosa andava sistemato) forse ad nvidia non conveniva nemmeno cominciare la produzione (mentre forse lo ha fatto per le schede Tesla [che sono state mostrate e che hanno frequenze inferiori] così da avere anche un riscontro su come va la produzione).
Al momento secondo me le strade sono 3 per nvidia:
1) fa la presentazione (paper launch) con revision A2 fortunate che reggono le specifiche finali della revision a3, aspetta di aver prodotto abbastanza A3 da fare il lancio effettivo sul mercato.
2) manda in produzione alcune A2 a frequenze ridotte (GTX 380) fa la presentazione con disponibilità quasi fantasma fino a che non arrivano le A3 con frequenze corrette (GTX 385) e disponibilità regolare. (un po' quello che successe per le 7800/7900)
3) non fa la presentazione, mette a punto direttamente la revision a3 (GTX 380), la manda in produzione ed aspetta di averne abbastanza per fare il lancio.
Data l'incapacità produttiva di TSMC attuale ("verificata" su progetti più semplici quali cypress e forse internamente sulle tesla) direi che nvidia non puo' farci molto con il progetto complesso che si ritrova.
Ricordo la notizia:
I problemi di Nvidia: Fermi e il processo a 40nm
Dopo mesi di voci, attese, e presentazioni sul web di (una) scheda Fermi funzionante appaiono sempre più chiari i piani futuri per l’introduzione della nuova generazione di schede grafiche DirectX 11 di Nvidia e i problemi che affliggono l’azienda di Santa Clara.
I primi chip funzionanti a pieno regime (i pochi attualmente funzionali sembrano avere frequenze piuttosto ridotte) arriveranno solo nel mese di gennaio, quando Nvidia (probabilmente al CES) farà una presentazione di massima dell’architettura e mostrerà i primi risultati. Le schede grafiche basate sul chip arriveranno in volumi solo dopo qualche mese, a cavallo tra marzo e aprile, giusto poco dopo il Cebit di Hannover dove i partner potranno finalmente presentare i propri prodotti.
Il problema principale nel posticipo di Fermi è il processo produttivo a 40 nm utilizzato da Tsmc per la costruzione dei chip (lo stesso per AMD), che non riesce a garantire rese accettabili. Il problema influenza infatti anche AMD che, nonostante abbia da tempo sul mercato le schede Radeon HD5000 non riesce a produrne tante quante il mercato ne richiede (beh.. se sono questi i problemi…).
Le stime interne indicano che solo il 50% dei chip AMD di fascia alta (con 1.600 shader processor per schede Radeon HD5870) risulti pienamente funzionante, e che un 25% può essere riutilizzato come chip per l schede HD5850 con 1.440 shader. Questo spiega anche la differente disponibilità di schede HD5850, le più ambite ma anche (come quantità) le meno disponibili da parte di AMD.
La differenza tra i due produttori risiede però nell’approccio al chip, con AMD che ha mantenuto una complessità accettabile (con consumi e temperature non troppo elevati) e chip top di gamma grandi all’incirca 334 mm2, mentre Nvidia ha puntato ancora una volta su un colosso da oltre 3 miliardi di transistor e oltre 500 mm2.
A conti fatti su un wafer da 300 mm AMD riesce a posizionare 175 Gpu, mentre Nvidia non supera il centinaio. La differenza è netta, con una resa produttiva stimata del 50% AMD, riutilizzando parte dei chip per la scheda di fascia media, può contare su circa 130 Gpu funzionanti a wafer. Nvidia, avendo un chip molto più grande e quindi con una maggiore probabilità che un difetto nel wafer rientri nel chip, dovrebbe avere una resa di circa 30 chip a wafer. I problemi di Fermi nascono proprio da qui; se già AMD fatica a produrre sufficienti Gpu per il mercato (riuscendo a estrarne 130 a wafer) figuriamoci Nvidia che stimiamo ne produca circa 30.
http://www.pcprofessionale.it/2009/12/04/i-problemi-di-nvidia-fermi-e-il-processo-a-40nm/
Assumendo che TSMC risolva i problemi nel frattempo speriamo che la revision a3 sia quella buona così da poter pensare di avere le prime schede a Marzo.
Al momento secondo me le strade sono 3 per nvidia:
1) fa la presentazione (paper launch) con revision A2 fortunate che reggono le specifiche finali della revision a3, aspetta di aver prodotto abbastanza A3 da fare il lancio effettivo sul mercato.
2) manda in produzione alcune A2 a frequenze ridotte (GTX 380) fa la presentazione con disponibilità quasi fantasma fino a che non arrivano le A3 con frequenze corrette (GTX 385) e disponibilità regolare. (un po' quello che successe per le 7800/7900)
3) non fa la presentazione, mette a punto direttamente la revision a3 (GTX 380), la manda in produzione ed aspetta di averne abbastanza per fare il lancio.
Allo stato attuale, considerando prezzi e prestazioni della concorrenza, (naturalmente imho) presentare un prodotto limitato prestazionalmente e dai costi inizialmente (e sicuramente) elevati (a meno di non vendere in perdita stile sony/ps3) significherebbe un suicidio a livello marketing. La tua terza ipotesi sembra la più realistica.
Ricordo la notizia:
Assumendo che TSMC risolva i problemi nel frattempo speriamo che la revision a3 sia quella buona così da poter pensare di avere le prime schede a Marzo.
Verissima la notizia, Tsmc ha sicuramente problemi, ripeto, ma (per fare una metafora) se io devo creare una nuova torta il problema della distribuzione è sicuramente importante ma secondario, se mi manca ancora la ricetta.... ;)
Speriamo che partoriscano questo A3, e nel frattempo Tsmc migliori.
Kharonte85
07-12-2009, 11:35
Allo stato attuale, considerando prezzi e prestazioni della concorrenza, (naturalmente imho) presentare un prodotto limitato prestazionalmente e dai costi inizialmente (e sicuramente) elevati (a meno di non vendere in perdita stile sony/ps3) significherebbe un suicidio a livello marketing. La tua terza ipotesi sembra la più realistica.
Verissima la notizia, Tsmc ha sicuramente problemi, ripeto, ma (per fare una metafora) se io devo creare una nuova torta il problema della distribuzione è sicuramente importante ma secondario, se mi manca ancora la ricetta.... ;)
Speriamo che partoriscano questo A3, e nel frattempo Tsmc migliori.
Attenzione pero' che non è questione di ricetta: la ricetta teoricamente sulla carta puo' essere ottima (ed nvidia ha una ricetta sicuramente promettente).
Poi il problema non è nella distribuzione (se vogliamo i problemi di distribuzione ce li ha AMD/ATI) ma nella produzione dove TSMC praticamente fornisce l'ingrediente essenziale ed irrinunciabile per la torta di Nvidia :oink:
Comunque staremo a vedere...purtroppo la parola chiave è aspettare, aspettare ed aspettare...:fagiano:
Poi il problema non è nella distribuzione (se vogliamo i problemi di distribuzione ce li ha AMD/ATI) ma nella produzione dove TSMC praticamente fornisce l'ingrediente essenziale ed irrinunciabile per la torta di Nvidia :oink:
l'additivo segreto..... puah!
:D
Athlon 64 3000+
07-12-2009, 12:27
A questo punto a Nvidia gli conviene veramente presentare la revisione A3(guarda caso è anche il numero dell'eterno cantiere Salerno-Reggio Calabria :D ) di Fermi e quando avrà delle buone rese.
Questo se vogliamo rende ancora più difficile la situazione per nVidia oggi di quanto non lo fosse quella di R600 per AMD.
E ovviamente tutto il FUD che sta uscendo sulla press room di nVidia (FudZilla) riguardo agli yelds tragici dei 40nm sono chiare boiate per addossare a TSMC le colpe di nVidia.
Fossero vere tutte quelle boiate dovrebbe spiegarmi dov'è la HD5830...
Ovvio, cmq fud e fanboy additano le colpe a chi per ora nn c'entra, TSMC centrerà solo quando Nvidia dovrà produrre in volumi. Per il momento è il chip Fermi ad avere dei seri problemi, ecco perchè sono messi peggio di AMD con R600.
Quando a Santa Clara avranno finito di risolvere le problematiche stesse del chip solo allora si potranno fare speculazioni sugli eventuali problemi che ci potranno essere con TSMC. Però sicuramente sono preoccupati, in quanto Rv870, con un die size di 334mm2, ha una resa del solo 50% per la versione XT, e del restante 50% solo il 25% è valido per la versione Pro, loro con uno da 530 si spareranno?
davide155
07-12-2009, 13:45
Bè secondo me la verità sta nel mezzo.
Sicuramente Nvidia ha portato a TSMC un progetto arduo da poter realizzare fisicamente. Il che non aiuta di sicuro.
Però anche TSMC ha le sue responsabilità dato che è lei che deve rendere il progetto vero fisicamente. E' il loro lavoro.
Quello che mi chiedo è questo. Non esiste una fonderia migliore di TSMC sulla terra? E' la migliore in assoluto? Oppure è la migliore in rapporto qualità prezzo?
Global Foundries?
kiriranshelo
07-12-2009, 14:47
Bè secondo me la verità sta nel mezzo.
Sicuramente Nvidia ha portato a TSMC un progetto arduo da poter realizzare fisicamente. Il che non aiuta di sicuro.
Però anche TSMC ha le sue responsabilità dato che è lei che deve rendere il progetto vero fisicamente. E' il loro lavoro.
Quello che mi chiedo è questo. Non esiste una fonderia migliore di TSMC sulla terra? E' la migliore in assoluto? Oppure è la migliore in rapporto qualità prezzo?
Global Foundries?
GF partirà con il processo 28nm SOI dal Q3 2010. Adesso non ha nessuna linea di produzione compatibile con le GPU attuali. Nvidia, tra l'altro, ha escluso di diventare una sua cliente, per ora TSMC è quella più grande ed affidabile, UMC se non sbaglio produce solo per Intel e/o pochi altri.
Ad ogni modo GF sarà importantissima perchè TSMC è ancora più in difficoltà con lo shirink ottico ovvero i 32nm.
halduemilauno
07-12-2009, 14:55
GF partirà con il processo 28nm SOI dal Q3 2010. Adesso non ha nessuna linea di produzione compatibile con le GPU attuali. Nvidia, tra l'altro, ha escluso di diventare una sua cliente, per ora TSMC è quella più grande ed affidabile, UMC se non sbaglio produce solo per Intel e/o pochi altri.
Ad ogni modo GF sarà importantissima perchè TSMC è ancora più in difficoltà con lo shirink ottico ovvero i 32nm.
esatto. e non è da escludere che gia dal 2011 TSMC avrà come unica cliente Nvidia mentre amd/ati si rivolgerà solo a GF.
nVidia parla di lancio a gennaio (ora), anche se all'inizio diceva lancio al Black Friday.
Ora tutto il mondo si è reso conto che Marzo è la realtà ottimistica, dopo che in pochi lo dicevamo fin da subito e ci davano dei fanboy o dei guappi :asd:
CUT
Diciamo che se non fosse stato per " l'ottimismo " di alcuni si sarebbe capito che prima di Marzo/Maggio non avremmo visto nulla... :D
Mi chiedo perchè diano del fanboy a chi guarda le cose sforzandosi di essere obiettivo ..piuttosto che ad utenti che sembrano dei veri e propii PR..
CMQ sia anche io sono dell'avviso TMSC non abbia alcuna colpa nella travagliata storia di FERMI...
Kharonte85
07-12-2009, 15:18
Bè secondo me la verità sta nel mezzo.
Sicuramente Nvidia ha portato a TSMC un progetto arduo da poter realizzare fisicamente. Il che non aiuta di sicuro.
Però anche TSMC ha le sue responsabilità dato che è lei che deve rendere il progetto vero fisicamente. E' il loro lavoro.
Infatti...e fra l'altro ha difficoltà anche con i progetti impegnativi di AMD/ATI quindi non puo' essere un caso.
Quello che mi chiedo è questo. Non esiste una fonderia migliore di TSMC sulla terra? E' la migliore in assoluto? Oppure è la migliore in rapporto qualità prezzo?
Global Foundries?
Ci sono UMC (che produce il 10% di schede video [non è dato sapere quali] per nvidia il restante è prodotto da TSMC) e IBM (con cui pero' nvidia ebbe una pessima esperienza con NV40)...considerando che realizzare GPU a quei livelli di complessità è difficilissimo nvidia non puo' certo rivolgersi da un giorno a quell'altro ad altri.
GF non è ancora pronta, forse lo sarà in futuro...comunque credo che i problemi di TSMC siano dovuti al fatto che hanno saltato in tronco il passaggio ai 45nm.
quindi il principale problema del ritardo del chip fermi è dovuto quasi esclusivamente alla fonderia TSMC?
e se invece il reale problema fosse che nvidia non ha realizzato ancora una cippa lippa o comunque è arrivata ad un punto morto con questo progetto?
ho come una sensazione,spero completamente sbagliata, che prima di vedere una nuovo prodotto gamers made in nvidia dovremmo attendere molto tempo
greeneye
07-12-2009, 15:32
Diciamo che se non fosse stato per " l'ottimismo " di alcuni si sarebbe capito che prima di Marzo/Maggio non avremmo visto nulla... :D
Mi chiedo perchè diano del fanboy a chi guarda le cose sforzandosi di essere obiettivo ..piuttosto che ad utenti che sembrano dei veri e propii PR..
CMQ sia anche io sono dell'avviso TMSC non abbia alcuna colpa nella travagliata storia di FERMI...
Qualche colpicina la ha anche lei: la prima produzione dello step A1 ha prodotto ben 7 processori validi (al posto dei 70-100 che si aspettavano) costringendo nvidia ad un ritardo nei test di almeno un paio di settimane.
greeneye
07-12-2009, 15:36
quindi il principale problema del ritardo del chip fermi è dovuto quasi esclusivamente alla fonderia TSMC?
No, il ritardo è tutto colpa di nvidia, anzi la colpa di nvidia è quello di promettere senza mantenere più che di uscire in ritardo.
A luglio loro sapevano benissimo che prima di gennaio non avrebbero avuto nulla di pronto.
La buffonata di presentare una scheda fatta di cartone spacciandola per vera penso che rimarrà negli annali.
e se invece il reale problema fosse che nvidia non ha realizzato ancora una cippa lippa o comunque è arrivata ad un punto morto con questo progetto?
ho come una sensazione,spero completamente sbagliata, che prima di vedere una nuovo prodotto gamers made in nvidia dovremmo attendere molto tempo
Nvidia ha puntato molto in alto con fermi: è una scommessa rischiosa ma che puo' ancora vincere (anche se poiù passa il tempo peggio è).
No, il ritardo è tutto colpa di nvidia, anzi la colpa di nvidia è quello di promettere senza mantenere più che di uscire in ritardo.
A luglio loro sapevano benissimo che prima di gennaio non avrebbero avuto nulla di pronto.
La buffonata di presentare una scheda fatta di cartone spacciandola per vera penso che rimarrà negli annali.
Nvidia ha puntato molto in alto con fermi: è una scommessa rischiosa ma che puo' ancora vincere (anche se poiù passa il tempo peggio è).
infatti la presentazione farlocca della scheda di cartone rimarrà indelebile:asd: :tapiro:
appleroof
07-12-2009, 15:57
Bè secondo me la verità sta nel mezzo.
Sicuramente Nvidia ha portato a TSMC un progetto arduo da poter realizzare fisicamente. Il che non aiuta di sicuro.
Però anche TSMC ha le sue responsabilità dato che è lei che deve rendere il progetto vero fisicamente. E' il loro lavoro.
cut
quoto: il punto che spinge gli amici è che cmq dal progetto sulla carta di Nvidia* si deve passare alla gpu "fisica" e qui TMSC se ha problemi con il pp a 40nm, come li ha, di sicuro ci mette del suo nel ritardo: non è un discorso semplicemente di yelds e quindi di produzione di massa
tutto questo fermo restando che mi pare nessuno abbia addebitato il ritardo di Fermi esclusivamente a TMSC.
*altrimenti occorrerebbe concludere che il progetto è sbagliato
appleroof
07-12-2009, 16:15
TSMC fornisce il processo e le librerie su cui è possibile costruire il chip per quel processo.
A quel punto nVidia/AMD (o chicchessia) si fa i compitini e prepara un design finito che possa essere inviato in produzione.
Dal quel momento, il tapeout, di TSMC è il compito di eliminare tutti i problemi strettamente produttivi (impurità, tolleranze etc) che determinano yelds inferiori a 100% per tendere a questa cifra (ovviamente irraggiungibile).
La responsabilità di TSMC è quindi nel primo e nel terzo passo, quella nel secondo è di nVidia/AMD.
Visto che i chip a 40nm di AMD sono sul mercato in volumi significa che il primo e secondo passo sono stati fatti con successo ed il terzo, per quanto migliorabile, è comunque adeguato per la commercializzazione.
Nel caso di nVidia siamo ad una situazione diversa. Visto che la variabile che è cambiata è solo nVidia al posto di AMD è evidente di chi è la colpa se Fermi non è sul mercato.
ma proprio qui è il punto! Se in questo passaggio, un chip complesso come si presume g100 dà il -diciamo- 20% di yelds perchè TMSC ha problemi ad ottimizzare il pp a 40nm, allora magari si rimanda (quindi ritardo ulteriore) per avere almeno il -diciamo- 40% di yelds e rendere la commercializzazione un minimo proficua (o almeno coprire i costi)
cosìè di questo ragionamento che non vi è chiaro? :boh:
greeneye
07-12-2009, 16:43
ma proprio qui è il punto! Se in questo passaggio, un chip complesso come si presume g100 dà il -diciamo- 20% di yelds perchè TMSC ha problemi ad ottimizzare il pp a 40nm, allora magari si rimanda (quindi ritardo ulteriore) per avere almeno il -diciamo- 40% di yelds e rendere la commercializzazione un minimo proficua (o almeno coprire i costi)
cosìè di questo ragionamento che non vi è chiaro? :boh:
Le rese per ora non c'entrano, nvidia non sta producendo nulla perchè non ha pronto nulla.
Nvidia ha finito il chip il 29 luglio ed è normalissimo che passino almeno 6 mesi dalla fine del tape-out alla produzione in volumi e alla commercializzazione.
Le dolenti note della produzione verranno (forse) dopo.
NB: le possibili rese degli A2 la stessa nvidia probabilmente non le conosce ancora
Severnaya
07-12-2009, 16:48
ma proprio qui è il punto! Se in questo passaggio, un chip complesso come si presume g100 dà il -diciamo- 20% di yelds perchè TMSC ha problemi ad ottimizzare il pp a 40nm, allora magari si rimanda (quindi ritardo ulteriore) per avere almeno il -diciamo- 40% di yelds e rendere la commercializzazione un minimo proficua (o almeno coprire i costi)
cosìè di questo ragionamento che non vi è chiaro? :boh:
se fosse come dici tu nvidia avrebbe già mostrato una qualsiasi versione di fermi che ia essa geforce, testa o la terza chennmiricordocomesichiama
appleroof
07-12-2009, 17:19
Le rese per ora non c'entrano, nvidia non sta producendo nulla perchè non ha pronto nulla.
Nvidia ha finito il chip il 29 luglio ed è normalissimo che passino almeno 6 mesi dalla fine del tape-out alla produzione in volumi e alla commercializzazione.
Le dolenti note della produzione verranno (forse) dopo.
NB: le possibili rese degli A2 probabilmente la stessa nvidia non li conosce ancora
se fosse come dici tu nvidia avrebbe già mostrato una qualsiasi versione di fermi che ia essa geforce, testa o la terza chennmiricordocomesichiama
continuo a non parlare italiano
io non dico che il chip è pronto ed è tutta colpa del cattivone TMSC se non esce: dico che il chip ha evidentemente difficoltà (dimostrate dal fatto come giustamente sottolineate che non c'è nulla in giro, ma che potrebbero voler dire tutto ed il contrario di tutto in termini di strategia) che ne determinano il ritardo, in questa situazione i problemi di TMSC con i 40nm AGGRAVANO ULTERIORMENTE, si AGGIUNGONO sicuramente nel causare ulteriori ritardi (leggasi possibilità di yelds ancora peggiori di quanto forse un chip grosso e complesso come g100 darebbe se fosse di per sè "perfetto")
non è possibile escludere che sia così, quando è ormai assodato che TMSC ha dei problemi con i 40nm
p.s.: tanto per dirne un'altra su determinate certezze, anche di g80 fino al giorno prima della presentazione si diceva fosse ancora a shaders separati, o cmq nessuno aveva certezze in merito nè circolava nulla su esso; e vado a memoria, mi pare anche di r600 non circolò nulla fino all'uscita, forse perchè sapevano che andava meno della controparte, ma questo non toglie che samples funzionanti li avessero mesi prima del suo debutto sul mercato :rolleyes:
continuo a non parlare italiano
io non dico che il chip è pronto ed è tutta colpa del cattivone TMSC se non esce: dico che il chip ha evidentemente difficoltà (dimostrate dal fatto come giustamente sottolineate che non c'è nulla in giro, ma che potrebbero voler dire tutto ed il contrario di tutto in termini di strategia) che ne determinano il ritardo, in questa situazione i problemi di TMSC con i 40nm AGGRAVANO ULTERIORMENTE, si AGGIUNGONO sicuramente nel causare ulteriori ritardi (leggasi possibilità di yelds ancora peggiori di quanto forse un chip grosso e complesso come g100 darebbe se fosse di per sè "perfetto")
non è possibile escludere che sia così, quando è ormai assodato che TMSC ha dei problemi con i 40nm
p.s.: tanto per dirne un'altra su determinate certezze, anche di g80 fino al giorno prima della presentazione si diceva fosse ancora a shaders separati, o cmq nessuno aveva certezze in merito nè circolava nulla su esso; e vado a memoria, mi pare anche di r600 non circolò nulla fino all'uscita, forse perchè sapevano che andava meno della controparte, ma questo non toglie che samples funzionanti li avessero mesi prima del suo debutto sul mercato :rolleyes:
Il punto è che alcuni sostengono che tutt'ora Nvidia non disponga di un sample funzionante....o , nella migliore delle ipotesi, di varii sample funzionanti...
Se la situazione fosse quella sopradescritta TMSN avrebbe poche colpe...non dimentichiamo che la resa è anche funzionale all'architettura di un chip..
Kharonte85
07-12-2009, 17:38
continuo a non parlare italiano
io non dico che il chip è pronto ed è tutta colpa del cattivone TMSC se non esce: dico che il chip ha evidentemente difficoltà (dimostrate dal fatto come giustamente sottolineate che non c'è nulla in giro, ma che potrebbero voler dire tutto ed il contrario di tutto in termini di strategia) che ne determinano il ritardo, in questa situazione i problemi di TMSC con i 40nm AGGRAVANO ULTERIORMENTE, si AGGIUNGONO sicuramente nel causare ulteriori ritardi (leggasi possibilità di yelds ancora peggiori di quanto forse un chip grosso e complesso come g100 darebbe se fosse di per sè "perfetto")
non è possibile escludere che sia così, quando è ormai assodato che TMSC ha dei problemi con i 40nm
p.s.: tanto per dirne un'altra su determinate certezze, anche di g80 fino al giorno prima della presentazione si diceva fosse ancora a shaders separati, o cmq nessuno aveva certezze in merito nè circolava nulla su esso; e vado a memoria, mi pare anche di r600 non circolò nulla fino all'uscita, forse perchè sapevano che andava meno della controparte, ma questo non toglie che samples funzionanti li avessero mesi prima del suo debutto sul mercato :rolleyes:
Infatti, non dimentichiamoci che poi Gf100 era previsto nella migliore delle ipotesi per Novembre/Dicembre quindi il ritardo su AMD/ATI era già noto e dovuto alla complessità del progetto, da Gennaio cominceremo a contare il ritardo per varie ed eventuali (ma soprattutto per i problemi di TSMC che a quest'ora avrebbe dovuto avere un pp@40nm maturo invece non è così)
PS: non trapelò nulla a parte Fudzilla che prima di tutti azzeccò dicendo chiaramente che la hd2900XT sarebbe andata contro la 8800gts mentre la 8800GTX sarebbe stata fuori portata (si becco' una caterva di insulti e derisioni poi pero' la scheda uscì e tutti ci rimasero di sasso :eek: )
se fosse come dici tu nvidia avrebbe già mostrato una qualsiasi versione di fermi che ia essa geforce, testa o la terza chennmiricordocomesichiama
Effettivamente lo ha fatto con le Tesla...le Demo che ha mostrato giravano su quelle schede; infatti potrebbe essere che nvidia abbia già cominciato la produzione di schede Tesla e che le stia immagazzinando in attesa del lancio nel Q2 2010 (tanto con i margini di guadagno che hanno su quelle schede anche se ne producono una su 100 ci si rifanno uguale :asd: cosa che invece sulle Geforce non è così) questa cosa potrebbe fare da termometro per le Geforce (che pero' avranno bisogno di frequenze di clock superiori)
appleroof
07-12-2009, 17:55
Il punto è che alcuni sostengono che tutt'ora Nvidia non disponga di un sample funzionante....o , nella migliore delle ipotesi, di varii sample funzionanti...
Se la situazione fosse quella sopradescritta TMSN avrebbe poche colpe...non dimentichiamo che la resa è anche funzionale all'architettura di un chip..
si ma queste sono voci, mentre il fatto che TMSC abbia difficoltà con i 40nm è ufficiale, quindi se dobbiamo avanzare ipotesi capirai che partiamo prima dai dati di fatto e proviamo a ragionarci, dopo ci sbizzarriamo con i "si dice" ti pare?
Infatti, non dimentichiamoci che poi Gf100 era previsto nella migliore delle ipotesi per Novembre/Dicembre quindi il ritardo su AMD/ATI era già noto e dovuto alla complessità del progetto, da Gennaio cominceremo a contare il ritardo per varie ed eventuali (ma soprattutto per i problemi di TSMC che a quest'ora avrebbe dovuto avere un pp@40nm maturo invece non è così)
esatto ;)
PS: non trapelò nulla a parte Fudzilla che prima di tutti azzeccò dicendo chiaramente che la hd2900XT sarebbe andata contro la 8800gts mentre la 8800GTX sarebbe stata fuori portata (si becco' una caterva di insulti e derisioni poi pero' la scheda uscì e tutti ci rimasero di sasso :eek: )
mi pare pure fosse l'unico ad aver beccato che g80 aveva shader unificato, addirittura in numero di 128 :stordita:
Effettivamente lo ha fatto con le Tesla...le Demo che ha mostrato giravano su quelle schede; infatti potrebbe essere che nvidia abbia già cominciato la produzione di schede Tesla e che le stia immagazzinando in attesa del lancio nel Q2 2010 (tanto con i margini di guadagno che hanno su quelle schede anche se ne producono una su 100 ci si rifanno uguale :asd: cosa che invece sulle Geforce non è così) questa cosa potrebbe fare da termometro per le Geforce (che pero' avranno bisogno di frequenze di clock superiori)
anche qui quoto...avevo anche dimenticato la parte in grassetto :) e mi pare di non essere l'unico :D
PConly92
07-12-2009, 17:55
secondo me avrà un costo molto alto.
contando solo l'area e la complessità del chip, non che i problemi di tsmc (con rese molto basse)...:(
speriamo bene;)
Kharonte85
07-12-2009, 17:59
Il punto è che alcuni sostengono che tutt'ora Nvidia non disponga di un sample funzionante....o , nella migliore delle ipotesi, di varii sample funzionanti...
Se la situazione fosse quella sopradescritta TMSN avrebbe poche colpe...non dimentichiamo che la resa è anche funzionale all'architettura di un chip..
In questo caso sarebbe colpa del progetto troppo complicato e di un pp immaturo, quindi le colpe sarebbero equidistribuite...ma siccome abbiamo la riprova delle difficoltà di TSMC sulle schede grafiche AMD/ATI che non sono così complicate (per usare dei numeri diciamo che se cypress è complicato 3 GF100 è complicato 5) c'è poco da cercare giustificazioni: TSMC ha un pp immaturo, probabilmente ha fatto il passo più lungo della gamba ed garantito cio' che non poteva garantire.
Se devo decidere al momento è molto più speculativo pensare che nvidia abbia toppato in toto il progetto piuttosto che pensare che TSMC abbia toppato in toto i 40nm...;)
appleroof
07-12-2009, 18:02
In questo caso sarebbe colpa del progetto troppo complicato e di un pp immaturo, quindi le colpe sarebbero equidistribuite...ma siccome abbiamo la riprova delle difficoltà di TSMC sulle schede grafiche AMD/ATI che non sono così complicate (per usare dei numeri diciamo che se cypress è complicato 3 GF100 è complicato 5) c'è poco da cercare giustificazioni: TSMC ha un pp immaturo, probabilmente ha fatto il passo più lungo della gamba ed garantito cio' che non poteva garantire.
Se devo decidere al momento è molto più speculativo pensare che nvidia abbia toppato in toto il progetto piuttosto che pensare che TSMC abbia toppato in toto i 40nm...;)
esatto, credo proprio il punto sia questo. Poi se vogliamo pensare che non ci sia nemmeno un sample funzionante allora saremmo pure autorizzati a pensare che le marmotte hanno confezionato rv970 a 28nm e 4800 sp giusto per Natale :D
Severnaya
07-12-2009, 18:05
io scrivo veramente malissimo
Kharonte85
07-12-2009, 18:12
io scrivo veramente malissimo
Questa confessione ti fa onore... http://img111.imageshack.us/img111/5315/olapated5un1.gif
appleroof
07-12-2009, 18:14
Questa confessione ti fa onore... http://img111.imageshack.us/img111/5315/olapated5un1.gif
:asd: :asd: :asd:
appleroof
07-12-2009, 18:38
Se il problema è il ramping degli yelds non fai un nuovo step produttivo, lo fai se non funziona o non raggiunge i target prestazionali che ti sei imposto. Quando arrivi allo step definitivo allora è un problema della fonderia far crescere gli yelds.
Se fosse come dici te, che rimandano solo la commercializzazione per gli yelds scarsi, allora il tapeout definitivo c'è già stato, l'A2, e a marzo vedremo Fermi in commercio in quello step.
ma infatti è quello che sostengo, poi è chiaro che solo il tempo dirà se è vero o meno
Severnaya
07-12-2009, 18:46
Questa confessione ti fa onore... http://img111.imageshack.us/img111/5315/olapated5un1.gif
grazie :asd:
TSMC ha un pp immaturo, probabilmente ha fatto il passo più lungo della gamba ed garantito cio' che non poteva garantire.
Per quanto condivida l'idea che la scarsa resa di TSMC abbia decisamente contribuito al ritardo nell'uscita di fermi, non sono d'accordo su questa affermazione.
In genere quando sorgono questo tipo di problemi non è la fonderia ad aver fatto il passo più lungo della gamba ma chi progetta il chip.
Per esempio quando venne svelato il progetto del phenom intel dichiarò che neanche loro, che disponevano dei transistor migliori, avrebbero potuto produrre un chip di tale complessità architetturale (con sott'inteso un "figuriamoci AMD"), cosa che dimostra che in quella occasione è stata AMD a fare il passo più lungo della gamba.
Probabilmente questo è accaduto anche con R600, che infatti non riusciva a competere con G80 a causa dell'eccessivo surriscaldamento del chip, mentre il passaggio a processi produttivi migliori e altre migliorie hanno dimostrato quanto il progetto non fosse da buttar via.
Nvidia stessa (per voce del suo ceo se non ricordo male) ha dichiarato che il ritardo era dovuto al fatto che produrre un chip di tale complessità è "dannatamente difficile".
Insomma, stavolta secondo me nvidia ha osato un po' troppo, e se a questo aggiungiamo i problemi di resa dei 40nm di TSMC, abbiamo fatto la frittata.
appleroof
07-12-2009, 18:52
Per quanto condivida l'idea che la scarsa resa di TSMC abbia decisamente contribuito al ritardo nell'uscita di fermi, non sono d'accordo su questa affermazione.
In genere quando sorgono questo tipo di problemi non è la fonderia ad aver fatto il passo più lungo della gamba ma chi progetta il chip.
Per esempio quando venne svelato il progetto del phenom intel dichiarò che neanche loro, che disponevano dei transistor migliori, avrebbero potuto produrre un chip di tale complessità architetturale (con sott'inteso un "figuriamoci AMD"), cosa che dimostra che in quella occasione è stata AMD a fare il passo più lungo della gamba.
Probabilmente questo è accaduto anche con R600, che infatti non riusciva a competere con G80 a causa dell'eccessivo surriscaldamento del chip, mentre il passaggio a processi produttivi migliori e altre migliorie hanno dimostrato quanto il progetto non fosse da buttar via.
Nvidia stessa (per voce del suo ceo se non ricordo male) ha dichiarato che il ritardo era dovuto al fatto che produrre un chip di tale complessità è "dannatamente difficile".
Insomma, stavolta secondo me nvidia ha osato un po' troppo, e se a questo aggiungiamo i problemi di resa dei 40nm di TSMC, abbiamo fatto la frittata.
:read: :read: :read: :read: :read: :read: :read: :read: :read: :read: :read:
Kharonte85
07-12-2009, 19:41
Per quanto condivida l'idea che la scarsa resa di TSMC abbia decisamente contribuito al ritardo nell'uscita di fermi, non sono d'accordo su questa affermazione.
In genere quando sorgono questo tipo di problemi non è la fonderia ad aver fatto il passo più lungo della gamba ma chi progetta il chip.
Per esempio quando venne svelato il progetto del phenom intel dichiarò che neanche loro, che disponevano dei transistor migliori, avrebbero potuto produrre un chip di tale complessità architetturale (con sott'inteso un "figuriamoci AMD"), cosa che dimostra che in quella occasione è stata AMD a fare il passo più lungo della gamba.
Probabilmente questo è accaduto anche con R600, che infatti non riusciva a competere con G80 a causa dell'eccessivo surriscaldamento del chip, mentre il passaggio a processi produttivi migliori e altre migliorie hanno dimostrato quanto il progetto non fosse da buttar via.
Nvidia stessa (per voce del suo ceo se non ricordo male) ha dichiarato che il ritardo era dovuto al fatto che produrre un chip di tale complessità è "dannatamente difficile".
Insomma, stavolta secondo me nvidia ha osato un po' troppo, e se a questo aggiungiamo i problemi di resa dei 40nm di TSMC, abbiamo fatto la frittata.
Mi riferivo al fatto che alla TSMC hanno deciso di saltare la tappa intermedia dei 45nm, probabilmente lo hanno fatto con troppa leggerezza ed è anche per questo che ora sono in crisi mistica per non dire peggio
http://www.lightside.it/images/smiles/merda.gif.
appleroof
07-12-2009, 19:45
cut
http://www.lightside.it/images/smiles/merda.gif.
:sbonk: :sbonk: :sbonk: :sbonk:
Dipende anche da cosa vogliono i clienti, per esempio i 32 non li vuole nessuno e quindi li hanno cestinati bellamente per passare direttamente ai 28 :)
quoto e in tal contesto ricordo a tutti che TSMC non lavora solo per ati e nvida sui 40nm fa anche altro..........
Mi riferivo al fatto che alla TSMC hanno deciso di saltare la tappa intermedia dei 45nm, probabilmente lo hanno fatto con troppa leggerezza ed è anche per questo che ora sono in crisi mistica per non dire peggio
http://www.lightside.it/images/smiles/merda.gif.
Scusate l'OT, ma quali sarebbero con precisione tutti i passaggi di rimpicciolimento del pp, e come mai non sono proporzionati? O sembrano a me non proporzionati? Perchè, per esempio, dai 90nm/80nm si è passati a 65nm, e poi da 65 a 55 e da 55 a 40? Si son saltati dei passaggi anche in precedenza per mantenere un aumento delle prestazioni nella media delle evoluzioni precdenti? Cioè, mi pare di capire che per quasi raddoppiare le prestazioni non serva dimezzare le dimensioni, questo perchè ci sono altre variabili a determinare la potenza, come l'architettura più efficiente, un aumento delle frequenze operative possibile grazie ad un minor consumo e surriscaldamento, e poi...cos'altro?
kiriranshelo
07-12-2009, 20:16
Dipende anche da cosa vogliono i clienti, per esempio i 32 non li vuole nessuno e quindi li hanno cestinati bellamente per passare direttamente ai 28 :)
possibilmente GF :O
Kharonte85
07-12-2009, 20:42
Dipende anche da cosa vogliono i clienti, per esempio i 32 non li vuole nessuno e quindi li hanno cestinati bellamente per passare direttamente ai 28 :)
Lo fanno per avere più vantaggi (e metterci dentro più roba) ma se poi rimangono fregati (chi in un modo chi nell'altro)? C'è poco da fare un salto dai 55nm ai 40nm con un Die shrink effettivo e non ottico come doveva essere già quello dei 45 non è poco.
Con TSMC se non ricordo male la cosa è stata che loro erano lì lì per fare i 45nm poi hanno pensato che tutto sommato i 40nm non erano poi così lontani. Per i clienti ovviamente meno sono meglio è pero' TSMC li doveva garantire meglio questi 40nm.
Scusate l'OT, ma quali sarebbero con precisione tutti i passaggi di rimpicciolimento del pp, e come mai non sono proporzionati? O sembrano a me non proporzionati? Perchè, per esempio, dai 90nm/80nm si è passati a 65nm, e poi da 65 a 55 e da 55 a 40? Si son saltati dei passaggi anche in precedenza per mantenere un aumento delle prestazioni nella media delle evoluzioni precdenti? Cioè, mi pare di capire che per quasi raddoppiare le prestazioni non serva dimezzare le dimensioni, questo perchè ci sono altre variabili a determinare la potenza, come l'architettura più efficiente, un aumento delle frequenze operative possibile grazie ad un minor consumo e surriscaldamento, e poi...cos'altro?
le decidono loro le dimensioni dei nodi....nel passaggio a pp inferiori aumenta anche a resa produttiva (il numero di GPU prodotte) per ogni wafer di silicio (in teoria quando il pp è maturo)
Adone_1985
07-12-2009, 22:48
Scusate ragazzi...forse è vero Nvidia avrà fatto anche il passo più lungo della gamba...ma ATI a messo sul merato una trentina:D di schede video...
un mio amico è un mese che la ordinata, e anche i più grandi negozi online non la danno disponibile...allora?
Se non si ha una disponibilità di schede video sufficienti era meglio aspettare un po' per lancairle...
Bastoner
07-12-2009, 22:54
Scusate ragazzi...forse è vero Nvidia avrà fatto anche il passo più lungo della gamba...ma ATI a messo sul merato una trentina:D di schede video...
un mio amico è un mese che la ordinata, e anche i più grandi negozi online non la danno disponibile...allora?
Se non si ha una disponibilità di schede video sufficienti era meglio aspettare un po' per lancairle...
Le schede vendute sono decine di migliaia.
Le schede vendute sono decine di migliaia.Qualche centinaio ;)
scorpion73
07-12-2009, 22:57
secondo me a parte tutti gli interessanti discorsi fatti sui post precedenti, l'unica vera cosa che potrebbe mettere in crisi Fermi è il discorso del tessellator, perché se manca veramente in hardware allora si rischia di lasciare ad ATI un vantaggio direi più che notevole.
Magari con un chip esterno, ma il tessellator hardware ci vuole: ok a dare supporto al PhysX, ma se lo standard è il tessellator puoi fare quante cose vuoi che le software house non credo che faranno i giochi seguendo due standard diversi.
E l'emulazione va più lenta, non c'è nulla da fare: ad oggi non ho visto nessuna cosa che emulata regga il confronto con l'hardware nativo, almeno sulla stessa generazione di hardware.
Ecco, secondo me, quando avremo questa notizia per certa, potremo fare anche altri discorsi; d'altra parte, che laddove non serva il tessellator sto chip vada più veloce di Cypress penso che sia "dovuto", visto il ritardo con cui esce.
Staremo a vedere.... io per ora non cambio la mia GTX280 e aspetto di avere una più vasta scelta per capire che scheda DX11 prendere.
Tanto da qui a Marzo non si muore per questo... si gioca benissimo lo stesso...
appleroof
07-12-2009, 23:02
Le schede vendute sono decine di migliaia.
Qualche centinaio ;)
se avesse avuto la piena produzione sarebbe stata qualche migliaia di migliaia :sofico:
fuor di battuta (?) i problemi di TMSC con i 40nm hanno impattato anche su AMd, è ufficiale non lo dico io, questo paradossalmente ha leggermente favorito Nvidia in termini di market-share (forse il potenziale aumento in questi termini di AMd a danno di Nvidia sarà ancor più rallentato dal conseguente aumento dei prezzi delle vga Ati, che seppur marginale in termini relativi non è cmq tracurabile in termini assoluti, ma non abbiamo - non ho - dati sufficienti per poter provare quello che dico per cui rimane solo una mia supposizione) , dove in questa situazione avrebbe avuto un colpo molto maggiore
secondo me a parte tutti gli interessanti discorsi fatti sui post precedenti, l'unica vera cosa che potrebbe mettere in crisi Fermi è il discorso del tessellator, perché se manca veramente in hardware allora si rischia di lasciare ad ATI un vantaggio direi più che notevole.
Magari con un chip esterno, ma il tessellator hardware ci vuole: ok a dare supporto al PhysX, ma se lo standard è il tessellator puoi fare quante cose vuoi che le software house non credo che faranno i giochi seguendo due standard diversi.
E l'emulazione va più lenta, non c'è nulla da fare: ad oggi non ho visto nessuna cosa che emulata regga il confronto con l'hardware nativo, almeno sulla stessa generazione di hardware.
Ecco, secondo me, quando avremo questa notizia per certa, potremo fare anche altri discorsi; d'altra parte, che laddove non serva il tessellator sto chip vada più veloce di Cypress penso che sia "dovuto", visto il ritardo con cui esce.
Staremo a vedere.... io per ora non cambio la mia GTX280 e aspetto di avere una più vasta scelta per capire che scheda DX11 prendere.
Tanto da qui a Marzo non si muore per questo... si gioca benissimo lo stesso...
andiamo cauti col dire che il tasselletor non è presente in hw in Fermi, Nvidia è maestra nel confondere le acque :D
personalmente mi auguro che ci sia perchè maggior standard sulle vga, nelle linee guida, vuol dire migliore sviluppo dei giochi (la storia dx10 vs dx10.1, oppure sm2.0b vs sm3.0 a parti invertite insegna) ed è quello che auspico a beneficio di noi appassionati utenti finali
scorpion73
07-12-2009, 23:15
quel che ho letto su questo topic :) la domanda è sorta da lì perché sennò per me ce lo aveva e basta, manco mi era venuto il dubio
Riporto comunque questa frase, in risposta ad una Q&A (recente):
QUOTE
Q: How is NVIDIA approaching the tessellation requirements for DX11 as none of the previous and current generation cards have any hardware specific to this technology?
Jason Paul, Product Manager, GeForce: Fermi has dedicated hardware for tessellation (sorry Rys :-P). We’ll share more details when we introduce Fermi’s graphics architecture shortly!
e la fonte:
http://forums.nvidia.com/index.php?showtopic=109093&st=80&p=944023&#entry944023
appleroof
07-12-2009, 23:16
Più che maestra o allieva il fatto è che non ha mai detto che non ci sia, non ho ancora capito da dove è venuta fuori questa storia.
Poi magari non c'è davvero, eh, ma riscontri o indizi ancora non ne ho visti :boh:
idem :read:
in effetti è maestra più che allieva (il logo AMd su Dirt2 mi sà tanto di allieva :D ) però anche qui, fuor di battuta, hai ragione....rimane ancora un mistero che tra l'altro sarebbe ancor più inspiegabile se non avessero messo un'unità dedicata
cmq molte pagine fà qualcuno mi pare avesse postato una slide ufficiale dove si citava il benedetto tasselletor ma non risco a trovarla...
quel che ho letto su questo topic :) la domanda è sorta da lì perché sennò per me ce lo aveva e basta, manco mi era venuto il dubio
Riporto comunque questa frase, in risposta ad una Q&A (recente):
QUOTE
Q: How is NVIDIA approaching the tessellation requirements for DX11 as none of the previous and current generation cards have any hardware specific to this technology?
Jason Paul, Product Manager, GeForce: Fermi has dedicated hardware for tessellation (sorry Rys :-P). We’ll share more details when we introduce Fermi’s graphics architecture shortly!
e la fonte:
http://forums.nvidia.com/index.php?showtopic=109093&st=80&p=944023&#entry944023
edit: ecco :D
appleroof
08-12-2009, 00:07
Io ci crederò comunque quando lo vedrò.
"dedicated hardware" non vuol dire nulla, se per la tessellation dedichi una parte dei "cuda cores" ecco che non hai un tessellator pur avendo dedicated hardware.
Rimango dell'avviso che ci sarà perché mi sembrerebbe una stupidità gigantesa non mettercelo, ma quando vedrò una slide con uno schema che lo dica chiaramente lo darò per certo :)
quoto, anzi visto che ti piace, Q.F.E. :D
Kharonte85
08-12-2009, 00:21
No, i 45 non sarebbero stati un ottico dei 55 i quali già lo erano dei 65 (tant'è che la serie HD3000 è essenzialmente la HD2000 rimarcata su un altro processo e con l'etichetta DX10.1 - visto che all'uscita della 2000 ancora non era stata ratificata ma le specifiche c'erano tutte - ad esclusione ovviamente delle 38xx che invece erano anche riprogettate).
I 40 sono quindi un full node per TSMC ed i 32 sarebbero stati uno shrink ottico, ma non lo saranno :)
Non ci sono pause nella mia frase il soggetto è "Die shrink effettivo e non ottico" intendevo dire che entrambi non sono shrink ottici ;)
i 45 sono full node, i 40nm dovrebbero essere half node dei 45nm ma alla TSMC li considerano full-node perchè i 45nm praticamente li hanno saltati.
Adone_1985
08-12-2009, 01:06
Le schede vendute sono decine di migliaia.
ovviamente 30 era una battuta...;) cmq i numeri sono sempre approssimativi...
fatto sta che per comprare una 5870 il mio amico sta facendo i salti mortali..
e poi se non ce l'hanno da circa un mese, Prokoo e Drako è un bruttissimo segno...
Qualche centinaio ;)
e basta
appleroof
08-12-2009, 01:12
ovviamente 30 era una battuta...;) cmq i numeri sono sempre approssimativi...
fatto sta che per comprare una 5870 il mio amico sta facendo i salti mortali..
e poi se non ce l'hanno da circa un mese, Prokoo e Drako è un bruttissimo segno...
e basta
ma certo...è una evidenza proprio innegabile, semmai esistesse una evidenza negabile :D
mi sono addirittura ritenuto fortunato a prendere la 5850 che ho in firma a metà ottobre a 240 euro nel giro di una settimana dall'ordine :stordita:
ovviamente 30 era una battuta...;) cmq i numeri sono sempre approssimativi...
fatto sta che per comprare una 5870 il mio amico sta facendo i salti mortali..
e poi se non ce l'hanno da circa un mese, Prokoo e Drako è un bruttissimo segno...In altri negozi affidabili e famosi arrivano ogni tanto delle fornate abbastanza corpose...volano in 1-2 giorni.
Io stesso ho preso una 5850 (piú difficile da trovare che la sorella maggiore) e mi é arrivata in 2 giorni...
e bastaSono 500.000 circa dalla presentazione a dicembre. É evidente che sono troppo poche per la richiesta di mercato, ma non sono neanche cosi poche come si crede ;)
scorpion73
08-12-2009, 10:32
Io ci crederò comunque quando lo vedrò.
"dedicated hardware" non vuol dire nulla, se per la tessellation dedichi una parte dei "cuda cores" ecco che non hai un tessellator pur avendo dedicated hardware.
Rimango dell'avviso che ci sarà perché mi sembrerebbe una stupidità gigantesa non mettercelo, ma quando vedrò una slide con uno schema che lo dica chiaramente lo darò per certo :)
Penso anche io, però scusa, per me dedicated hardware vuole dire che comunque il tessellator non sarà emulato via software, ma che avrà una accelerazione in hardware sul chip, senza perdite di performance.
Voglio dire, avere hardware dedicato non è emulazione.
O c'è qualcosa che mi sono perso?
ti rispondo da non esperto
non credo che emulazione e hardware dedicato siano due concetti opposti.
Se tu emuli una ps2 sul pc utilizzando l'accelerazione della gpu non vuol dire che non la stia emulando.
Allo stesso modo per usare il tessellator o hai un hardware dedicato e creato apposta per il tessellatore o altrimenti, come potrebbe essere dalla dichiarazione, dedichi una parte dell'hardware all'emulazione del tessellatore
scorpion73
08-12-2009, 11:54
ti rispondo da non esperto
non credo che emulazione e hardware dedicato siano due concetti opposti.
Se tu emuli una ps2 sul pc utilizzando l'accelerazione della gpu non vuol dire che non la stia emulando.
Allo stesso modo per usare il tessellator o hai un hardware dedicato e creato apposta per il tessellatore o altrimenti, come potrebbe essere dalla dichiarazione, dedichi una parte dell'hardware all'emulazione del tessellatore
si ma sarebbe una stupidata: dedicare hardware ad emulare una cosa significa aver sbagliato progetto. se devo dedicare hardware ad emulare allora faccio hardware dedicato.
il discorso della ps2 non regge più di tanto perché qui si tratta di emulare una macchina su una piattaforma completamente diversa, per fermi si tratta di un progetto nato per le DX11, quindi secondo me è completamente diverso proprio il concetto alla base.
non lo so ma dalla risposta a me sembra più "hardware dedicato" e non "dedicare hardware", poi può darsi che mi sbaglio, ma spero vivamente di no, altrimenti stavolta Fermi resta dove sta, e te lo dice uno che preferisce attualmente di gran lunga Nvidia ad ATI, perché lato driver non ci sono paragoni.
si ma sarebbe una stupidata: dedicare hardware ad emulare una cosa significa aver sbagliato progetto. se devo dedicare hardware ad emulare allora faccio hardware dedicato.
il discorso della ps2 non regge più di tanto perché qui si tratta di emulare una macchina su una piattaforma completamente diversa, per fermi si tratta di un progetto nato per le DX11, quindi secondo me è completamente diverso proprio il concetto alla base.
non lo so ma dalla risposta a me sembra più "hardware dedicato" e non "dedicare hardware", poi può darsi che mi sbaglio, ma spero vivamente di no, altrimenti stavolta Fermi resta dove sta, e te lo dice uno che preferisce attualmente di gran lunga Nvidia ad ATI, perché lato driver non ci sono paragoni.
Non sarebbe proprio così secondo il mio punto di vista, l'aver ''sbagliato progetto'' equivarrebbe a dire che ATI ha ''sbagliato progetto'' a non includere una parte hw per il supporto di physix nelle loro vga(anche se comunque phisix è SW, non HW.. cosa ben diversa). Sono scelte diverse ed in questo campo ATI ha introdotto STREAM, nvidia PHISYX, ati il tessellator (che comunque è stata una saggia mossa ma che era già presente in parte, se non erro, nelle 2900xt) e Nvidia la visione 3D.
La cosa che credo sia evidente è il fatto che siano scelte di mercato, anche se comunque sotto il punto di vista di innovazione architetturale ATI è avanti. Poi in termini prestazionali l'efficienza delle nvidia è ben nota in single gpu, però l'aspetto fondamentale rimane comunque il rapporto prezzo/prestazioni ed in questo campo ATI è nuovamente superiore (si pensi 4850-9800gt o 5850-gtx285, o il costo di una 48701gb ai produttori invece di una gtx260 216sp ).
Il discorso è che nvidia per adesso non riesce a levare l'ancora mentre ATI veleggia. La causa di tutto ciò è secondo me di una pessima gestione delle risorse da parte di nvidia(il ceo in primis), che si è adagiata sugli allori come si suol dire dal G92 in poi, per troppo tempo. Se avessero fatto uscire le gt200 prima o se avessero cercato di modificare e riprogettare l'architettura contenedo il die size in termini ragionevoli, magari eliminando determinate caratteristiche superficiali, forse sarebbe stato più opportuno alla luce del fatto che non si sarebbe potuto andare avanti con gpu tanto grandi. Prima o poi si tocca il limite, il tetto massimo o il fondo (dipende dai punti di vista) e direi che il mostruoso ritardo di FERMI (*) ne è la prova. (*: TUTTI .. mai nome fu più appropriato :asd: )
e te lo dice uno che preferisce attualmente di gran lunga Nvidia ad ATI, perché lato driver non ci sono paragoni.
Ma, grosso modo, quali sono questi problemi riguardo ai driver ATI di cui leggo spesso?
aaasssdddfffggg
08-12-2009, 13:15
secondo me a parte tutti gli interessanti discorsi fatti sui post precedenti, l'unica vera cosa che potrebbe mettere in crisi Fermi è il discorso del tessellator, perché se manca veramente in hardware allora si rischia di lasciare ad ATI un vantaggio direi più che notevole.
Magari con un chip esterno, ma il tessellator hardware ci vuole: ok a dare supporto al PhysX, ma se lo standard è il tessellator puoi fare quante cose vuoi che le software house non credo che faranno i giochi seguendo due standard diversi.
E l'emulazione va più lenta, non c'è nulla da fare: ad oggi non ho visto nessuna cosa che emulata regga il confronto con l'hardware nativo, almeno sulla stessa generazione di hardware.
Ecco, secondo me, quando avremo questa notizia per certa, potremo fare anche altri discorsi; d'altra parte, che laddove non serva il tessellator sto chip vada più veloce di Cypress penso che sia "dovuto", visto il ritardo con cui esce.
Staremo a vedere.... io per ora non cambio la mia GTX280 e aspetto di avere una più vasta scelta per capire che scheda DX11 prendere.
Tanto da qui a Marzo non si muore per questo... si gioca benissimo lo stesso...
Parole sante.;)
aaasssdddfffggg
08-12-2009, 13:23
Ma, grosso modo, quali sono questi problemi riguardo ai driver ATI di cui leggo spesso?
Eccoti un esempio lampante.... :
http://www.techpowerup.com/reviews/HIS/Radeon_HD_5970_CrossFire/7.html
Quelle secondo te sarebbero prestazioni da quad crossfire?Mah...
Eccoti un esempio lampante.... :
http://www.techpowerup.com/reviews/HIS/Radeon_HD_5970_CrossFire/7.html
Quelle secondo te sarebbero prestazioni da quad crossfire?Mah...
Occhio che stiamo parlando della prima release di driver per hemlock, e tra l'altro beta ;)
Ormai credo si possa dire che i driver ATI stanno migliorando notevolmente, grazie anche ad AMD ;)
davide155
08-12-2009, 13:28
ovviamente 30 era una battuta...;) cmq i numeri sono sempre approssimativi...
fatto sta che per comprare una 5870 il mio amico sta facendo i salti mortali..
e poi se non ce l'hanno da circa un mese, Prokoo e Drako è un bruttissimo segno...
e basta
Basta andare su trovaprezzi e si hanno decine di negozi che vendono la 5870 con disponibilità immediata anche a buoni prezzi.
Basta cercare bene e si trova tutto ;)
Sono scelte diverse ed in questo campo ATI ha introdotto STREAM, nvidia PHISYX, ati il tessellator (che comunque è stata una saggia mossa ma che era già presente in parte, se non erro, nelle 2900xt) e Nvidia la visione 3D.Il tessellatore non è stato introdotto da ATI, è una features delle dx11 (probabilmente la più importante, sicuramente la più "famosa"), dx11 che Nvidia dovrebbe supportare con le nuove VGA. Quindi la cosa è un po' diversa ;)
Kharonte85
08-12-2009, 13:42
Il tessellatore non è stato introdotto da ATI, è una features delle dx11 (probabilmente la più importante, sicuramente la più "famosa"), dx11 che Nvidia dovrebbe supportare con le nuove VGA. Quindi la cosa è un po' diversa ;)
Esatto, a questo giro in qualche modo nvidia è obbligata ad averlo.
aaasssdddfffggg
08-12-2009, 13:59
NVIDIA FERMI in SLI :
http://vr-zone.com/forums/517930/nvidia-fermi-in-sli-action--.html
dai che a gennaio avremo i bench online...
NVIDIA FERMI in SLI :
http://vr-zone.com/forums/517930/nvidia-fermi-in-sli-action--.html
dai che a gennaio avremo i bench online...
ma da che lo capisci che sono vga fermi ? me ne sa di fake
aaasssdddfffggg
08-12-2009, 14:04
ma da che lo capisci che sono vga fermi ? me ne sa di fake
chiaro che non lo posso sapere.Ho solo postato la notizia.;)
Kharonte85
08-12-2009, 14:05
http://3dvision-blog.com/wp-content/uploads/2009/12/nvidia-gf100-sli-s3d-690x517.jpg
Take a look of this picture of Tom Petersen, Director of Technical Marketing at NVIDIA, proudly showing off his new Maingear Shift PC, equipped with two, yes two GF100 “Fermi” video cards! Also notice that the monitor the PC is connected to is a 3D Vision-compatible 120Hz LCD – the Samsung 2233Rz, so this system probably makes a hell of a perfect PC fro playing games in Stereoscopic 3D mode. On a side note, this is another picture coming from Nvidia that is showing off the new GF100 Fermi architecture based GeForce video cards of the company in action. This means that the company should already have more than just a few working samples, but still no word on when to expect them to hit the market and everyone is eagerly awaiting their arrival…
http://3dvision-blog.com/nvidia-is-teasing-us-again-with-gf100-fermi-in-sli-and-3d-vision/
Foto in alta risoluzione:
http://news.softpedia.com/images/news2/Fermi-Based-GeForce-100-Pictured-In-SLI-Setup-2.jpg
scorpion73
08-12-2009, 14:05
Il tessellatore non è stato introdotto da ATI, è una features delle dx11 (probabilmente la più importante, sicuramente la più "famosa"), dx11 che Nvidia dovrebbe supportare con le nuove VGA. Quindi la cosa è un po' diversa ;)
esattamente, il tessellatore non è una tecnologia proprietaria, ma lo standard, quindi parlare di scelta di mercato secondo me non è appropriato
Il paragone che faceva l'altro utente può essere fatto fra tecnologie proprietarie, non sugli standard.
Ad esempio, la scelta di ATI di non supportare physx può essere definita una scelta di mercato (secondo me comunque sbagliata, ma è un mio parere).
l'eventuale mancato supporto del tessellator in hw su fermi per me è un errore progettuale bello e buono
chiaro che non lo posso sapere.Ho solo postato la notizia.;)
si certo ;) bho..... speriamo :)
Kharonte85
08-12-2009, 14:10
ma da che lo capisci che sono vga fermi ? me ne sa di fake
Nessuna garanzia come al solito...
http://www.geeks3d.com/public/jegx/200912/nvidia_fermi_gt100_sli_01.jpg
A vederle sono diverse dalle altre schede video che sono ora in commercio...poi :boh:
ma da che lo capisci che sono vga fermi ? me ne sa di fake
a me sembra la geforce gtx380 della foto dove c'era anche il monitor con l'ultimo unigine :sperem:
Nessuna garanzia come al solito...
http://www.geeks3d.com/public/jegx/200912/nvidia_fermi_gt100_sli_01.jpg
A vederle sono diverse dalle altre schede video che sono ora in commercio...poi :boh:
non sapevo che fosse il soggetto ritratto in foto, quindi magari c'è qualche possibilità, anche se il precedente del Boss di nvidia con in mano il finto Fermi.... :p
Cmq se è foto vera allora potrebbe essere magari l'inizio di una qualche divulgazione :boh:
Ma perchè continuano con ste immaginette dove non si capisce niente? Una vera immagine dove si legge il nome della scheda e si vede bene, magari anche con qualche benchmark proprio no? Sta cosa mi puzza di bruciato... :rolleyes:
Kharonte85
08-12-2009, 14:19
a me sembra la geforce gtx380 della foto dove c'era anche il monitor con l'ultimo unigine :sperem:
Infatti sembra proprio lei, la fonte dell'immagine è il sito ufficiale di Twitter:
http://twitpic.com/smz46
La stessa fonte dell'altra foto, solo che questa volta la foto è a risoluzione accettabile: http://twitpic.com/smz46/full quindi difficilmente falsificabile :)
Andrea deluxe
08-12-2009, 14:21
dire che e' fake anche l'immagine nuova.....
bisogna avere disturbi seri in mente.....
Kharonte85
08-12-2009, 14:24
Twitter picture shows Fermi cards operating in SLI configuration
Even though the launch of the next-generation CUDA architecture known as Fermi was postponed until next year, it seems that there are already working samples of the GeForce 100 Fermi-based graphics cards. Earlier today, a picture was posted on NVIDIA's twitter page, which showed the NVIDIA Director of Technical Marketing, Tom Peterson, holding a working system using two GF100 cards in an SLI configuration.
NVIDIA is somewhat behind AMD/ATI in the area of products aimed at the high-end graphics market. The GPU manufacturer decided to use this twitter picture as a means of rekindling end-users' anticipations for its own product, in the wake of the Radeon HD 5970 mania.
Still, NVIDIA might benefit from this delay by having the AMD card as a subject of comparison. Also, the HD 5970 mania will likely tone down (at least somewhat) by January, which means that the consumer interest in Fermi might actually end up greater than if the actual release had been done sooner.
The GeForce 100 will be the first graphics card from NVIDIA to use the next-generation CUDA. The card employs a 40nm chip with 512 CUDA cores, GDDR5 VRAM and has DirectX 11 support and a memory interface of 384 bits. The card also has the Fermi features of the NVIDIA Parallel DataCache technology and the NVIDIA GigaThread engine.
The Radeon HD 5970 graphics card has stirred much admiration among consumers worldwide and this, in turn, has likely raised the general expectations concerning the upcoming Fermi architecture. NVIDIA has to deal with the pressure of developing a technology capable of yielding graphics adapters with performance capabilities at least on par with those of the Hemlock.
A clear release date for the Fermi architecture has yet to be revealed. The technology will debut sometime during the first quarter of 2010. It is possible that the samples will be demonstrated at the 2010 Consumer Electronics Show, but this has yet to be confirmed. Still, the architecture itself is very complex, likely the most ambitious project on NVIDIA's part so far, which also explains the rather large size of the actual GF100 (about 10.5 inches long).
Regardless of rumors, however, the mere fact that there are working samples of the NVIDIA GF100 Fermi card shows that the actual technology has progressed quite far and is already in testing stage. This means that hopefuls might not have to keep waiting for as long as they had originally thought.
http://news.softpedia.com/news/Fermi-Based-GeForce-100-Pictured-In-SLI-Setup-129149.shtml
E' quello che speriamo...
Basta con Crysis, per favore, non è un esempio lampante di niente se non di un engine che non funziona...
l'engine funziona eccome. con i crysis ci sto giocando in full hd su enthusiast / very high ed è una godura.
Kharonte85
08-12-2009, 14:27
dire che e' fake anche l'immagine nuova.....
bisogna avere disturbi seri in mente.....
Per essere fake quell'immagine significa che il monitor è attaccato ad un altro pc? No perchè non vedo altre possibilità.
La mossa è sensata (questione di tempo prima che i siti rimbalzino la notizia) alla nvidia sanno bene che c'è da tenere alta la tensione e mettere pulci nell'orecchio ;)
alla nvidia sanno bene che c'è da tenere alta la tensione e mettere pulci nell'orecchio ;)...sperando che ATI nel frattempo non saturi le vendite del settore alto... sembra un controsenso, ma al momento il vero alleato di Nvidia è TSMC ed i suoi problemi...
Andrea deluxe
08-12-2009, 14:31
Per essere fake quell'immagine significa che il monitor è attaccato ad un altro pc? No perchè non vedo altre possibilità.
La mossa è sensata (questione di tempo prima che i siti rimbalzino la notizia) alla nvidia sanno bene che c'è da tenere alta la tensione e mettere pulci nell'orecchio ;)
ma tanto tra poco diranno che pure il tizio e' fake perche E' TROPPO BRUTTO PER ESSERE VERO.........
:sbonk:
ma tanto tra poco diranno che pure il tizio e' fake perche E' TROPPO BRUTTO PER ESSERE VERO.........
:sbonk:
:sbonk: :fagiano:
aaasssdddfffggg
08-12-2009, 14:32
ma tanto tra poco diranno che pure il tizio e' fake perche E' TROPPO BRUTTO PER ESSERE VERO.........
:sbonk:
io credo proprio che a gennaio cominceremo a vedere dei bench seri su FERMI.Ormai ci siamo quasi.;)
Kharonte85
08-12-2009, 14:33
ma tanto tra poco diranno che pure il tizio e' fake perche E' TROPPO BRUTTO PER ESSERE VERO.........
:sbonk:
In effetti...:asd: fra l'altro ha una maglietta con su il simbolo della apple colorato...:stordita:
Andrea deluxe
08-12-2009, 14:35
http://img43.imageshack.us/img43/2350/cattura2v.png (http://img43.imageshack.us/i/cattura2v.png/)
GUARDAMI NEGLI OCCHI....
NON SONO VERO!!!!
Kharonte85
08-12-2009, 14:36
E' chiaramente un rettiliano...:D
A parte gli scherzi questa volta hanno inserito una persona apposta, perchè fare un fotomontaggio credibile con delle persone è sicuramente più difficile.
E' chiaramente un rettiliano...:D
A parte gli scherzi questa volta hanno inserito una persona apposta, perchè fare un fotomontaggio credibile con delle persone è sicuramente più difficile.
si xò sembra ET.... :rotfl: :sob:
Andrea deluxe
08-12-2009, 14:43
si xò sembra ET.... :rotfl: :sob:
vedi gia' stai dubitando della sua umanita'.....
E' un ALIENO!!!!!!!!!!!!!!
:sbonk:
:ops2:
quella e' la visone di un flash forward.......:O
vedi gia' stai dubitando della sua umanita'.....
E' un ALIENO!!!!!!!!!!!!!!
:sbonk:
:ops2:
:asd:
vabbe scherzo cmq... x me può benissimo essere tutto vero :D
Andrea deluxe
08-12-2009, 14:47
:asd:
vabbe scherzo cmq... x me può benissimo essere tutto vero :D
certo che e' vero...:)
certo che e' vero...:)
x me quella è una GTX380 :D :cool:
Andrea deluxe
08-12-2009, 14:58
Siamo ben oltre il ridicolo, visto che la scheda non funziona ogni 15gg esce una foto in cui viene ritratta una o più presunte schede...
NON HANNO I VOLUMI, MA NON LE SCHEDE!
altrimenti dove testano....
pur con yeld all' 1% almeno du schede da provare.....
i driver come li metti a posto....
un rev0, un rev01, un rev02 funzionante no?
NON HANNO I VOLUMI, MA NON LE SCHEDE!
altrimenti dove testano....
pur con yeld all' 1% almeno du schede da provare.....
i driver come li metti a posto....
quoto :fagiano:
halduemilauno
08-12-2009, 15:01
ultime news...
http://img709.imageshack.us/img709/1263/gf100.jpg
sempre in attesa di tutti i riscontri del caso.
;)
PS ecco l'immagine corretta.
Kharonte85
08-12-2009, 15:03
Siamo ben oltre il ridicolo, visto che la scheda non funziona ogni 15gg esce una foto in cui viene ritratta una o più presunte schede...
Sei sempre così pessimista :asd:, invece guardacaso quelli potrebbero essere i working sample delle revision A2 (previsti come possibili per la prima settimana di dicembre) ;)
Ma tutto ciò non vi sembra ridicolo? Ste immagini dove non si vede un bel niente, bisogna usare la lente d'ingrandimento per vedere le schede... ci vorrebbe un bel primo piano dove si vede il nome e l'intera scheda e magari anche un bench, allora si che si può inziare a pensare a fermi. Non vi sembra strano che nVidia sta facendo il giochetto dell'Indovina Chi con un prodotto che dovrebbe essere un mostro? Proprio sapendo com'è fanatica nvidia? Mah....
ultime news...
[IMG]http://img17.imageshack.us/img17/1263/gf100.jpg
sempre in attesa di tutti i riscontri del caso.
;)
scusa ma quindi la 380 è a 512bit? :confused: ma non doveva essere a 384bit?
aaasssdddfffggg
08-12-2009, 15:06
Sei sempre così pessimista :asd:, invece guardacaso quelli potrebbero essere i working sample delle revision A2 (previsti come possibili per la prima settimana di dicembre) ;)
esatto,sono i sample dello step a2,quindi si passerà allo step a3 in arrivo a gennaio (i primi disponibili in quantità limitata)che sarà quello destinato alla produzione di massa che avverrà presuribilmente a marzo.
Andrea deluxe
08-12-2009, 15:07
Ipotesi interessante. Se non hanno solo i volumi perché continuano a far vedere solo delle foto invece che schede che fanno realmente girare qualcosa, così come è accaduto da ben prima dell'uscita per le HD5xxx e addirittura Larrabee che non arriverà sul mercato prima di un paio d'anni? :read:
perche' forse va solo il 10% in piu' della concorrenza e conviene tener serrata la cosa altrimenti la gente compra la 5870 perche' sappiamo tutti che la gente vuole tutto e subito?
anche se va il 10% in meno......
Kharonte85
08-12-2009, 15:08
ultime news...
http://img17.imageshack.us/img17/1263/gf100.jpg
sempre in attesa di tutti i riscontri del caso.
;)
Fonte della tabella?
Come mi ispira sulla carta quella gtx 360 :oink:
A proposito un articolo che fa il punto della situazione:
NVIDIA working to show Fermi at CES
Recent reports from unofficial sources contradict official statements from NVIDIA which say that the company’s upcoming Fermi/G300 GPU will be available by the end of the calendar year.
Unnamed board partners cited at DriverHeaven and [H]ard|OCP claim that NVIDIA is working to have “some” Fermi sample boards running at the January, 2010 Consumer Electronics Show in Las Vegas. The implication here is that NVIDIA may very well miss that window to demonstrate working silicon to the public.
Of greater concern is the overall state of the Fermi project. If the company is hoping, rather than guaranteeing, to show the first public demo of Fermi in the second week of January, then the G300 may be further behind than anyone had imagined.
After the project slipped its original September/October launch, many believed that G300 would launch in the November/December time frame. That date was based on a July tape-out of the company’s A1 (first) G300 revision.
A tape-out is the finalization of a PCB/IC design; it is at this point that the schematics for the product are sent for manufacture. It typically takes about five months to translate the specs into a physical product. This is why a year-end G300 launch was expected from a July tape-out.
However, a tape-out is not always the last stage of circuit design. The design could fail viability checks at the foundry, or the production board may fail functionality checks in its shakedown cruise. Should either of these scenarios unfold, the circuit designer must commit itself to a new revision–a respin–which takes about 4-6 weeks from debugging to the very first test boards. Should that revision get a green light, you can add another 6-8 weeks for production boards.
Not only does NVIDIA have a history of going retail with A2 or A3 revision silicon, but some reports say that A2 silicon has only just taped out. In a best case scenario, NVIDIA will have A2 back by the first week of December. If A2 is any good, then the very first boards will just barely make the CES window AIBs are talking about. That means retail availability is narrowing in on February, but it could be as late as March if the company must spin the A3 rev.
NVIDIA has stayed uncharacteristically quiet about Fermi as it toils to bring the silicon to life. Rival firm AMD is waging an unchecked “NVIDIA is neglecting gamers” campaign which mostly panders to the constituency, but somebody will buy it. Gullible folks are always listening. Follow that with AMD’s 5-6 month lead on DirectX 11 hardware, and it looks like AMD is simply leaving a silent NVIDIA on the sidelines. The “we have PhysX” argument is not going to win it for gamers who care about performance.
What is going on?
NVIDIA’s troubles with realizing Fermi are legion, and many of them are not an indictment of the company’s engineering prowess. First and foremost, the company is packing 3 billion transistors–30% more than Evergreen–into the Fermi’s 40nm die. If AMD’s 2.15 billion transistor Evergreen die is 334mm², then Fermi is near 430mm². That’s Xbox big. That’s Ron Jeremy big. Bringing a die of that size to bear in volume is hard, plain and simple.
Secondly, NVIDIA is a fabless company with no production facilities of its own. This saves a tremendous amount in capital costs (the business case for AMD’s spinoff of Glofo), but it forces a reliance on the expertise of an independent foundry. NVIDIA relies on the Taiwan Semiconductor Manufacturing Corporation for manufacturing duties, and they recently revealed that their 40nm process, the very same used by both Evergreen and Fermi, is a right hot mess. Fermi is already an architecture with yield issues, and TSMC is jamming its thumb in the wound with a crippling drop in throughput.
The last and most flagrant accusation is that Fermi is a leaky design. Sites like SemiAccurate have long railed on the architecture for spewing electrons like a fire hose, which would make Fermi difficult to produce and hot to run. Whether or not those accusations are true is entirely open to speculation, but that’s the going word, so we’re repeating it for the sake of discussion.
The final word
Fermi is a very large and complicated architecture, perhaps the most ambitious in NVIDIA’s history. It’s not terribly surprising that the architecture’s viability for a January demonstration is in question, nor is it surprising that we may not see the card in volume until March. The real question is why NVIDIA is staying mum on its woes.
We have debated the cause of the unusual silence over the last few weeks, and we’ve come to the conclusion that it’s an effort to deny the AMD PR machine additional ammunition, and an effort to preserve shareholder faith. Even if a product is behind, saying how and why it’s behind can more damaging than simply letting it quietly slip its schedule. NVIDIA is already suffering Fermi’s protracted development, and the outfit is smartly refusing to make the situation worse.
At this point, the speculative environment surrounding Fermi would be wise to take a “wait and see” approach. Estimating the performance of Fermi’s radically new design is a total gamble, and cards will appear when silicon is good and ready. If it so happens that it’s ready in time for CES, Icrontic will be there to give you all the pictures and information you can stomach.
http://tech.icrontic.com/news/nvidia-working-to-show-fermi-at-ces
;)
davide155
08-12-2009, 15:09
ultime news...
http://img17.imageshack.us/img17/1263/gf100.jpg
sempre in attesa di tutti i riscontri del caso.
;)
Certo che con le performance in Single precison Nvidia ne busca sempre come un maiale da Ati.
La situazione ancora non si ribalta.
aaasssdddfffggg
08-12-2009, 15:11
Certo che le performance in Single precison Nvidia ne busca sempre come un maiale da Ati.
La situazione ancora non si ribalta.
Mentre in doppia precisione anche la fascia più bassa di FERMI le suona alla 5870.:D
Certo che con le performance in Single precison Nvidia ne busca sempre come un maiale da Ati.
La situazione ancora non si ribalta.
l'hanno sempre avuto + alto in casa ati, ma non conta solo quello x le prestazioni nei giochi.
davide155
08-12-2009, 15:13
Mentre in doppia precisione (quella che conta) anche la fascia più bassa di FERMI le suona alla 5870.:D
Vallo a dire a quelli del calcolo distribuito se non conta la single precison :asd:
I nvidiaisti bestemmiano dalla mattina alla sera con i calcoli scentifici.
halduemilauno
08-12-2009, 15:15
Certo che con le performance in Single precison Nvidia ne busca sempre come un maiale da Ati.
La situazione ancora non si ribalta.
causa architettura ben diversa il parallelismo non da la giusta dimensione le GF in quel campo con valori ben inferiori son sempre ben + performanti delle ati. quindi non farti ingannari da quei due numeri.
davide155
08-12-2009, 15:17
causa architettura ben diversa il parallelismo non da la giusta dimensione le GF in quel campo con valori ben inferiori son sempre ben + performanti delle ati. quindi non farti ingannari da quei due numeri.
La nvidia ne busca e basta.
Andate nei forum di boinc gpu o gpu grid e vedete se non è vero che una gtx280 impiega lo stesso tempo per completare una WU quanto una 4670, nonostante sia la metà di prezzo/potenza/consumi.
halduemilauno
08-12-2009, 15:20
scusa ma quindi la 380 è a 512bit? :confused: ma non doveva essere a 384bit?
no è 384 bit. infatti il valore mostrato della bandwidth si riferisce proprio al bus da 384 bit.
;)
no è 384 bit. infatti il valore mostrato della bandwidth si riferisce proprio al bus da 384 bit.
;)
già, ed anche il taglio di memoria corrisponde al bus a 384bit!
halduemilauno
08-12-2009, 15:24
già, ed anche il taglio di memoria corrisponde al bus a 384bit!
esatto anche il taglio di ram.
;)
Kharonte85
08-12-2009, 15:25
Allora è un errore nella tabella...
halduemilauno
08-12-2009, 15:27
Allora è un errore nella tabella...
esatto.
;)
Eccoti un esempio lampante.... :
http://www.techpowerup.com/reviews/HIS/Radeon_HD_5970_CrossFire/7.html
Quelle secondo te sarebbero prestazioni da quad crossfire?Mah...
Il quad cros non è mai andato nemmeno prima con le 4870x2, come del resto mi pare che non andasse una fava nemmeno il trisli di gtx280 rispetto a uno sli semplice, ma questi sono argomenti già discussi sull'efficienza del multigpu e di queste configurazioni da enthusiast, soprattutto enthusiast di dare i soldi a queste aziende. Io avrei voluto informazioni circa malfunzionamenti e cose del genere per gpu singole.
aaasssdddfffggg
08-12-2009, 15:29
Il quad cros non è mai andato nemmeno prima con le 4870x2, come del resto mi pare che non andasse una fava nemmeno il trisli di gtx280 rispetto a uno sli semplice, ma questi sono argomenti già discussi sull'efficienza del multigpu e di queste configurazioni da enthusiast, soprattutto enthusiast di dare i soldi a queste aziende. Io avrei voluto informazioni circa malfunzionamenti e cose del genere per gpu singole.
Ma lo so benissimo che non è mai andato su ATI il quad,ma il multiGPU di nvidia funziona eccome.Bench alla mano.;)
Finalmente memorie GDDR5 anche per nVidia, non è che per caso si sono sbagliati? Avevo sentito che avrebbero usato GDDR3... :doh:
Kharonte85
08-12-2009, 15:31
Stavo guardando che dalla tabella a parte alcuni valori la gtx 360 e la hd5870 si bilanciano...chi lo sa se finiranno per assomigliarsi anche nelle prestazioni finali...
aaasssdddfffggg
08-12-2009, 15:32
Stavo guardando che dalla tabella a parte alcuni valori la gtx 360 e la hd5870 si equivalgono...chi lo sa se finiranno per assomigliarsi anche nelle prestazioni finali...
solo che dimentichi che stai paragonando la più piccola FERMI con la top di gamma a singola GPU di ati...:D
Stavo guardando che dalla tabella a parte alcuni valori la gtx 360 e la hd5870 si bilanciano...chi lo sa se finiranno per assomigliarsi anche nelle prestazioni finali...
bisognerà aspettare x saperlo :D
aaasssdddfffggg
08-12-2009, 15:33
Finalmente memorie GDDR5 anche per nVidia, non è che per caso si sono sbagliati? Avevo sentito che avrebbero usato GDDR3... :doh:
interfaccia a 384 bit,gddr5 e 1,5 giga memoria per la top di gamma a singola gpu.:)
Siamo ben oltre il ridicolo, visto che la scheda non funziona ogni 15gg esce una foto in cui viene ritratta una o più presunte schede...
Comunque sembra che siano già in commercio. Sembra che la diano in bundle con quel capolavoro annunciato di ..
http://www.pctunerup.com/up/results/_200912/20091208163134_fermi3.JPG
Riguardo invece al tessellatore, certo non è uno standard proprietario di ati, però intendevo dire che fu una scelta di mercato inserire tale feature nelle 2900xt (seppure inutile a suo tempo, però interessante) ;)
http://ixbtlabs.com/articles2/video/r600-part1.html
Programmable Tessellator
Owing to R6xx's legacy (console GPU Xenos), all RADEON HD 2000 cards contain a programmable tessellator, a new unit for PCs. You can get the basic idea of tessellation in the following articles:
* False sun / Parhelia-512
* Modern 3D terms - Displacement Mapping
Tessellation is used to increase geometric complexity of models, that is to make complex models from low-polygon ones. Tessellation can reduce overheads on animation, increase model details at a small performance loss, improve LOD. A fully hardware solution allows developers to send data with a lower detail level to the GPU, then have them tesselated to a required complexity level, and apply displacement mapping (see the link above). It reduces the load on the CPU and the amount of data transferred along the buses.
Tessellation does not have a single algorithm, it can be done by several rules. There are several types of higher order surfaces: Bezier, N-Patches, B-Spline, NURBs, subdivision surfaces, which can be tessellated into polygons by a GPU. As R6xx is equipped with a programmable tessellator, it can be used for various algorithms, which gives 3D developers flexibility and control. AMD publishes the following block diagram of the pipeline:
http://www.ixbt.com/video3/images/r600/diag_tessellator.png
It's said that R6xx tessellator does not require new shader types in API, necessary vertex shaders can be written by developers. It's not clear how a usual vertex shader can do tessellation, but it's actually the problem of game developers.
The programmable tessellator has great advantages. Tessellation can raise a geometry detail level of a scene without increasing the load on the buses and CPU. Tessellation is especially efficient in combination with displacement mapping. But this is theory. Practice is usually not that peachy. We have some questions as to how the tessellator can be used in various APIs (Direct3D 9, Direct3D 10, OpenGL). But the most important question is whether developers will use GPU features from only one vendor instead of two? Of course, games ported from Xbox 360 (with native support for tessellation) will profit from this feature, but what about other video cards?
Sarebbe il caso di inserirla nelle nuove gt300, il non farlo potrebbe essere un handicap, specialmente sotto il punto di vista del calo prestazionale derivante dal suo utilizzo già in versione hardware, figuriamoci sw mediante cuda cores (con ogni beneficio del dubbio). Comunque prima escono e meglio è perché 5870 a 340 euro secondo me è davvero troppo. Una gtx260 216 a 130 euro è il best buy, non ci sono gtx285 o 5870 che tengano. Forse una 5850 per la fascia molto alta, meglio se in crossfire ed overclock a 900mhz. La cosa che trovo un pò triste è che continuano con il rebranding. E' noto che la nuova serie G300 di nvidia è già uscita, peccato che siano miseri rebranding OEM e retail di GT200 di fascia bassa. Rispettivamente Geforce 310 e Geforce315 http://www.fudzilla.com/content/view/16738/1/
PConly92
08-12-2009, 15:34
Stavo guardando che dalla tabella a parte alcuni valori la gtx 360 e la hd5870 si equivalgono...chi lo sa se finiranno per assomigliarsi anche nelle prestazioni finali...
si ma comunque sono architetture molto diverse:) bisognerà vedere chi esegue meglio i calcoli...
ps. non sono molto esperto in questo campo, quindi se sbaglio fatemi sapere:D
interfaccia a 384 bit,gddr5 e 1,5 giga memoria per la top di gamma a singola gpu.:)
la mia è meglio basta. :Prrr:
interfaccia a 384 bit,gddr5 e 1,5 giga memoria per la top di gamma a singola gpu.:)
Beh sembra promettere bene, speriamo che vada forte anche in pratica così vedremo presto anche la 5890 ;)
aaasssdddfffggg
08-12-2009, 15:35
la mia è meglio basta. :Prrr:
adesso puoi ancora dirlo con certezza....magari più avanti ,forse...:)
adesso puoi ancora dirlo con certezza....magari più avanti ,forse...:)
più avanti lascerà il "trono" alla 380... penso :stordita:
aaasssdddfffggg
08-12-2009, 15:38
più avanti lascerà il "trono" alla 380... penso :stordita:
mentre la dualGPU FERMI (quelle che sto attendendo)in codice "GEMINI" dovrebbe avere ben 3 giga di memoria e se la vedrà con la 5970.Non vedo l'ora di vedere questo scontro anche in funzione Quad...:D
mentre la dualGPU FERMI (quelle che sto attendendo)in codice "GEMINI" dovrebbe avere ben 3 giga di memoria e se la vedrà con la 5970.Non vedo l'ora di vedere questo scontro anche in funzione Quad...:D
si ma tu non sai che poi dopo ati lancerà la 5990 nome in codice "PEGASUS" ...e allora vedremo ... :Perfido: ;)
aaasssdddfffggg
08-12-2009, 15:41
si ma tu non sai che poi dopo ati lancerà la 5990 nome in codice "PEGASUS" ...e allora vedremo ... :Perfido: ;)
attendiamo gli sviluppi...anche se ATI facesse bene ad abbandonare il quad.Non li sa fare proprio i driver per questa configurazione.
scorpion73
08-12-2009, 15:46
si ma tu non sai che poi dopo ati lancerà la 5990 nome in codice "PEGASUS" ...e allora vedremo ... :Perfido: ;)
E se Nvidia ci sorprendesse tutti e prestazionalmente la GTX380 fosse molto vicina alla 5970?
Mi sembra assurdo, però se paragoniamo la 5870 alla GTX360 è giocoforza fare l'altro paragone, non esistendo attualmente una 5890...
E se Nvidia ci sorprendesse tutti e prestazionalmente la GTX380 fosse molto vicina alla 5970?
allora rivendo la 5870 e compro la gtx380 :sofico:
aaasssdddfffggg
08-12-2009, 15:48
E se Nvidia ci sorprendesse tutti e prestazionalmente la GTX380 fosse molto vicina alla 5970?
Mi sembra assurdo, però se paragoniamo la 5870 alla GTX360 è giocoforza fare l'altro paragone, non esistendo attualmente una 5890...
Esatto,quello che dico sempre.ATI non ha alcun riferimento prestazionale sulla nuova architettura visto che ancora non cè e deve ripiegare sulla vecchia di nvidia per rendersi conto di quanto vadano veloci le sue schede.Ma nvidia ha un quadro completo davanti...
allora rivendo la 5870 e compro la gtx380 :sofico:
magari continuiamo a goderci i nostri mostriciattoli ancora qualche mese no? ;)
tanto mo che escono le fermi, maturano i driver, si assestano un po' i prezzi, magari si aspetta anche la multi gpu ci vuole minimo pasqua.
E se Nvidia ci sorprendesse tutti e prestazionalmente la GTX380 fosse molto vicina alla 5970?
Mi sembra assurdo, però se paragoniamo la 5870 alla GTX360 è giocoforza fare l'altro paragone, non esistendo attualmente una 5890...
Secondo me questa GTX 380 se la giocherà bene con la 5870, vi state facendo ingannare troppo dalle specifiche... dire addirittura che si avvicina alla 5970 mi sembra una grossa fesseria :D
scorpion73
08-12-2009, 15:53
Secondo me questa GTX 380 se la giocherà bene con la 5870, vi state facendo ingannare troppo dalle specifiche... dire addirittura che si avvicina alla 5970 mi sembra una grossa fesseria :D
beh può essere come no... finche' non la si vede non si può sapere
di certo non ci potrà arrivare a pari livello ma se una 5870 se la batte bene con una gtx295 non vedo perché non potrebbe succedere il contrario visto che le separano 6 mesi...
magari continuiamo a goderci i nostri mostriciattoli ancora qualche mese no? ;).
poi c'è anche la carta "overclock": core 1200mhz con vcore di 1.4...durerò una settimana ma così batterò la 380 :Perfido:
beh può essere come no... finche' non la si vede non si può sapere
di certo non ci potrà arrivare a pari livello ma se una 5870 se la batte bene con una gtx295 non vedo perché non potrebbe succedere il contrario visto che le separano 6 mesi...
Principalmente perchè la 5870 e la gtx295 sono 2 generazioni di vga diverse quindi è normale che la scheda ATI sia praticamente allo stesso livello della controparte essendo più evoluta, mentre la gtx380 e la 5970 sono la stessa generazione di vga, quindi per me ciò che hai affermato resterà un sogno da fanboy ;)
Guarda che 6 mesi sono di ritardo non di sviluppo, non è che nVidia ci ha messo di più perchè sta facendo un lavorone... ha avuto problemi e ha dovuto rimediare, ormai è risaputo dai...
poi c'è anche la carta "overclock": core 1200mhz con vcore di 1.4...durerò una settimana ma così batterò la 380 :Perfido:
Se la metti a liquido non hai problemi ;)
Scusate altro doppio post
Secondo me questa GTX 380 se la giocherà bene con la 5870, vi state facendo ingannare troppo dalle specifiche... dire addirittura che si avvicina alla 5970 mi sembra una grossa fesseria :D
fondamentalmente la penso come te, mi sono bookmarkato un mio post in cui prevedo che sarà circa il 20% più potente di una 5870, sono curioso di vedere se ci ho preso.
scorpion73
08-12-2009, 16:20
può darsi che sia così e sinceramente a me starebbe già bene, anche se io sono più propenso per un 30%.
un 20% in più della 5870 mi sembra un ottimo valore, considerando che la 5870 è già di per se molto veloce.
Per quanto riguarda il discorso fanboy, a me delle diatribe onestamente non me ne può importare di meno, per i miei gusti ho sempre preferito nvidia perché con ati l'ho avuta due volte e sempre dei casini ci sono stati, mentre con nvidia è sempre filato tutto liscio.
però, come ho specificato sopra, voglio vedere il discorso del tessellator perché per me è di primaria importanza.
può darsi che sia così e sinceramente a me starebbe già bene, anche se io sono più propenso per un 30%.
un 20% in più della 5870 mi sembra un ottimo valore, considerando che la 5870 è già di per se molto veloce.
Per quanto riguarda il discorso fanboy, a me delle diatribe onestamente non me ne può importare di meno, per i miei gusti ho sempre preferito nvidia perché con ati l'ho avuta due volte e sempre dei casini ci sono stati, mentre con nvidia è sempre filato tutto liscio.
però, come ho specificato sopra, voglio vedere il discorso del tessellator perché per me è di primaria importanza.
Ma io non ho dato del fanboy specificatamente a te, intendevo dire che pensare che la gtx380 si avvicini molto alla 5970 mi sembra un pensiero che solo una persona di parte possa fare ;)
Adone_1985
08-12-2009, 16:32
Cmq...ieri stavo guardando un po' di benchmark..della 5870 in DX11 non poi così tanto potente...va un po' meglio della mia..che però è in DX10 naturalmente...
a quanto pare la tessellation gli fa subire un notevole calo di prestazioni..o sbaglio?
Cmq gli fps parlavano chiaro...a mio parere non conviene comprare una scheda così, dato che non è poi tutta questa rivoluzione che si vuole far credere...
si il tessellone diminuisce di molto i frames ;) dirt 2 che ne fa uso cmq lo gioco senza problemi al massimo dettaglio in full hd... ;) poi con altri giochi bisognerà vedere..
Per me è tutta questione di driver, è una feature nuova che ha bisogno di maturare ;)
Adone_1985
08-12-2009, 16:49
si il tessellone diminuisce di molto i frames ;) dirt 2 che ne fa uso cmq lo gioco senza problemi al massimo dettaglio in full hd... ;) poi con altri giochi bisognerà vedere..
ho visto che in full hd e quasi tutti i dettagli ad ultra...la media si aggira:
FPS: medi 53
FPS: minimi 44
Filtri 8x...procio core i7 3.2...6gb ram corsair
Non raggiunge neanche la fluidità perfetta...i 60 fps..quindi non mi sembra una buona cosa...o no?
Ma lo so benissimo che non è mai andato su ATI il quad,ma il multiGPU di nvidia funziona eccome.Bench alla mano.;)
A parte che qualche bench lo vidi su configurazioni multigpu di nVidia, e tri sli e quad sli andavano una schifezza proprio come il quad di ATI, ma non è questo il punto, come ti ho già detto nel post precedente. Tu hai detto che i driver ATI sono peggiori di quelli nVidia, basi questa tua affermazione sul fatto che scalano peggio sul multigpu? E poi secondo te è possibile che i programmatori ATI non sappiano fare i driver?
io lo gioco in full hd aa4x e sta tra i 50-60frames (il più delle volte varia tra i 54-55-60) con scheda a 900 ;) e sinceramente lo trovo giocabilissimo ;)
per adesso almeno, xchè ancora non ho fatto tutte le piste :D
Adone_1985
08-12-2009, 16:57
io lo gioco in full hd aa4x e sta tra i 50-60frames (il più delle volte varia tra i 54-55-60) con scheda a 900 ;) e sinceramente lo trovo giocabilissimo ;)
per adesso almeno, xchè ancora non ho fatto tutte le piste :D
Si...ma sicuramente è giocabilissimo...solamente che per essere una scheda nuova ce troppoa poca differenza di frame rate rispetto ad una scheda "vecchia"...mi aspettavo qualcosa in più...
E' anche vero che come dice l'altro utente..sicuramente è una questione di driver da ottimizzare...però ripeto mi aspettavo qualcosa in più..
aaasssdddfffggg
08-12-2009, 16:58
A parte che qualche bench lo vidi su configurazioni multigpu di nVidia, e tri sli e quad sli andavano una schifezza proprio come il quad di ATI, ma non è questo il punto, come ti ho già detto nel post precedente. Tu hai detto che i driver ATI sono peggiori di quelli nVidia, basi questa tua affermazione sul fatto che scalano peggio sul multigpu? E poi secondo te è possibile che i programmatori ATI non sappiano fare i driver?
Si,in casa ATI non sanno fare i driver multiGPU.Ecco in casa nvidia come fanno funzionare il quad :
http://www.tomshardware.com/reviews/geforce-gtx-295,2123-4.html
Le prestazioni raddoppiano se sai interpretare i bench.;)
Cmq gli fps parlavano chiaro...a mio parere non conviene comprare una scheda così, dato che non è poi tutta questa rivoluzione che si vuole far credere...Se conveniva la tua GTX285 che costava come una HD5870 e và meno di una HD5850 (parlando solo di prestazioni, poi ci sarebbe "il resto"), perchè non dovrebbe convenire la HD5870?
Riguardo le prestazioni di Fermi, il problema a questo punto non sono le prestazioni, sia per il ritardo (dopo sei mesi che in questi campi sono un'eternità, che vada più veloce è un obbligo) ma soprattutto per i prezzo.
Mi sembra che sia una variante poco considerata, ma anche se la 380 andasse un 20% più della HD5870, se poi costasse uno sproposito non sarebbe ugualmente competitiva.
Vedo molti pronostici sulle prestazioni, ma pochi sul costo di produzione di questa VGA e sul fatto che Nvidia non è mai stata "splendida" relativamente ai prezzi...
scorpion73
08-12-2009, 17:03
Ma io non ho dato del fanboy specificatamente a te, intendevo dire che pensare che la gtx380 si avvicini molto alla 5970 mi sembra un pensiero che solo una persona di parte possa fare ;)
ah ok avevo interpretato male la tua frase allora :) ti chiedo di scusarmi :)
Si...ma sicuramente è giocabilissimo...solamente che per essere una scheda nuova ce troppoa poca differenza di frame rate rispetto ad una scheda "vecchia"...
..
be considera che quei frames li fa con i dettagli dx11..quindi non è a parità di impostazioni con le altre schede che vanno in dx9 con Dirt 2.... cmq in dx9 faccio questo risultato: http://www.hwupgrade.it/forum/showpost.php?p=29929399&postcount=12
scorpion73
08-12-2009, 17:08
ho visto che in full hd e quasi tutti i dettagli ad ultra...la media si aggira:
FPS: medi 53
FPS: minimi 44
Filtri 8x...procio core i7 3.2...6gb ram corsair
Non raggiunge neanche la fluidità perfetta...i 60 fps..quindi non mi sembra una buona cosa...o no?
voglio volutamente buttarla la' per provocare: visto che la tessellation dovrebbe avere lo stesso scopo (almeno cosi' mi pare di avere capito, correggetemi se sbaglio) del PhysX, e se usassero lo stesso concetto nel caso in cui fosse gestita tramite shader core? cioé: se metti una scheda dedicata hai gli stessi effetti di una GPU dedicata al physx. in questo caso si tratta di capire se le attuali schedozze G92 andrebbero bene a questo scopo...
Si,in casa ATI non sanno fare i driver multiGPU.Ecco in casa nvidia come fanno funzionare il quad :
http://www.tomshardware.com/reviews/geforce-gtx-295,2123-4.html
Le prestazioni raddoppiano se sai interpretare i bench.;)
OK, a parte l'obiezione che ti era stata mossa anche da un altro utente circa la validità di quel gioco in qualità di bench, gioco che riporta il logo nVidia nelle schermate iniziali, io non ti ho chiesto se siano migliori i driver nVidia o ATI in multigpu, una mia opinione in merito ce l'ho già. Tu avevi affermato senza specificare nulla che i driver di una azienda erano migliori dell'altra, e siccome è una critica che leggo spesso rivolta ad ATI, ed avendo avuto schede ATi prevalentemente, senza problemi di sorta, mi chiedevo quali fossero i problemi, e quali benefici ( al di là di una presunta migliore scalabilità nel multigpu ) avrei potuto osservare ed ottenere comprando una scheda nVidia guidata dai suoi driver.
voglio volutamente buttarla la' per provocare: visto che la tessellation dovrebbe avere lo stesso scopo (almeno cosi' mi pare di avere capito, correggetemi se sbaglio) del PhysX, e se usassero lo stesso concetto nel caso in cui fosse gestita tramite shader core? cioé: se metti una scheda dedicata hai gli stessi effetti di una GPU dedicata al physx. in questo caso si tratta di capire se le attuali schedozze G92 andrebbero bene a questo scopo...Una VGA dx10 dedicata ale dx11 potrebbe proprio essere l'idea che mancava a Nvidia :D
(si scherza eh)
.. Vedo molti pronostici sulle prestazioni, ma pochi sul costo di produzione di questa VGA e sul fatto che Nvidia non è mai stata "splendida" relativamente ai prezzi...
Perché è bene non farne dato che non si sa nemmeno quando usciranno. Niente specifiche eccetto i 512sp per la 380, niente prestazioni in quanto non si sanno le frequenze. Il prezzo è un problema secondario in quanto per schede del genere stai certo che per gente che spende 500 euro per una scheda video non sono un problema i 100 euro in più.
Il problema è pure quello delle rese e direi che erano confermate le voci in merito che riportavano stime alquanto ''irrisorie'' (2-7%). E dalle rese si ricava in parte il prezzo. Se una ipotetica 360 dovesse andare come la 5870 o poco meno costando parecchio di più (perché state certi che ati abbassera notevolmente i prezzi di acquisto delle 58xx) quest'ultimo scenario sarebbe molto problematico, specialmente alla luce del fatto che queste nuove schede dx11 nvidia devono conquistare il primato per forza di cose, per la sopravvivenza di nvidia nel mercato high end in uno scenario di media durata ; semplicemente perché tempo che nvidia arriva a produrre in volumi le 360 è capace che ati stà già mettendo a punto o a buon punto la tecnologia a 32nm (maggio-luglio ?).
Voglio dire, un ritardo di 6 mesi in questo campo è drammatico, è come dichiarare guerra 2 settimane dopo e non difendersi nel frattempo. L'adagiarsi sugli allori dopo l'uscita della HD3870 è stato un grandissimo errore, anche se comunque la strada era quella ed avrebbero dovuto cambiare modalità nel lungo termine (die size dell'ottima 8800GTX). In termini di potenza di calcolo era notevole, specialmente con drivers ad hoc, ma in termini di costi di produzione ... Qui ati ha imparato la lezione dopo la deludente 2900xt, si è resa conto del die size troppo grande ed infatti cos'è stata la 3870 ? Potenza di calcolo equivalente, die size, consumi e temperatura minore ;) .
Personalmente mi sarei aspettato che almeno la 5870 fosse grossomodo uguale alla 4870x2 in termini prestazionali ed invece non è così, peròtutto sommato il difetto viene bilanciato dal resto ( features, consumi, temperatura, overclock, eyefinity, etc, etc ). Bisogna vedere di quanto questa 380 riuscirà a spodestare la 5870 in quanto si evince dal pcb di quest'ultima che faranno la 5890 con frequenze pompate. Sicuramente la 380 sarà sotto la 5970 in termini prestazionali ma siamo proprio sicuri che nvidia riuscirà a mettere in un pcb due 360 , tipo GTX295 che aveva due 275 ? Ricordiamoci il progetto ''GTX295 MARS'', che andava in temperatura dopo nemmeno un quarto d'ora causando reset della macchina ed abbassamento delle frequenze di lavoro. Per non parlare dei consumi, più di 300w per la comparte GPU ? Già la 5970 consuma molto sotto questo punto di vista (seppure sia bestiale in termini di performance), però andare oltre ... non so quanto possa essere fattibile. Potrebbero implementare il vapor chamber delle GTX295 gigabyte limited edition (2X285 su unico pcb aventi vapor chamber), certo è che devono trovare una soluzione appropriata.
Si,in casa ATI non sanno fare i driver multiGPU.Ecco in casa nvidia come fanno funzionare il quad :
http://www.tomshardware.com/reviews/geforce-gtx-295,2123-4.html
Le prestazioni raddoppiano se sai interpretare i bench.;)
Ma perchè continui a prendere quella recensione di quasi 1 anno fa dove tra l'altro usano una delle peggiori release di driver ATI e anche beta?
Cmq guarda un po' qui come va il tuo tanto amato quad sli: http://www.tomshardware.com/reviews/geforce-gtx-295,2123-6.html
voglio volutamente buttarla la' per provocare: visto che la tessellation dovrebbe avere lo stesso scopo (almeno cosi' mi pare di avere capito, correggetemi se sbaglio) del PhysX, e se usassero lo stesso concetto nel caso in cui fosse gestita tramite shader core? cioé: se metti una scheda dedicata hai gli stessi effetti di una GPU dedicata al physx. in questo caso si tratta di capire se le attuali schedozze G92 andrebbero bene a questo scopo...
La Tessellazione(?) non ha lo scopo del Physx.
aaasssdddfffggg
08-12-2009, 17:13
OK, a parte l'obiezione che ti era stata mossa anche da un altro utente circa la validità di quel gioco in qualità di bench, gioco che riporta il logo nVidia nelle schermate iniziali, io non ti ho chiesto se siano migliori i driver nVidia o ATI in multigpu, una mia opinione in merito ce l'ho già. Tu avevi affermato senza specificare nulla che i driver di una azienda erano migliori dell'altra, e siccome è una critica che leggo spesso rivolta ad ATI, ed avendo avuto schede ATi prevalentemente, senza problemi di sorta, mi chiedevo quali fossero i problemi, e quali benefici ( al di là di una presunta migliore scalabilità nel multigpu ) avrei potuto osservare ed ottenere comprando una scheda nVidia guidata dai suoi driver.
Ok,diamo per buona che CRYSIS è pro nvidia....via con gli altri bench in quad :
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/7
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/10
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/11
nvidia il quad lo sa far girare eccome.E tu hai il coraggio di dire che il multigpu di nvidia va da schifo come ati? Contento te...
scorpion73
08-12-2009, 17:14
Una VGA dx10 dedicata ale dx11 potrebbe proprio essere l'idea che mancava a Nvidia :D
(si scherza eh)
infatti era una provocazione :D , però scherzando scherzando chi ti dice che nvidia, memore dell'esperienza physx non abbia fatto sta pensata?
ovviamente prendendo una versione ridotta di fermi, tipo 9600GT per capirci...
Adone_1985
08-12-2009, 17:15
be considera che quei frames li fa con i dettagli dx11..quindi non è a parità di impostazioni con le altre schede che vanno in dx9 con Dirt 2.... cmq in dx9 faccio questo risultato: http://www.hwupgrade.it/forum/showpost.php?p=29929399&postcount=12
beh ma penso che tu abbia comprato la 5870 per giocare in DX11 no in DX9 o 10...poi la 5870 a quanto ho visto dai benck in DX9...full hd AA 4x...fps max 72..min64
La GTX285..stessi settaggi FPS max60...min 51...mi sembra poca differenza...
scorpion73
08-12-2009, 17:16
scusa ma allora com'è che nelle recensioni la danno vicina alla gtx295 per prestazioni
se è così non è manco l'ombra della 295...
poi la 5870 a quanto ho visto dai benck in DX9...full hd AA 4x...fps max 72..min64
La GTX285..stessi settaggi FPS max60...min 51...mi sembra poca differenza...Si, è una differenza "solo" del 20%...
voglio volutamente buttarla la' per provocare: visto che la tessellation dovrebbe avere lo stesso scopo (almeno cosi' mi pare di avere capito, correggetemi se sbaglio) del PhysX, e se usassero lo stesso concetto nel caso in cui fosse gestita tramite shader core? cioé: se metti una scheda dedicata hai gli stessi effetti di una GPU dedicata al physx. in questo caso si tratta di capire se le attuali schedozze G92 andrebbero bene a questo scopo...
Tessellation è una feature delle DX11, non è come PhysX... quindi ciò che hai detto IMHO è impossibile.
Adone_1985
08-12-2009, 17:18
voglio volutamente buttarla la' per provocare: visto che la tessellation dovrebbe avere lo stesso scopo (almeno cosi' mi pare di avere capito, correggetemi se sbaglio) del PhysX, e se usassero lo stesso concetto nel caso in cui fosse gestita tramite shader core? cioé: se metti una scheda dedicata hai gli stessi effetti di una GPU dedicata al physx. in questo caso si tratta di capire se le attuali schedozze G92 andrebbero bene a questo scopo...
Penso che la tessellation non centra nulla col PhysX...ti stai sbagliando..
aaasssdddfffggg
08-12-2009, 17:20
Tessellation è una feature delle DX11, non è come PhysX... quindi ciò che hai detto IMHO è impossibile.
Sono 2 cose completamente diverse.
La Tesselation permette di creare live, cioè mentre le immagini sullo schermo si stanno muovendo, un altissima densità di poligoni in più rispetto al modello originale disegnato dai programmatori del videogioco. Il vantaggio si capisce in fretta: il computer deve passare alla scheda grafica un numero di dati inferiore, per via del numero ristretto di poligoni che verranno poi “ampliati” al momento, dall’hardware della scheda video.
Il PhysX nvidia non fa altro che accellerare e sgravare il carico di lavoro dalla cpu tutti quei calcoli fisici che avvengono nel gioco.
scorpion73
08-12-2009, 17:21
scusate la mia ignoranza, però in tutte le demo che ho visto serviva a rendere più dettagliato lo scenario e a migliorare la resa dell'acqua (schizzi), del vento (bandiere che si muovono) ecc. che mi sembravano tutte cose in capo al physx attualmente.
che poi uno gestisca la fisica ed uno il dettaglio grafico ok, ma se alla fine cercano di raggiungere il medesimo scopo allora, ho pensato, servono alla stessa cosa.
Se cosi' non è però chiedo umilmente venia e, anzi, se qualcuno ha conoscenze tecniche per dissipare questa mia interpretazione e fare chiarezza, gliene sarei grato :)
scusate la mia ignoranza, però in tutte le demo che ho visto serviva a rendere più dettagliato lo scenario e a migliorare la resa dell'acqua (schizzi), del vento (bandiere che si muovono) ecc. che mi sembravano tutte cose in capo al physx attualmente.
che poi uno gestisca la fisica ed uno il dettaglio grafico ok, ma se alla fine cercano di raggiungere il medesimo scopo allora, ho pensato, servono alla stessa cosa.
Se cosi' non è però chiedo umilmente venia e, anzi, se qualcuno ha conoscenze tecniche per dissipare questa mia interpretazione e fare chiarezza, gliene sarei grato :)
Leggi il post sopra al tuo :D
scorpion73
08-12-2009, 17:24
Leggi il post sopra al tuo :D
si ho letto, è che quando stavo scrivendo quel post ancora non c'era :D
Grazie cmq a nemesis per avere chiarito ;)
Ok,diamo per buona che CRYSIS è pro nvidia....via con gli altri bench in quad :
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/7
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/10
http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/11
nvidia il quad lo sa far girare eccome.E tu hai il coraggio di dire che il multigpu di nvidia va da schifo come ati? Contento te...
Non sono un bugiardo, ho detto che "vidi", al massimo posso non essere molto aggiornato ed informato, inoltre come ti sto dicendo da un pò, non mi interessa sapere come vanno le schede in multigpu. Ti ho fatto delle domande precise per avere delle informazioni, ma sembra tu ti sia fissato su di un argomento. Concludo qui, cercherò nel web, pur essedo un thread aspettando siamo un pò troppo OT.
Ciao.
aaasssdddfffggg
08-12-2009, 17:26
Non sono un bugiardo, ho detto che "vidi", al massimo posso non essere molto aggiornato ed informato, inoltre come ti sto dicendo da un pò, non mi interessa sapere come vanno le schede in multigpu. Ti ho fatto delle domande precise per avere delle informazioni, ma sembra tu ti sia fissato su di un argomento. Concludo qui, cercherò nel web, pur essedo un thread aspettando siamo un pò troppo OT.
Ciao.
Ma non devo aggiungere nient'altro...in quei bench ce la risposta limpida chiara e immediata.;)
Severnaya
08-12-2009, 17:34
http://3dvision-blog.com/wp-content/uploads/2009/12/nvidia-gf100-sli-s3d-690x517.jpg
Take a look of this picture of Tom Petersen, Director of Technical Marketing at NVIDIA, proudly showing off his new Maingear Shift PC, equipped with two, yes two GF100 “Fermi” video cards! Also notice that the monitor the PC is connected to is a 3D Vision-compatible 120Hz LCD – the Samsung 2233Rz, so this system probably makes a hell of a perfect PC fro playing games in Stereoscopic 3D mode. On a side note, this is another picture coming from Nvidia that is showing off the new GF100 Fermi architecture based GeForce video cards of the company in action. This means that the company should already have more than just a few working samples, but still no word on when to expect them to hit the market and everyone is eagerly awaiting their arrival…
http://3dvision-blog.com/nvidia-is-teasing-us-again-with-gf100-fermi-in-sli-and-3d-vision/
Foto in alta risoluzione:
http://news.softpedia.com/images/news2/Fermi-Based-GeForce-100-Pictured-In-SLI-Setup-2.jpg
perché sulla lavagnetta dietro c'è scritto 08/19/08???
sarà mica una foto del 2008 :asd:
Ma non devo aggiungere nient'altro...in quei bench ce la risposta limpida chiara e immediata.;)
Con gli ultimi driver non è più così, un utente nel thread della 4870X2 ha fatto un bench con 2 4870X2 in crossfire e le prestazioni sono raddoppiate, il gioco dovrebbe essere resident evil 5 se non ricordo male...
aaasssdddfffggg
08-12-2009, 17:51
Con gli ultimi driver non è più così, un utente nel thread della 4870X2 ha fatto un bench con 2 4870X2 in crossfire e le prestazioni sono raddoppiate, il gioco dovrebbe essere resident evil 5 se non ricordo male...
...e allora lo vedi che mi dai ragione? ATI è riuscita a far funzionare il quad di 2 4870x2 solo quando è uscita la sua nuova generazione di schede video?Quindi fino ad adesso non ci aveva raccapezzato nulla.Mi lascia pensare questo...:)
Vediamo come se la caverà con la 5970.Dai primi bench il quad va meno o giù di lì della singola 5970.Seguirò con attenzione gli sviluppi.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.