Entra

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

Capozz
05-10-2009, 11:55
Vabbè ragazzi, can che abbaia non morde.
Nvidia ultimamente sta abbaiando molto con proclami e roba varia su cuda e gpu computing ma, all'atto pratico, non hanno niente in mano, manco un sample delle loro schede.

Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.

Questa poi è una cavolata senza senso :sbonk:

ilratman
05-10-2009, 11:56
la cosa non ha molto senso, anzi non ne ha affatto. Cosa dovrebbe nascondere visto che le scelte architetturali di AMD sono del tutto differenti da quelle di nVidia e, di conseguenza, lo è anche il layout del pcb (la cui parte posteriore sarebbe l'unica cosa visibile, tra l'altro)?
Se fermi fosse un pordotto reale, avrebbero potuto far vedere la demo, aprire il pc e tirare fuori la vga che la aveva fatta girare; invece si sono limitati a dire che si trattava di una demo dx11 (bisognerebbe creder loro sulla fiducia?) e che è stato fermi a farla girare (sempre sulla fiducia), invece, magari, di una 295 GTX o, perggio, di una 5870

LOL

super bastard inside! :asd:

Aenil
05-10-2009, 12:10
Certo che siete proprio cattivelli :D

michelgaetano
05-10-2009, 12:13
Certo che siete proprio cattivelli :D

Realisti, grazie. :D

leoneazzurro
05-10-2009, 12:15
Ehm. Ma se Nvidia ha detto praticamente tutto sull'architettura durante la presentazione, cosa importa ad ATi dei dettagli realizzativi del PCB (che poi si sa già che GF100 avrà il bus a 384 bit)? L'unica cosa che potrebbe interessare ad ATI è quanto vantaggio abbia in termini di dimensioni del chip, cosa che non si può determinare dal PCB, e del resto ci sono in giro le foto del package del chip stesso che sarebbero molto più adatte a questo proposito.

michelgaetano
05-10-2009, 12:20
Ehm. Ma se Nvidia ha detto praticamente tutto sull'architettura durante la presentazione, cosa importa ad ATi dei dettagli realizzativi del PCB (che poi si sa già che GF100 avrà il bus a 384 bit)? L'unica cosa che potrebbe interessare ad ATI è quanto vantaggio abbia in termini di dimensioni del chip, cosa che non si può determinare dal PCB, e del resto ci sono in giro le foto del package del chip stesso che sarebbero molto più adatte a questo proposito.

Appunto. :stordita:

Aenil
05-10-2009, 12:24
sì era per dire, però ultimamente ci stanno abituando troppo bene :D

NVIDIA a questo giro è in ritardo tanto quanto prima lo è stata ATI.. Fermi tutto sommato è una gran bella Architettura, sopratutto per il fatto che con un unico chip sono riusciti a coprire più utenze. Ormai i Videogame non sono l'unico motivo per le GPU di esistere e volenti o nolenti con l'arrivo delle console nextgen questa cosa si fa ancora più sentire. Ormai le performance non sono l'unica cosa importante, abbiamo raggiunti fps ormai quasi sempre sovrabbondanti, quindi è logico spostarsi in altre direzioni.

PS: finchè non mi pagano per esserlo, non sono fanboy nvidia o ati :)

halduemilauno
05-10-2009, 12:28
ultime news...
http://www.generation-nt.com/nvidia-gpu-gt300-fermi-directx11-actualite-882201.html
;)

Severnaya
05-10-2009, 12:37
ma cosa c'è di nuovo? :mbe:

michelgaetano
05-10-2009, 12:38
ma cosa c'è di nuovo? :mbe:

Mi chiedevo lo stesso :stordita:

allanon60
05-10-2009, 12:40
ultime news...
http://www.generation-nt.com/nvidia-gpu-gt300-fermi-directx11-actualite-882201.html
;)

nulla di piu che non sapevamo gia' anzi, forse .

Efic
05-10-2009, 13:15
http://www.youtube.com/watch?v=FR45ja_fNzU

:ciapet: :ciapet:

DVD2005
05-10-2009, 13:18
http://www.youtube.com/watch?v=FR45ja_fNzU

:ciapet: :ciapet:

certo che questo video lo hanno utilizzato veramente per una infinità di situazioni........

Capozz
05-10-2009, 13:26
http://www.youtube.com/watch?v=FR45ja_fNzU

:ciapet: :ciapet:

sta scena ha fatto la storia :sbonk:

freedom07
05-10-2009, 13:38
http://www.youtube.com/watch?v=FR45ja_fNzU

:ciapet: :ciapet:

:asd: :asd: :asd: molto simpatica come parodia ..

appleroof
05-10-2009, 13:45
cut
Risparmiati la sottile ironia. Non sono presuntuoso a tal punto, ho solo riportato quanto scritto su AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=3651&p=2).
cut

non hai capito, non era assolutamente rivolto a te... :)

un 10-20% in piu' della gtx295 in che ambito dx10 o dx11? perchè già con le dx11 la ati va un 30% in piu' rispetto alle dx10 senza contare il fatto che vada malissimo in dx9 rispetto alle dx10, vedi bench con 3d mark 06 rispetto al vantage, cosa mi fa pensare sta cosa: la nuova nata ati è piu' ottimizzata per i nuovi giochi rispetto ai vecchi, ovviamente la gtx295 non ha piu' senso in quanto non si possono far raffronti :)

azz...sono 2 le cose: o sono già usciti giochi dx11 che ignoravo, oppure davvero le stime le fà chiunque, basta svegliarsi e buttarla lì :stordita:

cmq vedo un certo compiacimento per non dire godimento a dipingere la situazione di Nvidia attuale come disastrosa ecc ecc...proprio da parte degli stessi che invocano la concorrenza come unica cosa utile a noi stessi consumatori (giustamente, ma non si invoca solo per motivi di tifo, si invoca sempre...:) ), senza rendersi conto che se Nvidia è nella c....a a rimetterci siamo al solito noi, vedi prezzamento delle nuove schede Ati (mi pare che addirittura per la 5870x2 si vociferavano più di 600 euro al lancio). :boh:

The_SaN
05-10-2009, 14:03
si, van molto meglio però vi mostriamo una scheda fake.. :confused: :confused:La veritá (stando ai fatti, purtroppo) é che di Fermi non c'é ancora niente.
NVidia ha solo un Ferma (carte) e Fuad cerca di far sembrare la cosa "una mossa strategica".

E mi dispiace molto, avrei voluto una guerra dei prezzi accanita fin dall' inizio.
la cosa non ha molto senso, anzi non ne ha affatto. Cosa dovrebbe nascondere visto che le scelte architetturali di AMD sono del tutto differenti da quelle di nVidia e, di conseguenza, lo è anche il layout del pcb (la cui parte posteriore sarebbe l'unica cosa visibile, tra l'altro)?
Se fermi fosse un pordotto reale, avrebbero potuto far vedere la demo, aprire il pc e tirare fuori la vga che la aveva fatta girare; invece si sono limitati a dire che si trattava di una demo dx11 (bisognerebbe creder loro sulla fiducia?) e che è stato fermi a farla girare (sempre sulla fiducia), invece, magari, di una 295 GTX o, peggio, di una 5870Azz :asd:

appleroof
05-10-2009, 14:14
Il vociferare lasciamolo perdere.

Una HD5870 costa circa 300€, che per una VGA che frantuma una GTX285 è un prezzo ottimo. E questo nonostante la mancanza di concorrenza.

cos'è, continuamente dietro ai rumors ma poi quando non conviene "il vociferare lasiamolo perdere"? :asd: :asd:

A parte poi che i prezzi "vociferati" per le altre due 58x0 si sono rivelati giusti, quanto al prezzo di lancio della 5870 ( a parte che il meno che trovo è 330€ -vabbè, ma sicuramente per te in questo caso 30 euri saranno un'inezia, salvo poi ridiventare determinantissimi a situazione rovesciata...:D- http://www.trovaprezzi.it/prezzo_schede-grafiche_ati_5870.aspx ) è probabilmente frutto di un bilanciamento tra costo di produzione più alto di rv770, normale voglia di guadagnare il più possibile in assenza di concorrenza, ma sopratutto credo permanere di necessità (intesa come strategia, ormai) di conquistare sempre più quota di mercato, cosa che sai essere importantissima sotto diversi aspetti

poi se vogliamo continuare a dire che Ati è babbo natale e Nvidia è cattivona, allora diciamocelo subito perchè credo a quel punto non ci siano margini di discussione :)

cmq se una 5870 al lancio viene 330 euro, è altamente probabile che il "vociferato" prezzo della X2 sarà quello

cut
La cosa estremamente preoccupante è che nVidia sta guardando ad un mercato che non esiste mentre tiene come ripiego il suo core business, perdendo competitività nello stesso a vista d'occhio.

E' dal lancio di G92 che la strategia aziendale di nVidia è un enigma per tutti, fra prodotti pensati più per per il GPU Computing (un mercato che non esiste) che per il gaming (dove ha sempre fatto i soldi) al prezzo di costi di produzione enormi e margini risicati sul mercato di massa, e rebrands infiniti che all'inizio dovevano essere una pezza al disastro strategico che fu G92 (era pensato per andare molto meno, di qui 8800GT, ma poi la 3870 andava troppo e dovettero upspeccarlo tardivamente) ma su cui poi hanno ricamato all'infinito (tant'è che lo stesso chip ha fatto tre serie, 8, 9 e 200).

Spero, anche se ho i miei dubbi, che Intel sia in grado nei prossimi 5 anni di entrare competitivamente nel mercato GPU, altrimenti sarà dura...

questa non l'ho capita...sbaglio o la 8800gt andava molto meglio della 3870? :what:

per il resto, io vedo un errore nella scelta di fondo di g80 (scelta che li ha legati al chippone) e adesso è la cosa che li mette in difficoltà nella ricerca sfrenata di pp più convenienti: credo che da lì è nata la confusione del rinominare g92, non riuscivano ad avere un chip basato su gt200 da piazzare nella fascia media e bassa ecc ecc

adesso da questo punto di vista deve risalire la china, ma da qui a dire che è spacciata, lo ripeto, mi pare un'esagerazione (o il sogno perverso di qualche fanboy rosso :D)

The_SaN
05-10-2009, 14:23
questa non l'ho capita...sbaglio o la 8800gt andava molto meglio della 3870? :what:La 8800gt DOVEVA andare meglio, perché aveva un MSRP di circa il 20% piú alto.
Ma nelle specifiche iniziali (a quanto sembra) aveva prestazioni vicine alla 3870, che si é rivelata una scheda potente in relazione al prezzo.
Quindi nVidia é subito corsa ai ripari aumentando le sue spec. e finendo per cannibalizzare le GTS.

Peró si sono dimenticati di migliorare il dissipatore, infatti le temperature erano altissime e il numero di schede in RMA (superiore di molto alla media) non mente...
Con la seconda revision hanno risolto, ma quelli della prima revision sono chiari segni di un prodotto modificato in tempi record.
adesso da questo punto di vista deve risalire la china, ma da qui a dire che è spacciata, lo ripeto, mi pare un'esagerazione (o il sogno perverso di qualche fanboy rosso :D)NVidia é una gigante, quindi nel breve periodo parlare di "spacciata" é fin troppo azzardato.
Se neanche AMD é fallita...

ilratman
05-10-2009, 14:28
La 8800gt DOVEVA andare meglio, perché aveva un MSRP di circa il 20% piú alto.
Ma nelle specifiche iniziali (a quanto sembra) aveva prestazioni vicine alla 3870, che si é rivelata una scheda potente in relazione al prezzo.
Quindi nVidia é subito corsa ai ripari aumentando le sue spec. e finendo per cannibalizzare le GTS.

Peró si sono dimenticati di migliorare il dissipatore, infatti le temperature erano altissime e il numero di schede in RMA (superiore di molto alla media) non mente...
Con la seconda revision hanno risolto, ma quelli della prima revision sono chiari segni di un prodotto modificato in tempi record.
NVidia é una gigante, quindi nel breve periodo parlare di "spacciata" é fin troppo azzardato.
Se neanche AMD é fallita...

in realtà la prima revision essiteva in due esemplari, le liscie con i problemi del dissi rev1 e le oc con già il dissi rev2, la mia 8800gt amp era una rev1 ma con il dissi rev2 e non di sicuro una di quelle rimaneggiate perchè l'ho presa esattamente il giorno dell'uscita!

mi ricordo ancora che nel thread della 8800gt tutti a dirmi che cavolo prendi la amp che poi anche le altre le overclocchi, e io a dirgli che il dissi era migliore ma ovviamente senza successo!

in pratica nella seconda release hanno messo il dissi della amp su tutte!

cmq la 8800gt@700MHz e 2000 di memoria va ancora alla grande e come prestazioni è quasi ancora come una 9800gtx o gts250 o 4850!

michelgaetano
05-10-2009, 14:31
poi se vogliamo continuare a dire che Ati è babbo natale e Nvidia è cattivona, allora diciamocelo subito perchè credo a quel punto non ci siano margini di discussione :)


Il buono o relativo è fin troppo relativo.

Ati non è babbo natale, non regala nulla, da quel che vedo. Può apparire "buona" magari perchè cerca un approccio alla fisica più open, ma questo solo perchè dall'altra parte c'è PhysX. O ancora, può apparire a molti "buona" perchè i suoi prezzi sono inferiori e le prestazioni sono invece appaiate; la realtà però è che quella è la strategia migliore da adottare contro un colosso che domina dal punto di vista delle prestazioni (l'avvicinarsi il più possibile, facendo pagare però di meno).

Lo stesso discorso vale per Nvidia, con la differenza (nella mia personale opinione, si intende) che mentre Ati non faccia nulla per essere babbo natale, e al tempo stesso nulla per danneggiare la controparte, a Santa Clara invece un po' di più si impegnano nella cosa. Ognuno ha la sua personale considerazione e quelle scritte qui alla fine sono solo inutili parole, ma "provvedimenti" come quelli che ci son stati per AC + DirectX 10.1, Batman + AA, GPU ATi + Scheda Nvidia per PhysX (e quei poverini che avevano comprato l'Ageia son rimasti fregati) non credo facciano piacere a molti (possessori o meno, forse ai fanboy sì).

appleroof
05-10-2009, 14:34
La 8800gt DOVEVA andare meglio, perché aveva un MSRP di circa il 20% piú alto.
Ma nelle specifiche iniziali (a quanto sembra) aveva prestazioni vicine alla 3870, che si é rivelata una scheda potente in relazione al prezzo.
Quindi nVidia é subito corsa ai ripari aumentando le sue spec. e finendo per cannibalizzare le GTS.

Peró si sono dimenticati di migliorare il dissipatore, infatti le temperature erano altissime e il numero di schede in RMA (superiore di molto alla media) non mente...
Con la seconda revision hanno risolto, ma quelli della prima revision sono chiari segni di un prodotto modificato in tempi record.

bù, non ricordo onestamente, ricordo che fu subito al lancio con 112sp ecc ecc http://www.hwupgrade.it/articoli/skvideo/1833/nvidia-geforce-8800-gt-potenza-a-buon-prezzo_index.html

forse mi sfuggono i rumors (a proposito :asd: ) precedenti al lancio, è pure passato del tempo...

NVidia é una gigante, quindi nel breve periodo parlare di "spacciata" é fin troppo azzardato.
Se neanche AMD é fallita...

esatto, è quello che sostengo; ricordo che vedevo Amd quasi spacciata dopo aver acquisito Ati sopravvalutandola e subito dopo addirittura un doppio flop, ossia R600 e Phenom...eppure si è ripresa (in parte, la divisione cpu purtroppo rincorre ancora) faticosamente, tramite i petroldollari e la pesante riorganizzazione aziendale (è vero pure che nel frattempo la divisione grafica ha cacciato fuori quel gioiellino di rv770...)

Io credo che Nvidia si trova in uno dei suoi periodi più neri, questo si, ma appunto ribadisco come te che prima di darla per spacciata (che poi per inciso a quel punto potrebbe diventare un bocconcino succulento per una certa Intel, con risvolti tutti da verificare poi per la stessa Amd ed in ultima analisi per noi, chi lo sà) aspetterei almeno un intero anno e anche qualcosa in più...

Errik89
05-10-2009, 14:37
http://www.youtube.com/watch?v=FR45ja_fNzU

:ciapet: :ciapet:
ma loooool!!! fa straridere!! :sofico: :sofico:

ilratman
05-10-2009, 14:38
bù, non ricordo onestamente, ricordo che fu subito al lancio con 112sp ecc ecc http://www.hwupgrade.it/articoli/skvideo/1833/nvidia-geforce-8800-gt-potenza-a-buon-prezzo_index.html

forse mi sfuggono i rumors (a proposito :asd: ) precedenti al lancio, è pure passato del tempo...





infatti nell'articolo c'è anche la mia amp che ho preso e si vede chiaramente la differenza del dissi, bocca più grande e maggiore grigliatura!

michelgaetano
05-10-2009, 14:38
che poi per inciso a quel punto potrebbe diventare un bocconcino succulento per una certa Intel,

Ho dubbi una cosa del genere sia davvero possibile, cioè a che servirebbero le antitrust poi? :stordita:

Cioè non stiamo parlando della prima compagnia da 4 soldi, è Nvidia...

michelgaetano
05-10-2009, 14:45
Il punto è che accadesse oggi non comprerebbe un concorrente, visto che fanno cose diverse, in futuro chissà...

Sono ignorante in materia ma... davvero Nvidia non è un concorrente?

Cioè Larrabee non dovrebbe in qualche modo avvicinare Intel al segmento? Voglio dire, ci vogliono davvero le fette (fettone) di prosciutto sugli occhi per consentire una azione del genere... Poi volendo fanno entrambe mobo :stordita:

appleroof
05-10-2009, 14:49
Ti rendi benissimo conto che una discussione in questi termini non ha senso. Si vocifera che G300 costerà 600€. Troppo, è una VGA che non servirà a niente. Contento?

per G330 si parla di 400$, per 5870x2 600$ il resto :boh:


Io al tuo link leggo 308,66 - ma sicuramente per te 22€ sono un inezia...

ma adesso pure i link sono soggettivi?? :eek: la prima viene 327,88 + s.s. ari :boh:


Va molto più di una GTX285 costando uguale. Cos'è che ti fa sembrare il prezzo troppo alto?

non ho detto che il prezzo è troppo alto, ho detto che -giustamente- non regala nulla, e non perchè è buona (e difatti quando andava d'amore e d'accordo con Nvidia tanto da fare cartello con essa sparava prezzi stratosferici per le sue vga top), ma perchè può e deve -intelligentemente secondo me- guadagnare sempre più quote di mercato, e credo che mai come in questo momento si trova nella posizione migliore per farlo

Il buono o relativo è fin troppo relativo.

Ati non è babbo natale, non regala nulla, da quel che vedo. Può apparire "buona" magari perchè cerca un approccio alla fisica più open, ma questo solo perchè dall'altra parte c'è PhysX. O ancora, può apparire a molti "buona" perchè i suoi prezzi sono inferiori e le prestazioni sono invece appaiate; la realtà però è che quella è la strategia migliore da adottare contro un colosso che domina dal punto di vista delle prestazioni (l'avvicinarsi il più possibile, facendo pagare però di meno).

ma vedi, difende opencl prima perchè probabilmente non ha nulla da invidiare a physx (è proprio il caso di dirlo :D ) poi perchè dimentichi che in casa producono pure cpu; per motivi speculari Nvidia spinge tanto su physx (che imho rimarrà un valore aggiunto fino a che le sue schede supportano tanto quello quanto opencl -e ricordo che offrì il supporto pure ad Ati che rifiutò)

quindi anche qui mere e fredde ragioni aziendali (e aggiungo ci mancherebbe altro), non ispirate da sentimenti di giustizia e libertà :asd:

Lo stesso discorso vale per Nvidia, con la differenza (nella mia personale opinione, si intende) che mentre Ati non faccia nulla per essere babbo natale, e al tempo stesso nulla per danneggiare la controparte, a Santa Clara invece un po' di più si impegnano nella cosa. Ognuno ha la sua personale considerazione e quelle scritte qui alla fine sono solo inutili parole, ma "provvedimenti" come quelli che ci son stati per AC + DirectX 10.1, Batman + AA, GPU ATi + Scheda Nvidia per PhysX (e quei poverini che avevano comprato l'Ageia son rimasti fregati) non credo facciano piacere a molti (possessori o meno, forse ai fanboy sì).

non è per danneggiare il concorrente, ma per favorire se stessa. E' cinico e ti renderà l'azienda antipatica, ma purtroppo è il duro mondo degli affari. Per chiarezza, neanche a me piacciono ste mosse, ma qui non si discute su chi è buono e cattivo, perchè parlando di aziende non esiste bontà o cattiveria, ma solo profitto a tutti i costi.

Errik89
05-10-2009, 14:52
Il buono o relativo è fin troppo relativo.

Ati non è babbo natale, non regala nulla, da quel che vedo. Può apparire "buona" magari perchè cerca un approccio alla fisica più open, ma questo solo perchè dall'altra parte c'è PhysX. O ancora, può apparire a molti "buona" perchè i suoi prezzi sono inferiori e le prestazioni sono invece appaiate; la realtà però è che quella è la strategia migliore da adottare contro un colosso che domina dal punto di vista delle prestazioni (l'avvicinarsi il più possibile, facendo pagare però di meno).

Lo stesso discorso vale per Nvidia, con la differenza (nella mia personale opinione, si intende) che mentre Ati non faccia nulla per essere babbo natale, e al tempo stesso nulla per danneggiare la controparte, a Santa Clara invece un po' di più si impegnano nella cosa. Ognuno ha la sua personale considerazione e quelle scritte qui alla fine sono solo inutili parole, ma "provvedimenti" come quelli che ci son stati per AC + DirectX 10.1, Batman + AA, GPU ATi + Scheda Nvidia per PhysX (e quei poverini che avevano comprato l'Ageia son rimasti fregati) non credo facciano piacere a molti (possessori o meno, forse ai fanboy sì).
quoto il tuo discorso.

@appleroof: a parte che la 5870x2 sono 600$ e non 600€, comunque la 5870 sono 300€ (costa adesso di più perchè è appena uscita) e il prezzo è ottimo se consideri che l'anno scorso nvidia con una scheda che in % andava solo un po' più veloce della top di gamma precedente fece pagare ben 200€ in più (gtx280 a 500€ all'uscita) salvo dopo 2 settimane a trovarsi a dover tagliare i prezzi perchè ATI con RV770 era molto più concorrenziale e quei poveri cristi che la pagarono 500€ all'uscita se la trovarono svalutata di più di 150€ 1 mese dopo l'acquisto :rolleyes: :rolleyes:
Comunque io dico apertamente che preferisco ATI ad nvidia, non per puro fanboysmo (tant'è che se una scheda ATI fa schifo lo dico come feci con r600), ma proprio per le politiche aziendali che nvidia ha nel tentare di ostacolare a tutti i costi la concorrenza!! È una cosa scandalosa e spero che i fanboy nvidia si rendano conto di questo invece di continuare ad andare a sparlare dei catalyst in giro per i thread.. ;)

Cmq tornando IT, è PALESE che nvidia non abbia una FERMI pronta da mostrare al pubblico, ed è palese che il tech demo mostrato non girava su fermi, o era registrato oppure girava su un'altra vga (come dice yoss probabilmente proprio su una HD5870 :Prrr: :Prrr: )

Andrea deluxe
05-10-2009, 14:55
(come dice yoss probabilmente proprio su una HD5870 :Prrr: :Prrr: )

o ma che pensate che nvidia sia uguale a gino il pollaio?

vi pare che una azienda cosi grossa abbia difficolta' ad avere almeno una gpu funzionante (almeno 1 oltre le fake board).......????


non esageriamo.....

ilratman
05-10-2009, 14:56
Sono ignorante in materia ma... davvero Nvidia non è un concorrente?

Cioè Larrabee non dovrebbe in qualche modo avvicinare Intel al segmento? Voglio dire, ci vogliono davvero le fette (fettone) di prosciutto sugli occhi per consentire una azione del genere... Poi volendo fanno entrambe mobo :stordita:
larabee non sarà un concorrente come gaming, non all'inizio almeno ma essendo larabee basata su x86 sarà di sicuro un concorrente cone gpu computing.

pensa che figata se essendo basata su x86 mettesse a disposizione 80 core x86 per rendering o editing video, os permettendo ovviamente perchè x64 gestisca per ora solo 64core e non so w7 64 se li supera.

oppure potrebbe tramite driver fare il famoso reverse-hyperthreading e far vedere la scheda come un solo x86 che nons arebbe per nulla male, compri una larabee e hai una cpu super!

Legolas84
05-10-2009, 15:09
Certi commenti sono sulla soglia del ridicolo... una volta i fanboy non duravano un secondo in questa sezione.... :asd:

E lo dico da futuro possessore di Radeon HD 5850 (ordinata ieri insieme al resto del PC in sign)....

Errik89
05-10-2009, 15:14
o ma che pensate che nvidia sia uguale a gino il pollaio?

vi pare che una azienda cosi grossa abbia difficolta' ad avere almeno una gpu funzionante (almeno 1 oltre le fake board).......????


non esageriamo.....
se ne ha uno ne può avere anche 2, di cui uno da mostrare, quindi considerando l'accaduto IMHO non ne ha nemmeno uno. Quella presentazione di fermi è stata fatta solo per togliere l'attenzione a RV870 e per tranquillizzare gli azionisti, IMHO.

Poi datemi pure del fanboy, però IMHO lo sono molto meno di chi non vuole ammettere che nvidia non ha una fermi pronta da mostrare.

Capozz
05-10-2009, 15:17
o ma che pensate che nvidia sia uguale a gino il pollaio?

vi pare che una azienda cosi grossa abbia difficolta' ad avere almeno una gpu funzionante (almeno 1 oltre le fake board).......????


non esageriamo.....

Questo non lo so, però converrai che se alla presentazione di un nuovo chip devono ridursi a far vedere una scheda farlocca qualche problema ce l'hanno, e neanche piccolo.
Spero che non sia così per un discorso di concorrenza e prezzi, però considerando la situazione ed il fatto che continuino ad insistere continuamente sul GPGPU, tralasciando totalmente il discorso gaming e video in generale, (che è quello grazie a cui campano del resto) è un fatto molto strano, il rischio flop stile NV30 è molto alto.

Andrea deluxe
05-10-2009, 15:17
se ne ha uno ne può avere anche 2, di cui uno da mostrare, quindi considerando l'accaduto IMHO non ne ha nemmeno uno. Quella presentazione di fermi è stata fatta solo per togliere l'attenzione a RV870 e per tranquillizzare gli azionisti, IMHO.

Poi datemi pure del fanboy, però IMHO lo sono molto meno di chi non vuole ammettere che nvidia non ha una fermi pronta da mostrare.

magari avevano un fermi non esteticamente uguale alla sk che verra' presentata.....

allora si son fatti fare un accrocchio semi definitivo per farlo vedere alla presentazione....

Capozz
05-10-2009, 15:21
magari avevano un fermi non esteticamente uguale alla sk che verra' presentata.....

allora si son fatti fare un accrocchio semi definitivo per farlo vedere alla presentazione....

No, hanno detto chiaro e tondo che sotto l'accrocco non c'era fermi.

http://www.tomshw.it/news.php?newsid=19598

Il chip Fermi non era presente sul prototipo che è stato mostrato alla conferenza

Andrea deluxe
05-10-2009, 15:21
Questo non lo so, però converrai che se alla presentazione di un nuovo chip devono ridursi a far vedere una scheda farlocca qualche problema ce l'hanno, e neanche piccolo.
Spero che non sia così per un discorso di concorrenza e prezzi, però considerando la situazione ed il fatto che continuino ad insistere continuamente sul GPGPU, tralasciando totalmente il discorso gaming e video in generale, (che è quello grazie a cui campano del resto) è un fatto molto strano, il rischio flop stile NV30 è molto alto.

ba.... io credo che questa sara' una generazione di sk con 2 lanci distinti.....

1) per i professionisti assetati di teraflop (che si sentono ridicolizzati se assistono ad una presentazione di tipo videoludico)

2) per i giocatori (che hanno una eta' variabile e che possono vedere anche hello kitty in dx11 senza offendersi)

Andrea deluxe
05-10-2009, 15:23
No, hanno detto chiaro e tondo che sotto l'accrocco non c'era fermi.

http://www.tomshw.it/news.php?newsid=19598

hai frainteso.


ho detto che probabilmente hanno le loro sk dx11 con la quale stanno scrivendo driver etc, ma magari non hanno la forma (quindi sk molto grande e con correzzioni sul pcb tipiche da sample) e quindi hanno preferito mostrare la sk come vorrebbero che sia.....

si capisce?

mirmeleon
05-10-2009, 15:27
Non ho ben capito se questo thread sia diventato un luogo di campagna pubblicitaria pro ATI oppure se in esso si debba parlare solo dei prossimi arrivi in casa nVidia!
Ma scusate chi vuol parlare di ATI 5XX0 vada nei opportuni thread no???

:mad: :mad:

appleroof
05-10-2009, 15:32
cut

http://img142.imageshack.us/img142/825/orly.png (http://img142.imageshack.us/i/orly.png/)

Se vuoi te la trovo anche a meno...

giuro che a me la prima che dava disponibile era quella a 330 euro, che dici? :boh:


Le aziende non regalano.cut

credo che il punto finalmente l'hai detto. Il fatto che l'abbiano messa a un buon prezzo penso di averlo ampiamente argomentato (quote di mercato ecc), secondo la mia opinione, non so se sei d'accordo



hai frainteso.


ho detto che probabilmente hanno le loro sk dx11 con la quale stanno scrivendo driver etc, ma magari non hanno la forma (quindi sk molto grande e con correzzioni sul pcb tipiche da sample) e quindi hanno preferito mostrare la sk come vorrebbero che sia.....

si capisce?

secondo me si capiva benissimo già prima, bastava "saper leggere"....:asd:

sickofitall
05-10-2009, 15:38
Non ho ben capito se questo thread sia diventato un luogo di campagna pubblicitaria pro ATI oppure se in esso si debba parlare solo dei prossimi arrivi in casa nVidia!
Ma scusate chi vuol parlare di ATI 5XX0 vada nei opportuni thread no???

:mad: :mad:

che ci vuoi fare, a chi piace ati ora gongogla e deride la concorrenza, mentre noi poveri sbeffeggiati sappiamo il fatto nostro e non rispondiamo per non alimentare i flame :stordita:

si dovrebbe usare di più il tasto "segnala"


@ratatosk: inutile perdere tempo con photoshop, la prima scheda disponibile è a 335€:rolleyes:

mirmeleon
05-10-2009, 15:49
che ci vuoi fare, a chi piace ati ora gongogla e deride la concorrenza, mentre noi poveri sbeffeggiati sappiamo il fatto nostro e non rispondiamo per non alimentare i flame :stordita:

si dovrebbe usare di più il tasto "segnala"


@ratatosk: inutile perdere tempo con photoshop, la prima scheda disponibile è a 335€:rolleyes:

Difatti a me interessa avere info sulle prossime schede nVidia non sapere quanto sta a listino oggi la 5870!
Se voglio informarmi in tal senso vado su altri thread abbiate pazienza....
:mad: :mad:

Pike79
05-10-2009, 17:04
Difatti a me interessa avere info sulle prossime schede nVidia non sapere quanto sta a listino oggi la 5870!
Se voglio informarmi in tal senso vado su altri thread abbiate pazienza....
:mad: :mad:

335 pagine e 1 commento sensato....chissà se da adesso si ricomincerà a parlare di Nvidia.

FreeMan
05-10-2009, 17:10
Difatti a me interessa avere info sulle prossime schede nVidia non sapere quanto sta a listino oggi la 5870!
Se voglio informarmi in tal senso vado su altri thread abbiate pazienza....
:mad: :mad:

335 pagine e 1 commento sensato....chissà se da adesso si ricomincerà a parlare di Nvidia.

appunto, che si chiuda l'OT

>bYeZ<

halduemilauno
05-10-2009, 17:37
http://www.brightsideofnews.com/news/2009/10/5/gt300-demo-card-was-a-dummy3b-does-that-really-matter.aspx
;)

Sergio_Di_Rio
05-10-2009, 17:48
non hai capito, non era assolutamente rivolto a te... :)

Sorry. Devi ammettere, però, che la tua frase era altamente fraintendibile. :mano:


cmq vedo un certo compiacimento per non dire godimento a dipingere la situazione di Nvidia attuale come disastrosa ecc ecc...proprio da parte degli stessi che invocano la concorrenza come unica cosa utile a noi stessi consumatori (giustamente, ma non si invoca solo per motivi di tifo, si invoca sempre...:) ), senza rendersi conto che se Nvidia è nella c....a a rimetterci siamo al solito noi, vedi prezzamento delle nuove schede Ati (mi pare che addirittura per la 5870x2 si vociferavano più di 600 euro al lancio). :boh:

Concordo sul meccanismo perverso di godimento di alcuni utenti che rasenta il fanboysmo.

Sul costo delle ATi però non concordo, l'azienda sta adottando una politica dei prezzi molto aggressiva. Tenta di sfruttare a suo vantaggio il ritardo di nvidia per guadagnare una consistente fetta di mercato (penso che questo sia, al momento il loro obiettivo principale) ed i prezzi delle 5800 fanno veramente gola.

Sergio_Di_Rio
05-10-2009, 17:49
edit

Errik89
05-10-2009, 17:51
335 pagine e 1 commento sensato....chissà se da adesso si ricomincerà a parlare di Nvidia.
BEH a parte la parentesi di trovaprezzi (che cmq si trova 308€ x davvero), non mi pare che non abbiamo fatto altro che parlare di G300 nelle ultime pagine, visto che è da 3 giorni che si parla della FERMI tarocca mostrata dal CEO nvidia alla presentazione. D'altronde in un thread aspettando la scheda non si ha in mano quindi si parla di notizie sull'architettura

http://www.brightsideofnews.com/news...ly-matter.aspx

Un conto è mostrare schede non funzionanti ma vere come c'è scritto li che succede nel 90% dei casi e un conto è presentare una scheda patacca come la fermi che aveva in mano il CEO.
Che poi l'abbiano fatto per colpa di yields non bassi e che il chip è comunque pronto OK, ma a sto punto facevano prima a smontare quella che avevano nel pc e mostrarla. :read:

hotak
05-10-2009, 18:02
Questo non lo so, però converrai che se alla presentazione di un nuovo chip devono ridursi a far vedere una scheda farlocca qualche problema ce l'hanno, e neanche piccolo.
Spero che non sia così per un discorso di concorrenza e prezzi, però considerando la situazione ed il fatto che continuino ad insistere continuamente sul GPGPU, tralasciando totalmente il discorso gaming e video in generale, (che è quello grazie a cui campano del resto) è un fatto molto strano, il rischio flop stile NV30 è molto alto.

ma non può darsi semplicemente che sia vera la storia dei soli 7 chip funzionanti e non abbiano voluto sprecarne uno per metterlo nella scheda presentata?

Errik89
05-10-2009, 18:16
ma non può darsi semplicemente che sia vera la storia dei soli 7 chip funzionanti e non abbiano voluto sprecarne uno per metterlo nella scheda presentata?
beh se fosse vera non cambierebbe nulla, avere 7 chip funzionanti e averne 0 è identico.
Comunque mi dispiace, ma è palese che nvidia sta avendo grossi problemi di rese produttive. Spero che riescano a presentarla entro la fine dell'anno e che non debbano fare nuove revision sennò fa la fine di R600 che non esce + :(

Pike79
05-10-2009, 18:21
BEH a parte la parentesi di trovaprezzi (che cmq si trova 308€ x davvero), non mi pare che non abbiamo fatto altro che parlare di G300 nelle ultime pagine, visto che è da 3 giorni che si parla della FERMI tarocca mostrata dal CEO nvidia alla presentazione. D'altronde in un thread aspettando la scheda non si ha in mano quindi si parla di notizie sull'architettura

Appunto. La discussione si chiama "Aspettando le nuove Nvidia GTX", non "Dato che Nvidia è in ritardo sottolineiamo le sue pecche".
Giusta e, a suo modo, doverosa la segnalazione del baldacchino presentato ma, per come la vedo io, la polemica sul "Io prima di te" è eccessiva.
Sarebbe stato meglio se il lancio delle due schede fosse avvenuto in simultanea?
A noi cosa sarebbe cambiato?
Tanto in fin dei conti chi vuole una ATI comprerà una ATI, e chi vuole una Nvidia comprerà una Nvidia, indipendentemente dal fatto che una esca due mesi dopo l' altra.
Visto che alla fine i grossi produttori di vga sono solo due, penso che la vera "guerra" sia sulle prestazioni e sui diversi tipi di scenario che esse andranno ad occupare, non sulle tempistiche di presentazione.

ippo.g
05-10-2009, 18:24
Appunto. La discussione si chiama "Aspettando le nuove Nvidia GTX", non "Dato che Nvidia è in ritardo sottolineiamo le sue pecche".
Giusta e, a suo modo, doverosa la segnalazione del baldacchino presentato ma, per come la vedo io, la polemica sul "Io prima di te" è eccessiva.
Sarebbe stato meglio se il lancio delle due schede fosse avvenuto in simultanea?
A noi cosa sarebbe cambiato?
Tanto in fin dei conti chi vuole una ATI comprerà una ATI, e chi vuole una Nvidia comprerà una Nvidia, indipendentemente dal fatto che una esca due mesi dopo l' altra.
Visto che alla fine i grossi produttori di vga sono solo due, penso che la vera "guerra" sia sulle prestazioni e sui diversi tipi di scenario che esse andranno ad occupare, non sulle tempistiche di presentazione.

no, per la verità a me mi girano un po' las pelotas, perché mi toccherebbe montare una ATI DX11 su chipset NVIDIA ed a sto punto non mi fido :mbe:

Capozz
05-10-2009, 18:27
no, per la verità a me mi girano un po' las pelotas, perché mi toccherebbe montare una ATI DX11 su chipset NVIDIA ed a sto punto non mi fido :mbe:

Funziona alla perfezione, no problem.

ippo.g
05-10-2009, 18:32
E' evidente che non è prezzata aggressivamente per fare un piacere a noi. O meglio è per fare un piacere a noi ed in questo modo accaparrarci come clienti. Per questo dico che nel breve termine la mancanza di concorrenza, quando questo vuoto è da parte nVidia, che ha molta più quota di mercato, non è un male.

Le mie preoccupazioni sono sul futuro, con nVidia tutta concentrata sul GPGPU, che è un mercato strutturalmente di nicchia e che rimarrà tale e quindi chip che sono solo come ripiego per il mercato consumer. I rischi sono enormi, soprattutto per noi.

E questo lo dico solo perché non ho alcuna fiducia che Intel sia in grado di competere sul mercato VGA, qualora mi smentisse nVidia può anche morire subito :asd:

per la verità io odio i duopoli

jok3r87
05-10-2009, 18:37
ma non può darsi semplicemente che sia vera la storia dei soli 7 chip funzionanti e non abbiano voluto sprecarne uno per metterlo nella scheda presentata?

C'è una qualche logica per cui la scheda presentata debba poi essere "sprecata" ?
Fai la scheda, ti fai le foto, la fai vedere e poi a suo tempo la dai a qualche assemblatore del resto se la scheda funziona, funziona. Il fatto che sia usata per la presentazione in che modo ne inficerebbe il comportamento ?

Errik89
05-10-2009, 22:41
Appunto. La discussione si chiama "Aspettando le nuove Nvidia GTX", non "Dato che Nvidia è in ritardo sottolineiamo le sue pecche".
Giusta e, a suo modo, doverosa la segnalazione del baldacchino presentato ma, per come la vedo io, la polemica sul "Io prima di te" è eccessiva.
Sarebbe stato meglio se il lancio delle due schede fosse avvenuto in simultanea?
A noi cosa sarebbe cambiato?
Tanto in fin dei conti chi vuole una ATI comprerà una ATI, e chi vuole una Nvidia comprerà una Nvidia, indipendentemente dal fatto che una esca due mesi dopo l' altra.
Visto che alla fine i grossi produttori di vga sono solo due, penso che la vera "guerra" sia sulle prestazioni e sui diversi tipi di scenario che esse andranno ad occupare, non sulle tempistiche di presentazione.
Non sono d'accordo, molti di quelli che vogliono GT300 probabilmente passerebbero subito a RV870 se sapessero subito che GT300 ritarderà di molto, è per questo che nvidia ha fatto quella presentazione (del nulla, IMHO, visto che ancora una scheda non l'ha in mano!), per far vedere al pubblico che GT300 sta arrivando (si, ma quando??) e per mantenere alto l'hype tra i suoi potenziali clienti che così magari invece di comprare ATI aspettano veramente GT300. Come strategia di marketing è OTTIMA, nvidia sotto questo punto di vista è sempre stata eccellente, peccato che questa volta hanno fatto la pessima figura della vga tarocca.. ;)

E' evidente che non è prezzata aggressivamente per fare un piacere a noi. O meglio è per fare un piacere a noi ed in questo modo accaparrarci come clienti. Per questo dico che nel breve termine la mancanza di concorrenza, quando questo vuoto è da parte nVidia, che ha molta più quota di mercato, non è un male.

Le mie preoccupazioni sono sul futuro, con nVidia tutta concentrata sul GPGPU, che è un mercato strutturalmente di nicchia e che rimarrà tale e quindi chip che sono solo come ripiego per il mercato consumer. I rischi sono enormi, soprattutto per noi.

E questo lo dico solo perché non ho alcuna fiducia che Intel sia in grado di competere sul mercato VGA, qualora mi smentisse nVidia può anche morire subito :asd:
Beh anche se intel potrà competere nel mercato della grafica spero fortemente che nvidia rimanga come è ora, 3 is meglio che 2 :asd:

Assolutamente no. Nel momento in cui sei in grado di fare schede vuol dire che sei a buon punto e sei già alla fase degli ES. Loro invece sono in alto mare, non è che non hanno voluto sprecare un chip, semplicemente non ne hanno ancora di pronti e funzionanti, quindi le specifiche non sono finalizzate. Non avere le specifiche finalizzate significa non avere la aprte di alimentazione definita né la parte termica completa. Quindi non hanno fatto vedere una Tesla@G300 perché non sanno ancora nemmeno loro come sarà fatta.
quoto!!
Anche perchè come fatto notare da jok3r87 la scheda non sarebbe stata comunque "sprecata". E poi parliamoci chiaro, UNA (UNA, ripeto 1) scheda, anche nel caso di rese bassissime, influisce sul costo dell'intera produzione per una variabile x che tende a 0 :read: :D
Quindi l'unica spiegazione LOGICA del perchè non hanno mostrato la scheda è che semplicemente non l'hanno ancora pronta, che non vuol dire che non hanno chip GT300 pronti, ma che, come detto da Ratatosk molto probabilmente non sanno nemmeno loro come sarà il PCB di GT300.. :)


Secondo me nvidia ha dormito un po' sugli allori grazie al successone di G80 e ora la sta pagando. Per di più a causa di questo per supportare le DX11 ha dovuto riprogettare il chip da capo e probabilmente con GT300 ha fatto il passo più lungo della gamba (un po' come ATI per R600), questo è dimostrato anche dal fatto che per la prima volta nella sua storia nvidia per lanciare una GPU di punta ha usato un nuovo processo produttivo senza prima sperimentarlo su GPU di fascia inferiore come ha sempre fatto. A questo punto speriamo almeno che le performance di GT300 siano all'altezza sia dei costi di produzione che dell'attesa, altrimenti si rischia di ripetere il flop NV30 / R600 con tutte le conseguenze del caso (mercato stagnante per almeno un anno e mezzo).

Matalf
05-10-2009, 22:43
E questo lo dico solo perché non ho alcuna fiducia che Intel sia in grado di competere sul mercato VGA, qualora mi smentisse nVidia può anche morire subito :asd:

purtroppo le difficolta di nvidia sono preoccupanti e Intel, che per il momento sembra in StandBy nel megato GPU, sembra in attesa proprio di un R600 della casa verde.

Il duopolio sarebbe un problema ( conosciamo bene intel e non è certo famosa per la lealtà nel condurre gli affari)

per la verità io odio i duopoli

quoto




P.s: Cavolo certo che il cinesotto della presentazione, con sto sorrisino stampato, sembra prioprio pensare:
"dai che questi idioti ci cascano " :doh:

Errik89
05-10-2009, 22:47
purtroppo le difficolta di nvidia sono preoccupanti e Intel, che per il momento sembra in StandBy nel megato GPU, sembra in attesa proprio di un R600 della casa verde.

Il duopolio sarebbe un problema ( conosciamo bene intel e non è certo famosa per la lealtà nel condurre gli affari)



quoto




P.s: Cavolo certo che il cinesotto della presentazione, con sto sorrisino stampato, sembra prioprio pensare:
"dai che questi idioti ci cascano " :doh:
beh se è per quello siamo già abituati ad nvidia, purtroppo. :(

Matalf
05-10-2009, 22:53
beh se è per quello siamo già abituati ad nvidia, purtroppo. :(

appunto:asd:

2+2 fà 4 :sofico:

Albi80
06-10-2009, 00:18
Se mai Intel riuscisse ad entrare nel mercato delle schede video top di gamma , sarebbero rogne serie sia per nvidia che per ati . Tutti sappiamo la disponibilità economica e le capacità tecniche di intel .. Farebbero ottime schede ed andrebbero di tangenti con tutte le software house.. molto di più di quello che fa nvidia adesso . Quindi onestamente non me lo auguro ... Preferirei un miracoloso ritorno di matrox :sofico:

Sergio_Di_Rio
06-10-2009, 00:21
If all goes well

Nvidia's CEO first said that Fermi, GT300 product will launch on Tuesday and didn't want comment whether it can launch in 2009 or 2010. After a while we found out from chaps from top management that this new 40nm chip should launch in 2009.

After digging a bit more, we found out that you can expect to see Fermi officially in late November. This date can easily slip as the engineers work around the clock to make it happen. The first sample is out and Nvidia did show it to some important investors and analysts. Nvidia is adamant that the physics demo is real and not a fake thing.

ATI will enjoy availability and exclusivity on market as it has two month lead but we hope ATI can get more cards out and serve them to early DirectX 11 adopters. Nvidia also told us that GT300 was never really a codename but we don't really care as GT300 definitely sounds better than Fermi.

Despite the fact that this chap was in part responsible for the creation of the first atomic weapon, he doesn't really have what we would call a cool name. Frankly, Fermi just reminds us on an average brand for cereal, but don't worry Nvidia will replace this name with Geforce, Tesla and Quadro, when the time comes.

http://www.fudzilla.com/content/view/15812/1/

okorop
06-10-2009, 00:34
If all goes well

Nvidia's CEO first said that Fermi, GT300 product will launch on Tuesday and didn't want comment whether it can launch in 2009 or 2010. After a while we found out from chaps from top management that this new 40nm chip should launch in 2009.

After digging a bit more, we found out that you can expect to see Fermi officially in late November. This date can easily slip as the engineers work around the clock to make it happen. The first sample is out and Nvidia did show it to some important investors and analysts. Nvidia is adamant that the physics demo is real and not a fake thing.

ATI will enjoy availability and exclusivity on market as it has two month lead but we hope ATI can get more cards out and serve them to early DirectX 11 adopters. Nvidia also told us that GT300 was never really a codename but we don't really care as GT300 definitely sounds better than Fermi.

Despite the fact that this chap was in part responsible for the creation of the first atomic weapon, he doesn't really have what we would call a cool name. Frankly, Fermi just reminds us on an average brand for cereal, but don't worry Nvidia will replace this name with Geforce, Tesla and Quadro, when the time comes.

http://www.fudzilla.com/content/view/15812/1/

pure il nome non va bene lol
comunque a quanto pare dovranno produrlo a partire dalla prossima settimana, spero che le rese siano buone senno son guai per nvida....

ippo.g
06-10-2009, 00:36
Se mai Intel riuscisse ad entrare nel mercato delle schede video top di gamma , sarebbero rogne serie sia per nvidia che per ati . Tutti sappiamo la disponibilità economica e le capacità tecniche di intel .. Farebbero ottime schede ed andrebbero di tangenti con tutte le software house.. molto di più di quello che fa nvidia adesso . Quindi onestamente non me lo auguro ... Preferirei un miracoloso ritorno di matrox :sofico:

:cry:

FedNat
06-10-2009, 01:37
http://www.brightsideofnews.com/news/2009/10/5/gt300-demo-card-was-a-dummy3b-does-that-really-matter.aspx
;)

Purtroppo l'articolo da te citato non ha molto senso.

Posso capire il fatto di mostrare un modello non funzionale durante la presentazione, come sicuramente viene fatto in altri casi analoghi. Ma non ha senso mostrare una cosa palesemente raffazzonata come la scheda mostrata da nVidia. Non sarebbe costato niente montare una scheda completa senza magari montare la GPU (oppure montare solo il package della GPU senza il silicio) avrebbero fatto sicuramente una figura migliore, in quanto nessuno si sarebbe accorto di niente.

Se non lo hanno fatto significa che le schede con GF100 non hanno ancora un PCB definitivo e sono ancora al livello di breadboard non presentabile.

Di conseguenza hanno ancora molto da lavorare.

Saluti

Life bringer
06-10-2009, 07:59
Scusa ratatosk ma SEC... sarebbe? :confused:

halduemilauno
06-10-2009, 08:48
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.
http://bbs.chiphell.com/viewthread.php?tid=56185&extra=&page=1
per fare un paragone...
http://i34.tinypic.com/sce74l.jpg
tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

ilratman
06-10-2009, 08:53
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.
http://bbs.chiphell.com/viewthread.php?tid=56185&extra=&page=1
per fare un paragone...
http://i34.tinypic.com/sce74l.jpg
tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

sai se come saranno i consumi di queste nuove nvidia?

halduemilauno
06-10-2009, 09:00
sai se come saranno i consumi di queste nuove nvidia?

letto meno della gtx285. ripeto tutto da verificare.
;)

Legolas84
06-10-2009, 09:01
Se mai sarebbe un mostro.... curioso della fascia media vs la 5850...

Athlon 64 3000+
06-10-2009, 09:06
Se GF100 alias Fermi dovesse fare 10000 punti al 3d mark contro gli 8200 della HD 5870 significa che come prestazioni sarebbe ottima e solo con la HD 5870x2 AMD la supererà.
Peccato che ci vorrà ancora qualche mese prima che si veda qualcosa da parte di Nvidia.
Invece che fare figuraccie come quella della settimana scorsa e altre cagate a livello di marketing farebbero bene a darsi una mossa a far uscire la GTX380(o come si chiamerà).

mircocatta
06-10-2009, 09:07
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.
http://bbs.chiphell.com/viewthread.php?tid=56185&extra=&page=1
per fare un paragone...
http://i34.tinypic.com/sce74l.jpg
tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

con physicx attivato o no?

Legolas84
06-10-2009, 09:19
Comunque nVIDIA ha molto più tempo di quello che si vuole far credere visto che ad ora scheda HD serie 5xxx in giro non se ne trovano. E' di stamattina la mail dello shop presso cuil'ho ordinata che mi informa che non ci sono schede ed è tutto rimandato a data da destinarsi.... (e io quasi quasi mi cerco una nVIDIA usata in attesa di GT300....)

Milotto
06-10-2009, 09:24
Ma se non hanno ancora una VGA funzionante questi rumors (IMHO truffaldini) sul Vantage da dove escono..?

sertopica
06-10-2009, 09:43
Comunque nVIDIA ha molto più tempo di quello che si vuole far credere visto che ad ora scheda HD serie 5xxx in giro non se ne trovano. E' di stamattina la mail dello shop presso cuil'ho ordinata che mi informa che non ci sono schede ed è tutto rimandato a data da destinarsi.... (e io quasi quasi mi cerco una nVIDIA usata in attesa di GT300....)

In Italia sì, ma nel resto del mondo... :stordita:

sickofitall
06-10-2009, 09:53
edit

Legolas84
06-10-2009, 09:56
In Italia sì, ma nel resto del mondo... :stordita:

E' diverso? hai dati a riguardo?

ciccionamente90
06-10-2009, 09:57
edit

uff... stavo quotandoti :fagiano:

sickofitall
06-10-2009, 10:05
uff... stavo quotandoti :fagiano:

meglio lasciar perdere, tanto è inutile ragionare coi muri :rolleyes:

non seguo questo topic per alimentare flame, già son 15 pagine che parlano della scheda fake :rolleyes:

Legolas84
06-10-2009, 10:10
In USA, Canada e Germania le hanno, altrove non saprei...

ah si? stasera con calma controllo.... comunque il tuo avatar parla da solo suquanto sei fanboy.... hai praticamente distrutto questo thread :asd:

Venivi ai bei tempi di KarmaP, Yagami ecc... dove l'amore era per le schede video e non per una marca.... duravi un secondo.... qui purtroppo trovi gente che ti risponde pure ed è un casino :asd:

ciccionamente90
06-10-2009, 10:13
meglio lasciar perdere, tanto è inutile ragionare coi muri :rolleyes:

non seguo questo topic per alimentare flame, già son 15 pagine che parlano della scheda fake :rolleyes:

in ogni caso mi sono perso qualcosa... fake o meno io sono ancora qui che aspetto... :stordita:

Legolas84
06-10-2009, 10:18
Fidati non ti dava corda nessuno se venivi ai bei tempi... :D Venivi qui facevi un pò il fanboy e finivi nel dimenticatoio in tempo zero.... ;) Ora purtroppo qualche noob ti da anche corda... questo è il mio ultimo messaggio diretto a te.

sickofitall
06-10-2009, 10:18
in ogni caso mi sono perso qualcosa...

Il riassunto delle ultime pagine è:

-hanno parlato del nuovo chip chiamato "fermi"
-han mostrato qualche demo tecnologico
-vari dirigenti nvidia dicono che la scheda sarà in vendita da fine novembre
-ancora non si hanno dati certi sulle prestazioni e sui consumi del nuovo chip (circolano solo supposizioni)

that's all folks ;)

sertopica
06-10-2009, 10:38
E' diverso? hai dati a riguardo?

Sono disponibili in altri paesi esteri, quali di preciso non lo so e non mi interessa; mi baso sul fatto che su vari forum (americani in primis) molti già la possiedono e la testano.

Comunque il mio non è un discorso da fanboy, sia ben chiaro... Non tifo per una squadra, figuriamoci per un pezzo di silicio! :asd:

Per quanto mi riguarda, aspetterò la commercializzazione di Fermi e poi vedrò se passare ad ATi o restare su nVidia, in base ai prezzi ed alle prestazioni. Penso che tutti dovremmo fare così. ;)

halduemilauno
06-10-2009, 11:13
ultime news...
http://www.hardware-infos.com/news.php?news=3233
;)

jok3r87
06-10-2009, 12:14
Comunque nVIDIA ha molto più tempo di quello che si vuole far credere visto che ad ora scheda HD serie 5xxx in giro non se ne trovano. E' di stamattina la mail dello shop presso cuil'ho ordinata che mi informa che non ci sono schede ed è tutto rimandato a data da destinarsi.... (e io quasi quasi mi cerco una nVIDIA usata in attesa di GT300....)

Veramente ci sono utenti su questo forum che le hanno quindi qualcuna si trova. Che poi nvidia potrebbe far uscire GT300 tra un anno e venderebbe lo stesso vagonate di gtx e gts è un altro discorso.

Walrus74
06-10-2009, 12:20
Non capisco tutti questi attacchi ad una azienda come nVidia, in un thread che dovrebbe parlare della nuova architettura e dare notizie di novità inerenti le future schede di questa casa.
Ma chi ve lo fa fare?
Non nascondetevi dietro ad un dito...fanboy anybody?

Soprattutto non riesco a capire come si possa parlar male di un chip come il Gt200.
Posseggo pc dal lontano 93 o 94 (non ricordo ^^'), un 486 DX4 100, con una mitica S3 Virge collegata con un ancor più mitia Vesa-Local-Bus...:sbav:
Durante tutta la mia vita di PCista ho posseduto schede grafiche di tutte le marche (S3, 3dfx (pure in sli :sofico: ), Matrox, Ati e nVidia).
Per problemi di budget ho sempre puntato a schede di fascia media, ho preso le mie cantonate e ho trovato anche dei piccoli gioielli...
Poi a fine luglio dell'anno scorso, dopo essere passato per un fallimentare approccio con tanto di 2 RMA con la 3870 della ATI, mi decido a prendere la GTX 280...
Voi dite che tutte le testate parlano bene solo delle schede nVidia...forse l'anno scorso avevate gli occhi coperti da fettazze di prosciutto belle dense...perchè da quando sono arrivate sul mercato le 48xx della ATI sembrava che chi possedeva le nVidia doveva solo vergognarsene.
Eppure, ad oggi, la GTX 280, è la scheda video che mi ha dato le maggiori soddisfazioni, che mi è durata di più in assoluto, rimanendo comunque una "top di gamma" :sofico: .
Fino all'arrivo di questo famigerato Gt200 ho cambiato schede video ogni 4, al max 6 mesi....
La GTX 280 è un anno e tre mesi che l'ho e ne sono pienamente soddisfatto, mai un problema!
Detto questo continuate pure a sputar sentenze.
Personalmente con il chip gt200 mi son trovato da dio! (la mia è pure una revision A2)!
E visto che questo gt300 sembra essere una naturale evoluzione e miglioramento del precedente, con novità in campo computazionale che tutte le altre aziende si sognano, personalmente posso solo sbalordirmi nel vedere come il mondo del computer si evolva e ogni volta riesca a sorprendermi.
Perchè, al contrario della 5870 che (mettendola in maniera molto semplice) è praticamente una 4870x2 in un unico chip (naturalmente con affinamenti di architettura e quant'altro), la nuova GTX 380 sembra promettere novità architetturali degne di nota, che ,chissà, potrebbero anche portare novità nel "gaming".
Detto questo, cari i miei troll, ve saludi ^_^

mircocatta
06-10-2009, 13:19
Questo confermerebbe uno spreco notevole di silicio per ambiti gaming e una conseguente riduzione dell'efficienza dell'architettura in questo senso.

La cosa che mi sfugge è come fare a ridurre la potenza DP inutile per il gaming senza ridurre contestualmente quella SP di cui invece fa uso.

Attendiamo conferme ed eventualmente approfondimenti...
di cosa parla la notizia? una possibile riduzione di calcoli in DP e un aumento in SP per le schede dedicate ai videogamers???

sarebbe una buona notizia

leoneazzurro
06-10-2009, 13:30
di cosa parla la notizia? una possibile riduzione di calcoli in DP e un aumento in SP per le schede dedicate ai videogamers???

sarebbe una buona notizia

No, solo del taglio dle DP per avere chip più piccoli. A me sembra una delle solite stupidaggini che si leggono su quel sito, in pratica Nvidia dovrebbe avere due architetture, una con chip "solo SP" per l gaming e una con supporto DP per il GPGPU. Il sito non tiene conto del fatto che le unità DP di Fermi in realtà sono con tutta probabilità le stesse unità in SP che vengono utilizzate in "tandem" per effettuare le operazioni in FP64. Inoltre questo significherebbe per Nvidia dover sviluppare il doppio dei chip per generazione, con i conseguenti costi di progettazione. IMHO assurdo.

FreeMan
06-10-2009, 14:17
Se ho distrutto questo thread segnalami.

E comunque non sono io che ho spacciato qualcosa per ciò che non era, chi è causa del suo mal...



:asd:

Attualmente non vedo schede video da questa parte, come il mio avatar spiega bene...

Avete fatto caso che su questo sito non è apparsa la notizia della Tesla patacca (ed è l'unico sito italiano ad aver avuto inviati al GTC :rolleyes: )?

direi che il 3d possa tornare sui soliti canonici binari lasciando da parte fanboysmo, flame, polemiche ecc

altrimenti, chi è causa del suo mal...

>bYeZ<

ally
06-10-2009, 14:21
direi che il 3d possa tornare sui soliti canonici binari lasciando da parte fanboysmo, flame, polemiche ecc

altrimenti, chi è causa del suo mal...

>bYeZ<

...la notizia del Fake Tesla è tutt'altro che OT...il fatto che nvidia non avesse un sample fisico della sua architettura getta ombre sulle date di rilascio della stessa...

...ciao Andrea...

mirmeleon
06-10-2009, 14:27
Puoi dare ragguagli pubblici su cosa non sia OT, visto che non mi sembra di essere uscito dall'argomento del thread, avendo solo parlato di prossime uscite nVidia, presentazione di architetture nVidia e rumors su prestazioni e presunte castrazioni per gli SKU consumer?

Ma se parli solo di ATI e quelle volte che parli di Nvidia diventi verde dalla rabbia!
Per cortesia chi vuol parlare di ATI vada nei thread dedicati!
Cortesemente.....
:mad: :mad:

FreeMan
06-10-2009, 14:31
...la notizia del Fake Tesla è tutt'altro che OT...il fatto che nvidia non avesse un sample fisico della sua architettura getta ombre sulle date di rilascio della stessa...

...ciao Andrea...

Puoi dare ragguagli pubblici su cosa non sia OT, visto che non mi sembra di essere uscito dall'argomento del thread, avendo solo parlato di prossime uscite nVidia, presentazione di architetture nVidia e rumors su prestazioni e presunte castrazioni per gli SKU consumer?

io ho parlato di flame, fanboysmo, non di OT.. almeno leggete con attenzione, fate questo sforzo

detto questo, quanto sia utile ricamare continuamente su certe cose è tutto da dimostrare, sicuramente non ci si deve flammare

>bYeZ<

appleroof
06-10-2009, 14:37
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.
http://bbs.chiphell.com/viewthread.php?tid=56185&extra=&page=1
per fare un paragone...
http://i34.tinypic.com/sce74l.jpg
tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

davvero mostruoso, se fosse così...aspettiamo news, tanto finchè mi arriva la 5850 faccio in tempo a disdire l'ordine e prendere direttamente Fermi :muro: :muro:

Sergio_Di_Rio
06-10-2009, 14:48
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.

cut..

tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

Magari!

leoneazzurro
06-10-2009, 15:14
davvero mostruoso, se fosse così...aspettiamo news, tanto finchè mi arriva la 5850 faccio in tempo a disdire l'ordine e prendere direttamente Fermi :muro: :muro:

Il rumor dice anche che per farlo girare a quelle frequenze (quelle basse) deve essere raffreddato a liquido....

Se poi sono gli score con Physx attivato...

appleroof
06-10-2009, 15:21
Il rumor dice anche che per farlo girare a quelle frequenze (quelle basse) deve essere raffreddato a liquido....

Se poi sono gli score con Physx attivato...

non ho letto la fonte diretta in effetti...meno male che sei sempre attento a specificare in questi casi :)

leoneazzurro
06-10-2009, 15:43
non ho letto la fonte diretta in effetti...meno male che sei sempre attento a specificare in questi casi :)

Se ne stava discutendo su B3D proprio stamane. Intendiamoci, gli entusiasmi vanno raffreddati da ambo le parti, perchè si fa presto a dire "Nvidia è spacciata" come si era fatto troppo presto a dire "ATI è spacciata" dopo l'uscita di R600. Qui anzi il chip non è ancora uscito.
Certo è che le difficoltà sembrano comunque esserci, soprattutto se il rumor è basato su fatti reali (le voci non sono -sempre- la realtà) : un chip che viaggia ancora lontano dalle frequenze target e che consuma parecchio è un chip che molto probabilmente necessita di un respin. Il che significa altri 3 mesi circa di ritardo. Bisogna poi vedere se l'esemplare in questione sia un A0 oppure un A1, nel secondo caso difficile che si vedano schede GF100 prima di Febbraio-Marzo.

appleroof
06-10-2009, 15:59
Se ne stava discutendo su B3D proprio stamane. Intendiamoci, gli entusiasmi vanno raffreddati da ambo le parti, perchè si fa presto a dire "Nvidia è spacciata" come si era fatto troppo presto a dire "ATI è spacciata" dopo l'uscita di R600. Qui anzi il chip non è ancora uscito.
Certo è che le difficoltà sembrano comunque esserci, soprattutto se il rumor è basato su fatti reali (le voci non sono -sempre- la realtà) : un chip che viaggia ancora lontano dalle frequenze target e che consuma parecchio è un chip che molto probabilmente necessita di un respin. Il che significa altri 3 mesi circa di ritardo. Bisogna poi vedere se l'esemplare in questione sia un A0 oppure un A1, nel secondo caso difficile che si vedano schede GF100 prima di Febbraio-Marzo.

Veramente è difficile che si vedano anche schede rv870 prima di quella data :muro: :muro: http://www.hwupgrade.it/forum/showpost.php?p=29171255&postcount=1442

sickofitall
06-10-2009, 16:06
Veramente è difficile che si vedano anche schede rv870 prima di quella data :muro: :muro: http://www.hwupgrade.it/forum/showpost.php?p=29171255&postcount=1442

nulla di strano, d'altronde le 5850 nemmeno si son viste in giro, e le 5870 le confeziona la marmotta, quelle poche arrivate in italia son subito andate a ruba :fagiano:

e dopo c'è gente che parla di fake nvidia e su notizie senza fondo di verità :rolleyes:

leoneazzurro
06-10-2009, 16:11
beh, che ci possano essere poche schede disponibili è una cosa, che non ci siano fino a Febbraio-Marzo è un altra. Parecchia gente la 5870 e qualcuno anche la 5850 le ha ricevute. Il problema è che probabilmente la richiesta è stata superiore alla disponibilità o alle previsioni (ATI sembra abbia allocato circa 300000 schede nel periodo da Settembre a Dicembre - il che significa meno di 100000 schede al mese)

Sickofitall, per paicere evitiamo di fare flame.

appleroof
06-10-2009, 16:26
beh, che ci possano essere poche schede disponibili è una cosa, che non ci siano fino a Febbraio-Marzo è un altra. Parecchia gente la 5870 e qualcuno anche la 5850 le ha ricevute. Il problema è che probabilmente la richiesta è stata superiore alla disponibilità o alle previsioni (ATI sembra abbia allocato circa 300000 schede nel periodo da Settembre a Dicembre - il che significa meno di 100000 schede al mese)



Fonte?

Intanto qui nisba, poi tutte le scuse che vuoi :mad:

Andrea deluxe
06-10-2009, 16:58
rata, ma che ti succede?

capisco la tua battaglia per sbugiardare la redazione, ma adesso si sta andando un po oltre....

dai calma...:)

Maury
06-10-2009, 17:05
Veramente è difficile che si vedano anche schede rv870 prima di quella data :muro: :muro: http://www.hwupgrade.it/forum/showpost.php?p=29171255&postcount=1442

Ma figuriamoci se un fornitore sa che ati non sta dando i chip agli assemblatori, non sa nulla di nulla, è una scusa del venditore! :rotfl:

Semplicemente la richiesta supera abbondantemente l'offerta e per avere una fornitura più capillare serve tempo, le schede ci sono, gente che le ha c'è, e non è manco poca, basta vedere nei forum...

devAngnew
06-10-2009, 17:16
No, solo del taglio dle DP per avere chip più piccoli. A me sembra una delle solite stupidaggini che si leggono su quel sito, in pratica Nvidia dovrebbe avere due architetture, una con chip "solo SP" per l gaming e una con supporto DP per il GPGPU. Il sito non tiene conto del fatto che le unità DP di Fermi in realtà sono con tutta probabilità le stesse unità in SP che vengono utilizzate in "tandem" per effettuare le operazioni in FP64. Inoltre questo significherebbe per Nvidia dover sviluppare il doppio dei chip per generazione, con i conseguenti costi di progettazione. IMHO assurdo.

Quoto
:O

Quella notizia è deltutto falsa o quasi :asd:
L'unica cosa che potrebbe essere vera è la possibilità di disattivare la possibilità di gestire memorie ECC ......
Leoneazzurro ha detto bene Nvidia per gestire la Dp usa due FPU a 32bit le quali vengono usate separatamente in ambito gaming.
:read:
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5

Andrea deluxe
06-10-2009, 17:19
La redazione che c'entra? :mbe:

la storia delle notizie che su questo sito non arrivano.... ok!

ma per il resto......:(

goldorak
06-10-2009, 17:21
Il rumor dice anche che per farlo girare a quelle frequenze (quelle basse) deve essere raffreddato a liquido....

Se poi sono gli score con Physx attivato...


Gia', sono notizie altamente ridicole. Non esiste al momento attuale una scheda con chip Fermi funzionante e gia' si sprecano benchmark e quant'altro.
Ridicolo con la R, ormai siamo in pieno campo :mc: :mc: :mc:

okorop
06-10-2009, 17:40
il presunto punteggio al vantage di Fermi mi sembra simile a una indiscrezione di mio cuggino mi ha detto, e tutti a crederci.....dalle ultime news è trapelato che oggi fermi sarebbe stato messo in produzione e quindi o è direttamente nvida a dire che fa quel punteggio oppure nessuno puo' sapere quanto farà......per i ritardi di produzione del chip causati dalle frequenze e consumi elevati mi spiace anche se era presumibile che con 5 miliardi di transistors avrebbe scaldato assai la gpu....comunque per ora mi sa che nvida è proprio Fermi....

leoneazzurro
06-10-2009, 17:57
Fonte?

Intanto qui nisba, poi tutte le scuse che vuoi :mad:

http://www.anandtech.com/video/showdoc.aspx?i=3643

Che le schede sarebbero state inizialmente in disponibilitá limitata si sapeva

http://channel.hexus.net/content/item.php?item=20337&page=2

qui si parla di circa 100000 schede prodotte nel primo lotto (e ormai andate a ruba) di cui solo un decimo nel mercato retail (nello stesso sito in un´altra notizia si parlava di una domanda stimata in piú di quattro volte tanto) , in un´altra news che purtroppo non trovo piú si parlava di 300000 schede allocate al mercato retail da Settembre a Dicembre. Il problema che sembrano porre i redattori di quella notizia é una allocazione preferenziale agli OEM tipo Dell.

A parte ció, siamo OT.

goldorak
06-10-2009, 17:59
5 miliardi :eek: ammazza di progressi ne hanno fatto dalla settimana scorsa. :asd:
3 miliardi, 3 miliardi di transistor ha Fermi. :D

appleroof
06-10-2009, 18:06
Caspita che venditore informato! Chiedigli a che punto sono gli yelds di G300!

perchè non glielo chiedi tu?

leoneazzurro
06-10-2009, 18:07
Gia', sono notizie altamente ridicole. Non esiste al momento attuale una scheda con chip Fermi funzionante e gia' si sprecano benchmark e quant'altro.
Ridicolo con la R, ormai siamo in pieno campo :mc: :mc: :mc:

Non é assolutamente detto che non ci siano samples funzionanti, ad esempio il rumor di prima diceva che samples ce ne sono ma che sono lontani da ció che si voleva raggiungere in fase di progetto. Certo é che sembra prematuro parlare di commercializzazione.

A parte ció, direi che sarebbe opportuno tornare tutti con i piedi per terra e non vedere sempre e soltanto ció che si vuole vedere. Ad esempio, quando sono spuntate fuori le prime specifiche definitive di Cypress, c´era chi diceva che sarebbe stato un chip sempre superiore alle 4870x2, dimenticandosi, come avevo ricordato piú volte, che una scheda x2 ha il doppio delle capacitá geometriche e il doppio della banda aggregata rispetto alla scheda singola, e che non tutto era stato raddoppiato in Cypress. CVD ci sono casi in cui Cypress é superiore alla x2 ed altri dove non é cosí. Cosí come GF100 potrebbe essere limitato anch´esso da banda e setup rate (se verrá mantenuto 1 triangolo per clock, il setup rate sará anche inferiore alla 5850). Con le GPU (tutte) le cose non sono mai semplici...

Errik89
06-10-2009, 18:28
Veramente è difficile che si vedano anche schede rv870 prima di quella data :muro: :muro: http://www.hwupgrade.it/forum/showpost.php?p=29171255&postcount=1442
mi darete del fanboy (ma a me sembra molto da fanboy anche il tuo intervento ;) ), comunque non è affatto difficile visto che più di una persona di questo forum le ha già nel case. I problemi di reperibilità sono solo sulla 5850 ;)

Tornando IT, prendendo per buono il 3d mark vantage postato, anche con physx attivato se già a quelle frequenze fa un punteggio del genere mi immagino alle frequenze reali cosa farà!! :eek: :eek:
Comunque poi ovviamente bisogna sempre vedere le prestazioni in-game.

michelgaetano
06-10-2009, 18:47
mi darete del fanboy (ma a me sembra molto da fanboy anche il tuo intervento ;) ), comunque non è affatto difficile visto che più di una persona di questo forum le ha già nel case. I problemi di reperibilità sono solo sulla 5850 ;)

Tornando IT, prendendo per buono il 3d mark vantage postato, anche con physx attivato se già a quelle frequenze fa un punteggio del genere mi immagino alle frequenze reali cosa farà!! :eek: :eek:
Comunque poi ovviamente bisogna sempre vedere le prestazioni in-game.

Ma non scherziamo, febbraio-marzo? :stordita: Sarebbero 5 o 6 mesi da adesso, non sta in piedi la cosa.

Si vociferava di una maggiore disponibilità a metà ottobre, vediamo per quella data. TC comunque ha scritto a caratteri cubitali su torvaprezzi quando gli arrivano le schede per l'ordine. Se fosse vera quella pseudo conversazione riportata, significa che prendono in giro i clienti con quei numeri falsi. E dubito della cosa francamente, ho avuto poche ma buone esperienze con TC. E se non stanno prendendo in giro i clienti e le schede gli arrivano, da dove gli arriverebbero le schede? Le materializzano dal nulla? :sofico:

okorop
06-10-2009, 19:03
analizziamo i dati che abbiamo adesso:
un presunto 3d mark vantage fake
problemi a portare le frequenze a quelle sperate a causa di temperature e consumi sul sample che ha nvida
produzione che a quanto pare dovrebbe cominciare oggi
Da questi dati attuali si evince che prima di due mesi da ora fermi non sarà sugli scaffali, visto che un 2 mesi prima del lancio deve almeno essere prodotto per riuscire ad avere una cospiqua offerta ufficiale, ma la produzione potrebbe essere minata dal problema delle frequenze, i casi son due o quell'indiscrezione è falsa oppure dovranno tentare di trovare una soluzione per ovviare al problema.......

appleroof
06-10-2009, 19:03
mi darete del fanboy (ma a me sembra molto da fanboy anche il tuo intervento ;) ), comunque non è affatto difficile visto che più di una persona di questo forum le ha già nel case. I problemi di reperibilità sono solo sulla 5850 ;)

Tornando IT, prendendo per buono il 3d mark vantage postato, anche con physx attivato se già a quelle frequenze fa un punteggio del genere mi immagino alle frequenze reali cosa farà!! :eek: :eek:
Comunque poi ovviamente bisogna sempre vedere le prestazioni in-game.

e che tipo di fanboy sarei? Nvidia? Avendo una 4870 e avendola appena venduta per una 5850? Qui siamo al delirio totale.

Aenil
06-10-2009, 19:14
Torniamo IT?

quoto.. se non ci sono molti dati su cui parlare è inutile che ce li inventiamo. non riesco più a seguire la discussione con tutti questi battibecchi..

Sergio_Di_Rio
06-10-2009, 20:51
allora pare che la gf100 aka gt300 aka fermi al 3dmark vantage X(1920x1200)faccia a 495/1100/4000 10000 punti mentre alle frequenze definitive (650/1600/4400) sui 13000.
http://bbs.chiphell.com/viewthread.php?tid=56185&extra=&page=1
per fare un paragone...
http://i34.tinypic.com/sce74l.jpg
tutto qui e sempre in attesa di tutti i riscontri del caso.
;)

davvero mostruoso, se fosse così...aspettiamo news, tanto finchè mi arriva la 5850 faccio in tempo a disdire l'ordine e prendere direttamente Fermi :muro: :muro:

Ricapitolando:

- E' un 3DMark (who cares?)
- Non si sa con quale sistema è fatto il test (utilità del numero = 0)
- Non ci sono screen (è vero?)
- Le frequenze sono bassissime (è possibile siano queste nel chip definitivo?)
- Per ottenerne di maggiori va raffreddato a liquido (può essere overspecced rispetto al chip di produzione?)

Direi che l'affidabilità di questo test come capacità di dirci come andrà il chip che alla fine equipaggerà le prossime GeForce è nulla.

Il rumor dice anche che per farlo girare a quelle frequenze (quelle basse) deve essere raffreddato a liquido....

Se poi sono gli score con Physx attivato...

L'utente jc3213 al post #44 (del link fornito da hal) scrive (traduzione google):

"GF100 then broke the news in accordance with AFXIF run X 13,000 (freq: 650/1600/4400)

But here he mentioned before, it does not open PHYSX, CPU has a score of 100,000.

In accordance with the sub-3DMARK VANTAGE EXTREME algorithm

95% GPU + 5% CPU = X 13,000
Known CPU = 100,000

X 8,500 then the GPU is probably also about the feelings of the X 8,000 compared to 5870 is. Good-looking do not where to go.

Is very likely the game is almost the same performance with the 5870."

Dall'orribile traduzione mi sembra di aver capito che:

- il punteggio di X13,000 non tiene conto di physx
- che lo score del processore è di 100,000 (come è possibile se uno xeon a 5ghz totalizza 31,687 (http://service.futuremark.com/resultComparison.action?compareResultId=1195118&compareResultType=19)?
- Conoscendo l'algoritmo di calcolo del punteggio finale di Vantage, con una semplice equazione, trova un punteggio di 8,500, della sola gpu (più precisamente sarebbe 8,421)

Tutto ciò rivelerebbe uno scenario un pò deludente per una gpu con 3 mld di transistor (prestazioni molto vicino alla 5870), ma senza uno straccio di prova possono essere considerate elucubrazioni di un cinese che non dorme da 7 notti per giocare a WoW.

Insomma giusto un pò di sane pippe mentali.

@Apple: ma non ti conviene aspettare comunque? Non credo che la 4870, al momento, ti limiti in qualche modo. Aspetti, valuti le nuove nvidia, i prezzi scendono e fai sicuramente un acquisto migliore ;)

Sergio_Di_Rio
06-10-2009, 21:22
Come dicevo prima, senza i dettagli completi del test il numero finale non ha alcuna utilità nel darci informazioni

Avevo provato anche io a tradurlo in inglese ma la pessima traduzione unita al fatto che non sono per niente ferrato sui tecnicismi di 3DMark (who cares?) ho lasciato perdere.

Tanto finché non esce, quanto potrebbe forse andare, in un benchmark poi, non è che ci cambi la vita...

Beh, se avessimo un reale test 3dmark, già sarebbe qualcosa.

Comunque sono d'accordo con te, ma ripeto: pippe mentali (cinesi).. non fanno mica diventare ciechi. ;)

Bastoner
06-10-2009, 21:24
Beh, se avessimo un reale test 3dmark, già sarebbe qualcosa.

Comunque sono sostanzialmente d'accordo con te, ma ripeto: pippe mentali (cinesi).. non fanno mica diventare ciechi.

Però provocano l'acne :D

Sergio_Di_Rio
06-10-2009, 21:25
Però provocano l'acne :D

Azz..ecco perchè.. :asd:

Sergio_Di_Rio
06-10-2009, 22:22
Beh sì, un 3DMerd con risultato, impostazioni e dati completi del sistema qualcosa di relativamente definito lo dice, anche se essendo un'architettura essenzialmente nuova non sappiamo (noi) se questa sia avvantaggiata o svantaggiata rispetto a quella concorrente in quello specifico benchmark.

Approposito che si sappia è in cantiere un 3DMerd DX11?

Che io sappia no, ma non sono informato a riguardo.

Comunque, non mettergli fretta! Dagli il tempo di ottimizzarlo per Fermi..:asd:

leoneazzurro
06-10-2009, 22:31
L'utente jc3213 al post #44 (del link fornito da hal) scrive (traduzione google):

"GF100 then broke the news in accordance with AFXIF run X 13,000 (freq: 650/1600/4400)

But here he mentioned before, it does not open PHYSX, CPU has a score of 100,000.

In accordance with the sub-3DMARK VANTAGE EXTREME algorithm

95% GPU + 5% CPU = X 13,000
Known CPU = 100,000

X 8,500 then the GPU is probably also about the feelings of the X 8,000 compared to 5870 is. Good-looking do not where to go.

Is very likely the game is almost the same performance with the 5870."

Dall'orribile traduzione mi sembra di aver capito che:

- il punteggio di X13,000 non tiene conto di physx
- che lo score del processore è di 100,000 (come è possibile se uno xeon a 5ghz totalizza 31,687 (http://service.futuremark.com/resultComparison.action?compareResultId=1195118&compareResultType=19)?
- Conoscendo l'algoritmo di calcolo del punteggio finale di Vantage, con una semplice equazione, trova un punteggio di 8,500, della sola gpu (più precisamente sarebbe 8,421)

Tutto ciò rivelerebbe uno scenario un pò deludente per una gpu con 3 mld di transistor (prestazioni molto vicino alla 5870), ma senza uno straccio di prova possono essere considerate elucubrazioni di un cinese che non dorme da 7 notti per giocare a WoW.


Uno score CPU cosí alto non é spiegabile se non con l´attivazione di Physx, sempre che il tutto sia vero, ovviamente.

Andrea deluxe
06-10-2009, 22:35
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/

:confused:

Sergio_Di_Rio
06-10-2009, 22:55
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/

:confused:

:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:


Ratatosk ha sempre avuto ragione e noi l'abbiamo ignorato!

Scherzi a parte, se così fosse sarebbe una tragedia, ah! ma chi è lo scrittore? Charlie Demerjian..

okorop
06-10-2009, 23:02
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/

:confused:

quindi gtx275 e gtx285 fuori produzione, incognita gtx295 e magari un refresh a 40nm, fermi è fermo.....

devAngnew
06-10-2009, 23:03
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/

:confused:

Ma leggete ancora Charlie Demerjian !!!!!!!! :mbe: :eek:
Si sà come la pensa....

calabar
06-10-2009, 23:05
Beh oddio speriamo che la situazione non si a davvero così catastrofica.

Sinceramente è una cosa che non mi auguro, mi piacerebbe che ati riguadagnasse quote di mercato per avere un maggiore potere contrattuale ed evitare così che nvidia possa ancora fare leva sulla diffusione delle sue schede per imporre feature proprietarie, ma una situazione di questo tipo sarebbe eccessivamente pesante e problematica dal punto di vista degli equilibri della concorrenza.

Comunque finchè rimane una voce isolata per me è una sparata bella e buona, non mi pare molto credibile.
Se è vera, sicuramente riceveremo conferme nei prossimi giorni.

sickofitall
06-10-2009, 23:05
:sbonk:

oramai in questi giorni fanno a gara su chi spara la boiata più grossa...

Mercuri0
06-10-2009, 23:13
[CENTER]
Scherzi a parte, se così fosse sarebbe una tragedia, ah! ma chi è lo scrittore? Charlie Demerjian..

Non ho letto l'articolo, ma una cosa simile, con toni decisamente più asettici, è stata riportata anche da fudzilla.

http://www.fudzilla.com/content/view/15831/1/

In effetti c'è il rischio che per competere sul mercato con le 5xxx, le attuali GTX vadano vendute sottocosto.

La mazzata più pesante comunque arriverà dalle 57xx. Se nVidia riesce a tirare fuori dal supercippone qualcosa per competere con tutte le 58xx *e* le 57xx in breve termine ha tutta la mia stima

(in realtà penso che per questa volta giocherà in difesa)

okorop
06-10-2009, 23:14
:sbonk:

oramai in questi giorni fanno a gara su chi spara la boiata più grossa...

e si sparata: ceo nvida presenta una vga fake, poi risultati fake al 3d mark vantage della presunta vga con Fermi, problemi relativi al mantenimento delle frequenze previste causa calore raggiungibili solo a liquido, direi che non si vada troppo lontani dalla notizia postata da Andrea.....
Non ho letto l'articolo, ma una cosa simile, con toni decisamente più asettici, è stata riportata anche da fudzilla.

http://www.fudzilla.com/content/view/15831/1/

In effetti c'è il rischio che per competere sul mercato con le 5xxx, le attuali GTX vadano vendute sottocosto.

La mazzata più pesante comunque arriverà dalle 57xx. Se nVidia riesce a tirare fuori dal supercippone qualcosa per competere con tutte le 58xx *e* le 57xx in breve termine ha tutta la mia stima

(in realtà penso che per questa volta giocherà in difesa)
nvida gioca in difesa? in sta situazione in cui fermi non si sa quando esce è fuori da tutte le fasce di mercato...altro che difesa sono veramente in panico, ovviamente fermi dovrebbe uscire il prima possibile per risollevare la china....

sickofitall
06-10-2009, 23:16
di ufficiale c'è solo la scheda fake :stordita:

Zen9
06-10-2009, 23:16
ragazzi una domanda ma l'utente Mister Tarpone ?

okorop
06-10-2009, 23:17
di ufficiale c'è solo la scheda fake :stordita:

rassicurante come cosa
e poi di ufficiale c'è che nvida vuole togliere il supporto physx ad ati......:rolleyes:

sickofitall
06-10-2009, 23:18
appunto, secondo me questo topic potrebbero chiuderlo e inserire solo le notizie del buon halduemilauno, tanto per ora non c'è poi molto da discutere....:mbe:

okorop
06-10-2009, 23:21
appunto, secondo me questo topic potrebbero chiuderlo e inserire solo le notizie del buon halduemilauno, tanto per ora non c'è poi molto da discutere....:mbe:

con le sue news siamo a posto.....avremo solo news che fan comodo, e come sempre preferisco avere piu' fonti possibili per essere piu' critico.......;)
chiuderlo? magari si potrebbe anche, senti dei moderatori intanto dopo l'ultima notizia credo che bisognerà aspettare a lungo fermi, molto a lungo....

Mercuri0
06-10-2009, 23:24
rassicurante come cosa
e poi di ufficiale c'è che nvida vuole togliere il supporto physx ad ati......:rolleyes:

Le ati non lo hanno mai avuto: nVidia vorrebbe togliere la possibilità di avere una scheda ATI per la grafica + una nVidia per la fisica. (in Windows7)

Boh, avranno fatto i loro conti. Vista da fuori, questa mi sembra una mossa di chi non è troppo abituato a giocare la partita da una condizione di svantaggio. Cioé, potevano puntare a vendere qualche scheda per la fisica...
(che imo è comunque una minchiata, ma almeno...)

Secondo me nVidia deve farsi un bagno di umiltà. Passi questi mesi di svantaggio (fisiologico) con ATI, ma adesso che ci sarà da sguantarsi contro lntel un pò meno di presunzione nelle scelte di mercato non guasterebbe.

okorop
06-10-2009, 23:31
Le ati non lo hanno mai avuto: nVidia vorrebbe togliere la possibilità di avere una scheda ATI per la grafica + una nVidia per la fisica. (in Windows7)

Boh, avranno fatto i loro conti. Vista da fuori, questa mi sembra una mossa di chi non è troppo abituato a giocare la partita da una condizione di svantaggio. Cioé, potevano puntare a vendere qualche scheda per la fisica...
(che imo è comunque una minchiata, ma almeno...)

Secondo me nVidia deve farsi un bagno di umiltà. Passi questi mesi di svantaggio (fisiologico) con ATI, ma adesso che ci sarà da sguantarsi contro lntel un pò meno di presunzione nelle scelte di mercato non guasterebbe.

son scelte di mercato vedremo chi la vincerà, per quanto riguarda intel nel campo delle vga discrete ci sarà solamente nel 2011 quindi per ancora un anno nvida è ati saranno i soli competitors

The_SaN
06-10-2009, 23:53
Ma leggete ancora Charlie Demerjian !!!!!!!! :mbe: :eek:
Si sà come la pensa....Si critica tanto Charlie Damerjian (che userá toni non molto "professionali", ma di solito ci azzecca), quando l'80% delle news positive su nVidia sono di Fuad :asd:

Diamo il giusto peso alle cose, dai :)

Sono il primo a volere che queste schede escano subito e siano potenti (per avere una guerra sui prezzi), ma la situazione non é affatto positiva.

michelgaetano
06-10-2009, 23:55
Si critica tanto Charlie Damerjian (che userá toni non molto "professionali", ma di solito ci azzecca), quando l'80% delle news positive su nVidia sono di Fuad :asd:

Diamo il giusto peso alle cose, dai :)

Fuad non merita la minima considerazione, non vedo perchè si debba ancora continuare a leggerlo. Se prima era solo "fesso", ora è un fesso anche pagato, a quel che si legge.

ShineOn
07-10-2009, 00:24
Voi almeno una scheda la avete nel pc, la mia 8800 è saltata una settimana fa e sono in piena crisi d'astinenza in attesa della 5850...ma vista la situazione di questa che prendo una GTX 260 col rischio che mi crolli di prezzo da un giorno all'altro??

Che situazione di m.... senza poter aspettare!!!

michelgaetano
07-10-2009, 00:27
Voi almeno una scheda la avete nel pc, la mia 8800 è saltata una settimana fa e sono in piena crisi d'astinenza in attesa della 5850...ma vista la situazione di questa che prendo una GTX 260 col rischio che mi crolli di prezzo da un giorno all'altro??

Che situazione di m.... senza poter aspettare!!!

Ma ci sono le 5770 alle porte (e-chiave le ha in listino), l'NDA dovrebbe scadere tra neanche una settimana.

Insomma, non affrettare l'acquisto.

okorop
07-10-2009, 00:28
Voi almeno una scheda la avete nel pc, la mia 8800 è saltata una settimana fa e sono in piena crisi d'astinenza in attesa della 5850...ma vista la situazione di questa che prendo una GTX 260 col rischio che mi crolli di prezzo da un giorno all'altro??

Che situazione di m.... senza poter aspettare!!!

prendi una scheda video da pochi euro e aspetta la reale disponibilità sul mercato delle schede video ati evergreen, la gtx260 non crolla di prezzo semplicemente esce di produzione il che vuol dire che non avrai piu' rma a disposizione in caso di rottura della scheda

Bastoner
07-10-2009, 00:37
...tell us that the OEMs have been notified that the GTX285 is EOL'd, the GTX260 is EOL in November...

Che significa? :stordita:

okorop
07-10-2009, 00:39
Che significa? :stordita:

escono fuori produzione :)

michelgaetano
07-10-2009, 00:42
Per essere EOL devono essere sostituite da qualcosa :D

ShineOn
07-10-2009, 00:44
Ma ci sono le 5770 alle porte (e-chiave le ha in listino), l'NDA dovrebbe scadere tra neanche una settimana.

Insomma, non affrettare l'acquisto.

eh ok, le 5770 le da disponibili già ora mi sembra ma non ho idea quanto valga come investimento rispetto alla 5850

prendi una scheda video da pochi euro e aspetta la reale disponibilità sul mercato delle schede video ati evergreen, la gtx260 non crolla di prezzo semplicemente esce di produzione il che vuol dire che non avrai piu' rma a disposizione in caso di rottura della scheda

a dir la verità il mio negoziante mi ha prestato una 8400gs, ma ci scatta pure lemmings...:( ...insomma è come non averla.

quindi tu consigli di aspettare comunque la disponibilità della 5850?

Bastoner
07-10-2009, 00:46
escono fuori produzione :)

Grazie.

Obiettivamente le cose scritte da Demerjan sono molto verosimili. Non vi limitate a dire "seeee vabbé quello si sa bla bla bla..."
Confutatelo, no?

okorop
07-10-2009, 00:46
a dir la verità il mio negoziante mi ha prestato una 8400gs, ma ci scatta pure lemmings...:( ...insomma è come non averla.

quindi tu consigli di aspettare comunque la disponibilità della 5850?

si aspetta la 5850, che sono 5 giorni di attesa?

Grazie.

Obiettivamente le cose scritte da Demerjan sono molto verosimili. Non vi limitate a dire "seeee vabbé quello si sa bla bla bla..."
Confutatelo, no?

sinceramente son stato uno dei primi a tentare di criticare costruttivamente quelle parole e da quanto visto, sentito sono assai verosimili se non veritiere al 100%, se le nvida gt200 saranno sostituite non saprei con cosa, magari un refresh di gt200 a 40nm pronto per fine novembre con controller di memoria rifatto per poter riuscire ad adottare le gddr5, cosa ben lontana da fermi.....che pare essere fermo, anche se garantirebbero prestazioni leggermente superiori rispetto alle attuali magari con frequenze superiori con consumi e temperature assai piu' limitati, pero' sempre sotto le nuove vga ati.....

Bastoner
07-10-2009, 00:54
Grazie.

Obiettivamente le cose scritte da Demerjan sono molto verosimili. Non vi limitate a dire "seeee vabbé quello si sa bla bla bla..."
Confutatelo, no?




sinceramente son stato uno dei primi a tentare di criticare costruttivamente quelle parole e da quanto visto, sentito sono assai verosimili se non veritiere al 100%, se le nvida gt200 saranno sostituite non saprei con cosa, magari un refresh di gt200 a 40nm pronto per fine novembre con controller di memoria rifatto per poter riuscire ad adottare le gddr5, cosa ben lontana da fermi.....che pare essere fermo, anche se garantirebbero prestazioni leggermente superiori rispetto alle attuali magari con frequenze superiori con consumi e temperature assai piu' limitati, pero' sempre sotto le nuove vga ati.....


Già.

Vi ricordo che il tanto vituperato Demerjan, il 14 maggio scrisse un articolo infuocato che molti di voi snobbarono come spazzatura (Rata hai qualche bookmark :D?). L'articolo si concludeva così:

GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee.

Magari rileggetevelo tutto: http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Meditate gente, meditate.

Hal2001
07-10-2009, 01:00
Veramente è difficile che si vedano anche schede rv870 prima di quella data :muro: :muro: http://www.hwupgrade.it/forum/showpost.php?p=29171255&postcount=1442

Un rivenditore italiano, fonte sicuramente attendibile! :eek:


:asd:

Hal2001
07-10-2009, 01:03
Che significa? :stordita:

End Of Life ;)

The_SaN
07-10-2009, 01:07
End Of Life ;)End of Line :D
Ma si capisce anche cosi :fagiano:

Nino Grasso
07-10-2009, 01:45
È interessante notare come sia folta la schiera di neopossessori delle nuove schede ATi che cercano di spalare fango sull'operato nVidia sperando che le loro ipotesi (per la maggior parte del tutto strampalate e risibili) si trasformino in realtà, come per magia. Inutile dire che questo non giova sicuramente né alla vivibilità del thread stesso, né aiuta l'utente che entra in cerca di informazioni.

Detto questo l'unica preoccupazione, da utente nVidia, è che analizzando la situazione, e supponendo che nVidia abbia lo stesso balzo prestazionale avuto da G90 a G200, si avrebbe un G300 che si attesta a circa 20/25% in più rispetto alla nuova ammiraglia di casa ATi. Tutti sappiamo che il discorso è impossibile da fare visto che ci troviamo di fronte ad un'architettura senza dubbio nuova.

La situazione a me sembra abbastanza chiara: nVidia, presentando una scheda "fantasma", mostra una certa "vergogna" nel mostrare il suo nuovo lavoro. Perché? Secondo me il motivo è semplicemente che ancora G300 si tratta semplicemente di un prototipo abbozzato, ancora non terminato non tanto a livello di elettronica, quanto a livello di dissipazione della stessa. Magari le schede al GTC erano raffreddate al liquido e magari si pensa ad un'adozione di un sistema di dissipazione ad aria occupante tre slot. Cosa che oggi sembra un aborto, ma ricordo ai tempi della FX5800 (NV30) si gridava allo scandalo per l'adozione di sistemi di dissipazione a due slot, mentre oggi rappresenta semplicemente la normalità.

Entro la fine di novembre secondo me nVidia si è prefissata l'obiettivo di riuscire a raffreddare G300 con un dual slot, ma in caso di fallimento non credo che lascerà il mercato aperto ad ATi, ma opterà per una soluzione "alternativa".

Voglio dire ai tizi che affermano con assoluta certezza che la GPU non esiste e che non ci sono prototipi funzionanti che semplicemente si sforzano di leggere le notizie a modo loro, forse per autocompiacersi o autoconvincersi di aver effettuato un buon acquisto con le loro nuove ATi. Non sto dicendo che non lo sia stato, ma G300 vi fa sicuramente paura.

P.S.: Credo che salterò questa generazione a piè pari visto che sono assolutamente soddisfatto dai risultati ottenuti ancora oggi dalla mia attuale scheda video, quindi non ho alcun interesse a difendere uno o l'altro prodotto. :)

goldorak
07-10-2009, 05:22
Continuo a pensare che ci sia un G200@40nm in uscita, non posso credere che nVidia sia così nella merda come sostiene Charlie, da non avere semplicemente nulla da vendere fino a non si sa quando.


Gia' e' l'ipotesi piu' probabile. Se pero' poi le vendono a 150 € continuo a vedere la situazione nera perche' le 57xx faranno strage in questa fascia.
Forse tagliano via qualche feature come il bus che passa da 512 bit e 448 bit a qualcosa di piu' economico ? Insomma tagliano tutto quello che e' possibile pur di avere un prezzo competitivo. Mi ricorda in questo Sony con ps 3. Ad ogni taglio di prezzo facevano strage delle features della console. :asd:
Boh alla fine chi la capisce ormai Nvidia ?

kiriranshelo
07-10-2009, 07:50
ragazzi una domanda ma l'utente Mister Tarpone ?

è stato bannato a vita

Gia' e' l'ipotesi piu' probabile....

di sicuro, a parer mio, hanno iniziato la produzione delle G220 @40nm e a natale ci saranno queste, in previsione di poter uscire con fermi tra gennaio/marzo 2010

Pat77
07-10-2009, 07:55
È interessante notare come sia folta la schiera di neopossessori delle nuove schede ATi che cercano di spalare fango sull'operato nVidia sperando che le loro ipotesi (per la maggior parte del tutto strampalate e risibili) si trasformino in realtà, come per magia. Inutile dire che questo non giova sicuramente né alla vivibilità del thread stesso, né aiuta l'utente che entra in cerca di informazioni.

Detto questo l'unica preoccupazione, da utente nVidia, è che analizzando la situazione, e supponendo che nVidia abbia lo stesso balzo prestazionale avuto da G90 a G200, si avrebbe un G300 che si attesta a circa 20/25% in più rispetto alla nuova ammiraglia di casa ATi. Tutti sappiamo che il discorso è impossibile da fare visto che ci troviamo di fronte ad un'architettura senza dubbio nuova.

La situazione a me sembra abbastanza chiara: nVidia, presentando una scheda "fantasma", mostra una certa "vergogna" nel mostrare il suo nuovo lavoro. Perché? Secondo me il motivo è semplicemente che ancora G300 si tratta semplicemente di un prototipo abbozzato, ancora non terminato non tanto a livello di elettronica, quanto a livello di dissipazione della stessa. Magari le schede al GTC erano raffreddate al liquido e magari si pensa ad un'adozione di un sistema di dissipazione ad aria occupante tre slot. Cosa che oggi sembra un aborto, ma ricordo ai tempi della FX5800 (NV30) si gridava allo scandalo per l'adozione di sistemi di dissipazione a due slot, mentre oggi rappresenta semplicemente la normalità.

Entro la fine di novembre secondo me nVidia si è prefissata l'obiettivo di riuscire a raffreddare G300 con un dual slot, ma in caso di fallimento non credo che lascerà il mercato aperto ad ATi, ma opterà per una soluzione "alternativa".

Voglio dire ai tizi che affermano con assoluta certezza che la GPU non esiste e che non ci sono prototipi funzionanti che semplicemente si sforzano di leggere le notizie a modo loro, forse per autocompiacersi o autoconvincersi di aver effettuato un buon acquisto con le loro nuove ATi. Non sto dicendo che non lo sia stato, ma G300 vi fa sicuramente paura.

P.S.: Credo che salterò questa generazione a piè pari visto che sono assolutamente soddisfatto dai risultati ottenuti ancora oggi dalla mia attuale scheda video, quindi non ho alcun interesse a difendere uno o l'altro prodotto. :)

Ti quoto, Nvidia rincorre perchè Ati ha messo la freccia su dx11 uscendo molto anticipamente e punta su altri tipi di prodotti (phsx, 3d, ecc..), ora, per poi entrare in dx11 con qualcosa di paragonabile, ma effetivamente se si analizza il mercato oggi, un desktop nuovo furbo monta 5850.
Certo Nvidia conta ancora sull'eccellente sinergia software, ma quanto questa possa bastare è difficile dirlo, molti per 200 euro cambiano sponda.

leoneazzurro
07-10-2009, 08:13
Signori, l'argomento del thread è "le nuove schede Nvidia" e non "nvidia sta dismettendo le GTX a 55 nm?" oppure "E' più attendibile Fuad o Charlie Demerjian?". Se volete parlarne create un thread apposta.

Pat77
07-10-2009, 09:01
Più che la lontananza di G300 il problema di nVidia sono le HD57xx, per le quali non ha alcuna contromisura nemmeno lontana quanto può esserlo G300. L'unica contromisura, seppure molto costosa, è un G200@40nm, se esiste ancora come progetto e se si concretizzerà entro breve in prodotti.

Ma io infatti tralascio la fascia 400 euro, ma sottolineavo come la top ragionevole Ati, ragionevole come prezzo, sia ormai sui 200 euro, dove c'è il vuoto di Geforce paragonabili.
Hd57xx sarà una mazzata imho, non tanto per dx11, che ora non servono a nulla, ma quanto per una questione di logevità della stessa e quindi di prospettiva per l'utente.
Però Nvidia ha un tale vantaggio software e di Marketing che potrebbe tranquillamente minimizzare l'evidente ritardo, e in effetti Physx ha concretamente mostrato qualcosina, mentre dx11 no.

michelgaetano
07-10-2009, 09:05
No, per essere EOL basta smettere di produrle ;)


Beh sulla carta sì, ma se non metti altro in produzione... :stordita:

zorco
07-10-2009, 09:22
cmq anche se dovessero uscire in tempi brevi questi chip G200 a 40nm io mi orienterei ugualmente sulle nuove architetture ati a meno chè il prezzo sia estremamente basso,poi boh vedremo...

Severnaya
07-10-2009, 09:42
stolti GT300 batterà la concorrenza, è stato progettato da Chuck Norris


e se dovesse aver bisogno di un milione di transistor in più... lui li mette con un calcio volante a girare... ;asd;

Pat77
07-10-2009, 09:57
Non è vero ma è comunque OT

Mi sembra che questa caratteristica sia invece molto inerente, perchè fa parte del pacchetto geforce e potrebbe essere un incentivo all'acquisto a parità di Api.

devAngnew
07-10-2009, 10:07
Ma io infatti tralascio la fascia 400 euro, ma sottolineavo come la top ragionevole Ati, ragionevole come prezzo, sia ormai sui 200 euro, dove c'è il vuoto di Geforce paragonabili.
Hd57xx sarà una mazzata imho, non tanto per dx11, che ora non servono a nulla, ma quanto per una questione di logevità della stessa e quindi di prospettiva per l'utente.
Però Nvidia ha un tale vantaggio software e di Marketing che potrebbe tranquillamente minimizzare l'evidente ritardo, e in effetti Physx ha concretamente mostrato qualcosina, mentre dx11 no.


Quoto



Non è vero ma è comunque OT


E' certamente OT, però guarda non tutti hanno il tuo metro di paragone...

goldorak
07-10-2009, 10:19
Ma io infatti tralascio la fascia 400 euro, ma sottolineavo come la top ragionevole Ati, ragionevole come prezzo, sia ormai sui 200 euro, dove c'è il vuoto di Geforce paragonabili.
Hd57xx sarà una mazzata imho, non tanto per dx11, che ora non servono a nulla, ma quanto per una questione di logevità della stessa e quindi di prospettiva per l'utente.
Però Nvidia ha un tale vantaggio software e di Marketing che potrebbe tranquillamente minimizzare l'evidente ritardo, e in effetti Physx ha concretamente mostrato qualcosina, mentre dx11 no.

E vero che PhysX spunta qua e la, ma ci sono gia' le prime bordate di Havok.
E notizia di ieri mi pare che la UBISOFT (che non e' proprio l'ultima arrivata) ha firmato un accordo pluriennale per usare Havok in tutti i suoi futuri titoli.
Quanto scomettiamo che EA e Activision seguiranno a ruota magari nei prossimi mesi con annunci simili ?

okorop
07-10-2009, 10:20
http://www.hwupgrade.it/news/multimedia/nvidia-tegra-prestazioni-quadruplicate-per-la-prossima-generazione_30327.html
:)
E vero che PhysX spunta qua e la, ma ci sono gia' le prime bordate di Havok.
E notizia di ieri mi pare che la UBISOFT (che non e' proprio l'ultima arrivata) ha firmato un accordo pluriennale per usare Havok in tutti i suoi futuri titoli.
Quanto scomettiamo che EA e Activision seguiranno a ruota magari nei prossimi mesi con annunci simili ?
posta per favore....semmai in aspettando le nuove dx11 ati ;)

Pat77
07-10-2009, 10:40
E vero che PhysX spunta qua e la, ma ci sono gia' le prime bordate di Havok.
E notizia di ieri mi pare che la UBISOFT (che non e' proprio l'ultima arrivata) ha firmato un accordo pluriennale per usare Havok in tutti i suoi futuri titoli.
Quanto scomettiamo che EA e Activision seguiranno a ruota magari nei prossimi mesi con annunci simili ?

Meglio così, ma di fatto mi sembra più probabile che il mercato si orienti verso un binomio dx10, 10.1 e 11 accellerato con havok, che personalmente preferisco.
Che oggi l'influenza di Physx sia più forte è indubbio, gli utlimi due titoli da me giocati, Batman in demo e Risen richiedono i driver Nvidia per partire, e ho una scheda Ati...

Pat77
07-10-2009, 10:48
Mi riferivo alle DX11, e hai ragione, è del tutto pertinente visto che Fermi dovrebbe essere DX11:

Nel gioco in esame l'unica feature DX11 è la programmazione dell'ambient occlusion con i CS5.0. L'incremento prestazionale è di circa il 25%.

Quindi che le DX11 non servono a nulla ma PhysX sì è una fantasia.

Che poi è l'unico esempio attuale, su un gioco pessimo a dir poco. Se stracraft 2 ne beneficerà tanto di cappello sull'utilità di dx11, ma queste cose estemporanee, ripeto ORA, oggi, today, son nulla rispetto al supporto che phisx ha guadagnato.
Sono d'accordo anche io che alla fine anche la fisica sia un plus sostanzialmente poco incisivo e utile, che Havok con Hl2 abbia ben più impressionato, che Nvidia lo impone forzatamente come feature, come l'AA su Batman, senza che effettivamente vi sia l'impossibilità tecnica Ati, ma la situazione attuale è questa.
In futuro? Credo Havok tutta la vita, ma sicurezze non ne ho.

Pat77
07-10-2009, 10:51
Solo Batman richiede però una vga nVidia per attivare la "fisica"

E anche l'AA...
Sì Risen via software (non parte senza), ma comunque Physx hw dovrebbe dare benefici di performance.

Pat77
07-10-2009, 11:14
Parli di UN gioco decente che ha bisogno di una scheda nVidia? Dai siamo seri. SCII non credo sia previsto essere DX11, in compenso sarà Havok.

L'unico esempio attuale rende molto chiari i benefici delle DX11, su un gioco che non è affatto pessimo, l'ho trovato molto divertente.



La fisica non è affatto un surplus poco incisivo, lo è solo quando per motivi politici diventa tale perché supportata solo su una marca di hardware e non può quindi essere integrato nel gameplay, come è avvenuto per esempio in Dark Messiah per Havok, che è secondo me la migliore implementazione fisica mai vista in un gioco. Prova a pensare ad un Dark Messiah in cui la fisica gira solo su VGA nVidia. Con una VGA ATi il gioco non potresti giocarlo, visto che la fisica ne fa parte integrante e fondante.

E' per questo che PhysX su GPU non può affermarsi, dovendosi limitare a fronzoli estetici che dubito una CPU non potrebbe far girare altrettanto bene...

Dovresti un po' aprire la mente e lesinare meno certezze, non è affatto detto che Havok dominerà, le stesse DX sono api che limitano, proprietarie, eppure ai tempi di 3dfx non mi sembra che le più performanti e aperte opengl abbiano fatto breccia, Nvidia da sempre detiene un predominio sulsoftware evidente, e credo possa imporre uno standard, facendosi poi pagare per il supporto.
Oddio spero di no, spero veramente che havok sia implementato maggiormente, ma anche parlando di prospettive, prendendo ora Ati scometti, prendendo poi G300 hai la certezza.
Di cosa dirai? Del supporto software, sia che stereoscopia, Physx, Havok prendano piede, questa schede, dx11, supporterà tutto, il che non è poco.

Andrea deluxe
07-10-2009, 11:22
Dovresti un po' aprire la mente e lesinare meno certezze, non è affatto detto che Havok dominerà, le stesse DX sono api che limitano, proprietarie, eppure ai tempi di 3dfx non mi sembra che le più performanti e aperte opengl abbiano fatto breccia, Nvidia da sempre detiene un predominio sulsoftware evidente, e credo possa imporre uno standard, facendosi poi pagare per il supporto.
Oddio spero di no, spero veramente che havok sia implementato maggiormente, ma anche parlando di prospettive, prendendo ora Ati scometti, prendendo poi G300 hai la certezza.
Di cosa dirai? Del supporto software, sia che stereoscopia, Physx, Havok prendano piede, questa schede, dx11, supporterà tutto, il che non è poco.

quoto....

si avrebbe un prodotto unico. in grado di fare tutto.

michelgaetano
07-10-2009, 11:24
Del supporto software, sia che stereoscopia, Physx, Havok prendano piede, questa schede, dx11, supporterà tutto, il che non è poco.

Considerato che l'unica aggiunta sarebbe PhysX, ne faccio volentieri a meno vista l'incidenza ridicola su gameplay e prestazioni :D

Pat77
07-10-2009, 11:59
Considerato che l'unica aggiunta sarebbe PhysX, ne faccio volentieri a meno vista l'incidenza ridicola su gameplay e prestazioni :D

Vedremo dico io, non escludo che le componenti fisiche possano avere benefici differenti rispetto alla generazione attuale, di g300 si sa poco, per quanto mi riguarda potrebbe anche avere una parte del core completamente dedicato alla fisica con sp specializzati.

E' sempre una questione di costi benefici, questo vale sempre. Scommetto sul fatto che una serie di nonstandard possa prima o poi affermarsi o scommetto solo sugli standard?

Rispondendo a questa domanda, oltre a quella su quali prestazioni vuoi, il risultato è il nome di una VGA con il prezzo a fianco, se sei disposto a pagarlo, ammesso che quella scheda esista, naturalmente, procedi all'acquisto, altrimenti cambi le tue pretese e affronti lo stesso percorso finché non arrivi ad ottenere il prezzo che sei disposto a pagare.

E comunque non è una questione di Havok in quanto tale, ma una questione di un middleware basato su un solo hardware o uno "universale". Se PhysX verrà tradotto in DirectCompute o OpenCL le software house potranno sceglierlo per farci del gameplay, che non sarà confinato a solo hardware nVidia, altrimenti rimarrà sempre e comunque confinato ad una fisica che non è fisica, non prevedendo interazione.

E' solo una scelta su cui scommettere, quella che tu dici essere una sicurezza è solo una scommessa su un numero maggiore di variabili

La pensiamo uguale alla fine, il problema è che quello meglio sulla carta, non sempre lo è poi sul mercato, io ho sia Nvidia che Ati su vari pc, l'uscita di G300 dirà se si proseguirà sulla guerra dei formati, o come le estensioni delle CPU si troverà un accordo.

Foglia Morta
07-10-2009, 12:06
Relativamente all' articolo di Charlie sono stati chiesti chiarimenti ai partner commerciali di nVidia.

http://translate.googleusercontent.com/translate_c?hl=it&ie=UTF-8&sl=nl&tl=en&u=http://www.hardware.info/nl-NL/news/ymicmJqRwpeacJY/nVidia_staakt_productie_GTX_285_275_en_260/&rurl=translate.google.com&usg=ALkJrhgx6Wl5ATlFI4g9cRS9oWJywjz0TQ

Traduttore automatico olandese - inglese ( al link postato la traduzione dell'articolo completo ) :

UPDATE (11:37): Now we have a response from Nvidia's partners. Off-the-record could they tell us that they had been told that the nVidia GeForce GTX 285 is not end-of-life, but while they got the news to hear that nVidia chip that is currently not extradite. Those who understand the difference between, we should explain. The same partner knew us that the delivery of the GTX 275 is currently very difficult, but the GTX 260 is still good numbers is provided. All this is quite in line with SemiAccurate.com story.

Fine OT

Pat77
07-10-2009, 13:12
Su Notebook ci sono già le schede di fascia media dx 10.1, 48sp e bus 128 bit, il che mi ha sempre fatto pensare che in Seven dx10.1 sarà effettivamente un plus e per questo motivo upgradano a tale standard.
Certo che il fine anno nvidia non è come prospettive dei più rosei nei segmenti di mercato più reditizi.

kiriranshelo
07-10-2009, 13:13
Mi sono un attimino documentato e da quanto ho capito GT212 (questo sarebbe il nome del G200@40nm) doveva uscire nel 2Q09 ma è poi stato cancellato per motivi che non conosco (problemi produttivi? convergenza delle risorse sulla generazione successiva?).

Quindi probabilmente non ci sarà un G200@40nm, che è quello che invece mi aspettavo (ovviamente commercializzato con supporto DX10.1 e brand GeForce 3xx).

si ho letto anch'io in giro per la cancellazione di G200@40nm, che però, se non ricordo male era, in ogni caso, prevista solo per i portatili... :confused:

in ogni caso questo potrebbe confermare che devono uscire ad ogni costo con il chip nuovo, se nò saranno costretti a vendere sottocosto le soluzioni attuali in previsione di un taglio di prezzo di ATI per il RV770

Nino Grasso
07-10-2009, 13:22
Tanto che, in effetti, lo fai... Si, ho spezzato una lancia a favore di nVidia in un SINGOLO post. E a dire il vero credo sia abbastanza obiettivo come post, se non è così sono pronto ad editarlo e cancellarlo del tutto.

Tu, invece, da quanto tempo è che cerchi di affossare nVidia a tutti i costi con le nuove GPU? :stordita:

kiriranshelo
07-10-2009, 13:22
RV770 è EOL, fra 5 giorni scade l'NDA su Juniper che ne è il sostituto ed è già disponibile nei negozi ;)

... cavolo. Qualcosa dovranno pure tirare fuori per novembre se nò avranno questo trimestre non in rosso ma in caduta libera! e aspettare il 2010 è moltissimo tempo non avendo nulla da piazzare sul mercato che non sia già vecchio...

goldorak
07-10-2009, 13:35
Mi sono un attimino documentato e da quanto ho capito GT212 (questo sarebbe il nome del G200@40nm) doveva uscire nel 2Q09 ma è poi stato cancellato per motivi che non conosco (problemi produttivi? convergenza delle risorse sulla generazione successiva?).

Quindi probabilmente non ci sarà un G200@40nm, che è quello che invece mi aspettavo (ovviamente commercializzato con supporto DX10.1 e brand GeForce 3xx).

Quindi la notizia degli shortage di chip a 55nm riportata DigiTimes originata in realtà dalla notizia di shortage di chip a 55nm di nVidia significherebbe che nVidia starebbe puntando tutto sui 40nm, che al momento vede prodotti solo nella fascia low-end del mercato.

L'architettura Fermi è attesa per l'high-end (in base a chi ascolti si va da novembre al q2 per l'uscita di queste schede) mentre per la fascia mainstream e performance non c'è nulla. Possibile quindi che nVidia stia pensando ad una strategia tipo-Phenom in cui si produca un solo chip disabilitando quanto serve per ogni fascia di mercato (i tre SKU di cui si ventilava l'ipotesi da fonti nVidia?)

I malus di questa strategia sono costi produttivi enormi e TDP molto elevati (confermati dal rumor su G300 da raffreddare a liquido già a frequenze molto basse?), il vantaggio ovviamente nello sviluppo di un solo chip per tutte le stagioni, che in casi di yelds molto bassi può avere una certa logica, visto che se non li vendessi anche come tre quarti di G300 e metà G300 andrebbero comunque buttati via. Un limite di questo vantaggio è che se gli yelds aumentano devi continuare a buttarli via in fasce inferiori per andare incontro alla domanda, problema non risolvibile con una politica di EOL mirata in mancanza di un chip sostitutivo in quella fascia (rimanendo al comodo paragone con Phenom finché i core Propus non erano pronti non hanno potuto eliminare i Phenom II x4 8xx dalla lineup).

Scusa ma questo ragionamento per Nvidia non ha senso.

Supponendo che GT200@40nm non esista, ed Nvidia lasci scoperta la fascia mainstream per svariati mesi fino all'arrivo di Fermi nel 2010 mi pare una tattica suicida.
Fanno piazza pulita del segmento piu' remunerativo del mercato ? Non credo proprio.
Inoltre ce' il problema che se Fermi coprira' diverse fasce di mercato, ovviamente funzionera' cosi : prima i modelli per la fascia alta, poi a distanza di MESI arrivano quelli di fascia media ed infine quelli di fascia bassa. Supponendo che Fermi esca a gennaio 2010, significa che nella fascia mainstream per vedere un derivato si dovra' aspettare giugno 2010 ?
Non ha alcun senso. Nvidia deve mantenere una presenza mainstream (con modelli dx10 obsoleti) almeno finche' non potranno essere rimpiazzati con le gpu Fermi.
Ecco perche' penso che un GT200@40nm sia li pronto ad entrare nel mercato.
La situazione inverse invece significa che alla Nvidia si sono rinc@glioniti tutti dal capo fino al reparto marketing.

appleroof
07-10-2009, 13:37
RV770 è EOL, fra 5 giorni scade l'NDA su Juniper che ne è il sostituto ed è già disponibile nei negozi ;)

si in 3 pezzi :asd:

scusate la battuta (?) ma con il launch-paper di 5850 di cui sono stato vittima mi sono davvero scottato :rolleyes:

chiudo OT

ciccionamente90
07-10-2009, 13:42
(?)

(!)

Severnaya
07-10-2009, 13:46
scusate ma la gente informata quant'è?


voglio dire, la grande distribuzione potrebbe cmq vendere schede nvidia senza tanti problemi a prezzi (che noi ben sappiamo) essere sproporzionati ed ingiustificati, così che cmq nvidia ci guadagni avendo cmq perso terreno

mi chiedo il mercato reale, come sta reagendo a questa situazione che si è creata???

mircocatta
07-10-2009, 13:55
Dovresti un po' aprire la mente e lesinare meno certezze, non è affatto detto che Havok dominerà, le stesse DX sono api che limitano, proprietarie, eppure ai tempi di 3dfx non mi sembra che le più performanti e aperte opengl abbiano fatto breccia,
ancra con ste directx? NON sono legate a nessun hardware! il physx invece SI

Le GLIDE erano librerie proprietarie 3Dfx funzionanti solo sul loro hardware. Infatti sono morte.




quindi in sintesi physx ora si trova nella stessa situazione delle Glide di 3Dfx no?
dx vs GLIDE= dx
havok vs Physx= ...:fagiano:

kiriranshelo
07-10-2009, 13:59
La cosa che a me suona strana è che nVidia ha speso l'apocalisse pur di non perdere quota di mercato, quindi i casi sono pochi:

- Non ha nulla da vendere che possa essere competitivo senza andarci in rimessa troppo pesante e non c'è più la disponibilità finanziaria a andarci in rimessa pur di mantenere la quota.

- Ha qualcosa nel cassetto e lo sta nascondendo talmente bene che nessuno ne sa nulla.

- Farà del sampling/binning dei chip e utilizzerà la "via Phenom" per coprire tutta la fascia alta del mercato anche se questo costerà dei soldi, ma pur sempre meno che vendere in forte rimessa i prodotti su G200.

è probabile che si siano concentrati moltissimo su cuda, physx, cloud computing (non credo si scriva così), forse troppo concentrati da perdere di vista l'obiettivo principale

Ecco perche' penso che un GT200@40nm sia li pronto ad entrare nel mercato.
La situazione inverse invece significa che alla Nvidia si sono rinc@glioniti tutti dal capo fino al reparto marketing.

http://www.tweaktown.com/news/11075/nvidia_has_not_taped_out_gt212_yetindex.html

Errik89
07-10-2009, 14:03
si in 3 pezzi :asd:

scusate la battuta (?) ma con il launch-paper di 5850 di cui sono stato vittima mi sono davvero scottato :rolleyes:

chiudo OT
visto che hai lanciato la frecciatina fammi rispondere anche se OT ;)
RV840 sarà disponibile in quantità maggiori rispetto alla 5850, tant'è che già prima dell'uscita ci sono shop ITALIANI (!) che l'hanno già disponibile, un po' come accadde per RV770. L'unico problema è sulla 5850, visto che la 5870 è disponibile e il fatto che manca ora negli shop è solo dovuto alle alte richieste, visto che quelli che l'hanno ordinata subito ce l'hanno già da una settimana. Il problema sulla reperibilità della 5850 può essere dovuto o al fatto che le rese sono state più alte del previsto e quindi sono pochi i chip "difettati" (con 2 SIMD in meno) da mettere sulla 5850 oppure è dovuta al fatto che ATI avendo fatto una presentazione "il prima possibile" ha preferito rendere disponibili subito un numero maggiore possibile di HD5870 sacrificando la disponibilità di HD5850 (cosa che credo io, visto che non penso che le rese siano già così alte ora che sono all'inizio della produzione) visto che sulle HD5870 ha un margine MOLTO maggiore rispetto a quello sulle HD5850. Che poi te hai preso la 5850 e ti è andata di sfiga non sei l'unico, visto che pure io la sto aspettando e come te ho già venduto la 4870, però non mi sembra il caso di andare in tutti i thread a dire che ATI ha fatto un paper launch quando NON è vero ;) [FINE OT]

Comunque tornando IT a quanto pare GT200@40nm (alias GT212) non sarà fatto, qualcuno mi spiega che chip doveva essere il GT214 su cui Charlie nel suo articolo ha detto che è stato un fallimento pure quello? Doveva essere forse il chip di fascia media a 40nm che nvidia doveva lanciare contro RV740?? :confused:
Perchè almeno con quello potrebbe tamponare il ritardo di GT300 e la mancanza di un chip per la fascia fino a 149/199$.
Comunque nel caso non uscisse nulla non credo proprio che nvidia mandi EOL tutte le GTX200, IMHO almeno la GTX260 la terrà e credo anche la GTX285 magari allo stesso prezzo della 5850 (anche se dovrebbe costare meno di questa penso che qualcosa venderebbe comunque). Nel caso fosse vera la notizia che G200b sarà EOL nelle prossime settimane praticamente nvidia si ritroverebbe ad avere come chip più performante il caro e VECCHIO (in tutti i sensi) G92b con le GTS250, ma IMHO non credo e soprattutto non spero che sarà così.

Comunque non è possibile che nvidia negli ultimi 3 anni sia stata capace solo di tirare fuori G94 (che ormai può essere solo relegato alla fascia bassa), G92 (praticamente uno shrink di G80) e GT200 (che resta troppo costoso per il prezzo a cui può essere venduto ora), non ci voglio credere e non ci posso credere. Se così fosse gli ingegneri nvidia sono da prendere a calci in culo, visto che non sono nemmeno stati in grado di fare un chip di fascia media partendo da G200, chip che mi pare doveva uscire a inizio anno come fu l'anno scorso per G94... :rolleyes: :rolleyes:

Se fosse vera la teoria di Ratatosk del "modello phenom" credo che contro Juniper nvidia non riuscirebbe comunque a competere ad armi pari visto che un G300 per quanto castrato consumera sensibilmente di più rispetto a RV840 e forse anche rispetto alla HD5850 :(

Sembra di assistere a R600 ma a parti invariate, con la differenza però che ATI all'epoca aveva ancora la serie x1900 che poteva dire qualcosa e aveva comunque chip di fascia "media" (se così si può definire RV630 :asd: ), ora nvidia non ha proprio NULLA. :muro: :muro:

goldorak
07-10-2009, 14:15
http://www.tweaktown.com/news/11075/nvidia_has_not_taped_out_gt212_yetindex.html

E un articolo vecchio di parecchi mesi eh, si parla gennaio 2009.
Ad ogni modo se fosse vero che si fa, un terzo (quarto ?) respin di G92 abbandonando tutta la fascia dai 100 ai 200 € ?
Gia' ora come ora si trovano delle incongruenze pazzesche nella line up Nvidia, tanto per dire 9800gtx+ (con il nome nuovo) a 512 MB costa 100 €, la variante con 1 GB di ram costa 170 € !!!! Cioe' questi modelli qui (non GT200) quando arriva juniper non li compra piu' nessuno.
Si avra' facia < 100 € coperta da G92, quella da 100 fino ai 200 € vuota e quella >300 € altrettanto vuota eccetto per qualche appassionato Nvidia che compra una GTX295 etc...
Cosa fanno, sperano che Ion prevalga nel mercato netbook/nettop e simili ?

Errik89
07-10-2009, 14:16
Scusate il terzo post di fila, notizia non strettamente correlata alle "nuove GTX", ma comunque riguardante il processo produttivo.

Prime GPU 40nm per nVidia: http://www.hwupgrade.it/news/skvideo/due-gpu-nvidia-a-40-nanometri-al-debutto-a-ottobre_30360.html
letto, lo stavo per postare io. :D
Comunque si parla di fascia bassa, almeno quella sarà coperta.. :rolleyes:
Qualcuno ha notizie del fantomatico chip GT214 (che forse doveva essere uno shrink a 40nm di G92 o di G94??)?? :confused:

appleroof
07-10-2009, 14:31
visto che hai lanciato la frecciatina fammi rispondere anche se OT ;)
RV840 sarà disponibile in quantità maggiori rispetto alla 5850, tant'è che già prima dell'uscita ci sono shop ITALIANI (!) che l'hanno già disponibile, un po' come accadde per RV770. L'unico problema è sulla 5850, visto che la 5870 è disponibile e il fatto che manca ora negli shop è solo dovuto alle alte richieste, visto che quelli che l'hanno ordinata subito ce l'hanno già da una settimana. Il problema sulla reperibilità della 5850 può essere dovuto o al fatto che le rese sono state più alte del previsto e quindi sono pochi i chip "difettati" (con 2 SIMD in meno) da mettere sulla 5850 oppure è dovuta al fatto che ATI avendo fatto una presentazione "il prima possibile" ha preferito rendere disponibili subito un numero maggiore possibile di HD5870 sacrificando la disponibilità di HD5850 (cosa che credo io, visto che non penso che le rese siano già così alte ora che sono all'inizio della produzione) visto che sulle HD5870 ha un margine MOLTO maggiore rispetto a quello sulle HD5850. Che poi te hai preso la 5850 e ti è andata di sfiga non sei l'unico, visto che pure io la sto aspettando e come te ho già venduto la 4870, però non mi sembra il caso di andare in tutti i thread a dire che ATI ha fatto un paper launch quando NON è vero ;) [FINE OT]

Nessuna frecciatina o mezzucci da fanboy, ho scritto chiaramente quello che hai letto.

Come chiami un presentare una scheda e non darla disponibile sul mercato? PAPER-LAUNCH, il resto (disponibilità in volumi ecc) sono chiacchere perchè proprio perchè le rese produttive sono basse ci dovrebbero essere più 5850 che 5870; quanto a 57x0 occorre vedere se non faranno lo stesso scherzo, con poche schede disponibili subito, vedremo...



Sembra di assistere a R600 ma a parti invariate, con la differenza però che ATI all'epoca aveva ancora la serie x1900 che poteva dire qualcosa e aveva comunque chip di fascia "media" (se così si può definire RV630 :asd: ), ora nvidia non ha proprio NULLA. :muro: :muro:

vedi il faboy da dove si riconosce, alla fine dai suoi stessi argomenti: Ora Ati aveva la serie x1900 che era dx9 ed una top che era dx10. Adesso Nvidia potrebbe (come credo farà per almeno metà 2010, con conseguenze poi da verificare) commercializzare g92 (magari shrinkato a 40nm e con supporto dx10.1) in fascia bassa e media e g300 in fascia alta. Nel primo caso Ati aveva "almeno" la serie x1900, adesso Nvidia non ha nulla, mentre in realtà la situazione è speculare.

La differenza piuttosto andrebbe vista nel fatto che cmq all'epoca Nvidia non commercializzò subito soluzioni di fascia bassa e media dx10, e quando lo fece queste avevano prestazioni talmetne ridicole da far preferire cmq una vecchia top dx9, stante l'abbassamento di prezzo di queste e la mancanza di giochi dx10. Adesso invece Ati (paper-launch a parte, ma cmq prima della concorrente, in quanto per il lancio di G300 ci saranno tutte le nuove Ati in volumi) ha l'intera line-up dx11, con prestazioni in fascia media e bassa ottime (5770 e 5570) e cmq tali da non far preferire una top dx10 (tipo una gtx260 o gtx275) a parità di prezzo. Senza contare che qualche gioco "finto-dx11" già sta uscendo, mentre per quelli "finti dx10" cmq si aspettò parecchio rispetto al lancio di G80.

Come giustamente noti, anche vendebdo G300 castrati, non avrebbe margini di vendita in fascia bassa e media (a meno di accettare volontariamente di vendere sottocosto per alcuni mesi)

E' per questi motivi che vedo male la situazione di Nvidia, che dovrà dare una svolta molto decisa per uscirne, pena nel giro di qualche trimestre trovarsi davvero nei guai

Pat77
07-10-2009, 14:34
ancra con ste directx? NON sono legate a nessun hardware! il physx invece SI

Stessa cosa identica, Dx only Windows e schede compatibili all'api scelta dx8-9-10, Open Gl vanno ovunque. Giochi Opengl una miseria. Giochi DX quasi tutti.

Fino ad oggi non c'è cosa che non si sia verificata come pensavo, il futuro... always in motion the future is


Tipo tu avevi predeto che g80 aveva shaders unificati? Se così fosse mi serve una consulenza per alcune scomesse sportive :D

peicross
07-10-2009, 14:38
ho visto la nuova gt120 e mi e sorta una domanda un po banale
sara + potente di una 4870??

Errik89
07-10-2009, 14:38
Nessuna frecciatina o mezzucci da fanboy, ho scritto chiaramente quello che hai letto.

Come chiami un presentare una scheda e non darla disponibile sul mercato? PAPER-LAUNCH, il resto (disponibilità in volumi ecc) sono chiacchere perchè proprio perchè le rese produttive sono basse ci dovrebbero essere più 5850 che 5870; quanto a 57x0 occorre vedere se non faranno lo stesso scherzo, con poche schede disponibili subito, vedremo...




vedi il faboy da dove si riconosce, alla fine dai suoi stessi argomenti: Ora Ati aveva la serie x1900 che era dx9 ed una top che era dx10. Adesso Nvidia potrebbe (come credo farà per almeno metà 2010, con conseguenze poi da verificare) commercializzare g92 (magari shrinkato a 40nm e con supporto dx10.1) in fascia bassa e media e g300 in fascia alta. Nel primo caso Ati aveva "almeno" la serie x1900, adesso Nvidia non ha nulla, mentre in realtà la situazione è speculare.

La differenza piuttosto andrebbe vista nel fatto che cmq all'epoca Nvidia non commercializzò subito soluzioni di fascia bassa e media dx10, e quando lo fece queste avevano prestazioni talmetne ridicole da far preferire cmq una vecchia top dx9, stante l'abbassamento di prezzo di queste e la mancanza di giochi dx10. Adesso invece Ati (paper-launch a parte, ma cmq prima della concorrente, in quanto per il lancio di G300 ci saranno tutte le nuove Ati in volumi) ha l'intera line-up dx11, con prestazioni in fascia media e bassa ottime (5770 e 5570) e cmq tali da non far preferire una top dx10 (tipo una gtx260 o gtx275) a parità di prezzo. Senza contare che qualche gioco "finto-dx11" già sta uscendo, mentre per quelli "finti dx10" cmq si aspettò parecchio rispetto al lancio di G80.

Come giustamente noti, anche vendebdo G300 castrati, non avrebbe margini di vendita in fascia bassa e media (a meno di accettare volontariamente di vendere sottocosto per alcuni mesi)

E' per questi motivi che vedo male la situazione di Nvidia, che dovrà dare una svolta molto decisa per uscirne, pena nel giro di qualche trimestre trovarsi davvero nei guai
ma infatti ho scritto proprio che ATI aveva almeno la x1900 che contro G84 poteva dire qualcosa, anzi era ampiamente preferibile, mentre ora nvidia non ha nulla perchè G92 e G200 contro RV840 non possono dire nulle e RV840 è ampiamente preferibile a entrambi!! (Ma già RV740 è preferibile a G92b, IMHO) ;)

Per quanto riguarda il paper-launch ti rispondo in PM così la smettiamo con l'OT ;)

P.s.: non sono un fanboy! Preferisco ATI perchè molte scelte aziendali di nvidia mi hanno dato fastidio ma comunque anche io come te ho avuto sia nvidia che ati nel case. :)


Stessa cosa identica, Dx only Windows e schede compatibili all'api scelta dx8-9-10, Open Gl vanno ovunque. Giochi Opengl una miseria. Giochi DX quasi tutti.



Tipo tu avevi predeto che g80 aveva shaders unificati? Se così fosse mi serve una consulenza per alcune scomesse sportive :D
io per il superenalotto :fagiano: :fagiano: :D

appleroof
07-10-2009, 14:55
ho visto la nuova gt120 e mi e sorta una domanda un po banale
sara + potente di una 4870??

EDIT: già risposto

michelgaetano
07-10-2009, 14:56
se ti riferisci a queste http://www.hwupgrade.it/news/skvideo/due-gpu-nvidia-a-40-nanometri-al-debutto-a-ottobre_30360.html assolutamente no.

Cavolo paragonarle a 4870/260... :asd:

appleroof
07-10-2009, 14:58
Cavolo paragonarle a 4870/260... :asd:

:read:

Pat77
07-10-2009, 15:19
Parlavi di 3Dfx che è morta per questo. 3Dfx è morta con il suo "standard" proprietario GLIDE.


Ti sbagli, fu la politica di farsi tutto in casa, l'acquisto di Stb, un VSA100 sotto le aspettative, il ritardo di rampage, di proprietario aveva tutto, la grafica 3d in se, glide era solo un linguaggio che fu inizialmente utilizzato perchè non esisteva nulla pensato specificatamente per il gaming pc con mutitexturing (brevetto 3dfx anche questo).

Già da voodoo3, se si esclude Unreal e Carmack, era tutto Dx.

Anche con g300 non è detto che fallirà per physx, o che avrà successo, per me conteranno maggiormente le performance in rapporto al prezzo.

kiriranshelo
07-10-2009, 15:27
E un articolo vecchio di parecchi mesi eh, si parla gennaio 2009...

si ma non è la data quella importante. Il punto che la GT212 era il modello di punta della tecnologia G200@40nm; se l'hanno annullata evidentemente è perchè pensano/pensavano di riuscire ad avere un chip più evoluto per questa fascia di mercato

Sergio_Di_Rio
07-10-2009, 16:28
edit

EmmeP
07-10-2009, 16:32
Speriamo che escano in contemporanea con Crysis 2.. così ho un buon motivo x cambiare vga :D

okorop
07-10-2009, 16:33
Speriamo che escano in contemporanea con Crysis 2.. così ho un buon motivo x cambiare vga :D

lo spero anche io quidni tra 2 anni......:asd:
a parte gli scherzi la situazione è sempre piu' disastrosa, solo ora riescono a produrre vga di fascia bassa a 40nm e commercializzarle....la vedo dura sta volta per nvida

Nino Grasso
07-10-2009, 16:40
Piccole cucche crescono :)

appleroof
07-10-2009, 16:44
Piccole cucche crescono :)

:confused:

The_SaN
07-10-2009, 16:45
:confused::confused: + 1

Errik89
07-10-2009, 16:52
:confused: + 1
:confused: + 1 + 1

Pat77
07-10-2009, 17:04
Non mi è nemmeno passato per la mente :D

Io non sostengo che nVidia morirà a causa di PhysX, ma che PhysX morirà a causa di nVidia :)

Fosse per loro la metterebbero ovunque.

michelgaetano
07-10-2009, 17:21
:confused: + 1 + 1

:confused: + 1 + 1 + 1

Sergio_Di_Rio
07-10-2009, 17:29
Non ho letto l'articolo, ma una cosa simile, con toni decisamente più asettici, è stata riportata anche da fudzilla.

http://www.fudzilla.com/content/view/15831/1/

In effetti c'è il rischio che per competere sul mercato con le 5xxx, le attuali GTX vadano vendute sottocosto.

La mazzata più pesante comunque arriverà dalle 57xx. Se nVidia riesce a tirare fuori dal supercippone qualcosa per competere con tutte le 58xx *e* le 57xx in breve termine ha tutta la mia stima

(in realtà penso che per questa volta giocherà in difesa)

Beh, una cosa è decretare l'uscita totale di nvidia dal mercato delle gpu per il gaming, un'altra è pronosticare due trimestri finanziari in rosso.

EmmeP
07-10-2009, 17:38
lo spero anche io quidni tra 2 anni......:asd:
a parte gli scherzi la situazione è sempre piu' disastrosa, solo ora riescono a produrre vga di fascia bassa a 40nm e commercializzarle....la vedo dura sta volta per nvida

Ma che dura.. il top lo detiene ancora la gtx295.. anzi anke la 4870x2 sta sopra alla 5870.. ma quest'ultima costa 40€di più.. è per questo ke nvidia se la prende comoda..

dovranno iniziare a preoccuparsi quando usciranno le 5850x2 e 5870x2..

ma di sicuro le gt300 saranno dei mostri :sofico:

michelgaetano
07-10-2009, 17:45
Ma che dura.. il top lo detiene ancora la gtx295..

Se per top si intende quel misero 7 % circa (e che calerà con la maturazione drivers), peraltro dato da medie (quindi con giochi dove lo SLI scala benissimo, e in altro dove va in maniera pessima), sì, ma il distacco è così poco che le due scede di fatto sono equivalenti.

Se consideriamo poi che la 5870 consuma e scalda meno, è single gpu e lavora meglio coi filtri, nonchè costare meno, beh, la 295 è ampiamente sotto e fuori luogo - come ogni scheda multigpu al momento, imho.

EmmeP
07-10-2009, 17:47
Non ho letto l'articolo, ma una cosa simile, con toni decisamente più asettici, è stata riportata anche da fudzilla.

http://www.fudzilla.com/content/view/15831/1/

In effetti c'è il rischio che per competere sul mercato con le 5xxx, le attuali GTX vadano vendute sottocosto.

La mazzata più pesante comunque arriverà dalle 57xx. Se nVidia riesce a tirare fuori dal supercippone qualcosa per competere con tutte le 58xx *e* le 57xx in breve termine ha tutta la mia stima

(in realtà penso che per questa volta giocherà in difesa)

La vera mazzata secondo me potrebbe essere la hd5850.. è davvero un'ottima scheda.. è più leggermente più prestante della gtx285 ma costa nn poco dimeno.. io penso ke sia la migliore scelta attuale sul mercato!!!

EmmeP
07-10-2009, 17:54
Se per top si intende quel misero 7 % circa (e che calerà con la maturazione drivers), peraltro dato da medie (quindi con giochi dove lo SLI scala benissimo, e in altro dove va in maniera pessima), sì, ma il distacco è così poco che le due scede di fatto sono equivalenti.

Se consideriamo poi che la 5870 consuma e scalda meno, è single gpu e lavora meglio coi filtri, nonchè costare meno, beh, la 295 è ampiamente sotto e fuori luogo - come ogni scheda multigpu al momento, imho.

Bè nella maggior parte dei test c'è sempre un margine di 10/20fps per la gtx295 sopratutto a risoluzioni alte e filtri attivi.. un utente che pretende il top guarda anke i 5fps e cn quello ke spende di certo nn si preoccupa della bolletta della luce :D

Errik89
07-10-2009, 17:59
Bè nella maggior parte dei test c'è sempre un margine di 10/20fps per la gtx295 sopratutto a risoluzioni alte e filtri attivi.. un utente che pretende il top guarda anke i 5fps e cn quello ke spende di certo nn si preoccupa della bolletta della luce :D
un utente che pretende il top oggi come oggi tra GTX295 e HD5870 prende ad occhi chiusi la 5870 che è pure DX11. Comunque siamo OT ;)

michelgaetano
07-10-2009, 17:59
Bè nella maggior parte dei test c'è sempre un margine di 10/20fps per la gtx295 sopratutto a risoluzioni alte e filtri attivi.. un utente che pretende il top guarda anke i 5fps e cn quello ke spende di certo nn si preoccupa della bolletta della luce :D

Posso anche capire il discorso dei consumi, ma non vedo motivo di scegliere, a prezzo maggiore, una scheda che:

- Scalda di più
- Consuma di più
- Non ha DirectX 11 (neanche 10.1, ma vabeh)
- Non scala bene in tutti le applicazioni, con la rivale a non avere mai problemi
- Costa di più
- Volendo, ha anche 100 in meno di vram (vabeh :asd:)

Tutto questo per una miseria in prestazioni. Sempre a riguardo di queste, ti invito a dare un'occhiata qui http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating. Come vedrai in base ai vari ambiti va meglio una o l'altra scheda, con la Ati ad andare meglio con filtri pesantissimi (e chi compra una scheda del genere, i filtri li pretende, a mio avviso). La stessa rece di HWU evidenzia un gap medio prestazionale del 7 %.

Edit: chiudo il solito OT prestazionale, oramai mi perdo tra i thread :muro:

Lino P
07-10-2009, 18:10
raga ma cosa bolle in pentola per nvidia? a quando la risposta a 40 nm e dx11 ad ati?

michelgaetano
07-10-2009, 18:11
raga ma cosa bolle in pentola per nvidia? a quando la risposta a 40 nm e dx11 ad ati?

C'è tanto mistero, ma Nvidia dice di lanciare Fermi entro il 2009 (la disponibilità reale si pensa sia ad inizio 2010).

Secondo altri però Nvidia è messa molto male nelle rese produttive e bisogna aspettare il Q1 2010 per il lancio e l'effettiva disponibilità dei prodotti.

Lino P
07-10-2009, 18:12
C'è tanto mistero, ma Nvidia dice di lanciare Fermi entro il 2009 (la disponibilità reale si pensa sia ad inizio 2010).

Secondo altri però Nvidia è messa molto male nelle rese produttive e bisogna aspettare il Q1 2010 per il lancio e l'effettiva disponibilità dei prodotti.

mm

devAngnew
07-10-2009, 18:27
Piccole cucche crescono :)

Se non erro sono gli Invidiosi che gufano alle spalle........ :asd: :asd: :asd: :stordita:

Sergio_Di_Rio
07-10-2009, 18:43
Ma che dura.. il top lo detiene ancora la gtx295.. anzi anke la 4870x2 sta sopra alla 5870.. ma quest'ultima costa 40€di più.. è per questo ke nvidia se la prende comoda..

dovranno iniziare a preoccuparsi quando usciranno le 5850x2 e 5870x2..

ma di sicuro le gt300 saranno dei mostri :sofico:

Queste le mie considerazioni all'uscita della review della 5870:Che dire: veramente un mostro di scheda.

Secondo la review di HWU


+ 48% in media rispetta alla scheda a chip singolo più potente della propria gen precedente (4890)

+ 31,2% di media rispetto alla gpu singola più potente della vecchia gen (GTX285)

Quasi alla pari con le schede dual chip della gen antecedente (in media -5% sulla 4870x2 e -7.5% sulla GTX295)[/CENTER] E questo con i primissimi driver! 7,5% di diff. con il top del top (che ricordiamoci è una dual gpu!!!) e driver acerbi sono un grandissimo risultato. Nvidia in questo momento è in difficoltà, forse pure troppo.

michelgaetano
07-10-2009, 18:54
E questo con i primissimi driver! 7,5% di diff. con il top del top (che ricordiamoci è una dual gpu!!!) e driver acerbi sono un grandissimo risultato.

È quello che dico, ma certi si limitano a trollare rispondendo "credete ancora nei drivers miracolosi come con R600" :rolleyes:

appleroof
07-10-2009, 19:15
È quello che dico, ma certi si limitano a trollare rispondendo "credete ancora nei drivers miracolosi come con R600" :rolleyes:

c'è da dire che quella è stata l'illusione più forte che abbia mai visto nella storia delle vga :asd:

michelgaetano
07-10-2009, 19:17
c'è da dire che quella è stata l'illusione più forte che abbia mai visto nella storia delle vga :asd:

Ma non lo metto in dubbio apple, ricordo bene la gente :sofico: (in realtà più ricordarla ho letto, allora non ero ancora nel "giro" :asd:)

Però da qui a dire che la normale ottimizzazione driver (c'è sempre stata, da entrambe le parti), che ti fa guadagnare qualche punto percentuale sul lungo periodo, è credere nei driver miracolosi, mi sembra alquanto poco obiettivo :stordita:

appleroof
07-10-2009, 19:20
Ma non lo metto in dubbio apple, ricordo bene la gente :sofico: (in realtà più ricordarla ho letto, allora non ero ancora nel "giro" :asd:)

Però da qui a dire che la normale ottimizzazione driver (c'è sempre stata, da entrambe le parti), che ti fa guadagnare qualche punto percentuale sul lungo periodo, è credere nei driver miracolosi, mi sembra alquanto poco obiettivo :stordita:

no no, all'epoca credevano proprio al miracolo :read: :asd:

e infatti non era obiettivo (realistico, direi) per nulla :D

vabbè chiudiamo Ot

michelgaetano
07-10-2009, 19:22
no no, all'epoca credevano proprio al miracolo :read: :asd:

e infatti non era obiettivo (realistico, direi) per nulla :D

vabbè chiudiamo Ot

Sì sì, io parlavo del miglioramento che le 5xx0 possono ancora ottenere con le future release, qualcosina lo miglioreranno :D Ma non drivers miracolosi che sfruttano la nuova architettura etc :asd:

Crysis90
07-10-2009, 19:26
http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

:eek: :eek:

appleroof
07-10-2009, 19:27
Sì sì, io parlavo del miglioramento che le 5xx0 possono ancora ottenere con le future release, qualcosina lo miglioreranno :D Ma non drivers miracolosi che sfruttano la nuova architettura etc :asd:

su questo sono d'accordo,anche se non credo che nel caso delle 58x0 la cosa peserà moltissimo, essendo diretta evoluzione di rv770 (già tra r600 e rv670 c'erano più margini, perchè l'architettura aveva subito cambiamenti più importanti che tra rv770 e rv870 -in primis il bus-)

cmq un minimo margine ci sarà anche qui, e lo spero visto che avrò una scheda di quel tipo

cmq davvero qui siamo completamente Ot

appleroof
07-10-2009, 19:29
http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

:eek: :eek:

mah...

Errik89
07-10-2009, 19:34
http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

:eek: :eek:
hanno ripreso l'articolo di Charlie.. IMHO non è vero che tolgono le GTX260 e 275. Forse solo la 285.

RaZoR93
07-10-2009, 19:46
http://www.dinoxpc.com/News/news.asp?ID_News=17803&What=News&tt=Niente+pi%F9+GTX285%2C+275+e+260.+NVIDIA+lascia+i+mercati+mid+e+high

:eek: :eek:Mi sembrano affermazioni un tantino esagerate...

Pike79
07-10-2009, 20:01
Ripetuti fallimenti? :eek:

michelgaetano
07-10-2009, 20:04
Esagerati, imho.

devAngnew
07-10-2009, 20:11
Ripetuti fallimenti? :eek:

Ehe si la sai l'ultima domattina il centro Nvidia di santa clara chiuderà............. :asd: :asd: :asd: :eek: :asd: :asd:

Pike79
07-10-2009, 20:23
Ehe si la sai l'ultima domattina il centro Nvidia di santa clara chiuderà............. :asd: :asd: :asd: :eek: :asd: :asd:

:cry: :banned: :D

Sergio_Di_Rio
07-10-2009, 20:32
:cry:

http://www.hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363/

:cry:

Das~Ich
07-10-2009, 20:37
As many of our readers have been discussing Charlie's recent article. There is some serious scuttlebutt going around about NVIDIA's market intentions. Here is what Charlie Demerjian lead with yesterday.

NVIDIA IS KILLING the GTX260, GTX275, and GTX285 with the GTX295 almost assured to follow as it (Nvidia: NVDA) abandons the high and mid range graphics card market. Due to a massive series of engineering failures, nearly all of the company's product line is financially under water, and mismanagement seems to be killing the company.

You can find the rest of the article here (http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/).

I have known Charlie for a long time and have shared time with him all over the globe, and I will say that there is almost always a basis of truth in his stories. That said, there is almost always a reach to dramatize and spin the article into line with what I think are personal motivations. Regardless of your opinion on this, I see what Charlie writes as "Tech Tabloid" and I think most of us will agree on this.

Headlines like Charlie is writing now should not go unanswered, so we asked NVIDIA for an official statement as to this topic so we could publish it for [H] readers, and here it is from Ken Brown at NVIDIA PR:

Hi Kyle,

Thanks for asking.

There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad.

Please let your readers know, and let us know if you have any more questions.

Thanks.

Wow. Don't think there is anything left to say on this. Enjoy.

Percarità, una buona parte delle cose che dice charlie sono vere però state certi che nvidia non è, e non può essere, così sprovveduta. Se ci sono dei ritardi verranno colmati, l'unica nota dolente è quando. Comunque è evidente che dal GT218 in poi (verso l'alto in ambito prestazionale) la situazione sembra essere pessima. E' stato riportato oggi dei gt2180 con 48 sp e frequenze di 615mhz-1580 a 50-80 euro . Che senso ha fare uscire prodotti del genere se non farsi male da soli ? Di problemi, e molti, è evidente che ce ne siano ed è per questa ragione che jen hsung huang si è autoridotto lo stipendio fino al dollaro politico fino alla fine di questa situazione di stallo, e con lui molti altri. Nvidia se la sta passando molto male ed una situazione del genere a mio avviso non l'ho mai vista, però da qui a morire ce ne passa ;)

leoneazzurro
07-10-2009, 20:38
Difficile credere che Nvidia esca dal mercato, le GPU sono il suo mercato primario. Possibile invece che voglia limitare le perdite fino all´uscita di Fermi e derivati, e questo significa anche riduzione delle scorte.

dewwwxx84
07-10-2009, 20:49
Se fosse proprio messa cosi' male INTEL potrebbe fargli una visitina con la 24ore piena di dollaroni....... :D

Forse dico un'eresia

INTEL NVIDIA :ubriachi: :sofico:

Matalf
07-10-2009, 20:52
Se fosse proprio messa cosi' male INTEL potrebbe fargli una visitina con la 24ore piena di dollaroni....... :D

Forse dico un'eresia

INTEL NVIDIA :ubriachi: :sofico:

è quello di cui ho paura


e per noi sarebbe un disastro (credo):(

Das~Ich
07-10-2009, 21:02
Difficile credere che Nvidia esca dal mercato, le GPU sono il suo mercato primario. Possibile invece che voglia limitare le perdite fino all´uscita di Fermi e derivati, e questo significa anche riduzione delle scorte.

Certo, ma questo significherebbe lasciare ceh ati faccia man bassa e poi che fermi dovrebbe essere particolarmente efficiente e sufficientemente economico, a scalare verso il basso e per ogni fascia di prezzo. Certo però se fosse vero che persino gt300 con 512sp per operare a 600mhz debba necessitare di un sistema di dissipazione a liquido, mi chiedo io ... sono alla frutta ? Qui c'è bisogno di un bel cambio di strategia, ed immediatamente ! D'altra parte continuare con die size del genere se ho capito bene sarebbe stato egualmente un suicidio prima o poi, il fatto che ati giustamente abbia optato per die size molto piccoli ne è la prova. Efficienza di calcolo con die size grandi oppure il contrario con die size più contenuti ? Forse cme ha detto "qualcuno" anche quel dollaro politico per un intero anno di lavoro è una valutazione eccessiva ed immotivata :doh:

okorop
07-10-2009, 21:02
Ma che dura.. il top lo detiene ancora la gtx295.. anzi anke la 4870x2 sta sopra alla 5870.. ma quest'ultima costa 40€di più.. è per questo ke nvidia se la prende comoda..

dovranno iniziare a preoccuparsi quando usciranno le 5850x2 e 5870x2..

ma di sicuro le gt300 saranno dei mostri :sofico:

infatti son tutti a comprare gtx295 e non 4 5870 gli enthisiast :asd:
Immagino che chiunque oggi voglia comprarsi il top si compri una GTX295... :rolleyes:

ma anche no....:asd:
Da come sviluppa le GPU da G200 sembra che il suo mercato primario sia quello dei supercomputer. Nel quale il mainstream non esiste, ovviamente...

molto probabile.....
Se fosse proprio messa cosi' male INTEL potrebbe fargli una visitina con la 24ore piena di dollaroni....... :D

Forse dico un'eresia

INTEL NVIDIA :ubriachi: :sofico:


non puo' per le leggi della concorrenza.....

The_SaN
07-10-2009, 21:12
è quello di cui ho paura


e per noi sarebbe un disastro (credo):(Non so se l'antitrust permetterebbe una cosa del genere :asd:

Comunque mi sembra precipitato parlare di abbandono...magari é una cosa temporanea fino all' arrivo (ormai penso a inizio 2010) della nuova linea.
Resta il fatto che possiamo scordarci un ribasso delle nuove ATi a breve... :(

dewwwxx84
07-10-2009, 21:14
[QUOTE=okorop;non puo' per le leggi della concorrenza.....[/QUOTE]

Mi spieghi in parole povere xche INTEL non potrebbe comperare NVIDIA ????



:confused: :confused: :confused:

michelgaetano
07-10-2009, 21:14
Mi spieghi in parole povere xche INTEL non potrebbe comperare NVIDIA ????



:confused: :confused: :confused:

Antitrust.

okorop
07-10-2009, 21:20
Mi spieghi in parole povere xche INTEL non potrebbe comperare NVIDIA ????



:confused: :confused: :confused:

intel nel mercao dell'hardware è in una posizione dominante e nel caso comprasse nvida avrebbe la possibilità di rimanere l'unica azienda del settore raggiungendo percentuali di vendita prossime al 100% nel campo delle gpu e cpu, cosa che porterebbe un aumento dei prezzi ed uno scenario quasi uguale al monopolio. La situazione migliore per noi consumatori è che tutti i mercati siano di concorrenza perfetta: piccole aziende omogenee e prezzi uguali al costo marginale, scenario utopistico non raggiungibile, dunque l'antitrust cerca una via di mezzo tra i due opposti, non permettendo che qualche azienda prenda la leadership incontrastata......

The_SaN
07-10-2009, 21:25
In effetti che sia una cosa definitiva non l'ha ancora ipotizzato nessuno. Nemmeno Dirk Meyer penso arriverebbe a sperare tanto...Ah ecco, ho letto male l'articolo (maledetto pisolino post pranzo).
Infatti un ritiro definitivo nell' high end é roba da pazzi. É lí che guadagni l'immagine per vendere le fasce sottostanti.

Purtroppo peró, un ritiro momentaneo ci sta tutto. Non credo vogliano vendere sottocosto la linea attuale, ci perderebbero moltissimo.
E non hanno pronto nulla per contrastare le nuove ATi.

dewwwxx84
07-10-2009, 21:26
Grazie, tutto chiaro come la luce del sole. ;)

Milotto
07-10-2009, 21:33
Sono in una situazione di palese stallo tecnologico...la stessa cosa che capitò a 3DFX dieci anni addietro...ovviamente Nvidia dispone di risorse finanziarie di diverso ordine di grandezza..
Non credo che abbandoneranno questo settore ma di sicuro la scelta di investire pesantemente sul GPGPU indica la volontà di ritagliarsi nuovi spazi commerciali, e non credo sia sbagliata, anzi...

michelgaetano
07-10-2009, 21:37
Purtroppo peró, un ritiro momentaneo ci sta tutto. Non credo vogliano vendere sottocosto la linea attuale, ci perderebbero moltissimo.
E non hanno pronto nulla per contrastare le nuove ATi.

In realtà il vero problema per Nvidia credo sia dato proprio da Juniper che arriva a breve, perchè dovrebbe avere le prestazioni della sua fascia alta (260/275) ma a prezzi inferiori. Il tutto, parlando di schede che nel complesso risultano superiori, perchè se (come sembra) se la giocheranno lì in prestazioni, avranno comunque, ripeto, un prezzo più basso, ma soprattutto consumi e temperature inferiori, nonchè il vantaggio delle DirectX11. Non c'è motivo di preferire una scheda con directX 10, che consuma e costa di più, non andando meglio. Cioè, non c'è PhysX che tenga.

Se poi aggiungiamo che comunque la 5850 rende totalmente inutile una 285, e che una 5870 va come una 295 ma con tutta la solita sequela di vantaggi che non sto a nominare, è abbastanza ovvio che la situazione per Nvidia, fino a Fermi, non è certo delle più felici. E manca ancora all'appello Hemlock.

michelgaetano
07-10-2009, 21:42
E nessuno lo può negare... ma a discapito del tuo core business, che è ciò che ti da il pane, dopo che quello dei chipset ti ha già buttato fuori a calci? Pessima strategia, secondo me.

Io neanche riesco molto a spiegarmi la cosa, francamente. Un conto sarebbe dargli un peso leggermente inferiore (magari in questo senso col giusto ridimensionamento si riesce a far quadrare comunque la cosa tra gaming e GPGPU), ma qui rischiano di subire parecchio...

okorop
07-10-2009, 21:42
E nessuno lo può negare... ma a discapito del tuo core business, che è ciò che ti da il pane, dopo che quello dei chipset ti ha già buttato fuori a calci? Pessima strategia, secondo me.

avrebbero dovuto secondo me cambiare a passi molto piu' lenti il core business dal mercato consumer al mercato professionale, magari offrendo due prodotti completamente diversi...invece questo passo l'han voluto fare tutta in una volta accorgendosi che alcune cose per il mercato consumer non vadan bene, il tutto condito dal fatto che le rese produttive siano assai limitate.....

martinez1983
07-10-2009, 21:50
Le notizie di oggi non rallegrano certo la scena!!! E ad essere sinceri non pensavo che fossero messi così!!!(ammesso che sia confermato tutto)

Cmq chi dice che questo gt300 va male in ambito mercato consumer????:confused:

Forse sono ancora in fase di prototipo e poi ricordo che stiamo speculando su notizie da prendere con le pinze!!!

Andrea deluxe
07-10-2009, 21:50
1) si sono infilati nel mondo degli handlet (zune hd)

2) si stanno a cercare di infilare nel mondo dei netbook (ion)

3) si vogliono imporre tra i professionisti del calcolo (progettazione)

4) sono dentro ps3 (console)

sono 4 settori dove:


1) se ha successo lo zune son milioni di pezzi venduti

2) se i netbook continuano a trainare, va bene

3) sono persone e aziende senza limiti di spesa, dove una vga da 100$ viene venduta a 1500$

4) ogni ps3 venduta son qualche dollaro


se riescono a conciliare fermi tra gaming e progettazione..... (il loro intento)

ma ormai noi non siamo la loro fonte di vita.....


resto a vedere l'andazzo.....

devAngnew
07-10-2009, 21:56
avrebbero dovuto secondo me cambiare a passi molto piu' lenti il core business dal mercato consumer al mercato professionale, magari offrendo due prodotti completamente diversi...invece questo passo l'han voluto fare tutta in una volta accorgendosi che alcune cose per il mercato consumer non vadan bene, il tutto condito dal fatto che le rese produttive siano assai limitate.....

Il problema IMHO è sulla scelta di voler fare un chip grosso con una logica tale dove le unità di calcolo sono "sempre" sfruttate al max diversamente da Ati che con le sue unità VLIW riesce a far stare più unità di calcolo in meno spazio anche se non riesce "sempre" ad essere sempre sfruttato al max.

In questo caso il core business centra ben poco......dopo tutto anche se la potenza teorica DP di Fermi è superiore ad Ati cmq non c'è un abisso che li distanzi...

okorop
07-10-2009, 21:59
Il problema IMHO è sulla scelta di voler fare un chip grosso con una logica tale dove le unità di calcolo sono "sempre" sfruttate al max diversamente da Ati che con le sue unità VLIW riesce a far stare più unità di calcolo in meno spazio anche se non riesce "sempre" ad essere sempre sfruttato al max.

In questo caso il core business centra ben poco......dopo tutto anche se la potenza teorica DP di Fermi è superiore ad Ati cmq non c'è un abisso che li distanzi...

il problema di fondo sta nel fatto che sto fermi non esiste e se esiste solo in forma di prototipo e o di progetto architetturale, le vga a 40nm con gpu di piccole dimensioni sono uscite ora e non come prospettava nvida a febbraio marzo......se avessero sfornato delle gpu per il mercato consumer piu' piccole e capaci di avere delle prestazioni del 5% in piu' di ati ora non saremmo qui a dire che ha fallito tutti i progetti nvida invece ha voluto mescolare le carte facendo una gpu per entrambi i mercati ed ora paga la sua scelta infelice.....