View Full Version : NVIDIA GeForce GTX 580, le prime immagini e conferme
Redazione di Hardware Upg
29-10-2010, 13:22
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-580-le-prime-immagini-e-conferme_34248.html
Spuntano in rete le primi immagini di quella che potrebbe essere GeForce GTX 580 la nuova ammiragli di casa NVIDIA
Click sul link per visualizzare la notizia.
fbrbartoli
29-10-2010, 13:29
pcb a parte sembra un bel fotomontaggio...
Per quanto mi riguarda non è detto che sia più potente di gtx 480 (cuda cores a parte) il gf110 è un chip strozzato del gf100 e non di seconda generazione come spesso si dice...
aspettiamo trepidanti in ogni caso!
sdjhgafkqwihaskldds
29-10-2010, 13:31
è uscita anche quella dell'Asus :asd:
link (http://img41.imageshack.us/img41/9562/schedavideoasusengtx295.jpg)
toyman90
29-10-2010, 13:32
pcb a parte sembra un bel fotomontaggio... aspettiamo trepidanti!
straquoto..nella prima immagine, il logo nvidia finisce prima dello scalino al bordo mentre sotto il logo continua anche oltre allo scalino... mi sento di poter dire fake.. :banned:
fbrbartoli
29-10-2010, 13:33
è uscita anche quella dell'Asus :asd:
link (http://img41.imageshack.us/img41/9562/schedavideoasusengtx295.jpg)
simpatico.
Ovviamente aspettiamo commenti ben peggiori.
In ogni caso il design della gtx 295 mi è rimasto nel cuore... tutti quei forellini...
T3RM1N4L D0GM4
29-10-2010, 13:34
GTS 455.... che sia la 450 col bus a 192bit e qualche cuda core in piu?
Sounds interesting
marchigiano
29-10-2010, 13:36
marò ma quell'affare in mezzo è tutta gpu? un pezzo di silicio così grande? :eek: ci credo che facevano fatica a farne di buoni al 100%...
pcb a parte sembra un bel fotomontaggio...
Per quanto mi riguarda non è detto che sia più potente di gtx 480 (cuda cores a parte) il gf110 è un chip strozzato del gf100 e non di seconda generazione come spesso si dice...
aspettiamo trepidanti in ogni caso!
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
cervus92
29-10-2010, 13:42
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
eh? :rolleyes:
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
edit
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
vedi il futuro? :eek: la 6970 non è ancora uscita
eh? :rolleyes:
Nel senso che deve per forza di cose essere più veloce della gtx480!!
mob2season
29-10-2010, 13:46
Jean sai almeno leggere? ha scritto persino più lenta della 480gtx
mi sa di "le 69XX ci spaccheranno le gambe, mettiamo in giro voci della 512sp e aspettiamo un miracolo" :D ... la 512sp su base GF100 era già uscita in qualche forum estero ed era un fail clamoroso....vedremo l'eventuale GF110........
intendeva dire che non faranno di certo uscire una scheda, che dovrà scontrarsi con la 6970, più lenta della 480gtx
intendeva dire che non faranno di certo uscire una scheda, che dovrà scontrarsi con la 6970, più lenta della 480gtx
Giusto, ora che rileggo in effetti il mio post poteva essere interpretato in due modi:
1) la 6970 è più lenta della 480 GTX
2) dovendo scontrarsi contro la 6970, non può essere più lenta della 480 GTX
Ovviamente è corretta la seconda. :D
checco87
29-10-2010, 14:04
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
la frase è un po interpretabile! cmq a mio avviso il senso è: la 580gtx non potrà essere piu lenta della 480gtx! che motivo ci sarebbe di farla uscire visto che la ati 6970 sarà piu veloce della 480gtx!
fbrbartoli
29-10-2010, 14:08
Figurati se fanno uscire una nuova scheda contro la 6970 che è persino più lenta della 480 GTX... :rolleyes:
Gtx 480 è la più potente single gpu e già batte tutti gli altri prodotti single gpu comprese le nuove ati... ergo per cui nvidia non ha interesse a produrre una single gpu che batta la dual gpu futura ati in quanto per fare ciò gli basterà produrre una dual gpu da due 460.
Quindi l'unica soluzione è che dal gf110 castrato siano riusciti quasi ad eguagliare la gtx 480 con consumi e temperature inferiori (la vedo dura).
Il gf110 è un gf100 castrato ergo per cui traete le vostre conclusioni...
fbrbartoli
29-10-2010, 14:09
Giusto, ora che rileggo in effetti il mio post poteva essere interpretato in due modi:
1) la 6970 è più lenta della 480 GTX
2) dovendo scontrarsi contro la 6970, non può essere più lenta della 480 GTX
Ovviamente è corretta la seconda. :D
Secondo me nvidia non è così pazza da far scontrare una single gpu con una dual gpu... e la gtx 580 dal pcb (se non fake anche quello) è single gpu sicuro...
AndreaG.
29-10-2010, 14:16
Bartoli, e quale sarebbe sta dual gpu?
...ma la foto del pcb da dove arriva?...nel thread ufficiale son state riportate foto del il pcb senza la fessura per la ventilazione...
straquoto..nella prima immagine, il logo nvidia finisce prima dello scalino al bordo mentre sotto il logo continua anche oltre allo scalino... mi sento di poter dire fake.. :banned:
si capisce chiaramente che la scritta "Geforce GTX 580" è per etichettare la foto e non per sembrare una etichetta applicata sulla scheda....
come fate a dire che la 6970(revisione della 5870) sarà più lenta della gtx480?
già la 6870(5770) ha le prestazioni di una 5850.
probabile che la dual gpu si chiamerà 6990
Secondo me nvidia non è così pazza da far scontrare una single gpu con una dual gpu... e la gtx 580 dal pcb (se non fake anche quello) è single gpu sicuro...Anche le 6950/6970 saranno schede a singola GPU, la fascia alta di ATI (la serie 6800 è la medio/alta). La dual GPU si chiamerà, probabilmente, 6990.;)
Seraph84
29-10-2010, 14:37
Ma quello è il PCB della 480...dai...ma come fare a posatre sti RUMORS???
longhorn7680
29-10-2010, 14:39
Gtx 480 è la più potente single gpu e già batte tutti gli altri prodotti single gpu comprese le nuove ati... ergo per cui nvidia non ha interesse a produrre una single gpu che batta la dual gpu futura ati in quanto per fare ciò gli basterà produrre una dual gpu da due 460.
Quindi l'unica soluzione è che dal gf110 castrato siano riusciti quasi ad eguagliare la gtx 480 con consumi e temperature inferiori (la vedo dura).
Il gf110 è un gf100 castrato ergo per cui traete le vostre conclusioni...
Non riesco a capire se veramente non sei al corrente che devono uscire le 69XX single GPU che batteranno la 480 e la 580 uscira per contrastare la SINGLE GPU di Amd o lo fai apposta...... poi GF110 al max sara un die shrink di GF100 e FINALMENTE nVidia sara riuscita a produrre un chip funzionante al 100%
Caroonte
29-10-2010, 14:40
Io sono sconcertato dal fatto che ora come ora le tanto criticate GTX 480 e GTX470 vengono ora considerate le migliori schede...sembra che tutti si siano dimenticati del problema da cui sono afflitte cioè dagli alti consumi,temperature e rumorosità!!
unplugged
29-10-2010, 14:46
Continua la lotta fino all'ultimo (kilo)watt...
solo chi l'ha comprata :)
roccia1234
29-10-2010, 15:17
Io sono sconcertato dal fatto che ora come ora le tanto criticate GTX 480 e GTX470 vengono ora considerate le migliori schede...sembra che tutti si siano dimenticati del problema da cui sono afflitte cioè dagli alti consumi,temperature e rumorosità!!
Beh, se guardi le pure prestazioni sono le single gpu più veloci del mercato, ma tra dire questo e dire che sono le migliori vga ne passa di acqua sotto ai ponti...
straquoto..nella prima immagine, il logo nvidia finisce prima dello scalino al bordo mentre sotto il logo continua anche oltre allo scalino... mi sento di poter dire fake.. :banned:
ti sbagli, "il logo continua anche oltre allo scalino" anche nella seconda foto, giocando un po' con la luminosita' e il contrasto del tuo schermo dovresti riuscire a vederlo :)
Ancora forse molti di coloro che seguono e commentano(inutilmente direi) questo forum non hanno capito che:
1- Le 6850 e 6870 non sono le Amd di fascia alta, ma quella della medio-alta
2- La 6970 non è una dual Gpu, ma la single gpu che andrà a sostituire l attuale 5870
3- Una probabile dual gpu si chiamerà 6970x2 come ai vecchi tempi, o 6990(ma credo sia la prima).
Detto questo non credo che la futura gtx580 sarà inferiore alla 480 riguardo a potenza, se no sarebbe un suicidio.
Probabilmente sarà di poco superiore(si parla di 15-20%) e sicuramente con consumi inferiori(Gf110).
Staremo a vedere ;)
vedo che molti non hanno ancora digerito il rebranding delle Ati/AMD nuove, spiazzati che si anche Ati a farlo? ihihihihihihhihi (sto a scherzaaaaaaaaaaaaaa)
Il GF100 è un ottima archiettura per GPGPU (ambito server) ma che ha evidenti limiti nel mercato consumer, il nostro.....non a caso il GF104 che è stato castrato nell'ambito GPGPU sia quello che sta tenendo a galla nVidia nel mercato consumer....mentre le GF100 sono letteralmente crollate di prezzo in sei mesi, e penso che i produttori di schede se la stiano legando al dito (non a caso adesso nVidia produrrà da sè anche le schede intere.....).
Sempre dalla Cina, sono uscite anche le specifiche, tutte da verificare:
http://img233.imageshack.us/img233/2899/ad75e069660085ef.jpg
un 3dmark vantage extreme:
512cuda core - 772/1544/2004MHz
http://img408.imageshack.us/img408/2416/160952m4fqf901of9hzuxd.jpg
contro una GTX480 overcloccata 925/1850/1950 MHz
http://img831.imageshack.us/img831/3438/3dmextremegtx480oc.png
Staremo a vedere i consumi, sperando di non dover aspettare troppo per i dissy no-reference (tipo l'eccellente Artic Cooling Extreme montato sulla Galaxy)
))Lexandrus((
29-10-2010, 15:40
Gtx 480 è la più potente single gpu e già batte tutti gli altri prodotti single gpu comprese le nuove ati... ergo per cui nvidia non ha interesse a produrre una single gpu che batta la dual gpu futura ati in quanto per fare ciò gli basterà produrre una dual gpu da due 460.
Quindi l'unica soluzione è che dal gf110 castrato siano riusciti quasi ad eguagliare la gtx 480 con consumi e temperature inferiori (la vedo dura).
Il gf110 è un gf100 castrato ergo per cui traete le vostre conclusioni...
Veramente le nuove 6950 e 6970 saranno single core, come ti hanno già detto.
Al 99% andranno di più di una GTX480 e consumeranno un po' di meno, quindi NVidia dovrà darsi da fare per riuscire a stare al passo.
Inoltre a differenza di NVidia, AMD non avrà grossi problemi a creare una versione dual GPU su unico PCB, in grado di diventare la scheda più veloce in assoluto.
Un SLI di GTX460 consuma un po' di più di una GTX480, ma va anche di più, e se la gioca con la 5970, che però consuma un po' di meno.
Molto probabilmente NVidia utilizzerà una versione single die derivata da due core del GF 104 (GTX460) uniti e ottimizzati.
Questo è l'unico motivo per giustificare consumi ridotti e prestazioni migliori rispetto al GF100, e per riuscire a produrre a breve termine una scheda competitiva.
Non ci credo che la GTX580 sarà un GF100 Full, addirittura ottimizzato.
Sarebbe veramente impossibile riuscire a riprogettare un' architettura che è nata sbagliata.
Oppure stanno solo mostrando fake, ma dubito, vista la posizione critica di NVidia...
come fate a dire che la 6970(revisione della 5870) sarà più lenta della gtx480?
già la 6870(5770) ha le prestazioni di una 5850.
probabile che la dual gpu si chiamerà 6990
Difatti AMD ha ribadito più volte che la 6970 sarà la nuova scheda single chip più veloce in assoluto.
Ma d'altronde, basta vedere cosa sono in grado di fare le 6870, per capire che Cayman farà vedere i sorci verdi (LoL) a qualcuno ;)
psychok9
29-10-2010, 15:54
Ancora forse molti di coloro che seguono e commentano(inutilmente direi) questo forum non hanno capito che:
1- Le 6850 e 6870 non sono le Amd di fascia alta, ma quella della medio-alta
2- La 6970 non è una dual Gpu, ma la single gpu che andrà a sostituire l attuale 5870
3- Una probabile dual gpu si chiamerà 6970x2 come ai vecchi tempi, o 6990(ma credo sia la prima).
Detto questo non credo che la futura gtx580 sarà inferiore alla 480 riguardo a potenza, se no sarebbe un suicidio.
Probabilmente sarà di poco superiore(si parla di 15-20%) e sicuramente con consumi inferiori(Gf110).
Staremo a vedere ;)
Quoto e aggiungo soltanto che sicuramente queste schede usciranno nel 2011 con tanti saluti per il natale di nVidia, che come unica mossa ha, come del resto ha fatto AMD in tempi di magra passati, l'abbassamento dei prezzi che però potrebbe far perdere i margini di vendite.
mah... come ho già detto... non vedo serietà ne rigore in quello che fanno... che so, presentassero un progetto nuovo, cancellando fermi... non ho niente contro nvidia, anzi... ma secondo me è un altro "tiriamo a campare" spero che i bench mi obblighino a rimangiarmi tutto...
Fondamentale saranno i consumi. Per natale cambiero' la mia gtx280, ma mi sono imposto come obbiettivo che la futura vga dovra' consumare meno della mia 280!!!
ciocia, hai praticamente tutta la line-up di Ati a disposizione.....anche io sono molto attento ai consumi, infatti passerò da 5770 a 6850 solo per i 19W in idle.....(vabbè anche per altri motivi dai :D )
Veramente le nuove 6950 e 6970 saranno single core, come ti hanno già detto.
Al 99% andranno di più di una GTX480 e consumeranno un po' di meno, quindi NVidia dovrà darsi da fare per riuscire a stare al passo.
Ma stare al passo con che? Nvidia ha già la leadership in performance, e ha il best buy prezzo/prestazioni. La 580 è appunto la risposta alle 6900, nessuna di queste schede è uscita e fino ad allora dovreste stare in rigoroso silenzio, perché se da un lato è probabile che le 6900 vadano più di una 480, dall'altro è molto probabile che la 580 vada più delle 6900. Ma finché non escono, queste sono tutte cazzate in aria.
Inoltre a differenza di NVidia, AMD non avrà grossi problemi a creare una versione dual GPU su unico PCB, in grado di diventare la scheda più veloce in assoluto.
Ancora speculazioni, ATI non ha annunciato nessuna dual gpu, non è perché c'è stata una 5970 che ci sarà una 6990. E da possessore di sistema dual gpu fatico a capire l'entusiasmo di certa gente per banali crossfire o SLI su singolo pcb.
Molto probabilmente NVidia utilizzerà una versione single die derivata da due core del GF 104 (GTX460) uniti e ottimizzati.
Questo è l'unico motivo per giustificare consumi ridotti e prestazioni migliori rispetto al GF100, e per riuscire a produrre a breve termine una scheda competitiva.
Non ci credo che la GTX580 sarà un GF100 Full, addirittura ottimizzato.
Sarebbe veramente impossibile riuscire a riprogettare un' architettura che è nata sbagliata.
Sempre speculazioni. E architettura nata sbagliata? Sai per cosa è nato Fermi? Per assicurare ad Nvidia l'assoluta supremazia nel mercato professionale, dove si fanno i veri guadagni. Missione praticamente compiuta. Guarda caso è anche il chipset più veloce in ambito consumer. La prima versione aveva un'efficienza discutibile, sempre per il mercato consumer, ma prima di scrivere che qualcosa è "nato sbagliato" sarebbe meglio contare fino a 10.
Difatti AMD ha ribadito più volte che la 6970 sarà la nuova scheda single chip più veloce in assoluto.
Ma d'altronde, basta vedere cosa sono in grado di fare le 6870, per capire che Cayman farà vedere i sorci verdi (LoL) a qualcuno ;)
Wow, da come scrivi sembra che ATI già sappia quanto andrà una 580. Ma di cosa si discute con gente che sa prevedere il futuro?
Ancora speculazioni, ATI non ha annunciato nessuna dual gpu, non è perché c'è stata una 5970 che ci sarà una 6990. ?
Ma da slide ATI non è prevista anche Antilles come dual gpu dopo delle Cayman?
Strato1541
29-10-2010, 18:24
Non riesco a capire se veramente non sei al corrente che devono uscire le 69XX single GPU che batteranno la 480 e la 580 uscira per contrastare la SINGLE GPU di Amd o lo fai apposta...... poi GF110 al max sara un die shrink di GF100 e FINALMENTE nVidia sara riuscita a produrre un chip funzionante al 100%
Sai il futuro tu?
Come molti altri, no perchè , se vi sisete fatti prestare la delorean e non avete deto niente in giro non è carino!
Battuta, però ragazzi certe sparate evitiamole, sono rumors e vanno presi come tali!
E personalmente anche forse un pò taroccati.. magari uscirà davvero la 580.. ma secondo me non a breve termine..
Sai il futuro tu?
Come molti altri, no perchè , se vi sisete fatti prestare la delorean e non avete deto niente in giro non è carino!
Battuta, però ragazzi certe sparate evitiamole, sono rumors e vanno presi come tali!
E personalmente anche forse un pò taroccati.. magari uscirà davvero la 580.. ma secondo me non a breve termine..
longhorn7680 stava rispondendo ad un utente che stava affermando con sicurezza che la 6970 fosse una dual gpu e quindi Nvidia batteva la dual GPU di fascia alta AMD con una single GPU, il che è una bella castroneria, senza vedere nel futuro =)
Poi che Gtx480<=HD6970<=Gtx580 anche se non si hanno già le schede in mano direi che sono le posizioni a cui i produttori puntano e che quindi saranno con alta probabilità quelli effettivi, per quello si parla come se fosse scontato.
In caso non fosse così, saranno cavoli amari per la casa che ha fallito, e dato che ATI ha già fatto uscire le GPU con i nuovi stream processors e pare che vadano alla grande, l'unica di cui non si hanno ancora certezze è la Gtx580. Speriamo in bene per Nvidia!
Zappa1981
29-10-2010, 18:34
beh oddio non è detto che ati vada meglio della 580 che stà per uscire però dai dati che ho visto nel sito cinese ha una banda passante ram di 194 GB/s mentre la 6970 "dovrebbe" avere 204GB/s, probabilmente non vuol dire nulla questa esigua differenza però intanto è una differenza a favore di ati...
Strato1541
29-10-2010, 18:51
longhorn7680 stava rispondendo ad un utente che stava affermando con sicurezza che la 6970 fosse una dual gpu e quindi Nvidia batteva la dual GPU di fascia alta AMD con una single GPU, il che è una bella castroneria, senza vedere nel futuro =)
Poi che Gtx480<=HD6970<=Gtx580 anche se non si hanno già le schede in mano direi che sono le posizioni a cui i produttori puntano e che quindi saranno con alta probabilità quelli effettivi, per quello si parla come se fosse scontato.
In caso non fosse così, saranno cavoli amari per la casa che ha fallito, e dato che ATI ha già fatto uscire le GPU con i nuovi stream processors e pare che vadano alla grande, l'unica di cui non si hanno ancora certezze è la Gtx580. Speriamo in bene per Nvidia!
Io dico solo andiamoci piano, cioè aspettiamo le schede prima di scannarci, qui stiamo parlando si supposizioni!Già con i fatti oggettivi è difficile mettersi d'accordo!
Questo intendevo dire...
Senza contare che ati starà lavorado bene, vedremo come saranno queste 69XX. ma è passato un pò in sordina il fatto che le 68XX sono una sorta di rebranding..(pur con accorgimenti ma la scheda è quella!).
Spero che siano davvero delle novità la 69XX, per quanto rigurda nvidia, credo che molti non abbiano capito che i soldi lì fà con il mercato professionale, il consumer è stato un pò tralasciato, ciò non toglie(che piaccia o no) che fermi quando uscì 6 mesi fà (seppure con problemi di temperature) offriva una 470 che andava poco meno di una 5870, e una 480 che era inrraggiungibile , se non da una dual gpu!Perchè sembra che si stia parlando di schedine così... a volte..
E sono dati oggettivi..
Dai su Elrim che per almeno un mese la tua Nvidia sarà ancora la migliore.
Mercuri0
29-10-2010, 18:58
...
Ma sì, è giusto che anche il secondo produttore di GPU al mondo abbia i suoi fan.
'sta storia del mercato professionale non capisco cosa c'entri comunque... un'azienda storica che opera ora solo nel mercato professionale ha molti meno fan da queste parti.
http://www.matrox.com/
Ancora speculazioni, ATI non ha annunciato nessuna dual gpu, non è perché c'è stata una 5970 che ci sarà una 6990.
Eh si, non ha mai annunciato nulla: click (http://www.hwupgrade.it/articoli/skvideo/2584/slide_1.jpg)!
(Nell'immagine, antilles è quella con due GPU in alto a destra).
Zappa1981
29-10-2010, 19:10
Io dico solo andiamoci piano, cioè aspettiamo le schede prima di scannarci, qui stiamo parlando si supposizioni!Già con i fatti oggettivi è difficile mettersi d'accordo!
Questo intendevo dire...
Senza contare che ati starà lavorado bene, vedremo come saranno queste 69XX. ma è passato un pò in sordina il fatto che le 68XX sono una sorta di rebranding..(pur con accorgimenti ma la scheda è quella!).
Spero che siano davvero delle novità la 69XX, per quanto rigurda nvidia, credo che molti non abbiano capito che i soldi lì fà con il mercato professionale, il consumer è stato un pò tralasciato, ciò non toglie(che piaccia o no) che fermi quando uscì 6 mesi fà (seppure con problemi di temperature) offriva una 470 che andava poco meno di una 5870, e una 480 che era inrraggiungibile , se non da una dual gpu!Perchè sembra che si stia parlando di schedine così... a volte..
E sono dati oggettivi..
La scheda è quella? La scheda ha la serie 5000 come base e a quanto mi risulta è stata migliorata e non di poco... anche se la GTX480 è irraggiungibile probabilmente è anche fatto con intenzione visto che la GTX480 è "sprecata" per i giochi che ci sono oggi e anche per quelli futuri... ati vuole guadagnare e ce la stà facendo.. Per quando riguarda i margini di guadagno di nvidia che sia o no nel mercato professionale stà perdendo molto in quello gamer e così non fa altro che buttare soldi ed investimenti nel gabinetto visto che anche se ha il primato con la scheda più prestante non riesce a convicere nessuno che sia la migliore in assoluto... Tecnologia non vuol dire solo potenza allo stato brado, vuol dire potenza controllata e usata dinamicamente il giusto per ciò che serve... un chip che scalda come un matto e che va solo un pò più veloce non lo vedo un passo avanti di una compagnia come nvidia, lo vedo un pò una castroneria adattata alla fascia gamer solo per contrastare la ati e niente di più... e ci è riuscita a malapena per non dire che non ci è nemmeno riuscita...
Strato1541
29-10-2010, 19:18
La scheda è quella? La scheda ha la serie 5000 come base e a quanto mi risulta è stata migliorata e non di poco... anche se la GTX480 è irraggiungibile probabilmente è anche fatto con intenzione visto che la GTX480 è "sprecata" per i giochi che ci sono oggi e anche per quelli futuri... ati vuole guadagnare e ce la stà facendo.. Per quando riguarda i margini di guadagno di nvidia che sia o no nel mercato professionale stà perdendo molto in quello gamer e così non fa altro che buttare soldi ed investimenti nel gabinetto visto che anche se ha il primato con la scheda più prestante non riesce a convicere nessuno che sia la migliore in assoluto... Tecnologia non vuol dire solo potenza allo stato brado, vuol dire potenza controllata e usata dinamicamente il giusto per ciò che serve... un chip che scalda come un matto e che va solo un pò più veloce non lo vedo un passo avanti di una compagnia come nvidia, lo vedo un pò una castroneria adattata alla fascia gamer solo per contrastare la ati e niente di più... e ci è riuscita a malapena per non dire che non ci è nemmeno riuscita...
Sono sempre punti di vista il fatto che non abbia convinto..Nel senso che è vero ati con serie 5XXX ha fatto un buon lavoro(non dimentichiamoci che con la serie 4XXX aveva già gudagnato molto)..Trovo che forse in questo forum c'è una tendenza generalizza ad ati, un pò per simpatia un pò per ragioni personali.
C'è anche da constatare che spesso chi denigra nvidia , non nè ha mai posseduta una(io ho alternato e ho avuto lunghi periodi anche con una casa o un'altra).
I consumi e il calore ci sono , ma la 5970 non è che sia fredda e neache la 5870 in full(e le ho possedute entrambe)..
Per me è più una fissa che molti si sono creati..
Poi qui parliamo di rumors non di politiche, quindi dico staremo a vedere..
Mercuri0
29-10-2010, 19:28
.Trovo che forse in questo forum c'è una tendenza generalizza ad ati, un pò per simpatia un pò per ragioni personali.
Più che altro, in tempi recenti, nVidia c'ha messo molto di suo per risultare antipatica.
Ma ora le cosa cambieranno: selezioneranno i 3 Fermi interi che gli sono usciti dall'inizio della produzione, e faranno una scheda chiamata chiamata "580".
(vabbé, scherzi a parte, questa volta mi rendo conto che debba farlo causa acqua alla gola. E del resto sì preannuncia uno scozzo tra titani come ai vecchi tempi, divertentissimo da seguire!)
poveri noi consumatori
ATI piomba sul mercato con SI, e nvidia risponde con un rumors :mad:
Gtx 480 è la più potente single gpu e già batte tutti gli altri prodotti single gpu comprese le nuove ati
beh, considerando che la fascia alta di HD6000 deve ancora uscire...
Ma stare al passo con che? Nvidia ha già la leadership in performance, e ha il best buy prezzo/prestazioni.
hei sveglia!! siamo nel 2010, la leadership prestazionale non serve a nulla. con una vga di fascia media, si gioca al top in full hd. sbandierare una presunta leadership prestazionale delle vga top di serie, è da fessi.
nel presente(e nel futuro) vince chi ha il miglior rapporto prestazioni/watt. il rapporto di efficenza, per farla breve.
e ATI in questo versante, corre sola.
Strato1541
29-10-2010, 19:32
Più che altro, in tempi recenti, nVidia c'ha messo molto di suo per risultare antipatica.
Ma ora le cosa cambieranno: selezioneranno i 3 Fermi interi che gli sono usciti dall'inizio della produzione, e faranno una scheda chiamata chiamata "580".
(vabbé, scherzi a parte, questa volta mi rendo conto che debba farlo causa acqua alla gola. E del resto sì preannuncia uno scozzo tra titani come ai vecchi tempi, divertentissimo da seguire!)
Umm non sono tanto recenti i tempi, ricordo quando acquistai l'8800gt con il chip g80, che da queste parti non piaceva per nulla, definendolo una mafiata nvidia!E mi pare un pò eccessivo...
Se parliamo di antipatie, non dimentichioamo che i prezzi della 5XXX sono rimasti invariati per 1 anno praticamente, questo mi pare molto più antipatico(ci sono le ragioni, ma ati non è più buona e questo che molti non capiscono).
Nino Grasso
29-10-2010, 20:06
..nella prima immagine, il logo nvidia finisce prima dello scalino al bordo mentre sotto il logo continua anche oltre allo scalino... mi sento di poter dire fake.. :banned:
Ti consiglio di cambiare monitor :D
Zappa1981
29-10-2010, 20:24
Umm non sono tanto recenti i tempi, ricordo quando acquistai l'8800gt con il chip g80, che da queste parti non piaceva per nulla, definendolo una mafiata nvidia!E mi pare un pò eccessivo...
Se parliamo di antipatie, non dimentichioamo che i prezzi della 5XXX sono rimasti invariati per 1 anno praticamente, questo mi pare molto più antipatico(ci sono le ragioni, ma ati non è più buona e questo che molti non capiscono).
Ati ha avuto il mercato gamer per più tempo è solo per questo che non ha variato i prezzi non aveva concorrenza... ad ogni modo è vero..nessuno ti regala nulla :cry:
Zappa1981
29-10-2010, 20:34
Sono sempre punti di vista il fatto che non abbia convinto..Nel senso che è vero ati con serie 5XXX ha fatto un buon lavoro(non dimentichiamoci che con la serie 4XXX aveva già gudagnato molto)..Trovo che forse in questo forum c'è una tendenza generalizza ad ati, un pò per simpatia un pò per ragioni personali.
C'è anche da constatare che spesso chi denigra nvidia , non nè ha mai posseduta una(io ho alternato e ho avuto lunghi periodi anche con una casa o un'altra).
I consumi e il calore ci sono , ma la 5970 non è che sia fredda e neache la 5870 in full(e le ho possedute entrambe)..
Per me è più una fissa che molti si sono creati..
Poi qui parliamo di rumors non di politiche, quindi dico staremo a vedere..
Aspetta io non stò denigrando nvidia... ne ho avuta una anch io e ne ho viste all opera da amici (i bei tempi della 6600gt) andava quasi come la mia ati 9800 pro moddata xt all epoca e si vedeva che la 6600gt era superiore se pur castrata, sono io il primo a dirlo... magari la ati se la cavava meglio con i filtri attivi, avevo un bus doppio rispetto alla 6600gt però oggi ati è più conveniente come prezzo/prestazioni. Le nuove nate in ogni caso offrono buone performance con 140 euro hai una scheda che da via alla mia 4890e se con la mia fai tutto, pensa con una 6850 cosa fai... Nvidia ha schede che si offrono buone prestazioni e io non dico che fanno schifo, semplicemente sono troppo prestanti consumando inutilmnente corrente e scaldando forse poco più di schede ati,(nvidia ha un chip enorme), e costano tanti soldi.. se con 140 euro gioco bene perchè devo spenderne 400 per giocare uguale? ecco perchè tanta gente quà compra ati... Per simpatia dici... mah non è proprio così, prima del cambio della mia x1950gt ho pensato di prendere nvidia e mi trovavo davanti ad un casino tipo rebrand di g80 a palla e non capivo nulla costavano 180 euro le 9800gt e mi trovavo spiazzato perchè poteva essere una 8800 rimarchiata uguale, memorie ddr3 e via dicendo.. ho visto in listino la mia 4890 costava 180 euro.. stesso costo... ddr5 il chip era migliore, dati alla mano andava mooolto di più... ho preso quella... ed ho ati, se nvidia avesse avuto schede migliori allo stesso prezzo l avrei comprata senza batter ciglio
AndreaG.
29-10-2010, 20:38
Ti consiglio di cambiare monitor :D
post dell'anno! :D :sofico:
alexcrystal
29-10-2010, 20:57
poveri noi consumatori
ATI piomba sul mercato con SI, e nvidia risponde con un rumors :mad:
beh, considerando che la fascia alta di HD6000 deve ancora uscire...
hei sveglia!! siamo nel 2010, la leadership prestazionale non serve a nulla. con una vga di fascia media, si gioca al top in full hd. sbandierare una presunta leadership prestazionale delle vga top di serie, è da fessi.
nel presente(e nel futuro) vince chi ha il miglior rapporto prestazioni/watt. il rapporto di efficenza, per farla breve.
e ATI in questo versante, corre sola.
se tu riesci a giocare con una 450 gts al top in hd in dx 11 con tutti i filtri attivati ovviamente come dici TE AL TOP ti faccio una statua :muro:
fbrbartoli
29-10-2010, 21:07
Bartoli, e quale sarebbe sta dual gpu?
Andrea!
amico mio, da quanto tempo...
Zappa1981
29-10-2010, 21:10
se tu riesci a giocare con una 450 gts al top in hd in dx 11 con tutti i filtri attivati ovviamente come dici TE AL TOP ti faccio una statua :muro:
Dipende di che marca è la scheda :D
fbrbartoli
29-10-2010, 21:13
longhorn7680 stava rispondendo ad un utente che stava affermando con sicurezza che la 6970 fosse una dual gpu e quindi Nvidia batteva la dual GPU di fascia alta AMD con una single GPU, il che è una bella castroneria, senza vedere nel futuro =)
Poi che Gtx480<=HD6970<=Gtx580 anche se non si hanno già le schede in mano direi che sono le posizioni a cui i produttori puntano e che quindi saranno con alta probabilità quelli effettivi, per quello si parla come se fosse scontato.
In caso non fosse così, saranno cavoli amari per la casa che ha fallito, e dato che ATI ha già fatto uscire le GPU con i nuovi stream processors e pare che vadano alla grande, l'unica di cui non si hanno ancora certezze è la Gtx580. Speriamo in bene per Nvidia!
ma allora non hai capito niente...
Posso essermi sbagliato per via del rebranding balordo ma ciò che ho detto io è che nvidia sarebbe pazza a usare la gtx 580 per cercare il confronto con una dual gpu ati e tutto questo casino era nato dal fatto che, non so perchè, ma pensavo che l'utente che mi aveva risposto in prima pagina avesse portato come esempio una dual gpu ati. Tutto qui!
Poi vorrei precisare che la serie 69xx non è ancora uscita quindi andrei cauto a festeggiare. Già le nuove ati 68xx si sono mostrate abbastanza deludenti...
di solito si esce con il top di gamma per una serie nuova. non con la fascia medio/alta...
Non ci credo che la GTX580 sarà un GF100 Full, addirittura ottimizzato.
Sarebbe veramente impossibile riuscire a riprogettare un' architettura che è nata sbagliata.
Devi esserti perso qualche puntata. Te le riassumo:
1. Uscita di GF100 per il mercato professionale. Il non plus ultra.
2. Uscita del GF100 per il mercato consumer. Consumi a palla, prestazioni altissime
3. Resa/costo del GF100 ai minimi termini (son sempre 3 miliardi di transistor in una mattonella da oltre 500mm2) e consumi troppo alti per riuscire a "tirare" ulteriormente l'architettura
4. nvidia rifà "l'architettura sbagliata" (per il mercato consumer, aggiungerei) sfornando il GF104 e suoi sottomultipli. Consumi ridotti, prestazioni in game invariati. L'architettura può essere "tirata in MHz" un po' di più.
5. Il GF104 fa "strage" del mainstream di ATI. Allora ecco le nuove fasce medie di AMD con bus da 256bit (!!), qualche cluster tagliuzzato per mandare le rese al top e "tiratura" dell'architettura rispetto alla revisione precedente. Si tratta di un moderato miglioramento energetico, non di prestazioni per MHz delle capacità di calcolo della revisione -> non c'è modo che con questa architettura AMD arrivi alle prestazioni del GF100 neanche a 1GHz. A meno di non fare una mattonella di dimensioni simili.
Notare infine come la nuova "fascia media" abbia un chip di 230mm2 rispetto al precedente di 170mm2.
6. Ora si combatte ad armi pari. Consumi simili per watt per entrambi i competitors. Purtroppo, se nvidia ha dovuto tagliare i prezzi della 460 di qualche dollaro, AMD si è praticamente giocata la propria fascia alta con queste "mainstream" che costano quasi la metà e vanno uno sputo in meno.
7. AMD propone una nuova architettura (la cui efficienza energetica va ancora dimostrata, vedere il numero di prese da 6 e 8 poli della 6890).
8. nvidia risponde con una nuova versione dell'architettura usata per il GF104 anche se ancora diversa (il numero di TMU/shaders è aumentato rispetto al GF104 a quanto sembra, se il chip ha 512SP).
Ai posteri l'ardua sentenza su chi farà meglio in termini di FPS, consumi, uova cotte o driver perennemente da migliorare.
Per finire, non si può fare un chip grafico mettendo nello stesso die 2 "semi" chip (GF104x2 per fare un GF110). Sembra che bazzichiate qui da tanto, ma non avete la minima idea di come funziona una GPU, eppure curiosamente sapete quali siano le architetture sbagliate e quelle giuste.
Complimenti.
fbrbartoli
29-10-2010, 21:22
Devi esserti perso qualche puntata. Te le riassumo:
1. Uscita di GF100 per il mercato professionale. Il non plus ultra.
2. Uscita del GF100 per il mercato consumer. Consumi a palla, prestazioni altissime
3. Resa/costo del GF100 ai minimi termini (son sempre 3 miliardi di transistor in una mattonella da oltre 500mm2) e consumi troppo alti per riuscire a "tirare" ulteriormente l'architettura
4. nvidia rifà "l'architettura sbagliata" (per il mercato consumer, aggiungerei) sfornando il GF104 e suoi sottomultipli. Consumi ridotti, prestazioni in game invariati. L'architettura può essere "tirata in MHz" un po' di più.
5. Il GF104 fa "strage" del mainstream di ATI. Allora ecco le nuove fasce medie di AMD con bus da 256bit (!!), qualche cluster tagliuzzato per mandare le rese al top e "tiratura" dell'architettura rispetto alla revisione precedente. Si tratta di un moderato miglioramento energetico, non di prestazioni per MHz delle capacità di calcolo della revisione -> non c'è modo che con questa architettura AMD arrivi alle prestazioni del GF100 neanche a 1GHz. A meno di non fare una mattonella di dimensioni simili.
Notare infine come la nuova "fascia media" abbia un chip di 230mm2 rispetto al precedente di 170mm2.
6. Ora si combatte ad armi pari. Consumi simili per watt per entrambi i competitors. Purtroppo, se nvidia ha dovuto tagliare i prezzi della 460 di qualche dollaro, AMD si è praticamente giocata la propria fascia alta con queste "mainstream" che costano quasi la metà e vanno uno sputo in meno.
7. AMD propone una nuova architettura (la cui efficienza energetica va ancora dimostrata, vedere il numero di prese da 6 e 8 poli della 6890).
8. nvidia risponde con una nuova versione dell'architettura usata per il GF104 anche se ancora diversa (il numero di TMU/shaders è aumentato rispetto al GF104 a quanto sembra, se il chip ha 512SP).
Ai posteri l'ardua sentenza su chi farà meglio in termini di FPS, consumi, uova cotte o driver perennemente da migliorare.
Per finire, non si può fare un chip grafico mettendo nello stesso die 2 "semi" chip (GF104x2 per fare un GF110). Sembra che bazzichiate qui da tanto, ma non avete la minima idea di come funziona una GPU, eppure curiosamente sapete quali siano le architetture sbagliate e quelle giuste.
Complimenti.
Quotone!
Quotone!
e lo quoti pure?:asd:
x Someone
complimenti anche a te
qui un po' tutti siamo appassionati ma pochi sono ingegneri elettronici,ma tu sei piu' ingenuo di noi:Prrr:
rileggiti perche non mi va di contraddirti:read:
mah... come ho già detto... non vedo serietà ne rigore in quello che fanno... che so, presentassero un progetto nuovo, cancellando fermi...
Guarda che progettare un chip del genere non e' come fare una partita a scopone :) "Beh questa e' andata male, facciamone un'altra" :)
Si tratta di spendere magari un miliardozzo di dollari e avere qualche migliaio di persone che ci lavora su per un 2-3 anni. Che cosa avrebbero dovuto fare, dire "mhh... questo non e' venuto granche'... aspettiamo un paio di anni che esce il prossimo... e magari nel frattempo non vendiamo un chip che sia uno e falliamo clamorosamente" ?
Fermi va benissimo nel mercato professionale e HPC, e li' viene venduto bene. Non va altrettanto bene nei giochi, e quindi si cerca di limitare le perdite e basta.
Se vuoi un progetto nuovo, c'e' gia', si chiama Kepler, ci stanno lavorando da quasi 2 anni, e uscira' l'anno prossimo. E alcuni gruppi hanno gia' cominciato a lavorare a Maxwell (che e' previsto per il 2013).
Quando tra il dire e il fare ci sono di mezzo 3 anni di tempo, e' impossibile fare delle correzioni drastiche e immediate.
ma allora non hai capito niente...
Posso essermi sbagliato per via del rebranding balordo ma ciò che ho detto io è che nvidia sarebbe pazza a usare la gtx 580 per cercare il confronto con una dual gpu ati e tutto questo casino era nato dal fatto che, non so perchè, ma pensavo che l'utente che mi aveva risposto in prima pagina avesse portato come esempio una dual gpu ati. Tutto qui!
Poi vorrei precisare che la serie 69xx non è ancora uscita quindi andrei cauto a festeggiare. Già le nuove ati 68xx si sono mostrate abbastanza deludenti...
di solito si esce con il top di gamma per una serie nuova. non con la fascia medio/alta...
Si come sostituti della 5770 sono proprio deludenti!! :doh:
che foto insulsa.
sa tanto di fake
Strato1541
30-10-2010, 02:15
La scheda è quella? La scheda ha la serie 5000 come base e a quanto mi risulta è stata migliorata e non di poco... anche se la GTX480 è irraggiungibile probabilmente è anche fatto con intenzione visto che la GTX480 è "sprecata" per i giochi che ci sono oggi e anche per quelli futuri... ati vuole guadagnare e ce la stà facendo.. Per quando riguarda i margini di guadagno di nvidia che sia o no nel mercato professionale stà perdendo molto in quello gamer e così non fa altro che buttare soldi ed investimenti nel gabinetto visto che anche se ha il primato con la scheda più prestante non riesce a convicere nessuno che sia la migliore in assoluto... Tecnologia non vuol dire solo potenza allo stato brado, vuol dire potenza controllata e usata dinamicamente il giusto per ciò che serve... un chip che scalda come un matto e che va solo un pò più veloce non lo vedo un passo avanti di una compagnia come nvidia, lo vedo un pò una castroneria adattata alla fascia gamer solo per contrastare la ati e niente di più... e ci è riuscita a malapena per non dire che non ci è nemmeno riuscita...
Bè all'epoca della 4890 presi una gtx 275 e mi trovai benissimo..Questione di gusti, la 9800 era di circa un anno prima ed usciva come fascia media..
Anche le 68XX, non saranno rimarchiate, ma non c'è nulla di nuovo..
Ora vedremo cosa faranno con le 69XX.
rileggiti perche non mi va di contraddirti
Se non ti va di contraddirmi è perchè non hai niente di interessante da dire.
Altrimenti basta citare fatti che non convengono con quello che ho detto.
Saluti
Zappa1981
30-10-2010, 12:42
Bè all'epoca della 4890 presi una gtx 275 e mi trovai benissimo..Questione di gusti, la 9800 era di circa un anno prima ed usciva come fascia media..
Anche le 68XX, non saranno rimarchiate, ma non c'è nulla di nuovo..
Ora vedremo cosa faranno con le 69XX.
E' questione anche di prezzo... non ricordo quanto costava la gtx275 ma se non l ho comprata sicuramente veniva più della 4890
Zappa1981
30-10-2010, 12:50
Devi esserti perso qualche puntata. Te le riassumo:
1. Uscita di GF100 per il mercato professionale. Il non plus ultra.
2. Uscita del GF100 per il mercato consumer. Consumi a palla, prestazioni altissime
3. Resa/costo del GF100 ai minimi termini (son sempre 3 miliardi di transistor in una mattonella da oltre 500mm2) e consumi troppo alti per riuscire a "tirare" ulteriormente l'architettura
4. nvidia rifà "l'architettura sbagliata" (per il mercato consumer, aggiungerei) sfornando il GF104 e suoi sottomultipli. Consumi ridotti, prestazioni in game invariati. L'architettura può essere "tirata in MHz" un po' di più.
5. Il GF104 fa "strage" del mainstream di ATI. Allora ecco le nuove fasce medie di AMD con bus da 256bit (!!), qualche cluster tagliuzzato per mandare le rese al top e "tiratura" dell'architettura rispetto alla revisione precedente. Si tratta di un moderato miglioramento energetico, non di prestazioni per MHz delle capacità di calcolo della revisione -> non c'è modo che con questa architettura AMD arrivi alle prestazioni del GF100 neanche a 1GHz. A meno di non fare una mattonella di dimensioni simili.
Notare infine come la nuova "fascia media" abbia un chip di 230mm2 rispetto al precedente di 170mm2.
6. Ora si combatte ad armi pari. Consumi simili per watt per entrambi i competitors. Purtroppo, se nvidia ha dovuto tagliare i prezzi della 460 di qualche dollaro, AMD si è praticamente giocata la propria fascia alta con queste "mainstream" che costano quasi la metà e vanno uno sputo in meno.
7. AMD propone una nuova architettura (la cui efficienza energetica va ancora dimostrata, vedere il numero di prese da 6 e 8 poli della 6890).
8. nvidia risponde con una nuova versione dell'architettura usata per il GF104 anche se ancora diversa (il numero di TMU/shaders è aumentato rispetto al GF104 a quanto sembra, se il chip ha 512SP).
Ai posteri l'ardua sentenza su chi farà meglio in termini di FPS, consumi, uova cotte o driver perennemente da migliorare.
Per finire, non si può fare un chip grafico mettendo nello stesso die 2 "semi" chip (GF104x2 per fare un GF110). Sembra che bazzichiate qui da tanto, ma non avete la minima idea di come funziona una GPU, eppure curiosamente sapete quali siano le architetture sbagliate e quelle giuste.
Complimenti.
AMD non si è giocata nulla... ne riparliamo quando escono le 6970... Nessuno quà è super esperto in informatica però siamo persone che spendono soldi e che usano quello che comprano, se a me non comoda un chip come il gf100 non lo compro, e che sia il migliore ripeto che è molto soggettiva come cosa... ATI/AMD ha scelto di produrre in un certo modo e chip in un certo modo e stà andando bene... Nvidia ha scelto di fare altro e se tanti preferiscono AMD non vedo perchè scaldarsi tanto.. AMD ha portato avanti un vecchio progetto risalente alla serie 2000 e anche se l idea è sorpassata a me sembra sia "migliore per me" del gf100, scalda meno, consuma meno e va leggermente meno..ma tanto la differenza prestazionale con i giochi che ci sono oggi nn si vede neanche.... e poi adesso costa anche meno. Cambiare architettura come fa nvidia non serve a niente, spende soldi e poi li recupera da noi alla fin fine... io 550 euro all epoca per una 480 che relazionata alla mia si è meglio ma con la mia gioco a tutto..scusa tanto spendo 140 euro e mi prendo una 4890 o similare dato che la mia è uscita prima ps: metti una mattonella a disposizione di amd che ti ci infila 4600shader a 1000mhz raffreddata ad acqua con tutti gli accorgimenti necessari al consumo... straccerebbe chiunque... e la tecnologia di amd potrebbe anche riuscire a farlo mentre il gf100 se lo raddoppi diventa una meteora... cmq il punto 5 devi averlo letto su playboy
sbudellaman
30-10-2010, 13:20
Sempre dalla Cina, sono uscite anche le specifiche, tutte da verificare:
http://img233.imageshack.us/img233/2899/ad75e069660085ef.jpg
un 3dmark vantage extreme:
512cuda core - 772/1544/2004MHz
...
contro una GTX480 overcloccata 925/1850/1950 MHz
...
Staremo a vedere i consumi, sperando di non dover aspettare troppo per i dissy no-reference (tipo l'eccellente Artic Cooling Extreme montato sulla Galaxy)
Non riesco a capire come il 6% di SP in più possano permettere di avere prestazioni superiori ad un OC del genere (che ha frequenze il 20% più alte delle specifiche della fantomatica 580gtx)... mah, mi sembra strano.
Zappa1981
30-10-2010, 18:17
Non riesco a capire come il 6% di SP in più possano permettere di avere prestazioni superiori ad un OC del genere (che ha frequenze il 20% più alte delle specifiche della fantomatica 580gtx)... mah, mi sembra strano.
Avran ottimizzato qualcosa altrimenti aggiungerebbero solo sp a sbrega senza ottimizzare nulla ahah ci troveremo 8000sp
fbrbartoli
30-10-2010, 23:04
Non riesco a capire come il 6% di SP in più possano permettere di avere prestazioni superiori ad un OC del genere (che ha frequenze il 20% più alte delle specifiche della fantomatica 580gtx)... mah, mi sembra strano.
infatti è tutto da prendere con le pinze...
AMD non si è giocata nulla... ne riparliamo quando escono le 6970... Nessuno quà è super esperto in informatica però siamo persone che spendono soldi e che usano quello che comprano, se a me non comoda un chip come il gf100 non lo compro, e che sia il migliore ripeto che è molto soggettiva come cosa...
E chi ha detto che è il migliore? Quando usciranno le 6970 vedremo come sarà cambiata l'architettura, cosa sarà stato sacrificato e cosa invece migliorato. A quanto pare i consumi per Cayman non son più tanto contenuti. Per intanto le nuove schede della serie 68xx di AMD cannibalizzano solo il proprio mercato per fare concorrenza alla GTX460 che come già detto ha "fatto strage" in quella fascia.
La questione non è essere super esperti o meno. E' venire a sparare opinioni che diventano immediatamente ridicole quando uno conclude con "per me il GF110 sarà fatto da 2 GF104 accoppiati".
Ogni opinione è rispettabile. Ma anche ampiamente criticabile, soprattutto quando ha come base tali conoscenze (o presunte tali).
I punti elencati erano un tentativo di coprire parte del "vuoto", dato che non ci si è nemmeno accorti che l'architettura Fermi è già stata cambiata, come anche in questo caso:
Non riesco a capire come il 6% di SP in più possano permettere di avere prestazioni superiori ad un OC del genere (che ha frequenze il 20% più alte delle specifiche della fantomatica 580gtx)... mah, mi sembra strano.
Che si discute a fare di tecnologia che cambia ogni mese se si rimane con le impressioni di roba superata di 9 mesi prima?
Mi domando quando saranno presentati i nuovi chip AMD che avranno meno SP ma andranno di più.
sbudellaman
31-10-2010, 15:35
Che si discute a fare di tecnologia che cambia ogni mese se si rimane con le impressioni di roba superata di 9 mesi prima?
Da quando è uscito il g80 la potenza degli SP è rimasta più o meno la stessa anche dopo i cambi generazionali, aumentava solo il numero degli SP. Eppure ogni chip era una "nuova" tecnologia, gt200 era "roba" nuova rispetto al vecchio g80 o g92, eppure l'efficenza prestazionale di ogni singolo SP era più o meno la stessa a parità di frequenze e specifiche.
Cerchiamo di non fare i "saputelli", non mi sembra che quanto abbia detto prima faccia parte di una discussione inutile nè mi sembra il modo di valutare le "impressioni" altrui, se hanno aumentato l'efficenza prestazionale di ogni singolo SP ben venga, ma questo non è per niente scontato.
Se non ti va di contraddirmi è perchè non hai niente di interessante da dire.
Altrimenti basta citare fatti che non convengono con quello che ho detto.
Saluti
scusa ma nel punto 5 sembra che amd ha progettato,prodotto e distribuito la serie 6800 in fretta e furia per salvare la sua fascia media,basata sulla vecchia serie 5700 ormai spazzata via dalla 460(e menomale,ci mancava pure che dopo quasi un anno di ritardo non riusciva a sopraffarle:rolleyes:)
poi e noto come si progettano e costruiscono le gpu:O
come esce la soluzione concorrente,la si analizza,si controllano prestazioni e potenzialita',si tirano le somme e poi in poche settimane si progetta la nuova gpu,si producono i primi sample,li testano(qualche altra settimana?),poi se tutto ok li inviano ai propri partner,li testano e preparano il prodotto finale(altre settimane)
infine parte la produzione di serie,presentazione e distribuzione al pubblico(ulteriori settimane)
il tutto quindi deve essere pronto entro pochi mesi...:sofico:
ma ti rendi conto delle scemenzerie che hai detto??
ma veramente pensi che creare un chip nuovo basta qualche mese??
amd stava lavorando a SI da piu' di un anno probabilmente anche prima della serie 5000,ci sono equipe di ingegneri differenti che lavorano a progetti attuali e a quello che prendera' il suo posto
la serie 6800 sarebbe uscita cmq all'incirca adesso,e lo si sapeva ancora prima dell'uscita della 460 e perfino della 480,in tempo per la stagione natalizia
se nvidia e' riuscita a presentare nel frattempo almeno la 460,buon per lei che finalmente ha qualcosa di buono da vendere
al massimo dopo l'uscita della 460,in qualche settimana si puo' decidere insieme ai tecnici,ai partner e reparto marketing le frequenze di funzionamento e il nome della serie,il prezzo o poco piu',ma non puoi modificare un chip pronto,al massimo il taglio della 6850 rispetto alla 6870,quello si anzi e' probabile che lo hanno tagliato poco proprio per riuscire a contrastare la 460,e un taglio anche al prezzo;)
1. Il chip Barts è solo una revisione della architettura alla base della serie 5xxx. La nuova architettura arriva con Cayman. Se non hai compreso, ci saranno 2 architetture diverse nella stessa serie. Chissà perchè.
2. Probabilmente ti sfugge che l'R870 (chip della serie 5xxx) è stato progettato e creato in 9 mesi (parole dell'ingegnere capo di AMD, mica di un esperto qualsiasi del mercato GPU)
3. Il GF100 è uscito a Marzo, il GF104 con struttura completamente revisionata a Luglio (4 mesi).
4. Che una revisione dell'architettura da parte di AMD fosse in programma prima dell'uscita della GTX460 può anche essere. Che sia dovuta uscire con quel preciso taglio e in quel momento non è certo stata una mossa voluta da AMD, dato che come detto queste schede cannibalizzano il proprio mercato di fascia alta. Questi chip che vanno a sostituire la fascia media come dicono tutti, sono grandi il 30% in più dello Juniper, hanno il bus a 256 bit, costano tra il 30% e il 50% in più e consumano poco meno della fascia alta. La "sostituzione" non è infatti la cosa voluta, ma la creazione di una fascia dove AMD, seppur con la miriade di schede che ha lanciato sul mercato non aveva coperto (e dove la 460 si era infilata senza troppi problemi).
Il taglio del chip della 6850 è uguale a quello che si fa con tutte le fasce inferiori al chip di riferimento: i chip parzialmente fallati vengono riciclati togliendo le parti "morte".
Zappa1981
31-10-2010, 23:25
E chi ha detto che è il migliore? Quando usciranno le 6970 vedremo come sarà cambiata l'architettura, cosa sarà stato sacrificato e cosa invece migliorato. A quanto pare i consumi per Cayman non son più tanto contenuti. Per intanto le nuove schede della serie 68xx di AMD cannibalizzano solo il proprio mercato per fare concorrenza alla GTX460 che come già detto ha "fatto strage" in quella fascia.
La questione non è essere super esperti o meno. E' venire a sparare opinioni che diventano immediatamente ridicole quando uno conclude con "per me il GF110 sarà fatto da 2 GF104 accoppiati".
Ogni opinione è rispettabile. Ma anche ampiamente criticabile, soprattutto quando ha come base tali conoscenze (o presunte tali).
I punti elencati erano un tentativo di coprire parte del "vuoto", dato che non ci si è nemmeno accorti che l'architettura Fermi è già stata cambiata, come anche in questo caso:
Che si discute a fare di tecnologia che cambia ogni mese se si rimane con le impressioni di roba superata di 9 mesi prima?
Mi domando quando saranno presentati i nuovi chip AMD che avranno meno SP ma andranno di più.
beh da come ne parli sembra molto tu propenda per nvidia quindi si presume che tu pensi che sia "il migliore" riferito al gf100, in ogni caso la 460 non ha fatto strage proprio di niente... questa è una convinzione di chi pensa in verde, amd/ati non ha rivali nelle schede grafiche per giocare a parità di prezzo conviene sempre... e con questa serie 6000, che sarebbe uscita in ogni caso e non per contrastare nvidia, almeno non quando l avevano annunciata, conviene ancora di più, o nvidia si da una mossa per abbassare i prezzi e fare buone schede o amd/ati dominerà il mercato per altri anni ancora....
halduemilauno
01-11-2010, 08:01
beh da come ne parli sembra molto tu propenda per nvidia quindi si presume che tu pensi che sia "il migliore" riferito al gf100, in ogni caso la 460 non ha fatto strage proprio di niente... questa è una convinzione di chi pensa in verde, amd/ati non ha rivali nelle schede grafiche per giocare a parità di prezzo conviene sempre... e con questa serie 6000, che sarebbe uscita in ogni caso e non per contrastare nvidia, almeno non quando l avevano annunciata, conviene ancora di più, o nvidia si da una mossa per abbassare i prezzi e fare buone schede o amd/ati dominerà il mercato per altri anni ancora....
parlando di schede video(quelle per desktop per intenderci)la situazione è ben diversa da quello che credi tu e quelli che pensano in rosso(tanto per usare le tue parole).
http://www.tomshw.it/files/2010/10/immagini/27790/gpu-dedicate_t.jpg
Quello si riferisce al Q3 2010 ultimo trimestre disponibile e come vedi nvidia supera ati/amd 58,8 a 41 ovvero 11 milioni vs 7.67.
Si parla di schede video dedicate ovvero per desktop proprio come la GTX460.
Ed ecco uno grafico che suddivide per fascie di prezzo sia gli 11 che i 7.67...
http://img831.imageshack.us/img831/5913/vidms.jpg
cosi si sfata anche il mito che nvidia vende soprattutto, se non solo, nella fascia delle super schede da 400 e passa.
Zappa1981
01-11-2010, 08:54
eì il totale che mi fa restare un pò perplesso perchè a quanto vedo amd è sopra se pur di poco ma è sopra... Inoltre le schede desktop che intendi prendono sicuramente altre fasce oltre alla 460 quindi i dati che vedo lasciano il tempo che trovano... Tornando a qualche post fa mi dissi che la 6970 o quello che sarà aveva dei connettori uno da otto e uno da sei pin, probabilmente consumerà di più della 5870 però bisogna vedere di quanto alza le prestazioni quel consumo superiore... probabilmente si mangerà la 480 consumando di meno in ogni caso, staremo a vedere
halduemilauno
01-11-2010, 09:00
eì il totale che mi fa restare un pò perplesso perchè a quanto vedo amd è sopra se pur di poco ma è sopra... Inoltre le schede desktop che intendi prendono sicuramente altre fasce oltre alla 460 quindi i dati che vedo lasciano il tempo che trovano... Tornando a qualche post fa mi dissi che la 6970 o quello che sarà aveva dei connettori uno da otto e uno da sei pin, probabilmente consumerà di più della 5870 però bisogna vedere di quanto alza le prestazioni quel consumo superiore... probabilmente si mangerà la 480 consumando di meno in ogni caso, staremo a vedere
ma se si sta parlando di schede video la situazione è quella che ho detto io. poi se si parlasse di gpu discrete + mobile è un'altro discorso e se si parlasse della totalità delle GPU vendute allora li entra prepotentemente in gioco pure intel e fa carte e 48 perchè da sola vende + essa che Nvidia e ati/amd messe insieme. ma ripeto questi sono altri discorsi perchè si parlava e si parla delle sole schede video desktop/discrete.
punto
e questo solo per chiarire.
in ogni caso la 460 non ha fatto strage proprio di niente...
Ah no? E dimmi, prima dell'uscita della serie 68xx, quale scheda AMD aveva lo stesso prezzo/prestazioni della GTX460? Anzi, senza neanche guardare le prestazioni, quale scheda AMD aveva quel prezzo?
C'era un buco enorme tra la serie 57xx e 58xx, sia in termini di prestazioni che di prezzo. nvidia ci si è infilata in modo molto intelligente. AMD è dovuta correre ai ripari. La cosa mi sembra molto evidente. Altrimenti non ci sarebbe stata la necessità di creare una nuova fascia tra le 57xx e le 58xx, scombussolando la propria nomenclatura in uso da ormai 3 generazioni.
amd/ati non ha rivali nelle schede grafiche per giocare a parità di prezzo conviene sempre
Questa mi sembra una convinzione da fanboy rosso. Il link di halduemilauno mi sembra alquanto esplicito in questo senso, se vogliamo mettere la cosa solo in fattore di numeri di vendita. La fase in cui AMD era l'unica ad offrire schede buone come prestazioni/prezzo è finita proprio con l'arrivo del GF104 e derivati. Anche perchè non vi era proprio nulla che facesse concorrenza nel mainstream prima. Infatti oggi AMD offre schede che vanno quasi come la serie 58xx che costano però il 40% in meno. Il Cypress, in queste condizioni, è buono solo se riesce completo. Tagliuzzarlo per difetti di fabbricazione equivale a una perdita economica enorme, dato che AMD produce un chip che costa molto meno ma che va uguale al Cypress castrato. Ma il mercato ha richiesto una scheda sufficientemente economica e potente che AMD non aveva ancora fatto (il Cypress costa troppo per raggiungere quel prezzo, lo Juniper non ce la fa ad arrivare alle prestazioni richieste).
Zappa1981
01-11-2010, 09:33
Ah no? E dimmi, prima dell'uscita della serie 68xx, quale scheda AMD aveva lo stesso prezzo/prestazioni della GTX460? Anzi, senza neanche guardare le prestazioni, quale scheda AMD aveva quel prezzo?
C'era un buco enorme tra la serie 57xx e 58xx, sia in termini di prestazioni che di prezzo. nvidia ci si è infilata in modo molto intelligente. AMD è dovuta correre ai ripari. La cosa mi sembra molto evidente. Altrimenti non ci sarebbe stata la necessità di creare una nuova fascia tra le 57xx e le 58xx, scombussolando la propria nomenclatura in uso da ormai 3 generazioni.
Questa mi sembra una convinzione da fanboy rosso. Il link di halduemilauno mi sembra alquanto esplicito in questo senso, se vogliamo mettere la cosa solo in fattore di numeri di vendita. La fase in cui AMD era l'unica ad offrire schede buone come prestazioni/prezzo è finita proprio con l'arrivo del GF104 e derivati. Anche perchè non vi era proprio nulla che facesse concorrenza nel mainstream prima. Infatti oggi AMD offre schede che vanno quasi come la serie 58xx che costano però il 40% in meno. Il Cypress, in queste condizioni, è buono solo se riesce completo. Tagliuzzarlo per difetti di fabbricazione equivale a una perdita economica enorme, dato che AMD produce un chip che costa molto meno ma che va uguale al Cypress castrato. Ma il mercato ha richiesto una scheda sufficientemente economica e potente che AMD non aveva ancora fatto (il Cypress costa troppo per raggiungere quel prezzo, lo Juniper non ce la fa ad arrivare alle prestazioni richieste).
Quello che non si capisce è che amd ha fatto la serie 6000 a prescindere, sarebbe uscita lostesso... e identica a come è oggi, nvidia o meno... Ogni volta che esce una scheda nuova alla fin fine prestazionalmente da via alla generazione precedente ed è successo anche stà volta, non ci vedo niente di politico/economico in mezzo a questa cosa... La gtx460 è un ottima scheda e prestazionalmente dice la sua, con questa nuova serie però amd la schiaccia completamente, non penso riesca a tenergli testa la 460 ed ecco che amd conviene ancora... la controrisposta di nvidia presumo sarà abbastanza cruda per amd però per ora non si sa ancora niente, conviene aspettare... ps: juniper non raggiunge nvidia perchè non è strapompato come le loro gpu... dai ragazzi siamo seri... anche il mio processore in firma raggiunge ottime prestazioni però va a 4Ghz e lo stò raffreddando con una mattonella di rame... se ati volesse potrebbe fare due bei connettori da otto pin e sparare il chip a non so quanti mhz raffreddato con una piastrella di rame a due slot, non lo fa per scelta e per costi chiaramente...
@Someone
Cypress ha un die size di 337mm2 mentre il GF104 367. Se Cypress come dici tu costa troppo per raggiungere la fascia sufficientemente economica (quella degli under 200 euro presumo visto dove si colloca la 460) allora il GF104 è ancora meno adatto allo scopo.
Ma d'altronde Nvidia l'ha dovuto relegare per forza in quella zona, visto che va decisamente meno di una 5870 (e anche della 5850).
Inoltre i dati postati da halduemilauno indicano "soltanto" il totale di discrete spedite, non possiamo sapere quali sono nello specifico. Per quanto ci riguarda potrebbero essere al 90% della generazione precedente ed includono anche le schede degli OEM.
Quindi si, Nvidia ha venduto più schede discrete di AMD ma no, questo non prova che il GF104 ha monopolizzato le vendite della fascia media :)
AMD già avevo una scheda capace di vincere la competizione con le 460: le 5850 hanno dimensioni minori, vanno di più e consumano meno.
Ma dal momento che ormai già da tempo lavorava alla nuova generazione, perchè non proporre una nuova scheda con consumi ancora ridotti, migliorata in alcuni aspetti (eyefinity nuovo, uvd3, migliorie nella tessellation,...) e che ad AMD costa ancora meno (essendo più piccola), potendola di fatto proporre ad un prezzo più ridotto senza mangiarsi troppi margini?
Ecco così che nascono lo 6850 e le 6870, che in questo hanno perfettamente centrato il bersaglio.
Per quanto riguarda il link di hal, non tiene conti di alcuni aspetti:
- i volumi di vendita li fanno gli oem, anche sulle schede discrete. E qui la qualità in se dei prodotti ha un valore relativo, mentre ha più appeal il brand.
- le dichiarazioni di nvidia di vendite sotto le aspettative ci sono state e rimangono tali.
- il fatto che ati non abbia fatto calare il prezzo della serie 5 all'uscita della 460 indica come comunque vendesse bene le sue schede: i risultati del market share possono dipendere anche dalle capacità produttive, non solo dal successo di un prodotto.
- è il trimestre di uscita delle schede nvidia di quella fascia: tutti quelli che volevano nvidia e che venivano da molti mesi di digiuno hanno acquistato in quel momento.
E' comunque evidente che come la 460 sia stata per mesi un ottimo acquisto proprio in virtù del suo prezzo. Ma il prezzo non fa la bontà della proposta, rende solo più appetibile un prodotto non sempre ottimo per il cliente.
halduemilauno
01-11-2010, 09:55
@Someone
Cypress ha un die size di 337mm2 mentre il GF104 367. Se Cypress come dici tu costa troppo per raggiungere la fascia sufficientemente economica (quella degli under 200 euro presumo visto dove si colloca la 460) allora il GF104 è ancora meno adatto allo scopo.
Ma d'altronde Nvidia l'ha dovuto relegare per forza in quella zona, visto che va decisamente meno di una 5870 (e anche della 5850).
Inoltre i dati postati da halduemilauno indicano "soltanto" il totale di discrete spedite, non possiamo sapere quali sono nello specifico. Per quanto ci riguarda potrebbero essere al 90% della generazione precedente ed includono anche le schede degli OEM.
Quindi si, Nvidia ha venduto più schede discrete di AMD ma no, questo non prova che il GF104 ha monopolizzato le vendite della fascia media :)
332
http://img809.imageshack.us/img809/2724/catturadb.png
certo non dimostra che il GF104 ha monopolizzato le vendite della fascia media dimostra che Nvidia in quella fascia(e non solo in quella)ha venduto di + e il GF104 non credo che sia indifferente.
332
http://img809.imageshack.us/img809/2724/catturadb.png
certo non dimostra che il GF104 ha monopolizzato le vendite della fascia media dimostra che Nvidia in quella fascia(e non solo in quella)ha venduto di + e il GF104 non credo che sia indifferente.
Scusa, ricordavo male.
Comunque il discorso non cambia, se è inadatto Cypress lo è anche il GF104 :)
E sui grafici hai detto bene, credi ;)
Ale55andr0
01-11-2010, 10:54
- il fatto che ati non abbia fatto calare il prezzo della serie 5 all'uscita della 460 indica come comunque vendesse bene le sue schede.
E' questo che certa gente ancora non vuol capire, se tengo prezzi elevati, è perchè ho richiesta...e ci lucro sopra (come fece nVidia in passato) se sono in "difficoltà" abbasso...e in questo periodo chi ha calato drasticamente i prezzi è...
Mercuri0
01-11-2010, 11:08
E' questo che certa gente ancora non vuol capire, se tengo prezzi elevati, è perchè ho richiesta...e ci lucro sopra (come fece nVidia in passato) se sono in "difficoltà" abbasso...e in questo periodo chi ha calato drasticamente i prezzi è...
Probabilmente in questo caso la cosa è nata anche da problemi di produzione. Se TSMC avesse potuto produrre più chip, ci sarebbero state più 5xxx in giro e i prezzi sarebbero un pò scesi.
AMD non è riuscita a fare sufficienti 5xxx per rispondere al mercato. E ora, a distanza di un anno, si concede le 6xxx che non fanno altro che ridurre i costi di un prodotto già competitivo in maniera soverchiante.
Mi fa un pò specie leggere che AMD è "dovuta correre ai ripari" con la serie 6xxx, forse non notando cosa significhi per nVidia dover piazzare la GTX470 al prezzo della 6870. Per "correre ai ripari", bastava ridurre il prezzo della 5850, che forse ad AMD costa di meno di una 460...
Raga: da nVidia e AMD lavora il meglio che c'è al mondo in campo di GPU. Se la giocano alla pari, altroché, e una gen esce meglio all'altra, una all'una, a volte sono lì lì...
Ma stare a sentire 'sti ragionamenti complicati in tempi di ko tecnico di una su l'altra è veramente ilare.
In effetti anche a me risultava 367 mm^2 per GF 104.
Facendo una rapida ricerca, trovo dati contrastanti, alcune fonti dicono 336-8, qualche altra dice 332.
Non sarebbe male trovare qualche dato ufficiale, per quanto ovviamente l'importanza di questo valore sia abbastanza relativa.
longhorn7680
01-11-2010, 11:51
Che si discute a fare di tecnologia che cambia ogni mese se si rimane con le impressioni di roba superata di 9 mesi prima?
Mi domando quando saranno presentati i nuovi chip AMD che avranno meno SP ma andranno di più.
Per esempio ti sei perso l'annuncio di Barts che con 320 shader in meno bastona la 5850 ;) e costa pure qualcosina in meno!
Cerca di essere piu obiettivo nei tuoi commenti e dati di vendita alla mano la 460 ha fatto strage soltanto nella tua immaginazione :doh: Ottima scheda nulla da dire ma prima del ribasso dei prezzi costava come una 5850 e cmq andava meno adesso e alla pari con la 6850 e costa uguale con la 6850 che probabilmente qualcosina calera ancora.
La dimensione del die non è l'unica cosa che fa il costo del chip. Il GF104 già nasce per avere un cluster difettoso, il Cypress della 5870 no. Guarda caso anche i nuovi chip della serie 68xx sono pensati per avere già dei cluster da laserare. Il problema è evidente: la resa dei chip non è quella sperata per nessuna delle 2 case e si ricorre ai ripari.
Io non so quanto esattamente costi ad AMD un Cypress, ma vedo che pur avendone venduti parecchi a prezzi piuttosto alti i conti alla fine dei trimestri ancora non tornano. Forse anche per quello il prezzo non si è abbassato ed è stato necessario fare un chip.
E' ovvio che se ad AMD fosse costato meno, avrebbero ridotto il costo delle schede 58xx per tagliare fuori la 460. Però a quanto pare AMD non ce la fa a ridurre i prezzi così tanto come nvidia.
Ricordo che tutto il discorso nasce da una affermazione che diceva che non si poteva rifare Fermi in pochi mesi per contrastare l'architettura di AMD, quando invece è un fatto che la cosa sia già stata realizzata qualche mese fa. E che abbia portato dei problemi in casa AMD, poiché se prima contro il GF100 non c'era storia per consumi/prestazioni (e costi) in ambito videoludico, con la revisione nuova nvidia ha dimostrato che può creare chip con consumi e prestazioni simile alla rivale. E lanciarli a prezzi piuttosto aggressivi. E lo ha fatto proprio nel settore di mercato dove ci sono i massimi guadagni.
Poi a me, sinceramente, che vada più forte Fermi GFmillelmila o Cayman XT Turbo Pro non mi può interessare di meno. Io viaggio con una scheda vecchissima che per quello che faccio va fin troppo (la tengo costantemente undercloccata). Quando e se inizierà la produzione di giochi che sfrutteranno queste bestie allora magari ci farò un pensiero e valuterò. Per ora per avere 4 inutili effetti in croce che dimezzano il framerate proprio non ci sto a spendere i miei sudatissimi dindi. E spero anche che facciano dei giochi nuovi in generale, perché ormai la noia degli FPS con effetti di luce ovunque ma divertimento zero sta raggiungendo l'apice.
Per esempio ti sei perso l'annuncio di Barts che con 320 shader in meno bastona la 5850 e costa pure qualcosina in meno!
Ha 320 shader in meno ma va a 900MHz vs 725Mhz. Se fai 2 rapidi conti (n° shader x frequenza) vedi che i numeri che escono sono quasi identici. Ripeto, la revisione dell'architettura della serie 68xx non ha nulla di straordinario. Hanno tolto la capacità del calcolo DP di Cypress (cosa che la 460 mantiene anche se in forma ridotta), ridotto le frequenza max del memory controller, un aumento della capacità di calcolo del tesselatore e incremento delle TMU e ROP e hanno deciso di incrementare la resa non presentando alcuna versione full. La riduzione del calore prodotto (per feature tolte e miglioramenti nel processo produttivo) è andato nell'aumento della frequenza e con l'aumento delle capacità di texturing e rasterizzazione ottengono risultati leggermente migliori della 5850.
Se qualcuno vede un miracolo in tutto questo, io non so cosa farci. Non è certamente meglio di quello che ha fatto nvidia con GF104 rimuovendo cache, capacità esuberante in DP, riducendo il bus, rimuovendo il supporto alla ECC e infilandoci qualche TMU in più. La 460 va di più della 465 ma consuma il 30% in meno (e ha un die size ridotto del 40% e una resa probabilmente 20 volte tanto).
Ciò che si aspetta è l'architettura nuova di AMD e cosa sarà in grado di fare per competere con nvidia, non solo nel campo videoludico. A meno che AMD non abbia deciso di lasciare campo libero nel professionale a nvidia (dove per ora non ha alcuna concorrenza). Sarebbe una indicazione di quelle che saranno le strategie future dell'azienda e i relativi investimenti.
psychok9
01-11-2010, 13:29
AMD già avevo una scheda capace di vincere la competizione con le 460: le 5850 hanno dimensioni minori, vanno di più e consumano meno.
Ma dal momento che ormai già da tempo lavorava alla nuova generazione, perchè non proporre una nuova scheda con consumi ancora ridotti, migliorata in alcuni aspetti (eyefinity nuovo, uvd3, migliorie nella tessellation,...) e che ad AMD costa ancora meno (essendo più piccola), potendola di fatto proporre ad un prezzo più ridotto senza mangiarsi troppi margini?
Ecco così che nascono lo 6850 e le 6870, che in questo hanno perfettamente centrato il bersaglio.
Per quanto riguarda il link di hal, non tiene conti di alcuni aspetti:
- i volumi di vendita li fanno gli oem, anche sulle schede discrete. E qui la qualità in se dei prodotti ha un valore relativo, mentre ha più appeal il brand.
- le dichiarazioni di nvidia di vendite sotto le aspettative ci sono state e rimangono tali.
- il fatto che ati non abbia fatto calare il prezzo della serie 5 all'uscita della 460 indica come comunque vendesse bene le sue schede: i risultati del market share possono dipendere anche dalle capacità produttive, non solo dal successo di un prodotto.
- è il trimestre di uscita delle schede nvidia di quella fascia: tutti quelli che volevano nvidia e che venivano da molti mesi di digiuno hanno acquistato in quel momento.
E' comunque evidente che come la 460 sia stata per mesi un ottimo acquisto proprio in virtù del suo prezzo. Ma il prezzo non fa la bontà della proposta, rende solo più appetibile un prodotto non sempre ottimo per il cliente.
Quoto tutto.
Q3 2010... Chissà che dolori invece per nVidia quando analizzeremo l'intero anno 2010... Per non parlare del periodo Novembre 2009 > Novembre 2010...
psychok9
01-11-2010, 13:35
Probabilmente in questo caso la cosa è nata anche da problemi di produzione. Se TSMC avesse potuto produrre più chip, ci sarebbero state più 5xxx in giro e i prezzi sarebbero un pò scesi.
Questa cosa mi suona 1 po' come una voglia di non affondare il piede, probabilmente ci sono tante aziende coinvolte...
AMD non è riuscita a fare sufficienti 5xxx per rispondere al mercato. E ora, a distanza di un anno, si concede le 6xxx che non fanno altro che ridurre i costi di un prodotto già competitivo in maniera soverchiante.
Mi fa un pò specie leggere che AMD è "dovuta correre ai ripari" con la serie 6xxx, forse non notando cosa significhi per nVidia dover piazzare la GTX470 al prezzo della 6870. Per "correre ai ripari", bastava ridurre il prezzo della 5850, che forse ad AMD costa di meno di una 460...
Raga: da nVidia e AMD lavora il meglio che c'è al mondo in campo di GPU. Se la giocano alla pari, altroché, e una gen esce meglio all'altra, una all'una, a volte sono lì lì...
Ma stare a sentire 'sti ragionamenti complicati in tempi di ko tecnico di una su l'altra è veramente ilare.
Quello che dico io da tempo... quella in affanno è nVidia e si vede: schede che avrebbe venduto in altri tempi a 300 euro, adesso le comprate a prezzi stracciati! La GTX 470 è solo un esempio. nVidia riesce ancora a vendere per il forte appeal che hanno il suo marchio e le varie amenità Physx, CUDA, etc, perché con una scheda che riscalda troppo e consuma troppo, non riuscirebbe ad essere IMHO così competitiva. Mi incuriosisce soltanto sapere che strada prenderà in futuro, se riusciranno a sfornare schede di fascia "alta" efficenti e potenti allo stesso tempo come sembra la gtx 460.
Scusa, ricordavo male.
Comunque il discorso non cambia, se è inadatto Cypress lo è anche il GF104 :)
E sui grafici hai detto bene, credi ;)
Non ricordi male, e' Gpu-z che sbaglia (e' solo un databse, e gia' altre volte si e' sbagliato),e Halduemilauno tira fuori sempre i dati che piu' fanno comodo.
E' stato misurato che gf104 sia di 367mm2
Questa cosa mi suona 1 po' come una voglia di non affondare il piede, probabilmente ci sono tante aziende coinvolte...
Quello che dico io da tempo... quella in affanno è nVidia e si vede: schede che avrebbe venduto in altri tempi a 300 euro, adesso le comprate a prezzi stracciati! La GTX 470 è solo un esempio. nVidia riesce ancora a vendere per il forte appeal che hanno il suo marchio e le varie amenità Physx, CUDA, etc, perché con una scheda che riscalda troppo e consuma troppo, non riuscirebbe ad essere IMHO così competitiva. Mi incuriosisce soltanto sapere che strada prenderà in futuro, se riusciranno a sfornare schede di fascia "alta" efficenti e potenti allo stesso tempo come sembra la gtx 460.
nvidia sta salvando il mercato consumer appunto grazie al suo marchio,gli oem ancora gli fanno ingenti ordini nonostante fino a poco tempo fa' le soluzioni nvidia erano ormai feccia
per fortuna le spese di ricerca e sviluppo,anche se ingenti,le recupera facilmente nella serie professionale
altrimenti non si spiegava l'ostinarsi a progettare chip da oltre 500mm2,con il rischio che nel mercato consumer poteva essere un flop
come la serie fermi,chip da minimo 330mm2(460gtx) fino a oltre 500mm2(470gtx)venduti sottocosto per riuscire a vendere qualcosa di decente,e salvando a caro prezzo almeno un po' di market share
amd-ati dalla serie 2000 ha capito per lei chip enormi erano un enorme rischio
non potendo ammortizzare le spese di sviluppo nel professionale,dove nvidia padroneggia
ecco che allora dovette ripiegare su architetture piu' economiche,mal che andava si poteva tagliare il prezzo di vendita senza rimetterci un rene
ma cio' e' stato un bene,perche costretti a ottimizzare quel poco che avevano,hanno migliorato di generazione,fino a creare un'architettura molto piu' efficiente,a parita' di die e watt consumati,rispetto a nvidia
il futuro lo vedo sempre grigia per nvidia,perche dall'anno prossimo amd con fusion assorbira ulteriore market share sopratutto nel mainstream
non vedo perche gli oem,dovendo produrre un enorme quantita' di configurazioni economiche,dovrebbe preparare un sistema amd con gpu integrata da 480sp di default,quindi gia' notevole di suo,per poi disattivarla perche devono installare cmq una scheda nvidia forte del suo brand:banned:
in quelle condizioni a nvidia non rimane altro che il mercato medio-alto-estrema,ma i dindi si fanno sopratutto nel mainstream,non so quanto gli convenga rimanere nel mercato consumer perennemente in perdita o al massimo magri guadagni:boh:
longhorn7680
01-11-2010, 20:01
Ha 320 shader in meno ma va a 900MHz vs 725Mhz. Se fai 2 rapidi conti (n° shader x frequenza) vedi che i numeri che escono sono quasi identici. Ripeto, la revisione dell'architettura della serie 68xx non ha nulla di straordinario. Hanno tolto la capacità del calcolo DP di Cypress (cosa che la 460 mantiene anche se in forma ridotta), ridotto le frequenza max del memory controller, un aumento della capacità di calcolo del tesselatore e incremento delle TMU e ROP e hanno deciso di incrementare la resa non presentando alcuna versione full. La riduzione del calore prodotto (per feature tolte e miglioramenti nel processo produttivo) è andato nell'aumento della frequenza e con l'aumento delle capacità di texturing e rasterizzazione ottengono risultati leggermente migliori della 5850.
Se qualcuno vede un miracolo in tutto questo, io non so cosa farci. Non è certamente meglio di quello che ha fatto nvidia con GF104 rimuovendo cache, capacità esuberante in DP, riducendo il bus, rimuovendo il supporto alla ECC e infilandoci qualche TMU in più. La 460 va di più della 465 ma consuma il 30% in meno (e ha un die size ridotto del 40% e una resa probabilmente 20 volte tanto).
Ciò che si aspetta è l'architettura nuova di AMD e cosa sarà in grado di fare per competere con nvidia, non solo nel campo videoludico. A meno che AMD non abbia deciso di lasciare campo libero nel professionale a nvidia (dove per ora non ha alcuna concorrenza). Sarebbe una indicazione di quelle che saranno le strategie future dell'azienda e i relativi investimenti.
Guarda che la 6870 E UNA VERSIONE FULL! Non creare disinformazione solo perche sei simpatizzante nVidia! Poi anche nVidia per produrre la 580 (che gli srve per rimanere a galla nella fascia alta fino all'arrivo di Kepler sperando che Cayman non sia un mostro di potenza) ha tagliato 300Mln di transistor addetti al DP per poter avere un chip pienamente funzionante. Poi perdonami ma dire che GF100 e GF104 sono stati progettati per uscire difettosi e la barzelletta del secolo! Nessuno sano di mente farebbe un azzardo del genere!
Chiudo facendoti notare che Amd gia adesso compete alla pari addirittura superando nVidia nel rapporto prezzo-prestazioni e anche nelle prestazioni assolute! Che lo faccia con un approccio diverso (ricorrendo a schede dual GPU) poco importa perche alla fin fine io compro UNA VGA e quante GPU ha onboard me ne infischio! Ah si prima di darmi del fanboy Ati considera che le mie ultime 7 VGA sono 6600GTx2Sli 7800GTX 7900GTx2 Sli 8800GTX GTX260 e GTX470! Pero adesso dopo aver provato la 6870 per 2-3 giorni mi sto pentendo di aver comprato la 470 e penso che tra una ventina di giorni decidero con cosa sostituirla ;)
yossarian
01-11-2010, 20:24
5. Il GF104 fa "strage" del mainstream di ATI. Allora ecco le nuove fasce medie di AMD con bus da 256bit (!!), qualche cluster tagliuzzato per mandare le rese al top e "tiratura" dell'architettura rispetto alla revisione precedente. Si tratta di un moderato miglioramento energetico, non di prestazioni per MHz delle capacità di calcolo della revisione -> non c'è modo che con questa architettura AMD arrivi alle prestazioni del GF100 neanche a 1GHz. A meno di non fare una mattonella di dimensioni simili.
parlando di schede video(quelle per desktop per intenderci)la situazione è ben diversa da quello che credi tu e quelli che pensano in rosso(tanto per usare le tue parole).
http://www.tomshw.it/files/2010/10/immagini/27790/gpu-dedicate_t.jpg
Quello si riferisce al Q3 2010 ultimo trimestre disponibile e come vedi nvidia supera ati/amd 58,8 a 41 ovvero 11 milioni vs 7.67.
Si parla di schede video dedicate ovvero per desktop proprio come la GTX460.
Ed ecco uno grafico che suddivide per fascie di prezzo sia gli 11 che i 7.67...
http://img831.imageshack.us/img831/5913/vidms.jpg
cosi si sfata anche il mito che nvidia vende soprattutto, se non solo, nella fascia delle super schede da 400 e passa.
1) dove sono le fasce media e bassa basate su gf100?
2) AMD ha venduto 25 milioni di gpu dx11 e detiene il 90% del relativo market share. Di conseguenza, nVidia, dall'uscita di gf100 ad oggi ha venduto non più di 2,78 milioni di gpu dx11. Non vedo gli estremi della "strage" di cui si parla. Inoltre, nei link postati da hal non c'è alcun riferimento al fatto che i chip venduti siano dx10 o dx11. Anzi, ad essere pignoli, se quei dati relativi a nVidia parlano di 11 milioni di gpu, allora di sicuro la stragrande maggioranza sono di tipo dx10.
In quanto al rapporto performance/die size, inutile far notare che gf100 ha un die size del 60% più grande di quello di rv870.
1. Il chip Barts è solo una revisione della architettura alla base della serie 5xxx.
anche gf104 è solo una revisione di gf100. La differenza è che di rv870 è stata messa sul mercato tutta la line up, di fermi no.
La nuova architettura arriva con Cayman. Se non hai compreso, ci saranno 2 architetture diverse nella stessa serie. Chissà perchè.
e questo chi lo dice?
2. Probabilmente ti sfugge che l'R870 (chip della serie 5xxx) è stato progettato e creato in 9 mesi (parole dell'ingegnere capo di AMD, mica di un esperto qualsiasi del mercato GPU)
le serie 5xx0 e 6xx0 erano in roadmap ben prima dell'uscita di fermi
3. Il GF100 è uscito a Marzo, il GF104 con struttura completamente revisionata a Luglio (4 mesi).
e quindi?
4. Che una revisione dell'architettura da parte di AMD fosse in programma prima dell'uscita della GTX460 può anche essere. Che sia dovuta uscire con quel preciso taglio e in quel momento non è certo stata una mossa voluta da AMD, dato che come detto queste schede cannibalizzano il proprio mercato di fascia alta.
hai presente cosa è una roadmap? Evidentemente no. Queste schede non cannibalizzano un bel niente, visto che la serie 5000 sta per essere sostituita per intero, fascia alta compresa.
Questi chip che vanno a sostituire la fascia media come dicono tutti, sono grandi il 30% in più dello Juniper, hanno il bus a 256 bit, costano tra il 30% e il 50% in più e consumano poco meno della fascia alta.
infatti questi chip erano in roadmap prima ancora che fosse annullato il pp a 32 nm di tsmc
La "sostituzione" non è infatti la cosa voluta, ma la creazione di una fascia dove AMD, seppur con la miriade di schede che ha lanciato sul mercato non aveva coperto (e dove la 460 si era infilata senza troppi problemi).
barts è più piccolo del gf104, consuma di meno ed è più veloce
Il taglio del chip della 6850 è uguale a quello che si fa con tutte le fasce inferiori al chip di riferimento: i chip parzialmente fallati vengono riciclati togliendo le parti "morte".
quello che non si è potuto vedere con gf100 e neppure con gt200 e gt200b.
La dimensione del die non è l'unica cosa che fa il costo del chip.
vero, ci sono anche i costi di progettazione e sviluppo; solo che tu stesso hai detto che i nuovi chip AMD sono stati progettati in poco tempo (quindi costi ridicoli). Forse è il caso che fai pace col cervello.
Il GF104 già nasce per avere un cluster difettoso, il Cypress della 5870 no.
e 'sta stupidaggine chi te l'ha raccontata? E' da rv670 che i chip ATi hanno cluster in più per aumentare le rese e rv870 non fa eccezione. Al contrario, G80, GT200 e GF100 non hanno cluster ridondanti.
Guarda caso anche i nuovi chip della serie 68xx sono pensati per avere già dei cluster da laserare. Il problema è evidente: la resa dei chip non è quella sperata per nessuna delle 2 case e si ricorre ai ripari.
meglio evitare di commentare :D
Io non so quanto esattamente costi ad AMD un Cypress, ma vedo che pur avendone venduti parecchi a prezzi piuttosto alti i conti alla fine dei trimestri ancora non tornano. Forse anche per quello il prezzo non si è abbassato ed è stato necessario fare un chip.
sui conti ti sei già incartato a sufficienza, quindi non mi va di infierire. Resta il, dato di 25 milioni di gpu dx11 vendute contro 2,78 milioni.
E' ovvio che se ad AMD fosse costato meno, avrebbero ridotto il costo delle schede 58xx per tagliare fuori la 460. Però a quanto pare AMD non ce la fa a ridurre i prezzi così tanto come nvidia.
ripeto, nonostante non abbia ridotto i prezzi, al contrario di quello che ha fatto nVidia, il rapporto è di 9:1 a favore di AMD.
Ricordo che tutto il discorso nasce da una affermazione che diceva che non si poteva rifare Fermi in pochi mesi per contrastare l'architettura di AMD, quando invece è un fatto che la cosa sia già stata realizzata qualche mese fa. E che abbia portato dei problemi in casa AMD, poiché se prima contro il GF100 non c'era storia per consumi/prestazioni (e costi) in ambito videoludico, con la revisione nuova nvidia ha dimostrato che può creare chip con consumi e prestazioni simile alla rivale. E lanciarli a prezzi piuttosto aggressivi. E lo ha fatto proprio nel settore di mercato dove ci sono i massimi guadagni.
ti risulta che fermi sia stato "rifatto"? A me gf104 non pare una rivoluzione ma, semmai, una evoluzione del progetto originario, così come barts è una evoluzione di rv870
Zappa1981
01-11-2010, 20:46
si alla fine penso che amd gli stia facendo un pò il c...o ad nvidia e la cosa prenderà ancora una brutta piega per nvidia tra non molto... vedremo la 69xx cosa riuscirà a fare :)
Ale55andr0
01-11-2010, 23:04
@yossarian
dovresti postare più spesso :D
parlando di schede video(quelle per desktop per intenderci)la situazione è ben diversa da quello che credi tu e quelli che pensano in rosso(tanto per usare le tue parole).
http://www.tomshw.it/files/2010/10/immagini/27790/gpu-dedicate_t.jpg
Quello si riferisce al Q3 2010 ultimo trimestre disponibile e come vedi nvidia supera ati/amd 58,8 a 41 ovvero 11 milioni vs 7.67.
Si parla di schede video dedicate ovvero per desktop proprio come la GTX460.
Ed ecco uno grafico che suddivide per fascie di prezzo sia gli 11 che i 7.67...
http://img831.imageshack.us/img831/5913/vidms.jpg
cosi si sfata anche il mito che nvidia vende soprattutto, se non solo, nella fascia delle super schede da 400 e passa.
si ma tu ostenti quello che ti fa' comodo,e ometti quello che non ti gradisce:mc:
perche omettere il mercato mobile??
mi sembra sia gia' stato ufficializzato che il mercato mobile tira ormai piu' dei desktop
ma ok rimaniamo nel mercato desktop,forse intendi le configurazioni per giocare??
ok controlliamo i dati,mi sembra che il grosso del market share pero' provengono dalla fascia compresa dai 0-100$...su 11 milioni di schede oltre 7,3 cioe' il 67%,due terzi di quello che produce nvidia per il dektop,sono schede per il mercato oem di fascia bassa
rimasugli recuperati raschiando i barili della vecchia serie 8000 rinominati(quante volte non me lo ricordo):asd:
e a che ci vuoi giocare con quella feccia??:D
servono appunto solo per "appicicare" l'adesivo del logo nvidia in ogni dove,per la serie finche' il marchio dura fa' verdura
e il resto??
giusto nella fascia dei 100-200$ fanno interessanti numeri,2,7 milioni di schede con margini interessanti,coprono un quarto della produzione
ultimo la fascia dai 200-300$ e oltre fanno come amd cifre molto basse
si arriva al totale di 747 mila schede per amd,e 911 mila per nvidia
e' da notare pero',per la situazione che si e' creata con fermi,che questa fascia nvidia le vende in perdita
e non e' esclusa che forse anche la fascia prima,dai 100-200$ ha una parte che a malapena pareggia o ci guadagna poco
amd invece con le sue architetture piu' efficienti,piu' economiche da produrre ,guadagna in ogni fascia indistintamente
certo 7,3 milioni di schedine in tre mesi per nvidia,anche se con bassi margini,sono tantissime e' vero,ma in futuro??
quando fra un anno intel con sandy bridge,e amd con fusion invaderanno il mercato,in quella fascia nvidia,deve rassegnarsi definitivamente a metterci una croce sopra
fascia che ricordo attualmente copre il 67% di quello che nvidia produce:muro: :(
fbrbartoli
02-11-2010, 07:26
Per esempio ti sei perso l'annuncio di Barts che con 320 shader in meno bastona la 5850 ;) e costa pure qualcosina in meno!
Cerca di essere piu obiettivo nei tuoi commenti e dati di vendita alla mano la 460 ha fatto strage soltanto nella tua immaginazione :doh: Ottima scheda nulla da dire ma prima del ribasso dei prezzi costava come una 5850 e cmq andava meno adesso e alla pari con la 6850 e costa uguale con la 6850 che probabilmente qualcosina calera ancora.
AMD già avevo una scheda capace di vincere la competizione con le 460: le 5850 hanno dimensioni minori, vanno di più e consumano meno.
Ma dal momento che ormai già da tempo lavorava alla nuova generazione, perchè non proporre una nuova scheda con consumi ancora ridotti, migliorata in alcuni aspetti (eyefinity nuovo, uvd3, migliorie nella tessellation,...) e che ad AMD costa ancora meno (essendo più piccola), potendola di fatto proporre ad un prezzo più ridotto senza mangiarsi troppi margini?
Ecco così che nascono lo 6850 e le 6870, che in questo hanno perfettamente centrato il bersaglio.
Ma non si è detto ormai in 100 lingue che le 6800 sostituiscono le 5700 e non le 5800, mentre per queste ultime bisogna aspettare le 6900??? (semmai per la 6870 si può parlare di sostituta della 5850)
Ma inoltre... mi sono riguardato la rece delle 6800 di hwupgrade... dove le 6800 vanno meglio delle 460??? ah si forse di un paio di fps in qualche titolo particolare :eek:
Bhè c'è da ammettere che, se le piazzano come le nuove 5700, ovviamente sono migliorate come prestazioni, ma ripeto, andrei cauto a sparare quelle che al momento ritengo ancora boiate, ovvero che le 6900 stracciano la concorrenza in ogni fascia pure le 480 quando ancora non sono state recensite e ancora non le avete viste all'opera... questi si che sono commenti da fanboy.
Concludo ricordando che attualmente anche dopo l'uscita delle 6800 la 460 e la 470 rimangono i best buy del momento nelle loro fascie di prezzo e lo conferma anche la recensione di hwupgrade!
halduemilauno
02-11-2010, 09:10
si ma tu ostenti quello che ti fa' comodo,e ometti quello che non ti gradisce:mc: perche omettere il mercato mobile??
mi sembra sia gia' stato ufficializzato che il mercato mobile tira ormai piu' dei desktop
ma ok rimaniamo nel mercato desktop,forse intendi le configurazioni per giocare??
ok controlliamo i dati,mi sembra che il grosso del market share pero' provengono dalla fascia compresa dai 0-100$...su 11 milioni di schede oltre 7,3 cioe' il 67%,due terzi di quello che produce nvidia per il dektop,sono schede per il mercato oem di fascia bassa
rimasugli recuperati raschiando i barili della vecchia serie 8000 rinominati(quante volte non me lo ricordo):asd:
e a che ci vuoi giocare con quella feccia??:D
servono appunto solo per "appicicare" l'adesivo del logo nvidia in ogni dove,per la serie finche' il marchio dura fa' verdura
e il resto??
giusto nella fascia dei 100-200$ fanno interessanti numeri,2,7 milioni di schede con margini interessanti,coprono un quarto della produzione
ultimo la fascia dai 200-300$ e oltre fanno come amd cifre molto basse
si arriva al totale di 747 mila schede per amd,e 911 mila per nvidia
e' da notare pero',per la situazione che si e' creata con fermi,che questa fascia nvidia le vende in perditae non e' esclusa che forse anche la fascia prima,dai 100-200$ ha una parte che a malapena pareggia o ci guadagna poco
amd invece con le sue architetture piu' efficienti,piu' economiche da produrre ,guadagna in ogni fascia indistintamente
certo 7,3 milioni di schedine in tre mesi per nvidia,anche se con bassi margini,sono tantissime e' vero,ma in futuro??
quando fra un anno intel con sandy bridge,e amd con fusion invaderanno il mercato,in quella fascia nvidia,deve rassegnarsi definitivamente a metterci una croce sopra
fascia che ricordo attualmente copre il 67% di quello che nvidia produce:muro: :(
Io ne ostento e ne ometto...
questo è il thread delle GTX580, in + se sta a parlà delle 460,470,480,5700,5800,6800,6900 tutte schede video posto screen relativo alle schede video che devo postà quello relativo ai chip che vanno dentro ai notebook????????????
qui c'era chi sosteneva che ati prima e amd adesso vendono + schede video di nvidia ho dimostrato che è falso. in + per anni si è detto che nvidia vendeva soprattutto schede video di fascia alta e invece ho dimostrato che è falso pure questo.
il resto da quanto te detto tu dici che le schede video di fascie alte le vende in perdita io dico che è opinabile e da dimostrare, invece io dico che ne vende 164.000 in + e non è opinabile in quanto l'ho dimostrato dati alla mano.
1) dove sono le fasce media e bassa basate su gf100?
2) AMD ha venduto 25 milioni di gpu dx11 e detiene il 90% del relativo market share.
1. Scusa, che stai dicendo? Dove sono le fasce basse fatte con il Cayman?
2. E quindi? Il fatto che abbia venduto x 6 mesi senza che la concorrenza avesse uno straccio di scheda DX11 sul mercato non significa che quando questa esca con il proprio prodotto la situazione rimanga questa. Per fare un esempio idiota, è possibile che AMD avesse venduto 10 milioni di schede fino a Giugno e 1 milione da Giugno a Settembre. Il market share è quello che dici, ma la situazione di mercato ovviamente è diversa.
In quanto al rapporto performance/die size, inutile far notare che gf100 ha un die size del 60% più grande di quello di rv870.
E questo chi lo nega? Infatti il GF100 è un chip con caratteristiche completamente diverse che nvidia ha usato nel mercato consumer. Nel campo professionale la situazione è invece molto a molto diversa.
anche gf104 è solo una revisione di gf100. La differenza è che di rv870 è stata messa sul mercato tutta la line up, di fermi no.
Non facciamo confusione. Se per Fermi intendi l'ultima architettura nelle sue varianti, ora esiste in tutte le fasce. Se intendi il GF100, allora il discorso è il medesimo di quello che fa AMD: non vedo schede basata sul Cypress nelle fasce basse.
e questo chi lo dice? (riferito al fatto che ci saranno 2 architetture nella stessa serie
Scusa, ma mi sembra che Cayman avrà una architettura diversa dall'RV870 e da Barts, o sbaglio?
le serie 5xx0 e 6xx0 erano in roadmap ben prima dell'uscita di fermi
Non capisco questa affermazione. Fermi era in sviluppo prima dell'RV670... e allora?
e quindi?
E quindi è possibile rimaneggiare una architettura in tempi brevi, al contrario di quello che è stato affermato precedentemente.
hai presente cosa è una roadmap? Evidentemente no. Queste schede non cannibalizzano un bel niente, visto che la serie 5000 sta per essere sostituita per intero, fascia alta compresa.
Le roadmap le si fa secondo l'evoluzione del mercato. E infatti è la prima volta che AMD fa uscire una serie inferiore prima di quella alta. Prima di GF104 la fascia media era quella del 57xx che ha un bus a 128 bit e prestazioni molto inferiori. A questo punto diamo atto a nvidia di aver presentato una fascia media nettamente superiore a quella della concorrenza che l'ha raggiunta 4 mesi dopo.
barts è più piccolo del gf104, consuma di meno ed è più veloce
Che sia più piccolo e consumi qualcosa di meno mi pare ovvio. Che sia più veloce in assoluto avrei qualche dubbio. Ma non è la questione. Prima del GF104 in quello spazio non c'era nulla che gli facesse concorrenza. Juniper non arriva a quelle prestazioni, Cypress costa troppo. Chi dice che la 5850 è la concorrente della 460 probabilmente non ha visto la differenza di prezzo tra le 2 schede.
vero, ci sono anche i costi di progettazione e sviluppo; solo che tu stesso hai detto che i nuovi chip AMD sono stati progettati in poco tempo (quindi costi ridicoli). Forse è il caso che fai pace col cervello.
Grazie per l'appunto sul cervello. Ne farò tesoro. Ma mi permetto:
1. tempi brevi non vuol dire costi inferiori: se allochi il doppio delle risorse per dimezzare i tempi i costi rimangono invariati
2. la questione rese non conta?
e 'sta stupidaggine chi te l'ha raccontata? E' da rv670 che i chip ATi hanno cluster in più per aumentare le rese e rv870 non fa eccezione. Al contrario, G80, GT200 e GF100 non hanno cluster ridondanti.
Questa dei cluster ridondanti nei chip full di AMD mi è nuova. Me la segno per il futuro. Vorresti dire che in Cypress ci sono più di 1600 SP e relativi ROP e TMU che vengono laserati via anche nel fortunato caso in cui il chip riesca completamente sano?
sui conti ti sei già incartato a sufficienza, quindi non mi va di infierire. Resta il, dato di 25 milioni di gpu dx11 vendute contro 2,78 milioni.
Sarai un bravo ingegnere appassionato di tecnologia, ma per quanto riguarda l'economia lasci parecchio a desiderare. I numeri che posti sono insignificanti. I numeri a fine trimestre sono invece un chiaro specchietto di quello che è la situazione: AMD non riesce a guadagnare dal mercato delle schede grafiche. Con un utile di 1 milione di dollari dopo aver venduto 11 milioni di schede solo DX11, mi dici quale market share le serve per andare finalmente in attivo? (e non continuare con la questione debiti etc... perché quelle parti sono scorporate dalla sezione video. 1 milione di dollari di utile è quello che ha fatto nell'ultimo trimestre, alla faccia dei costi dei chip più piccoli della concorrenza) .
ti risulta che fermi sia stato "rifatto"? A me gf104 non pare una rivoluzione ma, semmai, una evoluzione del progetto originario, così come barts è una evoluzione di rv870
Mai detto che sia una rivoluzione. E a me non sembra proprio una evoluzione. E' una versione diversa della stessa tecnologia ma con opportune modifiche per ottimizzarla per il mercato consumer. Non è una evoluzione perché per me evolvere non significa togliere funzionalità, come è stato fatto con il GF104.
Il GF104 è la soluzione che nvidia ha trovato per il mercato consumer dopo che ha realizzato che il GF100 non è proprio la soluzione ideale. Si spera che da questo errore abbia imparato che i due mercati necessitano 2 soluzioni differenti, almeno per le fasce medie/basse.
Guarda che la 6870 E UNA VERSIONE FULL! Non creare disinformazione solo perche sei simpatizzante nVidia! Poi anche nVidia per produrre la 580 (che gli srve per rimanere a galla nella fascia alta fino all'arrivo di Kepler sperando che Cayman non sia un mostro di potenza) ha tagliato 300Mln di transistor addetti al DP per poter avere un chip pienamente funzionante. Poi perdonami ma dire che GF100 e GF104 sono stati progettati per uscire difettosi e la barzelletta del secolo! Nessuno sano di mente farebbe un azzardo del genere!
Chiudo facendoti notare che Amd gia adesso compete alla pari addirittura superando nVidia nel rapporto prezzo-prestazioni e anche nelle prestazioni assolute! Che lo faccia con un approccio diverso (ricorrendo a schede dual GPU) poco importa perche alla fin fine io compro UNA VGA e quante GPU ha onboard me ne infischio!
Ma cosa bevete la mattina? Leggi meglio e trova dove dico che il GF100 è nato per uscire difettoso! Il GF104 ha un cluster laserato già dalla versione 1 e non è mai stato pubblicizzato come chip con tutti gli SP disponibili. Se obietti a quello che ho detto (cioè che il GF104 è fatto per nascere male per avere una resa superiore) allora stai dando del NON sano di mente anche a yossarian che dice che tutti i chip di AMD sono prodotti con cluster da laserare sempre e comunque (cosa che non sapevo ed è palese solo per Barts). La versione full la fa il produttore che decide con quanti SP il proprio prodotto deve uscire. Se ho 3000 sp e decido che il mio chip deve essere venduto con 2000 allora la versione full è di 2000SP. Affari miei se 1000 li butto ne cesso sempre e comunque. E se nemmeno ti dico che dentro ci sono 1000SP laserati, a te non fa nessuna differenza.
Comunque, il fatto di preventivare sempre e comunque "pezzi" rotti all'interno di un chip non è cosa nuova: i Cell per la PS3 hanno 8 SPU ma ne sono attivi solo 7, dato che 1 è sempre e comunque disabilitato per permettere di ottenere una resa maggiore di chip uniformi con 7 SPU funzionanti.
IBM che produce il suo Cell modificato e lo vende a 20 volte quello che fa Sony, vende i chip con tutti gli SPU abilitati.
La questione 1 GPU vs multiple GPU non è solo questione di prestazioni. E' anche questione di problematiche che vengono introdotte. Che in determinate circostanze le prestazioni siano superiori non vi sono dubbi. Ma prova a pensare perchè invece di fare il Cypress AMD non si è messa a fare schede con 2, 3 o 4 Juniper per la serie alta e l'unica scheda a doppio processore "ufficiale" è quella realizzata solo ed esclusivamente per mostrare di avere il trono delle prestazioni.
Eppure se il tuo ragionamento fosse corretto, una GPU con doppio Juniper sarebbe un affare rispetto ad una con un Cypress (magari pure castrato come quello sulla 5850).
yossarian
02-11-2010, 09:53
Ma non si è detto ormai in 100 lingue che le 6800 sostituiscono le 5700 e non le 5800, mentre per queste ultime bisogna aspettare le 6900??? (semmai per la 6870 si può parlare di sostituta della 5850)
Ma inoltre... mi sono riguardato la rece delle 6800 di hwupgrade... dove le 6800 vanno meglio delle 460??? ah si forse di un paio di fps in qualche titolo particolare :eek:
Bhè c'è da ammettere che, se le piazzano come le nuove 5700, ovviamente sono migliorate come prestazioni, ma ripeto, andrei cauto a sparare quelle che al momento ritengo ancora boiate, ovvero che le 6900 stracciano la concorrenza in ogni fascia pure le 480 quando ancora non sono state recensite e ancora non le avete viste all'opera... questi si che sono commenti da fanboy.
Concludo ricordando che attualmente anche dopo l'uscita delle 6800 la 460 e la 470 rimangono i best buy del momento nelle loro fascie di prezzo e lo conferma anche la recensione di hwupgrade!
http://www.hardware.fr/articles/804-23/dossier-amd-radeon-hd-6870-6850.html
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_performancerating_ohne_aaaf
longhorn7680
02-11-2010, 10:14
Ma cosa bevete la mattina? Leggi meglio e trova dove dico che il GF100 è nato per uscire difettoso! Il GF104 ha un cluster laserato già dalla versione 1 e non è mai stato pubblicizzato come chip con tutti gli SP disponibili. Se obietti a quello che ho detto (cioè che il GF104 è fatto per nascere male per avere una resa superiore) allora stai dando del NON sano di mente anche a yossarian che dice che tutti i chip di AMD sono prodotti con cluster da laserare sempre e comunque (cosa che non sapevo ed è palese solo per Barts). La versione full la fa il produttore che decide con quanti SP il proprio prodotto deve uscire. Se ho 3000 sp e decido che il mio chip deve essere venduto con 2000 allora la versione full è di 2000SP. Affari miei se 1000 li butto ne cesso sempre e comunque. E se nemmeno ti dico che dentro ci sono 1000SP laserati, a te non fa nessuna differenza.
Comunque, il fatto di preventivare sempre e comunque "pezzi" rotti all'interno di un chip non è cosa nuova: i Cell per la PS3 hanno 8 SPU ma ne sono attivi solo 7, dato che 1 è sempre e comunque disabilitato per permettere di ottenere una resa maggiore di chip uniformi con 7 SPU funzionanti.
IBM che produce il suo Cell modificato e lo vende a 20 volte quello che fa Sony, vende i chip con tutti gli SPU abilitati.
La questione 1 GPU vs multiple GPU non è solo questione di prestazioni. E' anche questione di problematiche che vengono introdotte. Che in determinate circostanze le prestazioni siano superiori non vi sono dubbi. Ma prova a pensare perchè invece di fare il Cypress AMD non si è messa a fare schede con 2, 3 o 4 Juniper per la serie alta e l'unica scheda a doppio processore "ufficiale" è quella realizzata solo ed esclusivamente per mostrare di avere il trono delle prestazioni.
Eppure se il tuo ragionamento fosse corretto, una GPU con doppio Juniper sarebbe un affare rispetto ad una con un Cypress (magari pure castrato come quello sulla 5850).
Sul fatto degli Sp ridondanti non lo sapevo neanch'io e credo che Yoss ti abbia risposto a sufficenza ma tu contnui a far finta di non sentire percio e meglio chiuderla qui visto che non c'e peggio sordo di chi non vuol sentire.
Sul multiple GPU se nuovamente fuori strada perche 2 Juniper costano piu di un Cypress percio ad Amd conviene fare come ha fatto PUNTO. Sia Amd che nVidia valutano cio che hanno a disposizione e le fasce di mercato da coprire e presentano la lineup in base a questo!
yossarian
02-11-2010, 10:39
1. Scusa, che stai dicendo? Dove sono le fasce basse fatte con il Cayman?
devono ancora uscire. Anzi, a dirla tutta, deve ancora uscire la fascia alta, visto che, finora, si è vista solo la media
Mi pare ti sia sfuggito che la famiglia presentata per intero è la 5xx0 e non la 6xx0 :D
2. E quindi? Il fatto che abbia venduto x 6 mesi senza che la concorrenza avesse uno straccio di scheda DX11 sul mercato non significa che quando questa esca con il proprio prodotto la situazione rimanga questa. Per fare un esempio idiota, è possibile che AMD avesse venduto 10 milioni di schede fino a Giugno e 1 milione da Giugno a Settembre. Il market share è quello che dici, ma la situazione di mercato ovviamente è diversa.
si, è altri 14 milioni dall'1 al 30 settembre. Sono 25 e non 11 milioni. Diciamo che avete fallito nella mission di dimostrare che la 460 avrebbe fatto "strage" di qualcosa :D
E questo chi lo nega? Infatti il GF100 è un chip con caratteristiche completamente diverse che nvidia ha usato nel mercato consumer. Nel campo professionale la situazione è invece molto a molto diversa.
sei tu che hai affermato che amd avrebbe dovuto realizzare un chip grande quanto fermi per raggiungerne le prestazioni. Affermazione contraddetta dai fatti: fermi ha un die size superiore del 60% a fronte di prestazioni superiori forse del 15%. Se, poi, vogliamo essere pignoli, anche barts ha un die size di circa il 30% inferiore a gf104 e, pare, vada anche di più :p
Non facciamo confusione. Se per Fermi intendi l'ultima architettura nelle sue varianti, ora esiste in tutte le fasce. Se intendi il GF100, allora il discorso è il medesimo di quello che fa AMD: non vedo schede basata sul Cypress nelle fasce basse.
l'unico che sta facendo confusione sei tu: non vedi schede basate su cypress nella fascia bassa? Allora tutta la serie 5xx0 è basata sull'architettura dei ferrero rocher?
Scusa, ma mi sembra che Cayman avrà una architettura diversa dall'RV870 e da Barts, o sbaglio?
ripeto la domanda: chi te lo ha detto? E ne aggiungo un'altra: diversa in cosa?
Non capisco questa affermazione. Fermi era in sviluppo prima dell'RV670... e allora?
strano che tu non la capisca: significa semplicemente che amd sta rispettando la sua roadmap e se ne sbatte di cosa tira fuori nVidia. Significa che, come è logico che sia, un chip non viene messo sul mercato per contrastare qualcosa ma perchè fa parte di un programma di sviluppo di un'architettura. Quinndi, tutte le vostre fantasie sulla necessità da parte di AMD di contrastare la 460 sono del tutto campate in aria.
E quindi è possibile rimaneggiare una architettura in tempi brevi, al contrario di quello che è stato affermato precedentemente.
dipende da cosa devi "rimaneggiare"
Le roadmap le si fa secondo l'evoluzione del mercato. E infatti è la prima volta che AMD fa uscire una serie inferiore prima di quella alta. Prima di GF104 la fascia media era quella del 57xx che ha un bus a 128 bit e prestazioni molto inferiori. A questo punto diamo atto a nvidia di aver presentato una fascia media nettamente superiore a quella della concorrenza che l'ha raggiunta 4 mesi dopo.
questa è la stronzata più grossa che s'è mai sentita da quando l'uomo ha inventato il cavallo (CIT). Le roadmap le fa il mercato? Hai idea di cosa costi e di quanto tempo richieda sviluppare un progetto?. Tra l'altro, ti ho già fatto notare che le serie 5xx0 e 6xx0 erano in roadmap ben prima di fermi (e, quindi, anche della 460) e prima che si sapesse dell'annullamento del pp a 32 nm da parte di tsmc e tu hai commentato, in maniera del tutto fuori luogo, che fermi è in fase di sviluppo da prima di rv670.
Che sia più piccolo e consumi qualcosa di meno mi pare ovvio. Che sia più veloce in assoluto avrei qualche dubbio.
leggi le review e ti togli ogni dubbio, allora
Ma non è la questione. Prima del GF104 in quello spazio non c'era nulla che gli facesse concorrenza. Juniper non arriva a quelle prestazioni, Cypress costa troppo. Chi dice che la 5850 è la concorrente della 460 probabilmente non ha visto la differenza di prezzo tra le 2 schede.
se è per questo, anche i prezzi della 480 sono scesi e quelli della 470 addirittura precipitati. Infatti il mercato fa i prezzi e non le roadmap.
Grazie per l'appunto sul cervello. Ne farò tesoro. Ma mi permetto:
1. tempi brevi non vuol dire costi inferiori: se allochi il doppio delle risorse per dimezzare i tempi i costi rimangono invariati
AMD sta rispettando alla lettera la roadmap, almeno finora. Questo significa che ogni nuovo chip e ogni evoluzione della precedente generazione sta uscendo quando era previsto che ciò avvenisse. Questo nonostante il cambio di piani di tsmc sui processi produttivi. Secondo te questo è indice di fretta nel portare avanti un programma?
2. la questione rese non conta?
certo che conta. Infatti, per questo motivo, AMD sta adottando da tempo la politica del chip piccolo e con cluster ridondanti.
Questa dei cluster ridondanti nei chip full di AMD mi è nuova. Me la segno per il futuro. Vorresti dire che in Cypress ci sono più di 1600 SP e relativi ROP e TMU che vengono laserati via anche nel fortunato caso in cui il chip riesca completamente sano?
si ed è una cosa normale soprattutto quando i chip diventano sempre più complessi e le rese, di, conseguenza, tendono a calare. Ovviamente lo si fa quando è possibile
Sarai un bravo ingegnere appassionato di tecnologia, ma per quanto riguarda l'economia lasci parecchio a desiderare. I numeri che posti sono insignificanti. I numeri a fine trimestre sono invece un chiaro specchietto di quello che è la situazione: AMD non riesce a guadagnare dal mercato delle schede grafiche. Con un utile di 1 milione di dollari dopo aver venduto 11 milioni di schede solo DX11, mi dici quale market share le serve per andare finalmente in attivo? (e non continuare con la questione debiti etc... perché quelle parti sono scorporate dalla sezione video. 1 milione di dollari di utile è quello che ha fatto nell'ultimo trimestre, alla faccia dei costi dei chip più piccoli della concorrenza)
ancora con questa storia del bilancio?
1) il trimestrale di nVidia è andato peggio
2) nel conto presentato da AMD non è scorporato un bel niente ma sono comprese sia le passività derivanti dall'acquisizione di ATi sia quelle derivanti dalla partecipazione in GF
3) chi sta vendendo sotto costo non è certo AMD
Mai detto che sia una rivoluzione. E a me non sembra proprio una evoluzione. E' una versione diversa della stessa tecnologia ma con opportune modifiche per ottimizzarla per il mercato consumer. Non è una evoluzione perché per me evolvere non significa togliere funzionalità, come è stato fatto con il GF104.
Il GF104 è la soluzione che nvidia ha trovato per il mercato consumer dopo che ha realizzato che il GF100 non è proprio la soluzione ideale. Si spera che da questo errore abbia imparato che i due mercati necessitano 2 soluzioni differenti, almeno per le fasce medie/basse.
vedila come ti pare. Resta il fatto che non è possibile sviluppare 2 progetti distinti, uno per ogni mercato. Infatti gf104 non è affatto un progetto nuovo. La stessa cosa avverrà in futuro: non ci saranno due o più progetti portati avanti in parallelo e focalizzati su differenti mercati. In quest'ottica, fermi non è stato un errore ma solo la naturale evoluzione di g80 e della politica che nVidia è costretta a portare avanti
vedila come ti pare. Resta il fatto che non è possibile sviluppare 2 progetti distinti, uno per ogni mercato. Infatti gf104 non è affatto un progetto nuovo. La stessa cosa avverrà in futuro: non ci saranno due o più progetti portati avanti in parallelo e focalizzati su differenti mercati. In quest'ottica, fermi non è stato un errore ma solo la naturale evoluzione di g80 e della politica che nVidia è costretta a portare avanti
Ciao volevo chiederti: ma Nvidia, se la sua archittetura attuale dovesse dimostrarsi un vicolo cieco dal quale non poter uscire se non cambiando totalmente l'apporccio, potrebbe passare ad un approcccio VLIW o cmq simile a quello AMD e mantenere il supporto a features come CUDA?
Se si , in quanto tempo credi possa uscire una soluzione del genere ipotizzato che abbiano inziato a lavorarci dallo scorso anno?
Ascolta yossarian. O non ci capiamo o fai finta di non capire.
L'architettura del Cypress non è quella di Juniper o Barts così come quella del GF100 non è quella del GF104. Chiedere dove sono le schede di fascia bassa basate sulla tecnologia del GF100 mi sembra una provocazione gratuita da uno come te che sicuramente sa le differenze che intercorrono tra i chip di differenti fascie.
Lo sviluppo di 2 architetture diverse è possibilissima. Se per architettura si intende un modo diverso di "assemblare i pezzi" sviluppati per mercati differenti. Sviluppata la tecnologia chiamata Fermi, fare un GF100 e un GF110 ha un costo, ma non è diverso da quello affrontato da AMD per fare Cypress e Juniper che hanno caratteristiche differenti, come tra GF100 e GF104.
E io torno sulla questione bilanci. Hai sbagliato a guardare le cifre. Leggi il rapporto di AMD su quanto realizzato dalla SOLA SEZIONE GRAFICA. Non da tutta l'azienda come un pentolone. La sezione grafica non contiene i costi relativi all'acquisizione della sezione stessa, quelle relative agli investimenti in GF e degli oneri dei vari debiti pregressi.
Il risultato dopo 25 milioni di schede grafiche DX11 vendute in monopolio è negativo.
Il mio discorso su come si è riaprtito il mercato dopo l'arrivo della 460 non cambia una virgola se le schede grafiche vendute sono 25 o 11 o tre miliardi. La situazione di mercato è cambiata.
E vorrei vedere che il bilancio di nvidia sia andato peggio di quello di AMD! Ha venduto molto ma molto meno. Eppure la differenza di passivo è una inezia tra le due. Ripeto la domanda a cui non vuoi dare risposta (o non la sai dare). Se con questi numeri di vendita la sezione grafica (non AMD in toto) fa passivo, quando pensa di recuperare qualche dollaro? Magari la speranza è che nvidia fallisca prima che gli interessi di AMD raggiungano il debito dello stato dei petrolieri che la foraggiano?
Per le roadmap di ATI, io ho visto in tutte l'uscita di Cayman, Barts e Antilles per l'anno 2011, non prima. E nessuna riporta come devono essere fatti questi chip, le cui caratteristiche sono state molto probabilmente modificate dopo l'annullamento dei 32nm.
Un conto è sviluppare l'architettura di base, un conto "montarla" per venire incontro alla situazione di mercato. In questi mesi è stato evidente che sia AMD che nvidia hanno fatto quello che più conveniva per vendere meglio anche sotto questo punto di vista. Il GF104 non è nato così per caso a tavolino mesi prima di sapere dove piazzarlo. Così come il taglio dei chip Barts.
Zappa1981
02-11-2010, 12:21
Ascolta yossarian. O non ci capiamo o fai finta di non capire.
L'architettura del Cypress non è quella di Juniper o Barts così come quella del GF100 non è quella del GF104. Chiedere dove sono le schede di fascia bassa basate sulla tecnologia del GF100 mi sembra una provocazione gratuita da uno come te che sicuramente sa le differenze che intercorrono tra i chip di differenti fascie.
Lo sviluppo di 2 architetture diverse è possibilissima. Se per architettura si intende un modo diverso di "assemblare i pezzi" sviluppati per mercati differenti. Sviluppata la tecnologia chiamata Fermi, fare un GF100 e un GF110 ha un costo, ma non è diverso da quello affrontato da AMD per fare Cypress e Juniper che hanno caratteristiche differenti, come tra GF100 e GF104.
E io torno sulla questione bilanci. Hai sbagliato a guardare le cifre. Leggi il rapporto di AMD su quanto realizzato dalla SOLA SEZIONE GRAFICA. Non da tutta l'azienda come un pentolone. La sezione grafica non contiene i costi relativi all'acquisizione della sezione stessa, quelle relative agli investimenti in GF e degli oneri dei vari debiti pregressi.
Il risultato dopo 25 milioni di schede grafiche DX11 vendute in monopolio è negativo.
Il mio discorso su come si è riaprtito il mercato dopo l'arrivo della 460 non cambia una virgola se le schede grafiche vendute sono 25 o 11 o tre miliardi. La situazione di mercato è cambiata.
E vorrei vedere che il bilancio di nvidia sia andato peggio di quello di AMD! Ha venduto molto ma molto meno. Eppure la differenza di passivo è una inezia tra le due. Ripeto la domanda a cui non vuoi dare risposta (o non la sai dare). Se con questi numeri di vendita la sezione grafica (non AMD in toto) fa passivo, quando pensa di recuperare qualche dollaro? Magari la speranza è che nvidia fallisca prima che gli interessi di AMD raggiungano il debito dello stato dei petrolieri che la foraggiano?
Per le roadmap di ATI, io ho visto in tutte l'uscita di Cayman, Barts e Antilles per l'anno 2011, non prima. E nessuna riporta come devono essere fatti questi chip, le cui caratteristiche sono state molto probabilmente modificate dopo l'annullamento dei 32nm.
Un conto è sviluppare l'architettura di base, un conto "montarla" per venire incontro alla situazione di mercato. In questi mesi è stato evidente che sia AMD che nvidia hanno fatto quello che più conveniva per vendere meglio anche sotto questo punto di vista. Il GF104 non è nato così per caso a tavolino mesi prima di sapere dove piazzarlo. Così come il taglio dei chip Barts.
juniper è il chip della serie 5000, tutte le fasce di schede sono state fatte tagliando sp da questo chip che ne contiene 1600 all origine.. quindi la 5770 ne ha 800 la 5850 1440 e così via, penso sia questo che voleva intendere... mentre per gf100 han dovuto modificarlo in todo o in gran parte per renderlo competitivo e stabile per altre schede di diverse fasce... in sostanza è più vantaggioso il metodo utilizzato per amd dato che con lo stesso chip ha coperto tutte le fasce di prezzo a disposizione e costruendo schede con performance da nn sottovalutare... per la serie 6000 è un pò diverso in quanto per la 6800 hanno un chip solo barts credo che originariamente contiene 1120 shader ma che viene "cuttato" a 960 per la 6850 la 67xx e 69xx in questo caso hanno chip diversi fatti in modo diverso e organizzati in modo diverso.... e quà non ci piove! nvidia non fallirà mai così come amd
yossarian
02-11-2010, 12:39
Ciao volevo chiederti: ma Nvidia, se la sua archittetura attuale dovesse dimostrarsi un vicolo cieco dal quale non poter uscire se non cambiando totalmente l'apporccio, potrebbe passare ad un approcccio VLIW o cmq simile a quello AMD e mantenere il supporto a features come CUDA?
Se si , in quanto tempo credi possa uscire una soluzione del genere ipotizzato che abbiano inziato a lavorarci dallo scorso anno?
mantenere il supporto a CUDA non sarebbe un problema. CUDA deriva da OPen64 che è stato studito per girare anche su architetture x86 e EPIC o VLIW. Il problema sarebbe che un'architettura VLIW sarebbe poco funzionale per i piani di nVidia di spingere sul GPGPU
Ascolta yossarian. O non ci capiamo o fai finta di non capire.
L'architettura del Cypress non è quella di Juniper o Barts così come quella del GF100 non è quella del GF104.
in cosa differiscono juniper da cypress, tanto per fare un esempio?
Chiedere dove sono le schede di fascia bassa basate sulla tecnologia del GF100 mi sembra una provocazione gratuita da uno come te che sicuramente sa le differenze che intercorrono tra i chip di differenti fascie.
certo che la conosco; proprio per quello ti chiedo dove sono la fascia bassa di gf100, quella di gt200 e di gt200b, mentre vedo bene dov'è la fascia bassa della serie 5xx0, come pure quella della serie 4xx0. Perchè non provi a spiegare in cosa consistono queste differenze architetturali che rendono juniper e cypress architetturalmente diversi?
Lo sviluppo di 2 architetture diverse è possibilissima. Se per architettura si intende un modo diverso di "assemblare i pezzi" sviluppati per mercati differenti. Sviluppata la tecnologia chiamata Fermi, fare un GF100 e un GF110 ha un costo, ma non è diverso da quello affrontato da AMD per fare Cypress e Juniper che hanno caratteristiche differenti, come tra GF100 e GF104.
ripeto: quali sono queste caratteristiche differenti? Cosa intendi per assemblare i pezzi? Per te due architetture sono differenti in base a cosa? All'ISA? All'organizzazione del lavoro del chip? Alla logica di funzionamento? Al tipo di architettura? Proviamo ad entrare un po' più nel dettaglio
E io torno sulla questione bilanci. Hai sbagliato a guardare le cifre. Leggi il rapporto di AMD su quanto realizzato dalla SOLA SEZIONE GRAFICA. Non da tutta l'azienda come un pentolone. La sezione grafica non contiene i costi relativi all'acquisizione della sezione stessa, quelle relative agli investimenti in GF e degli oneri dei vari debiti pregressi.
Il risultato dopo 25 milioni di schede grafiche DX11 vendute in monopolio è negativo.
mi fai vedere dove sta scritto che la sezione grafica è al netto delle passività?
Il mio discorso su come si è riaprtito il mercato dopo l'arrivo della 460 non cambia una virgola se le schede grafiche vendute sono 25 o 11 o tre miliardi. La situazione di mercato è cambiata.
in cosa? Da un lato ci sono 25 milioni di gpu dx11, dall'altro, forse 2,78 (e non ho tenuto conto di altri eventuali produttori di chip dx11).
E vorrei vedere che il bilancio di nvidia sia andato peggio di quello di AMD! Ha venduto molto ma molto meno. Eppure la differenza di passivo è una inezia tra le due. Ripeto la domanda a cui non vuoi dare risposta (o non la sai dare). Se con questi numeri di vendita la sezione grafica (non AMD in toto) fa passivo, quando pensa di recuperare qualche dollaro? Magari la speranza è che nvidia fallisca prima che gli interessi di AMD raggiungano il debito dello stato dei petrolieri che la foraggiano?
e io ripeto la mia: mostrami dove è scritto che il bilancio della sezione grafica di amd è al netto delle passività.
Per le roadmap di ATI, io ho visto in tutte l'uscita di Cayman, Barts e Antilles per l'anno 2011, non prima. E nessuna riporta come devono essere fatti questi chip, le cui caratteristiche sono state molto probabilmente modificate dopo l'annullamento dei 32nm.
fammi vedere queste roadmap che parlerebbero del 2011. Per la cronaca, è da inizio anno che si parla, anche su questo forum, delle nuove uscite di AMD entro la fine di quest'anno In quanto alle caratteristiche modificate "al volo" ti consiglio di leggere quanto scritto da Pleg. Si parla di progetti che coinvolgono qualche migliaio di persone e che costano svariati miliardi, e non di mercato ortofrutticolo. Un progetto coinvolge, spesso, più generazioni di chip e si cerca di farlo durare il più a lungo possibile.
Un conto è sviluppare l'architettura di base, un conto "montarla" per venire incontro alla situazione di mercato. In questi mesi è stato evidente che sia AMD che nvidia hanno fatto quello che più conveniva per vendere meglio anche sotto questo punto di vista. Il GF104 non è nato così per caso a tavolino mesi prima di sapere dove piazzarlo. Così come il taglio dei chip Barts.
nessuno monta niente per venire incontro al mercato. La logica di funzionamento di un chip non la modifichi su "due piedi" e neppure aggiungi e togli a piacimento in pochi giorni. Inoltre, ripeto, gli unici dati concreti sono che AMD non ha modificato in maniera sostanziale il prezzo dei suoi chip dx11 ed ha continuato a vendere molto più di nVidia; che AMD sta rispettando la sua roadmap (nonostante le difficoltà di tsmc)
Partiamo dalla questione bilanci:
Graphics segment revenue decreased 11 percent sequentially but
increased 33 percent year-over-year. The sequential decrease was
driven by decreased mobile graphics processor unit (GPU) unit
shipments and decreased ASP. The year-over-year increase was driven
by an increase in GPU unit shipments and ASP.
--
-- Operating income was $1 million, compared with $33 million in
Q2-10 and $2 million in Q3-09.
Le spese extra sono elencate nel bilancio generale, non in quello specifico per singola sezione. L'operating income indica le entrate a netto di tutti gli oneri finanziari e investimenti effettuati. 1 milione di dollari. Nella fase migliore di vendite è stato di ben 33 milioni di dollari.
Cypress, come il GF100, hanno unità di calcolo in DP. Juniper e GF104 no.
Le fasce minori sono fatte con un "assemblaggio" diverso dell'architettura a disposizione. Barts non è un derivato di Cypress, ma uno Juniper con gli steroidi. Così come il GF110 non è un derivato da GF100 ma un GF104 pompato.
2 Juniper costano meno di un Cypress. La resa dei due chip è differente anche se la somma delle aree è maggiore per i 2 Juniper. Come detto, l'area non è l'unico fattore del costo di un chip.
Qui una slide della roadmap AMD: http://www.chw.net/2010/06/amd-southern-islands-ati-radeon-hd-6000-series-roadmap/ del 5 di Giugno (mica del 2009). Giusto poco prima che il GF104 fosse rilasciato.
La logica di funzionamento di un chip non la modifichi su "due piedi" e neppure aggiungi e togli a piacimento in pochi giorni.
No, il funzionamento dipende esclusivamente dalla particolare architettura che hai sviluppato, ma nulla toglie che in 4 mesi è possibilissimo decidere quanti SP e unità extra inserire in un chip. nvidia lo ha fatto con il GF104 entrando proprio dove AMD aveva lasciato "un buco". AMD lo ha fatto con Barts per coprire proprio quel buco che aveva lasciato scoperto.
Altrimenti non si capisce perchè sia uscita prima con Barts (anche rispetto alla roadmap) invece che con Cayman.
yossarian
02-11-2010, 15:59
Partiamo dalla questione bilanci:
Le spese extra sono elencate nel bilancio generale, non in quello specifico per singola sezione. L'operating income indica le entrate a netto di tutti gli oneri finanziari* 1 milione di dollari. Nella fase migliore di vendite è stato di ben 33 milioni di dollari.
Quindi, facendo due calcoli, nel 2° trimestre 2010 AMD ha venduto circa quasi 30 milioni di gpu con un'utile di 33 milioni. Mentre nel 3° trimestre 2010 ha venduto circa 26,8 milioni di gpu con un utile, al netto di tutti gli oneri, di 1 milione. Secondo i tuoi calcoli, il guadagno medio sarebbe di 1,11 a chip venduto al netto di tutti gli oneri! per il 2° trimestre e di 0,037 a chip per il 3° trimestre. E dimmi, sempre secondo i tuoi calcoli, quali sono le perdite di nVidia nel settore gpu per il 2° e 3° trimestre 2010 al netto degli oneri? :D
* fixed
http://www.investopedia.com/terms/o/operatingincome.asp
Cypress, come il GF100, hanno unità di calcolo in DP. Juniper e GF104 no.
entriamo un po' più nel dettaglio; a parte i registri dp in meno su juniper, che altre differenze architetturali trovi rispetto a cypress? E tra gf100 e gf104?
Le fasce minori sono fatte con un "assemblaggio" diverso dell'architettura a disposizione.
specificare "assemblaggio"
Barts non è un derivato di Cypress, ma uno Juniper con gli steroidi.
ma anche no. Ci sono più differenze tra barts e juniper che tra questo e cypress
Così come il GF110 non è un derivato da GF100 ma un GF104 pompato.
non mi risulta che 512 sia divisibile per 48 :mbe:
2 Juniper costano meno di un Cypress. La resa dei due chip è differente anche se la somma delle aree è maggiore per i 2 Juniper. Come detto, l'area non è l'unico fattore del costo di un chip.
invece in questo caso si, visto che condividono le stesse spese di R&D
Qui una slide della roadmap AMD: http://www.chw.net/2010/06/amd-southern-islands-ati-radeon-hd-6000-series-roadmap/ del 5 di Giugno (mica del 2009). Giusto poco prima che il GF104 fosse rilasciato.
quelle sarebbero roadmap? Non mi pare siano uscita da AMD ma semplicemente fatte dall'autore dell'articolo. Qui (http://www.xbitlabs.com/news/video/display/20100330171348_ATI_Reportedly_Preps_Southern_Islands_Family_of_Graphics_Chips.html), a parte la confusione tra NI e SI, si parla della prossima famiglia di chip AMD a 40 nm entro la fine del 2010
No, il funzionamento dipende esclusivamente dalla particolare architettura che hai sviluppato, ma nulla toglie che in 4 mesi è possibilissimo decidere quanti SP e unità extra inserire in un chip. nvidia lo ha fatto con il GF104 entrando proprio dove AMD aveva lasciato "un buco". AMD lo ha fatto con Barts per coprire proprio quel buco che aveva lasciato scoperto.
Altrimenti non si capisce perchè sia uscita prima con Barts (anche rispetto alla roadmap) invece che con Cayman.
http://www.tomshw.it/img_vedi.php?img=http://www.tomshw.it/files/2010/10/immagini/27530/radeon-hd-6000.jpg
di agosto 2010
Butto li un'ipotesi: Forse perchè con cayman ci sarà qualche modifica a livello di alu? E forse perchè cayman sarà molto più grosso (brutto e cattivo, visto che doveva nascere a 32 nm) di barts, per cui è opportuno lanciare prima la fascia bassa? :D
Guarda, io non mi addentro nei conti specifici per "singola unità" venduta. I numeri sono quelli. Non li ho inventati io. E' anche possibile vendere 3 miliardi di GPU con un passivo di 1 dollaro. Se i guadagni complessivi per le unità vendute non coprono i costi associati a svilupparle e realizzarle (operating income = ricavi - costi di produzione) non è colpa mia. I numeri riferiti da AMD stessa sono quelli. Chi stia vendendo sotto costo, rispetti ai propri costi, non lo so. Ma i numeri danno una indicazione.
Quantomeno nvidia ha la scusante di avere un venduto molto minore che giustifica il fatto che i propri (enormi) costi di sviluppo (che includono anche la parte SW professionale che AMD non ha), non vengono coperti da quelle cifre.
Per le differenze tra le architetture basta vedere un qualsiasi "schemino" che riporti come i "mattoncini" interni ai chip siano diversi l'uno dall'altro. Se 512 non è divisibile per 48 probabilmente hanno montato i "mattoncini" in maniera diversa. Magari questa volta con cluster da 32 per avere più tesselator units? O magari x 64 per averne di meno e risparmiare qualche migliaio di transistor?
Sicuramente tu sei più esperto in questo, ma fino a dati ufficiali da parte di nvidia nessuno sa cosa c'è in quel chippone, a parte il fatto che sembra lo abbiano castrato come il GF104 per quanto riguarda il GPGPU.
La modifica alle ALU del Cayman dovrebbe far parte della nuova architettura AMD se non erro. Credo che pure Fermi sia più grosso e cattivo di quello che sarebbe dovuto essere, dato che quando è cominciato lo sviluppo erano previsti i 28 nm per il periodo di uscita dello stesso. nvidia ci ha messo 4 mesi a fare una versione adatta al processo produttivo adeguato. Forse di più se furbamente si sono accorti che i 40nm non erano il PP giusto a fine 2009. Ma il gap tra l'uscita della versione poco efficiente e quella "giusta" è di 4 mesi. E se il GF110 esce prima della fine dell'anno ci hanno messo 9 mesi a fare una versione full di quello che sarebbe dovuto essere la versione di Marzo.
I tempi per fare una versione "tagliata" secondo le evoluzioni del mercato ci sono eccome. Ecco perché credo che ci sia margine sufficiente per entrambe le aziende di rilasciare quello che meglio credono.
Mi spieghi a cosa serve la "nuova fascia bassa" di AMD quando ha già il monopolio delle vendite (secondo i tuoi numeri)? Juniper vende come il pane e le 58xx costano meno e vanno quasi uguale alla fascia alta di nvidia. Perchè sacrificare la propria fascia alta per coprire un buco coperto da una scheda che non vende nulla (sempre secondo i tuoi numeri)?
D'altronde oggi nessuno munito di buon senso comprerebbe mai una 5850 quando la 6870 va anche di più e cosa molto meno (e consuma di meno). E la 5870 non va tanto di più e costa davvero uno sproposito per le prestazioni che ha rispetto alla 6870.
Forse, sempre visti i numeri di bilancio, i ricavi della soluzione Cypress non è così vantaggiosa?
Perchè fare la fascia "bassa" usando l'architettura vecchia (con le vecchie ALU) invece che, proprio come hai detto tu, non farla con l'architettura nuova e testarla con chip meno complessi?
Non so, io faccio ipotesi secondo i dati che ho in mano. Non ho la verità assoluta. Ma finora non ho una minima indicazione che quello che ho detto sia sbagliato. Cioè che AMD è corsa ai ripari con una revisione minore della propria architettura (come ha fatto nvidia) mentre la nuova architettura non è ancora pronta per quella fascia, perché pensata da tempo per uscire a inizio anno nuovo nel formato più "grosso".
Dammele tu le roadmap di AMD, magari fatte nel 2009, per vedere quando erano previste le uscite della nuova architettura e magari in cosa esattamente consistevano. Perché se il link che ti ho mandato non riporta i periodi ufficiali di AMD, a Giugno il tizio che ha fatto i grafici non conosceva nemmeno lui le date. E cosa fosse Barts esattamente nessuno lo sa, ma forse tu hai informazioni più precise in merito.
Per i dati che ho io, non ho alcun segno che le due compagnie si stanno rincorrendo " a vista" in attesa da parte di AMD di rilasciare la nuova architettura.
Butto li un'ipotesi: Forse perchè con cayman ci sarà qualche modifica a livello di alu? E forse perchè cayman sarà molto più grosso (brutto e cattivo, visto che doveva nascere a 32 nm) di barts, per cui è opportuno lanciare prima la fascia bassa? :D
Ciao Yoss, è sempre un piacere leggerti ;)
Troppo curioso di vedere questo chippone AMD grosso brutto e cattivo :D
fbrbartoli
02-11-2010, 17:49
http://www.hardware.fr/articles/804-23/dossier-amd-radeon-hd-6870-6850.html
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_performancerating_ohne_aaaf
Lasciatelo dire ma non sembrano recensioni fatte bene (dove stanno le risoluzioni inferiori al 1080p?)... Reputo i tecnici di hwupgrade molto professionali e competenti in merito e ho ritenuto il loro approccio nello stilare le classifiche delle gpu molto valido. Poi ci sono tanti siti che spacciano boiate tipo fare dei confronti usando 3dmark... ma ovviamente non voglio crearvi dello scompiglio e non sono di certo qui a cercare di far cambiare idea a voi tre che postate con tanto patos però vorrei mettere in guardia chi poco informato vi legge e si fa una certa idea... tutto qui... fatto sta che nessuno ha osato commentare negativamente la frase che il miglior bestbuy del momento sono gtx 470 e 460, detto questo smetto di sporcare il thread!
Zappa1981
02-11-2010, 18:02
Secondo me AMD semplicemente fa uscire le sue tecnologie indubbiamente perchè nvidia stà riprendendo piete e quindi molto probabilmente nn vuole lasciarle molto spazio... Ricordo all inizio di quest anno di aver visto le roadmap di amd proprio come le ho viste nei link che avete messo sopra quindi sarebbero uscite in ogni caso a fine anno... avranno anticipato si e no di una settimana ma la roadmap è stata rispettata completamente...
longhorn7680
02-11-2010, 19:16
Lasciatelo dire ma non sembrano recensioni fatte bene (dove stanno le risoluzioni inferiori al 1080p?)... Reputo i tecnici di hwupgrade molto professionali e competenti in merito e ho ritenuto il loro approccio nello stilare le classifiche delle gpu molto valido. Poi ci sono tanti siti che spacciano boiate tipo fare dei confronti usando 3dmark... ma ovviamente non voglio crearvi dello scompiglio e non sono di certo qui a cercare di far cambiare idea a voi tre che postate con tanto patos però vorrei mettere in guardia chi poco informato vi legge e si fa una certa idea... tutto qui... fatto sta che nessuno ha osato commentare negativamente la frase che il miglior bestbuy del momento sono gtx 470 e 460, detto questo smetto di sporcare il thread!
Ad oggi 02 novembre 2010 la 460 e preferibile alla 6850 in attesa dell'assestamento dei prezzi (ma fai finta di non sapere che fino all'uscita della 5850 la 460 costava quello che oggi costa una 6870 o una 470 LOOOOL) Mentre avendole testate entrambe sia la 470 che la 6870 consiglio vivamente la 6870 e ammetto di aver comprato male visto che nel case ho una 470 nuova di zecca!
Appena i prezzi delle 68XX si assesteranno le 460 e 470 smetteranno di essere il bestbuy e prevedo che questo accadra proprio in coincidenza del periodo natalizio.
Ad oggi 02 novembre 2010 la 460 e preferibile alla 6850 in attesa dell'assestamento dei prezzi (ma fai finta di non sapere che fino all'uscita della 5850 la 460 costava quello che oggi costa una 6870 o una 470 LOOOOL) Mentre avendole testate entrambe sia la 470 che la 6870 consiglio vivamente la 6870 e ammetto di aver comprato male visto che nel case ho una 470 nuova di zecca!
Appena i prezzi delle 68XX si assesteranno le 460 e 470 smetteranno di essere il bestbuy e prevedo che questo accadra proprio in coincidenza del periodo natalizio.
Io non sono daccordo, secondo me la 6850 è da preferire infatti ho preso quella ;)
yossarian
02-11-2010, 20:03
Guarda, io non mi addentro nei conti specifici per "singola unità" venduta. I numeri sono quelli. Non li ho inventati io. E' anche possibile vendere 3 miliardi di GPU con un passivo di 1 dollaro. Se i guadagni complessivi per le unità vendute non coprono i costi associati a svilupparle e realizzarle (operating income = ricavi - costi di produzione) non è colpa mia.
sbagliato o, per meglio dire, incompleto: OPERATING INCOME (http://www.investopedia.com/terms/o/operatingincome.asp) = GUADAGNI AL NETTO DELLE IMPOSTE E DI EVENTUALI INTERESSI (E NON DI ALTRE SPESE O PASSIVITà). Mi spiace per te; ritenta, sarai più fortunato :D Inoltre, il termine guadagno rappresenta già un ricavo al netto delle spese (parliamo delle basi dell'economia)
The amount of profit realized from a business's operations after taking out operating expenses - such as cost of goods sold (COGS) or wages - and depreciation. Operating income takes the gross income (revenue minus COGS) and subtracts other operating expenses and then removes depreciation. These operating expenses are costs which are incurred from operating activities and include things such as office supplies and heat and power. Operating Income is typically a synonym for earnings before interest and taxes (EBIT) and is also commonly referred to as "operating profit" or "recurring profit".
Finora, mi pare, che tu hai sostenuto l'esatto contrario di quello che hai appena scritto, ovvero che l'operating income era il guadagno al lordo delle passività (invece è il guadagno al netto delle passività, ovvero con le passività già scomputate).
Partiamo dalla questione bilanci:
Le spese extra sono elencate nel bilancio generale, non in quello specifico per singola sezione. L'operating income indica le entrate a netto di tutti gli oneri finanziari e investimenti effettuati. 1 milione di dollari. Nella fase migliore di vendite è stato di ben 33 milioni di dollari.
I numeri riferiti da AMD stessa sono quelli. Chi stia vendendo sotto costo, rispetti ai propri costi, non lo so. Ma i numeri danno una indicazione.
infatti i numeri danno delle indicazioni che tu non sai leggere (o fai finta di non saper leggere)
Quantomeno nvidia ha la scusante di avere un venduto molto minore che giustifica il fatto che i propri (enormi) costi di sviluppo (che includono anche la parte SW professionale che AMD non ha), non vengono coperti da quelle cifre.
scusante valida solo agli occhi dei fanboy verdi
Per le differenze tra le architetture basta vedere un qualsiasi "schemino" che riporti come i "mattoncini" interni ai chip siano diversi l'uno dall'altro. Se 512 non è divisibile per 48 probabilmente hanno montato i "mattoncini" in maniera diversa. Magari questa volta con cluster da 32 per avere più tesselator units? O magari x 64 per averne di meno e risparmiare qualche migliaio di transistor?
Sicuramente tu sei più esperto in questo, ma fino a dati ufficiali da parte di nvidia nessuno sa cosa c'è in quel chippone, a parte il fatto che sembra lo abbiano castrato come il GF104 per quanto riguarda il GPGPU.
quindi, di sicuro, non è un gf104 con gli steroidi (come hai affermato in precedenza) :D
La modifica alle ALU del Cayman dovrebbe far parte della nuova architettura AMD se non erro. Credo che pure Fermi sia più grosso e cattivo di quello che sarebbe dovuto essere, dato che quando è cominciato lo sviluppo erano previsti i 28 nm per il periodo di uscita dello stesso.
altra fola sul ritardo di fermi: adesso la colpa è di tsmc perchè non erano pronti i 28 nm? In nessuna roadmap erano previsti i 28 nm per la fine del 2009.
Perchè continui a spacciare le tue credenze per verità?
nvidia ci ha messo 4 mesi a fare una versione adatta al processo produttivo adeguato. Forse di più se furbamente si sono accorti che i 40nm non erano il PP giusto a fine 2009. Ma il gap tra l'uscita della versione poco efficiente e quella "giusta" è di 4 mesi. E se il GF110 esce prima della fine dell'anno ci hanno messo 9 mesi a fare una versione full di quello che sarebbe dovuto essere la versione di Marzo.
nVidia ha perso oltre 4 mesi per problemi suoi; ripeto, nessuna roadmap prevedeva i 28 nm per la fine del 2009 mentre fermi sarebbe dovuto uscire per quel periodo. (lo sai che anche le fonderie hanno le loro roadmap?)
I tempi per fare una versione "tagliata" secondo le evoluzioni del mercato ci sono eccome. Ecco perché credo che ci sia margine sufficiente per entrambe le aziende di rilasciare quello che meglio credono.
Mi spieghi a cosa serve la "nuova fascia bassa" di AMD quando ha già il monopolio delle vendite (secondo i tuoi numeri)? Juniper vende come il pane e le 58xx costano meno e vanno quasi uguale alla fascia alta di nvidia. Perchè sacrificare la propria fascia alta per coprire un buco coperto da una scheda che non vende nulla (sempre secondo i tuoi numeri)?
mai sentito parlare di affinamento di un pp? Hai una vaga idea di quali siano gli step che portano alla transizione tra un'architettura e la successiva? O pensi che si investano miliardi e anni di tempo per farsi i dispettucci sul mercato? E, ripeto ancora una volta: AMD non ha sacrificato un bel nulla: 5870 e 5850 stanno per andare EOL perchè saranno sostituite a breve.
p.s. i numeri non sono i miei ma di mercury research (che ti piaccia o no).
D'altronde oggi nessuno munito di buon senso comprerebbe mai una 5850 quando la 6870 va anche di più e cosa molto meno (e consuma di meno). E la 5870 non va tanto di più e costa davvero uno sproposito per le prestazioni che ha rispetto alla 6870.
Forse, sempre visti i numeri di bilancio, i ricavi della soluzione Cypress non è così vantaggiosa?
sicuramente più vantaggiosa di gf100 e forse, anche di gf104
Perchè fare la fascia "bassa" usando l'architettura vecchia (con le vecchie ALU) invece che, proprio come hai detto tu, non farla con l'architettura nuova e testarla con chip meno complessi?
la logica di funzionamento, in caso di 4-way vliw, è esattamente la stessa di alu 5-way vliw; cambia solo il livello di ILP; il che significa, da un lato, meno istruzioni per clock quando si riesce a foraggiare l'intera alu, dall'altro meno probabilità di avere delle NOP.
Non so, io faccio ipotesi secondo i dati che ho in mano. Non ho la verità assoluta. Ma finora non ho una minima indicazione che quello che ho detto sia sbagliato. Cioè che AMD è corsa ai ripari con una revisione minore della propria architettura (come ha fatto nvidia) mentre la nuova architettura non è ancora pronta per quella fascia, perché pensata da tempo per uscire a inizio anno nuovo nel formato più "grosso".
non hai neppure le prove che quello che affermi è corretto, però lo spacci per vangelo (e non solo tu) mentre i freddi dati numerici dicono altro, ovvero che dall'uscita di gf100 nVidia ha venduto tanti chip dx11 quanti ne vende, mediamente, AMD in un mese (considerati i problemi iniziali di rese da parte di tsmc). E dicono anche che, nel segmento gpu discrete da desktop, AMD ha incrementato le sue vendite dell'11,2% nel passaggio dal 2° (senza 460) al 3° (con 460) trimestre 2010. E parliamo di due periodi in cui le nuove 68x0 neppure erano presenti. Continuo a non vedere gli estremi della "strage" di cui cui sproloquiate
Dammele tu le roadmap di AMD, magari fatte nel 2009, per vedere quando erano previste le uscite della nuova architettura
a marzo 2010 già si sapeva che sarebbe uscita una revisione di rv870 entro l'anno, sempre a 40 nm. A marzo 2010 non esisteva né gf100 e neppure (e tanto meno) gf104.
e magari in cosa esattamente consistevano.
revisioni di rv870, per l'appunto, come è ovvio che avvenga quando si deve affinare un'architettura in relazione ad un dato pp e preparare la transizione verso la nuova architettura ed il nuovo pp. Solo chi è ignorante in materia non sa come funzionano queste cose.
Perché se il link che ti ho mandato non riporta i periodi ufficiali di AMD, a Giugno il tizio che ha fatto i grafici non conosceva nemmeno lui le date. E cosa fosse Barts esattamente nessuno lo sa, ma forse tu hai informazioni più precise in merito.
forse si :D
Per i dati che ho io, non ho alcun segno che le due compagnie si stanno rincorrendo " a vista" in attesa da parte di AMD di rilasciare la nuova architettura.
non ho capito come, questo periodo, si concilia con il discorso che hai fatto finora. Hai sostenuto che, in pratica, nVidia e AMD si sono marcate a vista facendo uscire dei chip (in fretta e furia, modificati in funzione di quello che faceva la concorrenza) e adesso affermi tutto il contrario? :mbe:
Comunque, per la cronaca, tra le conclusioni della review di guru3d c'è anche questo
For 249 USD / 209 EUR the R6870 is positioned against the GeForce GTX 460 with 1024MB graphics memory, now the R6870 is faster, however NVIDIA will pull their trump card, the GeForce GTX 470 and lower its price on that product, significantly I must add.
As of today you can spot these price-cuts, NVIDIA confirmed that the GeForce GTX 460 1024MB will now cost US $199 / 169 EUR including VAT and the GeForce GTX 470 is to cost US $259 = 219 EUR including VAT, pricing it very close to the Radeon HD 6870, and these two cards are close to each other performance wise alright. So yeah, that will be your baseline and benchmark to judge from right there and here on.
che dimostra che il mercato fa i prezzi ma non le roadmap e che se c'è qualcuno che, in questo momento, sta inseguendo non è certo AMD
Lasciatelo dire ma non sembrano recensioni fatte bene (dove stanno le risoluzioni inferiori al 1080p?)... Reputo i tecnici di hwupgrade molto professionali e competenti in merito e ho ritenuto il loro approccio nello stilare le classifiche delle gpu molto valido. Poi ci sono tanti siti che spacciano boiate tipo fare dei confronti usando 3dmark... ma ovviamente non voglio crearvi dello scompiglio e non sono di certo qui a cercare di far cambiare idea a voi tre che postate con tanto patos però vorrei mettere in guardia chi poco informato vi legge e si fa una certa idea... tutto qui... fatto sta che nessuno ha osato commentare negativamente la frase che il miglior bestbuy del momento sono gtx 470 e 460, detto questo smetto di sporcare il thread!
lasciatelo dire: sono le uniche recensioni che valga la pena di leggere se parliamo di test in game. I siti che spacciano boiate a cui ti riferisci non so quali siano. Per tua informazione, hardware.fr è uno dei siti di riferimento a livello internazionale per le review e le analisi architetturali mentre computerbase guru3d (http://www.guru3d.com/article/radeon-hd-6850-6870-review/1) sono tra quelli più completi a livello di test in game.
Poi, è ovvio che ognuno fa riferimento a ciò che più gli fa comodo. In quanto al fare disinformazione, non credo di avere qualcosa da insegnarti :p
The amount of profit realized from a business's operations after taking out operating expenses - such as cost of goods sold (COGS) or wages - and depreciation. Operating income takes the gross income (revenue minus COGS) and subtracts other operating expenses and then removes depreciation. These operating expenses are costs which are incurred from operating activities and include things such as office supplies and heat and power. Operating Income is typically a synonym for earnings before interest and taxes (EBIT) and is also commonly referred to as "operating profit" or "recurring profit".
Scusa, ma quello che è scritto qui è esattamente quello che ho detto io. L'operating income è un indice che mostra come va la redditività di una azienda considerando solo ed esclusivamente la questione di produzione: quello che è il ricavo (fatturato) totale - quello che è costato fare i prodotti venduti. Tutto il resto non è considerato (before interests and taxes).
L'indice dice che se hai messo in cassa (solo per le vendite) 100 e hai venduto 10 prodotti che ti costano (il costo include tutti i costi diretti relativi alla produzione, quali materiali, energia, stipendi, ricerca MA NON GLI INTERESSI ATTIVI O PASSIVI CHE SIANO) 9 ciascuno, alla fine hai 100 - (10*9) = 10. Ovvero l'indice dice che sei stato in grado, grazie alla tua capacità di fare il prodotto, di incamerare 10. Poi a tutto questo devi togliere e mettere tutto il resto, investimenti, oneri passivi o attivi, spese straordinarie etc... Ma DOPO. Infatti se guardi l'operating income dell'intera AMD vedi che è in attivo di qualche centinaio di milioni di euro ma alla fine il bilancio è negativo per via delle spese extra, tra interessi passivi e i costi legati al GF, che sono costi non legati alla produzione.
Io non sono economista, ma queste sono le basi di economia che ho studiato, e quello che hai riportato tu è esattamente quello che io ho sempre affermato.
Alla fine, con 25 milioni di schede vendute (solo DX11, quindi suppongo ce ne siano molte di più anche DX10) il guadagno operativo è stato qualcosa come 35 milioni di euro in 9 mesi. Questi sono i dati UFFICIALI. Non li ho inventati io, sono quelli dato da AMD stessa. L'operating income è positivo, ma è una inezia pazzesca rispetto a quello che l'azienda ha bisogno. E stiamo parlando del loro periodo migliore di vendite.
Dovresti comunque rivedere un po' la tua capacità di leggere le cifre. Dici che AMD ha incrementato le vendite dell'11% rispetto al trimestre precedente. Giustissimo. Però non hai visto che il mercato è cresciuto del 20% e nello stesso periodo nvidia è cresciuta del 28%, 2,5 volte di più. E in quel trimestre l'unica scheda che ha potuto fare la differenza è stata la GTX460. Se non è strage quella, è comunque una chiara indicazione che la concorrenza ha trovato un filone d'oro lasciato da AMD.
revisioni di rv870, per l'appunto, come è ovvio che avvenga quando si deve affinare un'architettura in relazione ad un dato pp e preparare la transizione verso la nuova architettura ed il nuovo pp. Solo chi è ignorante in materia non sa come funzionano queste cose.
Vero, ma la revisione di questo PP è quello che avverrà con Cayman. Il balletto di nomenclatura tra SI e NI è andato avanti per mesi, dato che nessuno sapeva quali cambiamenti avessero Barts o Cayman. La cosa si è risolta solo con l'uscita di Barts.
Ancora io non vedo alcun link ufficiale che mi dica che le date di uscita delle revisioni erano previste per la fine di ottobre. Io ho sempre visto quelle che indicavano l'inizio del 2011.
Ancora non ho chiaro perchè fare una revisione di una architettura che va a "morire" quando il mese successivo esce quella nuova nuova che in teoria dovrebbe avere molti più vantaggi. A meno che tu non voglia far intendere che con i 28nm AMD continuerà a produrre chip Barts invece che quelli con la nuova architettura che costituirà il Cayman. O, come sospetto io, che la versione basata sulla nuova architettura per la fascia media è, come è sempre stato per AMD, prevista dopo Cayman. Ovvero troppo in ritardo rispetto a quello che il mercato oggi richiede.
non ho capito come, questo periodo, si concilia con il discorso che hai fatto finora. Hai sostenuto che, in pratica, nVidia e AMD si sono marcate a vista facendo uscire dei chip (in fretta e furia, modificati in funzione di quello che faceva la concorrenza) e adesso affermi tutto il contrario?
Scusa, ma da dove hai estrapolato questa conclusione?
Per me le due aziende si sono marcate a vista perchè nvidia ha fatto una revisione ad hoc per andare là dove AMD ha lasciato il buco e AMD è corsa ai ripari con una revisione "veloce" della propria architettura attuale senza aspettare di avere a disposizione quella nuova. E guarda caso ha posizionato un chip dal taglio perfetto per contrastare l'unica e sola scheda di nvidia che gli ha dato problemi. Perchè non ha "rifatto" un chip della potenza del Cypress? Avrebbe sostituito le 5870/50 con schede più potenti che gli sarebbero costate meno (evitando anche il "casino" della nuova nomenclatura). La questione dei tempi di sviluppo è, come dimostrato, possibile, dato che queste revisioni minori dell'architettura possono uscire in pochi mesi.
La guerra dei prezzi è ininfluente, dato che l'assestamento dei prezzi è sempre in atto. E' ovvio, che dopo l'uscita di queste nuove schede nvidia punterà a rifare un chip per la 470 che gli costi meno in modo che da quei 220 dollari di listino ricavi di più di quello che fa oggi. E via... normale concorrenza a breve termine mentre nessuna delle due case si dimentica di sviluppare nuove architetture nel lungo periodo.
Per la questione 28nm, forse ti sei perso qualche vecchia dichiarazione: http://www.fabtech.org/news/_a/tsmc_squeezes_28nm_node_into_roadmap_for_2010/
"TSMC said that several customers were already working on designs with TSMC for the 28nm node, while initial production is expected in the first quarter of 2010."
E' del 2008, cioè di un anno dopo l'inizio dei lavori su Fermi. Diciamocela tutta, credere che gli ingegneri di nvidia avessero pensato di infilare 3 miliardi di transistor in un mattonella di 550m2 ed essere competitivi è un'offesa al buon senso. Purtroppo però i problemi di TMSC sono anche loro problemi e quindi si sono trovati fregati. AMD ci ha messo 9 mesi a fare RV870, e quindi già sapeva a cosa andava in contro (e comunque anche per loro ci sono stati problemi non indifferenti, figurati per chi ha pensato di creare un chip per un PP diverso).
Se poi vuoi continuare con la questione magari è meglio che posti qualche link con dei fatti, perchè per ora io da parte tua non ho visto nulla ma solo una presa di posizione che fa riferimento solo al fatto "che tu sai perchè in posizione privilegiata e noi mortali invece no". Ma anche quello che dici diventa ampiamente opinabile con un paio di link.
nVidia ha perso oltre 4 mesi per problemi suoi; ripeto, nessuna roadmap prevedeva i 28 nm per la fine del 2009 mentre fermi sarebbe dovuto uscire per quel periodo. (lo sai che anche le fonderie hanno le loro roadmap?)
Sì, le roadmap io le ho viste a suo tempo, e ora mi ricordo anche dove:
http://www.tsmc.com/download/english/a05_literature/00_28_Nanometer_Process_Technology.pdf
@Someone
Secondo me c'è un punto che più di altri non torna nel tuo ragionamento: il fatto che tu creda che Cypress non potesse competere con GF104.
Cypress è stato sviluppato secondo roadmap ed è evoluzione di un'architettura già sul campo da tempo, quindi non vedo motivo per cui avrebbe dovuto avere costi di sviluppo particolarmente elevati.
Mentre proprio l'architettura fermi ha avuto diversi problemi di realizzazione, ritardi e un tempo di incubazione elevato (dichiarato dallo stesso huang) proprio per gli scopi ambiziosi e la complessità del progetto.
Rimangono quindi dimensione del die, che vede in vantaggio cypress (seppure la differenza non sia elevatissima) e la resa produttiva, presumibilmente migliore per cypress nel momento in cui è uscito GF104 (hanno avuto mesi per aggiustare la produzione, inoltre l'esperienza con la 4770 ha fatto in modo che il chip raggiungesse rese di produzione decenti già da subito, grazie alle numerose ridondanze all'interno del chip).
Quindi tutta questa difficoltà di AMD a competere con GF104 proprio non si riesce ad immaginarla, tenendo pure conto che una 5850 consuma meno e va di più di una gtx460.
Se gtx460 fosse stata davvero così preoccupante, AMD avrebbe potuto semplicemente abbassare il prezzo di Cypress, ma evidentemente non aveva bisogno di farlo, così ha semplicemente atteso l'uscita di Barts, in grado anch'esso di competere (anche meglio) con GF104 ma con costi di produzione minori per AMD.
Barts nasce semplicemente perchè in roadmap: ATI già da tempo aveva promesso una nuova evoluzione dell'architettura ogni anno, e così sta facendo.
Nonostante i problemi di TSMC, anche stavolta ha rispettato la roadmap e non vedo cosa ci sia di strano in questo.
Gli aggiustamenti dell'ultimo momento sono quelli relativi a tensioni e frequenze (e al più al taglio laser di alcune parti), studiati appunto per competere meglio con l'avversario e stabilire le rese produttive volute, ma non a cambi completi di architetture che richiedono molte tempo per essere progettate e poi messe in campo.
Sinceramente non vedo cosa ci sia di male ad ammettere che AMD ha ora chip più competitivi sul mercato consumer, sembra quasi che i simpatizzanti nvidia, se non possono dire che nvidia ha fatto il botto per qualcosa, non siano contenti.
Come tutti sappiamo ci sarà sempre un'alternanza in queste cose, nel recente passato nvidia ha primeggiato, oggi primeggia ati da quel punto di vista. Domani le cose cambieranno ancora, che sia con queste due aziende o con altre.
Sinceramente non vedo cosa ci sia di male ad ammettere che AMD ha ora chip più competitivi sul mercato consumer, sembra quasi che i simpatizzanti nvidia, se non possono dire che nvidia ha fatto il botto per qualcosa, non siano contenti.
Secondo gli studi rilevati, l'incremento di vendite di nvidia nel periodo luglio-settembre, quello dell'uscita della 460 sono 2,5 volte maggiori rispetto a quelle di AMD che ha avuto una crescita della metà del mercato. Il botto c'è stato. Poi se uno non vuole vederlo o considerarlo ininfluente è un altro paio di maniche.
yossarian
03-11-2010, 12:42
Scusa, ma quello che è scritto qui è esattamente quello che ho detto io. L'operating income è un indice che mostra come va la redditività di una azienda considerando solo ed esclusivamente la questione di produzione: quello che è il ricavo (fatturato) totale - quello che è costato fare i prodotti venduti. Tutto il resto non è considerato (before interests and taxes).
L'indice dice che se hai messo in cassa (solo per le vendite) 100 e hai venduto 10 prodotti che ti costano (il costo include tutti i costi diretti relativi alla produzione, quali materiali, energia, stipendi, ricerca MA NON GLI INTERESSI ATTIVI O PASSIVI CHE SIANO) 9 ciascuno, alla fine hai 100 - (10*9) = 10. Ovvero l'indice dice che sei stato in grado, grazie alla tua capacità di fare il prodotto, di incamerare 10.
l'operating income esclude solo interessi e tasse e non altre voci
Poi a tutto questo devi togliere e mettere tutto il resto, investimenti, oneri passivi o attivi, spese straordinarie etc...
quante di queste voci rientrano in TASSE E INTERESSI?
Ma DOPO. Infatti se guardi l'operating income dell'intera AMD vedi che è in attivo di qualche centinaio di milioni di euro ma alla fine il bilancio è negativo per via delle spese extra, tra interessi passivi e i costi legati al GF, che sono costi non legati alla produzione.
il bilancio di AMD è in passivo per via degli interessi sul debito contratto per l'acquisizione di ATi. Qualunque costo, ordinario o straordinario fa parte nell'operating income se non rientra nelle voci TASSE o INTERESSI.
Io non sono economista, ma queste sono le basi di economia che ho studiato, e quello che hai riportato tu è esattamente quello che io ho sempre affermato.
Alla fine, con 25 milioni di schede vendute (solo DX11, quindi suppongo ce ne siano molte di più anche DX10) il guadagno operativo è stato qualcosa come 35 milioni di euro in 9 mesi. Questi sono i dati UFFICIALI. Non li ho inventati io, sono quelli dato da AMD stessa. L'operating income è positivo, ma è una inezia pazzesca rispetto a quello che l'azienda ha bisogno. E stiamo parlando del loro periodo migliore di vendite.
Continui a parlare di periodo migliore di vendite. Forse non ti è chiaro che, ormai, la situazione è questa e non ti capiterà più di vedere nVidia quasi monopolista del mercato. In quanto alla remissione del debito, quello che resta fuori dall'operating income è solo la parte relativa AGLI INTERESSI che sono pagati a fronte delle obbligazioni emesse e non quello che AMD spende per riacquistare le obbligazioni stesse. Comunque, visto che la situazione di AMD sembra preoccuparti, ti informo che la scadenza per rimettere la prima parte del debito è il 2012 e sono rimasti circa 625 milioni di $ ancora da coprire. Per la seconda ed ultima, si parla del 2015, restano fuori ancora 1,79 miliardi che è poco più della liquidità complessiva di AMD che, finora, non è stata intaccata. In più, la cessione definitiva di GF potrebbe andare a coprire per intero il debito residuo.
Dovresti comunque rivedere un po' la tua capacità di leggere le cifre. Dici che AMD ha incrementato le vendite dell'11% rispetto al trimestre precedente. Giustissimo. Però non hai visto che il mercato è cresciuto del 20% e nello stesso periodo nvidia è cresciuta del 28%, 2,5 volte di più. E in quel trimestre l'unica scheda che ha potuto fare la differenza è stata la GTX460. Se non è strage quella, è comunque una chiara indicazione che la concorrenza ha trovato un filone d'oro lasciato da AMD.
Con la 460 presente sul mercato, AMD ha incrementato (non diminuito) le vendite nel settore gpu desktop discrete. Quindi, significa, che nel 3° trimestre, nonostante la presenza della 460, ha venduto di più proprio in quel mercato. In quanto ai numeri, nel 3° trimestre 2010, nVidia ha venduto poco meno di 11 milioni di chip grafici mentre il totale dei chip dx11 venduti, da aprile ad oggi, ammonta a 2,8 milioni scarsi (settore pro compreso).
La strage esiste solo nei sogni bagnati di qualche fanboy
Vero, ma la revisione di questo PP è quello che avverrà con Cayman. Il balletto di nomenclatura tra SI e NI è andato avanti per mesi, dato che nessuno sapeva quali cambiamenti avessero Barts o Cayman. La cosa si è risolta solo con l'uscita di Barts.
la revisione del pp è già avvenuta una prima volta con la seconda serie delle 5xx0, adesso con le nuove 6xx0. Con cayman può verificarsi, semmai, qualche aggiustamento architetturale. Il balletto delle nomenclature è un conto, la certezza che sarebbero usciti nuovi chip dx11 entro la fine di quest'anno un altro
Ancora io non vedo alcun link ufficiale che mi dica che le date di uscita delle revisioni erano previste per la fine di ottobre. Io ho sempre visto quelle che indicavano l'inizio del 2011.
questi (http://www.nordichardware.com/news/71-graphics/41433-amd-radeon-hd-6000-roadmap-leaked.html) sono ufficiali; dal link che ho postato prima era evidente che da marzo si sapeva dell'uscita di una nuova famiglia di chip entro la fine del 2010. Quelle che hai postato tu erano solo speculazioni dell'autore dell'articolo.
Ancora non ho chiaro perchè fare una revisione di una architettura che va a "morire" quando il mese successivo esce quella nuova nuova che in teoria dovrebbe avere molti più vantaggi. A meno che tu non voglia far intendere che con i 28nm AMD continuerà a produrre chip Barts invece che quelli con la nuova architettura che costituirà il Cayman.
Per lo stesso motivo per cui si effettua la transizione ad un nuovo pp con una vecchia architettura. L'iter da seguire è standard: nuova architettura -> affinamento architettura -> nuovo pp -> affinamento pp -> nuova architettura.
Quindi è normale che amd abbia fatto quello che ha fatto. Questo significa che si sta preparando in anticipo per la transizione verso i 28 nm
O, come sospetto io, che la versione basata sulla nuova architettura per la fascia media è, come è sempre stato per AMD, prevista dopo Cayman. Ovvero troppo in ritardo rispetto a quello che il mercato oggi richiede.
veramente sono almeno quattro anni che amd è in vantaggio come pp e dalla serie 4xx0 anche nelle uscite delle nuove lineup. Al contrario, chi mi pare in ritardo, è proprio nVidia. Ripeto la domanda: dove sono le fasce media e bassa di gt200, gt200b, gf100? E la fascia alta e quella bassa basate su gf104?
AMD, oggi, riesce a coprire quello che il mercato chiede (e infatti vende, checchè tu ne dica).
Scusa, ma da dove hai estrapolato questa conclusione?
Per me le due aziende si sono marcate a vista perchè nvidia ha fatto una revisione ad hoc per andare là dove AMD ha lasciato il buco e AMD è corsa ai ripari con una revisione "veloce" della propria architettura attuale senza aspettare di avere a disposizione quella nuova. E guarda caso ha posizionato un chip dal taglio perfetto per contrastare l'unica e sola scheda di nvidia che gli ha dato problemi.
da qui
Per i dati che ho io, non ho alcun segno che le due compagnie si stanno rincorrendo " a vista" in attesa da parte di AMD di rilasciare la nuova architettura.
sono parole tue, a conclusione del post n°118 :D
Perchè non ha "rifatto" un chip della potenza del Cypress? Avrebbe sostituito le 5870/50 con schede più potenti che gli sarebbero costate meno (evitando anche il "casino" della nuova nomenclatura). La questione dei tempi di sviluppo è, come dimostrato, possibile, dato che queste revisioni minori dell'architettura possono uscire in pochi mesi.
la 6870 va poco meno di una 5870 e, all'incirca, quanto una 470.
http://www.hardware.fr/articles/804-23/dossier-amd-radeon-hd-6870-6850.html
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_performancerating_ohne_aaaf
La guerra dei prezzi è ininfluente, dato che l'assestamento dei prezzi è sempre in atto. E' ovvio, che dopo l'uscita di queste nuove schede nvidia punterà a rifare un chip per la 470 che gli costi meno in modo che da quei 220 dollari di listino ricavi di più di quello che fa oggi. E via... normale concorrenza a breve termine mentre nessuna delle due case si dimentica di sviluppare nuove architetture nel lungo periodo.
:rotfl: :rotfl: :rotfl: la guerra dei prezzi è ininfluente. Spero sia una battuta. Secondo te la guerra si fa facendo uscire un chip in fretta e furia e non abbassando i prezzi? Un conto è l'assestamento, un altro il crollo. Vatti a vedere quanto costava una 470 all'uscita e quanto costa ora :ciapet:
Per la questione 28nm, forse ti sei perso qualche vecchia dichiarazione: http://www.fabtech.org/news/_a/tsmc_squeezes_28nm_node_into_roadmap_for_2010/
"TSMC said that several customers were already working on designs with TSMC for the 28nm node, while initial production is expected in the first quarter of 2010."
E' del 2008, cioè di un anno dopo l'inizio dei lavori su Fermi. Diciamocela tutta, credere che gli ingegneri di nvidia avessero pensato di infilare 3 miliardi di transistor in un mattonella di 550m2 ed essere competitivi è un'offesa al buon senso. Purtroppo però i problemi di TMSC sono anche loro problemi e quindi si sono trovati fregati. AMD ci ha messo 9 mesi a fare RV870, e quindi già sapeva a cosa andava in contro (e comunque anche per loro ci sono stati problemi non indifferenti, figurati per chi ha pensato di creare un chip per un PP diverso).
Se poi vuoi continuare con la questione magari è meglio che posti qualche link con dei fatti, perchè per ora io da parte tua non ho visto nulla ma solo una presa di posizione che fa riferimento solo al fatto "che tu sai perchè in posizione privilegiata e noi mortali invece no". Ma anche quello che dici diventa ampiamente opinabile con un paio di link.
Sì, le roadmap io le ho viste a suo tempo, e ora mi ricordo anche dove:
http://www.tsmc.com/download/english/a05_literature/00_28_Nanometer_Process_Technology.pdf
in quanto a chiacchiera vedo che ne hai, coerenza molto meno.
Ricapitolando: nVidia inizia a progettare un chip per i 28 nm un anno prima che un dirigente di tsmc si pronunciasse sulle date del pp a 28 nm. Fermi sarebbe dovuto uscire nel q4 2009 (http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html), quindi, comunque, prima della data indicata dal suddetto esponente di tsmc (però doveva essere a 28 nm). Poi posti una roadmap che indica come periodo quello a cavallo tra il q3 ed il q4 2010. Ora, solo gli sprovveduti non sapevano che dopo i problemi con i 40 nm anche i 32 sarebbero stati annullati, mentre gli addetti ai lavori sapevano che ci sarebbero stati problemi già con i 40 nm, trattati da tsmc come half node (mentre, di fatto, erano full node).
Sul discorso mattonelle, occorre farti notare che gt200 non è più piccolo di fermi. Anche quello doveva essere a 28 nm?
Ti consiglio di provare a fare questi giochetti con qualcuno un po' più ignorante in materia. :rolleyes:
Voglio yossarian ad Annozero... secondo me gli fanno il contratto prima che a Travaglio :D E aggiungo che sarebbe un bel confronto.
X yossarian
Ciao Yoss,
hai forse un'idea di quanti SP possano avere Cayman Pro e XT ? :)
quante di queste voci rientrano in TASSE E INTERESSI?
Vengono tenuti in conto solo le spese legate direttamente alla produzione del bene venduto. Null'altro. Nessuna operazione finanziaria straordinaria, come pagare o comprare azioni/obbligazioni o quant'altro è considerata. Sono una voce a parte.
Con la 460 presente sul mercato, AMD ha incrementato (non diminuito) le vendite nel settore gpu desktop discrete. Quindi, significa, che nel 3° trimestre, nonostante la presenza della 460, ha venduto di più proprio in quel mercato. In quanto ai numeri, nel 3° trimestre 2010, nVidia ha venduto poco meno di 11 milioni di chip grafici mentre il totale dei chip dx11 venduti, da aprile ad oggi, ammonta a 2,8 milioni scarsi (settore pro compreso).
La strage esiste solo nei sogni bagnati di qualche fanboy
Ma fai finta di non capire? Se il mercato è cresciuto del 20% e tu cresci solo del 11%, sei sopra o sotto performante rispetto al mercato? E se si è in 2 a dividersi il mercato, con il concorrente che mette sul mercato 1 solo prodotto in quel periodo e cresce 2,5 volte più di te, secondo te qual è il motivo della crescita inferiore al mercato? Forse nvidia ha venduto più schede DX10 per qualche maneggio strano quando nei trimestri precedenti queste schede non interessavano a nessuno?
sono parole tue, a conclusione del post n°118
Ovviamente c'è un refuso in quella frase. Ho ribadito la cosa più volte, non mi sembra che ci fossero dubbi in quello che ho affermato.
Per lo stesso motivo per cui si effettua la transizione ad un nuovo pp con una vecchia architettura. L'iter da seguire è standard: nuova architettura -> affinamento architettura -> nuovo pp -> affinamento pp -> nuova architettura.
Quindi è normale che amd abbia fatto quello che ha fatto. Questo significa che si sta preparando in anticipo per la transizione verso i 28 nm
Quindi la "nuova architettura" da testare con i 28nm è la revisione di Barts? O è quella di Cayman?
No, perchè non vedo un nesso con quello che hai detto e il fatto che sia Barts che Cayman escono a 40nm e quindi la successione con cui escono è ininfluente per essere pronti con i 28nm per la fine dell'anno.
la 6870 va poco meno di una 5870 e, all'incirca, quanto una 470.
Quindi invece di abbassare i prezzi del Cypress e creare una scheda più veloce che si mangiasse la 470 hanno preferito lanciare una serie "ibrida" che si pone esattamente dove c'è la 460 e tagliarsi la propria fascia alta che poi sarà rimpiazzata da una nuova fascia dopo un mese?
Mi dici dove tutto questo è presente nella roadmap? No perchè il tuo link è del 14 di Ottobre, cioè dell'altro ieri. Io voglio vedere le roadmap fatte nel 2009, data di uscita della serie 5xxx dove si evidenzia ce la nuova architettura sarebbe stata pronta per Ottobre 2010.
Il link su Fermi è del 2 di Ottobre 2009, cioè nel periodo in cui nvidia si è accorta che la revisione A del chip a 40nm non funzionava a dovere. Nel 2007, anno di inizio del progetto, la prospettiva era di avere i 28nm per il periodo di uscita del chip. Ed era prima che TMSC avesse problemi con i 40nm.
E' facile dire le cose quando linki "previsioni" di 3 mesi. Un po' più difficile quando i tempi sono di 1 anno o 3 anni. I tuoi link non mostrano alcuna delle intenzioni che hai menzionato. Sono solo delle descrizioni delle prese di fatto di quello che ormai è destinato ad accadere nel brevissimo periodo.
Io ti ho dato un link dell'anno scorso di un sito che a parole tue si è inventato le presunte date. Ciò significa che o che non vi era alcuna previsione ufficiale di quando sarebbe stata rilasciata la nuova architettura oppure quelle sono le previsioni ufficiose da parte di AMD.
la guerra dei prezzi è ininfluente. Spero sia una battuta. Secondo te la guerra si fa facendo uscire un chip in fretta e furia e non abbassando i prezzi? Un conto è l'assestamento, un altro il crollo. Vatti a vedere quanto costava una 470 all'uscita e quanto costa ora
Certo che è così. Il prezzo lo ritocchi solo se non hai una soluzione pronta in breve tempo. nvidia non ha niente per ora per sostituire la 470 e ne abbassa il prezzo. AMD non ha voluto abbassare il prezzo della propria serie alta ed è intervenuta con Barts. Come detto, probabilmente gli è costato meno questo intervento che svalutare Cypress. Non è una cosa che discuto. Credo abbiano manager più capaci di me e di te di prendere decisioni che gli permettano di far rendere al meglio i propri investimenti. Quello che invece affermo è che queste scelte non sono frutto di uno studio effettuato 12 mesi fa, ma dell'impellenza della mossa di nvidia con la revisione del GF104, che diciamocelo sinceramente, nessuno pensava potesse performare in quella maniera dopo quello che era stato mostrato con il GF100. E il fatto che nvidia sembra pronta anche con un GF110 (quanto pronta a dire il vero non si sa, ma sono passati quasi 4 mesi dall'uscita del GF104 e non credo siano rimasti a guardare il muro nella sezione R&D in tutto questo tempo) ha necessariamente richiesto di sostituire Cypress al più presto dato che ora costa anche troppo per le performance che ha rispetto a Barts.
AMD ha avuto tutto il tempo per preparare la nuova architettura e la decisione di farla uscire prima non sarà certamente un problema. E' solo una questione di marketing. Quello che è stato modificato negli ultimi mesi, non quello preventivato 12 mesi fa (di cui neppure tu sembra trovare alcuna traccia).
Ti consiglio di provare a fare questi giochetti con qualcuno un po' più ignorante in materia
Ma quali giochetti. Io parlo di investimenti e decisioni da prendere anni prima, e tu mi posti due link di previsioni da 3 mesi. Suvvia, non prendiamoci in giro. Nel 2007 i 40nm non esistevano ancora, ma la storia passata definiva già delle date presunte perchè fossero disponibili sua i 40nm che i 28nm. Il G200 era stato fatto a 65nm (PP ben conosciuto da nvidia) per poi essere shrinkato a 40nm subito dopo. Invece si è dovuto passare prima per i 55nm (che probabilmente nvidia avrebbe saltato a piedi pari) dato che i 40 nm si sono visti con oltre un anno di ritardo rispetto al previsto (Ottobre 2008). Poi cosa c'entri il fatto che non sono state fatte schede di fascia bassa con il G200 non lo so. Il G92 per la fascia bassa andava più che bene, dato che le funzionalità aggiunte per il GPGPU in queste schede non erano certo la priorità. Forse non te ne sei accorto, ma il G92 è stato prodotto per 3 anni di fila e ha rivaleggiato con 2 architetture AMD senza alcun problema. Eppure anche se il G92/G200 non erano affatto piccoli, nvidia ci ha fatto un botto di soldi, mentre ATI con i loro chip più piccoli (e PP più avanzato) è stata continuamente in perdita.
Da qui si evince che le dimensioni del chip non sono l'unica cosa che fa il costo di un chip.
Il vantaggio di PP di AMD è finito con il ritardo dei 40nm e con quello dei 28nm. Ormai le 2 aziende vanno di pari passo, altro che 4 anni di vantaggio dell'una sull'altra.
yossarian
03-11-2010, 17:48
Vengono tenuti in conto solo le spese legate direttamente alla produzione del bene venduto. Null'altro. Nessuna operazione finanziaria straordinaria, come pagare o comprare azioni/obbligazioni o quant'altro è considerata. Sono una voce a parte.
ah si, e dove compaiono queste voci in bilancio? Me lo indichi? :D
La definizione è chiara e tu ti stai arrampicando sugli specchi
Ma fai finta di non capire? Se il mercato è cresciuto del 20% e tu cresci solo del 11%, sei sopra o sotto performante rispetto al mercato? E se si è in 2 a dividersi il mercato, con il concorrente che mette sul mercato 1 solo prodotto in quel periodo e cresce 2,5 volte più di te, secondo te qual è il motivo della crescita inferiore al mercato? Forse nvidia ha venduto più schede DX10 per qualche maneggio strano quando nei trimestri precedenti queste schede non interessavano a nessuno?
i numeri stanno li: 2,8 milioni scarsi di chip dx11, serie pro e 460 comprese, venduti da aprile ad oggi. Questo significa che, evidentemente, prima delle 460 nVidia non ha venduto un bel niente? E nel 3° trimestre, amd ha venduto solo fascia alta? Continuo a non vedere gli estremi di questa presunta "strage". Tu si? (mistero della fede). :sofico:
Quindi la "nuova architettura" da testare con i 28nm è la revisione di Barts? O è quella di Cayman?
No, perchè non vedo un nesso con quello che hai detto e il fatto che sia Barts che Cayman escono a 40nm e quindi la successione con cui escono è ininfluente per essere pronti con i 28nm per la fine dell'anno.
non vedi nesso perchè non sai di cosa parli. D'altra parte, da chi sostiene che fermi sarebbe dovuto uscire direttamente a 28 nm, non mi aspetto che capisca certe dinamiche. E neppure ho tempo e voglia di parlarne per l'ennesima volta.
Quindi invece di abbassare i prezzi del Cypress e creare una scheda più veloce che si mangiasse la 470 hanno preferito lanciare una serie "ibrida" che si pone esattamente dove c'è la 460 e tagliarsi la propria fascia alta che poi sarà rimpiazzata da una nuova fascia dopo un mese?
6870 = 470
6850 > 460
6870 costa meno della 5870 e 6850 costa meno della 5850
non vedo il problema per AMD; in compenso ne vedo per nVidia che si è affrettata a tagliare i prezzi delle 470 e 460 (guarda caso). Ah già, ma per te quello è un fisiologico assestamento :sofico: (mistero della fede)
Mi dici dove tutto questo è presente nella roadmap? No perchè il tuo link è del 14 di Ottobre, cioè dell'altro ieri. Io voglio vedere le roadmap fatte nel 2009, data di uscita della serie 5xxx dove si evidenzia ce la nuova architettura sarebbe stata pronta per Ottobre 2010.
le date delle slide sono di agosto (qualche giorno prima dell'altro ieri :D ). Se eri l'unico a non sapere che sarebbe uscita una nuova famiglia di chip entro la fine del 2010 non è un mio problema. E se sei l'unico che non è a conoscenza del fatto che amd ha da tempo programmato un nuovo chip o una revisione a cadenza annuale neppure.
Il link su Fermi è del 2 di Ottobre 2009, cioè nel periodo in cui nvidia si è accorta che la revisione A del chip a 40nm non funzionava a dovere. Nel 2007, anno di inizio del progetto, la prospettiva era di avere i 28nm per il periodo di uscita del chip. Ed era prima che TMSC avesse problemi con i 40nm.
nel 2007 non esisteva ancora una data o un periodo di lancio dei 28 nm per tsmc e, comunque, quel periodo non coincideva con la fine del 2009. TSMC. In quanto ai problemi con i 40 nm, sono stati ufficializzati almeno dall'inizio del 2009 (http://www.theinquirer.net/inquirer/news/1050878/tsmc-40nm-revealed). Per chi era del mestiere la cosa era evidente dalla roadmap che indicava, i 40 nm HP come = 45 nm GS
Ripeto, le tue stupidaggini valle ad imbastire a qualcun altro :rolleyes:
E' facile dire le cose quando linki "previsioni" di 3 mesi. Un po' più difficile quando i tempi sono di 1 anno o 3 anni. I tuoi link non mostrano alcuna delle intenzioni che hai menzionato. Sono solo delle descrizioni delle prese di fatto di quello che ormai è destinato ad accadere nel brevissimo periodo.
Io ti ho dato un link dell'anno scorso di un sito che a parole tue si è inventato le presunte date. Ciò significa che o che non vi era alcuna previsione ufficiale di quando sarebbe stata rilasciata la nuova architettura oppure quelle sono le previsioni ufficiose da parte di AMD.
i miei link servono a confutare i tuoi bla bla bla. Da un lato fatti, dall'altro chiacchiere :read:
Certo che è così. Il prezzo lo ritocchi solo se non hai una soluzione pronta in breve tempo. nvidia non ha niente per ora per sostituire la 470 e ne abbassa il prezzo.
ripeto l'invito a fare pace col cervello. Prima dici che la guerra dei prezzi è ininfluente e adesso te ne esci con: nVidia ha dovuto abbassare (far crollare) il prezzo perchè non ha niente di pronto? Per la cronaca, ha abbassato anche quello della 460, autrice della presunta "strage" :D
AMD non ha voluto abbassare il prezzo della propria serie alta ed è intervenuta con Barts. Come detto, probabilmente gli è costato meno questo intervento che svalutare Cypress.
ti risulta che amd abbia fatto crollare il prezzo della serie 5xx0? A me no, neppure quando, a tuo dire, impazzava la 460 e barts era di là da venire
Come detto, probabilmente gli è costato meno questo intervento che svalutare Cypress. Non è una cosa che discuto.
leggi sopra. Barts è uscita l'altro ieri
Credo abbiano manager più capaci di me e di te di prendere decisioni che gli permettano di far rendere al meglio i propri investimenti. Quello che invece affermo è che queste scelte non sono frutto di uno studio effettuato 12 mesi fa, ma dell'impellenza della mossa di nvidia con la revisione del GF104, che diciamocelo sinceramente, nessuno pensava potesse performare in quella maniera dopo quello che era stato mostrato con il GF100.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_performancerating_ohne_aaaf
poco più di una 465 con i filtri e poco meno senza
Forse la 460 avrà spiazzato te e qualcun altro
E il fatto che nvidia sembra pronta anche con un GF110 (quanto pronta a dire il vero non si sa, ma sono passati quasi 4 mesi dall'uscita del GF104 e non credo siano rimasti a guardare il muro nella sezione R&D in tutto questo tempo)
gf110 dovrebbe avere 512 alu; ripeto il concetto: 512 non è divisibile per 48. :rolleyes:
ha necessariamente richiesto di sostituire Cypress al più presto dato che ora costa anche troppo per le performance che ha rispetto a Barts.
cyoress costa meno di gf100 e, probabilmente, anche di gf104 e rispetto a quest'ultimo va decisamente di più.
AMD ha avuto tutto il tempo per preparare la nuova architettura e la decisione di farla uscire prima non sarà certamente un problema. E' solo una questione di marketing. Quello che è stato modificato negli ultimi mesi, non quello preventivato 12 mesi fa (di cui neppure tu sembra trovare alcuna traccia).
le slide ufficiali sono di agosto; ad agosto non esisteva alcun gf110 ma le slide parlano di cayman a novembre. Non uscirtene di nuovo con il gf104 perchè 512 non è divisibile per 48 e il gf104 era uscito sul mercato il giorno prima
Ma quali giochetti. Io parlo di investimenti e decisioni da prendere anni prima, e tu mi posti due link di previsioni da 3 mesi. Suvvia, non prendiamoci in giro.
tu parli di cose di cui non sai niente nel modo più assoluto, ma lo fai con la sicumera di chi sguazza nell'ambiente. Purtroppo con me non attacca.
Nel 2007 i 40nm non esistevano ancora, ma la storia passata definiva già delle date presunte perchè fossero disponibili sua i 40nm che i 28nm. Il G200 era stato fatto a 65nm (PP ben conosciuto da nvidia) per poi essere shrinkato a 40nm subito dopo. Invece si è dovuto passare prima per i 55nm (che probabilmente nvidia avrebbe saltato a piedi pari) dato che i 40 nm si sono visti con oltre un anno di ritardo rispetto al previsto (Ottobre 2008).
scusa, ma che film sarebbe questo? Oltre alle tue chiacchiere e alle affermazioni di qualcuno del forum bene informato sui fatti di nVidia che fa previsioni puntualmente smentite dai fatti, quali sarebbero le tue fonti?
p.s. die shrink da 65 a 40 nm? Cos'è, Zelig? :D
Poi cosa c'entri il fatto che non sono state fatte schede di fascia bassa con il G200 non lo so.
questo, unito al racconto fantasioso fatto qualche riga sopra,conferma che ho ragione nel dire che non sai di cosa parli. Non sai neppure come funziona la transizione da un pp all'altro e da un'architettura all'altra, però vieni qui con la presunzione di spiegare le cose a chi, invece, un po' più addentro a queste vicende, per lo meno, ci è stato
Il G92 per la fascia bassa andava più che bene, dato che le funzionalità aggiunte per il GPGPU in queste schede non erano certo la priorità.
buono per il brodo di sicuro :D . Inoltre, la produzione del g92, quella si, andava a togliere spazio ai derivati di gt200 e gt200b. Solo che nVidia non poteva fare a meno di insistere con l'architettura di g80 per almeno un paio di motivi che ti invito a scoprire :D
Forse non te ne sei accorto, ma il G92 è stato prodotto per 3 anni di fila e ha rivaleggiato con 2 architetture AMD senza alcun problema.
tranne quello trascurabile che era inferiore in tutto
Eppure anche se il G92/G200 non erano affatto piccoli, nvidia ci ha fatto un botto di soldi
si, compresi quelli persi per la mancata commercializzazione degli scarti :D
mentre ATI con i loro chip più piccoli (e PP più avanzato) è stata continuamente in perdita.
e qui si torna al discorso bilanci
Da qui si evince che le dimensioni del chip non sono l'unica cosa che fa il costo di un chip.
da qui si evince che, quando non si conosce un argomento, si fa più bella figura a tenere la bocca chiusa. nVidia ha realizzato e utili e si sta tenendo a galla solo con g80 e derivati di cui ha ammortizzato, da tempo, i costi di R&D e ridotto i costi di produzione grazie ai nuovi pp. Da gt200 in poi il bilancio è fallimentare
Il vantaggio di PP di AMD è finito con il ritardo dei 40nm e con quello dei 28nm.
nVidia è arrivata tardi ai 65, ai 55, ai 40. Ha dovuto riciclare la stessa architettura (quella di g80) per quasi 4 anni e ha dovuto mettere in bilancio la mancata commercializzazione dell'intera linea di "scarti" di 3 famiglie di chip
Ormai le 2 aziende vanno di pari passo, altro che 4 anni di vantaggio dell'una sull'altra.
a me sembra che nVidia continui a restare sulla difensiva.
yossarian
03-11-2010, 17:57
X yossarian
Ciao Yoss,
hai forse un'idea di quanti SP possano avere Cayman Pro e XT ? :)
ciao Maurizio; ho idea che pareggi il conto con la 580 :D
yossarian quindi, togliendo i costi di R&D, si può affermare che il costo del chip è in gran parte dato dalle dimensioni del die?
Per dire: GF104 (360 mm2) è più costoso di Cypress (330) escludendo quanto poi siano costati in progettazione? :)
E i 28nm su cosa li testerà AMD? Barts? Caicos?
Grazie, è sempre un piacere leggerti :D
yossarian
03-11-2010, 21:26
yossarian quindi, togliendo i costi di R&D, si può affermare che il costo del chip è in gran parte dato dalle dimensioni del die?
Per dire: GF104 (360 mm2) è più costoso di Cypress (330) escludendo quanto poi siano costati in progettazione? :)
in linea di massima, i costi sono determinati da R&D e fase di testing, costo del wafer di silicio, che dipende dal tipo di processo produttivo adottato (più è sofisticato, maggiori sono i costi) e dalle rese. Queste ultime sono influenzate da 2 fattori: dimensioni e complessità del chip. In riferimento alle dimensioni, è ovvio che chip più piccoli permettano di ricavare da una singola fetta più core. Questo significa maggiori probabilità di avere non solo più chip funzionanti ma anche più chip di fasci alta funzionanti (il processo di drogaggio non è uniforme e, solitamente, i chip al centro della fetta di silicio hanno più probabilità di avere tutte le unità perfettamente funzionanti).
Per quanto riguarda la qualità del pp, c'è da tener conto del numero di layer, della presenza e della tipologia di accorgimenti atti a ridurre fenomeni di leakage, correnti parassite indesiderate, ecc.
Riassumendo, si può dire che al diminuire delle dimensioni, da un lato aumentano i problemi e, solitamente, anche i costi di produzione, dall'altro aumentano le rese e quindi si riduce il costo di produzione del singolo chip. Il secondo aspetto diventa preponderante rispetto al primo, motivo per cui si dice che, scalando le dimensioni del chip calano i costi. Ovviamente, più si affina un determinato processo produttivo relativamente ad una data architettura, più aumentano le rese, più è vantaggioso lo scaling. Per questo motivo è necessario lavorare all'affinamento del processo produttivo una volta ottimizzata l'architettura di riferimento e, per lo stesso motivo è opportuno effettuare la transizione ad un nuovo pp con un'architettura già ottimizzata e, possibilmente, con un chip non troppo complesso (solitamente fascia bassa o, al massimo, media).
E i 28nm su cosa li testerà AMD? Barts? Caicos?
Grazie, è sempre un piacere leggerti :D
nel caso specifico, anche barts può andar bene. Da tener presente che il passaggio a 28 nm non è un semplice shrink ma un full node, ovvero un passaggio che obbliga a rivedere anche almeno parte delle librerie e, di conseguenza, operare una revisione dell'architettura del chip. Anche i 40 nm HP sarebbero dovuti essere un full node rispetto ai 55; l'errore è stato considerarli un half node, ovvero un semplice shrink ottico, rispetto ai 45 nm che tsmc aveva usato per altre tipologie di chip. I problemi sono nati tutti da li.
ah si, e dove compaiono queste voci in bilancio? Me lo indichi?
La definizione è chiara e tu ti stai arrampicando sugli specchi
Sono nella sezione apposita. Se guardi bene ci sono. Insieme alle spese sostenute per GF.
L'operating income valuta solo ed esclusivamente quali sono le capacità dell'azienda ad essere profittevole con i propri prodotti indipendentemente dallo stato finanziario e di altri fattori esterni (e temporanei) della società in quel momento. Altrimenti non avrebbe alcun senso.
i numeri stanno li: 2,8 milioni scarsi di chip dx11, serie pro e 460 comprese, venduti da aprile ad oggi. Questo significa che, evidentemente, prima delle 460 nVidia non ha venduto un bel niente?
I numeri sono lì. Aumento vendite AMD 11%. Aumento vendite nvidia 28%. Aumento globale del mercato 20%. Uno è underperforming, l'altra è overperforming. Indovina chi.
Dal bilancio AMD:
Operating income was $1 million, compared with $33 million in Q2-10 and $2 million in Q3-09.
Ha venduto di più e incassato meno? Complimenti.
ti risulta che amd abbia fatto crollare il prezzo della serie 5xx0? A me no, neppure quando, a tuo dire, impazzava la 460 e barts era di là da venire
Be', allora se non vuoi capire quello che dico inutile discutere. Rileggi magari un'altra volta.
i miei link servono a confutare i tuoi bla bla bla. Da un lato fatti, dall'altro chiacchiere
Credo che questo spieghi tutto. Come ingegnere che viviseziona architetture sei molto bravo. Come giornalista che dovrebbe fare informazione sei pessimo.
I tuoi link non dicono nulla. Sono proiezioni di cose ormai assestate che non fanno previsione. Guarda caso il link che ti dici essere di Agosto è comunque postumo all'uscita della 460. Non c'è nulla che indichi che Barts sarebbe dovuto uscire a Ottobre prima dell'uscita della 460. Punto. In queste condizioni le tue speculazioni valgono tanto quanto le mie. Non metterti su un piedistallo perchè non hai mostrato nulla che dia ragione al tuo ragionamento. Stessa cosa per Fermi. Mi posti un link di fine 2009 che dice che il chip sarebbe uscito per la fine dell'anno. Molto interessante per un prodotto che era in sviluppo da 3 anni. I problemi sul processo produttivo a 40nm sono posteriori alla fine della progettazione del G200. Ancora una volta non c'è una sola e dico una sola informazione utile che hai portato. Comunque ti chiedo, perché mai nvidia avrebbe prodotto il G200 a 65nm quando i 55 erano già a disposizione da tempo (e i 40 sarebbero arrivati in teoria lì a poco)?
Poi sul discorso G80/G92 non ti comprendo. nvidia ha fatto un botto di soldi con questa architettura e tu dici che ha dovuto sobbarcarsi le spese degli invenduti? E per fortuna, altrimenti oggi si comprava AMD intera! E dici che i soldi fatti sono dovuti al fatto che abbia ammortizzato i costi di sviluppo? Ma ti risulta che nvidia abbia smesso di fare ricerca per risparmiare soldi? I costi di sviluppo da ammortizzare sono quelli del G80/G92/G200/Fermi con qualsiasi prodotto sfornato, mica solo quelli del G92. E di soldi ne sono entrati abbastanza in nvidia. E se dici che il G200 era costoso e fallimentare (cosa che hai visto solo tu... forse sei fermo solo al mercato dei videogiochi), ha avuto un botto di invenduti del G80/G92, mi dici dove sono arrivati i soldi? Ti informo che ad nvidia non è arrivato il contributo "volontario" di 1,2 miliardi di dollari da parte di Intel, nè l'iniezione di denaro liquidi di qualche altro miliardino di dollari da parte i nessun petroliere arabo.
A parte il crollo del 2008 per via della crisi (dove AMD segnava cifre negative da record), il bilancio nvidia è sempre stato a posto. Ricordiamoci comunque che i costi di ricerca di invidia superano il fatturato della sezione grafica di AMD, quindi per nvidia far fronte a tali spese (che non sono solo in HW, ma altrettanti in SW e supporto) significa dover vendere molto di più (o con più margini).
G92 inferiore sia alla serie 3xxx e 4xxx? Forse con il raddoppio degli SP nella serie 4xxx c'è stato il sorpasso minimo di questa ultima architettura, ma sicuramente l'RV670 era una chiavica in confronto.
Quando una 4850 deve sudare per fronteggiare una GTS250 il cui chip è stato progettato 3 anni prima direi che solo la visione distorta di un fanboy può dire che il G92 era inferiore. Lo è stato così tanto che come detto è stato prodotto per anni e pur essendo più grande della concorrenza nvidia ci ha sempre guadagnato.
Sei un po' confuso. Come può il G92 era secondo te era inferiore, osboleto, grande e costoso da produrre e inferiore a tutto ai chip della concorrenza permettere a nvidia di mantenersi per 4 anni supplendo alle ciofeche successivamente prodotte come il G200 e il Fermi? Giusto perchè i costi del suo sviluppo si sono ammortizzati nel tempo?
Ripeto. Continua a vivisezionare chip grafici e informarci con la puntigliosità che ti distingue su come funzionano i transistor al loro interno. La lettura di quegli articoli è sempre un piacere. Per quanto riguarda fare il giornalista che tenta di fare informazione al di fuori di TMU, SP e cache varie hai invece bisogno di un ripasso abbastanza intensivo.
Credo di non aver più nulla da aggiungere. A meno che alla fine non posti i link alle presunte date di cui tanto parli che siano stati creati PRIMA che gli eventi del mercato siano già accaduti.
Saluti e buon lavoro
Zappa1981
04-11-2010, 11:24
AMd si merita i soldi da Intel, E stata danneggiata e non poco dalla politica di Intel e in ogni caso sono soldi extra e ben venga...a in ogni caso con la serie 5000 han fatto i soldi e se li meritano tutti...
yossarian
04-11-2010, 12:08
Sono nella sezione apposita. Se guardi bene ci sono. Insieme alle spese sostenute per GF.
L'operating income valuta solo ed esclusivamente quali sono le capacità dell'azienda ad essere profittevole con i propri prodotti indipendentemente dallo stato finanziario e di altri fattori esterni (e temporanei) della società in quel momento. Altrimenti non avrebbe alcun senso.
http://en.wikipedia.org/wiki/Earnings_before_interest_and_taxes
I numeri sono lì. Aumento vendite AMD 11%. Aumento vendite nvidia 28%. Aumento globale del mercato 20%. Uno è underperforming, l'altra è overperforming. Indovina chi.
Dal bilancio AMD:
Ha venduto di più e incassato meno? Complimenti.
http://www.xbitlabs.com/news/video/display/20101028210849_Mobile_Graphics_Adapters_Declined_Most_in_Q3_Mercury_Research.html
http://www.xbitlabs.com/news/video/display/20101027211059_ATI_Maintains_Lead_on_Discrete_GPU_Market_Mercury_Research.html
il totale dei chip grafici venduti da amd nel 3° trimestre è diminuito a causa del calo delle vendite dei chip nel segmento mobile (cosa c'entra la 460?) :D
Ripeto la domanda: dove sarebbe la strage di cui farneticate? :rolleyes:
Be', allora se non vuoi capire quello che dico inutile discutere. Rileggi magari un'altra volta.
amd non ha calato i prezzi della serie 5xx0 neppure quando è uscita la 460 ed ha continuato a vendere, mentre nVidia si è affrettata a far precipitare quelli di 470 e 460 all'uscita di barts: chi è in difficoltà?
Credo che questo spieghi tutto. Come ingegnere che viviseziona architetture sei molto bravo. Come giornalista che dovrebbe fare informazione sei pessimo.
I tuoi link non dicono nulla.
il tuo (poichè finora se n'è visto uno solo e per il resto sono solo chiacchiere da bar dello sport), ancora meno
Sono proiezioni di cose ormai assestate che non fanno previsione. Guarda caso il link che ti dici essere di Agosto è comunque postumo all'uscita della 460. Non c'è nulla che indichi che Barts sarebbe dovuto uscire a Ottobre prima dell'uscita della 460. Punto.
le slide SONO DI AGOSTO (basta leggere :D ). Se ad agosto proclamo che ad ottobre uscirà un nuovo chip vuol dire che quel chip è, almeno, già andato in tapeout. Ovvio che uno che ha la pretesa di fare il giornalista ma non conosce una ceppa dell'argomento, queste cose non può saperle e, magari, immagina che si facciano semplici proclami e un chip si possa assemblare da un giorno all'altro alla bell'e meglio, tanto per far fronte alla concorrenza. Punto :p
In queste condizioni le tue speculazioni valgono tanto quanto le mie. Non metterti su un piedistallo perchè non hai mostrato nulla che dia ragione al tuo ragionamento.
nulla a parte il fatto che io so di cosa parlo e tu no
Stessa cosa per Fermi. Mi posti un link di fine 2009 che dice che il chip sarebbe uscito per la fine dell'anno. Molto interessante per un prodotto che era in sviluppo da 3 anni.
mi fai vedere uno straccio di link da cui risulti che fermi sarebbe dovuto uscire a 28 nm? Te lo chiedo perchè finora l'unico link valido, quello con la roadmap di tsmc, parlavano dei 28 nm nel q3 2010 (nella migliore delle ipotesi)
I problemi sul processo produttivo a 40nm sono posteriori alla fine della progettazione del G200. Ancora una volta non c'è una sola e dico una sola informazione utile che hai portato.
le informazioni ci sono per chi le sa leggere. Ovviamente, dal'alto della tua prosopopea, non ti sei neppure fermato a cercare di capire cosa significhino termini come full node, half node, ecc.
Comunque ti chiedo, perché mai nvidia avrebbe prodotto il G200 a 65nm quando i 55 erano già a disposizione da tempo (e i 40 sarebbero arrivati in teoria lì a poco)?
per lo stesso motivo per cui ha dovuto portare avanti per 4 anni l'architettura di g80; ovvero era in ritardo nel passaggio da un pp all'altro e la transizione non si effettua mai con una nuova architettura, soprattutto se il chip è grosso e complesso. L'unico caso in cui si è tentato una cosa del genere è venuto fuori l'NV30. Ma tu fai il giornalista e queste cose non sei tenuto a saperle vero?
Poi sul discorso G80/G92 non ti comprendo. nvidia ha fatto un botto di soldi con questa architettura
l'unica affermazione sensata che hai fatto sinora
e tu dici che ha dovuto sobbarcarsi le spese degli invenduti?
non lo dico io, ma i fatti.
E per fortuna, altrimenti oggi si comprava AMD intera!
amd fattura il doppio di nVidia
E dici che i soldi fatti sono dovuti al fatto che abbia ammortizzato i costi di sviluppo?
per fortuna l'italiano non è un'opinione. Ho detto che nVidia si è tenuta a galla con g80 perchè, nell'arco di 4 anni ne ha abbondantemente ammortizzato i costi di sviluppo. La stessa cosa non è avvenuta con gt200 e fermi.
Ma ti risulta che nvidia abbia smesso di fare ricerca per risparmiare soldi? I costi di sviluppo da ammortizzare sono quelli del G80/G92/G200/Fermi con qualsiasi prodotto sfornato, mica solo quelli del G92. E di soldi ne sono entrati abbastanza in nvidia.
leggi sopra
E se dici che il G200 era costoso e fallimentare (cosa che hai visto solo tu... forse sei fermo solo al mercato dei videogiochi), ha avuto un botto di invenduti del G80/G92, mi dici dove sono arrivati i soldi?
gt200 era costoso e, dal punto di vista economico, fallimentare. Quanti chip pensi si vendano nel mercato pro? E quanto pensi che costi sviluppare un'architettura?
Ti informo che ad nvidia non è arrivato il contributo "volontario" di 1,2 miliardi di dollari da parte di Intel, nè l'iniezione di denaro liquidi di qualche altro miliardino di dollari da parte i nessun petroliere arabo.
noto un certo "rosicamento" in queste affermazioni. Intel ha pagato per una violazione di brevetti e le è convenuto arrivare ad una transazione (altrimenti avrebbe pagato molto di più) e i petrolieri arabi, evidentemente, hanno trovato interessanti le fonderie di amd. Probabilmente nVidia non aveva qualcosa di altrettanto appetibile da offrire.
A parte il crollo del 2008 per via della crisi (dove AMD segnava cifre negative da record), il bilancio nvidia è sempre stato a posto.
non mi risulta; ti ho anche postato un trimestrale (del q2 2010, quindi niente a che vedere con il 2008)
Ricordiamoci comunque che i costi di ricerca di invidia superano il fatturato della sezione grafica di AMD, quindi per nvidia far fronte a tali spese (che non sono solo in HW, ma altrettanti in SW e supporto) significa dover vendere molto di più (o con più margini).
e invece vende sottocosto, chissà perchè :rolleyes:
G92 inferiore sia alla serie 3xxx e 4xxx? Forse con il raddoppio degli SP nella serie 4xxx c'è stato il sorpasso minimo di questa ultima architettura, ma sicuramente l'RV670 era una chiavica in confronto.
minimo? http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
Quando una 4850 deve sudare per fronteggiare una GTS250 il cui chip è stato progettato 3 anni prima direi che solo la visione distorta di un fanboy può dire che il G92 era inferiore.
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
e ti risparmio la storia del MSAA con deferred rendering con cui i chip dx10.1 guadagnano il 20-25% e una 4850, a risoluzioni non fb limited, supera una 280 GTX
Eh, si, solo un fanboy non si rende conto delle differenze :D
Lo è stato così tanto che come detto è stato prodotto per anni e pur essendo più grande della concorrenza nvidia ci ha sempre guadagnato.
ci ha guadagnato dal momento in cui ha ammortizzato i costi
Come può il G92 era secondo te era inferiore, osboleto, grande e costoso da produrre e inferiore a tutto ai chip della concorrenza permettere a nvidia di mantenersi per 4 anni supplendo alle ciofeche successivamente prodotte come il G200 e il Fermi?
chi ha detto che gt200 (g200 è matrox, ma tu sei giornalista e queste cose non sei tenuto a saperle :D ) e fermi sono delle ciofeche?
Giusto perchè i costi del suo sviluppo si sono ammortizzati nel tempo?
esatto
Ripeto. Continua a vivisezionare chip grafici e informarci con la puntigliosità che ti distingue su come funzionano i transistor al loro interno. La lettura di quegli articoli è sempre un piacere.
quando avrò tempo lo farò. Almeno può tornare utile a qualcuno che si può informare su come funzionano le cose,
Per quanto riguarda fare il giornalista che tenta di fare informazione al di fuori di TMU, SP e cache varie hai invece bisogno di un ripasso abbastanza intensivo.
per quello ci sei già tu :D
Credo di non aver più nulla da aggiungere. A meno che alla fine non posti i link alle presunte date di cui tanto parli che siano stati creati PRIMA che gli eventi del mercato siano già accaduti.
Saluti e buon lavoro
neppure io ho altro da aggiungere e non ho altro tempo da perdere; a meno che non inizi a postare qualche link che avvalori le tue ricostruzioni dei fatti. Qui si parla di tecnologia e storie alla wilbur smith non hanno ragione di esistere. Ripeto: non mi interessano le tue chiacchiere ma i fatti. Inizia a postare dei link. Se devo leggere storie di fantasia, preferisco altri autori :D
fbrbartoli
04-11-2010, 12:41
forse si :D
:sofico:
http://www.hardware.fr/articles/725-...4870-4850.html
e ti risparmio la storia del MSAA con deferred rendering con cui i chip dx10.1 guadagnano il 20-25% e una 4850, a risoluzioni non fb limited, supera una 280 GTX
Questa non l'ho capita... ma quanto ti paga ati per dire ste boiate???
yossarian
04-11-2010, 13:06
:sofico:
Questa non l'ho capita... ma quanto ti paga ati per dire ste boiate???
di quali boiate parli? Utilizzando engine di tipo deferred (stalker cs, UE3, AC, ecc) in dx10 hai solo due modi per fare MSAA: inizializzare un color buffer come z-buffer o fare render to texture, salvando i dati dello z-buffer su una texture. Con dx10.1 e successive hai a disposizione più render target per lo z-buffer e puoi salvare i dati sia dello z-buffer che delle operazioni di color e alpha blending su differenti render target. Il tutto permette di risparmiare un passaggio di rendering che si traduce in un guadagno prestazionale del 20-25%.
Per la cronaca http://www.rage3d.com/articles/assassinscreed/index.php?p=3 con la serie 3xx0. Con la 4xx0, il vantaggio, usando MSAA 4x (o superiore) era ancora maggiore.
http://www.computerbase.de/artikel/grafikkarten/2008/kurztest-ati-radeon-hd-4850-rv770/13/#abschnitt_assassins_creed
Evidentemente, sono altri a fare disinformazione a titolo gratuito o no
Ale55andr0
04-11-2010, 13:27
Questa non l'ho capita... ma quanto ti paga ati per dire ste boiate???
a me quelli che sparan boiate sembrano altri :stordita:
e forse perfino "a gratis" :fagiano:
Un paio di link
HD4750 vs GTS250 (nel tuo link non c'è la GTS250, caro giornalista)
http://www.tomshardware.com/reviews/geforce-gts-radeon,2274-12.html
o magari preferisci quelli sicuramente imparziali di Anandtech
http://www.anandtech.com/show/2731/
Ripeto, 3 anni di differenza tra i due chip, e una azienda costantemente indietro nel PP... sicuramente il G92 era inferiore in tutto... sìsì
Stesso tuo link:
http://en.wikipedia.org/wiki/Earnings_before_interest_and_taxes
Guarda la tabella...
Operating income.... ha un valore
EBIT ne ha un altro.... infatti è stato aggiunto le non-operating profit
Mannaggia....
Per il resto, ancora tutto quello che hai riportato non è meglio di quello che ho detto io. L'IPSE DIXIT è una mentalità che è stata superata qualche centinaio di anni fa.
Ah, per i la disponibilità dei 28nm da parte di TMSC... prova a ridare un'occhiata al link UFFICIALE che ho linkato sopra. Magari ti da qualche idea che qualche lacuna a fare il giornalista ce l'hai.
Mantengo il massimo rispetto per i tuoi articoli sulle architetture, comunque.
Per il risultato del quadrimestre fiscale in negativo di nvidia 3 cose.
1. non sono il loro avocato per cui non ho intenzione di affermare alcuna verità assoluta
2. una perdita di quel tipo per la situazione in cui si è trovata è un inezia. Tu stesso hai linkato il fatto che ha dovuto sostenere una spesa extra dovuta al problema delle GPU difettose, sena tenr conto del casino fatto con il ritardo di Fermi
3. Aspettiamo il risultato del trimestre in corso con dei prodotti concorrenziali sul mercato e vediamo come è andata. Per intanto sappiamo che per AMD settore grafico non è andata bene comunque.
Il G92 è stato profittevole solo quando hanno ammortizzato i costi di sviluppo? Ma che stai dicendo? Un chip è profittevole quando viene venduto a un prezzo superiore a quello che costa. Se è riuscito ad ammortizzare i costi di sviluppo è perchè è sempre stato profittevole. E lo è stato sempre, dato che secondo le tue parole ha poi dovuto "sobbarcarsi" l'onere di di ammortizzare i costi di sviluppo di G200 e Fermi. Rivedi i bilanci di nvidia con il G200 sul mercato. Soprattutto da dove vengono 2/3 dei loro utili (non fatturato). Altro che G92 che mantiene tutta l'azienda.
Per intanto i bilanci di AMD sono tutti in passivo da eoni, vendite sì o vendite no. Chi stia vendendo i prodotti sotto costo mi sembra evidente (se il prezzo non supera i costi totali dell'azienda non mi sembra difficile capirlo).
yossarian
04-11-2010, 13:56
Un paio di link
HD4750 vs GTS250 (nel tuo link non c'è la GTS250, caro giornalista)
http://www.tomshardware.com/reviews/geforce-gts-radeon,2274-12.html
o magari preferisci quelli sicuramente imparziali di Anandtech
http://www.anandtech.com/show/2731/
Ripeto, 3 anni di differenza tra i due chip, e una azienda costantemente indietro nel PP... sicuramente il G92 era inferiore in tutto... sìsì
Stesso tuo link:
http://en.wikipedia.org/wiki/Earnings_before_interest_and_taxes
Guarda la tabella...
Operating income.... ha un valore
EBIT ne ha un altro.... infatti è stato aggiunto le non-operating profit
Mannaggia....
Per il resto, ancora tutto quello che hai riportato non è meglio di quello che ho detto io. L'IPSE DIXIT è una mentalità che è stata superata qualche centinaio di anni fa.
Ah, per i la disponibilità dei 28nm da parte di TMSC... prova a ridare un'occhiata al link UFFICIALE che ho linkato sopra. Magari ti da qualche idea che qualche lacuna a fare il giornalista ce l'hai.
Mantengo il massimo rispetto per i tuoi articoli sulle architetture, comunque.
Per il risultato del quadrimestre fiscale in negativo di nvidia 3 cose.
1. non sono il loro avocato per cui non ho intenzione di affermare alcuna verità assoluta
2. una perdita di quel tipo per la situazione in cui si è trovata è un inezia. Tu stesso hai linkato il fatto che ha dovuto sostenere una spesa extra dovuta al problema delle GPU difettose, sena tenr conto del casino fatto con il ritardo di Fermi
3. Aspettiamo il risultato del trimestre in corso con dei prodotti concorrenziali sul mercato e vediamo come è andata. Per intanto sappiamo che per AMD settore grafico non è andata bene comunque.
Il G92 è stato profittevole solo quando hanno ammortizzato i costi di sviluppo? Ma che stai dicendo? Un chip è profittevole quando viene venduto a un prezzo superiore a quello che costa. Se è riuscito ad ammortizzare i costi di sviluppo è perchè è sempre stato profittevole. E lo è stato sempre, dato che secondo le tue parole ha poi dovuto "sobbarcarsi" l'onere di di ammortizzare i costi di sviluppo di G200 e Fermi. Rivedi i bilanci di nvidia con il G200 sul mercato. Soprattutto da dove vengono 2/3 dei loro utili (non fatturato). Altro che G92 che mantiene tutta l'azienda.
Per intanto i bilanci di AMD sono tutti in passivo da eoni, vendite sì o vendite no. Chi stia vendendo i prodotti sotto costo mi sembra evidente (se il prezzo non supera i costi totali dell'azienda non mi sembra difficile capirlo).
non operating income, semmai
comunque, dal mio stesso link
Selling, general and administrative expenses $8,172
Depreciation and amortization $960
Other expenses
leggo: general and administrative expenses. Cosa c'entrano con i costi di produzione? Mistero della fede
:D
vero, non c'è la 250 ma ci sono la 9800 e la 9800 v2 e nel link di tom's vedo una 250 OC e con un GB di ram al posto di 512 MB (sai cosa significa, vero? Ovviamente è inutile parlare di situazioni fb limited a chi non ha proprio idea di quale sia l'argomento della conversazione). Spiegami la differenza, caro il mio chiacchierone :D
La roadmap di tsmc non è chiara solo agli ignoranti come te; infatti i 28 nm LP non vanno neppure considerati per i chip grafici (non te lo ha detto la mamma?) :sofico:
A proposito dei bilanci, non sai che anche nVidia è indebitata (senza aver acquisito ATi e senza la partecipazione in GF)? E che il -175 milioni e spiccioli, fatto registrare nel q2 2010, si riferisce all'operating income (cosa c'entrano, secondo le tue tesi, i chip grafici difettosi?).
Sorvolo sulla buffonata che un chip diventa profittevole dal momento in cui si vende sovraprezzo. Ovviamente per te le spese di R&D e di testing si ammortizzano in poche ore.
per il resto non vedo altro che il solito bla bla bla privo di qualsiasi costrutto e, soprattutto, mancano ancora i link che avvalorino le tue strampalate teorie.
Ripeto, non è colpa mia se sei ignorante in materia. Di certo, poichè sei presuntuoso, non perdo ulteriore tempo a spiegarti le cose.
Quindi, caro signor someone di nome ma "nessuno" di fatto, prima diventa qualcuno e poi, forse, ne riparliamo. Anche se, mi pare, tu sia sulla strada sbagliata :rolleyes:
fbrbartoli
04-11-2010, 14:38
Quindi, caro signor someone di nome ma "nessuno" di fatto, prima diventa qualcuno e poi, forse, ne riparliamo. Anche se, mi pare, tu sia sulla strada sbagliata :rolleyes:
mi pare che ci sia più di un soggetto che pecca di presunzione ma evidentemente sei un personaggio famoso nel campo... allora mostrati a noi o ave yossarian! Non nasconderti dietro un nick...
yossarian
04-11-2010, 14:47
mi pare che ci sia più di un soggetto che pecca di presunzione ma evidentemente sei un personaggio famoso nel campo... allora mostrati a noi o ave yossarian! Non nasconderti dietro un nick...
perchè non commenti quelle che hai bollato come "boiate"? Perchè sono proprio quelle le cose che fanno la differenza tra chi le cose le sa e chi non le sa e parla comunque. Qui sono altri che si nascondono dietro ad un nick da cui si sentono autorizzati a sparare cazzate a raffica; al contrario, io ho tanto di nome e cognome visibili su AD. :rolleyes:
fbrbartoli
04-11-2010, 14:56
perchè non commenti quelle che hai bollato come "boiate"? Perchè sono proprio quelle le cose che fanno la differenza tra chi le cose le sa e chi non le sa e parla comunque.
infatti volevo commentare la tua frase "e una 4850, a risoluzioni non fb limited, supera una 280 GTX" perchè nei link che mi hai postato per avvalorare la tua tesi, non c'è scritto che 4850 supera 280...
Sono tutti buoni a parlare dietro un nick e vantarsi di sapere le cose. La differenza si ha quando ci metti la faccia...
Ti vorrei ricordare una citazione famosa di Einstein che tu sicuramente conoscerai:
"Non hai veramente capito qualcosa fino a quando non sei in grado di spiegarlo a tua nonna."
Inutile dirti che per come ti spieghi nessuno ha capito niente...
ripeto: mostrati a noi o ave Yossarian!
Edit: scusami ma ancora non ti capisco... parli troppo per sigle... cos'è AD?
ultimo avvertimento:
ritornate in topic e parlate solo di 580, per le altri argomenti esistono le apposite sezioni del forum o i messaggi privati
yossarian
04-11-2010, 15:25
ultimo avvertimento:
ritornate in topic e parlate solo di 580, per le altri argomenti esistono le apposite sezioni del forum o i messaggi privati
hai ragione. Con questa chiudo
infatti volevo commentare la tua frase "e una 4850, a risoluzioni non fb limited, supera una 280 GTX" perchè nei link che mi hai postato per avvalorare la tua tesi, non c'è scritto che 4850 supera 280...
Sono tutti buoni a parlare dietro un nick e vantarsi di sapere le cose. La differenza si ha quando ci metti la faccia...
Ti vorrei ricordare una citazione famosa di Einstein che tu sicuramente conoscerai:
"Non hai veramente capito qualcosa fino a quando non sei in grado di spiegarlo a tua nonna."
Inutile dirti che per come ti spieghi nessuno ha capito niente...
ripeto: mostrati a noi o ave Jossarian!
nel link che ho postato, il test con AC è fatto in dx10 e non sono state usate le dx10.1 per le ATi. Eppure, sotto i 1920 la 4850 è, comunque, vicina alle 280 anche in dx10. Il boost prestazionale lo puoi vedere nell'altro link. Ovviamente vale solo con MSAA 4x o superiore, mentre senza MSAA le prestazioni, tra dx10 e dx10.1 non cambiano.
http://webcache.googleusercontent.com/search?q=cache:http://www.appuntidigitali.it/3672/tecniche-di-filtraggio-antialiasing-iii-parte/
vedi ultima parte
A costo di farmi bannare rispondo a questa e poi mollo. Vedo che il tuo specchio è abbastanza lungo per riuscire ad arrampicarti molto in alto.
Selling, general and administrative expenses $8,172
Depreciation and amortization $960
Other expenses
leggo: general and administrative expenses. Cosa c'entrano con i costi di produzione? Mistero della fede
Forse che i costi legati agli impiegati che fanno andare l'azienda non sono connessi ai costi di produzione?
Il fattorino che impacchetta tutto e lo spedisce dove lo metti? E l'affitto? E gli ammortamenti delle apparecchiature? Rimane un fatto. Il tuo link evidenzia che l'operating income non contiene i costi che tu volevi assegnargli.
Guarda le righe dello schemino...
Operating Income...
non operating income...
EBIT...
Linee diverse per significati diversi. Spiacente, riprova la prossima volta. Il bilancio finale di AMD graphics fa acqua anche quando vende di brutto. E infatti quando non vendeva (o vendeva parecchio sottocosto) aveva un disavanzo da piccolo stato.
Che poi mi dici che nvidia ha avuto un problema di bilancio con tutti i casini che ha affrontato è poco indicativo. Sarebbe stato interessante se fosse stato il contrario. Tutte le aziende hanno debiti per investimenti a lungo termine, ma nvidia ha una liquidità che AMD si sogna. Finirà prima o poi questa liquidità? Ma, a vedere i bilanci può darsi... forse tra 10 anni. Forse quando finalmente AMD graphics comincerà a fare soldi non dovendo competere con nessuno.
nel link di tom's vedo una 250 OC
Vedi sempre solo quello che vuoi. C'è anche la 4850 occata. Ma guarda le figurine meglio... ci sono i grafici anche delle versioni standard. Ah, sì, 1GB vs 512MB... riuscire a coprire 3 anni di ricerca e sviluppo con 512 MB di memoria in più... fosse sempre così semplice... ma non aveva quella meravigliosa e assolutamente vantaggiosa memoria GDDR5 la 4850 mentre la GTS25 aveva ancora la obsoleta, lenta e estremamente dispendiosa in termini di dimensione di BUS la GTS250?
Yossarian - coerenza = 0%
yossarian
04-11-2010, 19:36
A costo di farmi bannare rispondo a questa e poi mollo. Vedo che il tuo specchio è abbastanza lungo per riuscire ad arrampicarti molto in alto.
Forse che i costi legati agli impiegati che fanno andare l'azienda non sono connessi ai costi di produzione?
Il fattorino che impacchetta tutto e lo spedisce dove lo metti? E l'affitto? E gli ammortamenti delle apparecchiature? Rimane un fatto. Il tuo link evidenzia che l'operating income non contiene i costi che tu volevi assegnargli.
Guarda le righe dello schemino...
Operating Income...
non operating income...
EBIT...
Linee diverse per significati diversi. Spiacente, riprova la prossima volta.
non vedo la voce EBIT nei bilanci di AMD e nVidia ma, in compenso, vedo scritto che EBIT e operating income sono usati spesso con la stessa accezione. Ok, ci hai provato e ti è andata male anche stavolta. Che ci vuoi fare, la natura è stata matrigna :ciapet:
Il bilancio finale di AMD graphics fa acqua anche quando vende di brutto. E infatti quando non vendeva (o vendeva parecchio sottocosto) aveva un disavanzo da piccolo stato.
bla bla bla e intanto, purtroppo per te e per chi sperava che amd fallisse, il debito cala e le cose si stanno decisamente aggiustando grazie ai bilanci disastrosi di cui non ci hai capito una mazza :Prrr:
Che poi mi dici che nvidia ha avuto un problema di bilancio con tutti i casini che ha affrontato è poco indicativo.
quali casini? Quelli non fanno parte dell'operating income, non lo ricordi? Mica ci sono le spese per il fruttivendolo e le escort? :sofico:
Tutte le aziende hanno debiti per investimenti a lungo termine, ma nvidia ha una liquidità che AMD si sogna.
ma anche no, altrimenti avrebbe già azzerato il suo debito bla bla bla e :mc:
Finirà prima o poi questa liquidità? Ma, a vedere i bilanci può darsi... forse tra 10 anni. Forse quando finalmente AMD graphics comincerà a fare soldi non dovendo competere con nessuno.
li fa anche adesso, rassegnati :ciapet:
Vedi sempre solo quello che vuoi. C'è anche la 4850 occata. Ma guarda le figurine meglio... ci sono i grafici anche delle versioni standard. Ah, sì, 1GB vs 512MB... riuscire a coprire 3 anni di ricerca e sviluppo con 512 MB di memoria in più... fosse sempre così semplice... ma non aveva quella meravigliosa e assolutamente vantaggiosa memoria GDDR5 la 4850 mentre la GTS25 aveva ancora la obsoleta, lenta e estremamente dispendiosa in termini di dimensione di BUS la GTS250?
ecco il punto; sto perdendo tempo con uno talmente ignorante da non sapere che il limite del fb è una cosa quello della banda passante un altro. Spero tu non sia un giornalista del settore, altrimenti avrei pena per il tuo editore :rolleyes: La mamma non ti ha spiegato che questo è un forum tecnico su cui dovrebbero essere inammissibili cazzate madornali come questa o altre che hai sparato a raffica? Perchè non provi con il circolo della maglia e del cucito? p.s. le gddr5 erano sulla 4870 (sempre del "pessimo" rv770 si tratta). Poi, di cosa farnetichi? GTS25 obsoleta GTS250. Boh. Una capra è meno ermetica.
Yossarian - coerenza = 0%
someone = no one but :blah:
EBIT e Operating Income non solo la stessa cosa. EBIT talvolta è confuso per l'operating income, ma come è ben chiaro nel link che tu stesso hai postato, EBIT = Operating Income + Non Operating Income.
Punto. Hai detto una boiata grande come una casa e credo che ormai lo specchio sia finito anche per te.
L'operating income nel bilancio NON è l'EBIT e quello riportato pari a 35 milioni di euro in 9 mesi con 25 milioni di schede DX11 vendute e il 90% del mercato (dati di cui AMD va fiera a quanto pare) sono una nullità.
quali casini?
Proprio quello che l'hanno lasciata 6 mesi senza uno straccio di scheda DX11 sul mercato e 9 mesi senza una scheda che potesse vendere decentemente. Quel passivo indica che anche con nulla nel mercato consumer può tirare avanti per un bel pezzo.
Come detto vederemo nei prossimi mesi come evolverà la situazione e soprattutto se nvidia continuerà a perdere soldi anche dopo avere finalmente coperto tutte le fasce nel mercato consumer (anche se la fascia bassa entrerà in bilancio solo nel trimestre successivo dato il poco tempo di vendita in questo trimestre).
Per FB intendi Frame Buffer? Limitato a 1280x1024? Certo che ha ragione fbartoli, sarai anche bravo a vivisezionare HW, ma a farti capire ne hai ancora di strada da fare.
Per il resto, se AMD fa una scheda con tre anni di ricerche e sviluppo e poi la castra per andare a pari (e spesso sotto di brutto) rispetto a una progettata 3 anni prima... che ti posso dire? Già, forse voleva risparmiare qualcosa per evitare di vendere troppo sottocosto.
Epic fail, ragazzo mio... la GTS in definitiva va di più della 4850... che cesso 'sto G92 inferiore a tutto... (però non è limitato come la 4850... che disdetta).
Saluti definitivi, non vorrei rubarti altro tempo in quello che sai fare meglio... analizzare HW.
Comunque se vuoi qui: http://www.guru3d.com/article/gigabyte-radeon-hd-4850-1gb-gvr485oc1gi-review/8 ci sono i benchmark della versione della 4850 con 1GB di ram... differenze di prestazioni pari a zero tranne ovviamente nelle risoluzioni più alte in Crysis dove i 512MB aggiuntivi hanno significato.
Per il resto 1GB = 512MB nelle risoluzioni minori e dove i giochi non hanno tutte quelle texture da caricare.
Hai qualche altra "chicca" da proporci per giustificare che l'achitettura dell'RV770 è superiore a quella dell'obsoleto G92 che è invece inferiore in tutto? Puoi sempre appellarti alle DX10.1
Yossarian - coerenza = 0%
Vedo che anche matematicamente sei scarsissimo, oltre che giornalisticamente, perchè non credo tu avessi intenzione di definire yossarian una persona 100% coerente.Dico questo, perchè la sottrazione che hai effettuato, indica proprio che yossarian è pari alla coerenza totale, poichè sottraendola a lui, ottieni 0%.
yossarian
05-11-2010, 00:45
EBIT e Operating Income non solo la stessa cosa. EBIT talvolta è confuso per l'operating income, ma come è ben chiaro nel link che tu stesso hai postato, EBIT = Operating Income + Non Operating Income.
Punto. Hai detto una boiata grande come una casa e credo che ormai lo specchio sia finito anche per te.
L'operating income nel bilancio NON è l'EBIT e quello riportato pari a 35 milioni di euro in 9 mesi con 25 milioni di schede DX11 vendute e il 90% del mercato (dati di cui AMD va fiera a quanto pare) sono una nullità.
:blah: :blah: :blah: mi trovi la voce EBIT nei bilanci di AMD (http://www.amd.com/us/press-releases/Pages/amd-reports-third-quarter-2010oct14.aspx) e nVidia (http://www.google.com/finance?fstype=ii&q=nasdaq:nvda)? Ops, non c'è, ergo operating income=EBIT. Poi, secondo il tuo ragionamento contorto, nell'operating income rientrano le spese per il fruttivendolo e la donna delle pulizie ma non quelle per "fabbricare" i chip, visto che hai escluso il passivo per la partecipazione in GF (motivo del -108 milioni di $ fatto registrare da amd nel q3 2010). Secondo te, da cosa deriva il passivo relativo alla gestione di una fonderia di semiconduttori? E come mai, nell'operating income negativo (-175 mln di $) fatto registrare da nVidia, invece, ci vuoi infilare le psese destinate al risarcimento di chi ha avuto chip difettosi (cosa c'entra con le spese di produzione lo sai solo tu ma, il "due pesi due misure", evidentemente, ti si addice), D'altra parte, quali possono essere le basi di economia di chi afferma che "un chip diventa profittevole nal momento in cui viene venduto sovraprezzo" senza la necessità di dover ammortizzare i costi di R&D e testing (in pratica si equipara un chip ad una pizza, facendo l'equazione: ricavo - costo di produzione = guadagno; peccato che la pizza non presenta voci come "costi di R&D e non necessita di fasi di testing e, comunque, anche in quel caso, vendi in perdita finchè non hai ammortizzato almeno il costo dei macchinari necessari ad impastare e a cuocere :D )
bye bye, ciccio
Proprio quello che l'hanno lasciata 6 mesi senza uno straccio di scheda DX11 sul mercato e 9 mesi senza una scheda che potesse vendere decentemente. Quel passivo indica che anche con nulla nel mercato consumer può tirare avanti per un bel pezzo.
ciccio, quel passivo (operating income = -175,2) è riferito a tutta nVidia (compresa la divisione che si occupa di tegra, ad esempio, che mi pare venda piuttosto bene) e non solo alla divisione chip grafici (quello è ben peggiore). Inoltre è relativo al 2° trimestre fiscale, quando i chip dx11 già c'erano. Ciccio, ritenta, sarai più fortunato. :D
Come detto vederemo nei prossimi mesi come evolverà la situazione e soprattutto se nvidia continuerà a perdere soldi anche dopo avere finalmente coperto tutte le fasce nel mercato consumer (anche se la fascia bassa entrerà in bilancio solo nel trimestre successivo dato il poco tempo di vendita in questo trimestre).
bla, bla, bla vedremo, faremo, diremo, bla, bla, bla
Per FB intendi Frame Buffer? Limitato a 1280x1024? Certo che ha ragione fbartoli, sarai anche bravo a vivisezionare HW, ma a farti capire ne hai ancora di strada da fare.
a volte, parlare in modo "complicato" serve a far fuori dalla discussione troll e fanboy :sofico: Comunque, se cerchi alleati, almeno scrivine il nome correttamente
Per il resto, se AMD fa una scheda con tre anni di ricerche e sviluppo e poi la castra per andare a pari (e spesso sotto di brutto) rispetto a una progettata 3 anni prima... che ti posso dire? Già, forse voleva risparmiare qualcosa per evitare di vendere troppo sottocosto.
Epic fail, ragazzo mio... la GTS in definitiva va di più della 4850... che cesso 'sto G92 inferiore a tutto... (però non è limitato come la 4850... che disdetta).
ciccio, rv770 è anche la 4870; aspetto ancora la risposta alla domanda: che differenza c'è tra 250 e 9800 GTX e tra la 250 e la GTX v2 alias gtx+ che compare nella comparativa di hardware.fr?. Ops, ma forse non rispondi perchè dovresti dire: nessuna......Allora, in effetti, la 250 (alias 9800 GTX) va effettivamente meno http://www.hardware.fr/articles/724-9/maj-preview-radeon-hd-4850-geforce-9800-gtx-v2.html :D
Saluti definitivi, non vorrei rubarti altro tempo in quello che sai fare meglio... analizzare HW.
nel tuo caso, invece, resta difficile capire cosa sai fare. Di sicuro è facile capire cosa non sai o non sai fare :D
Comunque se vuoi qui: http://www.guru3d.com/article/gigabyte-radeon-hd-4850-1gb-gvr485oc1gi-review/8 ci sono i benchmark della versione della 4850 con 1GB di ram... differenze di prestazioni pari a zero tranne ovviamente nelle risoluzioni più alte in Crysis dove i 512MB aggiuntivi hanno significato.
Per il resto 1GB = 512MB nelle risoluzioni minori e dove i giochi non hanno tutte quelle texture da caricare.
Hai qualche altra "chicca" da proporci per giustificare che l'achitettura dell'RV770 è superiore a quella dell'obsoleto G92 che è invece inferiore in tutto? Puoi sempre appellarti alle DX10.1
basta questo
http://www.hardware.fr/articles/724-9/maj-preview-radeon-hd-4850-geforce-9800-gtx-v2.html
e questo
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
o, dalla stessa review che hai citato, questo http://webcache.googleusercontent.com/search?q=cache:http://www.tomshardware.com/reviews/geforce-gts-radeon,2274-14.html
e basta dire che rv770 è anche 4870, quella si con la gddr5 (non la 4850, caro ignorantone). E, se vogliamo essere pignoli, anche la 4890 è sempre la stessa architettura che secondo le tue farneticazioni, non competerebbe con g92. Infine, rinnovo l'invito di far pace col cervello (e tre), prima affermi che la serie 5xx0 sarebbe stata sviluppata in pochi mesi perchè è semplicemente una 4xx0x2 e poi parli di nuove architetture ATi che non competerebbero con le vecchie nVidia. A me pare che la "vecchia" architettura, mutuata dalla serie 2xx0, compete benissimo anche con le nuove fermi.Ovviamente non pretendo che tu elenchi le differenze tra la serie 3xx0 e la 4xx0 e tra questa e la 5xx0. D'altra parte, da uno che afferma che nel passaggio da g80 a gt200 è stato aggiunto solo quanto serve per il segmento pro, non mi aspetto un bel niente.
Parlare di dx o di tecnologia con te del tutto inutile.
Vedo che anche matematicamente sei scarsissimo, oltre che giornalisticamente, perchè non credo tu avessi intenzione di definire yossarian una persona 100% coerente.Dico questo, perchè la sottrazione che hai effettuato, indica proprio che yossarian è pari alla coerenza totale, poichè sottraendola a lui, ottieni 0%.
credo che lui sia l'unico a non essersene accorto :D
Posto questo da http://wiki.fool.com/Income_statement:
At the top (the "top line") is revenue. This is the amount of recognized sales brought in by the company during the reporting period.
First, the costs associated with selling those items, cost of goods sold, is then subtracted to arrive at gross profit. This includes:
The cost of raw materials.
The cost of manufacture.
Shipping and handling costs to receive raw materials or to deliver finished goods, depending on the terms of such orders.
Next, various operating expenses are subtracted from gross profit to arrive at operating profit, sometimes called EBIT (earnings before interest and taxes). These expenses are sometimes called overhead or SARE. These include:
Research and development
Depreciation and amortization
Selling, general, and administrative costs. These include:
Selling expenses such as commissions to sales people.
Overhead, such as utility expenses.
Various salaries, such as those for management
Finally, various non-operating income and expenses are either added or subtracted from operating profit. These include:
Interest expenses or interest received, sometimes reported as a "net" number.
Income tax owed or credit received.
After tax results for discontinued operations (such as a division sold during the reporting period).
One-time gains or losses (such as writing down the value of inventory to reflect the market value or a gain or loss realized on the sale of some investments or capital equipment).
After all the expenses, the final or "bottom" line is reached, called net income. This is how much profit or loss the company had during the reported period. To reach earnings per share (EPS), net income is divided by the weighted average number of shares outstanding during the period.
Da cui si deduce in maniera semplice che nell'operating income le spese che tu vuoi metterci non ci sono. Punto.
I costi relativi a GF erano un tempo a carico della sezione CPU (la sezione GPU non ne ha mai fatto uso, per cui non sarebbe giustificabile inserirle in quella sezione) ma da qualche trimestre AMD lo ha scorporato come una sezione a parte e ha la sua apposita voce nel bilancio. Quando (e se) un domani vi saranno utili provenienti dagli investimenti in GF, entreranno in quella sezione separata.
Per giustificare la "baggianata" che l'RV770 è migliore del G92 hai preso l'unico test in cui si comporta meglio usando delle funzioni avanzate. Per il resto il G92 ha le stesse prestazioni della HD4850 (se non migliore).
Speravo fossi più informato: la GTS250 non è la 9800GTX, ma il rebranding della 9800GTX+ che è una versione occata a 55nm della precedente.
Stiamo parlando di un chip progettato 3 anni prima dell'RV770. Come similitudine è come se oggi l'RV670 semplicemente shrinkato a 40nm e overcloccato tenesse testa al Fermi.
Dove avete visto che era una sottrazione lo sapete solo voi: aspettate che riscrivo così capite anche voi:
yossarian -> coerenza = 0
Per il resto credevo fossi capace di argomentare meglio. Fare le pulci su nomi e cazzibubboli vari deve essere davvero deprimente per un mago della tecnologia come te.
In definitiva io avrei detto anche una serie di cazzate, ma tu, dall'alto della tua super informazione personale di cui godi non hai dato una che sia una spiegazione valida sul fatto che non sia possibile fare una revisione in 4 mesi tagliata esattamente come il mercato richiede.
Non c'è un link che mi dica che la nuova revisione era prevista per Ottobre prima dell'uscita della 460, esiste solo il mio datato Giugno 2010 che la dà al 2011, linki wikipedia che ti da torto, non sai come sono messe le voci nel bilancio AMD e non leggi i commenti di alcuni analisti riguardo proprio al fatto che AMD nel suo periodo migliore non ha un operating income degno di tale posizione.
Per il resto resti convinto che c'è voluto un raddoppio degli SP + ottimizzazione dell'architettura per superare le prestazioni del G92 del 20% (considerando la 4870, la 4850 va uguale inutile che ti appelli a cose insulse per dimostrare il contrario) la generazione successiva, però per te l'RV770 è superiore in tutto. Dimostra che come fanboy non sei niente male. Però tu sai e io no, per cui la tua parola vale, la mia no.
Se per te questo è essere "professionista", complimenti. Io sono una nullità e mi tengo le mie idee, ma se fossi in te, che credi di non essere una nullità, la prossima volta mi preparerei meglio la lezione prima di presentarsi allo sbaraglio in questa maniera deleteria.
Buon lavoro
Ah, prima che ti viene in mente di sparare qualche altra bestiata:
operating income = operating profit
focuswrc
09-11-2010, 15:00
[QUOTE
c'è voluto un raddoppio degli SP + ottimizzazione dell'architettura per superare le prestazioni del G92 del 20% (considerando la 4870, la 4850 va uguale inutile che ti appelli a cose insulse per dimostrare il contrario) la generazione successiva, però per te l'RV770 è superiore in tutto[/QUOTE]
e quindi? che g92 fosse un progetto valido si è saputo, ma cmq era superato rispetto a rv770, dove sta il problema? che poi ati usi cosi tanti SP ti cambia la vita? si chiama architettura diversa, se non ti piace non la prendi
Posto questo da http://wiki.fool.com/Income_statement:
At the top (the "top line") is revenue. This is the amount of recognized sales brought in by the company during the reporting period.
First, the costs associated with selling those items, cost of goods sold, is then subtracted to arrive at gross profit. This includes:
The cost of raw materials.
The cost of manufacture.
Shipping and handling costs to receive raw materials or to deliver finished goods, depending on the terms of such orders.
Next, various operating expenses are subtracted from gross profit to arrive at operating profit, sometimes called EBIT (earnings before interest and taxes). These expenses are sometimes called overhead or SARE. These include:
Research and development
Depreciation and amortization
Selling, general, and administrative costs. These include:
Selling expenses such as commissions to sales people.
Overhead, such as utility expenses.
Various salaries, such as those for management
Finally, various non-operating income and expenses are either added or subtracted from operating profit. These include:
Interest expenses or interest received, sometimes reported as a "net" number.
Income tax owed or credit received.
After tax results for discontinued operations (such as a division sold during the reporting period).
One-time gains or losses (such as writing down the value of inventory to reflect the market value or a gain or loss realized on the sale of some investments or capital equipment).
After all the expenses, the final or "bottom" line is reached, called net income. This is how much profit or loss the company had during the reported period. To reach earnings per share (EPS), net income is divided by the weighted average number of shares outstanding during the period.
Da cui si deduce in maniera semplice che nell'operating income le spese che tu vuoi metterci non ci sono. Punto.
I costi relativi a GF erano un tempo a carico della sezione CPU (la sezione GPU non ne ha mai fatto uso, per cui non sarebbe giustificabile inserirle in quella sezione) ma da qualche trimestre AMD lo ha scorporato come una sezione a parte e ha la sua apposita voce nel bilancio. Quando (e se) un domani vi saranno utili provenienti dagli investimenti in GF, entreranno in quella sezione separata.
Per giustificare la "baggianata" che l'RV770 è migliore del G92 hai preso l'unico test in cui si comporta meglio usando delle funzioni avanzate. Per il resto il G92 ha le stesse prestazioni della HD4850 (se non migliore).
Speravo fossi più informato: la GTS250 non è la 9800GTX, ma il rebranding della 9800GTX+ che è una versione occata a 55nm della precedente.
Stiamo parlando di un chip progettato 3 anni prima dell'RV770. Come similitudine è come se oggi l'RV670 semplicemente shrinkato a 40nm e overcloccato tenesse testa al Fermi.
Dove avete visto che era una sottrazione lo sapete solo voi: aspettate che riscrivo così capite anche voi:
yossarian -> coerenza = 0
Per il resto credevo fossi capace di argomentare meglio. Fare le pulci su nomi e cazzibubboli vari deve essere davvero deprimente per un mago della tecnologia come te.
In definitiva io avrei detto anche una serie di cazzate, ma tu, dall'alto della tua super informazione personale di cui godi non hai dato una che sia una spiegazione valida sul fatto che non sia possibile fare una revisione in 4 mesi tagliata esattamente come il mercato richiede.
Non c'è un link che mi dica che la nuova revisione era prevista per Ottobre prima dell'uscita della 460, esiste solo il mio datato Giugno 2010 che la dà al 2011, linki wikipedia che ti da torto, non sai come sono messe le voci nel bilancio AMD e non leggi i commenti di alcuni analisti riguardo proprio al fatto che AMD nel suo periodo migliore non ha un operating income degno di tale posizione.
Per il resto resti convinto che c'è voluto un raddoppio degli SP + ottimizzazione dell'architettura per superare le prestazioni del G92 del 20% (considerando la 4870, la 4850 va uguale inutile che ti appelli a cose insulse per dimostrare il contrario) la generazione successiva, però per te l'RV770 è superiore in tutto. Dimostra che come fanboy non sei niente male. Però tu sai e io no, per cui la tua parola vale, la mia no.
Se per te questo è essere "professionista", complimenti. Io sono una nullità e mi tengo le mie idee, ma se fossi in te, che credi di non essere una nullità, la prossima volta mi preparerei meglio la lezione prima di presentarsi allo sbaraglio in questa maniera deleteria.
Buon lavoro
Ah, prima che ti viene in mente di sparare qualche altra bestiata:
operating income = operating profit
prima o poi ti verrà in mente di rimanere in topic e smetterla con i battibecchi personali
7giorni
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.