PDA

View Full Version : Il futuro di AMD, intervista al CEO e Presidente Lisa Su


Pagine : [1] 2

Redazione di Hardware Upg
06-07-2015, 10:08
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/4406/il-futuro-di-amd-intervista-al-ceo-e-presidente-lisa-su_index.html

Abbiamo avuto l'occasione di intervistare il CEO e Presidente di AMD Lisa Su, dalla quale si delinea con tratti più marcati il futuro dell'azienda e le strategie che AMD perseguirà nel corso degli anni a venire.

Click sul link per visualizzare l'articolo.

cudido
06-07-2015, 10:38
Speriamo Zen funzioni, sarebbe l'ora! Ho comprato un bel po' di azioni AMD prima che uscisse il Phenom, credendo che rifacesse una cpu di successo come fu per l'Athlon e invece... :doh:

Phopho
06-07-2015, 10:40
Nulla di nuovo ma la conferma ufficiale che zen dovrebbe essere un progetto sul quale amd punta alla grande potrebbe essere di per se fondamentale per avere un prodotto veramente concorrenziale.
Il fatto che Keller ci stia lavorando come un topo da laboratorio potrebbe essere un plus non da ridere considerando che fù uno dei padri del k8 (che è stata l'ultima piattaforma che all'uscita era una spanna sopra intel).

Sandime
06-07-2015, 10:40
I believe in you :O

Maury
06-07-2015, 11:08
Ad AMD manca il peso commerciale, anche proponendo prodotto buoni fa una fatica incredibile a farli arrivare ai consumatori.
Basta guardare la ridicola presenza di portatili AMD nei centri commerciali.

AMD va inglobata da qualcosa di grosso che possa investire capitali, Samsung o Microsoft ad esempio.

Maury
06-07-2015, 11:15
si ma l'itaglia non è il centro del mondo eh ;)

Ma ne fa parte, e a giudicare dai bilanci AMD mi sa che in giro non si vende molto ;)

gd350turbo
06-07-2015, 11:20
Il futuro di AMD

Se continua così il suo futuro sarà di eterna seconda, almeno fino a quando le banche le concederanno credito !

Del resto, al mondo, ci vogliono anche le seconde scelte, non solo le prime !

the_joe
06-07-2015, 11:26
Se continua così il suo futuro sarà di eterna seconda, almeno fino a quando le banche le concederanno credito !

Del resto, al mondo, ci vogliono anche le seconde scelte, non solo le prime !

Alla fine se riesce a stare sul mercato, non c'è niente che possa far presagire una scomprarsa dalle scene di AMD, basta anche che resti nella sua nicchia che si è creata e può sopravvivere tranquillamente, anzi con un marketing più aggressivo potrebbe pure aumentare le vendite, di certo servono più investimenti in questo campo perchè puoi pure avere il miglior prodotto al mondo (e per un po' lo ha anche avuto parlando di CPU) ma se non riesci a vendere, non ci fai niente, specie quando lotti contro un avversario molto più grande di te.
Difatti il periodo d'oro di AMD è stato quando riusciva anche a sponsorizzare la Ferrari in F1, adesso AMD non la conosce quasi nessuno al di fuori dei nostri circoli.

gd350turbo
06-07-2015, 11:31
Il periodo d'oro di amd è stato quando aveva fatto un processore che umiliava in tutto e per tutto il Pentium 4 !

Poi dopo, sempre dietro !

bobafetthotmail
06-07-2015, 11:34
AMD va inglobata da qualcosa di grosso che possa investire capitali, Samsung o Microsoft ad esempio.Samsung ok, MS mica tanto.
Faccio notare che MS in mabito device sta facendo abbastanza schifo.

Personalmente non concordo, se la dai in mano ad una azienda grossa dopo le vendite si rialzano solo a suon di marketing e giochini di compatibilità limitata dei prodotti.

Se resta indipendente ha più sprone a muovere il didietro e fare qualcosa di innovativo.

Ma ne fa parte, e a giudicare dai bilanci AMD mi sa che in giro non si vende moltoComunque come marketing avrebbero bisogno di qualcuno serio, concordo. Il grosso del mercato lo potrebbero coprire tranquillamente con le APU, ma non avviene e vedo solo PC con Intel scrausissimi (celeron e pentium) con grafica integrata a prezzi assurdi.

Se continua così il suo futuro sarà di eterna seconda,Non no tu, ma mi sembrava che questa immagine che riporta la frase saliente fosse chiara
http://www.hwupgrade.it/articoli/cpu/4406/pag_2.jpg

Sanno benissimo che cavare Intel è improbabile in tempi brevi (o anche lunghi), quindi puntano ad andare in pari e scavarsi la loro nicchia di mercato.

Poi si vedrà.

the_joe
06-07-2015, 11:40
Il periodo d'oro di amd è stato quando aveva fatto un processore che umiliava in tutto e per tutto il Pentium 4 !

Poi dopo, sempre dietro !

Si, ma non c'entra niente, l'importante è dare un prodotto buono ad un giusto rapporto prezzo/prestazioni, la partita si gioca sulla fascia bassa/media del mercato dove AMD non sfigura, per cui via di investimenti nel marketing e di accordi con in produttori in modo da VENDERE, nessuno al momento credo voglia spodestare Intel, e non importa nemmeno.

gd350turbo
06-07-2015, 11:41
Consistente profittabilità...
Bella parola !
Ma da dire una bella parola, a metterla in pratica !

gd350turbo
06-07-2015, 11:44
Si, ma non c'entra niente, l'importante è dare un prodotto buono ad un giusto rapporto prezzo/prestazioni, la partita si gioca sulla fascia bassa/media del mercato dove AMD non sfigura, per cui via di investimenti nel marketing e di accordi con in produttori in modo da VENDERE,
Si come dicevo prima, ci vogliono anche i prodotti di seconda scelta, non solo quelli di prima !

DesertNet
06-07-2015, 11:47
Se resta indipendente ha più sprone a muovere il didietro e fare qualcosa di innovativo.


Se premiassero l'innovazione AMD sarebbe l'azienda con più fatturato nell'ambito informatico... dopo IBM.
E altre aziende che sono tra le più quotate fallirebbero.

davo30
06-07-2015, 11:49
L'importante è che si rimettano a produrre CPU serie. Tutte le analisi finanziarie ed economiche sono impeccabili, ma finche non hai nulla da vendere di competitivo stiamo parlando di aria fritta. E AMD negli ultimi 3 anni ha fritto parecchio...
La consistente profittabilità la si raggiunge mettendo nel mercato prodotti competitivi e serii, nonchè una buona dose di marketing. Il marketing lasciamo perdere, i prodotti si è sputtanata completamente lasciando sul mercato processori del lontano 2012, senza preoccuparsi minimamente di buttare qualcosa di nuovo (anche che desse un'impressione di novita, un die shrink per esempio).

the_joe
06-07-2015, 11:57
Se premiassero l'innovazione AMD sarebbe l'azienda con più fatturato nell'ambito informatico... dopo IBM.
E altre aziende che sono tra le più quotate fallirebbero.

Si certo perchè agli altri i risultati arrivano senza far niente. :mbe:

DesertNet
06-07-2015, 12:01
Si certo perchè agli altri i risultati arrivano senza far niente. :mbe:

Non ho scritto che gli altri non fanno niente, ho scritto che alcuni fanno poco si, non tutti.
AMD però ci ha dato AMD64 e Mantle negli ultimi anni che sono stati veramente una bomba nel mondo pc.

D3stroyer
06-07-2015, 12:24
dopo quello che hanno fatto con Fury X, amd ha una credibilità ai minimi. Auguro loro di non sventolare nessuna specifica/bench/caratteristica fino al day one della vendita, perchè devono davvero riprendersi dalle gaffe. Un conto è sapersi vendere, un altro è raccontare PALLE, più o meno come i costruttori di auto con i consumi. Oltretutto intel, anche se a passi piccoli, ha sempre mantenuto quello che sventolava tanto che il "tick tock" lo conoscono tutti e non perchè era una foto pubblicitaria ma un concept esistente e funzionante. Poi limiti fisici/hardware ecc non hanno spinto granchè in là le performance, ma un continuo miglioramento c'è stato.

DarIOTheOriginal
06-07-2015, 12:43
Scusate...
avete parlato per un'ora con il CEO di amd e il risultato è un articolo di 3 pagine di cui la prima è l'introduzione?

DesertNet
06-07-2015, 12:59
dopo quello che hanno fatto con Fury X, amd ha una credibilità ai minimi. Auguro loro di non sventolare nessuna specifica/bench/caratteristica fino al day one della vendita, perchè devono davvero riprendersi dalle gaffe. Un conto è sapersi vendere, un altro è raccontare PALLE, più o meno come i costruttori di auto con i consumi. Oltretutto intel, anche se a passi piccoli, ha sempre mantenuto quello che sventolava tanto che il "tick tock" lo conoscono tutti e non perchè era una foto pubblicitaria ma un concept esistente e funzionante. Poi limiti fisici/hardware ecc non hanno spinto granchè in là le performance, ma un continuo miglioramento c'è stato.

E cosa hanno fatto con la fury x?

PaulGuru
06-07-2015, 13:02
si ma non ditelo agli haters :asd:

Una frase del genere detta da AMD è come quando Monti diceva che eravamo usciti dalla crisi.

marchigiano
06-07-2015, 13:06
Il grosso del mercato lo potrebbero coprire tranquillamente con le APU, ma non avviene e vedo solo PC con Intel scrausissimi (celeron e pentium) con grafica integrata a prezzi assurdi.

bay trail a 2/2.5ghz e ivy/haswell a 1.5/2ghz con 4-6eu vanno più che bene al 99% delle persone, che poi apprezzano il basso calore generato e la silenziosità di questi sistemi (facile fare bay trail passivi)

si trovano tutti a meno delle apu amd che, nelle versioni base, sono dei chiodi, le top di gamma invece scaldano come forni...

[K]iT[o]
06-07-2015, 13:12
Viste le promesse mai mantenute consiglierei ad AMD di dedicarsi alla pastorizia, magari tira fuori risultati migliori.

In ambito PC solo delusioni dopo Barton, Athlon64 e HD5xxx.

Ad AMD manca il peso commerciale, Basta guardare la ridicola presenza di portatili AMD nei centri commerciali.

In campo mobile le soluzioni AMD sono spazzatura (in fiamme).

koni
06-07-2015, 13:24
il futuro di amd : nuove e più potenti slide per conquistare il mondo

AceGranger
06-07-2015, 13:25
Scusate...
avete parlato per un'ora con il CEO di amd e il risultato è un articolo di 3 pagine di cui la prima è l'introduzione?

avra parlato poco e mostrato tante slide :asd:

the_joe
06-07-2015, 13:32
iT[o];42645761']Viste le promesse mai mantenute consiglierei ad AMD di dedicarsi alla pastorizia, magari tira fuori risultati migliori.

In ambito PC solo delusioni dopo Barton, Athlon64 e HD5xxx.



In campo mobile le soluzioni AMD sono spazzatura (in fiamme).

Non si vive di sole prestazioni TOP, anzi si può dire che come tutti i settori, la fascia media è quella dove si fanno i maggiori guadagni, per cui se riesce a contrastare Intel in questa fascia ce la può fare a restare in piedi e anzi a incrementare i suoi spazi.....

Vero che il TOP possono fare da traino emotivo per i prodotti di fascia inferiore, ma anche una bella campagna arriva agli stessi risultati.

Kimmy
06-07-2015, 13:34
E cosa hanno fatto con la fury x?

Hanno annunciato prestazioni che nella realtà non ci sono. Le Fury X dovevano passare la TitanX, a conti fatti stanno dietro alla 980Ti quanto a performance.

Sflao
06-07-2015, 13:39
Hanno annunciato prestazioni che nella realtà non ci sono. Le Fury X dovevano passare la TitanX, a conti fatti stanno dietro alla 980Ti quanto a performance.

e questo quando la pompa funziona bene http://www.overclock.net/t/1562358/various-fury-x-pump-whine-buzz-noise-issue

:asd: :asd: :asd:

Max_R
06-07-2015, 13:40
e questo quando la pompa funziona bene http://www.overclock.net/t/1562358/various-fury-x-pump-whine-buzz-noise-issue

:asd: :asd: :asd:

Si chiama crossposting e dovresti evitare ;) In ogni caso già si sa

Sflao
06-07-2015, 13:42
In ogni caso già si sa

un altro motivo per non comprarla...e preferirgli la 980Ti ;)

Max_R
06-07-2015, 13:43
un altro motivo per non comprarla...e preferirgli la 980Ti ;)

Intendi acquistarla? La 980Ti intendo

gd350turbo
06-07-2015, 13:46
avra parlato poco e mostrato tante slide
Secondo me la conversazione è stata del tipo:
Hw: Hello lisa how are your company ?
Lisa: We are fucked up ! Click !

Sflao
06-07-2015, 13:50
Intendi acquistarla? La 980Ti intendo

se fossi sempre un enthusiast ... che non si limita solo a seguire l hw, ma che poi dopo apre pure il portafogli per l acquisto ....allora l avrei belle comprata una GTX 980 Ti.

PaulGuru
06-07-2015, 13:56
o come quando lo diceva mister B. e mister Bean adesso
...ma il paragone non ha senso, sta di FATTO che le gpu AMD sono presenti ovunque, buone o cattive o deprezzate che siano, mentre quelle nVidia solo nel mercato PC che è in picchiata, il Tegra non se l'è ca*ato nessuno se non lo sapessi...



ecco appunto CVD...
"se non hai le TOP performance, tutto quello sotto fa schifo" cit. AMD haters medio :asd:Per questo i bilanci Nvidia sono sempre in positivo e AMD sempre in negativo ? :sofico:
AMD presente dappertutto ma sempre in minor % ed assente quasi completamente su servers e supercomputers.

Max_R
06-07-2015, 13:57
se fossi sempre un enthusiast ... che non si limita solo a seguire l hw, ma che poi dopo apre pure il portafogli per l acquisto ....allora l avrei belle comprata una GTX 980 Ti.

Stiamo parlando del nulla allora ;)

Sflao
06-07-2015, 14:00
Stiamo parlando del nulla allora ;)

non voglio comprarla ma posso sempre consigliarla.

fraussantin
06-07-2015, 14:18
io spero vivamente che amd si svegli , e crei finalmente una vera concorrenza, perche intel sta monopolizzando in maniera "schifosa" il mercato .

AceGranger
06-07-2015, 14:32
o come quando lo diceva mister B. e mister Bean adesso
...ma il paragone non ha senso, sta di FATTO che le gpu AMD sono presenti ovunque, buone o cattive o deprezzate che siano, mentre quelle nVidia solo nel mercato PC che è in picchiata, il Tegra non se l'è ca*ato nessuno se non lo sapessi...


ma OVUNQUE dove :rotfl:? a casa mia i MAC sono PC e per ogni GPU che AMD da ad Apple, nVIdia ne da 100 ad altri OEM...

tegra è stato riconvertito per il mercato automotive che attualmente è uno dei pochi mercati in espansione.

Il Boom del lancio delle console è finitio e infatti si vedono i conti tornati in Rosso, altro che GPU "ovunque".

fraussantin
06-07-2015, 14:38
ma OVUNQUE dove :rotfl:? a casa mia i MAC sono PC e per ogni GPU che AMD da ad Apple, nVIdia ne da 100 ad altri OEM...

tegra è stato riconvertito per il mercato automotive che attualmente è uno dei pochi mercati in espansione.

Il Boom del lancio delle console è finitio e infatti si vedono i conti tornati in Rosso, altro che GPU "ovunque".

poi sulle console sai quanto ci guadagna , hanno venduto pure il :ciapet: per mettercele..

DesertNet
06-07-2015, 14:45
Hanno annunciato prestazioni che nella realtà non ci sono. Le Fury X dovevano passare la TitanX, a conti fatti stanno dietro alla 980Ti quanto a performance.

Io aspetterei a dirlo, magari un nuovo rilascio di driver e windows 10 con le dx12.
Ci sono dei test dove la fury x effettivamente passa la titan x.

So che sembro un po' chi sostiene che le cpu FX di amd sono buone perchè in 7zip passano gli i7, ma aspetterei veramente 1 mesetto.
Se poi resta "in qualche test" ti do ragione, se diventa qualche test in più no :)

Per citare qualche esempio:
http://images.anandtech.com/graphs/graph9390/75464.png
http://images.anandtech.com/graphs/graph9390/75469.png
http://images.anandtech.com/graphs/graph9390/75471.png
http://images.anandtech.com/graphs/graph9390/75474.png
http://images.anandtech.com/graphs/graph9390/75486.png
http://images.anandtech.com/graphs/graph9390/75487.png
http://images.anandtech.com/graphs/graph9390/75488.png
http://images.anandtech.com/graphs/graph9390/75490.png
http://images.anandtech.com/graphs/graph9390/75492.png
http://images.anandtech.com/graphs/graph9390/75496.png

Certo ce ne sono pure di più dove la fury x sta dietro alla titan x e alla 980ti, ma direi che c'è abbastanza materiale per porci qualche dubbio.

fraussantin
06-07-2015, 14:57
non è solo per un discorso di vendite, ma il fatto che sono presenti sulle console si ribalta poi sul mercato PC, win 10 e DX12...

si, gli OEM, come se non fossero foraggiati... ma daiii!!!

Gli oem sono foraggiati , ma vendono anche amd.

Anzi mi pare ci siano esclusivisti amd ..

Il problema è che se non fai un buon prodotto , ad un buon prezzo non arrivi da nessuna parte.
Amd ha costi inferiori rispetto ad intel e nvidia , solamente pubblicita e supporto developer ... Ma lo devi sfruttare per abbassare i prezzi

bobafetthotmail
06-07-2015, 15:03
Comunque, per spezzare un pò la monotonia delle solite diatribe, ma secondo voi la CEO di AMD non sembra un pò un uomo vestito da donna?

No, così per dire.

Facevo il parallelo con quella che ha lasciato la carica da CEO di Intel, che sembra TANTO un uomo vestito da donna.

Che magari voglia dire qualcosa?

:fagiano:

Sflao
06-07-2015, 15:04
Certo ce ne sono pure di più dove la fury x sta dietro alla titan x e alla 980ti, ma direi che c'è abbastanza materiale per porci qualche dubbio.
beh in effetti si... xchè in quella review ci sono 6 giochi dove la 980ti in UHD è sopra, e solo 3 giochi (quelli che hai indicato tu) dove è sopra la fury x.

DjLode
06-07-2015, 15:18
Comunque, per spezzare un pò la monotonia delle solite diatribe, ma secondo voi la CEO di AMD non sembra un pò un uomo vestito da donna?


Sembra Jackie Chan con gli occhiali :D

AceGranger
06-07-2015, 15:23
non è solo per un discorso di vendite, ma il fatto che sono presenti sulle console si ribalta poi sul mercato PC, win 10 e DX12...

si, gli OEM, come se non fossero foraggiati... ma daiii!!!

quindi se Apple prende GPU Amd è perchè sono fighissime, se Dell prende GPU nVidia è foraggiata :rolleyes:.

e si, si è visto come si è ribaltato sul mondo PC.... AMD è al suo minimo e la pacchia del lancio delle console è finita;

nVidia è al suo massimo, in un mercato cosi in picchiata che nel penultimo trimestre ha segnato un record di fatturato ( dove ha fatturato piu di tutta AMD assieme ) con un + 9% rispetto ad un anno fa e nell'ultimo un +4% rispetto ad un anno fa.
http://www.tomshw.it/news/nvidia-risultati-da-record-dalla-vendita-di-chip-grafici-64191
http://www.businessmagazine.it/news/nvidia-primo-trimestre-superiore-alle-previsioni_57176.html

fra l'altro, fossi in AMD, non andrei a sbandierare cosi tanto ai 4 venti, che sulla "new Gen" che manco regge il FHD ci sono sue APU :sofico: ...

LkMsWb
06-07-2015, 15:56
fra l'altro, fossi in AMD, non andrei a sbandierare cosi tanto ai 4 venti, che sulla "new Gen" che manco regge il FHD ci sono sue APU :sofico: ...

Giustamente, con i prezzi che hanno, un Tegra o un iX con GPU integrata si sarebbero sicuramente comportati meglio delle APU AMD...

Ho una cpu Intel e una GPU nVidia, ma proprio non capisco perché molti provino gusto a sparare a zero su QUALSIASI prodotto AMD, anzi, a volte ci sono scene da avvoltoi, si aspetta l'uscita e se il prodotto ha anche MEZZA falla giù a caricare... a volte con questioni trite e ritrite. Onestamente se si riprendesse io sarei molto contento, i prezzi dei componenti PC fra mancata concorrenza, euro debole e calo della domanda si stanno alzando notevolmente da qualche anno a questa parte.

AceGranger
06-07-2015, 16:09
Giustamente, con i prezzi che hanno, un Tegra o un iX con GPU integrata si sarebbero sicuramente comportati meglio delle APU AMD...

Ho una cpu Intel e una GPU nVidia, ma proprio non capisco perché molti provino gusto a sparare a zero su QUALSIASI prodotto AMD, anzi, a volte ci sono scene da avvoltoi, si aspetta l'uscita e se il prodotto ha anche MEZZA falla giù a caricare... a volte con questioni trite e ritrite. Onestamente se si riprendesse io sarei molto contento, i prezzi dei componenti PC fra mancata concorrenza, euro debole e calo della domanda si stanno alzando notevolmente da qualche anno a questa parte.

:mbe: mica ho detto che è colpa di AMD; le console sono di Sony e Microsoft quindi al massimo la colpa è loro ma, visto che la situazione è quella, indipendentemente dal per chi,come e perchè, per me non è comuqnue una bella pubblicita dire "ah le console montano una nostra GPU" quando non vanno nulla...

batou83
06-07-2015, 16:49
Che schifo la apu della ps4, fa girare Project Cars soltanto a 50 fps in FHD... :ciapet:

AceGranger
06-07-2015, 16:55
come al solito parti in quarta, trai conclusioni affrettate sugli altri e pensi di essere un tuttologo.
ma chi ha detto che sono "fighissime" o migliori della concorrenza, ma scommetto che a te ti girano perché non montato una nvidia :asd:


come no



che c'entra che non reggono il FHD a 60 fps mica ha deciso amd di infilarci 768sp nella One e 1152sp nella PS4, e poi manco alcune gpu "recenti" lo fanno, dipende da cosa ci monti ed il target TDP/prezzo che vuoi ottenere.

le scatolette consumano 120~140 watt in game per tutto il sistema, la PS4 in FHD a 30fps nella prima versione segna 142w in game e nella revisione 120w sempre a 28nm! ... il tutto per 400€

dai tuttologo, rispondi a questo...


mi pare di aver gia risposto al post sopra, non frega una fava cosa consumano, quanto costano e di chi sono, la realta è che non reggono manco il FHD, e dire che "quelle cose montano la mia GPU" non è sta gran pubblicita in campo grafico ;).

cdimauro
06-07-2015, 17:25
Se premiassero l'innovazione AMD sarebbe l'azienda con più fatturato nell'ambito informatico... dopo IBM.
E altre aziende che sono tra le più quotate fallirebbero.
Non ho scritto che gli altri non fanno niente, ho scritto che alcuni fanno poco si, non tutti.
AMD però ci ha dato AMD64 e Mantle negli ultimi anni che sono stati veramente una bomba nel mondo pc.
Quindi con un paio di prodotti citati, di cui il secondo è scarsamente diffuso, metteresti AMD dopo IBM?

Comunque perché non citi esplicitamente le aziende che fanno così poco, e che sarebbero da mettere dopo IBM e AMD? Magari con un elenco di innovazioni, in modo da valutare se le tue affermazioni abbiano fondamento.

cdimauro
06-07-2015, 17:33
io spero vivamente che amd si svegli , e crei finalmente una vera concorrenza, perche intel sta monopolizzando in maniera "schifosa" il mercato .
Per curiosità, cosa ti farebbe schifo?

bobafetthotmail
06-07-2015, 17:49
Per curiosità, cosa ti farebbe schifo?la monopolizzazione del mercato da parte di Intel.

Basta rigirare la frase.

ilario3
06-07-2015, 18:06
Il mio primo PC fu un 486 dx2 a 66mhz, costo, 3 milioni di lire nel 94, poi uscì il pentium credo nel 95

PaulGuru
06-07-2015, 18:17
per questo appena annunciano un prodotto su Tegra le quote nvidia schizzano in alto ma dopo qualche mese fa il flop?

amd ha un problema serio, il marketing ormai sempre più ridicolo, il fatto di essere scesa in quei settori è proprio dove vogliono recuperare e dovuti al flop bulldozer in ambito server! :doh:

fai sempre gli esempi più insensati
Conosci solo Tegra ?
Le Tesla e le Quadro ?
PC in fase calante ? Si i preassemblati da supermercato ( che spero che falliscano definitivamente ) ma Nvidia vende schede discrete retail.
In più non sò te ma su notebook io faccia una faticaccia ogni volta a trovare qualcosa con AMD.


Ma a parte questo .... dopo tutto sto discorso sui numeri fatti da ALTRE persone, a noi che cosa frega ???
Nvidia e Intel offrono i prodotti migliori, cosa me ne frega quanto hanno venduto ?
Piuttosto che si diano una mossa con sto Zen e la smettano di fare proclami come al solito ( che poi sappiamo come vanno a finire, questi ultimi 10 anni insegnano ).

PaulGuru
06-07-2015, 18:24
Che schifo la apu della ps4, fa girare Project Cars soltanto a 50 fps in FHD... :ciapet:
dimentichi di dire che PCars è un titolo molto leggero e su PS4 è addirittura scalato a dettagli medi. :rolleyes:

marchigiano
06-07-2015, 18:36
mentre quelle nVidia solo nel mercato PC che è in picchiata, il Tegra non se l'è ca*ato nessuno se non lo sapessi...

per quanto in picchiata è sempre una roba enorme, inoltre stanno sparendo i desktop da poco perchè sostituibili da notebook netbook e 2in1 ma chi ha bisogno di tanta potenza sarà sempre obbligato a passare su desktop o, al limite, notebook di grandi dimensioni, questi ultimi al 99% sono nvidia anche grazie a optimus che disabilita la scheda quando non serve

DesertNet
06-07-2015, 19:01
Quindi con un paio di prodotti citati, di cui il secondo è scarsamente diffuso, metteresti AMD dopo IBM?

Eh si poco diffusa, intanto tutte le API grafiche sono cambiate seguendo Mantle.

Comunque perché non citi esplicitamente le aziende che fanno così poco, e che sarebbero da mettere dopo IBM e AMD? Magari con un elenco di innovazioni, in modo da valutare se le tue affermazioni abbiano fondamento.

"don't feed the troll" :asd:
Non mi frega assolutamente nulla se tu pensi che le mie affermazioni siano senza fondamento :rotfl:

AceGranger
06-07-2015, 19:11
Eh si poco diffusa, intanto tutte le API grafiche sono cambiate seguendo Mantle.


o è semplicemente stata per una volta piu furba e le ha fatte uscire prima visto che sapeva benissimo che le DX sarebbero uscite "in ritardo" contando che si doveva aspettare il nuovo windows....

cdimauro
06-07-2015, 19:18
Eh si poco diffusa, intanto tutte le API grafiche sono cambiate seguendo Mantle.
Questo è un discorso diverso. E' o non è poco diffusa?
"don't feed the troll" :asd:
Non mi frega assolutamente nulla se tu pensi che le mie affermazioni siano senza fondamento :rotfl:
Troll è chi riversa nei forum le proprie fantasie, senza uno straccio di prova a supporto, giusto per flammare.

Vul
06-07-2015, 19:34
Secondo me AMD è molto competitiva nella fascia di vga sotto i 350 euro.

Ma la gente non gliene da credito e si compra comunque Nvidia perchè C?HA LHAIRWORKS.

Ma nel settore cpu arrancano troppo.

Io penso una cosa semplice:

-o puntano [solo] sulle apu ma le fanno ancora più valide in ambito pc

-o puntano su sistemi a basso consumo ma da buone prestazioni. Secondo me fra steambox, pc mini da attaccare al tv, ecc, ce ne sono di ambiti dove amd potrebbe dare la sua, ma si limita a essere mediocre in tutto

-in ambito vga devono investire sul software. amd fa cpu più veloci che vanno puntualmente meno. ed è ovvio visto che amd non ha integrato nemmeno il supporto multi core nativo delle dx 11 (e grazie che poi mantle vola rispetto a dx11).

DesertNet
06-07-2015, 19:36
Questo è un discorso diverso. E' o non è poco diffusa?

No il tuo è un discorso diverso, continualo pure ma non confonderlo con il mio.
Io parlavo di innovazione tecnologica tu parli del successo di un prodotto tecnologico.

Cioè io sto dicendo che Volta ha invetato la pila, tu stai dicendo che ne ha vendute poche, fondamentalmente non hai assolutamente capito cosa sto dicendo insomma. :asd:

Troll è chi riversa nei forum le proprie fantasie, senza uno straccio di prova a supporto, giusto per flammare.

Io ho detto la mia, non ho flammato in nessun modo.
Se vuoi farlo tu fai pure, spero che qualcuno prenda provvedimenti.

cdimauro
06-07-2015, 19:55
No il tuo è un discorso diverso, continualo pure ma non confonderlo con il mio.
Io parlavo di innovazione tecnologica tu parli del successo di un prodotto tecnologico.

Cioè io sto dicendo che Volta ha invetato la pila, tu stai dicendo che ne ha vendute poche, fondamentalmente non hai assolutamente capito cosa sto dicendo insomma. :asd:
E' un discorso che fa il paio con l'HSA. Finché la tecnologia non si diffonde, può essere bella quanto vuoi, ma non ha valore:

"C'è vero progresso solo quando i vantaggi di una nuova tecnologia diventano per tutti" - Henry Ford
Io ho detto la mia, non ho flammato in nessun modo.
Se vuoi farlo tu fai pure, spero che qualcuno prenda provvedimenti.
La mia risposta era relativa al TUO commento #63 (http://www.hwupgrade.it/forum/showpost.php?p=42646862&postcount=63), dove TU eri già partito per la tangente.

Per il resto, le affermazioni che hai fatto rimangono pura fantasia, non supportata da alcun dato.

Talk is cheap...

DesertNet
06-07-2015, 20:18
o è semplicemente stata per una volta piu furba e le ha fatte uscire prima visto che sapeva benissimo che le DX sarebbero uscite "in ritardo" contando che si doveva aspettare il nuovo windows....

No dai questo non è vero, si è iniziato a parlare di Mantle ben prima che chiunque altro parlasse di API a basso livello per migliorare le prestazioni.

AceGranger
06-07-2015, 20:24
No dai questo non è vero, si è iniziato a parlare di Mantle ben prima che chiunque altro parlasse di API a basso livello per migliorare le prestazioni.

si ma AMD è dentro lo sviluppo delle DX... AMD, nVidia sanno con molto, molto tempo in anticipo cosa ci sara nelle DX visto che sono pure loro che lo decidono.

AMD ha presentato Mantle a Settembre 2013, a Marzo 2014 Microsoft gia parlava ufficialmente di DX 12...

dai su, AMD sapeva benissimo cosa avrebbero portato le DX 12 e bene o male sapeva anche quando sarebbero uscite, è stata furba ad aprofittare del buco temporale dato da dall'uscita del nuovo Win.

DesertNet
06-07-2015, 20:35
si ma AMD è dentro lo sviluppo delle DX... AMD, nVidia sanno con molto, molto tempo in anticipo cosa ci sara nelle DX visto che sono pure loro che lo decidono.

Ci sono state molte dichiarazioni sia dall'una che dall'altra parte.
AMD ha sviluppato Mantle perchè da parte di Microsoft non c'era nulla del genere in arrivo e ad AMD servivano delle API a basso livello di quel tipo.
Poi Microsoft a messo in cantiere le dx12 e AMD stessa ha spostato l'attenzione da Mantle a Dx12 (ovviamente perchè le dx12 avranno maggior attenzione)

Poi il fatto che AMD sia dentro lo sviluppo di sia di DX12, di Mantle che di Vulkan mi sembra chiarisca abbastanza da chi è arrivata la spinta "API a basso livello"

PaulGuru
06-07-2015, 21:46
Secondo me AMD è molto competitiva nella fascia di vga sotto i 350 euro.

Ma la gente non gliene da credito e si compra comunque Nvidia perchè C?HA LHAIRWORKS.

Ma nel settore cpu arrancano troppo.

Io penso una cosa semplice:

-o puntano [solo] sulle apu ma le fanno ancora più valide in ambito pc

-o puntano su sistemi a basso consumo ma da buone prestazioni. Secondo me fra steambox, pc mini da attaccare al tv, ecc, ce ne sono di ambiti dove amd potrebbe dare la sua, ma si limita a essere mediocre in tutto

-in ambito vga devono investire sul software. amd fa cpu più veloci che vanno puntualmente meno. ed è ovvio visto che amd non ha integrato nemmeno il supporto multi core nativo delle dx 11 (e grazie che poi mantle vola rispetto a dx11).
La pubblicità e l'immagine del marchio la fanno i modelli di punta, se puntano sempre al prezzo / prestazioni stanno freschi.

La gente compra Nvidia perchè ha l'hairworks ? ...... :rolleyes:

CrapaDiLegno
06-07-2015, 21:49
Il primo e l'ultimo post, come rappresentativi di tutto il thread.

"Con un certo orgoglio ricorda che attualmente i processori grafici di AMD sono utilizzati nelle console Microsoft Xbox One, Sony PlayStation 4 e Nintendo Wii U, così come nei MacPro, MacBook e iMac. Un messaggio ai presenti per dire che la "guerra" con NVIDIA non passa certo per un prodotto solo come può essere la top di gamma del momento, ma è fatta di molte battaglie nelle quali AMD esce vincitrice a piene mani."

si ma non ditelo agli haters :asd:
Certo, perché aver svenduto il proprio prodotto equivale ad avere il prodotto migliore in campo ed uscire vincitori. Come se Apple fosse il marchio che più ci tiene alla usabilità dei propri prodotti... ecco perché ha disegnato l'ultimo MacPro in quella maniera... schede professionali con ben, dico ben 2GB di RAM. Produttività a gogo.
Certo, poi le APU nelle console, non parliamo di quale successo tecnologico e sopratutto economico ottenuto da AMD... tecnicamente sono cose da old gen che non reggono neanche il full HD a frame rate decenti se non taglindo metà degli oggetti nella scena e tutti i filtri (se non hai ROPs puoi così sventolare che hai questo o quello, non hai abbastanza potenza per pompare i pixel, punto); economicamente si vede come AMD abbia avuto tutto questo potere di piazzare un prodotto tecnicamente superiore alle altre alternative (che potevano semplicemente essere un i3+una qualsiasi GPU nvida del tempo che dava la biada a questi cosi, certamente costando poco di più): tanto potere che pur vendendone milioni ogni trimestre non ci fa un dollaro di guadagno. Magari faceva davvero prima a svendere il reparto semi-custom a MS: ci avrebbe guadagnato di più in un sol colpo.

Ci sono state molte dichiarazioni sia dall'una che dall'altra parte.
AMD ha sviluppato Mantle perchè da parte di Microsoft non c'era nulla del genere in arrivo e ad AMD servivano delle API a basso livello di quel tipo.
Poi Microsoft a messo in cantiere le dx12 e AMD stessa ha spostato l'attenzione da Mantle a Dx12 (ovviamente perchè le dx12 avranno maggior attenzione)

Poi il fatto che AMD sia dentro lo sviluppo di sia di DX12, di Mantle che di Vulkan mi sembra chiarisca abbastanza da chi è arrivata la spinta "API a basso livello"
Ahaaah.. certo certo. MS ha iniziato lo sviluppo delle DX12 dopo che ha visto Mantle. Certo, certo. Dal 2010, quando ha rilasciato le DX11 al 2014 non ha fatto nulla. Non ha contattato i soliti partner, tra cui AMD e nvidia, per discutere sul da farsi. Non le è mai interessato avere delle API che unissero le capacità della sua console (che già usa DX con funzioni di basso livello) a quelle del PC. Non ha alcun interesse a spingere le DX12 che unificano lo sviluppo console/PC/mobile sui suoi dispositivi. No no, è stata AMD a suggerirgli la cosa con Mantle.
Mantle che, fanboy a parte, tutti hanno subito riconosciuto come fuoco di paglia che non sarebbe durato: ma siamo matti, noi che non abbiamo le fette di salame rosso sugli occhi? Mantle è nata per dominare il mercato dei videogiochi: dopo il proprio HW su tutte le console, ecco che AMD impone la sua API a tutti.. certo certo... Non è valso portare a conoscenza degli invasat.. ermm.. interessati che MS non aveva alcuna intenzione né vantaggi ad usare Manlte per la XBox One, e tanto meno Sony che API e middleware se li è sempre fatti in casa da quando è nel mercato console.
Mantle come dominatore del mondo videoludico, perché l'unico in grado di sfruttare le enormi capacità nascoste dell'architettura GCN. Infatti con DX12 i test sintetici riportano praticamente gli stessi numeri. API ancora in via di sviluppo mentre DICE (compagnia esterna a AMD, guarda caso un'altra volta roba fatta fare a terzi) la realizzava per conto di AMD. Dopo un anno, perenne beta mal funzionante.
Sarà anche per questo che è stata lanciata prima delle DX12 di cui si parla da molto ma di cui non c'è traccia di nulla fatto e nulla si farà se non dopo la versione finale definitiva (altro che beta mal funzionanti spacciati per mezzi miracoli dell'innovazione).

AMD innovatrice? Qui magari qualcuno si arrabbierà, ma io la vedo così...
Ringraziamo lei se ancora abbiamo a che fare con l'architettura X86... che piaga. Una volta nella storia in cui Intel voleva girare pagina e investire in qualcosa di più moderno e no, arriva la mendecatta del mercato che piuttosto che farselo scappare (effettivamente sarebbe stato il KO per AMD) ci propina la sua soluzione di estensione low cost (anzi, proprio low costissima.. neanche lo sforzo di finalmente dotare la CPU di un numero di registri decente) che non permette di certo un investimento come quello che Intel stava per compiere.

Le APU sono una bella innovazione? Boh, sinceramente è da quando sono state presentate che le vedo come dei fuori strada con motore 750cc. Sono dei sistemi che non sono potenti per far nulla di serio né parsimoniosi per essere usati in sistemi portatili. Tanto si denigra la grafica di Intel, ma questa anche se arriva un anno dopo rispetto alle prestazioni di AMD, ci arriva con metà dei consumi. E se AMD un anno prima andava bene (anzi no, era la soluzione ideale) non si capisce perché la soluzione di Intel non debba andare altrettanto bene qualche mese dopo su PC che poi sono destinati al 90% al mondo business.

Il SoC tegra di nvidia fa schifo? Boh, diciamo che certamente non è un SoC da telefonino di certo. Però classificarlo una schifezza ne corre. Per intanto trova il suo spazio nel settore automotive (che di certo non è secondario anche se qui si pensa che o fai componenti per PC consumer o sei una nullità nel mondo informatico). E ha aperto la strada ad ARM sui portatili low cost come i Chrome Book. Di certo è qualcosa in più che l'azienda ha e può sviluppare che invece AMD non ha. Vedremo con la sua architettura K12 quest'ultima cosa ci proporrà.

Infine questione profittabilità nei mercati che rendono di più... lì rende di più perché il mercato premia le soluzioni migliori. Non vale una ceppa il rapporto prezzo/prestazioni. Se AMD vuole competere in quel campo e fare veramente soldi, meglio che si dia una mossa a creare anche i prodotti che vanno meglio e a supportarli come si deve (che è più importante di 5 FPS in più in Catia/SolidWorks/Autocad). Altrimenti rimarrà sempre seconda (una volta contro Intel, un'altra contro nvidia) e in un mercato a 2 , secondi vuol dire anche ultimi. E lì di margine non ne hai molto.

bobafetthotmail
06-07-2015, 21:53
questi ultimi al 99% sono nvidia anche grazie a optimus che disabilita la scheda quando non serveANche AMD ha un sistema simile comunque.

Solo che i portatili full-AMD sono rarissimi.

E' un discorso che fa il paio con l'HSA. Finché la tecnologia non si diffonde, può essere bella quanto vuoi, ma non ha valore:Cosa significa Io parlavo di innovazione tecnologica tu parli del successo di un prodotto tecnologico. secondo te?

Troll è chi riversa nei forum le proprie fantasie, senza uno straccio di prova a supporto, giusto per flammare.No, quello è un fanboy. Riguardati le definizioni valà.

Un troll è un agitatore, uno che compie azioni volte al causare reazioni emotive in chi lo guuarda/ascolta.
In parole semplici, un gatto attaccato ai cosiddetti.

Ad esempio, si può trollare benissimo anche con artifici retorici e facendo finta di non capire le argomentazioni altrui, ripetendo all'infinito le proprie.

SPesso comunque le categorie di troll e fanboy sono interpretate dalla stessa persona, ma un troll è una figura più generica e complessa da combattere, specialmente se il forum non ha regole particolari per punire le tattiche standard di un troll.

AMD innovatrice? Ringraziamo lei se ancora abbiamo a che fare con l'architettura X86... che piaga. Una volta nella storia in cui Intel voleva girare pagina e investire in qualcosa di più modernoUhhh.... Itanium? Non me lo ricordo con così tanto piacere... mi sembrava la tipica soluzione da overengineering con costi assurdi.

che non permette di certo un investimento come quello che Intel stava per compiere.Una compagnia può investire parecchio anche in tecnologie che poi si rivelano delle sole paurose comunque.
Cosa aveva di bello Itanium?
Visto che ti piace ne approfitto per togliermi qualche curiosità, se permetti.

tuttodigitale
06-07-2015, 22:05
mi pare di aver gia risposto al post sopra, non frega una fava cosa consumano, quanto costano e di chi sono, la realta è che non reggono manco il FHD, e dire che "quelle cose montano la mia GPU" non è sta gran pubblicita in campo grafico ;).
Giochi multipiattaforma tripla A della passata generazione non giravano neppure a 1280x720. Sono console con tutti i pregi e i limiti che li caratterizzano. Converrai che AMD era l'unico produttore in grado di fornire cpu e gpu di un certo livello.

NickNaylor
06-07-2015, 22:50
Speriamo Zen funzioni, sarebbe l'ora! Ho comprato un bel po' di azioni AMD prima che uscisse il Phenom, credendo che rifacesse una cpu di successo come fu per l'Athlon e invece... :doh:

porco zio, ne ho appena prese un po' anch'io a 2.32 ed ero bello sereno, ho appena visto l'after market ed è da infarto :O -15%

calabar
06-07-2015, 22:55
E' un discorso che fa il paio con l'HSA. Finché la tecnologia non si diffonde, può essere bella quanto vuoi, ma non ha valore:
Ma in questo caso ha perfettamente ragione lui, dato che non importa quanto la tecnologia in se si sia diffusa, ma i benefici generali che questa ha portato.
Se Mantle ha portato allo sviluppo di API a più basso livello capaci di risolvere alcuni degli annosi problemi che sia DirectX che OpenGL si trascinavano da parecchio tempo, allora direi che rientra perfettamente in quel discorso in cui queste API erano state citate.

dai su, AMD sapeva benissimo cosa avrebbero portato le DX 12 e bene o male sapeva anche quando sarebbero uscite, è stata furba ad aprofittare del buco temporale dato da dall'uscita del nuovo Win.
Di questo si è già discusso ampiamente e, francamente, l'ipotesi che AMD abbia realizzato e fatto uscire Mantle prima di Microsoft continua ad essere del tutto inverosimile.
O hai già dimenticato che Microsoft ha dichiarato che le DX11 erano già lo stato dell'arte e che ci sarebbero stati per i successivi anni solo degli aggiornamenti limitati?
Mi pare chiaro che le intenzioni di Microsoft erano ben differenti, e che visti i benefici di Mantle (benefici che potevano vedersi soprattutto nei porting da consolle, al cui tipo di programmazione Mantle si ispira) Microsoft corsa ai ripari (o pensi che in Microsoft non sapessero di Mantle ben prima della presentazione? Magari AMD aveva già cercato di portare questo approccio su PC ma, visto l'andazzo, aveva deciso di forzare le cose facendo uscire una propria tecnologia), e per quanto riguarda Vulkan sappiamo bene che è sviluppato in collaborazione con AMD sulla base di Mantle.

tuttodigitale
06-07-2015, 23:02
si ma AMD è dentro lo sviluppo delle DX... AMD, nVidia sanno con molto, molto tempo in anticipo cosa ci sara nelle DX visto che sono pure loro che lo decidono.

AMD ha presentato Mantle a Settembre 2013, a Marzo 2014 Microsoft gia parlava ufficialmente di DX 12...

ancora con queste baggianate. Lo sanno tutti che dx12 richiede le stesse feature richieste per le future dx11.3, addirittura possono funzionare anche con schede di 5 anni fa. Queste erano le uniche api previste, punto.
Ufficialmente Vulkan è Mantle in versione opensource. Ufficiosamente AMD ha lavorato per la stesura di opengl per ps4 e lo adattato per Mantle.
Hai detto bene...a Marzo 2014 delle dx12 esistevano solo le slide.

AceGranger
06-07-2015, 23:03
...cut
Mi pare chiaro che le intenzioni di Microsoft erano ben differenti, e che visti i benefici di Mantle (benefici che potevano vedersi soprattutto nei porting da consolle, al cui tipo di programmazione Mantle si ispira) Microsoft corsa ai ripari (o pensi che in Microsoft non sapessero di Mantle ben prima della presentazione? Magari AMD aveva già cercato di portare questo approccio su PC ma, visto l'andazzo... cut

penso che quando si parla di AMD, nVidia, Intel e Microsoft, nel bene e nel male, tutti sappiano tutto di tutto non appena qualcuno pensa qualche cosa anche solo alla lontana.

cdimauro
06-07-2015, 23:10
Ma in questo caso ha perfettamente ragione lui, dato che non importa quanto la tecnologia in se si sia diffusa, ma i benefici generali che questa ha portato.
Se Mantle ha portato allo sviluppo di API a più basso livello capaci di risolvere alcuni degli annosi problemi che sia DirectX che OpenGL si trascinavano da parecchio tempo, allora direi che rientra perfettamente in quel discorso in cui queste API erano state citate.
SE questo fosse vero, i benefici non sono stati comunque di Mantle, ma di un'altra tecnologia con caratteristiche similari. Ma senz'altro si potrebbe dire che Mantle avrebbe sbloccato una situazione di stagnazione.

Rimane il fatto che Mantle, da sola e per com'è stata realizzata, non aveva futuro. Quando sviluppi una nuova tecnologia, dovresti anche pensare al modo in cui farla adottare. Da questo punto di vista AMD ha sicuramente sbagliato, basando Mantle sulle sue GCN, e rilasciando la documentazione soltanto quando l'ha presentata, non dando quindi il tempo alla concorrenza di fornire delle proprie soluzioni basate su di essa. Pensi che tutto ciò abbia fatto piacere ai competitor e che li abbia invogliati ad adottare Mantle?
Di questo si è già discusso ampiamente e, francamente, l'ipotesi che AMD abbia realizzato e fatto uscire Mantle prima di Microsoft continua ad essere del tutto inverosimile.
O hai già dimenticato che Microsoft ha dichiarato che le DX11 erano già lo stato dell'arte e che ci sarebbero stati per i successivi anni solo degli aggiornamenti limitati?
Mi pare chiaro che le intenzioni di Microsoft erano ben differenti, e che visti i benefici di Mantle (benefici che potevano vedersi soprattutto nei porting da consolle, al cui tipo di programmazione Mantle si ispira) Microsoft corsa ai ripari (o pensi che in Microsoft non sapessero di Mantle ben prima della presentazione? Magari AMD aveva già cercato di portare questo approccio su PC ma, visto l'andazzo, aveva deciso di forzare le cose facendo uscire una propria tecnologia), e per quanto riguarda Vulkan sappiamo bene che è sviluppato in collaborazione con AMD sulla base di Mantle.
Permettimi: se Mantle fosse basata sul tipo di programmazione in uso alle console, allora non avrebbe alcun senso che le DirectX12 siano portate anche sulle console, perché il guadagno dovrebbe essere pressoché nullo...

LMCH
06-07-2015, 23:13
io spero vivamente che amd si svegli , e crei finalmente una vera concorrenza, perche intel sta monopolizzando in maniera "schifosa" il mercato .

AMD era data per spacciata poco prima di uscire con K7 prima e fare il bis con K8 poi arrivando a "dettare la nuova architettura a 64bit ad Intel".

Il motivo era che Intel pensava di aver ormai vinto su tutta la linea, di essere inattaccabile e si stava concentrando troppo sullo sviluppo e lancio di Itanium (che nelle sue intenzioni doveva diventare l'architettura a 64bit che avrebeb dilagato sui server e poi preso il posto di x86).

Ora Intel si sta concentrando troppo nel fare la guerra agli ARM, preferisce abbassare i consumi che crescere di prestazioni ... diciamo che con i dovuti distinguo viene un certo Deja Vu. :D

Ma le condizioni sono totalmente diversi ed Intel ha un serio vantaggio a livello di processi produttivi con cui a meno di idiozie apocalittiche può fare quello che vuole. :(

tuttodigitale
06-07-2015, 23:16
Le APU sono una bella innovazione? Boh, sinceramente è da quando sono state presentate che le vedo come dei fuori strada con motore 750cc. Sono dei sistemi che non sono potenti per far nulla di serio né parsimoniosi per essere usati in sistemi portatili. Tanto si denigra la grafica di Intel, ma questa anche se arriva un anno dopo rispetto alle prestazioni di AMD, ci arriva con metà dei consumi. E se AMD un anno prima andava bene (anzi no, era la soluzione ideale) non si capisce perché la soluzione di Intel non debba andare altrettanto bene qualche mese do
già solo il fatto che stai paragonando apu con PP molto diverse tra loro, la dice lunga sulla superiorità tecnologica di AMD in ambito gpu (a 14nm avremmo 1536sp o persino di più), e poi lo sappiamo quanto sia limitata dal bandwidth della memoria.
Comunque non hai mai visto il grafico del frame time delle gpu Intel vero?


Il SoC tegra di nvidia fa schifo? Boh, diciamo che certamente non è un SoC da telefonino di certo. Però classificarlo una schifezza ne corre. Per intanto trova il suo spazio nel settore automotive (che di certo non è secondario anche se qui si pensa che o fai componenti per PC consumer o sei una nullità nel mondo informatico). E ha aperto la strada ad ARM sui portatili low cost come i Chrome Book. Di certo è qualcosa in più che l'azienda ha e può sviluppare che invece AMD non ha. Vedremo con la sua architettura K12 quest'ultima cosa ci proporrà.
Scusami cosa ti fa pensare che k12 sia un processorino da smartphone, quando ci sono tutti gli indizi che fanno pensare che sia LA cpu ad alte prestazioni di AMD. E comunque con Tegra, nvidia di suo ha messo solo la grafica.

Dinofly
06-07-2015, 23:17
Più che altro è necessario dividere la società in Processori e Grafica, mantenendo una partecipazione incrociata per consolidare le APU.
I processori rischiano di portarsi dietro tutta la baracca se AMD non sarà in grado di mantenere flussi finanziari stabili verso le GPU.

Lato cpu ZEN è l'ultima possibilità.

calabar
06-07-2015, 23:21
Rimane il fatto che Mantle, da sola e per com'è stata realizzata, non aveva futuro. Quando sviluppi una nuova tecnologia, dovresti anche pensare al modo in cui farla adottare. Da questo punto di vista AMD ha sicuramente sbagliato, ...
Ma cambiando il punto di vista, noterai che non ha sbagliato affatto. ;)
Secondo me AMD non ha mai pensato che Mantle si sarebbe davvero diffuso (Nvidia non l'avrebbe mai adottato, anche se AMD avesse rilasciato tutto e da subito), ma ha pensato che tirandolo fuori gli altri competitor avrebbero capito l'andazzo e si sarebbero mossi in quella direzione.
E direi che così è stato.

Permettimi: se Mantle fosse basata sul tipo di programmazione in uso alle console ...
Guarda che non sono io a dirlo, ma AMD, e in maniera abbastanza esplicita.
(non chiedermi di cercare la dichiarazione, sono sicuro che la troverai facilmente cercando in rete, se non ti fidi).

Ad ogni modo le DX12 non sono solo draw call a manetta e migliore gestione del carico su più core (cosa che le consolle hanno già da tempo), per cui la loro adozione ha perfettamente senso anche sulle consolle.

tuttodigitale
06-07-2015, 23:26
Permettimi: se Mantle fosse basata sul tipo di programmazione in uso alle console, allora non avrebbe alcun senso che le DirectX12 siano portate anche sulle console, perché il guadagno dovrebbe essere pressoché nullo...
infatti sulle console, il guadagno sarà prossimo allo zero, a meno di ottimizzazioni specifiche per il soc di xbox.

Max_R
06-07-2015, 23:27
Certo, poi le APU nelle console, non parliamo di quale successo tecnologico e sopratutto economico ottenuto da AMD... tecnicamente sono cose da old gen che non reggono neanche il full HD a frame rate decenti se non taglindo metà degli oggetti nella scena e tutti i filtri (se non hai ROPs puoi così sventolare che hai questo o quello, non hai abbastanza potenza per pompare i pixel, punto); economicamente si vede come AMD abbia avuto tutto questo potere di piazzare un prodotto tecnicamente superiore alle altre alternative (che potevano semplicemente essere un i3+una qualsiasi GPU nvida del tempo che dava la biada a questi cosi, certamente costando poco di più): tanto potere che pur vendendone milioni ogni trimestre non ci fa un dollaro di guadagno. Magari faceva davvero prima a svendere il reparto semi-custom a MS: ci avrebbe guadagnato di più in un sol colpo.
Eh da che mondo è mondo queste sono le console e dirò di più: molti utenti preferiscono la più prestante ed agli utenti console non frega molto il paragone con il pc. Ovviamente tu hai tirati fuori l'uovo di colombo: mettete un i3 ed una NVidia (ovvio, per forza) ed ecco delle console realmente prestanti. Peccato che con i costi, consumi e spazi non ci si sarebbe rientrati. Ma scrivete pure le vostre idee a Microsoft ed a Sony. Non si sa mai che vi prendano.

cdimauro
07-07-2015, 06:24
Il motivo era che Intel pensava di aver ormai vinto su tutta la linea, di essere inattaccabile e si stava concentrando troppo sullo sviluppo e lancio di Itanium (che nelle sue intenzioni doveva diventare l'architettura a 64bit che avrebeb dilagato sui server e poi preso il posto di x86).
Posso anche sbagliarmi, ma la mia personalissima opinione è che la sicurezza di Intel era dovuta al fatto che Itanium/EPIC era un'architettura "blindata", che non avrebbe ceduto a nessuno della concorrenza.

Poi sappiamo come sia andata a finire.
Ora Intel si sta concentrando troppo nel fare la guerra agli ARM, preferisce abbassare i consumi che crescere di prestazioni ... diciamo che con i dovuti distinguo viene un certo Deja Vu. :D
Beh, se le dimensioni del chip rimangono all'incirca le stesse pur cambiando processo produttivo, vuol dire che il suo lavoro lo sta facendo per rafforzare le prestazioni.

Il problema che da parecchi anni affligge le prestazioni è che purtroppo la scalata in frequenza è sostanzialmente finita (almeno con questi materiali), ed era questo che contribuiva non poco alle prestazioni.

A ciò uniamo il fatto che non è possibile estrarre IPC a josa da una pipeline, ma si è severamente limitati dalla conformazione del codice (mix di istruzioni necessarie per implementare un determinato algoritmo), e il gioco è fatto.

Certamente Intel tiene moltissimo anche ai consumi da un po' di anni, però non manca certo di produrre chip che consuma molto.
Ma le condizioni sono totalmente diversi ed Intel ha un serio vantaggio a livello di processi produttivi con cui a meno di idiozie apocalittiche può fare quello che vuole. :(
Prima o poi la legge di Moore finirà. Almeno coi materiali attuali.
già solo il fatto che stai paragonando apu con PP molto diverse tra loro, la dice lunga sulla superiorità tecnologica di AMD in ambito gpu (a 14nm avremmo 1536sp o persino di più), e poi lo sappiamo quanto sia limitata dal bandwidth della memoria.
Comunque non hai mai visto il grafico del frame time delle gpu Intel vero?
Potresti postare qualche link, cortesemente? L'argomento è molto interessante.
Scusami cosa ti fa pensare che k12 sia un processorino da smartphone, quando ci sono tutti gli indizi che fanno pensare che sia LA cpu ad alte prestazioni di AMD.
Quindi avete già misurato le prestazioni? Sarà meglio di Zen? :D
E comunque con Tegra, nvidia di suo ha messo solo la grafica.
Questo sarebbe ingeneroso nei confronti dell'immenso lavoro fatto con Project Denver.
Ma cambiando il punto di vista, noterai che non ha sbagliato affatto. ;)
Secondo me AMD non ha mai pensato che Mantle si sarebbe davvero diffuso (Nvidia non l'avrebbe mai adottato, anche se AMD avesse rilasciato tutto e da subito),
Non c'è solo nVidia. Il maggior produttore di GPU è un altro.
ma ha pensato che tirandolo fuori gli altri competitor avrebbero capito l'andazzo e si sarebbero mossi in quella direzione.
E direi che così è stato.
A me, invece, ricorda la mossa del 3DNow!
Guarda che non sono io a dirlo, ma AMD, e in maniera abbastanza esplicita.
(non chiedermi di cercare la dichiarazione, sono sicuro che la troverai facilmente cercando in rete, se non ti fidi).

Ad ogni modo le DX12 non sono solo draw call a manetta e migliore gestione del carico su più core (cosa che le consolle hanno già da tempo), per cui la loro adozione ha perfettamente senso anche sulle consolle.
Non mi pare che si sia parlato d'altro che draw call et similia, dunque rimango della mia opinione: su console non servirà.
infatti sulle console, il guadagno sarà prossimo allo zero, a meno di ottimizzazioni specifiche per il soc di xbox.
Già, è anche la mia opinione. Ma il maggior parte del carico di lavoro rimarrà sulle spalle degli sviluppatori, per cercare di sfruttare al meglio l'eSRAM.

PaulGuru
07-07-2015, 06:39
Eh da che mondo è mondo queste sono le console e dirò di più: molti utenti preferiscono la più prestante ed agli utenti console non frega molto il paragone con il pc. Ovviamente tu hai tirati fuori l'uovo di colombo: mettete un i3 ed una NVidia (ovvio, per forza) ed ecco delle console realmente prestanti. Peccato che con i costi, consumi e spazi non ci si sarebbe rientrati. Ma scrivete pure le vostre idee a Microsoft ed a Sony. Non si sa mai che vi prendano.
I consumi su una console da salotto ? :ciapet:
La APU PS4 mi sembrava di aver letto che aveva un TDP di 35W, assolutamente ridicolo !

Costi ? Come se le console rappresentassero il grosso dei costi ..... con i titoli nuovi da 50-70€ ognuno .....

DesertNet
07-07-2015, 07:56
Non capisco perchè ogni volta che si parla di AMD saltano fuori i peggiori heaters che si possano immaginare.

Capisco che a volte c'è chi la esalta troppo, ma negare così anche i suoi meriti mi sembra esagerato ma sopratutto frutto di disinformazione.
Basta fare una veloce ricerca su qualsiasi motore e informarsi per sapere che la storia delle API di basso livello è partita con Mantle, tutto il resto è aria fritta.

the_joe
07-07-2015, 08:00
.....

Costi ? Come se le console rappresentassero il grosso dei costi ..... con i titoli nuovi da 50-70€ ognuno .....

Potrai anche non crederci, ma questo aspetto è secondario rispetto al costo originario di acquisto, fra un PC-Game da 600 e una consolle da 300 euro la maggior parte sceglierà sempre la seconda anche se alla fine se uno acquista tanti giochi risparmia col PC.

the_joe
07-07-2015, 08:05
Non capisco perchè ogni volta che si parla di AMD saltano fuori i peggiori heaters che si possano immaginare.

Capisco che a volte c'è chi la esalta troppo, ma negare così anche i suoi meriti mi sembra esagerato ma sopratutto frutto di disinformazione.
Basta fare una veloce ricerca su qualsiasi motore e informarsi per sapere che la storia delle API di basso livello è partita con Mantle, tutto il resto è aria fritta.

E io ti ripeto che nel mondo degli affari quello che conta è vendere e per vendere è necessario investire nel marketing. Poi è una ruota che gira, più vendi più entrano soldi e più entrano soldi più puoi spendere in ricerca e marketing.... ma tutto inizia dal marketing, certamente serve anche un prodotto valido, ma fra l'avere il miglior prodotto sul mercato e venderne 3 ed avere un buon prodotto nelle media e vendere 3.000 meglio la seconda opzione. Inoltre se hai un buon posizionamento sul mercato puoi NON svendere i prodotti come sta facendo ora AMD che a fronte di vendite anche importanti, non seguono guadagni adeguati.

DesertNet
07-07-2015, 08:14
E io ti ripeto che nel mondo degli affari quello che conta è vendere e per vendere è necessario investire nel marketing. Poi è una ruota che gira, più vendi più entrano soldi e più entrano soldi più puoi spendere in ricerca e marketing.... ma tutto inizia dal marketing, certamente serve anche un prodotto valido, ma fra l'avere il miglior prodotto sul mercato e venderne 3 ed avere un buon prodotto nelle media e vendere 3.000 meglio la seconda opzione. Inoltre se hai un buon posizionamento sul mercato puoi NON svendere i prodotti come sta facendo ora AMD che a fronte di vendite anche importanti, non seguono guadagni adeguati.

Infatti io ho iniziato il discorso con "se premiassero l'innovazione..." ma non premiano l'innovazione.
O meglio la premiano se sai anche venderla :D

fraussantin
07-07-2015, 08:19
E io ti ripeto che nel mondo degli affari quello che conta è vendere e per vendere è necessario investire nel marketing. Poi è una ruota che gira, più vendi più entrano soldi e più entrano soldi più puoi spendere in ricerca e marketing.... ma tutto inizia dal marketing, certamente serve anche un prodotto valido, ma fra l'avere il miglior prodotto sul mercato e venderne 3 ed avere un buon prodotto nelle media e vendere 3.000 meglio la seconda opzione. Inoltre se hai un buon posizionamento sul mercato puoi NON svendere i prodotti come sta facendo ora AMD che a fronte di vendite anche importanti, non seguono guadagni adeguati.

Il marketing da solo non basta.

Anzi.. Il male di amd sono stati proprio i prodotti di bassa qualità, a partire dai processori , per finire alle vga uscite con dissipatori sottodimensionati .

Adesso ha provato a rifarsi con le fury , ma imho sono un altro fiasco per via della poca ram.


Ma ve lo ricordate ai tempi dei primi dual core quando tutti mettevano amd ( anche qualche funboy intel?)

Aveva voglia intel col markwting ... intel inside , plum plum plum ,


Adesso è il contrario esatto . possono pure far uscire belen con un fx fra le bocce ma chi se lo piglia..

the_joe
07-07-2015, 08:20
Infatti io ho iniziato il discorso con "se premiassero l'innovazione..." ma non premiano l'innovazione.
O meglio la premiano se sai anche venderla :D

Non è una gara che c'è un giudice, qua il giudice è il mercato.

Potrebbe esistere in un cassetto in un laboratorio nel mondo un processore 100 volte più potente del più potente oggi sul mercato, ma se non lo sa nessuno è come se non esistesse.

Poi sul discorso innovazione, non è mica solo AMD a fare qualcosa? AMD fa o cerca di fare qualcosa di diverso per tentare di recuperare il GAP che la separa dai concorrenti, a volte può andare bene e a volte può andare male, una innovazione fine a se stessa non serve a nessuno così come una nuova architettura che dovesse richiedere la riscrittura di tutto il codice.....

CrapaDiLegno
07-07-2015, 08:20
Non so se è il caso di rispondere, ma ci proviamo ad essere civili.

già solo il fatto che stai paragonando apu con PP molto diverse tra loro, la dice lunga sulla superiorità tecnologica di AMD in ambito gpu (a 14nm avremmo 1536sp o persino di più), e poi lo sappiamo quanto sia limitata dal bandwidth della memoria.
Comunque non hai mai visto il grafico del frame time delle gpu Intel vero?
Io paragono quello che è il prodotto finale. Sappiamo tutti che le GPU di Intel fanno letteralmente cag@re in rapporto a quello che propone la concorrenza a parità di PP, ma il problema non è quello che Intel è in grado o meno di fare, è la destinazione d'uso del processore.
Le GPU di Intel, con 12 mesi di ritardi, arrivano più o meno alla stessa capacità computazionale delle GPU AMD. Il problema è che Intel le vende come GPU per l'ufficio con improvment prestazionali di natura diversa rispetto ai giochi. AMD continua questa sua ostinazione a far passare le APU come qualcosa di utile per videogiocare.
Tra banda limitata, TDP ristretto e PP da dinosauri, le APU sono un ibrido che non è né carne né pesce. La GPU permette di fare quacosina è vero, ma anche quando è messa bene in termini di shader... la banda non basta. E il consumo di W si alza. E il processore rimane sempre una mezza schifezza rispetto a quello che propone la concorrenza.
Non ci si può lamentare se i portatili solo Intel o Intel+nvidia sono più venduti. In entrambi i casi il processore (che è poi quello che viene usato di più in un computer) va di più e consuma meno. Se poi uno vuole giochicchiare le soluzioni discrete nvidia hanno abbastanza potenza consumando poco. La combinazione Intel+nvidia rimane sempre sotto in termini di consumo e maggiore in termini di capacità computazionale. Certo, anche in termini di costi, ma uno in un portatile normalmente cerca una certa autonomia d'uso, del famoso rapporto prezzo/prestazioni per avere un portatile che pesa di più (per una batteria più grande) o ore in meno, non se ne fa nulla.
A me, sinceramente, che le APU non siano vendute nel mondo mobile non sembra tanto una sorpresa.
E anche nei PC per ufficio, una semplice GPU Intel basta e avanza, per quello detto prima, cioè che la GPU anche lì fa il minimo indispensabile per far funzionare tutto correttamente,


Scusami cosa ti fa pensare che k12 sia un processorino da smartphone, quando ci sono tutti gli indizi che fanno pensare che sia LA cpu ad alte prestazioni di AMD. E comunque con Tegra, nvidia di suo ha messo solo la grafica.
Io non ho mica detto che K12 sarà un processorino da smartphone. Spero bene che non lo sia, se AMD vuole venderlo guadagnandoci.
Io ho detto che nvidia ha la sua architettura SoC che può sviluppare nella direzione che vuole (e perché no un System On Chip con capacità computazionali ibride dedicate ai server HPC? O anche come schede computazionali aggiuntive per Workstation?), mentre per ora AMD non è pervenuta in nessun mercato. Ripeto, vedremo cosa farà con l'architettura K12, perché sul mercato mi sembra che non sia l'unica che si stia operando per creare chip ARM per server.

nvidia ha messo solo la grafica nel Tegra? Sicuro sicuro? Ma proprio sicuro?
Ti chiederei di sederti, toglierti gli occhiali con le lenti rosse e dare uno sguardo più attento al mondo che ti circonda. Potresti trovarlo molto più interessante di quel che pensavi.

the_joe
07-07-2015, 08:23
Il marketing da solo non basta.

Anzi.. Il male di amd sono stati proprio i prodotti di bassa qualità, a partire dai processori , per finire alle vga uscite con dissipatori sottodimensionati .

Adesso ha provato a rifarsi con le fury , ma imho sono un altro fiasco per via della poca ram.


Ma ve lo ricordate ai tempi dei primi dual core quando tutti mettevano amd ( anche qualche funboy intel?)

Aveva voglia intel col markwting ... intel inside , plum plum plum ,


Adesso è il contrario esatto . possono pure far uscire belen con un fx fra le bocce ma chi se lo piglia..

Hai un concetto errato di marketing, il marketing se correttamente applicato è l'esatto contrario di quanto dici, si parte sempre da un prodotto valido altrimenti al primo giro finisci....

Comunque non è che sul mercato ci possa stare solo chi fa prodotti TOP, anche gli altri hanno i loro spazi, basta che sappiano crearseli e mantenerseli.

fraussantin
07-07-2015, 08:23
AMD era data per spacciata poco prima di uscire con K7 prima e fare il bis con K8 poi arrivando a "dettare la nuova architettura a 64bit ad Intel".

Il motivo era che Intel pensava di aver ormai vinto su tutta la linea, di essere inattaccabile e si stava concentrando troppo sullo sviluppo e lancio di Itanium (che nelle sue intenzioni doveva diventare l'architettura a 64bit che avrebeb dilagato sui server e poi preso il posto di x86).

Ora Intel si sta concentrando troppo nel fare la guerra agli ARM, preferisce abbassare i consumi che crescere di prestazioni ... diciamo che con i dovuti distinguo viene un certo Deja Vu. :D

Ma le condizioni sono totalmente diversi ed Intel ha un serio vantaggio a livello di processi produttivi con cui a meno di idiozie apocalittiche può fare quello che vuole. :(
Ecco esatto .

Anche se va detto che intel si è resa conto che il mondo verte vs il mobile e non puo lasciarsi fuori da quel settore.

Il fatto è che skylake è praticamente clokkato come il vecchio davil , quindi il vantaggio dove stà?

Si nuova architettura , ok , ma visto il prezzo e i consumi bassissimi non si poteva fare di piu in ambito di potenza ?

Il fatto che amd dorme porta a questi risultati.

Lo faranno un 6690 e un 6790 ma quando avranno voglia e al prezzo che vorranno.

Intantl tirano a vendere il base...

CrapaDiLegno
07-07-2015, 08:49
Non capisco perchè ogni volta che si parla di AMD saltano fuori i peggiori heaters che si possano immaginare.

Capisco che a volte c'è chi la esalta troppo, ma negare così anche i suoi meriti mi sembra esagerato ma sopratutto frutto di disinformazione.
Basta fare una veloce ricerca su qualsiasi motore e informarsi per sapere che la storia delle API di basso livello è partita con Mantle, tutto il resto è aria fritta.

E, sarà anche perché nelle discussine compaiono i più divertenti fanboy a sostenere l'insostenibile pur di aver ragione.

Vecchio articolo quando Mantle era appena stato annunciato:
http://www.xboxway.com/2014/03/22/inside-xbox-one-directx-12-quando-e-il-software-definire-lhardware/
Sunto:
Giusto per dovere di cronaca: le DirectX 12 sono in sviluppo da quattro anni grazie alla sinergia di Microsoft e i già citati tre colossi dell’industria, molto prima quindi dell’annuncio di Mantle, le API proprietarie di AMD che funzioneranno esclusivamente su schede ATI (serie R e successive).


Anche nvidia aveva dichiarato tempo fa che stava sviluppando le DX12 con MS da diversi anni. Che se uno non vuole fare il bambino e picchiare i piedi per terra per avere ragione a tutti i costi, è più che comprensibile, dato che le DX11 sono del 2010 e nessuno sano di mente ipotizzerebbe che gli sviluppatori delle librerie DX dal 2010 alla presentazione di Mantle siano stati lì a non fare un bel nulla per poi svegliarsi improvvisamente con la parola magica "low level".

Potrai anche non crederci, ma questo aspetto è secondario rispetto al costo originario di acquisto, fra un PC-Game da 600 e una consolle da 300 euro la maggior parte sceglierà sempre la seconda anche se alla fine se uno acquista tanti giochi risparmia col PC.
Ma perché lo paragoni al costo di un PC?
Una console con HW Intel+nvidia sarebbe costato di più per 2 semplici motivi:
1. i due sistemi separati hanno certamente un costo maggiore.
2. entrambe non erano disposte a svendere ai prezzi richiesti da MS e Sony. nvidia aveva fatto una dichiarazione molto chiara in quel senso e tutti l'avevano presa come una scusa per l'incapacità di fare qualcosa di meglio. La verità era che non voleva fare nulla di uguale o meglio ai prezzi richiesti.
AMD ha voluto farlo, e infatti si vedono i risultati: guadagno zero al quoto.

Punto 1 + punto 2 hanno fatto risparmiare un botto di soldi a Sony e MS (e fatto mettere in tasca nulla ad AMD). Ma certamente ora la qualità delle botole è quella che è.

Ma costi a parte, chi mai può sostenere che non era possibile fare una console con HW Intel+nvidia migliore della migliore APU sfornata da AMD in quel periodo?

Posso anche sbagliarmi, ma la mia personalissima opinione è che la sicurezza di Intel era dovuta al fatto che Itanium/EPIC era un'architettura "blindata", che non avrebbe ceduto a nessuno della concorrenza.
Dubito non sarebbe intervenuta l'antitrust nuovamente. Di certo AMD si sarebbe trovata molto in svantaggio a dover realizzare una architettura completamente nuova con anni di ritardo rispetto al super concorrente che al momento di darle le specifiche avrebbe già avuto il suo bel processorino in vendita sul mercato.


Non mi pare che si sia parlato d'altro che draw call et similia, dunque rimango della mia opinione: su console non servirà.

Già, è anche la mia opinione. Ma il maggior parte del carico di lavoro rimarrà sulle spalle degli sviluppatori, per cercare di sfruttare al meglio l'eSRAM.
Su console le DX servono, non tanto prestazionalmente che quelle usate sono già "low level", ma per quanto riguarda il porting. Tra console e PC sarà molto più facile la conversione e questo potrebbe mettere la XBOX One nella posizione di prima console di sviluppo con a seguire PS4 e PC.

Per l'eSRAM, MS ha fatto una cazzata pazzesca. Pensava di essere ancora nel 2006 con le memorie DDR2. La quantità di memoria super veloce a bordo è pressoché inutile per fare qualsiasi cosa alle risoluzioni cui queste console sono richieste e le ROPs sono troppo poche per sostenere il FullHD. Già la soluzione di Sony con 50% di shader in più e il doppio delle ROPs fa fatica a raggiungere il FullHD, figuriamoci la soluzione MS.
La soluzione non è in driver o librerie migliori, ma nella revisione completa dell'HW usato (ovviamente impossibile). Perché se non ci arrivi, non ci arrivi, nemmeno togliendo tutto il superfluo come la gestione del Kinect. Un processore per calcolatrice per quanto puoi far bene gli algoritmi non sarà mai in grado di eguagliare uno Xeon.

PaulGuru
07-07-2015, 08:58
"Con un certo orgoglio ricorda che attualmente i processori grafici di AMD sono utilizzati nelle console Microsoft Xbox One, Sony PlayStation 4 e Nintendo Wii U, così come nei MacPro, MacBook e iMac. Un messaggio ai presenti per dire che la "guerra" con NVIDIA non passa certo per un prodotto solo come può essere la top di gamma del momento, ma è fatta di molte battaglie nelle quali AMD esce vincitrice a piene mani."

si ma non ditelo agli haters :asd:

"Dopo aver parlato per oltre la metà del tempo di grafica e schede video, realtà virtuale e "embedded graphics", la risposta arriva secca e diretta e conferma alcune impressioni personali di chi scrive: ZEN. La partita più importante è quella, non ci si gira intorno."

le intenzioni sono ottime, ma secondo me non si sbottonano ancora perché il PP da utilizzare purtroppo è ancora incerto, a conti fatti potrebbero essere il 16nm di TSMC, il 22nm FF di GF di derivazione IBM o il 22nm FD-SOI di derivazione STM
Nemmeno hai fatto in tempo a dirlo che ............

http://www.hwupgrade.it/news/cpu/amd-rivede-al-ribasso-le-stime-finanziarie-ma-si-prepara-a-tecnologia-finfet_57943.html


:sofico:

NickNaylor
07-07-2015, 09:17
Il marketing da solo non basta.
poca ram.


Ma ve lo ricordate ai tempi dei primi dual core quando tutti mettevano amd ( anche qualche funboy intel?)



no, non riesco proprio a ricordarmelo... o più che altro non è andata assolutamente così: dal 99 al 2005 compreso amd era tecnologicamente anni luce avanti ad intel e la sua quota di mercato non ha mai superato il 15%, nel 2006 è uscito il core duo e la partita si è chiusa visto che hanno smesso di fare ricerca e sviluppo dato che non avevano volumi di vendite ( cioè son rimasti a secco di cash). intel con il solo marketing pressante e pratiche alla I soprano ha superato alla grandissima un periodi di 7 anni senza tecnologie valide, come te lo spieghi?

the_joe
07-07-2015, 09:25
no, non riesco proprio a ricordarmelo... o più che altro non è andata assolutamente così: dal 99 al 2005 compreso amd era tecnologicamente anni luce avanti ad intel e la sua quota di mercato non ha mai superato il 15%, nel 2006 è uscito il core duo e la partita si è chiusa visto che hanno smesso di fare ricerca e sviluppo dato che non avevano volumi di vendite ( cioè son rimasti a secco di cash). intel con il solo marketing pressante e pratiche alla I soprano ha superato alla grandissima un periodi di 7 anni senza tecnologie valide, come te lo spieghi?

Se ti dico che nel 2004 AMD ha anche superato Intel nelle vendite?

fraussantin
07-07-2015, 09:27
Se ti dico che nel 2004 AMD ha anche superato Intel nelle vendite?

Perche aveva un prodotto migliore.

Ares17
07-07-2015, 09:28
Ecco esatto .

Anche se va detto che intel si è resa conto che il mondo verte vs il mobile e non puo lasciarsi fuori da quel settore.

Il fatto è che skylake è praticamente clokkato come il vecchio davil , quindi il vantaggio dove stà?

Si nuova architettura , ok , ma visto il prezzo e i consumi bassissimi non si poteva fare di piu in ambito di potenza ?

Il fatto che amd dorme porta a questi risultati.

Lo faranno un 6690 e un 6790 ma quando avranno voglia e al prezzo che vorranno.

Intantl tirano a vendere il base...
Ancora con questa fantasia che intel potrebbe fare cpu megalattiche e non le fa per mancanza di concorrenza.

non si può aumentare l'ipc all'infinito, non si possono aumentare i core all'infinito (parliamo di desktop e mobile).
Al max intel ha un 15-20% di prestazioni da poter mettere in campo, ma o aumenta il numero di cpu per wafer, oppure aumenta il prezzo delle cpu.
I pp spinti sono un vantaggio per intel, ma anche un tallone d'achille per le cpu.
Aumentare l'ipc per alcuni tipi di calcolo significa sacrificare l'architettura per altri tipi.
diminuire la superfice dei chip per aumentare la resa significa diminuire il tdp.
Intel si sta muovendo entro certi confini che gli sono imposti non dalla concorrenza ma dalle leggi fisiche e le beghe che intel sta affrontando (basta guardare il posticipo delle architetture) non sono di facile soluzione e soprattutto i costi di sviluppo e ricerca (anche su nuovi materiali) hanno raggiunto proporzioni che fanno impensierire la stessa intel.
credo che intel abbia più di un'opzione per le prossime cpu (chi ha detto smt a 4 vie?), ma avranno valutato i costi e per il momento rimandato l'implementazione.
Intel, Amd, IBM, hanno la possibilità di progettare cpu più efficenti delle attuali (magari riformando anche l'architettura x86), ma a quanto dovrebbero venderla, e soprattutto chi la comprerebbe?

Ares17
07-07-2015, 09:29
Se ti dico che nel 2004 AMD ha anche superato Intel nelle vendite?

Solo nel settore retail, mai nel globale.

the_joe
07-07-2015, 09:30
Perche aveva un prodotto migliore.

E chi lo nega?

E se ricordi c'era anche lo sponsor AMD sulle Ferrari di F1 ;) qualcosa vorrà dire no?

NickNaylor
07-07-2015, 09:32
Se ti dico che nel 2004 AMD ha anche superato Intel nelle vendite?

non dici il vero, nel 2004 amd se l'è giocata con intel solamente per quanto riguarda il mercato retail, ma sui portatili e preassemblati ( che al tempo non erano una voce irrilevante ) era praticamente inesistente.

the_joe
07-07-2015, 09:32
Solo nel settore retail, mai nel globale.

Vero, come è pure vero che la capacità produttiva di AMD non le avrebbe permesso di saturare tutte le domande.

E comunque il mercato RETAIL è quello di "chi se ne intende" nel senso che va e compra la CPU che vuole quindi più influenzato direttamente dal marketing/prestazioni.

Per il mercato preassemblati/notebook AMD dovrà lavorare a contatto coi produttori.

NickNaylor
07-07-2015, 09:40
Vero, come è pure vero che la capacità produttiva di AMD non le avrebbe permesso di saturare tutte le domande.

ma se uno dei motivi per cui è andata mezza fallita è stato che si era preparata dei mega impianti pensando che avrebbe venduto un fottio di roba.. fidati che se intel non avesse avuto un reparto vendite con pratiche camorristiche oggi sarebbe intel quella con l'acqua alla gola.

DjLode
07-07-2015, 09:48
non dici il vero, nel 2004 amd se l'è giocata con intel solamente per quanto riguarda il mercato retail, ma sui portatili e preassemblati ( che al tempo non erano una voce irrilevante ) era praticamente inesistente.

Le quote anche in quel periodo era effettivamente nettamente favorevoli ad Intel, cercando un pò si è arrivati ad un 80%/16% circa. Anche dopo il fallimento (tecnologico) del P4, Intel era uscita in piedi.
Quindi non è neanche da ricercare (la crisi AMD) in prodotti più o meno validi.

Ares17
07-07-2015, 09:48
ma se uno dei motivi per cui è andata mezza fallita è stato che si era preparata dei mega impianti pensando che avrebbe venduto un fottio di roba.. fidati che se intel non avesse avuto un reparto vendite con pratiche camorristiche oggi sarebbe intel quella con l'acqua alla gola.

Dai, non esageriamo, i Pentium M sono stati i precursore dei Conroe, e gia erano in sviluppo e con prestazioni non inferiori agli Athlon64.
Credo che all'interno di Intel qualcuno si sia arricchito con i premi molto più di quanto si sia avvantaggiata Intel.
Probabilmente avremmo avuto una AMD più ricca, magari a discapito di Nvidia (be i soldi servono anche per foraggiare le SH e mica solo per progettare cpu/gpu), ma intel non era affatto con l'acqua alla gola, aveva ottime prospettive future comunque, grazie anche al fatto che aveva spalle così grosse da poter progettare e sviluppare diverse famigli di cpu contemporaneamente.

fraussantin
07-07-2015, 09:54
Ancora con questa fantasia che intel potrebbe fare cpu megalattiche e non le fa per mancanza di concorrenza.

non si può aumentare l'ipc all'infinito, non si possono aumentare i core all'infinito (parliamo di desktop e mobile).
Al max intel ha un 15-20% di prestazioni da poter mettere in campo, ma o aumenta il numero di cpu per wafer, oppure aumenta il prezzo delle cpu.
I pp spinti sono un vantaggio per intel, ma anche un tallone d'achille per le cpu.
Aumentare l'ipc per alcuni tipi di calcolo significa sacrificare l'architettura per altri tipi.
diminuire la superfice dei chip per aumentare la resa significa diminuire il tdp.
Intel si sta muovendo entro certi confini che gli sono imposti non dalla concorrenza ma dalle leggi fisiche e le beghe che intel sta affrontando (basta guardare il posticipo delle architetture) non sono di facile soluzione e soprattutto i costi di sviluppo e ricerca (anche su nuovi materiali) hanno raggiunto proporzioni che fanno impensierire la stessa intel.
credo che intel abbia più di un'opzione per le prossime cpu (chi ha detto smt a 4 vie?), ma avranno valutato i costi e per il momento rimandato l'implementazione.
Intel, Amd, IBM, hanno la possibilità di progettare cpu più efficenti delle attuali (magari riformando anche l'architettura x86), ma a quanto dovrebbero venderla, e soprattutto chi la comprerebbe?


Sui cellulari abbiamo 8 core e costano meno di quanto costabano i 2 core anni fa .

Perche abbiamo samsung , mediacoso che fanno concorrenza al leader di mercato.


Su pc gira e rigira da anni abbiamo sempre le solite cpu.

Ci han messo la.vga( ma a cosa serve ?) , hanno abbassato i consumi, hanno alzato leggermente le frequenze , si sono inventati il K per spillarci soldi .

Ma con i soldi che costa un i7 invece dell!HP potrebbero darci 6 core?

Ares17
07-07-2015, 10:06
Sui cellulari abbiamo 8 core e costano meno di quanto costabano i 2 core anni fa .

Perche abbiamo samsung , mediacoso che fanno concorrenza al leader di mercato.


Su pc gira e rigira da anni abbiamo sempre le solite cpu.

Ci han messo la.vga( ma a cosa serve ?) , hanno abbassato i consumi, hanno alzato leggermente le frequenze , si sono inventati il K per spillarci soldi .

Ma con i soldi che costa un i7 invece dell!HP potrebbero darci 6 core?

Potrebbero darti anche 8 core (ma in dual cannel renderebbero molto meno), a frequenze più basse e con cache simile, ma costi molto più alti.
Guarda gli xeon e ti rendi conto che intel li sta spremendo tutto quello che può ma a che prezzi!
Ma poi soprattutto in ambito desktop a chi serve un 6-8 core, e soprattutto perché ridurre i margine in ambito pro?
Anche intel ha i suoi bilanci e non muove scacco matto ad AMD non per compassione, ma perché far quadrare i bilanci (e gli azionisti vogliono gli utili) non è facile.
Ps stai paragonando ARM a x86?
Mi sembra che sul mobile (tralasciando il fattore costi) come risultato finale le cpu Intel non sono inferiori ai vari arm anche avendo meno core.
Quanti soc full 8 core conosci (lasciamo perdere i 4+4 oppure i 4+4+2 o 4+4+4 che sono sempre al max 4 core attivi)

NickNaylor
07-07-2015, 10:14
Dai, non esageriamo, i Pentium M sono stati i precursore dei Conroe, e gia erano in sviluppo e con prestazioni non inferiori agli Athlon64.
Credo che all'interno di Intel qualcuno si sia arricchito con i premi molto più di quanto si sia avvantaggiata Intel.
Probabilmente avremmo avuto una AMD più ricca, magari a discapito di Nvidia (be i soldi servono anche per foraggiare le SH e mica solo per progettare cpu/gpu), ma intel non era affatto con l'acqua alla gola, aveva ottime prospettive future comunque, grazie anche al fatto che aveva spalle così grosse da poter progettare e sviluppare diverse famigli di cpu contemporaneamente.

ma è proprio questo il nocciolo intel ha le spalle grosse e con questa si è presa tutti i soldi del mercato anche se di fatto gli sarebbero toccate le briciole se non avesse fatto quello che ha fatto. se avessero passato 7 anni con i fatturati di amd ( cioè esattamente quello che gli sarebbe spettato vista la qualità dei loro prodotti) secondo te intel sarebbe ancora intel? e amd sarebbe messa così o avrebbe sviluppato molto di più?

fraussantin
07-07-2015, 10:17
Potrebbero darti anche 8 core (ma in dual cannel renderebbero molto meno), a frequenze più basse e con cache simile, ma costi molto più alti.
Guarda gli xeon e ti rendi conto che intel li sta spremendo tutto quello che può ma a che prezzi!
Ma poi soprattutto in ambito desktop a chi serve un 6-8 core, e soprattutto perché ridurre i margine in ambito pro?
Anche intel ha i suoi bilanci e non muove scacco matto ad AMD non per compassione, ma perché far quadrare i bilanci (e gli azionisti vogliono gli utili) non è facile.
Ps stai paragonando ARM a x86?
Mi sembra che sul mobile (tralasciando il fattore costi) come risultato finale le cpu Intel non sono inferiori ai vari arm anche avendo meno core.
Quanti soc full 8 core conosci (lasciamo perdere i 4+4 oppure i 4+4+2 o 4+4+4 che sono sempre al max 4 core attivi)

I prezzi sono alti perche non c'è concorrenza.


Addirittura su skylake , dopo le critiche sui dissi di mmm han deciso di non metterli proprio.

Se amd tornasse a fare cpu a modo io sarei il primo ad andare in culo ad intel , solo per come ci sta trattando.

PaulGuru
07-07-2015, 10:18
Potrai anche non crederci, ma questo aspetto è secondario rispetto al costo originario di acquisto, fra un PC-Game da 600 e una consolle da 300 euro la maggior parte sceglierà sempre la seconda anche se alla fine se uno acquista tanti giochi risparmia col PC.
La PS3 quando uscì costava sui 500€ se non ricordo male.
Eppure nonostante uscì in netto ritardo alla fine eguagliò quasi la controparte in quanto numeri.


perché Tegra non è stato sbandierato al vento come la rivoluzione del gaming?

Tegra è un prodotto concepito per smartphone e tablet, spostato poi anche sulle console che ancora non sono uscite

Ares17
07-07-2015, 10:21
ma è proprio questo il nocciolo intel ha le spalle grosse e con questa si è presa tutti i soldi del mercato anche se di fatto gli sarebbero toccate le briciole se non avesse fatto quello che ha fatto. se avessero passato 7 anni con i fatturati di amd ( cioè esattamente quello che gli sarebbe spettato vista la qualità dei loro prodotti) secondo te intel sarebbe ancora intel? e amd sarebbe messa così o avrebbe sviluppato molto di più?

Amd sarebbe stata probabilmente in buona salute, intel nella peggiore ipotesi ancora in ottima salute, ma se fosse stata con l'acqua alla cintola (e non alla gola) credi che non avrebbe accelerato lo sviluppo di conroe lasciando ad amd la supremazia tecnologica per molto meno tempo di quello che realmente ha concesso?
Magari non avrebbe massimizzato gli utili come ha fatto, ma non sarebbe andato certamente in passivo o peggio ancora in crisi.
Fermo restando che condanno aspramente il comportamento scorretto dei commerciali Intel, ma credere in una Amd più forte è probabile, mentre in un intel in crisi molto, ma molto, remota come ipotesi.

Ps tengo a precisare che tifo AMD dal mio prima k6 2 passando per :k6 II 500, k6 III 550 con dfi e 2 mb di cache on board, A64 2800 754, venice 3200, apteron 146, opteron 165, fx60, PII 965, PII 1055, fx 8350 e che fino al Phenom 2 ho solo avuto cpu AMD (tranne un dual x5690 xeon)

NickNaylor
07-07-2015, 10:38
Amd sarebbe stata probabilmente in buona salute, intel nella peggiore ipotesi ancora in ottima salute, ma se fosse stata con l'acqua alla cintola (e non alla gola) credi che non avrebbe accelerato lo sviluppo di conroe lasciando ad amd la supremazia tecnologica per molto meno tempo di quello che realmente ha concesso?
Magari non avrebbe massimizzato gli utili come ha fatto, ma non sarebbe andato certamente in passivo o peggio ancora in crisi.
Fermo restando che condanno aspramente il comportamento scorretto dei commerciali Intel, ma credere in una Amd più forte è probabile, mentre in un intel in crisi molto, ma molto, remota come ipotesi.

cioè secondo te intel ha concesso un periodo di superiorità ad amd perchè erano ricchi? hanno fatto il diavolo a 4 per tenere in piedi la baracca, se non lo avessero fatto avrebbero tirato un botto da mandare ko anche il nasdaq. oggi che son monopolisti hanno il 33% di ricavi sul fatturato, cioè vuol dire che la baracca gli costa a tenerla in piedi tipo 30 miliardi l'anno e ne intascano 15. pensa ad avere un fatturato di 5 con una struttura che costa 30 per 7 anni... fidati che già dopo un annetto la spalle larghe sarebbero diventate rachitiche.

Pier2204
07-07-2015, 10:45
non dici il vero, nel 2004 amd se l'è giocata con intel solamente per quanto riguarda il mercato retail, ma sui portatili e preassemblati ( che al tempo non erano una voce irrilevante ) era praticamente inesistente.

Vuoi che ricordo il motivo? ...quell'assenza sui preassemblati è costata a Intel un miliardo di Euro, e un altro miliardo e 200 milioni di dollari per chiudere la pratica con AMD, altrimenti volavano denuncia a tutto spiano..

the_joe
07-07-2015, 10:56
cioè secondo te intel ha concesso un periodo di superiorità ad amd perchè erano ricchi? hanno fatto il diavolo a 4 per tenere in piedi la baracca, se non lo avessero fatto avrebbero tirato un botto da mandare ko anche il nasdaq. oggi che son monopolisti hanno il 33% di ricavi sul fatturato, cioè vuol dire che la baracca gli costa a tenerla in piedi tipo 30 miliardi l'anno e ne intascano 15. pensa ad avere un fatturato di 5 con una struttura che costa 30 per 7 anni... fidati che già dopo un annetto la spalle larghe sarebbero diventate rachitiche.

Ma sei serio?

A parte che qualsiasi azienda a fronte di difficoltà farebbe "il diavolo a 4" per appianare la situazione, comunque AMD aveva processori migliori si ma alla fine di quanto? Poi gli accordi commerciali che aveva ed ha ancora Intel hanno contribuito ad alleviare le perdite, ma c'è da considerare che per i produttori avrebbe significato cambiare le linee dei prodotti e cambiare fornitori di riferimento è sempre una cosa che va valutata attentamente (e a ben vedere hanno pure avuto ragione a restare con Intel).
Inoltre come ti hanno fatto notare, i processori che hanno risollevato Intel dopo la sbandata dei PIV sono stati i processori derivati dal mobile dove non avevano mai smesso di investire e una volta convertiti per il desktop hanno dato vita ai processori che ancora oggi superano quelli AMD per prestazioni.


Come realisticamente ti hanno già fatto notare Intel non sarebbe fallita, d'altro conto, AMD avrebbe sicuramente guadagnato una buona fetta di mercato se avesse continuato con il trend positivo, ma una fetta ce l'ha ancora per cui di cosa stiamo parlando? Di AMD che supera Intel nel mercato globale in pochi anni? Dai siamo realisti....

Ares17
07-07-2015, 10:58
cioè secondo te intel ha concesso un periodo di superiorità ad amd perchè erano ricchi? hanno fatto il diavolo a 4 per tenere in piedi la baracca, se non lo avessero fatto avrebbero tirato un botto da mandare ko anche il nasdaq. oggi che son monopolisti hanno il 33% di ricavi sul fatturato, cioè vuol dire che la baracca gli costa a tenerla in piedi tipo 30 miliardi l'anno e ne intascano 15. pensa ad avere un fatturato di 5 con una struttura che costa 30 per 7 anni... fidati che già dopo un annetto la spalle larghe sarebbero diventate rachitiche.

E chi ha mai detto questo?
Ho detto che restando gli utili in linea con le previsioni intel non ha velocizzato lo sviluppo di conroe (perché aumentare gli investimenti se non c'è il bisogno).
Se gli utili fossero scesi, gli azionisti avrebbero preteso una nuova architettura in tempi rapidi ed i $ sarebbero stati spesi anticipando di fatto l'uscita dei c2.
Ps tra core Wincester (90 nm, 939 dual channel, il primo A64 che ha distanziato significativamente P4) presentato nel 2004 e i primi e6600 (seconda metà del 2006) non è passato un'eternità, ma solo 2 anni.
Accellerando lo sviluppo di conroe dandogli la massima priorità sia di fab che di ricerca e sviluppo, ma anche di $ credi che i due anni non sarebbero diventati 1 e mezzo?

the_joe
07-07-2015, 11:12
E chi ha mai detto questo?
Ho detto che restando gli utili in linea con le previsioni intel non ha velocizzato lo sviluppo di conroe (perché aumentare gli investimenti se non c'è il bisogno).
Se gli utili fossero scesi, gli azionisti avrebbero preteso una nuova architettura in tempi rapidi ed i $ sarebbero stati spesi anticipando di fatto l'uscita dei c2.
Ps tra core Wincester (90 nm, 939 dual channel, il primo A64 che ha distanziato significativamente P4) presentato nel 2004 e i primi e6600 (seconda metà del 2006) non è passato un'eternità, ma solo 2 anni.
Accellerando lo sviluppo di conroe dandogli la massima priorità sia di fab che di ricerca e sviluppo, ma anche di $ credi che i due anni non sarebbero diventati 1 e mezzo?

Poi sembra di stare a discutere di prestazioni come se gli Intel fossero biciclette e gli AMD delle F1, quando poi nella pratica i primi PIV con le RAM PC133 erano delle stufe molto lente (andavano meno dei PIII Tualatin) invece coi PIV delle serie successive grazie alle DDR e all'Hiper Threading Intel aveva già recuperato il gap sulle prestazioni e restava indietro per i consumi. Poi sono arrivati i CORE e la storia è finita. Quindi si parla di molti anni e prestazioni nettamente inferiori, ma alla fine gli anni sono pochi e le prestazioni leggermente inferiori, troppo poco per far entrare in crisi Intel.

Max_R
07-07-2015, 11:35
Poi sembra di stare a discutere di prestazioni come se gli Intel fossero biciclette e gli AMD delle F1, quando poi nella pratica i primi PIV con le RAM PC133 erano delle stufe molto lente (andavano meno dei PIII Tualatin) invece coi PIV delle serie successive grazie alle DDR e all'Hiper Threading Intel aveva già recuperato il gap sulle prestazioni e restava indietro per i consumi. Poi sono arrivati i CORE e la storia è finita. Quindi si parla di molti anni e prestazioni nettamente inferiori, ma alla fine gli anni sono pochi e le prestazioni leggermente inferiori, troppo poco per far entrare in crisi Intel.

Per non parlare delle rambus :doh:

Ares17
07-07-2015, 11:37
Poi sembra di stare a discutere di prestazioni come se gli Intel fossero biciclette e gli AMD delle F1, quando poi nella pratica i primi PIV con le RAM PC133 erano delle stufe molto lente (andavano meno dei PIII Tualatin) invece coi PIV delle serie successive grazie alle DDR e all'Hiper Threading Intel aveva già recuperato il gap sulle prestazioni e restava indietro per i consumi. Poi sono arrivati i CORE e la storia è finita. Quindi si parla di molti anni e prestazioni nettamente inferiori, ma alla fine gli anni sono pochi e le prestazioni leggermente inferiori, troppo poco per far entrare in crisi Intel.

Tra Athlon (Thunderbird fino ad Athlon64 Newcastle) e PIV le prestazioni possiamo considerarle allineate con adesso una, adesso l'altra in leggero vantaggio sulla rivale.
Da socket939 fino all'avvento di core2 Amd era in netto vantaggio.
Possiamo considerare che nonostante Amd fosse più economico (e generalmente andasse anche più) non è mai riuscita a sfondare come numeri (con anche le leggende metropolitane che scaldavano, non erano compatibili con alcuni programmi ecc).
Ad ogni architettura da k6 II fino ai core Toledo (939 x2) Amd ha fatto miracoli con un fatturato 6-7 volte inferiore rispetto Intel dal solo comparto CPU.
Per tanto tempo è stata il Davide che si batteva ad armi pari con Golia, e quello che mi rammarica è vedere tanti idioti "esperti" di tecnologia rallegrarsi per ogni passo falso di AMD ed augurarli quasi che fallisse, manco pagassero una tassa salata per finanziarla.

NickNaylor
07-07-2015, 11:45
Ma sei serio?

A parte che qualsiasi azienda a fronte di difficoltà farebbe "il diavolo a 4" per appianare la situazione, comunque AMD aveva processori migliori si ma alla fine di quanto? Poi gli accordi commerciali che aveva ed ha ancora Intel hanno contribuito ad alleviare le perdite, ma c'è da considerare che per i produttori avrebbe significato cambiare le linee dei prodotti e cambiare fornitori di riferimento è sempre una cosa che va valutata attentamente (e a ben vedere hanno pure avuto ragione a restare con Intel).
Inoltre come ti hanno fatto notare, i processori che hanno risollevato Intel dopo la sbandata dei PIV sono stati i processori derivati dal mobile dove non avevano mai smesso di investire e una volta convertiti per il desktop hanno dato vita ai processori che ancora oggi superano quelli AMD per prestazioni.



Come realisticamente ti hanno già fatto notare Intel non sarebbe fallita, d'altro conto, AMD avrebbe sicuramente guadagnato una buona fetta di mercato se avesse continuato con il trend positivo, ma una fetta ce l'ha ancora per cui di cosa stiamo parlando? Di AMD che supera Intel nel mercato globale in pochi anni? Dai siamo realisti....

per chi non si ricordasse "gli accordi commerciali" ...

http://www.hwupgrade.it/forum/showthread.php?t=968048)

io non sto dicendo che sarebbe fallita, ma di certo non sarebbe assolutamente oggi un azienda da 160 miliardi di capitalizzazione e amd a 1.8. comunque nessuno permetterà che uno dei 2 vada fallito, almeno non fino a quando arm non sarà sufficientemente pronto allo sbarco su pc.

considerate che il grosso boom di vendite nel settore pc è arrivato a metà degli anni 90 ( cioè il periodo in cui tutti iniziano ad avere un pc in casa) e quindi intel in termini di volumi complessivi e di notorietà non era chissà cosa, la fama gli è arrivata con il lancio del brand pentium ma non è che avesse tutta questa storia alle spalle.

bobafetthotmail
07-07-2015, 11:56
L'asso della manica (mica tanto nella manica, è abbastanza palese) di Intel sono le FPGA. http://www.theplatform.net/2015/06/01/how-intel-is-hedging-on-the-future-of-compute-with-altera-buy/

Con una FPGA crei degli "acceleratori hardware" temporanei che ti permettono di aumentare la velocità di esecuzione di codice particolare senza dovergli chiedere di chiamare delle API quindi senza modifiche.

Una delle ragioni per cui ha permesso ad Altera di produrre FPGA a 14 nm in esclusiva mondiale per un paio di anni, e poi oggi ha cacciato più del suo fatturato annuale in cash per comprare Altera.

Ancora con questa fantasia che intel potrebbe fare cpu megalattiche e non le fa per mancanza di concorrenza.La fantasia è che Intel magari prezza le CPU nuove per quello che valgono effettivamente o che smette di produrre tick tock e tack e magari se ne fotte e lascia lo stesso prodotto due o tre anni visto che tanto c'è un 5% di aumento di performance quando va bene, e magari si focalizza su altro.

Con della concorrenza smetterebbero di mungere il mercato come stanno facendo e avrebbero maggior sprone a giocare le loro carte (vedi sopra).

Anche intel ha i suoi bilanci e non muove scacco matto ad AMD non per compassione, ma perché far quadrare i bilanci (e gli azionisti vogliono gli utili) non è facile.Principalmente per una questione di licenze (se AMD fallisce o viene comprata è un mezzo casino), e perchè se fallisce AMD dopo non c'è santo che tenga e l'Antitrust gli salta al collo.

Sui cellulari abbiamo 8 core e costano meno di quanto costabano i 2 core anni fa .
Perche abbiamo samsung , mediacoso che fanno concorrenza al leader di mercato.No, perchè anche se sono 8 core sono in realtà quadcore (configurazione BigLittle, 4 grossi 4 piccoli usati in situazioni diverse per risparmiare energia), e perchè anche un celeron dualcore glie le suona.

Tegra è un prodotto concepito per smartphone e tablet, spostato poi anche sulle console che ancora non sono uscitePeccato che non è competitiva, allo stesso prezzo gli altri fanno di meglio o grosso modo uguale o a molto meno fanno abbastanza per i giochini Android.
Se parliamo delle Tegra non k12.

La Shield fissa direi sia comunque uscita.

the_joe
07-07-2015, 11:57
per chi non si ricordasse "gli accordi commerciali" ...

http://www.hwupgrade.it/forum/showthread.php?t=968048)

io non sto dicendo che sarebbe fallita, ma di certo non sarebbe assolutamente oggi un azienda da 160 miliardi di capitalizzazione e amd a 1.8. comunque nessuno permetterà che uno dei 2 vada fallito, almeno non fino a quando arm non sarà sufficientemente pronto allo sbarco su pc.

considerate che il grosso boom di vendite nel settore pc è arrivato a metà degli anni 90 ( cioè il periodo in cui tutti iniziano ad avere un pc in casa) e quindi intel in termini di volumi complessivi e di notorietà non era chissà cosa, la fama gli è arrivata con il lancio del brand pentium ma non è che avesse tutta questa storia alle spalle.

Forse ricordi male tu, io (purtroppo vista l'età) c'ero ed ero già grande, e Intel era INFINITAMENTE più conosciuta di AMD già dal tempo dei tempi anche perchè fino ai Pentium AMD si era sempre limitata a copiare i prodotti Intel (a dire il vero il miglior 486 lo fece proprio AMD il famoso 486DX100 dove 100 era la velocità in megahertz) e soprattutto come poi è venuto fuori anche nella causa che hai linkato, era strutturalmente presente con i produttori di PC con contratti ben saldi..... (e come si è visto anche con politiche poco corrette) che comunque ripeto avendo vissuto l'epoca, non avrebbero fatto di certo fallire Intel, su questo puoi andare tranquillo.

NickNaylor
07-07-2015, 12:15
Forse ricordi male tu, io (purtroppo vista l'età) c'ero ed ero già grande, e Intel era INFINITAMENTE più conosciuta di AMD già dal tempo dei tempi anche perchè fino ai Pentium AMD si era sempre limitata a copiare i prodotti Intel (a dire il vero il miglior 486 lo fece proprio AMD il famoso 486DX100 dove 100 era la velocità in megahertz) e soprattutto come poi è venuto fuori anche nella causa che hai linkato, era strutturalmente presente con i produttori di PC con contratti ben saldi..... (e come si è visto anche con politiche poco corrette) che comunque ripeto avendo vissuto l'epoca, non avrebbero fatto di certo fallire Intel, su questo puoi andare tranquillo.

io non ho mai detto che intel sarebbe andata fallita, solo che sarebbe diventata un azienda notevolmente ridimensionata perchè non si sarebbe mai potuta permettere la struttura che ha oggi.

Ares17
07-07-2015, 12:15
per chi non si ricordasse "gli accordi commerciali" ...

http://www.hwupgrade.it/forum/showthread.php?t=968048)

io non sto dicendo che sarebbe fallita, ma di certo non sarebbe assolutamente oggi un azienda da 160 miliardi di capitalizzazione e amd a 1.8. comunque nessuno permetterà che uno dei 2 vada fallito, almeno non fino a quando arm non sarà sufficientemente pronto allo sbarco su pc.

considerate che il grosso boom di vendite nel settore pc è arrivato a metà degli anni 90 ( cioè il periodo in cui tutti iniziano ad avere un pc in casa) e quindi intel in termini di volumi complessivi e di notorietà non era chissà cosa, la fama gli è arrivata con il lancio del brand pentium ma non è che avesse tutta questa storia alle spalle.

Le CPU AMD, Cyrix, Transmeta, Via erano le cpu dei barboni.
Intel ha coniato il termine Pentium non per fare i fighi, ma perché all'epoca spesso capitava che l'acquirente comprava una cpu 486 o 386 sicuro che fosse Intel, invece era una cpu concorrente.
La famiglia Pentium è considerata x586, mentre il PentiumPro x686

Ares17
07-07-2015, 12:16
Forse ricordi male tu, io (purtroppo vista l'età) c'ero ed ero già grande, e Intel era INFINITAMENTE più conosciuta di AMD già dal tempo dei tempi anche perchè fino ai Pentium AMD si era sempre limitata a copiare i prodotti Intel (a dire il vero il miglior 486 lo fece proprio AMD il famoso 486DX100 dove 100 era la velocità in megahertz) e soprattutto come poi è venuto fuori anche nella causa che hai linkato, era strutturalmente presente con i produttori di PC con contratti ben saldi..... (e come si è visto anche con politiche poco corrette) che comunque ripeto avendo vissuto l'epoca, non avrebbero fatto di certo fallire Intel, su questo puoi andare tranquillo.
486dx4 133 ;)
Quelli Intel erano 486, 486dx2, 486dx4 fino a 100 mhz

calabar
07-07-2015, 12:30
Non c'è solo nVidia. Il maggior produttore di GPU è un altro.
Un altro che al momento non è parte dei giochi quando si parla di scheda video ad alto livello ed elevate prestazioni, e le cui schede, sebbene molto diffuse (perchè integrate nei processori) non sono certo acquistate nell'ottica delle prestazioni.

Una tecnologia del genere avrebbe avuto senso solo se adottata da AMD e Nvidia, cosa che di fatto avviene con le DX12.

Non mi pare che si sia parlato d'altro che draw call et similia, dunque rimango della mia opinione: su console non servirà.
Se intendi che non servirà ad aumentare le prestazioni sono perfettamente d'accordo con te (e con tuttodigitale).
Ciò nonostante, e nonostante qui si sia parlato solo di "draw call et similia" perchè nel mercato PC sono la novità, DX12 rimangono ben più che questo, a partire dal modo in cui sono organizzate le API e il modo di utilizzarle.
Quindi si, la loro adozione su consolle ha senso, ma questo non significa che porteranno miracolosi aumenti delle prestazioni.


"... Giusto per dovere di cronaca: le DirectX 12 sono in sviluppo da quattro anni grazie alla sinergia di Microsoft e i già citati tre colossi dell’industria, molto prima quindi dell’annuncio di Mantle, le API proprietarie di AMD che funzioneranno esclusivamente su schede ATI (serie R e successive)".

Anche nvidia aveva dichiarato tempo fa che stava sviluppando le DX12 con MS da diversi anni.
Primo errore: stai confrontando la data in cui è stata annunciata una tecnologia (Mantle) con quella in cui si è dichiarato di aver iniziato a svilupparne un'altra (DX12), ossia mele con pere.
E Mantle da quanto tempo era in sviluppo?

Secondo errore: il fatto che DX12 fosse in sviluppo non significa che il progetto fosse quello che emergerà al loro rilascio. Anzi, il tempo di gestazione un po' lunghetto fa pensare a modifiche in corsa.
Ti ricordo che Microsoft stessa aveva dichiarato pubblicamente in data successiva a questa presunta data di inizio dei lavori che le DX11 erano lo stato dell'arte e che avrebbero fatto solo aggiornamenti minori. Quindi di cosa stiamo parlando?

Ma costi a parte, chi mai può sostenere che non era possibile fare una console con HW Intel+nvidia migliore della migliore APU sfornata da AMD in quel periodo?
A me sembra che sulle consolle tu stia facendo ragionamenti totalmente fuori dal mondo.

Innanzi tutto, la sezione di AMD che si occupa dei chip delle consolle, la semi-custom, è in attivo e sostiene l'azienda. Hanno fatto male quindi? Io non credo affatto.
Inoltre in prospettiva futura hanno fatto benissimo, dato che hanno piazzato la loro tecnologia nelle macchine da gioco più vendute al mondo. E non è poco.
Se Nvidia ha detto di no come dici, ha barattato un guadagno nel breve periodo (che non ha avuto, dato che la cifra che chiedeva nessuno gliela voleva dare) con la possibilità di influire maggiormente sulle tecnologie gaming del futuro.
A mio parere se è andata così sono stati dei folli, ma a mio parere semplicemente non erano in grado di offrire un prodotto a tutto tondo con le caratteristiche richieste.

Detto questo... come fai a continuare a sostenere l'ipotesi Intel + Nvidia? É questa ad essere fuori dal mondo.
Secondo me ancora non hai ben capito che con le consolle hanno fissato un target di prezzo e in quello intendevano rientrare. Confronta anche in modo grossolano i due chip e vedrai come ci siano tanti compromessi legati al rientro nei costi previsti. Di certo non intendevano fare un errore di questo tipo con l'attuale generazione, perchè bruciava ancora l'errore che hanno fatto con quella passata. E le vendite stanno dando loro ragione.
Inoltre pare dimentichi che i chip di PS4 e Xbox1 sono chip custom. La soluzione Intel+Nvidia sarebbe stata "out of the box" (del resto con due componenti separati certe cose non puoi farle), il che avrebbe assottigliato ulteriormente le differenze e quindi i vantaggi rispetto ai normali PC.

PS: giusto per la cronaca ti ricordo che al momento nessuna delle schede Nvidia supporta il "Tier 3" delle DX12 per il binding delle risorse (ossia nessun limite hardware), supportato invece da tutti i chip GNC.
Ora, dovendo scegliere un chip per consolle, dove l'hardware viene davvero sfruttato, davvero ti baseresti su una tecnologia limitata da questo punto di vista?

batou83
07-07-2015, 12:55
Mio nipote di cinque anni mi ha detto questo :

1) Sony e Microsoft risparmiano con amd perchè con essa hanno una sola linea di produzione da pagare (la apu) e non due (cpu e gpu).

2) Il mercato delle console è una piccola parte del mercato tecnologico e informatico, però è uno più importanti e prestigiosi a livello di immagine. E' per questo che a Intel e Nvidia glie rode er culo per non aver ottenuto la commessa...

the_joe
07-07-2015, 13:37
Mio nipote di cinque anni mi ha detto questo :

1) Sony e Microsoft risparmiano con amd perchè con essa hanno una sola linea di produzione da pagare (la apu) e non due (cpu e gpu).

2) Il mercato delle console è una piccola parte del mercato tecnologico e informatico, però è uno più importanti e prestigiosi a livello di immagine. E' per questo che a Intel e Nvidia glie rode er culo per non aver ottenuto la commessa...

Sai come "glie rode er culo" visto che nonostante le vendite non riesce a guadagnare?????

Mi sa che forse certi accordi sarebbe meglio lasciarli perdere.

fraussantin
07-07-2015, 14:19
Edit

fraussantin
07-07-2015, 14:21
Sai come "glie rode er culo" visto che nonostante le vendite non riesce a guadagnare?????

Mi sa che forse certi accordi sarebbe meglio lasciarli perdere.

Haha...

Non so perche ma mi è venuta a mente la colt che rifornisce l'esercito usa con le armi con commesse enormi , ed è fallita ...

Se nvidia ha perso la gara al ribasso è perche sotto una certa soglia si guadagna di piu a non lavorare.

Ares17
07-07-2015, 14:28
Sai come "glie rode er culo" visto che nonostante le vendite non riesce a guadagnare?????

Mi sa che forse certi accordi sarebbe meglio lasciarli perdere.
E da dove arriva questa perla di conoscenza?
Linca un solo report finanziario dove si evince che AMD non guadagna da chip custom.
Secondo me batti tasti a casaccio sulla tastiera per non far atrofizzare i muscoli delle dita, ma ti svelo un segreto, puoi usarle anche per scaccolarti il naso, forse ti si addice maggiormente a giudicare dalle uscite che fai.

Ares17
07-07-2015, 14:33
Haha...

Non so perche ma mi è venuta a mente la colt che rifornisce l'esercito usa con le armi con commesse enormi , ed è fallita ...

Se nvidia ha perso la gara al ribasso è perche sotto una certa soglia si guadagna di piu a non lavorare.

Eccoti un altro spalatore di letame.
Ma quando smetterete di dare sentenze senza nessuna conoscenza dell'argomento?
http://www.tomshw.it/news/amd-ancora-in-utile-con-xbox-one-e-ps4-timori-sul-futuro-54613
Ma non vi vergognate a ridicolizzare il vostro presunto intelletto con queste uscite?

!fazz
07-07-2015, 14:45
Eccoti un altro spalatore di letame.
Ma quando smetterete di dare sentenze senza nessuna conoscenza dell'argomento?
http://www.tomshw.it/news/amd-ancora-in-utile-con-xbox-one-e-ps4-timori-sul-futuro-54613
Ma non vi vergognate a ridicolizzare il vostro presunto intelletto con queste uscite?

14g

the_joe
07-07-2015, 14:46
E da dove arriva questa perla di conoscenza?
Linca un solo report finanziario dove si evince che AMD non guadagna da chip custom.
Secondo me batti tasti a casaccio sulla tastiera per non far atrofizzare i muscoli delle dita, ma ti svelo un segreto, puoi usarle anche per scaccolarti il naso, forse ti si addice maggiormente a giudicare dalle uscite che fai.

Intanto faccio un quote di sicurezza per i moderatori, non mi pare di aver offeso nessuno e credo che ci siano altri modi di dire le cose.

Poi perchè linchi :D un articolo del Gennaio 2014? Solo curiosità eh!

AceGranger
07-07-2015, 14:54
Haha...

Non so perche ma mi è venuta a mente la colt che rifornisce l'esercito usa con le armi con commesse enormi , ed è fallita ...

Se nvidia ha perso la gara al ribasso è perche sotto una certa soglia si guadagna di piu a non lavorare.

Jen-Hsun Huang disse esplicitamente che con il prezzo che volevano Sony e Microsoft gli utili sarebbero stati ben al di sotto dei loro canoni e da loro politica non avevano intenzione di svendere i loro prodotti che devono sempre avere un determinato utile quindi hanno detto bellamente di no e destinato i soldi di R&D al mercato PC e atri progetti piu redditizzi; ( vedasi anche Tegra Mobile che era si in utile ma non quanto volevano e quindi è stato ucciso abbastanza velocemente e dirottato il tutto nel mercato piu redditizio ed emergente dell'automotive ).

Tolto il boom iniziale delle console, visti gli attuali fatturati e l'attuale market share, con il senno di poi, direi che ci aveva visto abbastanza bene.

fraussantin
07-07-2015, 14:56
Eccoti un altro spalatore di letame.
Ma quando smetterete di dare sentenze senza nessuna conoscenza dell'argomento?
http://www.tomshw.it/news/amd-ancora-in-utile-con-xbox-one-e-ps4-timori-sul-futuro-54613
Ma non vi vergognate a ridicolizzare il vostro presunto intelletto con queste uscite?

Non ho capito cosa c'entra rivolgersi così. Io non spalo niente e spero che amd riprenda ad essere una buona concorrente.

Cmq un utile dello 5.5%( editato e fatto ilcalcolo)al dayone delle console ... Appunto è svendersi.
Se fosse stato un lavoro costante poteva andare , ma adesso quanto guadagna. Perche deve continuare a rifornirli , non puo ritirarsi.

the_joe
07-07-2015, 15:43
per le apu console non ha speso un nulla, aveva tutto già pronto come base (jaguar+gcn) e i chip custom lo sviluppo lo paga il cliente...

...spiegatemi perché non doveva accettare la (s)commessa :stordita:

Jen-Hsun Huang disse esplicitamente che con il prezzo che volevano Sony e Microsoft gli utili sarebbero stati ben al di sotto dei loro canoni e da loro politica non avevano intenzione di svendere i loro prodotti che devono sempre avere un determinato utile quindi hanno detto bellamente di no e destinato i soldi di R&D al mercato PC e atri progetti piu redditizzi; ( vedasi anche Tegra Mobile che era si in utile ma non quanto volevano e quindi è stato ucciso abbastanza velocemente e dirottato il tutto nel mercato piu redditizio ed emergente dell'automotive ).

Tolto il boom iniziale delle console, visti gli attuali fatturati e l'attuale market share, con il senno di poi, direi che ci aveva visto abbastanza bene.

Perchè a forza di vendere i prodotti con redditività bassa si finisce con l'avere poca liquidità da investire, si sopravvive, ma non si progredisce.

Comunque una boccata d'aria l'ha data e gli accordi si possono sempre ritrattare, se proprio vede che non gli rende abbastanza ci stà un aumento di prezzo, non credo che Microsoft o Sony possano rischiare di perdere il fornitore di APU.

fraussantin
07-07-2015, 15:50
per le apu console non ha speso un nulla, aveva tutto già pronto come base (jaguar+gcn) e i chip custom lo sviluppo lo paga il cliente...

...spiegatemi perché non doveva accettare la (s)commessa :stordita:

Perche se investi risorse per far guadagnare una major non le hai per te.

Infatti amd è praticamente ferma da anni.

PaulGuru
07-07-2015, 16:15
per le apu console non ha speso un nulla, aveva tutto già pronto come base (jaguar+gcn) e i chip custom lo sviluppo lo paga il cliente...

...spiegatemi perché non doveva accettare la (s)commessa :stordita:
Per quale motivo non doveva svendersi intendi ?
Perchè ora come previsto questa produzione richiede un surplus di risorse non indifferenti e AMD ora non può andare avanti nel settore ricerca e sviluppo ( non che andasse molto anche prima ....... ), e non escluderei che uno dei fattori chiavi per il quale han smesso di concentrarsi sugli FX sia questo.

PaulGuru
07-07-2015, 16:32
ma cosa vuol dire svendersi se per vendere non spendi nulla? :stordita:
anche 1 ricavato equivale a guadagno secco

gli FX non li ha prodotti perché a 28nm sono inutili come upgrade rispetto ai 32nm, e avrebbe dovuto ridisegnare le maschere per passare dai 32 ai 28... li si che avrebbe speso altri soldi inutili
per le apu lo ha fatto dato che ci sono altre prospettive di vendita e passaggio ad archittettura grafica differente, da vliw a gcn dal 6800k al 7850k e tdp più basso adatto ai 28nm di GF...

sono le stesse cose ripetute mille mila volte :rolleyes:
Come ti è stato detto sopra gli utili sembrerebbero essere risicati, si tira avanti ma non si progredisce.

Sugli FX avrebbero potuto evolverne l'architettura, portare delle revisions.

cdimauro
07-07-2015, 17:36
Ma costi a parte, chi mai può sostenere che non era possibile fare una console con HW Intel+nvidia migliore della migliore APU sfornata da AMD in quel periodo?
Non credo sarebbe stato possibile, in primis a causa dei margini troppo ridotti a cui avrebbe dovuto vendere i chip a Microsoft e Sony.

Secondo, e non meno importante, Intel integra già GPU PowerVR in alcuni suoi SoC, per cui al limite avrebbe potuto continuare ad appoggiarsi a Imagination Technologies anziché fare un salto nel buio con nVidia, magari optando per una versione più avanzata.
Dubito non sarebbe intervenuta l'antitrust nuovamente.
Per intervenire devono sussistere le condizioni, e un'architettura nuova di pacca ha zero market share per definizione. Inoltre sarebbe servito parecchio tempo per arrivare a quote sostanziali, visto che inizialmente Itanium era previsto per server/workstation/HPC.

In ogni caso difficilmente avrebbe potuto ricoprire quote tali da smuovere l'antitrust perché, nel bene e nel male, il software scritto per x86 consta di una base ENORME, e ancora oggi non è affatto raro veder girare vecchio codice DOS in qualche finestrella di Windows (oppure... OS/2!).

IMO x86 e Itanium si sarebbero spartite il mercato.
Di certo AMD si sarebbe trovata molto in svantaggio a dover realizzare una architettura completamente nuova con anni di ritardo rispetto al super concorrente che al momento di darle le specifiche avrebbe già avuto il suo bel processorino in vendita sul mercato.
Sì, ma dubito che le specifiche gliele avrebbe date tutte, a parte i classici manuali sull'architettura che sono pubblicamente disponibili a tutti. Il che, comunque è un'ottima base di partenza per realizzare un progetto anche da zero, se tieni presente che diverse aziende si sono cimentate nell'emulazione software e/o hardware dell'architettura x86, di cui di certo non si trovano in giro i tabulati col microcodice.
Su console le DX servono, non tanto prestazionalmente che quelle usate sono già "low level", ma per quanto riguarda il porting. Tra console e PC sarà molto più facile la conversione e questo potrebbe mettere la XBOX One nella posizione di prima console di sviluppo con a seguire PS4 e PC.
Dipende. PS4 è di gran lunga più simile a un PC, per cui è senz'altro preferibile per chi volesse realizzare dei porting verso quest'ultimo.

Per contro, la presenza di memoria eSRAM nella XBoxOne, unita eventualmente a quel paio di porzioni di chip che sono collegate a ognuno dei due cluster Jaguar, richiedono la scrittura di engine ad hoc se si vuole sfruttare al meglio quest'architettura.

Anche le API sono estremamente importanti, nulla da dire, ma bisogna vedere quali API utilizzano i programmatori dei giochi per PS4. Se sono OpenGL e/o simili a Vulkan, allora fanno il paio con le DirectX usate nella XBoxOne, e dunque il porting sarebbe più semplice da realizzare. Se, invece, sono librerie custom, allora la cosa si fa più complicata (anche se mi aspetto che siano abbastanza simili alle librerie standard già disponibili su PC).
Per l'eSRAM, MS ha fatto una cazzata pazzesca. Pensava di essere ancora nel 2006 con le memorie DDR2. La quantità di memoria super veloce a bordo è pressoché inutile per fare qualsiasi cosa alle risoluzioni cui queste console sono richieste e le ROPs sono troppo poche per sostenere il FullHD. Già la soluzione di Sony con 50% di shader in più e il doppio delle ROPs fa fatica a raggiungere il FullHD, figuriamoci la soluzione MS.
La scelta di Microsoft è perfettamente in linea col suo passato, dove ha fatto uso di memoria embedded. Sono scelte che bisognerà vedere in futuro se pagheranno o meno, e non soltanto dal punto di vista dei risultati raggiungibili (perché agli sviluppatori servirà tempo per imparare a spremerla), ma anche dal punto di vista dei costi di produzione. Infatti le memorie sono più semplici da produrre e meno inclini a presentare difetti, per cui generalmente le rese sono migliori, e dunque i SoC dovrebbero essere più economici. A ciò si aggiunge che le memorie DDR3 sono più economiche delle GDDR5, e il trend dovrebbe mantenersi per un bel pezzo.
La soluzione non è in driver o librerie migliori, ma nella revisione completa dell'HW usato (ovviamente impossibile). Perché se non ci arrivi, non ci arrivi, nemmeno togliendo tutto il superfluo come la gestione del Kinect. Un processore per calcolatrice per quanto puoi far bene gli algoritmi non sarà mai in grado di eguagliare uno Xeon.
Ormai la frittata. Al momento si può certamente rilevare che questa mossa non sta pagando per quanto riguarda i risultati. In futuro vedremo se effettivamente la situazione migliorerà.

cdimauro
07-07-2015, 17:53
Ancora con questa fantasia che intel potrebbe fare cpu megalattiche e non le fa per mancanza di concorrenza.

non si può aumentare l'ipc all'infinito, non si possono aumentare i core all'infinito (parliamo di desktop e mobile).
Al max intel ha un 15-20% di prestazioni da poter mettere in campo, ma o aumenta il numero di cpu per wafer, oppure aumenta il prezzo delle cpu.
I pp spinti sono un vantaggio per intel, ma anche un tallone d'achille per le cpu.
Aumentare l'ipc per alcuni tipi di calcolo significa sacrificare l'architettura per altri tipi.
diminuire la superfice dei chip per aumentare la resa significa diminuire il tdp.
Intel si sta muovendo entro certi confini che gli sono imposti non dalla concorrenza ma dalle leggi fisiche e le beghe che intel sta affrontando (basta guardare il posticipo delle architetture) non sono di facile soluzione e soprattutto i costi di sviluppo e ricerca (anche su nuovi materiali) hanno raggiunto proporzioni che fanno impensierire la stessa intel.
Esattamente, ma è difficile farlo capire a chi non ha dimestichezza sugli argomenti e continua a ripetere le solite leggende metropolitane. Non è soltanto Intel ad avere problemi a migliorare le prestazioni, e certamente non perché gli ingegneri di tutti i produttori di processori siano dei brocchi. Ma se c'è qualcuno che ritiene che si possa fare di meglio, è libero di dimostrarlo: tecnicamente e non a parole.

Aggiungo che ormai la tendenza è quella di migliorare le unità SIMD, perché è questo tipo di codice che è facile da parallelizzare (è abbastanza lineare; per contro quello general purpose è decisamente più frastagliato e con parecchie dipendenze).
credo che intel abbia più di un'opzione per le prossime cpu (chi ha detto smt a 4 vie?), ma avranno valutato i costi e per il momento rimandato l'implementazione.
Veramente Intel ha già dei prodotti con SMT a 4 vie: Xeon Phi. Ma il target di utilizzo è molto diverso da quello "desktop", e dunque non è un modello che si presta a essere portato in tutti gli altri ambiti.
Intel, Amd, IBM, hanno la possibilità di progettare cpu più efficenti delle attuali (magari riformando anche l'architettura x86), ma a quanto dovrebbero venderla, e soprattutto chi la comprerebbe?
E' mostruosamente difficile proporre un'architettura nuova oggi. C'è troppo software già scritto per quelle attuali, e l'idea di dover ricominciare da zero non fa impazzire nessuno.

Soltanto ARM ha potuto farlo con ARMv8 (AKA ARM64), ma soltanto perché era l'unica azienda "mainstream" a non avere un'architettura a 64-bit nel suo portfolio prodotti. Ma è stata molto attenta a offrire parecchio supporto per facilitare il porting del codice esistente.

Per cui non dico che sia impossibile creare una nuova architettura, che faccia meglio di quelle attuali, ma i costi sarebbe troppo elevati per tutti.

Poi c'è da dire che, in ogni caso, le problematiche relative alla consistenza del codice non si potrebbero comunque eliminare, per cui si assisterebbe a un generale appiattimento del miglioramento dell'IPC, dopo un po' di certo. Certo, rimarrebbe comunque la base migliore, e magari ci sarebbero vantaggi di altro tipo.

P.S. Ho visto che sei stato bannato, ed è un vero peccato, perché gli altri tuoi commenti erano interessanti. Mi auguro, però, che in questo forum venga migliorata la moderazione, che purtroppo non è più ai livelli di un po' di anni fa (dove c'erano ben 4 moderatori, e decisamente attivi), perché IMO non si arriverebbe a questo punto, ma ci si fermerebbe tutti molto prima.

Una discussione, per quanto possa essere accesa e sentita, dovrebbe sempre essere improntata al rispetto degli altri, e a un dialogo civile.

macellatore
07-07-2015, 18:12
Al momento AMD -15.79% :cool:
http://finance.yahoo.com/q?s=amd

cdimauro
07-07-2015, 18:17
Un altro che al momento non è parte dei giochi quando si parla di scheda video ad alto livello ed elevate prestazioni, e le cui schede, sebbene molto diffuse (perchè integrate nei processori) non sono certo acquistate nell'ottica delle prestazioni.

Una tecnologia del genere avrebbe avuto senso solo se adottata da AMD e Nvidia, cosa che di fatto avviene con le DX12.
Per quale motivo allora Intel ha presentato una demo che sfruttava le DirectX12 (https://software.intel.com/en-us/blogs/2014/08/11/siggraph-2014-directx-12-on-intel), giusto qualche mese dopo la presentazione di queste API?

Anche se le sue soluzioni non sono allo stesso livello di nVidia e AMD, le GPU di Intel vengono comunque impiegate anche per giocare. O per fare calcoli (OpenCL).
Se intendi che non servirà ad aumentare le prestazioni sono perfettamente d'accordo con te (e con tuttodigitale).
Ciò nonostante, e nonostante qui si sia parlato solo di "draw call et similia" perchè nel mercato PC sono la novità, DX12 rimangono ben più che questo, a partire dal modo in cui sono organizzate le API e il modo di utilizzarle.
Quindi si, la loro adozione su consolle ha senso, ma questo non significa che porteranno miracolosi aumenti delle prestazioni.
E con ciò allora quale novità / innovazione avrebbe portato Mantle, che non fossero già state introdotte nelle console? Mantle è non è innovazione? Perché il nocciolo della questione è proprio questo.
Primo errore: stai confrontando la data in cui è stata annunciata una tecnologia (Mantle) con quella in cui si è dichiarato di aver iniziato a svilupparne un'altra (DX12), ossia mele con pere.
E Mantle da quanto tempo era in sviluppo?

Secondo errore: il fatto che DX12 fosse in sviluppo non significa che il progetto fosse quello che emergerà al loro rilascio. Anzi, il tempo di gestazione un po' lunghetto fa pensare a modifiche in corsa.
Ti ricordo che Microsoft stessa aveva dichiarato pubblicamente in data successiva a questa presunta data di inizio dei lavori che le DX11 erano lo stato dell'arte e che avrebbero fatto solo aggiornamenti minori. Quindi di cosa stiamo parlando?
Di qualcosa che era già in lavorazione, come dimostra la demo presentata da Intel e di cui ho fornito il link. Non si realizza una nuova API, specie con questi cambiamenti radicali, dall'oggi al domani.

Microsoft ha anche dichiarato di essere già stata a lavoro da tempo sulle DirectX, in collaborazione con AMD, nVidia e Intel.

Alla presentazione ha anche dichiarato che le API fossero già in stato di alpha, e questo è ancora più importante, perché vuol dire che lo sviluppo c'era già stato da diverso tempo, e che il codice era già stato rilasciato ai propri partner per testing e sviluppo. Vedi sempre il link di cui sopra, che dimostra che i partner avevano già avuto modo di lavorarci, e le API era già grosso modo definite.

Queste non sono chiacchiere o ipotesi, ma fatti oggettivi, e di rilevante spessore per capire che le DirectX12 non sono nate ieri né tanto meno dopo Mantle.

cdimauro
07-07-2015, 18:21
ma cosa vuol dire svendersi se per vendere non spendi nulla? :stordita:
anche 1 ricavato equivale a guadagno secco
Allora spiega per quale motivo adesso il CEO ha fatto marcia indietro e ha annunciato (leggi l'intervista) che AMD si concentrerà su soluzioni più redditizie.

AceGranger
07-07-2015, 19:01
Secondo, e non meno importante, Intel integra già GPU PowerVR in alcuni suoi SoC, per cui al limite avrebbe potuto continuare ad appoggiarsi a Imagination Technologies anziché fare un salto nel buio con nVidia, magari optando per una versione più avanzata.


PowerVr oramai la sta abbandonando ed è rimasta solo in alcuni Atom entry lvl, per il resto monta solo le sue HD, e con nVidia non farebbe poi cosi tanto un salto nel buio visto che Intel la paga la bellezza di 60 milioni di dollari l'anno per utilizzare brevetti nVidia :)

cdimauro
07-07-2015, 19:04
PowerVr oramai la sta abbandonando ed è rimasta solo in alcuni Atom entry lvl, per il resto monta solo le sue HD,
Infatti. Ma dicevo semplicemente se che dovesse adottare un'altra GPU, sarebbe certamente preferibile una PowerVR, che conosce e integra già.
e con nVidia non farebbe poi cosi tanto un salto nel buio visto che Intel la paga la bellezza di 60 milioni di dollari l'anno per utilizzare brevetti nVidia :)
Sì, ma il problema qui è integrare una GPU "aliena" nel SoC. ;)

AceGranger
07-07-2015, 19:10
Infatti. Ma dicevo semplicemente se che dovesse adottare un'altra GPU, sarebbe certamente preferibile una PowerVR, che conosce e integra già.

Sì, ma il problema qui è integrare una GPU "aliena" nel SoC. ;)

non è aliena, la GPU Intel HD è in parte gia di nVidia, è per quello che paga i brevetti.... mica sta scritto da qualche parte l'obbligo di inserire GPU progettata da nVidia al 100%, ne avevano/hanno un migliaio di possibilita.

tutta una questione di soldi, ne nVidia ne Intel sono abituate a svendere.

cdimauro
07-07-2015, 19:23
Sì, è chiaro che i brevetti coprono tecnologie utilizzate, ma rimane tutto in casa Intel, che ha sviluppato da sé la circuiteria che ne fa uso.

Tutt'altra cosa è prendere una GPU realizzata da un'altra azienda, con la sua interfaccia, e infilarla in un proprio SoC.

Per il resto, concordo.

calabar
07-07-2015, 20:19
Per quale motivo allora Intel ha presentato una demo che sfruttava le DirectX12, giusto qualche mese dopo la presentazione di queste API?
E cosa ci dovrebbe essere di strano?
Una cosa è supportare un'API proprietaria, un'altra è supportarne una standard che verrà adottata da tutti.
Una cosa è non voler competere per le alte prestazioni, un'altra è supportare almeno gli standard de facto come DirectX.

E con ciò allora quale novità / innovazione avrebbe portato Mantle, che non fossero già state introdotte nelle console? Mantle è non è innovazione? Perché il nocciolo della questione è proprio questo.
Mantle non è innovazione, Mantle ha innovato il gaming per PC.
Ciò non esclude la carica di innovazione che ha portato.

Non si realizza una nuova API, specie con questi cambiamenti radicali, dall'oggi al domani.
Ovvio, e come non si realizza dall'oggi al domani DX12, non si realizza dall'oggi al domani Mantle.
Ma qui si stava cercando di dire che DX12 (così come sarà presentata) nasce prima di Mantle confrontando una data di presentazione con una data presunta di inizio dello sviluppo.
Capirai bene anche tu che il paragone, in questi termini, non si può fare.

Poi ripeto, il fatto che le DX12 fossero in sviluppo da tempo non significa che fossero in sviluppo come le conosciamo ora. E il fatto che Microsoft abbia dichiarato quanto ho detto prima (nessuna rivoluzione alle DX dopo le 11) fa chiaramente intendere che i piani fossero diversi.

bobafetthotmail
07-07-2015, 20:21
Sì, ma il problema qui è integrare una GPU "aliena" nel SoC. ;)Quindi le powerVR non sono aliene e le Nvidia sì?

Mi pare che le licenze per le PowerVR siano anche belle restrittive. Intel non può fare quello che vuole coi driver PowerVR (tipo farli anche a 64 bit)

cdimauro
07-07-2015, 20:43
E cosa ci dovrebbe essere di strano?
Una cosa è supportare un'API proprietaria, un'altra è supportarne una standard che verrà adottata da tutti.
Qual è la differenza? Sempre API sono, e il supporto costa in termini di implementazione.
Una cosa è non voler competere per le alte prestazioni, un'altra è supportare almeno gli standard de facto come DirectX.
Quindi sarebbe bastato un'implementazione minimale, e se ne sarebbe potuta lavare le mani. Invece mi sembra che, dalla demo presentata, non sia proprio così. Significa qualcosa?
Mantle non è innovazione, Mantle ha innovato il gaming per PC.
Ciò non esclude la carica di innovazione che ha portato.
Quindi non è innovazione in senso generale, visto che c'era già qualcosa di molto simile.

Possiamo dire che ha anticipato i tempi su PC, rispetto a quanto avrebbe portato poi Microsoft.
Ovvio, e come non si realizza dall'oggi al domani DX12, non si realizza dall'oggi al domani Mantle.
Se hai già lavorato alla realizzazione dei driver per le console, hai già tanta pappa pronta, che hai poi riciclato su PC.
Ma qui si stava cercando di dire che DX12 (così come sarà presentata) nasce prima di Mantle confrontando una data di presentazione con una data presunta di inizio dello sviluppo.
Lo sviluppo era già iniziato da un pezzo quando le API sono state presentate. Microsoft ha dichiarato che erano già in alpha, e infatti qualche mese dopo Intel se n'è uscita fuori con quella demo.
Capirai bene anche tu che il paragone, in questi termini, non si può fare.
Non si può fare perché non ci sono dati (date) certi: nessuno sa quando è iniziato lo sviluppo di entrambe le API. Sappiamo soltanto che Mantle è arrivata prima delle DirectX 12.
Poi ripeto, il fatto che le DX12 fossero in sviluppo da tempo non significa che fossero in sviluppo come le conosciamo ora.
Ci possono essere dei cambiamenti, ma quando arrivi alla alpha (peraltro già funzionante), il grosso l'hai già definito, anche se rimane una montagna di testing.
E il fatto che Microsoft abbia dichiarato quanto ho detto prima (nessuna rivoluzione alle DX dopo le 11) fa chiaramente intendere che i piani fossero diversi.
O che non volessero esporsi. D'altra parte non mi pare di aver letto smentite dai protagonisti, AMD inclusa, riguardo al fatto che già da tempo si fossero riuniti per discutere e definire queste nuove API.

tuttodigitale
07-07-2015, 23:29
su x64 e il mancato sviluppo di un'architettura nuova, in parte si può essere d'accordo che la compatibilità con l'ISA x86, è un fardello che forse potevamo evitarci. Tuttavia è proprio grazie a questa compatibilità, che praticamente siamo traslocati dai 32 ai 64bit senza soluzione di continuità.
Ma poi siamo così sicuri che 16 registri general purpose visibili dal software siano pochi? Ricordo che x86 ne aveva la metà, e il guadagno con il passaggio da 8 a 16, era nell’ordine del 10%. Quindi non penso che siano i 32 registri a fare la differenza nell’architettura Arm.
Si è parlato di costi, e si gli opteron erano la soluzione economica, con prestazioni per l'epoca superiore anche a certe cpu RISC, per avere più di 3GB indirizzabile. Poco? Direi che il motivo era più che sufficiente per far soccombere le cpu Intel dal mercato enterprise. E ricordiamoci brevemente che prima dell'avvento di Nehalem, erano i sistemi amd ad offrire le migliori prestazioni in campo server (anche il bistrattato core Agena faceva la voce grossa con conroe, grazie ad una piattaforma nettamente più moderna). Il dominio nelle prestazioni multitread poi è stato definitivamente conquistato da Intel “solo” con il passaggio ai 32nm da parte di Intel, 5 anni fa.
DAl 2003 AMD per 7 anni è stata altamente competitiva, con 4 di dominio assoluto fanno un pò a cazzotti con i risultati finanziari. Direi che la colpa è esclusivamente dei grandi assemblatori (HP di certo non aveva nessuna intenzione di promuovere x64).


nvidia ha messo solo la grafica nel Tegra? Sicuro sicuro? Ma proprio sicuro?
Ti chiederei di sederti, toglierti gli occhiali con le lenti rosse e dare uno sguardo più attento al mondo che ti circonda. Potresti trovarlo molto più interessante di quel che pensavi.
Ma scusami cosa ha fatto nvidia più di quanto fatto di AMD con i suo Soc Arm? Non ha personalizzato l'architettura della CPU, esattamente l'opposto di quello che farà AMD con ZEN. E poi, forse e dico forse, a livello di SoC Amd ha tecnologie che sono all’avanguardia, per quanto oggi restano inutilizzate, in parte proprio perchè sono uniche nell’intero settore computing.
Jen-Hsun Huang disse esplicitamente che con il prezzo che volevano Sony e Microsoft gli utili sarebbero stati ben al di sotto dei loro canoni e da loro politica non avevano intenzione di svendere i loro prodotti che devono sempre avere un determinato utile quindi hanno detto bellamente di no e destinato i soldi di R&D al mercato PC e atri progetti piu redditizzi
Certo non potevano dire esplicitamente che non erano in grado di fornire una cpu decente (ancora oggi, così come AMD, non hanno una propria micro-architettura ARM) e che quindi dovevano comunque appoggiarsi ad IBM con un progetto custom, ad Intel, o alla stessa AMD. AMD era l'unica che poteva produrre cpu e gpu ad "alte" prestazioni con costi di customizzazione assai ridotti (sia per il produttore che per il cliente).
Per le dx12, ricordo che microsoft non ha certamente dovuto riscrivere tutto dall’inizio visto che il grosso del lavoro è stato effettuato su xbox one. Lo stesso vale per AMD e per il suo Mantle-Vulkan. Infatti nel novembre del 2013, se non erro, AMD parlava della necessità di ridurre il livello di astrazione offerto dalle api, esattamente come avviene regolarmente con le console.

Per quale motivo non doveva svendersi intendi ?
Perchè ora come previsto questa produzione richiede un surplus di risorse non indifferenti e AMD ora non può andare avanti nel settore ricerca e sviluppo ( non che andasse molto anche prima ....... ), e non escluderei che uno dei fattori chiavi per il quale han smesso di concentrarsi sugli FX sia questo.
bisognerebbe quantificare anche in cifre. Si saranno fatti due conti in tasca quelli di AMD o sono dei sprovveduti?
uno dei fattori chiavi della mancanza degli FX è la mancanza dei 20nm (test alla mano già con i 28nm e i core steamroller l'efficienza lato cpu è superiore alle proposte sandy bridge a 32nm).

Infatti le memorie sono più semplici da produrre e meno inclini a presentare difetti, per cui generalmente le rese sono migliori, e dunque i SoC dovrebbero essere più economici. A ciò si aggiunge che le memorie DDR3 sono più economiche delle GDDR5, e il trend dovrebbe mantenersi per un bel pezzo.
conta anche il fatto che le Gddr5 dovrebbero presto uscire di scena per far posto alle HBM e se già ne producono relativamente poche oggi..

calabar
07-07-2015, 23:40
Qual è la differenza?
La differenza è che nel mercato delle schede video non puoi esimerti dal supportare DirectX, mentre di una nuova API proprietaria puoi fregartene bellamente.
In ogni caso questo è un discorso differente. Il punto non è che Intel supporta Mantle, ma se lo supporta Nvidia. Che Intel lo supporti o meno, per quello che è il panorama attuale, non importa molto a nessuno. ;)

Quindi non è innovazione in senso generale, visto che c'era già qualcosa di molto simile.
Possiamo dire che ha anticipato i tempi su PC, rispetto a quanto avrebbe portato poi Microsoft.
Secondo me Microsoft stava bene così come stava (e come lei stessa ha ammesso), per cui no, non ha anticipato una cosa che non ci sarebbe stata.
Con Mantle AMD ha fatto la mossa che serviva per portare questo tipo di innovazione su PC. Quindi ribadisco, per me ha innovato il gaming su PC, e non anticipato.

Lo sviluppo era già iniziato da un pezzo quando le API sono state presentate.
Appunto. Da una parte hai "iniziato lo sviluppo", da una parte hai "presentato".
Non mi pare che la cosa sia in nessun modo confrontabile, come invece si è cercato di fare.

Ci possono essere dei cambiamenti, ma quando arrivi alla alpha (peraltro già funzionante), il grosso l'hai già definito, anche se rimane una montagna di testing.
Possono averle anche riscritte da capo, per quanto ne sappiamo. L'hanno fatto con LongHorn, possono averlo fatto anche con le DirectX.
Magari la alpha funzionante è stata semplicemente scartata dopo aver visto cosa voleva combinare AMD con Mantle.

Questo per dire semplicemente che la data in cui dichiarano di aver iniziato lo sviluppo di DirectX non ha alcun valore nel nostro discorso.

Il fatto che non volessero esporsi francamente mi pare senza senso. Non esporsi a cosa? Non dovevano promettere nulla, solo dire che la prossima versione di DirectX avrebbe portato grandi innovazioni. Invece hanno dichiarato l'esatto contrario. Strano eh? ;)

cdimauro
08-07-2015, 05:38
su x64 e il mancato sviluppo di un'architettura nuova, in parte si può essere d'accordo che la compatibilità con l'ISA x86, è un fardello che forse potevamo evitarci. Tuttavia è proprio grazie a questa compatibilità, che praticamente siamo traslocati dai 32 ai 64bit senza soluzione di continuità.
Per AMD era necessario nonché strategico mantenere la compatibilità con x86, ma il problema, piuttosto, è rappresentato da x86-64, che si porta dietro le problematiche della famiglia che estende, aggiungendo altri fardelli. Mi riferisco principalmente al decoder, che è diventato più complicato.

C'è da dire che con chip da centinaia di milioni di transistor il costo è trascurabile, ma con ordini di grandezza inferiori, invece, ha un suo certo peso sia sul numero di transistor sia sui consumi.

Per essere chiari, AMD avrebbe potuto presentare un'ISA a 64 bit con una struttura degli opcode molto più efficiente da decodificare (offrendo magari altre migliori, come ad esempio una miglior densità di codice, e ), relegando tutto il resto al vecchio decoder, ma ha preferito mettere una piccola pezza su quello esistente (l'estensione a 64 bit ha richiesto circa il 5% di transistor in più rispetto agli ultimi Athlon).
Ma poi siamo così sicuri che 16 registri general purpose visibili dal software siano pochi? Ricordo che x86 ne aveva la metà, e il guadagno con il passaggio da 8 a 16, era nell’ordine del 10%.
AMD dichiarò che era mediamente del 15%, ed è un buon risultato se consideriamo che è stato ammortizzato il costo della minor densità di codice (circa 0,8 byte in più in media per istruzione), ma soprattutto del raddoppio dei puntatori (che incide in tutta la gerarchia della memoria, esclusa la cache per il codice, ovviamente).
Quindi non penso che siano i 32 registri a fare la differenza nell’architettura Arm.
31 (uno è riservato o forzato a zero). A mio avviso sono quelli che contribuiscono in maniera rilevante all'aumento di prestazioni, visto che sostanzialmente ARM s'è liberata di un po' di roba legacy e meglio strutturato la opcode table (aggiungendo anche qualche istruzione utile).

Se hai visto i test dell'Apple A7+ che ha fatto Anandtech, parlano chiaro: fra ISA a 32 e 64 bit c'è un bel distacco, anche se un certo ruolo hanno le nuove istruzioni per l'hashing (se non ricordo male).
Ma scusami cosa ha fatto nvidia più di quanto fatto di AMD con i suo Soc Arm? Non ha personalizzato l'architettura della CPU, esattamente l'opposto di quello che farà AMD con ZEN.
Che ne pensi di Project Denver?
E poi, forse e dico forse, a livello di SoC Amd ha tecnologie che sono all’avanguardia, per quanto oggi restano inutilizzate, in parte proprio perchè sono uniche nell’intero settore computing.
HSA?
Per le dx12, ricordo che microsoft non ha certamente dovuto riscrivere tutto dall’inizio visto che il grosso del lavoro è stato effettuato su xbox one. Lo stesso vale per AMD e per il suo Mantle-Vulkan. Infatti nel novembre del 2013, se non erro, AMD parlava della necessità di ridurre il livello di astrazione offerto dalle api, esattamente come avviene regolarmente con le console.
Assolutamente d'accordo.
conta anche il fatto che le Gddr5 dovrebbero presto uscire di scena per far posto alle HBM e se già ne producono relativamente poche oggi..
Mi sembra perfettamente logico: i vantaggi sono non indifferenti.

cdimauro
08-07-2015, 05:51
La differenza è che nel mercato delle schede video non puoi esimerti dal supportare DirectX, mentre di una nuova API proprietaria puoi fregartene bellamente.
Senz'altro.
In ogni caso questo è un discorso differente. Il punto non è che Intel supporta Mantle, ma se lo supporta Nvidia. Che Intel lo supporti o meno, per quello che è il panorama attuale, non importa molto a nessuno. ;)
Se c'è gente che usa le sue GPU anche per giocarci, allora ha perfettamente senso.
Secondo me Microsoft stava bene così come stava (e come lei stessa ha ammesso), per cui no, non ha anticipato una cosa che non ci sarebbe stata.
Con Mantle AMD ha fatto la mossa che serviva per portare questo tipo di innovazione su PC. Quindi ribadisco, per me ha innovato il gaming su PC, e non anticipato.
Come già detto, le DirectX erano già in lavorazione da tempo, e quando sono state presentate erano già in alpha. Dunque AMD ha soltanto anticipato i tempi, sfruttando il lavoro che Microsoft aveva già fatto con la XBoxOne.
Appunto. Da una parte hai "iniziato lo sviluppo", da una parte hai "presentato".
Non mi pare che la cosa sia in nessun modo confrontabile, come invece si è cercato di fare.
Veramente ho detto che Microsoft aveva iniziato lo sviluppo già da tempo, e infatti quando ha annunciato ha annunciato le DirectX 12 erano già in alpha.

Quando AMD ha presentato Mantle, Microsoft non poteva, per contro, rilasciare un prodotto ancora in alpha.

Spero che adesso sia chiaro.
Possono averle anche riscritte da capo, per quanto ne sappiamo.
Ma anche no, a quello stadio.
L'hanno fatto con LongHorn, possono averlo fatto anche con le DirectX.
Non mi risulta. A cosa ti riferisci?
Magari la alpha funzionante è stata semplicemente scartata dopo aver visto cosa voleva combinare AMD con Mantle.
Per ammissione di AMD, dopo qualche mese che le DirectX 12 erano state presentate, portare codice da Mantle a DirectX 12 è molto semplice e richiede poco sforzo.

Considerato che Intel aveva anche presentato una demo funzionante, che ovviamente dietro si portava tutto il lavoro per l'implementazione dei driver lato suo, più quello della demo, direi che ce n'è abbastanza per capire che si trattava di API già sostanzialmente finalizzate.
Questo per dire semplicemente che la data in cui dichiarano di aver iniziato lo sviluppo di DirectX non ha alcun valore nel nostro discorso.
Veramente Microsoft non ha dichiarato nessuna data di inizio sviluppo per le DirectX 12: le ha presentate dicendo che all'epoca erano in stato di alpha.
Il fatto che non volessero esporsi francamente mi pare senza senso. Non esporsi a cosa? Non dovevano promettere nulla, solo dire che la prossima versione di DirectX avrebbe portato grandi innovazioni. Invece hanno dichiarato l'esatto contrario. Strano eh? ;)
Non per uno sviluppatore, che ha bisogno di certezze. Se so che fra 3-4 anni, Microsoft rilascerà una nuova API che mi semplificherà la vita e mi permette di guadagnare molto in prestazioni, quando oggi invece mi devo fare un discreto mazzo (e a ciò aggiungiamo che le nuove API saranno compatibili con praticamente tutte le GPU esistenti), chi me lo fa fare di investire pesantemente nello sviluppo di engine DirectX 11?

In questo modo Microsoft ha lasciato che gli sviluppatori spremessero le DirectX 11, a vantaggio dei giochi su PC, che ne hanno bisogno.

macellatore
08-07-2015, 06:55
Alla fine AMD ha chiuso a -15.38%,
una giornata drammatica :muro:

Piedone1113
08-07-2015, 08:20
Non ho capito cosa c'entra rivolgersi così. Io non spalo niente e spero che amd riprenda ad essere una buona concorrente.

Cmq un utile dello 5.5%( editato e fatto ilcalcolo)al dayone delle console ... Appunto è svendersi.
Se fosse stato un lavoro costante poteva andare , ma adesso quanto guadagna. Perche deve continuare a rifornirli , non puo ritirarsi.

Nel mondo economico dei grandi numeri non si calcola l'utile con il ricarico sul singolo pezzo, ma:
Costo di progettazione e sviluppo + costi del pezzo finito x previsione di vendita + interessi sull'eventuale esposizione fino al piano di rientro.
Queste sono le voci a passivo.
Mentre il ricarico sul singolo pezzo va moltiplicato per la previsione di vendita razionalizzata al trend previsto.

In parole povere se io progetto un utensile, ed il costo di progettazione e sviluppo mi costa 1000000 ed il singolo pezzo lo pago 5€ e lo rivendo a 5,5€ con previsioni di:
2000000 di pezzi venduti il primo anno
1500000 di pezzi venduti il secondo anno
1000000 pezzi il terzo
5000000 pezzi il quarto
100000 pezzi il quinto
avrò come utile 10000000 € il primo anno (che gia mi pareggia l'investimento)
un utile di 750000 € il secondo (che mi ripaga un eventuale esposizione del 10% dei debiti)
un utile di 500000 € il terzo
un utile di 250000 € il quarto
un utile di 50000 € il quinto.

il mio utile finale sarà: 2550000 (2450000 in caso di esposizione del 10%)
Spalmato in 5 anni (che non è corretto ma lo concedo per semplicità) di 490000 € annui che corrisponde ad un utile netto del 49% della somma investita a fronte di un utile lordo del solo 10% sul singolo pezzo.
Dato che non sappiamo i costi di progettazione e sviluppo dei chip custom non possiamo dire se lisa su si sia riferito ad essi o a mantle, o qualche altra tecnologia che non ha portato utili.
Adesso la domanda finale è vendere con il 10% di ricarico sul singolo pezzo significa svendersi oppure fare un investimento così profittevole da far invidia ai migliori broker (stiamo parlando di quasi il 50% annui di utili e di un netto del +150% del capitale investito su 5 anni).
Dimmi un investimento che ti fa rientrare delle spese gia il primo anno ed un guadagno al netto del capitale investito del 150% in 5 anni ti sembra svendersi o rimetterci?

PaulGuru
08-07-2015, 09:11
"secondo me fallisce" cit.
prima rispondi tu alla mia domanda invece di girarla, io saprei già cosa risponderti a questa.
"ma non è ancora fallita?" cit.
Non fallirà mai, è supportata dall'antitrust.

Piedone1113
08-07-2015, 09:26
Non fallirà mai, è supportata dall'antitrust.

Che significa che l'antitrust finanzia AMD o cosa?
Mi sa che non è ben chiaro quale sia il compito dell'antitrust.
L'antitrust non obbliga ad avere un concorrente, ma nel caso tu sia l'unico player presente nel settore ti obbliga a non impedire l'ingresso di un altro player.
Quindi se AMD fallisse l'unica cosa che potrebbe fare l'antitrust è obbligare Intel a concedere la licenza x86 ad un altro player eventualmente disponibile ad un prezzo congruo (che viene concordato anche dall'antitrust).
Tutte le altre cose (come concorrenza sleale) possono interessare l'antitrust, ma sono pertinenza dei tribunali in quanto ci sono leggi a riguardo in ogni stato occidentale.
L'antitrust non è un dittatore, ma un organo di controllo affinche un player in regime di monopolio (o quasi monopolio) non ostacoli il concorrente con pratiche scorrette (come la vendita a prezzo di costo per impedire guadagni al concorrente) o non ne impedisca l'ingresso nel settore negando l'uso di licenze indispensabili.

Ale55andr0
08-07-2015, 09:58
Non fallirà mai, è supportata dall'antitrust.

e dopo la perla del pp chiudiamo in bellezza :asd:

davo30
08-07-2015, 13:19
Leggo che molti inneggiano a questi fantomatici 14nm FinFet. All'attuale i 14nm di GlobalFoundries sono processi Low Power (non a caso si chiamano LowPowerEarly e LowPowerPlus) adatti giusto a soc per smartphone tablet e notebook. L'unica ad avere un processo Finfet adatto all'high performance è TSMC, con i 16nm FF++. Quindi all'attuale AMD (a meno che GF non abbia tenuto nascosto il pp ad alte prestazioni, ma vista l'affidabilità di GF ci credo poco) non sa su quale PP verrà sviluppato ZEN, a meno che non sia quello di TSMC.

Piedone1113
08-07-2015, 15:10
Leggo che molti inneggiano a questi fantomatici 14nm FinFet. All'attuale i 14nm di GlobalFoundries sono processi Low Power (non a caso si chiamano LowPowerEarly e LowPowerPlus) adatti giusto a soc per smartphone tablet e notebook. L'unica ad avere un processo Finfet adatto all'high performance è TSMC, con i 16nm FF++. Quindi all'attuale AMD (a meno che GF non abbia tenuto nascosto il pp ad alte prestazioni, ma vista l'affidabilità di GF ci credo poco) non sa su quale PP verrà sviluppato ZEN, a meno che non sia quello di TSMC.

Io avevo sentito 28/22hp sams-stm fbsoi e 14 stm, ma tra quelli cancellati, scartati, antieconomici (ed intel ha rimandato di 2 anni rispetto alle previsioni i 10nm) non si capisce nulla.
Credo che un 14 LP andrebbe comunque meglio degli attuali 32-28

davo30
08-07-2015, 18:38
Io avevo sentito 28/22hp sams-stm fbsoi e 14 stm, ma tra quelli cancellati, scartati, antieconomici (ed intel ha rimandato di 2 anni rispetto alle previsioni i 10nm) non si capisce nulla.
Credo che un 14 LP andrebbe comunque meglio degli attuali 32-28

Ma vah, come fa ad andare bene un PP per soc da massimo 15W, esagerando 35W?

Piedone1113
08-07-2015, 19:01
Ma vah, come fa ad andare bene un PP per soc da massimo 15W, esagerando 35W?
Mi sa che il grosso del mercato lo si fa nel mobile e 35w sono buoni, per gli hp (ws server) devono usare per forza 28fb-soi per migrare appena possibile allo step intermedio 22 (se non è stato cancellato nel frattempo) e poi al 16-14.
Credo che al momento attuale AMD sia propensa a passare a samsung-stm piuttosto che continuare ad andare dietro agli annunci di GF seguiti da rapide smentite.
Ps hai notato i problemi che sta avendo intel con i pp?

cdimauro
08-07-2015, 19:06
prima rispondi tu alla mia domanda invece di girarla, io saprei già cosa risponderti a questa.
Se avessi avuto l'accortezza di leggere quello che scrive la gente, avresti notato che m'ero già espresso in merito.

cdimauro
08-07-2015, 19:09
Che significa che l'antitrust finanzia AMD o cosa?
Mi sa che non è ben chiaro quale sia il compito dell'antitrust.
L'antitrust non obbliga ad avere un concorrente, ma nel caso tu sia l'unico player presente nel settore ti obbliga a non impedire l'ingresso di un altro player.
Quindi se AMD fallisse l'unica cosa che potrebbe fare l'antitrust è obbligare Intel a concedere la licenza x86 ad un altro player eventualmente disponibile ad un prezzo congruo (che viene concordato anche dall'antitrust).
Tutte le altre cose (come concorrenza sleale) possono interessare l'antitrust, ma sono pertinenza dei tribunali in quanto ci sono leggi a riguardo in ogni stato occidentale.
L'antitrust non è un dittatore, ma un organo di controllo affinche un player in regime di monopolio (o quasi monopolio) non ostacoli il concorrente con pratiche scorrette (come la vendita a prezzo di costo per impedire guadagni al concorrente) o non ne impedisca l'ingresso nel settore negando l'uso di licenze indispensabili.
Ma se licenze ci sono già? VIA ne ha una, ma ci sono anche altre aziende che hanno smesso di produrre chip x86. Per quale motivo Intel dovrebbe essere costretta a rilasciare ancora altre licenze? L'antitrust non potrebbe toglierle a chi non le usa?
(ed intel ha rimandato di 2 anni rispetto alle previsioni i 10nm) non si capisce nulla.
Ps hai notato i problemi che sta avendo intel con i pp?
No. Hai delle informazioni a riguardo?

Piedone1113
08-07-2015, 19:31
Ma se licenze ci sono già? VIA ne ha una, ma ci sono anche altre aziende che hanno smesso di produrre chip x86. Per quale motivo Intel dovrebbe essere costretta a rilasciare ancora altre licenze? L'antitrust non potrebbe toglierle a chi non le usa?
Via, Cyrix, Transmeta hanno licenze x86-64 (o EMT come si vuole)?
I 64 Bit se non erro fanno parte di un paccheto di cross licensing, oltre alle licenze x86 propriamente dette mancano tutte le sse e le avx, oltre a quelle riguardante la virtualizzazione e la sicurezza.
Nel caso AMD fallisca, l'antitrust obbligherebbe intel a cedere queste licenze per dare la possibilità (alquanto remota) di far entrare un player in grado di confrontarsi ad armi pari con il monopolista.
Questo è lo scenario più plausibile (ma dubito che ci sia qualcono che avrebbe l'ardore di entrare in competizione con Intel avendo zero esperienza nel settore x86 (anche IBM non investirebbe un solo ingegnere su una cpu x86 a meno di finanziatori esterni).



No. Hai delle informazioni a riguardo?

http://www.digitimes.com/news/a20150707PD202.html

Stava a significare non un'incompetenza Intel, ma le grosse problematiche che PP così spinti rallentano anche il player più all'avanguardia nel settore.
Come si potrebbe pretendere che GF le faccia tutte giuste (speriamo che prima o poi sbagli qualcosa e riesca a proporre un pp appena decente)

Ps 2 anni era riferirito alle vecchie slide date anni orsono dove i 10nm venivano preventivati nel 2016.

cdimauro
08-07-2015, 20:03
Via, Cyrix, Transmeta hanno licenze x86-64 (o EMT come si vuole)?
Cyrix è stata assorbita in parte da Via e in parte da AMD, e Transmeta è stata smembrata, per cui non credo proprio.

Via non mi pare di aver prodotto processori x86-64, e dunque non dovrebbe avere questa licenza.

Comunque per questo processore la licenza dev'essere richiesta ad AMD, e non a Intel.
I 64 Bit se non erro fanno parte di un paccheto di cross licensing,
Esattamente, ma non so se Intel possa, a sua volta, vendere licenze x86-64.
oltre alle licenze x86 propriamente dette mancano tutte le sse e le avx,
Certamente, questo sono altrettanto importanti. Anzi, vitali per un processore moderno, dove l'unità SIMD ha un ruolo di primo piano per quanto riguarda le prestazioni (ove sia possibile parallelizzare il processamento dei dati, ovviamente).
oltre a quelle riguardante la virtualizzazione e la sicurezza.
Qui le strade si sono biforcate: ognuno ha sviluppato tecnologie proprietarie. Si tratta di poche istruzioni ed estensioni, per cui sono facilmente supportabili, e sarebbe lo stesso se un altro player ne introducesse altro.

Nulla a che vedere con IA-32 ed SSE/AVX, la cui licenza è fondamentale per garantire ("ereditare automaticamente") il supporto da parte del software.
Nel caso AMD fallisca, l'antitrust obbligherebbe intel a cedere queste licenze per dare la possibilità (alquanto remota) di far entrare un player in grado di confrontarsi ad armi pari con il monopolista.
Se parliamo di x86-64, l'antitrust dovrebbe obbligare AMD o il suo acquirente.

Per IA-32 ed SSE rimane Via a essere licenziataria, ma non ha le AVX. In questo caso Intel potrebbe essere costretta a rilasciargli anche la licenza per questa estensione.

Comunque per quale motivo l'antitrust non potrebbe sottrarre la licenza a Via e destinarla a un concorrente in grado di competere? Non è che Intel può mettersi a elargire licenze a destra e a manca soltanto perché gli attuali licenziatari non sono in grado di competere con lei?
Questo è lo scenario più plausibile (ma dubito che ci sia qualcono che avrebbe l'ardore di entrare in competizione con Intel avendo zero esperienza nel settore x86 (anche IBM non investirebbe un solo ingegnere su una cpu x86 a meno di finanziatori esterni).
nVidia avrebbe voluto farlo, ma è stata costretta a desistere proprio dalla mancanza di una licenza IA-32 (e annesse).
http://www.digitimes.com/news/a20150707PD202.html

Stava a significare non un'incompetenza Intel, ma le grosse problematiche che PP così spinti rallentano anche il player più all'avanguardia nel settore.
Come si potrebbe pretendere che GF le faccia tutte giuste (speriamo che prima o poi sbagli qualcosa e riesca a proporre un pp appena decente)

Ps 2 anni era riferirito alle vecchie slide date anni orsono dove i 10nm venivano preventivati nel 2016.
Questo è corretto: il debutto dei 10nm era previsto per il 2016. Dal documento che hai postato sembra che lo spostamento sia di 3-6 mesi, ma il debutto rimane comunque per il 2016. In effetti uno spostamento di 2 anni mi sembrava troppo esagerato.

Senza nulla togliere al fatto che penso sia normale aspettarsi problemi coi nuovi processi produttivi, perché risulta sempre più difficile causa limiti della fisica.

Piedone1113
09-07-2015, 07:50
Se parliamo di x86-64, l'antitrust dovrebbe obbligare AMD o il suo acquirente.

Per IA-32 ed SSE rimane Via a essere licenziataria, ma non ha le AVX. In questo caso Intel potrebbe essere costretta a rilasciargli anche la licenza per questa estensione.

Comunque per quale motivo l'antitrust non potrebbe sottrarre la licenza a Via e destinarla a un concorrente in grado di competere? Non è che Intel può mettersi a elargire licenze a destra e a manca soltanto perché gli attuali licenziatari non sono in grado di competere con lei?

nVidia avrebbe voluto farlo, ma è stata costretta a desistere proprio dalla mancanza di una licenza IA-32 (e annesse).

Questo è corretto: il debutto dei 10nm era previsto per il 2016. Dal documento che hai postato sembra che lo spostamento sia di 3-6 mesi, ma il debutto rimane comunque per il 2016. In effetti uno spostamento di 2 anni mi sembrava troppo esagerato.

Senza nulla togliere al fatto che penso sia normale aspettarsi problemi coi nuovi processi produttivi, perché risulta sempre più difficile causa limiti della fisica.

Nenza dividere i vari punti:

1:
Probabilmente x86-64 ci sono estensioni proprietarie Intel che potrebbero rendere insufficenti le sole estensioni AMD, ma il linea di massima hai ragione (sempre che AMD non venga rilevata in blocco da un fondo di investimenti, ma poichè il settore cpu rientra tra i prioritari per la sicurezza nazionale USA anche l'acquisizione delle licenze di AMD sarebbe sottoposta al nulla osta del Congresso, e non è fantapolitica)

2: Via è una licenziataria di alcune licenze x86, ma non la proprietaria, quindi non l'antitrust non può obbligare Via a cedere l'uso di licenze per la quale non è proprietaria

3: So che collabori con Intel e forse hai maggiori info, ma mi sembra di capire la produzione in scala sia da considerarsi a ridosso del 2018 (seconda metà del 2017) e spero di aver capito male dato che i 10nm servono ad intel + per il mobile (tablet-phone) che per il classico desktop-ws-server, rendendo difatti tutti gli investimenti e le agevolazioni concessi fin'ora molto meno efficaci nei confronti di arm.
Insomma per chi pensa che intel sia un rullocompressore dovrebbe far riflettere questa cosa, anche in rapporto alle altre fonderie (e l'anzianità dei 28nm di tsmc dovrebbe dimostrarlo, se ce ne fosse bisogno)

davo30
09-07-2015, 11:23
Mi sa che il grosso del mercato lo si fa nel mobile e 35w sono buoni, per gli hp (ws server) devono usare per forza 28fb-soi per migrare appena possibile allo step intermedio 22 (se non è stato cancellato nel frattempo) e poi al 16-14.
Credo che al momento attuale AMD sia propensa a passare a samsung-stm piuttosto che continuare ad andare dietro agli annunci di GF seguiti da rapide smentite.
Ps hai notato i problemi che sta avendo intel con i pp?

Si, ma qui si parla di Zen, che da dichiarazioni AMD avra massimo TDP 95W per le soluzioni desktop (quindi mi aspetto proci da 95W e 65W).
Proporre Zen a 28nm nel 2016 sarebbe semplicemente RIDICOLO

PaulGuru
09-07-2015, 11:29
Si, ma qui si parla di Zen, che da dichiarazioni AMD avra massimo TDP 95W per le soluzioni desktop (quindi mi aspetto proci da 95W e 65W).
Proporre Zen a 28nm nel 2016 sarebbe semplicemente RIDICOLOProprio perchè lo dice AMD che nascono i dubbi.
Senza contare che se è vero che passeranno ai FinFet, spero per loro che offrano una gamma da 125-130W.

Per un prodotto che deve recuperare performance .... l'usare un approccio cauto ( 95W e forse compresa la GPU ) anche sui top non è il massimo a meno che pensino di aver seriamente colmato tutto il gap, il chè è ridicolo.

Piedone1113
09-07-2015, 12:10
Si, ma qui si parla di Zen, che da dichiarazioni AMD avra massimo TDP 95W per le soluzioni desktop (quindi mi aspetto proci da 95W e 65W).
Proporre Zen a 28nm nel 2016 sarebbe semplicemente RIDICOLO
Come ha detto la bellissima Monna Lisa Su (che ce la fai) si concentreranno dove ci sono i margini quindi notebook e ws server, il mercato desktop sarà relegato agli scarti del mercato ws ed in parte da versioni particolari di apu mobili (magari con hbm ) e punteranno sopratutto a soluzioni compatte e aio, tranne qualche proposta entusiast che dovrebbero (secondo la mia opinione ) derivare dalle ws

Proprio perchè lo dice AMD che nascono i dubbi.
Senza contare che se è vero che passeranno ai FinFet, spero per loro che offrano una gamma da 125-130W.

Per un prodotto che deve recuperare performance .... l'usare un approccio cauto ( 95W e forse compresa la GPU ) anche sui top non è il massimo a meno che pensino di aver seriamente colmato tutto il gap, il chè è ridicolo.

Non credo che 125-130w siano fattibili per postazioni desktop senza incorrere in alti rischi di rma.
Ridurre il pp significa offrire minore superfice di scambio termico (a parità di numero di transistor) quindi servono dissipatori che offrono elevata capacità conduttiva per mm2.
Raddoppiare il numero di transistor equivale a quadruplicare gli scarti (anche integrando parti ritordanti per riddurre gli scarti)
Quindi per desktop credo che i 95w saranno il top, oltre non sarebbe economico (a meno di sparate tipo fx9570).
Offrire potenza di calcolo pari ad un fx8350 in 25-35w sia in mt che st significherebbe entrare con un prodotto più che valido in un settore dagli alti margini (chi non vorrebbe un cpu tipo fx63xx con 25w in un notebook?)

PaulGuru
09-07-2015, 12:34
Non credo che 125-130w siano fattibili per postazioni desktop senza incorrere in alti rischi di rma.
Ridurre il pp significa offrire minore superfice di scambio termico (a parità di numero di transistor) quindi servono dissipatori che offrono elevata capacità conduttiva per mm2.
Raddoppiare il numero di transistor equivale a quadruplicare gli scarti (anche integrando parti ritordanti per riddurre gli scarti)
Quindi per desktop credo che i 95w saranno il top, oltre non sarebbe economico (a meno di sparate tipo fx9570).
Offrire potenza di calcolo pari ad un fx8350 in 25-35w sia in mt che st significherebbe entrare con un prodotto più che valido in un settore dagli alti margini (chi non vorrebbe un cpu tipo fx63xx con 25w in un notebook?)La gamma enthusiast di Intel gira fra i 115 e i 130W di TDP, esclusa la GPU.
Idem i precedenti FX 8xxx

Sul desktop dovrebbero essere le prestazioni e non l'efficienza ad avere le priorità maggiore, AMD ancora di più.

Offrire potenza di calcolo pari ad un fx8350 in 25-35w sia in mt che st significherebbe entrare con un prodotto più che valido in un settore dagli alti margini (chi non vorrebbe un cpu tipo fx63xx con 25w in un notebook?)E chi invece vuole molta più potenza di 8350 ?

Piedone1113
09-07-2015, 14:27
La gamma enthusiast di Intel gira fra i 115 e i 130W di TDP, esclusa la GPU.
Idem i precedenti FX 8xxx

Sul desktop dovrebbero essere le prestazioni e non l'efficienza ad avere le priorità maggiore, AMD ancora di più.

E chi invece vuole molta più potenza di 8350 ?

La serie Desktop degli i7 non mi sembra siano da 140w (se ti riferisci agli i7 5xxx)
Quindi per desktop non sono presenti cpu over 84w.
Invece quando ho scritto tranne qualche soluzione entusiast di derivazione ws avresti minimo dovuto considerare cosa significa e cosa stia facendo intel.
Gli i7 59xx non sono processori di progettazione desktop, ma cpu (adattati, scartati, o presi in prestito, chiamali come ti pare) derivati da un progetto per WS e Server (xeon).

Ma adesso ti rigiro la domanda:
ma chi vuole molta più potenza di un 5960x cosa farà.
E sopratutto (tranne che per una percentuale esigua) quante di queste cpu vengono usate in compiti che non siano bench per dimostrare al mondo intero quanto ce l'ho lungo?

PaulGuru
09-07-2015, 16:24
La serie Desktop degli i7 non mi sembra siano da 140w (se ti riferisci agli i7 5xxx)
Quindi per desktop non sono presenti cpu over 84w.
Invece quando ho scritto tranne qualche soluzione entusiast di derivazione ws avresti minimo dovuto considerare cosa significa e cosa stia facendo intel.
Gli i7 59xx non sono processori di progettazione desktop, ma cpu (adattati, scartati, o presi in prestito, chiamali come ti pare) derivati da un progetto per WS e Server (xeon).

Ma adesso ti rigiro la domanda:
ma chi vuole molta più potenza di un 5960x cosa farà.
E sopratutto (tranne che per una percentuale esigua) quante di queste cpu vengono usate in compiti che non siano bench per dimostrare al mondo intero quanto ce l'ho lungo?
Scusa ma dove lo hai letto 140 ? :mbe:

I processori per desktop sono quelli destinati alle piattaforme desktop col relativo LGA, da dove derivino lascia il tempo che trova, quindi anche nel settore VGA le 780Ti e 980Ti non sono da desktop ?

Più potenza di un 5960x ? Chi avrebbe chiesto ciò ? Io ho chiesto più di un banale 8350 ........ come siamo passati da 8350 a 5960x ?

Piedone1113
09-07-2015, 16:59
Scusa ma dove lo hai letto 140 ? :mbe:

I processori per desktop sono quelli destinati alle piattaforme desktop col relativo LGA, da dove derivino lascia il tempo che trova, quindi anche nel settore VGA le 780Ti e 980Ti non sono da desktop ?

Più potenza di un 5960x ? Chi avrebbe chiesto ciò ? Io ho chiesto più di un banale 8350 ........ come siamo passati da 8350 a 5960x ?
http://ark.intel.com/products/82930/Intel-Core-i7-5960X-Processor-Extreme-Edition-20M-Cache-up-to-3_50-GHz

Paul se vuoi parlare con cognizione posso anche risponderti, mentre se vuoi sparare a zero lascio li.
Come vedi da specifica Intel, e non Piedone o PaulGuru, ma dico di chi produce e commercializza tale cpu il tdp è 140w e non venirmi a dire che 10w li prende la gpu dato che come tutte le versioni non declassate di quella cpu ne è sprovvista.

Per tua ulteriore informazione tutti i socket 2011v3 (stiamo parlando di 59xx ti rammento) usano la stessa maschera litografica di questa cpu:
http://ark.intel.com/products/81909/Intel-Xeon-Processor-E5-2687W-v3-25M-Cache-3_10-GHz

fin quando intel non gli da id nel microcode della cpu il nome i7 (disabilitando 2 core- cache- link qpi) quella cpu è uno xeon che viene inseguito declassato.

Ma sicuramente sei convinto che un i7 59xx è una cpu con progetto proprio, maschere litografiche proprie, catene di produzione proprie e cercare di convingerti che non è vero sarebbe inutile.

onestamente non credo che 980ti/titanx siano tesla (la vecchia serie titan invece lo erano), ma questo è dovuto solo al dover adattare un progetto di gpu ad un processo di produzione sorpassato che però ancora non si riesce a mettere in cantina perchè il nuovo non è pronto.

(dovrei informarmi meglio, ma dal progetto originario è stato ridotto il numero di unità dp e semplificato il controller ram, che non rimappa in hardware la configurazione ecc)

cdimauro
09-07-2015, 17:20
Nenza dividere i vari punti:

1:
Probabilmente x86-64 ci sono estensioni proprietarie Intel che potrebbero rendere insufficenti le sole estensioni AMD,
Si potrebbe trattare di qualche istruzione in più, se esiste, ma in genere vengono aggiunte alle estensioni SIMD, e dunque risultano coperte dalle rispettive licenze.
ma il linea di massima hai ragione (sempre che AMD non venga rilevata in blocco da un fondo di investimenti, ma poichè il settore cpu rientra tra i prioritari per la sicurezza nazionale USA anche l'acquisizione delle licenze di AMD sarebbe sottoposta al nulla osta del Congresso, e non è fantapolitica)
Senz'altro.
2: Via è una licenziataria di alcune licenze x86, ma non la proprietaria, quindi non l'antitrust non può obbligare Via a cedere l'uso di licenze per la quale non è proprietaria
Capisco, ma non condivido la corrente legislazione, perché mi sembra irragionevole. Se, ad esempio, Intel fosse costretta a rilasciare altre licenze IA-32, senza che vengano toccate quelle attuali (perché "poco incidenti" in termini di market share), ma un domani gli attuali licenziatari aumentassero le loro quote di mercato, allora Intel si troverebbe a patire un danno molto più grande di quello prospettato, perché ci sarebbero molto più concorrenti che le sottrarrebbero più quote di mercato.

A mio avviso la cessione di una licenza dovrebbe essere vincolata a determinati requisiti di "produttività" da parte del licenziatario. Nel momento in cui l'antitrust volesse intervenire per regolare il mercato, dovrebbe in primis far decadere le licenze dei produttori "non produttivi", riassegnandole ad altre aziende interessate a entrare nel mercato.

Costringere Intel (o un'altra azienda in condizioni similari per altre tipologie di mercato) a cedere altre licenze dovrebbe rappresentare l'estrema ratio, quando cioé gli attuali licenziatari sono totalmente fuori gioco (per bancarotta, oppure a causa di un'acquisizione che ha fatto decadere la licenza).

Il tutto chiaramente IMO.
3: So che collabori con Intel
Sono un dipendente. :)
e forse hai maggiori info,
Mi occupo di QA per alcuni prodotti (Xeon Phi in primis), ma sviluppo anche codice quando serve, per cui non è il genere di informazioni che mi passano. Difatti la stragrande maggioranza delle volte sono cose che vengo a sapere "da fuori", da siti come questo. :D

In ogni caso, anche se ne fossi a conoscenza, per ovvi motivi non ne potrei parlare. E difatti mi astengo sempre da riportare informazioni aziendali, a meno che non siano già di dominio pubblico. Diciamo che mi comporto così perché m'è cara la testa. :p
ma mi sembra di capire la produzione in scala sia da considerarsi a ridosso del 2018 (seconda metà del 2017)
Dalle informazioni che stanno circolando, la produzione di massa dovrebbe arrivare nel 2017, mentre nel 2016 arriveranno i primi lotti (che saranno limitati).
e spero di aver capito male dato che i 10nm servono ad intel + per il mobile (tablet-phone) che per il classico desktop-ws-server, rendendo difatti tutti gli investimenti e le agevolazioni concessi fin'ora molto meno efficaci nei confronti di arm.
E' chiaro che il mobile è fondamentale per competere con ARM, ma anche il settore server.

cdimauro
09-07-2015, 17:31
scusa, ma faccio fatica a starvi dietro
In tal caso non sarebbe meglio evitare d'intervenire?

Ti quoto la tua firma: "La regola delle 10P: Prima pensa, poi parla, perché parole poco pensate partoriscono "puttanate"".
comunque il concetto è che se spendo 0 e ci ricavo anche solo 1, perché si parla di svendersi?
il progetto console è pagato da sony e da microsoft non da amd, c'è solo da guadagnarci e per almeno 10 anni
non vuol dire vivere di rendita, ma meglio che niente
Nessuno dice che non ci sia guadagno, ma stai impegnando risorse aziendali per un prodotto che, alla fine, pur facendoti guadagnare, non ti fa arricchire.

E' questo il motivo per cui il nuovo CEO di AMD ha deciso di puntare su prodotti molto più redditizi, andando quindi diametralmente contro quando ha fatto finora, in particolare coi SoC delle console.

Secondo te il CEO è impazzito o sta operando una scelta corretta? Nel secondo caso le tue discussioni e prese di posizione sono del tutto ingiustificate, e si possono considerare la classica difesa a oltranza da fanboy.

Nel primo caso, invece, puoi proporti ad AMD come prossimo CEO, visto che quello attuale sarebbe da legare con una camicia di forza...
te l'ho già detto, non si può parlare con te se non sei oggettivo
Scusami, ma tu eri già al corrente delle informazioni sui 10nm? Io no, e da lì il mio stupore e la richiesta di informazioni.

Cosa ci vedi di male in tutto ciò francamente non riesco a spiegarmelo, tranne per il tuo ben noto fanatismo pro-AMD. E dunque sarei io quello a non essere oggettivo? Bah...
dai facciamo così, intel non ha mai avuto problemi sul 14nm, e non li avrà sui 10nm...
E due. Chi ha detto il contrario? Quotami e dimostralo. Altrimenti, vale quanto detto sopra: il tuo rimane un commento da fan pro-AMD.
ma intanto ha perso il vantaggio tecnologico enorme che aveva accumulato, ma non gliene faccio una colpa, è normale, ha investito in altri ambiti, come mobile (contra revenue) e altera adesso.
Premesso che sarebbe da quantificare l'impatto di del ritardo dei 10nm se fosse un problema dovuto al nuovo processo produttivo, hai delle fonti che affermino che Intel abbia dirottato parte delle sue risorse dalle fab al mobile e/o Altera? O anche questa fa parte di quanto detto sopra?

Piedone1113
09-07-2015, 18:53
Capisco, ma non condivido la corrente legislazione, perché mi sembra irragionevole. Se, ad esempio, Intel fosse costretta a rilasciare altre licenze IA-32, senza che vengano toccate quelle attuali (perché "poco incidenti" in termini di market share), ma un domani gli attuali licenziatari aumentassero le loro quote di mercato, allora Intel si troverebbe a patire un danno molto più grande di quello prospettato, perché ci sarebbero molto più concorrenti che le sottrarrebbero più quote di mercato.

A mio avviso la cessione di una licenza dovrebbe essere vincolata a determinati requisiti di "produttività" da parte del licenziatario. Nel momento in cui l'antitrust volesse intervenire per regolare il mercato, dovrebbe in primis far decadere le licenze dei produttori "non produttivi", riassegnandole ad altre aziende interessate a entrare nel mercato.

Costringere Intel (o un'altra azienda in condizioni similari per altre tipologie di mercato) a cedere altre licenze dovrebbe rappresentare l'estrema ratio, quando cioé gli attuali licenziatari sono totalmente fuori gioco (per bancarotta, oppure a causa di un'acquisizione che ha fatto decadere la licenza).

Il tutto chiaramente IMO.



Riguardo le licenze c'è da fare alcuni distinguo:
Le licenze non vengono concesse in modalità perenne uso (4 anni fa AMD è dovuta ricorrere in arbitrato perchè alcune licenze erano giunte a fine sfruttamento, e solo grazie ad esso sono state rinnovate, ma non so in che modo e con quali modalità), ed onestamente non so quando scadono a Via le licenze Intel (quelle ancora valide)
Intel ha sempre posto in essere la non trasferibilità delle licenze, ed anche in caso di licenze valide potrebbe, teoricamente, impedirne l'usufrutto all'acquirente del licenziatario.
Al contrario di quello che pensi trovo l'obbligo di concedere l'uso della licenza (in Italia per un tot di anni è stato concesso l'uso gratuito dei transponder gsm) per settori di primaria importanza sinonimo di civiltà, ed in alcuni settori ridurrei addirittura la durata dei brevetti (chi ha detto medicina?) a soli 2 max 3 anni, con un intervallo di altri 2 - 3 anni di "affitto" a prezzo mediato dallo stato (o un organo governativo) a tutti i richiedenti.
Il prezzo dovrebbe essere stabilito anche dalla percentuale di investimento in ricerca che il richiedente adopera rispetto agli utili.

ultima cosa, voci soffuse indicano la volontà futura di Intel di entrare nel settore rendering con le sue PHI, puoi aggiungere qualcosa oppure sono voci infondate?
Tralascia se per rispondere devresti usare il casco.

Circa l'investimento consolle, non sappiamo quanto effettivamente ha speso AMD in tutto questo, ed onestamente non credo che sia stato difficile o complicato, o addirittura fuori solco da sviluppi futuri, adattare le proprie Apu alle consolle.
Se invece parliamo di mantle, opencl, ed altri progetti di o che ha coproposto AMD Lisa ha perfettamente ragione, per quanto Mantle porti miglioramenti alli vga AMD economicamente l'intero progetto è stato un fallimento.

AceGranger
09-07-2015, 19:10
ultima cosa, voci soffuse indicano la volontà futura di Intel di entrare nel settore rendering con le sue PHI, puoi aggiungere qualcosa oppure sono voci infondate?
Tralascia se per rispondere devresti usare il casco.


in che senso ? teoricamente sarebberio gia tranquillamente sfruttabili, sta agli sviluppatori implementarlo; un anno fa ho avuto modo di chiederlo direttamente al creatore di Vray e mi ha risposto che per ora avevano qualche problema di surriscaldamento della scheda e che in fase di render la memoria della PHI si comportava come quella delle GPU nel rendering GPGPU, quindi quella avevi e quella ti tenevi

comuqnue credo che prima o poi arrivera, visto che Intel ha sviluppato i calcoli ray tracing Embree ( che sono stati integrati da VRay nell'ultima verisone 3.0 ) che supportano anche istruzioni particolari delle PHI, credo sia solo questione di tempo, e poi mi pare che ora le PHI usciranno in versione socket classico potendo cosi usare la ram di sistema.

davo30
09-07-2015, 19:18
Riguardo le licenze c'è da fare alcuni distinguo:
Le licenze non vengono concesse in modalità perenne uso (4 anni fa AMD è dovuta ricorrere in arbitrato perchè alcune licenze erano giunte a fine sfruttamento, e solo grazie ad esso sono state rinnovate, ma non so in che modo e con quali modalità), ed onestamente non so quando scadono a Via le licenze Intel (quelle ancora valide)
Intel ha sempre posto in essere la non trasferibilità delle licenze, ed anche in caso di licenze valide potrebbe, teoricamente, impedirne l'usufrutto all'acquirente del licenziatario.
Al contrario di quello che pensi trovo l'obbligo di concedere l'uso della licenza (in Italia per un tot di anni è stato concesso l'uso gratuito dei transponder gsm) per settori di primaria importanza sinonimo di civiltà, ed in alcuni settori ridurrei addirittura la durata dei brevetti (chi ha detto medicina?) a soli 2 max 3 anni, con un intervallo di altri 2 - 3 anni di "affitto" a prezzo mediato dallo stato (o un organo governativo) a tutti i richiedenti.
Il prezzo dovrebbe essere stabilito anche dalla percentuale di investimento in ricerca che il richiedente adopera rispetto agli utili.

ultima cosa, voci soffuse indicano la volontà futura di Intel di entrare nel settore rendering con le sue PHI, puoi aggiungere qualcosa oppure sono voci infondate?
Tralascia se per rispondere devresti usare il casco.

Circa l'investimento consolle, non sappiamo quanto effettivamente ha speso AMD in tutto questo, ed onestamente non credo che sia stato difficile o complicato, o addirittura fuori solco da sviluppi futuri, adattare le proprie Apu alle consolle.
Se invece parliamo di mantle, opencl, ed altri progetti di o che ha coproposto AMD Lisa ha perfettamente ragione, per quanto Mantle porti miglioramenti alli vga AMD economicamente l'intero progetto è stato un fallimento.

Il problema non è l'investimento nelle console, ma l'evidente margine di guadagno quasi nullo.
AMD e Intel, per quanto sia paradossale visto il mercato in declino, hanno nell'x86 la gallina dalle uova d'oro. Non a caso Intel sta facendo numeroni con i server, desktop e workstation, non con il mobile dove vende sottocosto (contra revenue) i propri soc.
Il mercato ARM è teatro di quante, 10/15 forse piu aziende che producono Soc per smartphone, tablet, frigoriferi e forni, e si danno guerra sui centesimi. AMD e Intel sono in un duopolio in un mercato che sta perdendo colpi. Ma anche qua avrei da ridire, non si sta parlando di un mercato in scomparsa, ma di un mercato che invece che vendere 10000 processori, ne vende 8000, non 500.
AMD però in tutto questo non è stata capace di far fruttare le proprie competenze, sia per colpa sua, sia per colpa di una certa fonderia (anche se ad un certo punto, dopo che questi ti propongono tre processi produttivi merdosi, li mandi a quel paese e te ne cerchi un'altra). Anche tutti gli investimenti in Mantle e HSA hanno portato a nulla (in termini monetari sia chiaro). Di HSA, il salvatore della patria, non se ne sente piu parlare da un anno e mezzo :doh: .... A proposito, qualcuno ha qualche news?

Piedone1113
09-07-2015, 19:40
edit

AMD però in tutto questo non è stata capace di far fruttare le proprie competenze, sia per colpa sua, sia per colpa di una certa fonderia (anche se ad un certo punto, dopo che questi ti propongono tre processi produttivi merdosi, li mandi a quel paese e te ne cerchi un'altra). Anche tutti gli investimenti in Mantle e HSA hanno portato a nulla (in termini monetari sia chiaro). Di HSA, il salvatore della patria, non se ne sente piu parlare da un anno e mezzo :doh: .... A proposito, qualcuno ha qualche news?
Nella parte editata avrei da ridire alcune cose, tra le quali i contratti di esclusività a doppio filo con GF derivante dalla vendita delle fonderie, ma tralasciamo, perchè oltre a GF ha parte della colpa anche IBM che ha portato troppe versioni in sviluppo nel consorzio soi, con samsung e STM che hanno sviluppato altre 2 varianti.

Credo che LISA Su si riferisse più a mantle ed in parte hsa rispetto a Apu, e se consideri beni un apu 8 core, con supporto sia a memoria unificata(sony), che a doppio controller (xbox) sono le basi per poter portare su notebook apu 8 core ed apu 4 core con hbm.
In definitiva credo che parte dell'evoluzione del progetto APU sia stato pagato da ms e sony, e che invece di rallentarne lo sviluppo l'abbiano accellerato.
tutto questo secondo me.

cdimauro
09-07-2015, 19:49
Riguardo le licenze c'è da fare alcuni distinguo:
Le licenze non vengono concesse in modalità perenne uso (4 anni fa AMD è dovuta ricorrere in arbitrato perchè alcune licenze erano giunte a fine sfruttamento, e solo grazie ad esso sono state rinnovate, ma non so in che modo e con quali modalità), ed onestamente non so quando scadono a Via le licenze Intel (quelle ancora valide)
Intel ha sempre posto in essere la non trasferibilità delle licenze, ed anche in caso di licenze valide potrebbe, teoricamente, impedirne l'usufrutto all'acquirente del licenziatario.
Bene, in questo caso il problema che ho posto prima è risolto.
Al contrario di quello che pensi trovo l'obbligo di concedere l'uso della licenza (in Italia per un tot di anni è stato concesso l'uso gratuito dei transponder gsm) per settori di primaria importanza sinonimo di civiltà, ed in alcuni settori ridurrei addirittura la durata dei brevetti (chi ha detto medicina?) a soli 2 max 3 anni, con un intervallo di altri 2 - 3 anni di "affitto" a prezzo mediato dallo stato (o un organo governativo) a tutti i richiedenti.
Il prezzo dovrebbe essere stabilito anche dalla percentuale di investimento in ricerca che il richiedente adopera rispetto agli utili.
Su questo non sono d'accordo, perché gli investimenti vengono fatti da privati, rischiando i loro capitali, ed è giusto che possano avere un consistente ritorno economico.

Ti meraviglierà sapere che, personalmente, trovo che in settori strategici come la medicina dovrebbe essere esclusiva dello stato la ricerca e i relativi investimenti, perché la salute è un bene pubblico di primaria e assoluta importanza, che non può essere delegato al privato (il quale, ovviamente, investe dove vede opportunità di maggior guadagno).

Salute, energia, strade, acqua, e persino il cibo IMO dovrebbero essere di esclusiva o primario dominio dello stato. Al centro dello stato non c'è il cittadino, ma un essere umano con le sue intrinseche esigenze da soddisfare.

Qui, però, stiamo un po' divagando. ;)
ultima cosa, voci soffuse indicano la volontà futura di Intel di entrare nel settore rendering con le sue PHI, puoi aggiungere qualcosa oppure sono voci infondate?
Tralascia se per rispondere devresti usare il casco.
Come già detto, anche se avessi informazioni non potrei rilasciarle. Ma concordo con quanto scritto da AceGranger: Xeon Phi è un'architettura che si presta molto bene allo scopo, posto che venga sfruttata a dovere.

Il più grosso limite al momento è rappresentato dalla limitata quantità di memoria on board (perché si tratta di schede PCI-Express), che per certi impieghi diciamo "high-end" risulta troppo limitante. Ma è un problema che verrà risolto con la prossima versione, Knights Landing, che arriverà a breve sul mercato. Questo nuovo chip porterà anche a una novità sostanziale, che AceGranger ha già riportato: sarà venduto come processore (SoC), e funzionerà come tale. Ergo: non sarà più necessario ricorrere a specifici toolkit e codice ad hoc per poterlo sfruttare fin da subito. Ovviamente con codice dedicato si potrà spremere al meglio, ma non serve stravolgere il codice già scritto, al contrario di come avviene con CUDA oppure OpenCL.

Certamente, roadmap alla mano, Intel sta puntando molto su questa (micro)architettura, e infatti è già noto da tempo che ci sarà anche un successore.
Circa l'investimento consolle, non sappiamo quanto effettivamente ha speso AMD in tutto questo, ed onestamente non credo che sia stato difficile o complicato, o addirittura fuori solco da sviluppi futuri, adattare le proprie Apu alle consolle.
Ma se non ricordo male i bilanci di AMD, pur positivi per questo settore, non mi sembra che riportino guadagni consistenti (rispetto al numero di SoC venduti).
Se invece parliamo di mantle, opencl, ed altri progetti di o che ha coproposto AMD Lisa ha perfettamente ragione, per quanto Mantle porti miglioramenti alli vga AMD economicamente l'intero progetto è stato un fallimento.
OpenCL ha un futuro, e tutti i produttori di GPU vi si stanno buttando. Mantle no, e qui AMD s'è mossa malissimo, avendo portato avanti da sola questa tecnologia, e con le DirectX 12 che sarebbero comunque arrivate.

L'unico dubbio su OpenCL riguarda se abbia avuto senso investirci fin da subito, considerato che c'è pochissimo software a supportarlo.

cdimauro
09-07-2015, 19:51
Nella parte editata avrei da ridire alcune cose, tra le quali i contratti di esclusività a doppio filo con GF derivante dalla vendita delle fonderie, ma tralasciamo, perchè oltre a GF ha parte della colpa anche IBM che ha portato troppe versioni in sviluppo nel consorzio soi, con samsung e STM che hanno sviluppato altre 2 varianti.
Tra l'altro GlobalFoundries era roba sua...
Credo che LISA Su si riferisse più a mantle ed in parte hsa rispetto a Apu, e se consideri beni un apu 8 core, con supporto sia a memoria unificata(sony), che a doppio controller (xbox) sono le basi per poter portare su notebook apu 8 core ed apu 4 core con hbm.
In definitiva credo che parte dell'evoluzione del progetto APU sia stato pagato da ms e sony, e che invece di rallentarne lo sviluppo l'abbiano accellerato.
tutto questo secondo me.
Interessante analisi, a cui non avevo pensato.

Piedone1113
10-07-2015, 09:18
@Cdmauro
@Gridracedriver

Onestamente siete tra i pochi che fa piacere discutere anche stando dall'altro lato della barricata (secondo le proprie percezioni e ragionamenti) perchè avete spirito critico, siete propensi a cercare di capire cosa vorrebbero dire gli altri e sopratutto non portate preconcetti a precludere altre possibili analisi.
Tutto questo per dire che nessuno dei due è per:
Intel-Merda o AMD-Merda a prescindere e se alcune volte ci sono fraintentimenti potrebbe essere dovuto ad una cattiva esposizione, o ad altri Cxxxi per la testa che hanno fatto fraintendere i concetti.

CrapaDiLegno
10-07-2015, 10:45
Non credo sarebbe stato possibile, in primis a causa dei margini troppo ridotti a cui avrebbe dovuto vendere i chip a Microsoft e Sony.

Secondo, e non meno importante, Intel integra già GPU PowerVR in alcuni suoi SoC, per cui al limite avrebbe potuto continuare ad appoggiarsi a Imagination Technologies anziché fare un salto nel buio con nVidia, magari optando per una versione più avanzata.
Torno alla questione APU AMD vs alternativa di altri: dove sta scritto che dovevano per forza creare un chip unico che contenesse CPU e GPU?
CPU + GPU discrete costano certo di più di un chip tutto incluso, ma permettono anche prestazioni ben diverse. Mentre l'APU montata su PS4 è il massimo che si è riusciti a fare in AMD per limiti di die size e consumi, con una soluzione CPU+GPU separate si sarebbe potuto benissimo arrivare molto più in là.
Certo che Intel + nvidia per la loro soluzione hanno chiesto 100 e AMD ha chiesto 50, è quest'ultima a vincere l'appalto. Ma è evidente che non c'è alcun merito tecnico nella cosa, se non per via del prezzo stracciato cui AMD ha proposto la propria soluzione. Se uno lavora per 9 anni alla soluzione definitiva CPU+GPU dopo aver speso oltre 5 miliardi di dollari per assicurarsi le competenze per realizzarla e poi quando alla fine arriva il momento di vendere questa soluzione è costretto a svenderla per andare praticamente via pari, be', direi che il fail è palese.
Non è che ad AMD fare le APU per console sia costato zero o quasi, è costato tutto l'investimento dall'acquisizione di ATI a oggi. Costi che non sono mai stati recuperati in alcun modo. E se non ci è riuscita neanche con questa commessa da svariati milioni di pezzi assicurati per almeno 5 anni, be', direi che non c'è davvero speranza di pensare che lo possa fare in altra maniera.


Dipende. PS4 è di gran lunga più simile a un PC, per cui è senz'altro preferibile per chi volesse realizzare dei porting verso quest'ultimo.
Mmmm.. se non sbaglio l'APU della PS4 ha l'hUMA, quindi è possibile scrivere algoritmi di elaborazione molto stretti tra CPU e GPU che su PC non funzionerebbero bene.

La scelta di Microsoft è perfettamente in linea col suo passato, dove ha fatto uso di memoria embedded. Sono scelte che bisognerà vedere in futuro se pagheranno o meno, e non soltanto dal punto di vista dei risultati raggiungibili (perché agli sviluppatori servirà tempo per imparare a spremerla), ma anche dal punto di vista dei costi di produzione. Infatti le memorie sono più semplici da produrre e meno inclini a presentare difetti, per cui generalmente le rese sono migliori, e dunque i SoC dovrebbero essere più economici. A ciò si aggiunge che le memorie DDR3 sono più economiche delle GDDR5, e il trend dovrebbe mantenersi per un bel pezzo.

Ormai la frittata. Al momento si può certamente rilevare che questa mossa non sta pagando per quanto riguarda i risultati. In futuro vedremo se effettivamente la situazione migliorerà.

Be', come detto MS è rimasta nel suo passato con l'eSRAM di quelle dimensioni pensata per una console che dovrebbe supportare il FullHD. E non credo proprio che il SoC gli costi di meno, visto che se non ricordo male la eSRAM occupa una bella fetta del die. Spazio che non è stato riservato per l'uso di altre componenti computazionali come invece ha fatto Sony.
MS forse pensava che Sony avrebbe ancora una volta scelto di usare una soluzione standard con controller DDR3, con GPU + scarsa e ovviamente senza eSRAM. E' andata sul massimo risparmio per il minimo sforzo per essere davanti alla rivale come fece con la XBox360.
E invece è rimasta fregata da scelte tecniche davvero raccapriccianti per una console che doveva essere next gen.
A voler andare al risparmio a tutti i costi (APU scrausa, no controller GDDR) poi succede questo. E attribuire onori a AMD per aver realizzato queste APU per console, be', su, dai... va bene la tanta pubblicità (per chi non capisce quanto sono scarse le soluzioni proposte) ma per gli altri la cosa non è propriamente positiva.

Piedone1113
10-07-2015, 11:36
Torno alla questione APU AMD vs alternativa di altri: dove sta scritto che dovevano per forza creare un chip unico che contenesse CPU e GPU?
CPU + GPU discrete costano certo di più di un chip tutto incluso, ma permettono anche prestazioni ben diverse. Mentre l'APU montata su PS4 è il massimo che si è riusciti a fare in AMD per limiti di die size e consumi, con una soluzione CPU+GPU separate si sarebbe potuto benissimo arrivare molto più in là.
Certo che Intel + nvidia per la loro soluzione hanno chiesto 100 e AMD ha chiesto 50, è quest'ultima a vincere l'appalto. Ma è evidente che non c'è alcun merito tecnico nella cosa, se non per via del prezzo stracciato cui AMD ha proposto la propria soluzione. Se uno lavora per 9 anni alla soluzione definitiva CPU+GPU dopo aver speso oltre 5 miliardi di dollari per assicurarsi le competenze per realizzarla e poi quando alla fine arriva il momento di vendere questa soluzione è costretto a svenderla per andare praticamente via pari, be', direi che il fail è palese.
Non è che ad AMD fare le APU per console sia costato zero o quasi, è costato tutto l'investimento dall'acquisizione di ATI a oggi. Costi che non sono mai stati recuperati in alcun modo. E se non ci è riuscita neanche con questa commessa da svariati milioni di pezzi assicurati per almeno 5 anni, be', direi che non c'è davvero speranza di pensare che lo possa fare in altra maniera.



Mmmm.. se non sbaglio l'APU della PS4 ha l'hUMA, quindi è possibile scrivere algoritmi di elaborazione molto stretti tra CPU e GPU che su PC non funzionerebbero bene.



Be', come detto MS è rimasta nel suo passato con l'eSRAM di quelle dimensioni pensata per una console che dovrebbe supportare il FullHD. E non credo proprio che il SoC gli costi di meno, visto che se non ricordo male la eSRAM occupa una bella fetta del die. Spazio che non è stato riservato per l'uso di altre componenti computazionali come invece ha fatto Sony.
MS forse pensava che Sony avrebbe ancora una volta scelto di usare una soluzione standard con controller DDR3, con GPU + scarsa e ovviamente senza eSRAM. E' andata sul massimo risparmio per il minimo sforzo per essere davanti alla rivale come fece con la XBox360.
E invece è rimasta fregata da scelte tecniche davvero raccapriccianti per una console che doveva essere next gen.
A voler andare al risparmio a tutti i costi (APU scrausa, no controller GDDR) poi succede questo. E attribuire onori a AMD per aver realizzato queste APU per console, be', su, dai... va bene la tanta pubblicità (per chi non capisce quanto sono scarse le soluzioni proposte) ma per gli altri la cosa non è propriamente positiva.

Dave hai visto che intel+nvidia hanno chiesto 100 mentre amd 50?
Se non porti fonti a supporto sono chiacchere da bar.
Ma tutta questa pappardella dei costi sta a dimostrare che di ingegnerizzazione ed economia di scala ne sai ben poco:

PS3 e Xbox360 hanno venduto per lungo periodo in perdita, quindi secondo te avrebbero dovuto farlo anche per ps4 e xboxone?

Oltre al fatto che un chip monolitico oltre a costare meno di due chip separati riduce i costi di:
PCB, più semplice ed economico da produrre.
Alimentazione, meno esigente sia come uscita che come fasi di alimentazione su scheda madre.
Sistema di dissipazione (molto più economico produrre un dissipatore per un solo chip piuttosto che uno per due, o nel peggiore delle ipotesi 2 dissipatori separati)
dimensioni della struttura (il pvc del case si paga a kg).
Facilità di programmazzione di un chip praticamente pronto e monolitico rispetto a due chip interconnessi con bus dedicato e proprietario (e solo il bus di interconnessione avrebbe richiesto altri $ per lo sviluppo)
Gli analisti stimano il prezzo del chip amd tra i 70 ed i 90 $.
Il chip è brogrammabile via firmware per operare turbo più spinti in fasi successive (quando usciranno chip con pp inferiori le frequenze saranno maggiore, e per non par pesare troppo la differenza di prestazioni tra 1 versione e successive ms ha preventivato questa mossa, e probabilmente lo ha fatto anche sony.

Quindi tra amd a 80$ al chip e intel + nvidia a 80$ alla coppia, dovresti aggiungere:
Maggior costo del pcb
maggior costo di alimentazione
maggior costo del sistema di dissipazione
maggior costo del case (e relativo package e relative spese di trasporto)

Perchè sai i container hanno un costo che va sia a peso che a volume (entro un certo peso) e riempire un container con 20000 pezzi invece che 19000 riduce i costi di logistica.
In parole povere non sappiamo quanto guadagni in percentuale sull'investimento Amd, ma per offrire lo stesso costo finale l'accoppiata intel-nvidia avrebbe dovuto vendere i propri chip in perdita, o aumentare il costo delle consolle di un buon 20% minimo.

A casa mia si fanno questi calcoli per vedere quanto costa una soluzione piuttosto che un'altra (e lo avranno fatto anche ms, sony, intel, nvidia)
Tutto questo per dire che scegliere intel piuttosto che amd pesa tanto (sopratutto nel caso di ms e sony che hanno utili nel settore inferiori alle previsioni con ps3 e xbox) e che da un'analiso che tenga conto di più fattori propendo nel dire che alternative erano completamente fuori mercato.

(ps il ceo sony sbuggiardo nvidia dicendo che fu sony a rifiutare l'offerta e non viceversa, ma se lo dice nvidia è vero, se lo dice sony (con chip amd) è falso)

Max_R
10-07-2015, 11:51
Senza contare che chi produce console non cerca chissà che prestazioni, idem l'utenza, altrimenti tutti farebbero come Valve con le Steam Machines e l'ecosistema console cambierebbe ancora più marcatamente verso il pc. Le console sono compromesso e come tale evidentemente la soluzione APU è stata la scelta più ovvia.

PaulGuru
10-07-2015, 12:07
http://ark.intel.com/products/82930/Intel-Core-i7-5960X-Processor-Extreme-Edition-20M-Cache-up-to-3_50-GHz

Paul se vuoi parlare con cognizione posso anche risponderti, mentre se vuoi sparare a zero lascio li.
Come vedi da specifica Intel, e non Piedone o PaulGuru, ma dico di chi produce e commercializza tale cpu il tdp è 140w e non venirmi a dire che 10w li prende la gpu dato che come tutte le versioni non declassate di quella cpu ne è sprovvista.Nel mio precedente post ho affermato che i prodotti desktop sono arrivati fra 115 e 130W di TDP.
Tu hai risposto che non arrivano a 140 ( che risposta è ? )
E poi mi linki qualcosa dove si vede che a 140 ci arrivano.

Bene, ben venga, vuol dire che i modelli desktop a 140 ci sono arrivati e non è vero che si sono fermati a 95 e non è vero che 95 è un limite spinto.

Per tua ulteriore informazione tutti i socket 2011v3 (stiamo parlando di 59xx ti rammento) usano la stessa maschera litografica di questa cpu:
http://ark.intel.com/products/81909/Intel-Xeon-Processor-E5-2687W-v3-25M-Cache-3_10-GHz

fin quando intel non gli da id nel microcode della cpu il nome i7 (disabilitando 2 core- cache- link qpi) quella cpu è uno xeon che viene inseguito declassato.Lo sanno tutti questo, ma la domanda è : dove stà il problema ? I modelli 5xxx sono i7 e non Xeon, e sono venduti in ambito domestico.
Quindi è un prodotto desktop, indipendentemente da dove derivi.

Per quel che mi riguarda potrebbe derivare direttamente dagli Itanium o da qualche progetto per uso militare, una volta che me lo piazzano nel mercato con nominativo desktop, è un prodotto desktop.

Ma sicuramente sei convinto che un i7 59xx è una cpu con progetto proprio, maschere litografiche proprie, catene di produzione proprie e cercare di convingerti che non è vero sarebbe inutile.Mai detto nè pensato ed anzi la derivazione Xeon era scontata, la domanda però è ....... che importanza ha tutto ciò ?
I prodotti della serie 5xxx sono venduti come i7 per piattaforme desktop, quindi è un prodotto tale.

onestamente non credo che 980ti/titanx siano tesla (la vecchia serie titan invece lo erano), ma questo è dovuto solo al dover adattare un progetto di gpu ad un processo di produzione sorpassato che però ancora non si riesce a mettere in cantina perchè il nuovo non è pronto.Le GPU che equipaggiano le serie Ti sono di derivazione Tesla / Quadro.
Che poi siano intere, castrate, modificate è un altro conto.
Quindi per te queste non sono VGA da desktop per giocare ?

CrapaDiLegno
10-07-2015, 13:24
Dave hai visto che intel+nvidia hanno chiesto 100 mentre amd 50?
Se non porti fonti a supporto sono chiacchere da bar.

Ma tutta questa pappardella dei costi sta a dimostrare che di ingegnerizzazione ed economia di scala ne sai ben poco:
Aspetta, aspetta, tira il freno e fai 2 ragionamenti tranquillo tranquillo se ce la fai.
Tutto quello che qui sotto dici è un continuo contraddittorio con te stesso.


PS3 e Xbox360 hanno venduto per lungo periodo in perdita, quindi secondo te avrebbero dovuto farlo anche per ps4 e xboxone?
No, ma non vuol dire che bisogna necessariamente andare al ribasso assoluto come è stato in questa generazione, sia in termini di costi che di prestazioni.


Oltre al fatto che un chip monolitico oltre a costare meno di due chip separati riduce i costi di:
PCB, più semplice ed economico da produrre.
Alimentazione, meno esigente sia come uscita che come fasi di alimentazione su scheda madre.
Sistema di dissipazione (molto più economico produrre un dissipatore per un solo chip piuttosto che uno per due, o nel peggiore delle ipotesi 2 dissipatori separati)
dimensioni della struttura (il pvc del case si paga a kg).
Facilità di programmazzione di un chip praticamente pronto e monolitico rispetto a due chip interconnessi con bus dedicato e proprietario (e solo il bus di interconnessione avrebbe richiesto altri $ per lo sviluppo)
Gli analisti stimano il prezzo del chip amd tra i 70 ed i 90 $.
Il chip è brogrammabile via firmware per operare turbo più spinti in fasi successive (quando usciranno chip con pp inferiori le frequenze saranno maggiore, e per non par pesare troppo la differenza di prestazioni tra 1 versione e successive ms ha preventivato questa mossa, e probabilmente lo ha fatto anche sony.

Quindi tra amd a 80$ al chip e intel + nvidia a 80$ alla coppia, dovresti aggiungere:
Maggior costo del pcb
maggior costo di alimentazione
maggior costo del sistema di dissipazione
maggior costo del case (e relativo package e relative spese di trasporto)

Perchè sai i container hanno un costo che va sia a peso che a volume (entro un certo peso) e riempire un container con 20000 pezzi invece che 19000 riduce i costi di logistica.
In parole povere non sappiamo quanto guadagni in percentuale sull'investimento Amd, ma per offrire lo stesso costo finale l'accoppiata intel-nvidia avrebbe dovuto vendere i propri chip in perdita, o aumentare il costo delle consolle di un buon 20% minimo.

A casa mia si fanno questi calcoli per vedere quanto costa una soluzione piuttosto che un'altra (e lo avranno fatto anche ms, sony, intel, nvidia)
Tutto questo per dire che scegliere intel piuttosto che amd pesa tanto (sopratutto nel caso di ms e sony che hanno utili nel settore inferiori alle previsioni con ps3 e xbox) e che da un'analiso che tenga conto di più fattori propendo nel dire che alternative erano completamente fuori mercato.

Bla bla bla... che CPU+GPU siano più costosi mi sembra di averlo già scritto.
Ma come ho scritto, le prestazioni possono essere differenti.
La questione peso/ingombro/PVC fa un po' sorridere se fai il confronto tra le due Console.... mi chiedo se MS abbia risparmiato davvero così tanto sul SoC da potersi permettere tutta quella plastica e ingombri nei container.... stai un po' raschiando il barile nel carcare di trovare una giustificazione al costi superiori.
Per il bus proprietario, non mi sembra ce ne sia bisogno. PCI-e 3 c'è già. Funziona bene sui PC, non vedo perché non dovrebbe sulle console.
Hai dimenticato il risparmio sulle memorie: CPU con DDR3 più economica, GPU con GDDR5 più costosa. Sia per Sony che MS sarebbe stato un risparmio. La prima risparmiava 4GB di GDDR5, l'ultima l'eSRAM nel SoC per tentare di avere più banda con la memoria scrausa cui ha abbinato la GPU.

Io non so quanto abbiano offerto Intel, nvidia o AMD. DIco solo che l'aver scartato a priori le offerte dei primi due significa solamente che il terzo ha fatto davvero una bella offerta.
Offerta non raggiungibile dagli altri due. Il risultato che però tutti vediamo, e questo non è in alcun modo mascherabile, è che le console fanno cagare per gli standard di oggi e che AMD non sta mettendo in cascina alcun dollaro extra.
Come dissi al tempo della presentazione delle console, l'affare l'hanno fatto MS e Sony, non AMD o il mercato videoludico.

Se AMD non si fosse abbassata a svendere la sua soluzione probabilmente qualche altra alternativa sarebbe stata possibile. Ma è ovvio che per lei il mondo console era fondamentale almeno in termini di quello che pensava sarebbe diventato lo sviluppo di videogiochi a supporto quasi esclusivo della sua architettura.. e invece..... giustamente il CEO ha detto che da oggi in poi si investe dove c'è maggior guadagno.


(ps il ceo sony sbuggiardo nvidia dicendo che fu sony a rifiutare l'offerta e non viceversa, ma se lo dice nvidia è vero, se lo dice sony (con chip amd) è falso)
Che cosa c'entra?
La questione è che l'accordo non c'è stato. Che sia stata nvidia a dire "No mi paghi troppo poco" o Sony a dire "No vuoi troppo" cosa cambia? Il sunto è lo stesso. nvidia, come Intel, non ha potuto/voluto arrivare ai margini di guadagno (o perdita) di AMD. Certamente nessuno delle due aveva problemi di tipo tecnologico a offrire qualcosa di meglio di quelle due schifezze di APU usate. Ma ovviamente i prezzi non sarebbero stati quelli che AMD ha messo sul piatto rispetto ai concorrenti e MS e Sony, mica stupidi, ci hanno fatto l'affare. L'accordo di fornitura è una bilancia. Tanto più guadagnano MS e Sony meno guadagna AMD. E visto che dai bilanci quest'ultima non ci guadagna nulla, MS e Sony hanno fatto bingo, più di quel che pensavano possibile se avessero avuto a che fare con nvidia e/o intel.
Che cosa volevi provare con la tua affermazione? Che qui c'è qualcuno che non ha una visione oggettiva della cosa? Se è così mi sa che ti sei messo uno specchio davanti, perché interpretare i fatti in maniera così estrema ha un solo significato.

davo30
10-07-2015, 14:40
Nella parte editata avrei da ridire alcune cose, tra le quali i contratti di esclusività a doppio filo con GF derivante dalla vendita delle fonderie, ma tralasciamo, perchè oltre a GF ha parte della colpa anche IBM che ha portato troppe versioni in sviluppo nel consorzio soi, con samsung e STM che hanno sviluppato altre 2 varianti.


Vero, ma ti correggo. Il contratto di approvigionamento durava tot anni dopo la cessione, ma il genio di Read ha ben pensato di prolungarlo (non ho capito fino a quando).
Inoltre conta che IBM è stata ceduta poco tempo fa, non penso piu di un anno fa. Quindi per ora la sua mano non dovrebbe esserci. Il problema è proprio l'incapacità di GF e questo continuo ostinarsi da parte di AMD di fargli produrre i propri chip (dopo tutti i fail che si è dovuta sorbire, 32nm penosi, 28nm inadatti, 20nm scomprasi ecc)

batou83
10-07-2015, 14:44
Certamente nessuno delle due aveva problemi di tipo tecnologico a offrire qualcosa di meglio di quelle due schifezze di APU usate.

Si certo, che ci voleva a mettere i fornetti fermi e kepler :doh:

cdimauro
10-07-2015, 15:18
ma cosa c'entra, non posso mica mettermi a leggere risposte ad altri post lunghi come papiri pensando di cercare quello che ho chiesto io
:doh:
Quindi ti permetti di dire che non leggi ciò che scrivono gli altri, e ti lamenti pure se qualcuno ti fa notare che le risposte che cerchi ti erano state date?

Per curiosità, per quale motivo frequenti il forum allora? Soltanto per lanciare le tue difese aprioristiche alla tua marca del cuore?
ma quali e quante risorse? ti pagano per un lavoro che tra l'altro hai già sviluppato per conto tuo ma che vogliono "customizzarlo"; sai quante lavori nel mio studio facciamo anche solo per rientrare nei costi o guadagnarci "poco" e abbiamo già giocato le carte dei soli lavori grossi e per anni, ma alla fine cambia poco e ti ritrovi a ad avere stagnazione finita la grossa commessa, poi magari in uno studio di progettazione è diverso, ma il concetto alla base no, serve anche a farti pubblicità; si dice tanto che amd non stringe accordi come nell'azienda in cui lavori e che regala pure i soc, e ora state dicendo l'esatto opposto che non doveva accettare l'offerta!
Stiamo dicendo l'ovvio: che impegnando il suo personale per la progettazione dei SoC delle console, non ha potuto dedicarsi a potenziare come avrebbe dovuto il resto dei suoi processori e, dunque, non ha potuto nemmeno pensare di attaccare la concorrenza nei mercati più profittevoli (entusiast, server, HPC).

AMD è una piccola azienda (rispetto alla concorrenza), e non dispone di tanto personale: è evidente che se lo metti da una parte, necessariamente lo togli da un'altra, e dunque questi ultimi progetti andranno a rilento o addirittura saranno bloccati.

Il tutto condito dal fatto che i margini non sono elevati.

Qui nessuno sta dicendo che AMD non guadagna dai SoC per le console, ma è chiaro che questa scelta ha avuto notevoli ripercussioni sul resto del business, e di conseguenza anche sullo stato di salute dell'azienda.

Se così non fosse, non avrebbe annunciato un radicale cambiamento di rotta.

Spero che sia chiaro una volta per tutte.
ma non siete in quadro, fidatevi, altrimenti parlate davvero in malafede e di te lo penso al 100%
Fammi capire: dovrei fidarmi di te, quando affermi che sarei al 100% in malafede?

E per quale motivo lo sarei, di grazia? Per caso ho detto delle falsità? Su, quotami e riporta pure. Oppure devo pensare che il tuo è soltanto il classico sfogo di un fanboy che se non difende a ogni costo la sua marca del cuore non sente appagato il proprio ego.

Snocciola pure: io sono qui che aspetto.
semmai è il contrario, qua dentro tutti a criticare le loro scelte e lo dici a me??? :asd:
E chi avrebbe criticato la scelta dell'attuale CEO?
cioè, non sai che Intel ha speso 16,7 milardi per acquistare Altera?
Non mi pare l'abbia ancora acquisita, e in ogni caso non ne posso parlare.
non sai delle perdite per entrare nel settore mobile(vedi regalare 40 milioni di soc)?
Sì, ha investito in questo campo. E allora?
non sai della fatica per produrre i 14nm?
Ci sono stati degli intoppi. E allora?
non sai dello slittamento di cannonlake e dei 10nm già annunciato?
No, l'ho saputo soltanto quando Piedone1113 ha riportato il link a quelle voci.

Posto che è ancora da chiarire bene se si tratti effettivamente di problemi di produzione oppure di strategie dovute alla parziale sovrapposizione di Broadwell e Skylake, è lecito esserne all'oscuro oppure no?

Tu ne eri già al corrente?
no no ma, continua pure a dare del pro-AMD a me
Mi pare più che evidente, visti i tuoi lunghi trascorsi.
quanto scrivi queste cose e lavori per la concorrenza
:rolleyes:
Io sono scritto in questo forum (ma lo seguivo da ben prima) quando tu nemmeno sapevi cosa fosse un forum. Ho sempre discusso di questioni tecniche o di IT in generale, e non vedo per quale motivo dovrei cambiare soltanto perché adesso lavoro per una delle multinazionali di cui si parla spesso.
eppure dovresti essere superiore a queste trollate
Di quali trollate parli? Io ho sempre discusso di FATTI e ho ARGOMENTATO le mie idee e opinioni.

Quotami e riporta pure quand'è che avrei "trollato", altrimenti sei soltanto un bugiardo e un mistificatore.
con lo studio e la carriera che fai,
Sì, e allora? Cosa dovrei fare? Sii chiaro una buona volta.
ma probabilmente essere così acculturati non insegna a stare nella società

bye
Non prendo lezioni di educazione né da te né da altri. Puoi chiedere ai miei colleghi, amici, e conoscenti se sono una persona educata e se sto vivere in società, e vedrai cosa ti risponderanno.

Quest'attacco personale, che non c'entra assolutamente nulla con questo forum, è l'ultima meschinità a cui ti sei aggrappato, vista la tua cronica incapacità, da fanatico integralista della tua marca del cuore, di sostenere questa discussione e di controbattere ai fatti e alle argomentazioni che sono state portate.

Sei tu che, in 3 anni e mezzo che sei iscritto qui, devi prendere lezioni di netiquette e imparare come ci si comporta, perché non l'hai ancora capito.

E adesso se non hai altro da dire che menzogne e mistificazioni nei miei riguardi, sei pregato di evitare di rispondere, e di sfogare le tue squallide frustrazioni da qualche altra parte. Grazie.

Piedone1113
10-07-2015, 15:23
Bla bla bla... che CPU+GPU siano più costosi mi sembra di averlo già scritto.
Ma come ho scritto, le prestazioni possono essere differenti.
La questione peso/ingombro/PVC fa un po' sorridere se fai il confronto tra le due Console.... mi chiedo se MS abbia risparmiato davvero così tanto sul SoC da potersi permettere tutta quella plastica e ingombri nei container.... stai un po' raschiando il barile nel carcare di trovare una giustificazione al costi superiori.
Per il bus proprietario, non mi sembra ce ne sia bisogno. PCI-e 3 c'è già. Funziona bene sui PC, non vedo perché non dovrebbe sulle console.
Hai dimenticato il risparmio sulle memorie: CPU con DDR3 più economica, GPU con GDDR5 più costosa. Sia per Sony che MS sarebbe stato un risparmio. La prima risparmiava 4GB di GDDR5, l'ultima l'eSRAM nel SoC per tentare di avere più banda con la memoria scrausa cui ha abbinato la GPU.

Io non so quanto abbiano offerto Intel, nvidia o AMD. DIco solo che l'aver scartato a priori le offerte dei primi due significa solamente che il terzo ha fatto davvero una bella offerta.


1:
Non sai quanto ha chiesto AMD, non sai quanto sarebbe stato il costo dell'accoppiata intel-nvidia.
Ma nonostante tutto ti ho dimostrato che a parità di prezzo l'accoppiata nvidia-intel avrebbe avuto costi superiori a causa di tutte le altre cose che ti ho elencato.

2:
Il tuo sorridere circa le dimensioni del packing indica chiaramente che non sai di cosa stai parlando.
2000$(prezzo bassissimo) a container diviso 20000=0.1$ a consolle
2000$ a container diviso 18000=0.11$ a consolle
differenza 1 cent a consolle moltiplicato per 9000000 di pezzi=990.000 $ (con un risparmio del solo trasporto del container da fabbrica a magazzino di smistamento, escluse tasse doganali ed altre formalità (quale deposito in magazzino), oltre a questo bisogna aggiungere il costo di trasporto dal magazzino di smistamento verso tutti i magazzini di distribuzione.
A me non fa sorridere affatto preventivare un risparmio sul trasporto di 990000 dollari facendo soltando un package più piccolo, invece vedo che a te si.
A questo aggiungi il minor costo del pcb, dei dissi, dell'alimentatore ecc.
Sissi, c'è proprio dallo sganasciarsi dalle risate a presentare il bilancio in cda. :rolleyes:

3: nelle consolle serve il bus dedicato altrimenti aivoglia a fare tutti i ragionamenti che vuoi circa memoria unificata (con accesso condiviso tabbella di allocazione comune e dinamica) attraverso il bus pce, o sbaglio?
Ma se credi che una consolle debba essere fatta ad immagine e somiglianza di un pc rivolgiti a steam, ma sopratutto vedi se in un qualsiasi gioco uscito per ps4 e pc negli ultimi 12 mesi sia più gratificante giocare con una ps4 o con un i3 2120+650nvidia e dimmi se davvero la potenza bruta e l'architettura pc sia la strada migliore

4: mi sembra che la potenza elaborativa sia sufficente, dato che ne stanno vendendo una marea di consolle, e non sembra che ci siano lamentele e comunque dai dati di targa rimanere entro i 95W di tdp stimati dell'apu di ps4 mi sembra un ottimo risultato.

5: io non devo raschiare nessun barile per dimostrare che amd non vende in perdita o pareggio a sony ed ms.
Piuttosto non ho visto nessuno straccio di fonte (nemmeno da una fonte pro scie chimiche) che diano un minimo di fondamento alle tue conclusioni (che non sono tesi, dato che hai deciso a priori dell'aver ragione)

cdimauro
10-07-2015, 15:30
@Cdmauro
@Gridracedriver

Onestamente siete tra i pochi che fa piacere discutere anche stando dall'altro lato della barricata (secondo le proprie percezioni e ragionamenti) perchè avete spirito critico, siete propensi a cercare di capire cosa vorrebbero dire gli altri e sopratutto non portate preconcetti a precludere altre possibili analisi.
Tutto questo per dire che nessuno dei due è per:
Intel-Merda o AMD-Merda a prescindere e se alcune volte ci sono fraintentimenti potrebbe essere dovuto ad una cattiva esposizione, o ad altri Cxxxi per la testa che hanno fatto fraintendere i concetti.
Sei nuovo di questo forum, e non conosci il personaggio in questione: non ha spirito critico, e non contribuisce alle discussioni, perché scrive soltanto per difendere acriticamente la sua adorata marca.

Poi dei due io posso sicuramente affermare di essere di parte (e l'ho anche messo in firma per chi lavoro, in modo che sia chiaro a tutti), ma non mi risulta che egli sia impiegato per AMD.

E' soltanto il classico utente da forum che s'è attaccato a una maglia, e la difende a ogni occasione. Tutto qui.

Una situazione assolutamente ridicola, perché non vedo cos'abbia da guadagnarci in tutto ciò. Ma non è l'unico, purtroppo: sembra sia uno sport nazionale quello di fare le barricate per difendere i prodotti che si acquistano, marca (soprattutto) inclusa. Cosa che trovo del tutto priva di senso.

Questa gente non ha capito che un professionista che lavora per una di queste multinazionali, ha rispetto anche per la concorrenza. Sa come si lavora, e sa che le problematiche da risolvere ogni giorno sono le stesse. Dall'altra parte della "barricata" ci sarà qualche altro professionista che fa proprio quello che facciamo noi, con tutte le difficoltà del caso, stesse aspirazioni, e voglia di vedere i propri prodotti primeggiare sul mercato.

D'altra parte è ben noto il flusso di professionisti da un'azienda a un'altra. C'è gente che da AMD è passata a Intel, o nVidia, Qualcomm, Apple, ecc. E viceversa. E' tutto perfettamente normale, e non c'è niente di cui scandalizzarsi.

Ma aspettarsi che lo capiscano a quanto pare è una missione impossibile...

Piedone1113
10-07-2015, 15:40
Nel mio precedente post ho affermato che i prodotti desktop sono arrivati fra 115 e 130W di TDP.
Tu hai risposto che non arrivano a 140 ( che risposta è ? )
E poi mi linki qualcosa dove si vede che a 140 ci arrivano.

Bene, ben venga, vuol dire che i modelli desktop a 140 ci sono arrivati e non è vero che si sono fermati a 95 e non è vero che 95 è un limite spinto.

Lo sanno tutti questo, ma la domanda è : dove stà il problema ? I modelli 5xxx sono i7 e non Xeon, e sono venduti in ambito domestico.
Quindi è un prodotto desktop, indipendentemente da dove derivi.

Per quel che mi riguarda potrebbe derivare direttamente dagli Itanium o da qualche progetto per uso militare, una volta che me lo piazzano nel mercato con nominativo desktop, è un prodotto desktop.

Mai detto nè pensato ed anzi la derivazione Xeon era scontata, la domanda però è ....... che importanza ha tutto ciò ?
I prodotti della serie 5xxx sono venduti come i7 per piattaforme desktop, quindi è un prodotto tale.

Le GPU che equipaggiano le serie Ti sono di derivazione Tesla / Quadro.
Che poi siano intere, castrate, modificate è un altro conto.
Quindi per te queste non sono VGA da desktop per giocare ?

Tralasciando che 2011 non è un progetto desktop, ma felice dall'aver appreso che invece è una cpu desktop, non sapevo affatto che gm210 e gk210 fossero la stessa gpu (sbaglio o in gm210 manca fisicamente il supporto al dp, presente in tutte le tesla e nel gk210 di tesla k80?)

Comunque hai perfettamente ragione, su tutta la linea. ;)

cdimauro
10-07-2015, 15:57
Torno alla questione APU AMD vs alternativa di altri: dove sta scritto che dovevano per forza creare un chip unico che contenesse CPU e GPU?
[...]
Non sarebbe economicamente convenitene, e sono d'accordo con l'analisi che ha fatto Piedone1113.

Aggiungo che un bus PCIExpress per collegare di due chip sarebbe una soluzione troppo castrante. Molto meglio un collegamento punto-punto dedicato, ad alte prestazioni, similmente a quello che Microsoft realizzò per la XBox 360 (fra CPU e GPU/northbridge).

Con l'integrazione che c'è oggi (siamo arrivati a ben 7 miliardi di transistor, se non ricordo male), non ha più senso separare i chip. Perfino gli ultimi Xeon sono dei SoC che hanno "fagocitato" un'altra buona parte del chipset.

Per cui un ritorno al passato non ha più senso: ci per lo più svantaggi, che surclassano i pochi vantaggi.
Mmmm.. se non sbaglio l'APU della PS4 ha l'hUMA, quindi è possibile scrivere algoritmi di elaborazione molto stretti tra CPU e GPU che su PC non funzionerebbero bene.
Pare che sia presente, ma non ci sono state conferme.

Comunque è normale che sia più difficile un port su PC, similmente a quanto s'è già verificato con entrambe le precedenti XBox, avevano memoria unificata.

Ma in generale l'hardware della PS4 è più simile a un PC rispetto alla XBoxone, e dunque un porting risulta più facilitato prendendo la prima piattaforma come riferimento (a parità / similitudine delle API, ovviamente).
Be', come detto MS è rimasta nel suo passato con l'eSRAM di quelle dimensioni pensata per una console che dovrebbe supportare il FullHD. E non credo proprio che il SoC gli costi di meno, visto che se non ricordo male la eSRAM occupa una bella fetta del die. Spazio che non è stato riservato per l'uso di altre componenti computazionali come invece ha fatto Sony.
Come ho già detto prima, la memoria embedded è molto più semplice da realizzare e presenta meno difetti rispetto a dei circuiti logici/funzionali, per cui le rese saranno migliori.
MS forse pensava che Sony avrebbe ancora una volta scelto di usare una soluzione standard con controller DDR3, con GPU + scarsa e ovviamente senza eSRAM. E' andata sul massimo risparmio per il minimo sforzo per essere davanti alla rivale come fece con la XBox360.
Le modifiche alle APU con l'integrazione di tutta quell'eSRAM, più il piccolo blocco collegato a ogni cluster Jaguar, sono decisamente più costose rispetto alla realizzazione del SoC della PS4, che è abbastanza standard / lineare.
E invece è rimasta fregata da scelte tecniche davvero raccapriccianti per una console che doveva essere next gen.
Non mi pare che lo sia alcuna console attuale. Sono rimasto deluso da tutte.
A voler andare al risparmio a tutti i costi (APU scrausa, no controller GDDR) poi succede questo. E attribuire onori a AMD per aver realizzato queste APU per console, be', su, dai... va bene la tanta pubblicità (per chi non capisce quanto sono scarse le soluzioni proposte) ma per gli altri la cosa non è propriamente positiva.
L'APU è la stessa per tutte le console, e visti gli obiettivi nonché il budget non potevi pretendere che infilassero un FX in quel SoC.

Sulla GDDR ho già scritto prima.

PaulGuru
10-07-2015, 16:07
Tralasciando che 2011 non è un progetto desktop, ma felice dall'aver appreso che invece è una cpu desktop, non sapevo affatto che gm210 e gk210 fossero la stessa gpu (sbaglio o in gm210 manca fisicamente il supporto al dp, presente in tutte le tesla e nel gk210 di tesla k80?)

Comunque hai perfettamente ragione, su tutta la linea. ;)
gm210 e gk210 indicano una diversa generazione di GPU
maxwell e kepler e non capisco perchè vai a paragonarle.
Se non corrispondono significa solamente che una delle 2 linee non è stata aggiornata ( presumo la Tesla ).

La mancanza del supporto al dp significa o che è stato eseguito un lavoro di laser cut, o che sono state disabilitate le componenti o c'è stato semplicemente una review.

Le CPU LGA2011 sono cpu per desktop, visto che si montano su piattaforma X99.

cdimauro
10-07-2015, 16:35
ma in tutti i post e quote multipli devo andare a cercare se hai risposto alla mia domanda?
Se non leggi i commenti degli altri non ha senso la tua partecipazione al forum. Leggere quanto già scritto è il minimo sindacale, per chi si appresta a commentare, ma soprattutto a criticare quanto (già) espresso dagli altri.
trovami una notizia in cui parla dei guadagni bassi delle console.
Ecco (http://www.kitguru.net/components/anton-shilov/amd-console-chip-business-is-thriving-margins-set-to-grow-to-over-20/) un'analisi.
non mi pare abbiano detto che non faranno più chip custom, anzi sono certo che con zen e k12 ce ne saranno degli altri
Che arriveranno... quando? Da quando AMD non presenta progetti concorrenziali in termini prestazionali?
scrivi solo tu?
OK, allora riformulo: quanti sono quelli che hanno criticato il cambio di rotta del nuovo CEO?
come detto sopra, tutto questo mi fa pensare a ciò che sostengo, e non puoi scendere così dal pero è palese
come si fa a non sapere di cosa succede nella propria azienda?
Forse proprio perché so come funziona qui dentro? E sono uno che legge tutte le mail aziendali, nonché le notizie del portale degli impiegati... com'è giusto che sia.

Ma magari tu ne sai più di me, e in tal caso vorrei capire in cos'è che avrei sbagliato finora, e come sarei potuto venire a conoscenza di tutto ciò che mi contesti. Possibilmente con FATTI e non con chiacchiere da bar, grazie.
ma quali trascorsi?
Non è certo la prima volta che ti comporti così.
ma cosa ne sai? sono dalla data di iscrizione?
Sì. Da quanto tempo frequenti a sola lettura questo forum?
ho sempre letto con piacere ciò che scrivi in tutta onestà.
ecco appunto, io avrei la marca del cuore a che pro?... a me non ne viene nulla in tasca
Quindi perché mi hai attaccato gratuitamente finora? Se c'è qualcosa che non ti piace dei miei fatti e argomentazioni puoi benissimo replicare, e portare fatti e argomentazioni. Non: "sei in malafede e non mi fido al 100% di te", che è una tipica risposta da fanboy.
il tono e il modo in cui scrivi, l'ho detto prima so leggere tra le righe
Il mio tono e il mio modo sono stati perfettamente civili finché TU hai cominciato a farla fuori dal vaso, e ti ho risposto per le rime.

La stretta sequenza in cui sono stati scritti i commenti sono lì a palese dimostrazione di ciò.
e mi stupisco di come sei all'oscuro di così tante cose sulla tua azienda, è assurdo
Sarà assurdo per te perché non hai la benché minima idea di come funzioni una multinazionale, specialmente a questi livelli-
ps. scendi dal piedistallo, ti prego
Non ci sono mai salito.
si è proprio nuovo...
Non mi pare di averlo letto prima. Anche il suo modo di scrivere e argomentare non porta a pensare a nessun utente già esistente. Ma se hai sentore del contrario, puoi sempre riportare la tua opinione.
tu mi conosci così bene? sarà successo un'altra volta che ci siamo incrociati, sennò ho sempre solo letto su questioni tecniche in cui scrivevi
Non è la prima, appunto, ma anche se ci sono state poche occasioni in cui ci siamo incrociati, ho letto tanti altri tuoi commenti, con toni simili.
si, sono passato da tifare il calcio a tifare una multinazionale :asd:
:doh:
Esattamente.
ps. a tutti quelli che criticano l'apu delle console, vi ricordo che nel 2013 c'era solo il 28nm come oggi del resto per chip così complessi, ed intel non avrebbe mai prestato una sua fab anche solo a 22nm per produrre una apu di amd, e che l'apu di sony raggiunge quasi i 4 miliardi di transistor e quella di microsoft i 5 miliardi dovuti alla esram enorme pur avendo meno CU come gpu (18 vs 12) che sono piccoli rispetto una esram da 32mb

dalla prima realese la ps4 consuma in game 140w , ora 122w sempre a 28nm in un case da 0.015 metri cubi...
fate i dovuti confronti con il mondo PC
I PC sono passati già da un po' ai 14nm, e presentano consumi più ridotti e prestazioni più elevati.

Piedone1113
10-07-2015, 16:45
gm210 e gk210 indicano una diversa generazione di GPU
maxwell e kepler e non capisco perchè vai a paragonarle.
Se non corrispondono significa solamente che una delle 2 linee non è stata aggiornata ( presumo la Tesla ).

La mancanza del supporto al dp significa o che è stato eseguito un lavoro di laser cut, o che sono state disabilitate le componenti o c'è stato semplicemente una review.

Le CPU LGA2011 sono cpu per desktop, visto che si montano su piattaforma X99.
quindi uno xeon e5 1610 v3 è una cpu desktop? o Ws?
Be non ci capisco nulla, quindi le cpu che vanno su x99 sono cpu desktop?
http://www.asus.com/it/Motherboards/RAMPAGE_V_EXTREME/HelpDesk_CPU/
:eek:

Onestamente non sapevo che ci fosse un gm200 tra le tesla e gk210 non mi sembra affatto sia un gm200 della titanx con tutto abilitato.

AceGranger
10-07-2015, 16:54
Tralasciando che 2011 non è un progetto desktop, ma felice dall'aver appreso che invece è una cpu desktop, non sapevo affatto che gm210 e gk210 fossero la stessa gpu (sbaglio o in gm210 manca fisicamente il supporto al dp, presente in tutte le tesla e nel gk210 di tesla k80?)


per il GM210 hai ragione, manca della parte DP in hardware e i calcoli DP vengono eseguiti mediante gli SP della GPU e quindi le capacita di calcolo sin DP sono estremamente ridotte

pero occhio, che non tutte le Tesla si basano sui calcoli DP

la Tesla K10 è dotata di 2 GPU Kepler GK104 ( che come Maxwell non hanno al parte DP in hardware ) e ha una capacita di calcolo di 4.58 TFlops SP e 0.190 TFlops DP; è una Tesla specificatamente sviluppata per i calcoli SP.

Piedone1113
10-07-2015, 17:01
per il GM210 hai ragione, manca della parte DP in hardware e i calcoli DP vengono eseguiti mediante gli SP della GPU e quindi le capacita di calcolo sin DP sono estremamente ridotte

pero occhio, che non tutte le Tesla si basano sui calcoli DP

la Tesla K10 è dotata di 2 GPU Kepler GK104 ( che come Maxwell non hanno al parte DP in hardware ) e ha una capacita di calcolo di 4.58 TFlops SP e 0.190 TFlops DP; è una Tesla specificatamente sviluppata per i calcoli SP.

Grazie, non sapevo di k10.
Comunque sia nvidia che amd hanno dovuto mettere diverse pezze alle nuove gpu a causa del pp in ritardo, ma sembra che non tutti si siano accorti che ormai per avere un chip vincente commercialmente devi sperare di non avere problemi in fonderia.

Piedone1113
10-07-2015, 17:17
...e poi che discorso è, un prodotto il giorno dopo è già old.
quindi sony e microsoft ogni 2 anni progettano un soc nuovo per console perché cambia il PP? è l'opposto del concetto al base delle console che hanno cicli di vita lunghi per il mondo IT, semmai faranno un paio di shrink, dipende da TSMC o GF mica da AMD...
Voci di corridoio mi hanno detto che il chip di xbox ha gia shrink e clock più alto.
Aggiornamento software quasi pronto per alzare anche clock a vecchia versione (non so in che modo se solo alzando il valore di temp per abbassare la frequenza turbo, oppure alzare proprio la frequenza base )

cdimauro
10-07-2015, 17:42
e sarebbero bassi? per me margini superiori al 10% è grasso che cola.
Se li confronti coi normali 35% sono bassissimi. Comunque c'è da dire che AMD è riuscita fortunatamente a incrementarli fino circa il 20%, per cui rispetto alle previsioni iniziali è un ottimo risultato.

Rimane, in ogni caso, un margine troppo ridotto rispetto ad altri prodotti.
si ma almeno tu, non puoi far finta di non sapere che senza PP aggiornato non puoi presentare niente di concorrenziale, ce l'avesse anche pronta subito su che PP la presenta? e la progettazione di zen/k12 è partita nel 2012 dopo ke è arrivato keller e una architettura nuova minimo 3 4 o anche 5 anni ci vogliono tutti
Anche senza processo produttivo aggiornato puoi benissimo investire nella realizzazione di un'architettura con prestazioni migliori.

Sì, Keller è arrivato da poco e avrà da lavorare ancora un bel po', ma se non fosse arrivato cos'avrebbe fatto AMD? Si sarebbe fermata nello sviluppo? Chiaro che no: si cercano altre teste pregiate, ma serve anche la volontà di volersi rilanciare e... i soldini per attirare le teste di cui sopra.
è pieno di utenti che ogni notizia posta le solite flammate da bar
a volte ribatto a volte no
Beh, ma personalmente ritengo difficile che un utente, per quanto schierato, possa criticare una scelta che è oggettivamente saggia, come quella di cui stiamo discutendo finora.

Poi se uno è fanatico ad oltranza troverà sempre da criticare, ma non ci si può far nulla.
il resto lo taglio e cercherò di evitare di tornarci sopra, ma i dubbi mi rimangono
Io ho riportato quello che vivo, e non ho motivo di mentire.

Posso dirti che in quasi 2 anni m'è capitato di lavorare a prodotti che sarebbe usciti dopo tempo, anche dopo un bel po' di tempo, o che non sono ancora usciti :D, e non ti nascondo che mi sono fatto tante risate leggendo i commenti che venivano scritti quando, man mano, trapelavano informazioni.

Ma questo NON significa che sia a conoscenza di tutto. E' impensabile. E, infatti, non succede (questo dei 10nm è uno dei tanti casi). Ho il mio orticello da coltivare, più qualche notizia che arriva ogni tanto. E tanto mi basta: non sono pagato per portare avanti tutta l'azienda.
già da un po'? ma dove sono le cpu a 14nm? core-m è "uscito" a fine anno scorso ma giusto per far vedere agli analisti che i 14nm erano pronti, se come no...
broadwell presentato l'altro ieri dopo un anno di ritardo in versione castrata a 65watt e skylake nel Q3, ed diciamo che è in linea coi tempi previsti...
ma è palese che ha avuto fatica a sviluppare i 14nm per cpu dai TDP elevati
Sono al corrente dei ritardi dei 14nm, come chiunque altro qui. Comunque già da un po' si vedono prodotti a 14nm, anche se il mercato non è coperto per intero, causa anche sovrapposizione di Skylake.
mettiamoci che la scarsa concorrenza di amd ha portato alla dirigenza intel di investire in altro
E' da molto tempo che Intel sta diversificando il suo business, ed è una strategia che qualunque analista condividerebbe, perché consente di far fronte a eventuali cambi, specialmente se repentini, che avvengono in un mercato molto dinamico.
e far ritardare i 14nm anche volentieri per rientrare maggiormente nei costi,
Che ci siano stati dei problemi, OK, lo sappiamo, ma questo che citi non l'ho mai sentito da nessuna parte.
o come regalare i soc
Non li ha regalati, ma ha attuato una politica di scontistica per cercare di guadagnare quote nel mercato dei tablet. Nulla di illecito comunque.
e acquistare altera,
No comment.
ma samsung e tsmc hanno superato intel nell'investimento alle FAB
Hai delle fonti in merito?
...e poi che discorso è, un prodotto il giorno dopo è già old.
quindi sony e microsoft ogni 2 anni progettano un soc nuovo per console perché cambia il PP? è l'opposto del concetto al base delle console che hanno cicli di vita lunghi per il mondo IT, semmai faranno un paio di shrink, dipende da TSMC o GF mica da AMD...
Appunto, gli shrink sono previsti anche per le console.

Quanto ai SoC delle console, non è che sarebbero dovuti essere prodotti a 14nm, visti i problemi che hanno tutte le fonderie, ma nemmeno col vecchio 28nm.

Piedone1113
10-07-2015, 18:21
Se li confronti coi normali 35% sono bassissimi. Comunque c'è da dire che AMD è riuscita fortunatamente a incrementarli fino circa il 20%, per cui rispetto alle previsioni iniziali è un ottimo risultato.



Non so se ti riferisci ad utili lordi o netti, perchè il primo non tiene conto dei costi di investimento
(mi costa 100 progettare x, il pezzo mi costa 5, lo vendo a 7 40% utile)
(mi costa 100 progettare x, il pezzo mi costa 5, lo vendo a 7 per 200 pezzi utile netto 26% sul totale investito, quindi volendo potrei scendere anche al 30% di utile lordo per avere un utile netto,
ma se vendo solo 50 pezzi con un utile del 40% sul pezzo vado in pareggio.
Ma se le progettare recupero parti del progetto da usare in un nuovo prodotto avrò comunque un utile:

devo produrre x che mi costa di progetto 100, se un cliente mi chiede il prodotto y che per l'80% del progetto potrò usare in x anche andando in pareggio avrò un utile oterativo del valore dell'80% del progetto x che mi abbasserà il punto di pareggio per pezzi prodotti, oppure mi permetterà di offrire un prodotto più economico con lo stesso utile netto a parità di pezzi.

ps circa i 28nm.
da noi si dice:
Quando altro non hai, a letto con tua moglie devi andare.

cdimauro
10-07-2015, 18:29
Nel link che ho postato si parla di "profit margin (https://en.wikipedia.org/wiki/Profit_margin)".

PaulGuru
10-07-2015, 18:39
quindi uno xeon e5 1610 v3 è una cpu desktop? o Ws?
Be non ci capisco nulla, quindi le cpu che vanno su x99 sono cpu desktop?
http://www.asus.com/it/Motherboards/RAMPAGE_V_EXTREME/HelpDesk_CPU/
:eek:

Onestamente non sapevo che ci fosse un gm200 tra le tesla e gk210 non mi sembra affatto sia un gm200 della titanx con tutto abilitato.
i7 sono cpu da desktop, fattene una ragione.
Quegli Xeon sono cpu da WS ( anch'essa una categoria parallela al desktop )

Sai almeno cosa significano le sigle ?
In GM e GK, la seconda lettera indica l'architettura.
Quindi come fai a dire che GM200 possa essere confrontato con GK210 ?

Sono 2 prodotti ideati per la stessa fascia però, inutile girarci attorno, ti stai solo arrampicando sugli specchi
:mc:

Piedone1113
10-07-2015, 18:58
Nel link che ho postato si parla di "profit margin (https://en.wikipedia.org/wiki/Profit_margin)".

ma non puoi applicare quella formula ad amd dato che non è commercio ma produzione:

Mi commissioni una porta che ti metto il prezzo 1000
per fare la porta uso 50 di progettazione 200 di costruzione 2000 di gruppo frese.
Secondo il tuo ragionamento sarei in perdita netta di 1250.
ma se quel gruppo fresa per 5/10 userò per fare altre 20 porte da vendere a 500
e posso utilizzare 25 di progettazione allo stesso costo di produzione avrò:
-1250 perdità commessa
-25 perdita rimanenza progetto
-200 x 20 produzione seconda commessa porta

totale -5275

ricavo lordo 10000
utile operativo netto 4725
totale investito 6275.
Sul venduto in produzione non puoi quantificare gli utili senza considerare i vantaggi che ne derivano da quello che ti rimane di progettazione, sviluppo ed infrastrutture, oppure tu riscrivi per ogni lavoro l'intero codice senza riusare parti utili di progetti gia eseguiti?

cdimauro
10-07-2015, 19:03
E' chiaro che riuso il più possibile.

Purtroppo non ho trovato altri dati riguardo ad AMD, mi spiace.

Piedone1113
10-07-2015, 19:08
i7 sono cpu da desktop, fattene una ragione.
Quegli Xeon sono cpu da WS ( anch'essa una categoria parallela al desktop )

Sai almeno cosa significano le sigle ?
In GM e GK, la seconda lettera indica l'architettura.
Quindi come fai a dire che GM200 possa essere confrontato con GK210 ?

Sono 2 prodotti ideati per la stessa fascia però, inutile girarci attorno, ti stai solo arrampicando sugli specchi
:mc:
Gm e Gk sono due chip fisicamente diversi (sai cosa significa vero?)
i7 59xx e xeon sono due chip fisicamente identici.

su x99 vanno anche gli xeon (quindi non è il socket o il chipset che designa una cpu desktop o ws)
Dire che desktop e ws sono parallele tra loro vuol dire tutto e niente, perchè esistono ws single socket, dual e quad.
Come esistono Server single socket, fino a server in cluster di centinaia di socket.
Ma ti ho gia detto che hai ragione e non c'è bisogno di continuare a ribadirlo.
Vuoi che mi prosti e mi fustighi ?

Piedone1113
10-07-2015, 19:15
E' chiaro che riuso il più possibile.

Purtroppo non ho trovato altri dati riguardo ad AMD, mi spiace.
Da quello che so sia ms che sony hanno pagato progettazione e sviluppo dei chip a parte, più pattuito il prezzo di acquisto dei singoli chip.
Quindi se non sappiamo quanto di quei progetti possono essere usati in futuro da AMD non possiamo definire il vero utile.
Se dalla semplice vendita si ha il 15% (si stima il 22% circa) di margine e il progetto è da mettere interamente nel cassetto a fare la muffa, non è stato un bel investimento.
Ma se così non fosse, e i chip custom hanno fatto risparmiare ad AMD $$$ sulla progettazione di sue apu future il discorso assumerebbe un valore completamente diverso.

Ps ho visto che siamo coetanei.
Anch'io diplomato nel 90, il giorno dopo della semifinale con l'argentina :( , na tragedia, il presidente di commissione mi tenne 2 ore all'orale (oltre a tutti i programmi di matematica-fisica-chimica-geografia astronomica del triennio mi fece anche una domanda circa gli azoto-fissatori all'interrogazione di storia, durata 2 minuti giusto il tempo di firmare)

cdimauro
10-07-2015, 21:26
Da quello che so sia ms che sony hanno pagato progettazione e sviluppo dei chip a parte, più pattuito il prezzo di acquisto dei singoli chip.
Quindi se non sappiamo quanto di quei progetti possono essere usati in futuro da AMD non possiamo definire il vero utile.
Se dalla semplice vendita si ha il 15% (si stima il 22% circa) di margine e il progetto è da mettere interamente nel cassetto a fare la muffa, non è stato un bel investimento.
Ma se così non fosse, e i chip custom hanno fatto risparmiare ad AMD $$$ sulla progettazione di sue apu future il discorso assumerebbe un valore completamente diverso.
Francamente non penso che AMD abbia guadagnato molto in know-how grazie a questi SoC. Le APU le aveva già sviluppate, e mettere due cluster Jaguar assieme non richiede molto lavoro.

Il discorso potrebbe essere diverso per l'eSRAM del SoC della XBoxOne, ma le nuove GPU non supportano questo tipo di memorie, e comunque AMD aveva già esperienza con l'integrazione di eDRAM nella GPU della XBox360.

Quindi mi pare che possa trarne poco vantaggio.

Invece ne ha tratto sicuramente lavorando con Microsoft per l'implementazione delle API della console, riciclando il know-how per Mantle. Però per un venditore di chip, qual è AMD, non si è trattato di un grande affare.

Dunque rimane sostanzialmente quello che Microsoft e Sony hanno scucito per realizzare il SoC, più il costo per chip. Togliendo il primo, di cui non sappiamo niente, il 15% sul 35% che normalmente AMD incassa, non mi pare proprio un buon affare.
Ps ho visto che siamo coetanei.
Anch'io diplomato nel 90, il giorno dopo della semifinale con l'argentina :( , na tragedia, il presidente di commissione mi tenne 2 ore all'orale (oltre a tutti i programmi di matematica-fisica-chimica-geografia astronomica del triennio mi fece anche una domanda circa gli azoto-fissatori all'interrogazione di storia, durata 2 minuti giusto il tempo di firmare)
Già. Annata buona solo per il diploma, per l'appunto. A me andò un po' meglio: meno di un'ora di interrogazione, portando tutte le materie e due tesine.

Max_R
10-07-2015, 22:24
Gm e Gk sono due chip fisicamente diversi (sai cosa significa vero?)
i7 59xx e xeon sono due chip fisicamente identici.

su x99 vanno anche gli xeon (quindi non è il socket o il chipset che designa una cpu desktop o ws)
Dire che desktop e ws sono parallele tra loro vuol dire tutto e niente, perchè esistono ws single socket, dual e quad.
Come esistono Server single socket, fino a server in cluster di centinaia di socket.
Ma ti ho gia detto che hai ragione e non c'è bisogno di continuare a ribadirlo.
Vuoi che mi prosti e mi fustighi ?

Dai su, io ho capito cosa intendi ;) ma in fin dei conti avete ragione entrambi, almeno tu ammettilo, dato che dall'altra parte c'è incapacità: il core è xeon, l'applicazione è desktop. Come succedeva con certi Gallatin "trasformati" in P4 Extreme su piattaforma 478!

Piedone1113
11-07-2015, 07:53
Dai su, io ho capito cosa intendi ;) ma in fin dei conti avete ragione entrambi, almeno tu ammettilo, dato che dall'altra parte c'è incapacità: il core è xeon, l'applicazione è desktop. Come succedeva con certi Gallatin "trasformati" in P4 Extreme su piattaforma 478!

ma io l'ho detto dal principio.
Ad pp da 16nm a scendere una cpu desktop (intesa come progetto e tutto quello che ne consegue) non avrà più di 90w, perchè fisicamente diviene costoso dissiparle (sia aumentando la capacità termica dei dissy, sia riducendo la densità dei transistor).
Amd punterà in futuro ad avere utili, quindi non ci saranno cpu desktop di fascia alta, ma Apu e qualche versione di FX(?) derivante dagli opteron.
Che è la stessa cosa che fa intel da un bel po' (iniziando con 1366, ma non troppo convinta difatti c'erano molti modelli di i7 che erosero mercato ai rispettivi xeon in ws).
Gia le vendite (numerose) di i7-i5 1150 k non coprono i costi d sviluppo, figuriamoci sviluppare un'architettura desktop hight end con numeri esigui di vendita.
Se poi per recuperare gli scarti tutte le cpu xeon che hanno l'mc con ecc malfunzionante (ma può essere anche una parte di cache, o un core, o un link, oppure è tutto funzionante) vengone declassate a i7 non significa che intel ha progettato una cpu desktop, ma è e rimane sempre uno xeon (a livello di progettazione, produzione).
a riprova di cio basterebbe una domanda di xeon 2011 in forte aumento (da costringere intel a dover raschiare il magazzino e fare turni di 25h al giorno in produzione) per far sparire in 3 mesi tutti gli i7 59xx.

Quindi si, Gli i7 59xx sono cpu desktop, come lo erano i Pentium 4 EE, come non lo erano gli athlon fx(solo i modelli fx 55,57,60,62 esclusi 53 e i famosi x4), come non lo erano x6800, Qx6xxx, Qx9xx5/0 (perchè invece lo erano i qx9xx7).
Chi vuol capire ha capito.

Piedone1113
11-07-2015, 09:26
Francamente non penso che AMD abbia guadagnato molto in know-how grazie a questi SoC. Le APU le aveva già sviluppate, e mettere due cluster Jaguar assieme non richiede molto lavoro.

Il discorso potrebbe essere diverso per l'eSRAM del SoC della XBoxOne, ma le nuove GPU non supportano questo tipo di memorie, e comunque AMD aveva già esperienza con l'integrazione di eDRAM nella GPU della XBox360.

Quindi mi pare che possa trarne poco vantaggio.


Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?

Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.

Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.

Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.

E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)

cdimauro
11-07-2015, 11:45
Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?
Certamente. Come dicevo, per entrambi i SoC è stato necessario collegare i due cluster Jaguar, mentre per quello della XBoxOne c'è voluto più lavoro per integrare l'eSRAM e i due blocchetti adiacenti ai cluster Jaguar.

Ma non so quantificare il tutto.
Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.
Non credo ai ritorno dei chip custom, anche se per la XBoxOne c'è sicuramente voluto un po' di lavoro.
Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.
Certamente non è stato sottocosto, perché il margine c'è, seppur molto ridotto rispetto a quanto incassa normalmente con gli altri suoi chip.
Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.
Non credo. I core Jaguar sono mediamente più scarsi di quelli Atom/BayTrail, come puoi vedere dal link che ho postato prima. Per cui dubito fortemente che possa attaccare la fascia degli i3, o addirittura degli i5.

Poi Intel vende già SoC BayTrail con 4 core, e nel settore server è presente anche una declinazione con 8 core. Inoltre ha pure GPU abbastanza potenti, con le versioni più avanzate che sono dotate anche di parecchia memoria embedded (fino a 128MB di cache L4).

Per cui volendo potrebbe anche costruire qualche alternativa simile a quanto hai ipotizzato tu, senza nemmeno troppo fatica, e rimanendo comunque più competitiva in termini di consumo. Ma non ha senso, perché per il gaming di un certo spessore gli utenti preferisco la serie ix che può garantire prestazioni molto più elevate di un BayTrail.
E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)
Francamente l'unico vantaggio che vedo è quello di poter disporre di 8 core, ma non rappresenta certo una rivoluzione, considerato pure che il tutto è ottenuto con un collegamento dei due cluster Jaguar da 4 core l'unico. Un collegamento di questo genere è ben noto ed è stato utilizzato in passato diverse volte, fin dall'introduzione di processori a due core. Intel non ne ha bisogno, perché dispone già da parecchio tempo di soluzioni con 8 o più core (fino all'attuale Xeon Phi, che ne integra 60).

Il tutto IMO, ovviamente.

Piedone1113
11-07-2015, 12:28
Certamente. Come dicevo, per entrambi i SoC è stato necessario collegare i due cluster Jaguar, mentre per quello della XBoxOne c'è voluto più lavoro per integrare l'eSRAM e i due blocchetti adiacenti ai cluster Jaguar.

Ma non so quantificare il tutto.

Non credo ai ritorno dei chip custom, anche se per la XBoxOne c'è sicuramente voluto un po' di lavoro.

Certamente non è stato sottocosto, perché il margine c'è, seppur molto ridotto rispetto a quanto incassa normalmente con gli altri suoi chip.

Non credo. I core Jaguar sono mediamente più scarsi di quelli Atom/BayTrail, come puoi vedere dal link che ho postato prima. Per cui dubito fortemente che possa attaccare la fascia degli i3, o addirittura degli i5.

Poi Intel vende già SoC BayTrail con 4 core, e nel settore server è presente anche una declinazione con 8 core. Inoltre ha pure GPU abbastanza potenti, con le versioni più avanzate che sono dotate anche di parecchia memoria embedded (fino a 128MB di cache L4).

Per cui volendo potrebbe anche costruire qualche alternativa simile a quanto hai ipotizzato tu, senza nemmeno troppo fatica, e rimanendo comunque più competitiva in termini di consumo. Ma non ha senso, perché per il gaming di un certo spessore gli utenti preferisco la serie ix che può garantire prestazioni molto più elevate di un BayTrail.

Francamente l'unico vantaggio che vedo è quello di poter disporre di 8 core, ma non rappresenta certo una rivoluzione, considerato pure che il tutto è ottenuto con un collegamento dei due cluster Jaguar da 4 core l'unico. Un collegamento di questo genere è ben noto ed è stato utilizzato in passato diverse volte, fin dall'introduzione di processori a due core. Intel non ne ha bisogno, perché dispone già da parecchio tempo di soluzioni con 8 o più core (fino all'attuale Xeon Phi, che ne integra 60).

Il tutto IMO, ovviamente.
Ho sia un j1900 che un am1 5150, nonostante il 5150 clock solo 1600 mi sembra visibilmente più rapido delloj1900.
oltretutto come ipc base gli attuali core jaguar non mi sembrano messi male.

Comunque una cpu jaguar di derivazione ps4 con 4 core con maggiore clock ed affinamenti evolutivi su un portatile da 400€ o un desktop da "salotto" offrirebbe prestazioni 2d più che sufficenti ad un uso normale, mentre in game avrebbe prestazioni superiori ad un i3+grafica da media base.
Questo era per definire i3 ed vga nvidia fuori mercato (a parità di contorno hardware e parità di prezzo (90$ ai produttori pc) credi che la concorrenza potrebbe offrire di meglio allo stesso costo, o a costo leggermente superiore?)
Intel gia aveva provato a concorrere nel mercato Game con i740(se non ricordo male sigla, vga contemporanea a mistyque di matrox) e non credo che oggi avrebbe convenienze economica nell'investire in un settore in perenne contrazione (perchè le consolle stanno togliendo mercato di anno in anno ai pc nel gaming su grande schermo)

cdimauro
11-07-2015, 16:36
Ho sia un j1900 che un am1 5150, nonostante il 5150 clock solo 1600 mi sembra visibilmente più rapido delloj1900.
oltretutto come ipc base gli attuali core jaguar non mi sembrano messi male.
Qui (http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/2) trovi un confronto fra BayTrail e altri processori, fra cui uno basato su Jaguar.
Comunque una cpu jaguar di derivazione ps4 con 4 core con maggiore clock ed affinamenti evolutivi su un portatile da 400€ o un desktop da "salotto" offrirebbe prestazioni 2d più che sufficenti ad un uso normale, mentre in game avrebbe prestazioni superiori ad un i3+grafica da media base.
Questo era per definire i3 ed vga nvidia fuori mercato (a parità di contorno hardware e parità di prezzo (90$ ai produttori pc) credi che la concorrenza potrebbe offrire di meglio allo stesso costo, o a costo leggermente superiore?)
Come già detto, un i3 ha prestazioni nettamente superiori, visto l'elevato IPC. I due sistemi non sono direttamente confrontabili. Senz'altro la GPU integrata di AMD è superiore a quella offerta da Intel, ma in ogni caso non abbastanza per poter giocare decentemente, a meno di sacrificare dettagli et similia. Non parliamo, insomma, di macchine adatte ai videogiochi.
Intel gia aveva provato a concorrere nel mercato Game con i740(se non ricordo male sigla, vga contemporanea a mistyque di matrox) e non credo che oggi avrebbe convenienze economica nell'investire in un settore in perenne contrazione (perchè le consolle stanno togliendo mercato di anno in anno ai pc nel gaming su grande schermo)
In realtà è il contrario: il mercato del gaming su PC non soltanto è in aumento, ma ha superato già quello di tutte e tre le console messe assieme. Ed è un trend che continuerà anche per i prossimi anni.

Intel ha già investito e continua a farlo in ambito GPU, e proprio negli ultimi tempi ha presentato versioni dotate di più unità di calcolo (EU). Con Skylake dovrebbe aumentarne ancora.

Dunque non è certo intenzionata a mollare questo mercato. Tutt'altro. ;)

Piedone1113
11-07-2015, 17:19
Qui (http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/2) trovi un confronto fra BayTrail e altri processori, fra cui uno basato su Jaguar.

Come già detto, un i3 ha prestazioni nettamente superiori, visto l'elevato IPC. I due sistemi non sono direttamente confrontabili. Senz'altro la GPU integrata di AMD è superiore a quella offerta da Intel, ma in ogni caso non abbastanza per poter giocare decentemente, a meno di sacrificare dettagli et similia. Non parliamo, insomma, di macchine adatte ai videogiochi.

In realtà è il contrario: il mercato del gaming su PC non soltanto è in aumento, ma ha superato già quello di tutte e tre le console messe assieme. Ed è un trend che continuerà anche per i prossimi anni.

Intel ha già investito e continua a farlo in ambito GPU, e proprio negli ultimi tempi ha presentato versioni dotate di più unità di calcolo (EU). Con Skylake dovrebbe aumentarne ancora.

Dunque non è certo intenzionata a mollare questo mercato. Tutt'altro. ;)

http://www.servethehome.com/amd-athlon-5150-benchmarks-review-am1-apu/
Qui il 5150 (ma c'è anche il 5350 con clock più alto) ed single channel e credo che convieni con me che il dual dovrebbe far guadagnare un minimo dell'8% in prestazioni medie (dipende dal tipo di software lo so, ma credo che 8% sia una stima non ottimistica come media).
edit
Qui 5350 vs j1900 (normalizzando a parità di pp credo che avrebbe un'efficenza per watt superiore a j1900)
8350 vs j1900 (http://www.tomshardware.com/reviews/athlon-5350-am1-platform-review,3801-4.html)
La vga di ps4 dovrebbe avere la stessa capacità di calcolo di una 7770/7750 radeon (e non credo che intel riesca ad avvicinarsi con le sue integrate a tali prestazioni)
Non sto parlando di Apu attualmente in produzione, ma di Apu di derivazione jaguar con gpu evoluta da quella di ps4 (sempre che amd voglio fare un'apu simile, ma non farla sarebbe un grave errore secondo me dato che ha praticamente tutto pronto)
Sto facendo congetture ed ipotesi (nemmeno tanto astruse dato che possiamo considerare ps4 la rev1 di tale APU).
Questa ultima parte (apu ad alte prestazione Grafiche) sono teorie per dare un senso ad un investimento tecnologico che sembra non aver portato benefici degni di nota oltre quel 20% di ricarico sui chip (da 12 a 18$ a pezzo).
Fa piacere comunque che il mercato game pc ha invertito la tendenza (a meno che non vengono considerati game anche i giochi di FB, altrimenti la macchina di riferimento sarebbero gli smartphone).

davo30
11-07-2015, 19:03
Qui (http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/2) trovi un confronto fra BayTrail e altri processori, fra cui uno basato su Jaguar.

Come già detto, un i3 ha prestazioni nettamente superiori, visto l'elevato IPC. I due sistemi non sono direttamente confrontabili. Senz'altro la GPU integrata di AMD è superiore a quella offerta da Intel, ma in ogni caso non abbastanza per poter giocare decentemente, a meno di sacrificare dettagli et similia. Non parliamo, insomma, di macchine adatte ai videogiochi.

In realtà è il contrario: il mercato del gaming su PC non soltanto è in aumento, ma ha superato già quello di tutte e tre le console messe assieme. Ed è un trend che continuerà anche per i prossimi anni.

Intel ha già investito e continua a farlo in ambito GPU, e proprio negli ultimi tempi ha presentato versioni dotate di più unità di calcolo (EU). Con Skylake dovrebbe aumentarne ancora.

Dunque non è certo intenzionata a mollare questo mercato. Tutt'altro. ;)
Esatto. Il trend del mercato pc dedicato al gaming è decisamente in cresci. Amd ne deve solo approfittare proponendo dei prodotti competitivi, che tra l'altro hanno un margine di guadagno superiore alla vendita di soc e apu custom stile scatolette

Inviato dal mio GT-I9505 utilizzando Tapatalk

Vul
11-07-2015, 19:28
Esatto. Il trend del mercato pc dedicato al gaming è decisamente in cresci. Amd ne deve solo approfittare proponendo dei prodotti competitivi, che tra l'altro hanno un margine di guadagno superiore alla vendita di soc e apu custom stile scatolette

Inviato dal mio GT-I9505 utilizzando Tapatalk

In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?

cdimauro
11-07-2015, 19:35
Il fatto che la vendita di schede video sia in calo nulla toglie al fatto che il fatturato dell'industria dei giochi su PC non soltanto è in crescita, ma ha anche superato quello di tutte le console messe assieme.

http://www.servethehome.com/amd-athlon-5150-benchmarks-review-am1-apu/
Qui il 5150 (ma c'è anche il 5350 con clock più alto) ed single channel e credo che convieni con me che il dual dovrebbe far guadagnare un minimo dell'8% in prestazioni medie (dipende dal tipo di software lo so, ma credo che 8% sia una stima non ottimistica come media).
edit
Qui 5350 vs j1900 (normalizzando a parità di pp credo che avrebbe un'efficenza per watt superiore a j1900)
8350 vs j1900 (http://www.tomshardware.com/reviews/athlon-5350-am1-platform-review,3801-4.html)
Francamente da questi benchmark il quadro è molto diverso da quello viene fuori da quello che ho postato prima, e in genere Anandtech è il più rinomato. Non so che dire.

Comunque Jaguar col dual-channel dovrebbe aumentare un po' le prestazioni, come hai indicato, ma a BayTrail mancano tutte le estensioni SIMD moderne (è fermo alle SSSE3, mentre Jaguar ha tutto a parte le AVX2), per cui certe differenze, anche notevoli, sono dovute a questo.
La vga di ps4 dovrebbe avere la stessa capacità di calcolo di una 7770/7750 radeon (e non credo che intel riesca ad avvicinarsi con le sue integrate a tali prestazioni)
Dipende dalla GPU integrata. Quelle high-end di Intel offrono delle buone prestazioni. Guarda qui:
http://www.anandtech.com/show/7032/amds-richland-vs-intels-haswell-gpu-on-the-desktop-radeon-hd-8670d-hd-4600/2
http://www.futuremark.com/hardware/gpu/Intel+HD+Graphics+4600/review
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/2
http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-6.html
Non sto parlando di Apu attualmente in produzione, ma di Apu di derivazione jaguar con gpu evoluta da quella di ps4 (sempre che amd voglio fare un'apu simile, ma non farla sarebbe un grave errore secondo me dato che ha praticamente tutto pronto)
Sto facendo congetture ed ipotesi (nemmeno tanto astruse dato che possiamo considerare ps4 la rev1 di tale APU).
Questa ultima parte (apu ad alte prestazione Grafiche) sono teorie per dare un senso ad un investimento tecnologico che sembra non aver portato benefici degni di nota oltre quel 20% di ricarico sui chip (da 12 a 18$ a pezzo).
Sì, teoricamente è possibile, ma AMD potrebbe anche avere le mani legate da Sony e/o Microsoft con un impegno a non presentare APU simili per un certo periodo di tempo. D'altra parte se la progettazione di quei SoC è stata pagata da loro, è logico aspettarsi che si vogliano tutelare.
Fa piacere comunque che il mercato game pc ha invertito la tendenza (a meno che non vengono considerati game anche i giochi di FB, altrimenti la macchina di riferimento sarebbero gli smartphone).
Il dato è relativo al fatturato, quindi agli utenti paganti. Non credo che facciano distinzioni sulle tipologie di giocatori.

Piedone1113
11-07-2015, 19:44
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?

Be per curiosità ho controllato un poco in giro:
Quasi il 30% degli introiti da game pc arrivano da free to play revenue e acquisti in game.
Come avevo detto il mercato pc è in contrazione, considerare il numero di giocatori = fatturati delle software house è sbagliato.
Quello che fa vendere hardware per pc sono i giocatori unici, e sono in diminuizione nel mondo pc.

Aggiungo per non fare scompiglio:

Il chip ps4 ha dati di targa tra hd 7850 e hd7870.
Se non aggiungi memoria dedicata all'apu nessuna integrata potra eguagliare una gpu con grafica dedicata, gia solo per banda passante necessaria ad applicare i filtri alle texture ad alta risoluzione.
Un'integrata (di qualsiasi marca) che fa 60 fps con texture a bassa risoluzione non è giocare, serve banda per fare cio, ed AMD è in netto vantaggio tecnologico da questo punto di vista.
Vorrei tanto vedere come si comporta la 6200 in full hd ad impostazioni alte anche senza filtri, scommettiamo che i frame crollano?

cdimauro
11-07-2015, 21:30
Mi sembra se la cavi molto bene anche in FullHD (http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-6.html), a volte pure con qualche filtro attivato. E non c'è APU che tenga. ;)

Riguardo al mercato dei videogiochi per PC:

http://www.gamemag.it/news/il-mercato-dei-videogiochi-superera-i-91-miliardi-di-dollari-quest-anno_56959.html
http://www.gamemag.it/news/il-mercato-del-pc-gaming-varra-35-miliardi-di-dollari-entro-il-2018_56296.html

Max_R
11-07-2015, 22:19
Mi sembra se la cavi molto bene anche in FullHD (http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-6.html), a volte pure con qualche filtro attivato. E non c'è APU che tenga. ;)

Riguardo al mercato dei videogiochi per PC:

http://www.gamemag.it/news/il-mercato-dei-videogiochi-superera-i-91-miliardi-di-dollari-quest-anno_56959.html
http://www.gamemag.it/news/il-mercato-del-pc-gaming-varra-35-miliardi-di-dollari-entro-il-2018_56296.html

Le Apu rendono al meglio con memorie 2133/2400MHz per ovvie ragioni. Li sono state testate con memorie 1600MHz. Sarei curioso di vedere altri test. Dato che la recensione è stata fatta da non molto tempo, penso sia cosa voluta e non propriamente corretta. Come non detto: i sistemi di test sono diversi (ma vorrei capirne di più).

cdimauro
11-07-2015, 22:28
Veramente mi pare di capire che le DDR3 a 1600Mhz sono state usate soltanto per Broadwell, e dunque per la 6200, mentre le APU montano almeno le DDR3 a 2133Mhz. Ecco qui (http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-3.html) le configurazioni usate.

Max_R
11-07-2015, 22:35
Veramente mi pare di capire che le DDR3 a 1600Mhz sono state usate soltanto per Broadwell, e dunque per la 6200, mentre le APU montano almeno le DDR3 a 2133Mhz. Ecco qui (http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwell,4169-3.html) le configurazioni usate.

Ho corretto poco fa: avevo sorvolato la tabella, limitandomi a leggere quello che in realtà era il nuovo hardware su cui testare rispetto al solito di riferimento. Che dire: tristezza. Sinceramente mi trovo piuttosto bene con la configurazione in firma, in attesa della Nano, però fa un certo che leggere che Intel riesce ad essere avanti anche in questo. Certo si tratta di fasce di prezzo differenti, però non basta a togliere l'amaro di bocca. Vedremo le prossime soluzioni AMD anche se intendo tenere qualche annetto la configurazione attuale. Poi eventualmente torneremo ad Intel.

cdimauro
11-07-2015, 22:42
Sarà dura, perché Skylake porterà le EU della GPU a 72, rispetto alle già tante 48 di Broadwell. Inoltre integrerà anche le AVX-512 che raddoppieranno circa le prestazioni dell'unità SIMD.

Max_R
11-07-2015, 22:55
Sarà dura, perché Skylake porterà le EU della GPU a 72, rispetto alle già tante 48 di Broadwell. Inoltre integrerà anche le AVX-512 che raddoppieranno circa le prestazioni dell'unità SIMD.

A me interessa principalmente sia un buon prodotto, al di la delle prestazioni pure: dopo anni di Intel (P4EE 3,4 478; Q-9450; Q-9650) sono tornato ad AMD perchè queste APU mi stavano proprio simpatiche :D Se Zen risulterà perlomeno convincente potrò valutare, altrimenti me la metterò via, tanto poi finisce comunque che vado di discreta ed a quel punto vado in ogni caso sul sicuro con Intel. Che poi, sembrerà una castroneria ma, notai al tempo dei Barton (2600+; 3000+; 3200+), arrivando da Intel (Tualatin 1000), gli AMD già da ambiente Win erano meno reattivi ed ho questa sensazione anche ora con il sistema in firma. Nulla di grave, intendiamoci: sono contento della scelta fatta, infondo mi ero informato a sufficienza, però sarà davvero da valutare se riconfermare AMD almeno come CPU.

davo30
12-07-2015, 00:28
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?

Attenzione, non confondere la totalità del mercato pc con solo i pc gaming.
Per farti capire, se prima si vendevano 100 pc divisi in 30 gaming, 30 ufficio, 30 workstation, ora se ne vendono 90 di cui 40 gaming 30 ufficio e 20 workstation, tanto per farti un esempio. Inoltre conta che il mercato pc ha avuto una flessione (flessione di percentuali che di solito non vanno oltre il 4/5%) a causa del boom dei tablet, boom gia finito. Senza contare che il calo è dovuto alla minore richiesta di pc aziendali e pc da "supermercato" ("l'utente mediworld" ormi opta per il tablet o al massimo per un notebook i desktop preassemblati non li piglia piu nessuno)

AceGranger
12-07-2015, 00:43
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?

vorrei farti notare che il penultimo trimestre nVidia ha avuto un fatturato record di 1,25 Miliardi di dollari...

per un motivo o per l'altro le GPU continuano a venderle, per carita un po meno che in passato, ma il mercato in questione è comunque enorme.

cdimauro
13-07-2015, 17:57
http://www.bitsandchips.it/50-enterprise-business/5672-intel-posticipa-i-10nm-finfet-forse-fino-al-2018
intanto ha presentato kaby lake nella roadmap tra skylake e cannonlake per tanto cannonlake ed i 10nm arriveranno nel 2017 se non addirittura 2018
http://www.bitsandchips.it/hardware/9-hardware/5789-kaby-lake-lo-si-conosce-da-poco-ed-e-gia-stato-posticipato
Queste sono voci.
purtroppo i costi crescono in maniera esponenziale ad ogni nodo ed il FF amplifica i problemi
Sicuramente i costi sono aumentati, ma non so di quanto.
http://www.bitsandchips.it/13-mobile/5805-intel-interrompe-i-contra-revenue-per-i-tablet-x86-e-le-vendite-nel-2015-precipitano
ecco un effetto dell'abbandono del contra-revenue...
Anche queste sembrano voci (non è nemmeno possibile risalire alla fonte originale, perché richiede una sottoscrizione).

In ogni caso parleremmo della diminuzione di circa un quarto. Comunque era fisiologico che ci sarebbe stato un calo (ma vedremo quale sarà, in meglio o in peggio, alla fine dell'anno), però devi vedere la situazione nel complesso: prima Intel non aveva quote nel mercato dei tablet, ma con i contra-reveniew lo scorso anno è riuscita a piazzare più di 46 milioni di pezzi. Se adesso ne togliamo 1/4, comunque ne rimangono 3/4, e i conti puoi farteli benissimo da solo. ;)
http://www.bitsandchips.it/50-enterprise-business/5783-10nm-di-intel-sempre-piu-distanti-le-voci-negative-si-sommano
OK, per la prima volta TSMC supera, anche se di poco, gli investimenti sulle fab. Ma attenzione: soldi non è sinonimo di risultati. I risultati li vedremo quando le fab saranno a regime.
si ma fare shrink non porta miglioramenti prestazionali
Non è così. Un nuovo processo produttivo ti permette di innalzare le frequenza a parità di consumi, o viceversa di diminuire i consumi a parità di frequenza.
o non vuol dire rivedere l'architettura,
Un'architettura si può rivedere a prescindere dal processo produttivo utilizzato.
anche perchè non possono farlo ci sarebbe disparità tra chi ha una console di lancio e si avrebbe l'effetto PC dove ottimizzare per tutte le piattaforme è un delirio...
è tutto studiato per il rapporto perf/costo/guadagno da parte di chi vende il prodotto(Zony/M$) cosa che ne ad intel ne ad nvidia va tanto a genio a parte i problemi che avrebbero avuto per fornire un prodotto a 360° sotto forma di APU
Francamente non ho capito queste due parti del discorso. Potresti essere più chiaro, cortesemente?
devi ragionare a quando hanno sviluppato l'architettura e non a quando sono uscite o ai mesi dopo

Zony/M$ chiedono ai vari produttori hardware nel 2011 cosa possono fare e cosa c'è in progetto, amd aveva già in mente di fare apu e di aggiornarle con gcn dopo le vliw, di fatti llano era ancora con core k10 e gpu vliw...

le console sono state commercializzare a fine 2013, e a fine 2013 come oggi c'era e ci sono solo i 28nm, PURTROPPO...
l'unica che aveva un nodo superiore era intel con i 22nm, stop.
cosa avrebbero dovuto fare? farli di cioccolata i wafer? :read:
Intanto ciò che hai elencato sono tutte cose che si sono sempre fatte in ambito di realizzazione di prodotti come le console. Non è che se oggi le GPU sono basate su VLIW non si possa pensare di impiegare un'architettura completamente differente per le console che usciranno fra 3 anni. Infatti... lo si fa.

Quanto al processo produttivo, sulla carta i concorrenti di Intel avrebbero dovuto mettere sul piatto almeno i 20nm in tempo per la commercializzazione delle console...
ps. come noterai "bitsandchips" riporta sempre le fonti
Ma se anche quelle fonti sono basate su voci, abbiamo semplicemente rimandato il problema. Per essere chiari: l'unico dato utile che ho tratto riguarda gli investimenti leggermente maggiori di TSMC per i 10nm, perché il resto è basato su voci e deduzioni (sempre su questa base), e francamente non m'interessa.

Comunque ho avuto modo di leggere anche i commenti dei link che hai fornito: sembra un covo di Intel hater, blogger in primis... Bah. :rolleyes:

CrapaDiLegno
13-07-2015, 21:04
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumop per q

1:
Non sai quanto ha chiesto AMD, non sai quanto sarebbe stato il costo dell'accoppiata intel-nvidia.
Ma nonostante tutto ti ho dimostrato che a parità di prezzo l'accoppiata nvidia-intel avrebbe avuto costi superiori a causa di tutte le altre cose che ti ho elencato.

2:
Il tuo sorridere circa le dimensioni del packing indica chiaramente che non sai di cosa stai parlando.
2000$(prezzo bassissimo) a container diviso 20000=0.1$ a consolle
2000$ a container diviso 18000=0.11$ a consolle
differenza 1 cent a consolle moltiplicato per 9000000 di pezzi=990.000 $ (con un risparmio del solo trasporto del container da fabbrica a magazzino di smistamento, escluse tasse doganali ed altre formalità (quale deposito in magazzino), oltre a questo bisogna aggiungere il costo di trasporto dal magazzino di smistamento verso tutti i magazzini di distribuzione.
A me non fa sorridere affatto preventivare un risparmio sul trasporto di 990000 dollari facendo soltando un package più piccolo, invece vedo che a te si.
A questo aggiungi il minor costo del pcb, dei dissi, dell'alimentatore ecc.
Sissi, c'è proprio dallo sganasciarsi dalle risate a presentare il bilancio in cda. :rolleyes:

3: nelle consolle serve il bus dedicato altrimenti aivoglia a fare tutti i ragionamenti che vuoi circa memoria unificata (con accesso condiviso tabbella di allocazione comune e dinamica) attraverso il bus pce, o sbaglio?
Ma se credi che una consolle debba essere fatta ad immagine e somiglianza di un pc rivolgiti a steam, ma sopratutto vedi se in un qualsiasi gioco uscito per ps4 e pc negli ultimi 12 mesi sia più gratificante giocare con una ps4 o con un i3 2120+650nvidia e dimmi se davvero la potenza bruta e l'architettura pc sia la strada migliore

4: mi sembra che la potenza elaborativa sia sufficente, dato che ne stanno vendendo una marea di consolle, e non sembra che ci siano lamentele e comunque dai dati di targa rimanere entro i 95W di tdp stimati dell'apu di ps4 mi sembra un ottimo risultato.

5: io non devo raschiare nessun barile per dimostrare che amd non vende in perdita o pareggio a sony ed ms.
Piuttosto non ho visto nessuno straccio di fonte (nemmeno da una fonte pro scie chimiche) che diano un minimo di fondamento alle tue conclusioni (che non sono tesi, dato che hai deciso a priori dell'aver ragione)

Non sarebbe economicamente convenitene, e sono d'accordo con l'analisi che ha fatto Piedone1113.

Aggiungo che un bus PCIExpress per collegare di due chip sarebbe una soluzione troppo castrante. Molto meglio un collegamento punto-punto dedicato, ad alte prestazioni, similmente a quello che Microsoft realizzò per la XBox 360 (fra CPU e GPU/northbridge).

Con l'integrazione che c'è oggi (siamo arrivati a ben 7 miliardi di transistor, se non ricordo male), non ha più senso separare i chip. Perfino gli ultimi Xeon sono dei SoC che hanno "fagocitato" un'altra buona parte del chipset.

Per cui un ritorno al passato non ha più senso: ci per lo più svantaggi, che surclassano i pochi vantaggi.

Pare che sia presente, ma non ci sono state conferme.

Comunque è normale che sia più difficile un port su PC, similmente a quanto s'è già verificato con entrambe le precedenti XBox, avevano memoria unificata.

Ma in generale l'hardware della PS4 è più simile a un PC rispetto alla XBoxone, e dunque un porting risulta più facilitato prendendo la prima piattaforma come riferimento (a parità / similitudine delle API, ovviamente).

Come ho già detto prima, la memoria embedded è molto più semplice da realizzare e presenta meno difetti rispetto a dei circuiti logici/funzionali, per cui le rese saranno migliori.

Le modifiche alle APU con l'integrazione di tutta quell'eSRAM, più il piccolo blocco collegato a ogni cluster Jaguar, sono decisamente più costose rispetto alla realizzazione del SoC della PS4, che è abbastanza standard / lineare.

Non mi pare che lo sia alcuna console attuale. Sono rimasto deluso da tutte.

L'APU è la stessa per tutte le console, e visti gli obiettivi nonché il budget non potevi pretendere che infilassero un FX in quel SoC.

Sulla GDDR ho già scritto prima.

Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?

Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.

Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.

Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.

E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)

CrapaDiLegno
13-07-2015, 21:56
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumo per quanto posso...

1:
Non sai quanto ha chiesto AMD, non sai quanto sarebbe stato il costo dell'accoppiata intel-nvidia.
Ma nonostante tutto ti ho dimostrato che a parità di prezzo l'accoppiata nvidia-intel avrebbe avuto costi superiori a causa di tutte le altre cose che ti ho elencato.
Non mi interessa sapere esattamente quanto a chiesto Mi basta vedere gli scarsi risultati della divisione semi-custom.
Una azienda che non ha più nulla di competitivo da vendere avrebbe dovuto sfruttare meglio il suo unico vantaggio di poter produrre una APU. Invece sembra che pur di vincere la fornitura sia andata giù giù fino a far desistere del tutto nvidia e Intel su una alternativa a margine risicatissimo.


2:
Il tuo sorridere circa le dimensioni del packing indica chiaramente che non sai di cosa stai parlando.
2000$(prezzo bassissimo) a container diviso 20000=0.1$ a consolle
2000$ a container diviso 18000=0.11$ a consolle
differenza 1 cent a consolle moltiplicato per 9000000 di pezzi=990.000 $ (con un risparmio del solo trasporto del container da fabbrica a magazzino di smistamento, escluse tasse doganali ed altre formalità (quale deposito in magazzino), oltre a questo bisogna aggiungere il costo di trasporto dal magazzino di smistamento verso tutti i magazzini di distribuzione.
A me non fa sorridere affatto preventivare un risparmio sul trasporto di 990000 dollari facendo soltando un package più piccolo, invece vedo che a te si.
A questo aggiungi il minor costo del pcb, dei dissi, dell'alimentatore ecc.
Sissi, c'è proprio dallo sganasciarsi dalle risate a presentare il bilancio in cda. :rolleyes:
Il mio sorridere sulla questione del packaging è presto detto: guarda la differenza di dimensioni tra la PS4 e la XBoxOne. O tu o MS avete sbagliato qualcosa.


3: nelle consolle serve il bus dedicato altrimenti aivoglia a fare tutti i ragionamenti che vuoi circa memoria unificata (con accesso condiviso tabbella di allocazione comune e dinamica) attraverso il bus pce, o sbaglio?
Ma se credi che una consolle debba essere fatta ad immagine e somiglianza di un pc rivolgiti a steam, ma sopratutto vedi se in un qualsiasi gioco uscito per ps4 e pc negli ultimi 12 mesi sia più gratificante giocare con una ps4 o con un i3 2120+650nvidia e dimmi se davvero la potenza bruta e l'architettura pc sia la strada migliore
Non serve un bus dedicato, serve un controller di memoria diverso.
E comunque, vista la svendita di AMD, non sembra che nvidia e Intel fossero tanto distanti dal poter offrire qualcosa di meglio di quelle APU (che sì, sono schifezze per gli standard già del 2013).


4: mi sembra che la potenza elaborativa sia sufficente, dato che ne stanno vendendo una marea di consolle, e non sembra che ci siano lamentele e comunque dai dati di targa rimanere entro i 95W di tdp stimati dell'apu di ps4 mi sembra un ottimo risultato.
A me sembra proprio che la potenza elaborativa non sia per nulla sufficiente. La XBoxOne non riesce a raggiungere il fullHD con 4 poligoni e 2 texture decenti sullo schermo.
A 28nm Kepler rende molto di più di GCN a parità di potenza (e pure di die space, inutile negarlo) e Intel aveva già i 22nm con una architettura con IPC doppio di Jaguar. Quindi pensare che solo AMD sarebbe riuscita a usare 95W a parità di potenza elaborativa mi sembra davvero un'utopia.


5: io non devo raschiare nessun barile per dimostrare che amd non vende in perdita o pareggio a sony ed ms.
Piuttosto non ho visto nessuno straccio di fonte (nemmeno da una fonte pro scie chimiche) che diano un minimo di fondamento alle tue conclusioni (che non sono tesi, dato che hai deciso a priori dell'aver ragione)
Se sai leggere i bilanci, ti consiglio di leggere gli ultimi di AMD.

Non sarebbe economicamente convenitene, e sono d'accordo con l'analisi che ha fatto Piedone1113.
Ho già detto che economicamente sarebbe costato di più, ma visto quanto in basso è scesa AMD, ho il forte dubbio che il prezzo non debba essere stato tanto diverso in termini assoluti. Solo che AMD si è accontenta di una bella fetta di margine inferiore pur di avere la fornitura.

Aggiungo che un bus PCIExpress per collegare di due chip sarebbe una soluzione troppo castrante. Molto meglio un collegamento punto-punto dedicato, ad alte prestazioni, similmente a quello che Microsoft realizzò per la XBox 360 (fra CPU e GPU/northbridge).
Qualsiasi cosa, non mi sembra che la creazione di bus di comunicazione proprietari/custom siano mai stati un problema nello sviluppo delle console. Per PS3 si è fatto una cosa mica male per sfruttare fino all'ultimo I/O del Cell. Ed ha avuto il suo perché poi.



Come ho già detto prima, la memoria embedded è molto più semplice da realizzare e presenta meno difetti rispetto a dei circuiti logici/funzionali, per cui le rese saranno migliori.

Le modifiche alle APU con l'integrazione di tutta quell'eSRAM, più il piccolo blocco collegato a ogni cluster Jaguar, sono decisamente più costose rispetto alla realizzazione del SoC della PS4, che è abbastanza standard / lineare.
Sarà più semplice da realizzare ma lo spazio sul die costa lo stesso in maneira uguale. E a quanto sembra tutto lo spazio che MS ha usato per la eSRAM non vale in temini di computazione come quello usato da Sony. Semplicemente, come detto, MS è rimasta indietro credendo ancora che per avere banda servisse la eSRAM quando invece Sony le ha dato il benservito sia come banda che come potenza di calcolo (shader, ROPs, TMUs). 2:0 per Sony e ciao ciao MS.

Non mi pare che lo sia alcuna console attuale. Sono rimasto deluso da tutte.

Diciamo che una è una schifezza, ma l'altra è proprio improponibile com HW next gen del 2013.

L'APU è la stessa per tutte le console, e visti gli obiettivi nonché il budget non potevi pretendere che infilassero un FX in quel SoC.
Un FX sarebbe costato di più e reso di meno. Io pensavo ad un core Intel. Anche nella versione semplificata, un core Haswell da la birra a qualsiasi altro core AMD. Se poi realizzato a PP inferiore che Intel può, allora sì, potevo pretendere (o almeno pensare) che si potesse avere di più.

Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?

Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.

Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.
Ma stai facendo i conti senza l'oste. Che è la concorrenza.
nvidia e Intel hanno margini di guadagno del 60% sui loro prodotti. Quando hai un prodotto che vale tot, non è che perché ne ricicli poi parte del progetto, ti diverti a venderlo a 1/3 di tot. Sopratutto quando sai che hai il vantaggio di essere l'unico che può farlo e che hai problemi economici (oltre che tecnici) da risolvere.
Quindi, le conclusioni a me sembrano lineari:
1. AMD non aveva una soluzione davvero così economicamente vantaggiosa rispetto a Intel o Intel+nvidia. Altrimenti avrebbe potuto sparare un prezzo molto più alto e MS e Sony avrebbero solo potuto dire "ok, va bene".
2. AMD ha tentato la carta HW su console tutto mio = monopolizzo lo sviluppo dei giochi pilotando l'ottimizzazione verso la mia architettura e con questa idea ha svenduto tutto lo svendibile, appunto come detto prima, perché le APU erano sostanzialmente già pronte e quindi i costi erano minimi. Questo però ha raso a zero i profitti possibili. Io ancora mi ricordo di gente che parlava di cifre di guadagno netto assurde quando era già chiaro che così non sarebbe stato.

Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.

E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)
8 core Jaguar valgono meno di 4 core di un i5. Forse sono in linea con un i3 dual core + HT. Siccome si parla di costi contenuti, prendere in considerazione l'HBM non ha senso. Memoria e interposer (più la lavorazione necessaria per "incollare" il tutto) hanno costi non proprio contenuti.
GCN a parità di spazio e consumi va meno di Kepler, e non è detto che nvidia non potesse sfornare già Maxwell nel 2012, quindi seppur in chip separato, la stessa area di silicio a 28nm avrebbe dato di più e consumato di meno. E con memoria grafica dedicata (e quindi banda in abbondanza) MS non avrebbe avuto bisogno di eSRAM, e Sony risparmiava 4GB di GDDR5.
Quindi, in conclusione, tutto questo vantaggio di AMD io sinceramente non lo vedo.

Non avete capito che non si deve guardare alla potenza di calcolo in assoluto come termine di paragone per capire quale prodotto vale (e quindi guadagna) di più. Bisogna valutare in che modo ci si arriva a quella potenza di calcolo. Se necessita molto più spazio o processo produttivo più costoso (la corrente non importa, è a carico dell'utente) e si scontra contro una soluzione piccola ed efficiente, allora hai perso in partenza.

Per fare qualche esempio, il GK110 montato su 780(ti) è più costoso come soluzione rispetto a Hawaii (290X). Il GM204 che è andato a sostituirlo (con guarda caso ritiro immediato del GK110 dal mercato consumer) è di gran lunga la soluzione che ha un margine più alto rispetto alla soluzione AMD. Anche se la nuova 390X andasse poco di più, il prodotto nvidia sarebbe ancora il migliore in termini economici.
Il GM200, che è una padella assurda, rimane ancora più economico di Fiji. Il GK104 (GTX680) è stato una manna di guadagni stratosferici per nvidia nonostante fosse poco più lento della versione overcloccata di Tahiti (7970, e guarda caso oggi non più presente sul mercato in nessuna declinazione).
Insomma, il vantaggio tecnologico non ce l'hai perché raggiungi X ad un benchmark, ce l'hai perché raggiungi X con costo Y. E se il tuo X è molto in alto e Y è molto in basso, hai fatto bingo. Anche se X non è il massimo dei massimi. Ma se sei pure al top oltre che avere Y più basso della concorrenza, allora hai il massimo guadagno e puoi permetterti di fare un po' quello che vuoi, compreso schiacciare i margini della concorrenza che non può starti dietro (in termini economici).
Che è quello che è successo negli ultimi 6 anni nel mercato CPU e negli ultimi 3 nel mercato GPU.
Se qualcuno crede che dopo la guerra per il benchmark con la barretta più alta (che fa pubblicità) non conti la questione X su Y, gaurdate cosa sta facendo nvidia con il GM206 (aka GTX960). Un chip minuscolo e molto semplice (ha un bus di 128bit!) che si scontra con Tonga, il successore di Tahiti, immensamente più grande. Pensate che a nvidia importi che la 960 faccia qualche frame in meno della soluzione AMD quando ci guadagna forse il doppio o il triplo per ogni scheda venduta?
In termini economici nvidia è molto più avanti, e se contraesse i suoi margini a livello di AMD, altro che vantaggio tecnologico da parte di AMD...

cdimauro
14-07-2015, 05:59
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumo per quanto posso...
Non ti preoccupare, rispondi pure quando puoi. Tante volte anch'io ho difficoltà a scrivere "subito", e faccio passare anche molto tempo. Purtroppo il tempo è una delle cose che non possiamo comprare al mercato...
Non mi interessa sapere esattamente quanto a chiesto Mi basta vedere gli scarsi risultati della divisione semi-custom.
Una azienda che non ha più nulla di competitivo da vendere avrebbe dovuto sfruttare meglio il suo unico vantaggio di poter produrre una APU. Invece sembra che pur di vincere la fornitura sia andata giù giù fino a far desistere del tutto nvidia e Intel su una alternativa a margine risicatissimo.
Scusami, ma hai notizie che Intel fosse parte delle trattative, e che abbia addirittura rifiutato?

Che io sappia, diversi anni fa c'erano voci del possibile utilizzo di Larrabee, ma sono rimaste tali, e per ovvie ragioni (infatti Larrabee come GPU è morta).
Ho già detto che economicamente sarebbe costato di più, ma visto quanto in basso è scesa AMD, ho il forte dubbio che il prezzo non debba essere stato tanto diverso in termini assoluti. Solo che AMD si è accontenta di una bella fetta di margine inferiore pur di avere la fornitura.
Se per AMD scendere dal 35% al 10% ha rappresentato un enorme sacrificio, pensi che Intel e nVidia, abituate al 60% (secondo quanto hai riportato), avrebbero mai potuto arrivare a simili livelli?

Io non credo proprio, e dunque l'operazione sarebbe stato impossibile da realizzare, già in partenza.

Anche perché, e come già discusso con AceGranger, si sarebbe aggiunto anche il costo per integrare la GPU di nVidia all'interno del SoC di Intel. Intel ha già speso per acquisire know-how per farlo con le PowerVR di Imagination, ma avrebbe dovuto farlo nuovamente per quelle di nVidia. Altri costi, per l'appunto.
Qualsiasi cosa, non mi sembra che la creazione di bus di comunicazione proprietari/custom siano mai stati un problema nello sviluppo delle console.
Senz'altro, ma non è nulla di paragonabile rispetto a unità connesse internamente, che sono di gran lunga più veloci ed efficienti. Non è un caso che oggi si assista così tanto all'integrazione di tante unità all'interno di uno stesso SoC, e dunque non ci sarebbe stato motivo d'invertire la tendenza.
Per PS3 si è fatto una cosa mica male per sfruttare fino all'ultimo I/O del Cell. Ed ha avuto il suo perché poi.
E' stata una mala pezza messa lì per cercare di sfruttare quel che si poteva. Se vai a ripescare i thread di una dozzina-decina d'anni fa, s'è discusso molto dell'argomento anche con programmatori che hanno lavorato a titoli AAA per PS3 e XBox360.

La PS3 è un hardware progettato molto male.
Sarà più semplice da realizzare ma lo spazio sul die costa lo stesso in maneira uguale.
No: se le rese sono migliori, è ovvio che i chip sono più economici.
E a quanto sembra tutto lo spazio che MS ha usato per la eSRAM non vale in temini di computazione come quello usato da Sony. Semplicemente, come detto, MS è rimasta indietro credendo ancora che per avere banda servisse la eSRAM quando invece Sony le ha dato il benservito sia come banda che come potenza di calcolo (shader, ROPs, TMUs). 2:0 per Sony e ciao ciao MS.
Al momento è così, ma XBoxOne ha ancora un po' di margine di crescita, come l'ha avuto la PS3 che all'inizio è stata fallimentare e dopo un po' di anni ha ricucito in parte il gap con la XBox360 (facendo sputare sangue ai programmatori).
Un FX sarebbe costato di più e reso di meno. Io pensavo ad un core Intel. Anche nella versione semplificata, un core Haswell da la birra a qualsiasi altro core AMD. Se poi realizzato a PP inferiore che Intel può, allora sì, potevo pretendere (o almeno pensare) che si potesse avere di più.
Probabilmente sì, ma come sai Intel si fa pagare anche gli i3...
8 core Jaguar valgono meno di 4 core di un i5. Forse sono in linea con un i3 dual core + HT.
Dipende fortemente dal tipo di calcolo eseguito. Quello dei giochi è più lineare / parallelizzabile e trae più vantaggio da più core fisici, per cui mi aspetto che la bilancia penda verso i primi (anche se non so quantificare).
GCN a parità di spazio e consumi va meno di Kepler, e non è detto che nvidia non potesse sfornare già Maxwell nel 2012,
No. Se avesse potuto, l'avrebbe tirato fuori prima, per se stessa.

P.S. Scusami, ma non ho tempo di rileggere.

CrapaDiLegno
14-07-2015, 09:26
Scusami, ma hai notizie che Intel fosse parte delle trattative, e che abbia addirittura rifiutato?

Che io sappia, diversi anni fa c'erano voci del possibile utilizzo di Larrabee, ma sono rimaste tali, e per ovvie ragioni (infatti Larrabee come GPU è morta).
Facciamo un ragionamento semplice semplice...Secondo te Sony e MS sono andate da AMD e le hanno detto... guarda sei l'unica che puoi realizzare questa soluzione, solo tu puoi garantirci di vednere console a prezzo basso e farci fare una barcata di soldi. E per risposta AMD ha detto, certo, non c'è problema, metto un margine bassissimo per farvi contente. Tanto io sto benissimo e non ho bisogno di farmi pagare quello per cui sono quasi 10 anni che investo qualche miliardino in R&D.

Se per AMD scendere dal 35% al 10% ha rappresentato un enorme sacrificio, pensi che Intel e nVidia, abituate al 60% (secondo quanto hai riportato), avrebbero mai potuto arrivare a simili livelli?

Io non credo proprio, e dunque l'operazione sarebbe stato impossibile da realizzare, già in partenza.
Che è quello che ho detto io. Chiediti perché AMD è dovuta scendere a un margine tanto risicato se dall'altra parte non ci fosse stata una contro-offerta comunque molto sofferta anche per i competitori. Poi sotto un certo margine è ovvio che è inutile andare se non si ha un secondo fine (pubblicità, vantaggi nello sviluppo etc...).


Anche perché, e come già discusso con AceGranger, si sarebbe aggiunto anche il costo per integrare la GPU di nVidia all'interno del SoC di Intel. Intel ha già speso per acquisire know-how per farlo con le PowerVR di Imagination, ma avrebbe dovuto farlo nuovamente per quelle di nVidia. Altri costi, per l'appunto.
Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica? Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die. Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo". Il chip di MS invece no. E' in accrocchio. Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Problema economico di risparmiare 5 dollari su ogni pezzo? Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.


Senz'altro, ma non è nulla di paragonabile rispetto a unità connesse internamente, che sono di gran lunga più veloci ed efficienti. Non è un caso che oggi si assista così tanto all'integrazione di tante unità all'interno di uno stesso SoC, e dunque non ci sarebbe stato motivo d'invertire la tendenza.
Si integra per ridurre i costi, non certo per avere soluzioni più performanti.


No: se le rese sono migliori, è ovvio che i chip sono più economici.
Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.


Al momento è così, ma XBoxOne ha ancora un po' di margine di crescita, come l'ha avuto la PS3 che all'inizio è stata fallimentare e dopo un po' di anni ha ricucito in parte il gap con la XBox360 (facendo sputare sangue ai programmatori).
Un po' di margine di crescita in cosa? Per via di quella striminzita (in quantità) eSRAM a disposizione che occupa il 25% del die o giù di lì? Senza delle ROPs sufficienti a pompare pixel?
Probabilmente, se davvero c'è hUMA nella PS4, direi che ad avere maggiori margini di crescita è quest'ultima.


Dipende fortemente dal tipo di calcolo eseguito. Quello dei giochi è più lineare / parallelizzabile e trae più vantaggio da più core fisici, per cui mi aspetto che la bilancia penda verso i primi (anche se non so quantificare).

No. Se avesse potuto, l'avrebbe tirato fuori prima, per se stessa.
Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati. E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.

Piedone1113
14-07-2015, 12:00
Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica? Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die. Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo". Il chip di MS invece no. E' in accrocchio. Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Problema economico di risparmiare 5 dollari su ogni pezzo? Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.


Si integra per ridurre i costi, non certo per avere soluzioni più performanti.


Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.





Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati. E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.

Un paio di appunti:

Si fa tutto integrato per contenere i costi, e secondo la tua opinione hanno cannato due team di ingegneri (quelli di sony e ms), mentre tu hai ragione.
Forse è un'affermazione leggermente presuntuosa.

Utilizzare 2 chip separati (oltre a costare più) porta a far costare di più la mb, e lo sviluppo del bus (indispensabile).
Aumentano anche i costi del controller ram, oppure ti tocca gestire due sottosistemi ram (uno per la vga ed uno per la cpu)
dotare la vga di sufficente ram (4 gb?) con un controller abbastanza ampio e sufficenti moduli (nel 2013 mi sa che non esistevano chip da 2 gb)

Sony e ms non stanno vendendo in perdita le consolle (e sarebbe la prima volta) quindi nessuna svendita.

Mi parli del package della xbox:
Costa di più (anche per quel motivo) e dulcis in fondo si parla di revisioni del chip con frequenze maggiorate ed aggiornamento software delle vecchie consolle per alzare le frequenze (uno dei motivi del package con maggior volume).

Ms e sony non fanno il grosso degli utili dalla consolle, ma dai giochi.
Le software house hanno chiesto (o imposto) una piattaforma semplice da programmare e da fare il porting verso il pc e/o altra consolle, e puoi fare tutte le consolle che vuoi, ma se non ci sono giochi (e sviluppare giochi tripla A ha raggiunto i costi di un film oramai) rimane sugli scaffali tranne che a regalarla.

Ultima Chicca:
PS4 e xboxOne hanno venduto il doppio al lancio rispetto le sue predecessori.

cdimauro
14-07-2015, 19:50
Facciamo un ragionamento semplice semplice...Secondo te Sony e MS sono andate da AMD e le hanno detto... guarda sei l'unica che puoi realizzare questa soluzione, solo tu puoi garantirci di vednere console a prezzo basso e farci fare una barcata di soldi. E per risposta AMD ha detto, certo, non c'è problema, metto un margine bassissimo per farvi contente. Tanto io sto benissimo e non ho bisogno di farmi pagare quello per cui sono quasi 10 anni che investo qualche miliardino in R&D.
La questione per me è molto semplice: Sony e Microsoft si sono rivolte a chi era in grado di produrre un SoC contenente tutto ciò che serviva per i loro scopi, incluse eventuali personalizzazioni, e a buon mercato.

Dunque AMD era l'unica papabile.
Che è quello che ho detto io. Chiediti perché AMD è dovuta scendere a un margine tanto risicato se dall'altra parte non ci fosse stata una contro-offerta comunque molto sofferta anche per i competitori. Poi sotto un certo margine è ovvio che è inutile andare se non si ha un secondo fine (pubblicità, vantaggi nello sviluppo etc...).
Dall'altra parte poteva continuare a esserci IBM, che in ogni caso avrebbe garantito anche un'eventuale retrocompatibilità con le precedenti console.
Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica?
Anche, ma non solo. Ne parlo meglio dopo.
Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die.
E invece la differenza è notevole, perché puoi togliere di mezzo il bus esterno e creare una connessione interna molto più veloce per lo scambio dei dati fra i due.
Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo".
L'hUMA dovrebbe essere una caratteristica comune di entrambi i SoC.
Il chip di MS invece no. E' in accrocchio.
Come fai a dirlo, visto che i due SoC sono molto simili?
Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Costa di meno, e va un po' meno. Non ci vedo grandi stravolgimenti fra i due SoC.
Problema economico di risparmiare 5 dollari su ogni pezzo?
Non ho idea di quanto si risparmi, per cui non posso pronunciarmi, ma quando le GDDR5 usciranno di scena è fisiologico aspettarsi un aumento dei prezzi.
Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.
Per quanto mi riguarda una prossima generazione di console ha poco senso, col mercato invaso da tablet, smarthphone, e coi PC che sono sempre più potenti.
Si integra per ridurre i costi, non certo per avere soluzioni più performanti.
Come già detto, avendo tutto integrato è possibile avere connessioni molto più veloci fra i componenti, che i componenti esterni possono soltanto sognarsi.

Quando la XBox360 è stata finalmente prodotto con un singolo chip, hanno dovuto introdurre delle latenze fra la connessione di CPU e GPU per mantenere la retrocompatibilità, proprio per questo motivo.

Ho recuperato il documento di presentazione del nuovo SoC della 360, che trovi qui (http://www.hotchips.org/wp-content/uploads/hc_archives/hc22/HC22.23.215-1-Jensen-XBox360.pdf), dove ne parla. E' interessante perché dimostra pure perché sia stato conveniente realizzare un solo chip, e la cosa non è certo peggiorata da allora; tutt'altro.
Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.
Questo è un altro discorso.
Un po' di margine di crescita in cosa? Per via di quella striminzita (in quantità) eSRAM a disposizione che occupa il 25% del die o giù di lì? Senza delle ROPs sufficienti a pompare pixel?
Probabilmente, se davvero c'è hUMA nella PS4, direi che ad avere maggiori margini di crescita è quest'ultima.
A parte il fatto che l'hUMA dovrebbe essere comune a entrambe le console, come dicevo l'eSRAM non è ancora sfruttata adeguatamente, e in futuro consentirà di migliorare le prestazioni.
Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Non è così semplice, perché i decoder delle due microarchitetture non sono uguali e hanno vincoli diversi. Idem per le unità di esecuzione a cui vengono smistate le istruzioni.
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Ma AMD ha molta più esperienza di Intel in ambito GPU, sia nella progettazione degli stream processori sia riguardo ai driver. E il SoC è costituito da CPU + GPU, non soltanto dalla CPU.
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati.
Non è questione di esaltare AMD o meno, ma le va dato sicuramente il merito di aver realizzato dei SoC che sono un buon compromesso per i requisiti entro i quali si doveva muovere.

Ricorda che i committenti sono Microsoft e Sony, e dunque sono loro che hanno deciso, in ultima analisi, cosa volere dentro quel chip.
E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.
O non ci saranno più console...

Piedone1113
14-07-2015, 20:09
Ho recuperato il documento di presentazione del nuovo SoC della 360, che trovi qui (http://www.hotchips.org/wp-content/uploads/hc_archives/hc22/HC22.23.215-1-Jensen-XBox360.pdf), dove ne parla. E' interessante perché dimostra pure perché sia stato conveniente realizzare un solo chip, e la cosa non è certo peggiorata da allora; tutt'altro.

Spero che adesso si renda conto che quello che avevo scritto (anche riferito al package) non sono barzellette.

Ale55andr0
14-07-2015, 20:17
Ma AMD ha molta più esperienza di Intel in ambito GPU, sia nella progettazione degli stream processori sia riguardo ai driver. E il SoC è costituito da CPU + GPU, non soltanto dalla CPU.

.


aggiungerei che la cpu strapotente in una console conta (relativamente, si intende) poco visto che anzitutto non c'è il problema di draw call ergo puoi spremere davvero all'osso cio che può darti la cpu avvicinandoti ai suoi limiti "fisiologici" o credete che i nostri i7 vengano davvero sfruttati?. Inoltre nei giochi la cpu gestisce meno roba della gpu, perlopiù cose tipo ia, calcoli tipo danni, gestione interfacce ecc. ecc (anche la fisica volendo in un titolo nativo console la si può far calcolare alla gpu con più efficienza non dovendoti preoccupare di diatribe di diversa architettura nvidia/amd, posto che non tutti i giochi hanno complessi motori fisici). Globalmente conta sicuramente più una buona gpu. Non mi stupirebbe che in una ipotetica next gen futura (io invece credo proprio che la faranno, chi gioca uncharted, halo ecc se ne fotte di sostituire le console con gli smartphone, sono utenze DIVERSE, il grosso del parco console attuale non lo hanno certo comprato i casualoni, poche storie) si useranno sempre apu: per allora vi saranno pp ancora più avanzati e architetture con prestazioni per watt ancora maggiori, basti pensare che già facendo slittare l'uscita di "soli" due anni avrebbero potuto montare una apu con architettura greenland anzichè gcn, pp a 16/14nani e hbm unificata...sarebbero state dei piccoli gioiellini di console. Poi certo un pc performerebbe sempre più - ma è altro discorso - ma sarebbero state imho macchine molto più equlibrate e di prestazioni adeguate

cdimauro
14-07-2015, 20:28
@Piedone1113: certamente, anche quello che hai scritto prima lo ritenevo valido a prescindere dal documento che ho riportato adesso. :)
di HU ti fidi di più? http://www.hwupgrade.it/news/cpu/processori-ice-lake-da-intel-nel-2017-con-alimentazione-integrata_58037.html
Anche hwupgrade riporta indiscrezioni in questo caso.
mica ho detto che TSMC è esente da tutto ciò, anzi, è fresca questa notizia http://www.hwupgrade.it/news/cpu/produzione-a-10nm-anche-tsmc-potrebbe-rinviarla-di-due-trimestri_58032.html
sono tutti sulla stessa barca e a me da fastidio il fatto che in giro ci sia la leggenda metropolitana che Intel cambi PP ogni 2 anni solo perché si chiama Intel...
Vorrei capire innanzitutto che motivo hai da essere così infastidito. Non so, per caso hai azioni di AMD, TSMC, Samsung, Globalfoundries? Sii chiaro, cortesemente.

Poi nessuno qui ha detto che Intel sia onnipotente: i limiti della fisica valgono per tutti.

Per cui continuo a non comprendere perché ti scaldi così tanto, per cose che ti dovrebbero essere ben lontane.
mi pare strano tu non capisca:
il concetto di alzare le frequenze o rivedere l'architettura con ad esempio gli step di layout lo puoi fare con le cpu o gpu, ma in una console che è scatola chiusa il progetto originario nasce e muore in maniera identica, l'unico scopo delle shrink è abbassare i consumi, rendere stabile ciò che c'è, abbassare il calore generato e di conseguenza ridimensionare il pacchetto completo
punto
Lo shrink serve soprattutto a ridurre i costi, visto che l'hardware delle console è, per l'appunto, immutabile.

Comunque circolano voci che Microsoft si appresti ad alzare ancora una volta il clock del SoC...
GF li ha saltati, TSMC i 20SOC li ha relegati tutti per apple e non sono adatti ad apu del genere, e samsung avendo avuto problemi li ha usati in bassa scala solo per lei...
quindi? facevano uscire le console nuove nel 2016 assieme ai 16/14nm?
Questi accordi si fanno ben prima che il nuovo processo produttivo sia disponibile, per cui non c'entrano nulla gli eventuali problemi che si sarebbero poi verificati.

Per essere chiari: se le fonderie mi danno disponibilità del processo a 20nm fra 3 anni, è chiaro che il mio progetto lo realizzerò in quell'ottica e coi vantaggi che esso mi darà.

Dunque il problema era di spuntare un accordo vantaggioso per sfruttare il processo a 20nm. Cosa che, evidentemente, non è stata possibile, complice anche il ruolo da primadonna di Apple. Quindi i vetusti 28nm sono stati un ripiego.
a parte che non sono voci,
Finora leggo di voci. Ma se hai FATTI non hai che da riportarli.
e conferme come vedi arrivano anche qua e quelle di B&C si sono sempre dimostrate reali e poi confermate nel 97% dei casi
Non lo frequento, e non posso giudicare.
guarda bene e noterai molte frecciate verso tutti, nessuno escluso...
prova a farti un giro sul thread dei meme e ne vedrai delle belle verso amd gf nvidia...
Se il livello è lo stesso, come dici, allora preferisco farne a meno, grazie.
è che evidentemente la verità ad alcuni fa male
Di quale "verità" stai parlando, visto che si tratta di voci?

Poi è il livello infantile di certi commenti che trovo squallido, visto che quei bambocci passano il tempo a godere delle (eventuali, perché si tratta di voci, per l'appunto) disgrazie altrui.

Il perché di tutto ciò rimane un mistero...

cdimauro
14-07-2015, 20:36
aggiungerei che la cpu strapotente in una console conta (relativamente, si intende) poco visto che anzitutto non c'è il problema di draw call ergo puoi spremere davvero all'osso cio che può darti la cpu avvicinandoti ai suoi limiti "fisiologici" o credete che i nostri i7 vengano davvero sfruttati?. Inoltre nei giochi la cpu gestisce meno roba della gpu, perlopiù cose tipo ia, calcoli tipo danni, gestione interfacce ecc. ecc (anche la fisica volendo in un titolo nativo console la si può far calcolare alla gpu con più efficienza non dovendoti preoccupare di diatribe di diversa architettura nvidia/amd, posto che non tutti i giochi hanno complessi motori fisici). Globalmente conta sicuramente più una buona gpu.
Senz'altro, ma come tu stesso hai detto i processori attuali non vengono nemmeno pienamente sfruttati.
Non mi stupirebbe che in una ipotetica next gen futura (io invece credo proprio che la faranno, chi gioca uncharted, halo ecc se ne fotte di sostituire le console con gli smartphone, sono utenze DIVERSE, il grosso del parco console attuale non lo hanno certo comprato i casualoni, poche storie)
Ma un dispositivo unico, da collegare alla TV o a un'eventuale docking station quando serve, potrebbe fare gola a molti. ;)
si useranno sempre apu: per allora vi saranno pp ancora più avanzati e architetture con prestazioni per watt ancora maggiori, basti pensare che già facendo slittare l'uscita di "soli" due anni avrebbero potuto montare una apu con architettura greenland anzichè gcn, pp a 16/14nani e hbm unificata...sarebbero state dei piccoli gioiellini di console. Poi certo un pc performerebbe sempre più - ma è altro discorso - ma sarebbero state imho macchine molto più equlibrate e di prestazioni adeguate
Coi problemi che ci sono ancora, non è nemmeno detto che si sarebbero potuti sfruttare i 16 o 14nm. Le HBM al momento sono state un esperimento, anche se IMO rappresentano il futuro delle GPU.

Gli ultimi anni ci hanno insegnato che pianificare qualcosa è decisamente arduo, coi limiti della fisica che si fanno sempre più pressanti.

CrapaDiLegno
14-07-2015, 20:47
Spero che adesso si renda conto che quello che avevo scritto (anche riferito al package) non sono barzellette.

Ma non è che hai scritto barzellette, è che vedendo quanto tutto è indirizzato al massimo risparmio, il fatto che mi state a contare il cm^3 del case, e poi mi vedo la PS4 e la XBoxOne, o vado a rivedere il case della PS3 (che è tutto tranne che piccolo, semplice ed economico, e neppure facilmente impilabile) direi che qualcosa nel progetto di MS non ha funzionato.
Se la Sony, con un SoC che va il 50% in più (e questo risponde anche a cdimauro che dice che il SoC MS va "poco" di meno costando meno) e quindi consuma di più e costa di più (perché è anche più grande) e mi fa un case più piccolo, vuol dire che i soldi che MS ha sprecato in quell'orribile ed immenso case poteva benissimo investirli in qualche mm^2 in più del SoC e non uscire con quell'obbrobrio.

@CdiMauro
Puoi dire tutto quello che vuoi, ma a me che tutto sia stato costruito per il solo risparmio non lo toglie nessuno dalla mente. E il fatto che per te solo AMD era della partita fa a botte con il fatto che il margine richiesto è veramente infimo. Non vedo, se così fosse, perché AMD si sarebbe sacrificata per favorire MS e Sony. Se AMD era l'unica a poter dare la fornitura avrebbe potuto chiedere molto di più. A meno che quel molto di più andava a scontrarsi con una alternativa composta da altro che a quel punto sarebbe stata economicamente migliore della proposta di AMD. A me sembra semplice e logico. L'abbassamento del margine quando sei "monopolista" della fornitura non ha alcun senso.

Il fatto che le console vendono di più dipende solo ed esclusivamente dal prezzo di vendita di questa generazione. Grazie al bilancio a livello zero di AMD, MS e Sony hanno potuto fare festa al posto suo, che è quello che dico dal primo post su questo argomento, ma vedo che non sembra che riusciate a seguire il filo logico.
Riassumendo: MS e Sony erano alla ricerca della soluzione a costo infimo per le proprie console. AMD ha calato le braghe (per qualsiasi motivo, ma la risposta semplice e diretta secondo me sta sopra) e ha permesso alle due case di costruire console relativamente economiche. Scarse, ma economiche.
Le vendite sono impennate. Solo che, diciamocelo, PS3 e XBox360 al lancio erano al livello rispetto a un PC del tempo e quindi sono riuscite a tirare avanti qualche annetto. Con questi cosi non si andrà da nessuna parte per il semplice fatto che già arrancavano ieri con il FullHD. E non c'è eSRAM/banda/shaders che tengano, quando le ROPs non bastano a sparare pixel a quella risoluzione.
Il castramento super spinto che stiamo venendo dei giochi per PC è sintomo che le console stanno frenando di brutto già solo dopo il secondo anno, e il prossimo arrivano le nuove architetture a 16nm che faranno fare un balzo di oltre 2x alle GPU discrete come potenza di calcolo, e le DX12 che dovrebbero aprire qualche altro cavallo di potenza lato CPU... un divario che è una voragine.
Ripeto, vedremo quando durerà questa generazione realizzata al risparmio assoluto e se nel frattempo qualcuno (o molti) non se ne esce con una alternativa, magari meno esotica ma più facilmente aggiornabile in breve tempo (chi pensa ad un SoC ARM super pompato forse ha pensato giusto) e compatibile con il mercato mobile che ormai è in esplosione e sta fagocitando tutto.

cdimauro
15-07-2015, 05:57
Ma non è che hai scritto barzellette, è che vedendo quanto tutto è indirizzato al massimo risparmio, il fatto che mi state a contare il cm^3 del case, e poi mi vedo la PS4 e la XBoxOne, o vado a rivedere il case della PS3 (che è tutto tranne che piccolo, semplice ed economico, e neppure facilmente impilabile) direi che qualcosa nel progetto di MS non ha funzionato.
Scusami, ma vuoi mettere il costo del case con quel del SoC?
Se la Sony, con un SoC che va il 50% in più (e questo risponde anche a cdimauro che dice che il SoC MS va "poco" di meno costando meno)
E' soltanto la GPU integrata nel SoC di Sony che è dotata del 50% di stream processor in più. Per il resto CPU e GPU del SoC della XBoxOne hanno frequenze più elevate rispetto a quelle del SoC della PS4 (1,75Ghz e 853Mhz vs 1,6Ghz e 800Mhz rispettivamente), e se le voci che circolano sono vere a breve verranno aumentate ancora un po'.
e quindi consuma di più e costa di più (perché è anche più grande) e mi fa un case più piccolo, vuol dire che i soldi che MS ha sprecato in quell'orribile ed immenso case poteva benissimo investirli in qualche mm^2 in più del SoC e non uscire con quell'obbrobrio.
Forse perché, come già detto, un case non costa quanto un chip?
@CdiMauro
Puoi dire tutto quello che vuoi, ma a me che tutto sia stato costruito per il solo risparmio non lo toglie nessuno dalla mente.
Il documento che ho postato prima dimostra senza ombra di dubbio che il risparmio è soltanto uno dei motivi.
E il fatto che per te solo AMD era della partita fa a botte con il fatto che il margine richiesto è veramente infimo. Non vedo, se così fosse, perché AMD si sarebbe sacrificata per favorire MS e Sony. Se AMD era l'unica a poter dare la fornitura avrebbe potuto chiedere molto di più. A meno che quel molto di più andava a scontrarsi con una alternativa composta da altro che a quel punto sarebbe stata economicamente migliore della proposta di AMD. A me sembra semplice e logico. L'abbassamento del margine quando sei "monopolista" della fornitura non ha alcun senso.
Mi quoto:

"Dall'altra parte poteva continuare a esserci IBM, che in ogni caso avrebbe garantito anche un'eventuale retrocompatibilità con le precedenti console."

E aggiungiamo che AMD aveva anche bisogno di entrate più sicure e costanti, che le potevano essere sicuramente garantite dalle console, anziché da desktop et similia, visto che negli ultimi anni non se l'è passata bene. I conti se li è sistemati anche per quel motivo (basti vedere i bilanci).
Il fatto che le console vendono di più dipende solo ed esclusivamente dal prezzo di vendita di questa generazione.
Prezzi all'introduzione nel mercato:

XBox360: $399 (o $299 per la core)
XBoxOne: $499
PS3: $499 (20GB) e $599 (60GB)
PS4: $399.99

Quindi ciò che dici vale soltanto per la PS4, mentre per la XBoxOne la situazione è diametralmente opposta.
Grazie al bilancio a livello zero di AMD, MS e Sony hanno potuto fare festa al posto suo, che è quello che dico dal primo post su questo argomento, ma vedo che non sembra che riusciate a seguire il filo logico.
L'unico dato certo è che per la prima volta non hanno venduto in perdita, visto che hanno contenuto i costi dell'hardware. Di fatti non sono certo dei capolavori di tecnologia, e mi sembra che siamo tutti d'accordo.
Le vendite sono impennate. Solo che, diciamocelo, PS3 e XBox360 al lancio erano al livello rispetto a un PC del tempo e quindi sono riuscite a tirare avanti qualche annetto.
Non lo erano nemmeno all'epoca, considerando complessivamente quale hardware era disponibile per il PC.
Con questi cosi non si andrà da nessuna parte per il semplice fatto che già arrancavano ieri con il FullHD. E non c'è eSRAM/banda/shaders che tengano, quando le ROPs non bastano a sparare pixel a quella risoluzione.
C'arrivano, ma con dei sacrifici. Anche la mia vecchia XBox, che non aveva certo un hardware comparabile, arriva a 1080i, e ci sono pure pochi giochi che funzionano a quella risoluzione. Con tutti i limiti del caso, per l'appunto.

Ma siamo d'accordo che queste console hanno deluso le aspettative, visto che non riescono a gestire in scioltezza i 1080p, come ci si sarebbe aspettato dalla nuova generazione.
Ripeto, vedremo quando durerà questa generazione realizzata al risparmio assoluto e se nel frattempo qualcuno (o molti) non se ne esce con una alternativa, magari meno esotica ma più facilmente aggiornabile in breve tempo (chi pensa ad un SoC ARM super pompato forse ha pensato giusto)
Tutti posso pensare, ma poi bisogna vedere tecnicamente come stanno le cose.

Ad esempio i core Jaguar sono out-of-order a 2 vie, ma hanno prestazioni nettamente superiori ad ARM con simili caratteristiche. E lato SIMD, con le AVX sono in grado di processare il doppio dei FLOPS (sempre a parità di caratteristiche) rispetto all'unità NEON degli ARM.
e compatibile con il mercato mobile che ormai è in esplosione e sta fagocitando tutto.
Che non rappresenta tutto il mercato, però.

Se ne riparlerà quando ci sarà un solo dispositivo in grado di fungere da dispositivo mobile e "desktop".

P.S. Al solito, non ho tempo per rileggere...

Piedone1113
15-07-2015, 08:07
Ma non è che hai scritto barzellette, è che vedendo quanto tutto è indirizzato al massimo risparmio, il fatto che mi state a contare il cm^3 del case, e poi mi vedo la PS4 e la XBoxOne, o vado a rivedere il case della PS3 (che è tutto tranne che piccolo, semplice ed economico, e neppure facilmente impilabile) direi che qualcosa nel progetto di MS non ha funzionato.

edit


Preferisco sostituire il termine massimo risparmio con:
contenimento dei costi.
Mi sembra più appropriato perché non mi sembrano prodotti scadenti votati al massimo risparmio, anzi.

Per il resto le dimensioni della xbox "dovrebbero" essere viste anche con la possibilità di poter aumentare le frequenze e quindi avere maggior margine di tpd da poter smaltire.

CrapaDiLegno
15-07-2015, 09:50
Io non ho capito come possa la MS uscirsene con una console v2 che ha caratteristiche (prestazioni) diverse dalla v1 come sostenete.
Come sarà possibile fare un gioco che giri sia sulla v1 e sulla v2? A meno che non mi state dicendo che chi ha la v1 si troverà il gioco castrato e chi ha la v2 invece no... un po' come chi prende lo stesso gioco per PS3 o PS4... ma queste sono 2 generazioni differenti.
Io se avessi una XBoxOne mi sentirei preso in giro (e discriminato) da una mossa di quel genere.
E comunque va a pari a quello che ho detto io. Questa generazione durerà poco perché è troppo indietro rispetto a quello che la tecnologia permette, e gli altri non stanno certo a guardare.

Riguardo alla questione SoC ARM vs APU... qualcuno ha scordato le architetture custom.

Tutto ciò che fa AMD fa schifo? No, assolutamente, solo che queste APU proposte nei botolo lo sono. Sono un compromesso che con la XBox360 e PS3 non avevamo.
Se la richiesta delle SH era di console più simil PC, ovvio che IBM non poteva essere della partita. Ma un sistema molto più simile a quello di un PC moderno, certamente sì. E comunque la XBox360 al lancio aveva una GPU con tecnologia ancora non disponibile su PC e la PS3 un sistema di gestione dei flussi di dati che ancora oggi non ha nulla da invidiare a quello che si ha a disposizione. Certo che usarlo non è dei più semplici. Ma visto che tutti parlano di HSA e sistemi di computazione ibrida, il Cell ai tempi era già un'architettura che permetteva di fare le cose con i componenti giusti. Spiace davvero che sia stato abbandonato per usare sistemi più "development friendly".

P.S: con la tecnologia di oggi potremmo avere un Cell all'incirca 40 volte più potente di quello presente nella PS3. E visto cosa hanno ottenuto da quello, magari affiancato ad una GPU moderna (non quella cosa obsoleta della PS3) direi che le prestazioni non sarebbero certo state un problema.
Purtroppo tecnologia e progresso non vanno di pari passo con economia volta al risparmio.

Sflao
15-07-2015, 10:13
Io non ho capito come possa la MS uscirsene con una console v2 che ha caratteristiche (prestazioni) diverse dalla v1 come sostenete.
Come sarà possibile fare un gioco che giri sia sulla v1 e sulla v2? A meno che non mi state dicendo che chi ha la v1 si troverà il gioco castrato e chi ha la v2 invece no... un po' come chi prende lo stesso gioco per PS3 o PS4... ma queste sono 2 generazioni differenti.


e che caratteristiche tecniche avrebbe sta v2?
cmq se fosse un bel miglioramento una v2 potrebbe far girare i giochi a 1920x1080p 30fps contro i 1600x900 30fps della v1

CrapaDiLegno
15-07-2015, 11:18
semplificando:
la V2 renderizza i giochi alla stessa risoluzione della V1, ma con fps superiori e più costanti.
Siccome meno di 30fps non si dovrebbe andare fai che i giochi girino a 30 fps sulla V1 e "quello che viene" sulla V2 che saranno superiori o almeno più costanti... poi mettici le DX12 che un piccolo incremento anche sulla console lo porterà (sicuramente meno che su PC in quanto utilizzano già api low level o "close to the metal")
non mi pare fantascienza se il gioco leggendo il firmware della versione console si setti in modo da girare nella maniera più corretta

e che caratteristiche tecniche avrebbe sta v2?
cmq se fosse un bel miglioramento una v2 potrebbe far girare i giochi a 1920x1080p 30fps contro i 1600x900 30fps della v1
Si parla di overcloccare ulteriormente CPU e GPU. Quindi come dicevo io, 2 versioni e 2 utenze: serie A e serie B.
Direi che dopo il casino fatto al lancio di questa XBoxOne, con il "rivoluzionario" Kinect morto e defunto, il doppio trattamento dell'utenza sarebbe la ciliegina sulla torta. Secondo me non avverrà mai. Se mai un domani la MS dovesse proporre una nuova console, vorrei vedere i bbm che accorrono a prenderla al day one dopo questo precedente.


certo che no, ma per fare quello che dici oggi e per di più nel 2013 sarebbe costato all'utente finale il doppio, e chi la compra una console a 800~1000$ :stordita:
senza contare che i 28nm ora sono praticamente obsoleti e i chip sono già belli grossi così pur essendo scarsi di gpu
non dimenticatevi gli ACE comunque, sulla PS4 ce ne sono 8 e sulla One solo 2 e con le DX12 potrebbero fare la differenza
Credo che gli ACE siano già in uso, non serve che arrivino le DX12/Vulkan per sfruttarli. Questa idea che le DX12 siano miracolose davvero non lo capisco. Su console le API usate sono diverse e sarebbe da dementi puri avere previsto dei componenti avanzati e non averli già sfruttati con tutti i problemi prestazionali che già sono sorti. L'unica speranza di MS è che qualcuno trovi il modo di sfruttare degnamente la eSRAM per portarla a usare gli effetti a tutta banda come su PS4. Ma vista la dimensione di quella memoria, dubito assai che ci si possa fare qualcosa di utile se non usarla come cache per qualche elaborazione extra da parte della (scarsa) CPU. Purtroppo non ci sono gli SPE qui...

Poi, il doppio del prezzo? Non costava il doppio neanche la PS3 che aveva HW di tutto rispetto e molto customizzato. E con l'uso di una CPU Intel uno shrink sarebbe già stato possibile (quindi già si sarebbe cominciato a risparmiare rispetto al costo iniziale).

Piedone1113
15-07-2015, 12:25
e che caratteristiche tecniche avrebbe sta v2?
cmq se fosse un bel miglioramento una v2 potrebbe far girare i giochi a 1920x1080p 30fps contro i 1600x900 30fps della v1

La v1 diventerebbe una v1,5 con innalzamento dei clock di cpu e gpu (non so se con turbo più spinti e persistenti, o innalzando le frequenze basi.

edit

Poi, il doppio del prezzo? Non costava il doppio neanche la PS3 che aveva HW di tutto rispetto e molto customizzato. E con l'uso di una CPU Intel uno shrink sarebbe già stato possibile (quindi già si sarebbe cominciato a risparmiare rispetto al costo iniziale).
Guarda che PS3 è stata venduta per quasi 3 anni in perdita.
Quindi il prezzo reale della ps3 era ben più alto di quello pagato dagli acquirenti.
PS4 e XboxOne non sono vendute in perdita.
Quindi si hanno ragione, per non vendere in perdita avrebbero dovuto raddoppiare (quasi) il prezzo finale.

CrapaDiLegno
15-07-2015, 14:12
Guarda che PS3 è stata venduta per quasi 3 anni in perdita.
Quindi il prezzo reale della ps3 era ben più alto di quello pagato dagli acquirenti.
PS4 e XboxOne non sono vendute in perdita.
Quindi si hanno ragione, per non vendere in perdita avrebbero dovuto raddoppiare (quasi) il prezzo finale.
Certo, in perdita perché aveva HW moderno, fin oltre quello che il mercato PC aveva. Molto del costo della PS3 era dovuto al lettore BluRay, nuovissima tecnologia. Poi aveva il Wi-Fi integrato. E 4 porte USB (doppio controller). E il lettore di schede SD. E un HDD incorporato. E una PS2 completa. E una uscita digitale HDMI. Nulla di questo era presente sulla XBox360 all'uscita e parte neanche sui PC del tempo. E nulla di questo è legato al costo di sviluppo dell'HW integrato. Che non dico fosse economico (il Cell era abbastanza costoso al tempo e pure le memorie XDR), ma l'elevato costo che si imputa alla console non è certo quello.
Visto che le console di oggi non hanno nulla di più di quanto non abbia un PC di bassissimo livello e quindi tecnologia standard ormai a basso costo, il costo relativo a fare un bus di comunicazione custom non era certo il problema principale. E ripeto, Sony avrebbe risparmiato 4GB di GDDR5 e MS la eSRAM, quindi in parte i costi sarebbero stati minori.
Sarebbe costata di più? Certo. Ma non il doppio.
E quindi penso che senza la svendita del SoC da parte di AMD le alternative ci sarebbero state.

Per inciso, la PS3 non ha la metà della memoria della XBox360. Ha anche lei 512GB, solo che non sono unificate: 256MB x GPU e 256MB x CPU.

come successo con la precedente generazione gli sviluppatori sono arrivati a spremere bene l'hardware verso la fine, e su PS3 solo chi sviluppava giochi in esclusiva, quelli multipiatta no ed è sempre stata superiore la 360, per via del fatto che era meno difficile programmarci e per il doppio di ram disponibile
Un conto è spremere l'HW perché hai una architettura completamente diversa da quella solita, un conto è usare le unità aggiunte di una GPU.
Certo, gli strumenti di sviluppo miglioreranno, ma come con la XBox360, non ci sarà alcun miracolo. Quello che c'è è già usato (anzi no, la PS4 ha un chip ARM dentro che non si sa cosa serva). Si potrà spremerlo meglio, ma di certo non ci saranno raddoppi prestazionali come successo con la PS3 con i suoi ostici SPE e 3 bus indipendenti.

doveva costare circa 900$ invece che 600$ , follia pura
Se Sony la avesse venduta spella come la XBox360 ci avrebbe guadagnato pure lei nonostante il Cell e tutta l'architettura custom costruitagli intorno.
Wikipedia dice che Sony perdeva 18 dollari per ogni unità venduta fino al 2010, quindi direi che visto tutto quello che c'era sopra, il problema non era certo l'HW custom.

Piedone1113
15-07-2015, 15:19
Certo, in perdita perché aveva HW moderno, fin oltre quello che il mercato PC aveva. Molto del costo della PS3 era dovuto al lettore BluRay, nuovissima tecnologia. Poi aveva il Wi-Fi integrato. E 4 porte USB (doppio controller). E il lettore di schede SD. E un HDD incorporato. E una PS2 completa. E una uscita digitale HDMI. Nulla di questo era presente sulla XBox360 all'uscita e parte neanche sui PC del tempo. E nulla di questo è legato al costo di sviluppo dell'HW integrato. Che non dico fosse economico (il Cell era abbastanza costoso al tempo e pure le memorie XDR), ma l'elevato costo che si imputa alla console non è certo quello.
Visto che le console di oggi non hanno nulla di più di quanto non abbia un PC di bassissimo livello e quindi tecnologia standard ormai a basso costo, il costo relativo a fare un bus di comunicazione custom non era certo il problema principale. E ripeto, Sony avrebbe risparmiato 4GB di GDDR5 e MS la eSRAM, quindi in parte i costi sarebbero stati minori.
Sarebbe costata di più? Certo. Ma non il doppio.
E quindi penso che senza la svendita del SoC da parte di AMD le alternative ci sarebbero state.

Per inciso, la PS3 non ha la metà della memoria della XBox360. Ha anche lei 512GB, solo che non sono unificate: 256MB x GPU e 256MB x CPU.


Un conto è spremere l'HW perché hai una architettura completamente diversa da quella solita, un conto è usare le unità aggiunte di una GPU.
Certo, gli strumenti di sviluppo miglioreranno, ma come con la XBox360, non ci sarà alcun miracolo. Quello che c'è è già usato (anzi no, la PS4 ha un chip ARM dentro che non si sa cosa serva). Si potrà spremerlo meglio, ma di certo non ci saranno raddoppi prestazionali come successo con la PS3 con i suoi ostici SPE e 3 bus indipendenti.


Se Sony la avesse venduta spella come la XBox360 ci avrebbe guadagnato pure lei nonostante il Cell e tutta l'architettura custom costruitagli intorno.
Wikipedia dice che Sony perdeva 18 dollari per ogni unità venduta fino al 2010, quindi direi che visto tutto quello che c'era sopra, il problema non era certo l'HW custom.

inutile discutere con te.
Parti del presupposto che AMD ha svenduto il suo chip (quindi alla stima di 80$ dovremmo aggiungere un 30% ed arriviamo a 104$)
Dici che sei cosciente che due chip sarebbero costati più dell'apu (a 104 aggiungiamo un altro 30% e siamo a 134$)
Sei cosciente che due chip da alimentare avrebbe richiesto due sezioni di alimentazione sulle mb (+5$), alimentatore diverso (+2$) bus dedicato punto-punto (15$), doppie piste per la ram on board (e per contenere lo spazio anche più metallizazioni (25$).
2 dissipatori invece che uno (3$)
Senza considerare gli altri smazzi e mazzi siamo ad un costo di:
104$ in più.
Aggiungi il 20 % di dogana e siamo a 125$
ricarico di 15% per 3 passaggi.
Il costo finale per l'acquirente sarebbe stato di 190$ tasse escluse, maggiore di quello attuale.

Se mi sai fare un conteggio più economico riportami pure le fonti per le quali sei convinto che il costo sarebbe inferiore.
Purtroppo, o forse meglio per fortuna, non voglio ne posso riportare le mie.