Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
C'è tanta sostanza nel nuovo smartphone della Mela dedicato ai creator digitali. Nuovo telaio in alluminio, sistema di raffreddamento vapor chamber e tre fotocamere da 48 megapixel: non è un semplice smartphone, ma uno studio di produzione digitale on-the-go
Intel Panther Lake: i processori per i notebook del 2026
Intel Panther Lake: i processori per i notebook del 2026
Panther Lake è il nome in codice della prossima generazione di processori Intel Core Ultra, che vedremo al debutto da inizio 2026 nei notebook e nei sistemi desktop più compatti. Nuovi core, nuove GPU e soprattutto una struttura a tile che vede per la prima volta l'utilizzo della tecnologia produttiva Intel 18A: tanta potenza in più, ma senza perdere in efficienza
Intel Xeon 6+: è tempo di Clearwater Forest
Intel Xeon 6+: è tempo di Clearwater Forest
Intel ha annunciato la prossima generazione di processori Xeon dotati di E-Core, quelli per la massima efficienza energetica e densità di elaborazione. Grazie al processo produttivo Intel 18A, i core passano a un massimo di 288 per ogni socket, con aumento della potenza di calcolo e dell'efficienza complessiva.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 11-07-2015, 19:35   #221
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Il fatto che la vendita di schede video sia in calo nulla toglie al fatto che il fatturato dell'industria dei giochi su PC non soltanto è in crescita, ma ha anche superato quello di tutte le console messe assieme.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
http://www.servethehome.com/amd-athl...eview-am1-apu/
Qui il 5150 (ma c'è anche il 5350 con clock più alto) ed single channel e credo che convieni con me che il dual dovrebbe far guadagnare un minimo dell'8% in prestazioni medie (dipende dal tipo di software lo so, ma credo che 8% sia una stima non ottimistica come media).
edit
Qui 5350 vs j1900 (normalizzando a parità di pp credo che avrebbe un'efficenza per watt superiore a j1900)
8350 vs j1900
Francamente da questi benchmark il quadro è molto diverso da quello viene fuori da quello che ho postato prima, e in genere Anandtech è il più rinomato. Non so che dire.

Comunque Jaguar col dual-channel dovrebbe aumentare un po' le prestazioni, come hai indicato, ma a BayTrail mancano tutte le estensioni SIMD moderne (è fermo alle SSSE3, mentre Jaguar ha tutto a parte le AVX2), per cui certe differenze, anche notevoli, sono dovute a questo.
Quote:
La vga di ps4 dovrebbe avere la stessa capacità di calcolo di una 7770/7750 radeon (e non credo che intel riesca ad avvicinarsi con le sue integrate a tali prestazioni)
Dipende dalla GPU integrata. Quelle high-end di Intel offrono delle buone prestazioni. Guarda qui:
http://www.anandtech.com/show/7032/a...670d-hd-4600/2
http://www.futuremark.com/hardware/g...cs+4600/review
http://www.anandtech.com/show/6993/i...950hq-tested/2
http://www.tomshardware.com/reviews/...ll,4169-6.html
Quote:
Non sto parlando di Apu attualmente in produzione, ma di Apu di derivazione jaguar con gpu evoluta da quella di ps4 (sempre che amd voglio fare un'apu simile, ma non farla sarebbe un grave errore secondo me dato che ha praticamente tutto pronto)
Sto facendo congetture ed ipotesi (nemmeno tanto astruse dato che possiamo considerare ps4 la rev1 di tale APU).
Questa ultima parte (apu ad alte prestazione Grafiche) sono teorie per dare un senso ad un investimento tecnologico che sembra non aver portato benefici degni di nota oltre quel 20% di ricarico sui chip (da 12 a 18$ a pezzo).
Sì, teoricamente è possibile, ma AMD potrebbe anche avere le mani legate da Sony e/o Microsoft con un impegno a non presentare APU simili per un certo periodo di tempo. D'altra parte se la progettazione di quei SoC è stata pagata da loro, è logico aspettarsi che si vogliano tutelare.
Quote:
Fa piacere comunque che il mercato game pc ha invertito la tendenza (a meno che non vengono considerati game anche i giochi di FB, altrimenti la macchina di riferimento sarebbero gli smartphone).
Il dato è relativo al fatturato, quindi agli utenti paganti. Non credo che facciano distinzioni sulle tipologie di giocatori.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 19:44   #222
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5543
Quote:
Originariamente inviato da Vul Guarda i messaggi
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?
Be per curiosità ho controllato un poco in giro:
Quasi il 30% degli introiti da game pc arrivano da free to play revenue e acquisti in game.
Come avevo detto il mercato pc è in contrazione, considerare il numero di giocatori = fatturati delle software house è sbagliato.
Quello che fa vendere hardware per pc sono i giocatori unici, e sono in diminuizione nel mondo pc.

Aggiungo per non fare scompiglio:

Il chip ps4 ha dati di targa tra hd 7850 e hd7870.
Se non aggiungi memoria dedicata all'apu nessuna integrata potra eguagliare una gpu con grafica dedicata, gia solo per banda passante necessaria ad applicare i filtri alle texture ad alta risoluzione.
Un'integrata (di qualsiasi marca) che fa 60 fps con texture a bassa risoluzione non è giocare, serve banda per fare cio, ed AMD è in netto vantaggio tecnologico da questo punto di vista.
Vorrei tanto vedere come si comporta la 6200 in full hd ad impostazioni alte anche senza filtri, scommettiamo che i frame crollano?

Ultima modifica di Piedone1113 : 11-07-2015 alle 20:10.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 21:30   #223
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Mi sembra se la cavi molto bene anche in FullHD, a volte pure con qualche filtro attivato. E non c'è APU che tenga.

Riguardo al mercato dei videogiochi per PC:

http://www.gamemag.it/news/il-mercat...nno_56959.html
http://www.gamemag.it/news/il-mercat...018_56296.html
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 22:19   #224
Max_R
Senior Member
 
Iscritto dal: Feb 2006
Messaggi: 16252
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Mi sembra se la cavi molto bene anche in FullHD, a volte pure con qualche filtro attivato. E non c'è APU che tenga.

Riguardo al mercato dei videogiochi per PC:

http://www.gamemag.it/news/il-mercat...nno_56959.html
http://www.gamemag.it/news/il-mercat...018_56296.html
Le Apu rendono al meglio con memorie 2133/2400MHz per ovvie ragioni. Li sono state testate con memorie 1600MHz. Sarei curioso di vedere altri test. Dato che la recensione è stata fatta da non molto tempo, penso sia cosa voluta e non propriamente corretta. Come non detto: i sistemi di test sono diversi (ma vorrei capirne di più).
__________________
Echi dal passato
io - com'è questa Geforce 256?
amico - potentissima ma rimpiango i drivers 3Dfx!

Ultima modifica di Max_R : 11-07-2015 alle 22:24.
Max_R è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 22:28   #225
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Veramente mi pare di capire che le DDR3 a 1600Mhz sono state usate soltanto per Broadwell, e dunque per la 6200, mentre le APU montano almeno le DDR3 a 2133Mhz. Ecco qui le configurazioni usate.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 22:35   #226
Max_R
Senior Member
 
Iscritto dal: Feb 2006
Messaggi: 16252
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Veramente mi pare di capire che le DDR3 a 1600Mhz sono state usate soltanto per Broadwell, e dunque per la 6200, mentre le APU montano almeno le DDR3 a 2133Mhz. Ecco qui le configurazioni usate.
Ho corretto poco fa: avevo sorvolato la tabella, limitandomi a leggere quello che in realtà era il nuovo hardware su cui testare rispetto al solito di riferimento. Che dire: tristezza. Sinceramente mi trovo piuttosto bene con la configurazione in firma, in attesa della Nano, però fa un certo che leggere che Intel riesce ad essere avanti anche in questo. Certo si tratta di fasce di prezzo differenti, però non basta a togliere l'amaro di bocca. Vedremo le prossime soluzioni AMD anche se intendo tenere qualche annetto la configurazione attuale. Poi eventualmente torneremo ad Intel.
__________________
Echi dal passato
io - com'è questa Geforce 256?
amico - potentissima ma rimpiango i drivers 3Dfx!
Max_R è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 22:42   #227
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Sarà dura, perché Skylake porterà le EU della GPU a 72, rispetto alle già tante 48 di Broadwell. Inoltre integrerà anche le AVX-512 che raddoppieranno circa le prestazioni dell'unità SIMD.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 11-07-2015, 22:55   #228
Max_R
Senior Member
 
Iscritto dal: Feb 2006
Messaggi: 16252
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Sarà dura, perché Skylake porterà le EU della GPU a 72, rispetto alle già tante 48 di Broadwell. Inoltre integrerà anche le AVX-512 che raddoppieranno circa le prestazioni dell'unità SIMD.
A me interessa principalmente sia un buon prodotto, al di la delle prestazioni pure: dopo anni di Intel (P4EE 3,4 478; Q-9450; Q-9650) sono tornato ad AMD perchè queste APU mi stavano proprio simpatiche Se Zen risulterà perlomeno convincente potrò valutare, altrimenti me la metterò via, tanto poi finisce comunque che vado di discreta ed a quel punto vado in ogni caso sul sicuro con Intel. Che poi, sembrerà una castroneria ma, notai al tempo dei Barton (2600+; 3000+; 3200+), arrivando da Intel (Tualatin 1000), gli AMD già da ambiente Win erano meno reattivi ed ho questa sensazione anche ora con il sistema in firma. Nulla di grave, intendiamoci: sono contento della scelta fatta, infondo mi ero informato a sufficienza, però sarà davvero da valutare se riconfermare AMD almeno come CPU.
__________________
Echi dal passato
io - com'è questa Geforce 256?
amico - potentissima ma rimpiango i drivers 3Dfx!
Max_R è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2015, 00:28   #229
davo30
Senior Member
 
L'Avatar di davo30
 
Iscritto dal: Jul 2012
Messaggi: 2824
Quote:
Originariamente inviato da Vul Guarda i messaggi
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?
Attenzione, non confondere la totalità del mercato pc con solo i pc gaming.
Per farti capire, se prima si vendevano 100 pc divisi in 30 gaming, 30 ufficio, 30 workstation, ora se ne vendono 90 di cui 40 gaming 30 ufficio e 20 workstation, tanto per farti un esempio. Inoltre conta che il mercato pc ha avuto una flessione (flessione di percentuali che di solito non vanno oltre il 4/5%) a causa del boom dei tablet, boom gia finito. Senza contare che il calo è dovuto alla minore richiesta di pc aziendali e pc da "supermercato" ("l'utente mediworld" ormi opta per il tablet o al massimo per un notebook i desktop preassemblati non li piglia piu nessuno)
davo30 è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2015, 00:43   #230
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12119
Quote:
Originariamente inviato da Vul Guarda i messaggi
In crescita dove?

Sono 3 anni di fila che vendono meno schede video e cpu, tutto il settore.

Alla gente non importa una beneamata sega della grafica, finchè i giochi più giocati sono WoW, Starcraft, Diablo, Hearthstone, CS:GO, Dota, LoL, il numero di persone che comprano schede video è piccolo e così rimarrà.

Sono i giochi a vendere le schede video, non i benchmark.

Puoi pure rilasciare una 950ti che va il doppio di una titan x, a chi importa se gioco solo a LoL e faccio già 100 fps?
vorrei farti notare che il penultimo trimestre nVidia ha avuto un fatturato record di 1,25 Miliardi di dollari...

per un motivo o per l'altro le GPU continuano a venderle, per carita un po meno che in passato, ma il mercato in questione è comunque enorme.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2015, 17:57   #231
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da gridracedriver Guarda i messaggi
http://www.bitsandchips.it/50-enterp...e-fino-al-2018
intanto ha presentato kaby lake nella roadmap tra skylake e cannonlake per tanto cannonlake ed i 10nm arriveranno nel 2017 se non addirittura 2018
http://www.bitsandchips.it/hardware/...to-posticipato
Queste sono voci.
Quote:
purtroppo i costi crescono in maniera esponenziale ad ogni nodo ed il FF amplifica i problemi
Sicuramente i costi sono aumentati, ma non so di quanto.
Quote:
http://www.bitsandchips.it/13-mobile...15-precipitano
ecco un effetto dell'abbandono del contra-revenue...
Anche queste sembrano voci (non è nemmeno possibile risalire alla fonte originale, perché richiede una sottoscrizione).

In ogni caso parleremmo della diminuzione di circa un quarto. Comunque era fisiologico che ci sarebbe stato un calo (ma vedremo quale sarà, in meglio o in peggio, alla fine dell'anno), però devi vedere la situazione nel complesso: prima Intel non aveva quote nel mercato dei tablet, ma con i contra-reveniew lo scorso anno è riuscita a piazzare più di 46 milioni di pezzi. Se adesso ne togliamo 1/4, comunque ne rimangono 3/4, e i conti puoi farteli benissimo da solo.
OK, per la prima volta TSMC supera, anche se di poco, gli investimenti sulle fab. Ma attenzione: soldi non è sinonimo di risultati. I risultati li vedremo quando le fab saranno a regime.
Quote:
si ma fare shrink non porta miglioramenti prestazionali
Non è così. Un nuovo processo produttivo ti permette di innalzare le frequenza a parità di consumi, o viceversa di diminuire i consumi a parità di frequenza.
Quote:
o non vuol dire rivedere l'architettura,
Un'architettura si può rivedere a prescindere dal processo produttivo utilizzato.
Quote:
anche perchè non possono farlo ci sarebbe disparità tra chi ha una console di lancio e si avrebbe l'effetto PC dove ottimizzare per tutte le piattaforme è un delirio...
è tutto studiato per il rapporto perf/costo/guadagno da parte di chi vende il prodotto(Zony/M$) cosa che ne ad intel ne ad nvidia va tanto a genio a parte i problemi che avrebbero avuto per fornire un prodotto a 360° sotto forma di APU
Francamente non ho capito queste due parti del discorso. Potresti essere più chiaro, cortesemente?
Quote:
devi ragionare a quando hanno sviluppato l'architettura e non a quando sono uscite o ai mesi dopo

Zony/M$ chiedono ai vari produttori hardware nel 2011 cosa possono fare e cosa c'è in progetto, amd aveva già in mente di fare apu e di aggiornarle con gcn dopo le vliw, di fatti llano era ancora con core k10 e gpu vliw...

le console sono state commercializzare a fine 2013, e a fine 2013 come oggi c'era e ci sono solo i 28nm, PURTROPPO...
l'unica che aveva un nodo superiore era intel con i 22nm, stop.
cosa avrebbero dovuto fare? farli di cioccolata i wafer?
Intanto ciò che hai elencato sono tutte cose che si sono sempre fatte in ambito di realizzazione di prodotti come le console. Non è che se oggi le GPU sono basate su VLIW non si possa pensare di impiegare un'architettura completamente differente per le console che usciranno fra 3 anni. Infatti... lo si fa.

Quanto al processo produttivo, sulla carta i concorrenti di Intel avrebbero dovuto mettere sul piatto almeno i 20nm in tempo per la commercializzazione delle console...
Quote:
ps. come noterai "bitsandchips" riporta sempre le fonti
Ma se anche quelle fonti sono basate su voci, abbiamo semplicemente rimandato il problema. Per essere chiari: l'unico dato utile che ho tratto riguarda gli investimenti leggermente maggiori di TSMC per i 10nm, perché il resto è basato su voci e deduzioni (sempre su questa base), e francamente non m'interessa.

Comunque ho avuto modo di leggere anche i commenti dei link che hai fornito: sembra un covo di Intel hater, blogger in primis... Bah.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2015, 21:04   #232
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3908
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumop per q

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
1:
Non sai quanto ha chiesto AMD, non sai quanto sarebbe stato il costo dell'accoppiata intel-nvidia.
Ma nonostante tutto ti ho dimostrato che a parità di prezzo l'accoppiata nvidia-intel avrebbe avuto costi superiori a causa di tutte le altre cose che ti ho elencato.

2:
Il tuo sorridere circa le dimensioni del packing indica chiaramente che non sai di cosa stai parlando.
2000$(prezzo bassissimo) a container diviso 20000=0.1$ a consolle
2000$ a container diviso 18000=0.11$ a consolle
differenza 1 cent a consolle moltiplicato per 9000000 di pezzi=990.000 $ (con un risparmio del solo trasporto del container da fabbrica a magazzino di smistamento, escluse tasse doganali ed altre formalità (quale deposito in magazzino), oltre a questo bisogna aggiungere il costo di trasporto dal magazzino di smistamento verso tutti i magazzini di distribuzione.
A me non fa sorridere affatto preventivare un risparmio sul trasporto di 990000 dollari facendo soltando un package più piccolo, invece vedo che a te si.
A questo aggiungi il minor costo del pcb, dei dissi, dell'alimentatore ecc.
Sissi, c'è proprio dallo sganasciarsi dalle risate a presentare il bilancio in cda.

3: nelle consolle serve il bus dedicato altrimenti aivoglia a fare tutti i ragionamenti che vuoi circa memoria unificata (con accesso condiviso tabbella di allocazione comune e dinamica) attraverso il bus pce, o sbaglio?
Ma se credi che una consolle debba essere fatta ad immagine e somiglianza di un pc rivolgiti a steam, ma sopratutto vedi se in un qualsiasi gioco uscito per ps4 e pc negli ultimi 12 mesi sia più gratificante giocare con una ps4 o con un i3 2120+650nvidia e dimmi se davvero la potenza bruta e l'architettura pc sia la strada migliore

4: mi sembra che la potenza elaborativa sia sufficente, dato che ne stanno vendendo una marea di consolle, e non sembra che ci siano lamentele e comunque dai dati di targa rimanere entro i 95W di tdp stimati dell'apu di ps4 mi sembra un ottimo risultato.

5: io non devo raschiare nessun barile per dimostrare che amd non vende in perdita o pareggio a sony ed ms.
Piuttosto non ho visto nessuno straccio di fonte (nemmeno da una fonte pro scie chimiche) che diano un minimo di fondamento alle tue conclusioni (che non sono tesi, dato che hai deciso a priori dell'aver ragione)
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non sarebbe economicamente convenitene, e sono d'accordo con l'analisi che ha fatto Piedone1113.

Aggiungo che un bus PCIExpress per collegare di due chip sarebbe una soluzione troppo castrante. Molto meglio un collegamento punto-punto dedicato, ad alte prestazioni, similmente a quello che Microsoft realizzò per la XBox 360 (fra CPU e GPU/northbridge).

Con l'integrazione che c'è oggi (siamo arrivati a ben 7 miliardi di transistor, se non ricordo male), non ha più senso separare i chip. Perfino gli ultimi Xeon sono dei SoC che hanno "fagocitato" un'altra buona parte del chipset.

Per cui un ritorno al passato non ha più senso: ci per lo più svantaggi, che surclassano i pochi vantaggi.

Pare che sia presente, ma non ci sono state conferme.

Comunque è normale che sia più difficile un port su PC, similmente a quanto s'è già verificato con entrambe le precedenti XBox, avevano memoria unificata.

Ma in generale l'hardware della PS4 è più simile a un PC rispetto alla XBoxone, e dunque un porting risulta più facilitato prendendo la prima piattaforma come riferimento (a parità / similitudine delle API, ovviamente).

Come ho già detto prima, la memoria embedded è molto più semplice da realizzare e presenta meno difetti rispetto a dei circuiti logici/funzionali, per cui le rese saranno migliori.

Le modifiche alle APU con l'integrazione di tutta quell'eSRAM, più il piccolo blocco collegato a ogni cluster Jaguar, sono decisamente più costose rispetto alla realizzazione del SoC della PS4, che è abbastanza standard / lineare.

Non mi pare che lo sia alcuna console attuale. Sono rimasto deluso da tutte.

L'APU è la stessa per tutte le console, e visti gli obiettivi nonché il budget non potevi pretendere che infilassero un FX in quel SoC.

Sulla GDDR ho già scritto prima.
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?

Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.

Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.

Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.

E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2015, 21:56   #233
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3908
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumo per quanto posso...

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
1:
Non sai quanto ha chiesto AMD, non sai quanto sarebbe stato il costo dell'accoppiata intel-nvidia.
Ma nonostante tutto ti ho dimostrato che a parità di prezzo l'accoppiata nvidia-intel avrebbe avuto costi superiori a causa di tutte le altre cose che ti ho elencato.
Non mi interessa sapere esattamente quanto a chiesto Mi basta vedere gli scarsi risultati della divisione semi-custom.
Una azienda che non ha più nulla di competitivo da vendere avrebbe dovuto sfruttare meglio il suo unico vantaggio di poter produrre una APU. Invece sembra che pur di vincere la fornitura sia andata giù giù fino a far desistere del tutto nvidia e Intel su una alternativa a margine risicatissimo.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
2:
Il tuo sorridere circa le dimensioni del packing indica chiaramente che non sai di cosa stai parlando.
2000$(prezzo bassissimo) a container diviso 20000=0.1$ a consolle
2000$ a container diviso 18000=0.11$ a consolle
differenza 1 cent a consolle moltiplicato per 9000000 di pezzi=990.000 $ (con un risparmio del solo trasporto del container da fabbrica a magazzino di smistamento, escluse tasse doganali ed altre formalità (quale deposito in magazzino), oltre a questo bisogna aggiungere il costo di trasporto dal magazzino di smistamento verso tutti i magazzini di distribuzione.
A me non fa sorridere affatto preventivare un risparmio sul trasporto di 990000 dollari facendo soltando un package più piccolo, invece vedo che a te si.
A questo aggiungi il minor costo del pcb, dei dissi, dell'alimentatore ecc.
Sissi, c'è proprio dallo sganasciarsi dalle risate a presentare il bilancio in cda.
Il mio sorridere sulla questione del packaging è presto detto: guarda la differenza di dimensioni tra la PS4 e la XBoxOne. O tu o MS avete sbagliato qualcosa.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
3: nelle consolle serve il bus dedicato altrimenti aivoglia a fare tutti i ragionamenti che vuoi circa memoria unificata (con accesso condiviso tabbella di allocazione comune e dinamica) attraverso il bus pce, o sbaglio?
Ma se credi che una consolle debba essere fatta ad immagine e somiglianza di un pc rivolgiti a steam, ma sopratutto vedi se in un qualsiasi gioco uscito per ps4 e pc negli ultimi 12 mesi sia più gratificante giocare con una ps4 o con un i3 2120+650nvidia e dimmi se davvero la potenza bruta e l'architettura pc sia la strada migliore
Non serve un bus dedicato, serve un controller di memoria diverso.
E comunque, vista la svendita di AMD, non sembra che nvidia e Intel fossero tanto distanti dal poter offrire qualcosa di meglio di quelle APU (che sì, sono schifezze per gli standard già del 2013).

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
4: mi sembra che la potenza elaborativa sia sufficente, dato che ne stanno vendendo una marea di consolle, e non sembra che ci siano lamentele e comunque dai dati di targa rimanere entro i 95W di tdp stimati dell'apu di ps4 mi sembra un ottimo risultato.
A me sembra proprio che la potenza elaborativa non sia per nulla sufficiente. La XBoxOne non riesce a raggiungere il fullHD con 4 poligoni e 2 texture decenti sullo schermo.
A 28nm Kepler rende molto di più di GCN a parità di potenza (e pure di die space, inutile negarlo) e Intel aveva già i 22nm con una architettura con IPC doppio di Jaguar. Quindi pensare che solo AMD sarebbe riuscita a usare 95W a parità di potenza elaborativa mi sembra davvero un'utopia.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
5: io non devo raschiare nessun barile per dimostrare che amd non vende in perdita o pareggio a sony ed ms.
Piuttosto non ho visto nessuno straccio di fonte (nemmeno da una fonte pro scie chimiche) che diano un minimo di fondamento alle tue conclusioni (che non sono tesi, dato che hai deciso a priori dell'aver ragione)
Se sai leggere i bilanci, ti consiglio di leggere gli ultimi di AMD.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non sarebbe economicamente convenitene, e sono d'accordo con l'analisi che ha fatto Piedone1113.
Ho già detto che economicamente sarebbe costato di più, ma visto quanto in basso è scesa AMD, ho il forte dubbio che il prezzo non debba essere stato tanto diverso in termini assoluti. Solo che AMD si è accontenta di una bella fetta di margine inferiore pur di avere la fornitura.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Aggiungo che un bus PCIExpress per collegare di due chip sarebbe una soluzione troppo castrante. Molto meglio un collegamento punto-punto dedicato, ad alte prestazioni, similmente a quello che Microsoft realizzò per la XBox 360 (fra CPU e GPU/northbridge).
Qualsiasi cosa, non mi sembra che la creazione di bus di comunicazione proprietari/custom siano mai stati un problema nello sviluppo delle console. Per PS3 si è fatto una cosa mica male per sfruttare fino all'ultimo I/O del Cell. Ed ha avuto il suo perché poi.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi

Come ho già detto prima, la memoria embedded è molto più semplice da realizzare e presenta meno difetti rispetto a dei circuiti logici/funzionali, per cui le rese saranno migliori.

Le modifiche alle APU con l'integrazione di tutta quell'eSRAM, più il piccolo blocco collegato a ogni cluster Jaguar, sono decisamente più costose rispetto alla realizzazione del SoC della PS4, che è abbastanza standard / lineare.
Sarà più semplice da realizzare ma lo spazio sul die costa lo stesso in maneira uguale. E a quanto sembra tutto lo spazio che MS ha usato per la eSRAM non vale in temini di computazione come quello usato da Sony. Semplicemente, come detto, MS è rimasta indietro credendo ancora che per avere banda servisse la eSRAM quando invece Sony le ha dato il benservito sia come banda che come potenza di calcolo (shader, ROPs, TMUs). 2:0 per Sony e ciao ciao MS.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non mi pare che lo sia alcuna console attuale. Sono rimasto deluso da tutte.
Diciamo che una è una schifezza, ma l'altra è proprio improponibile com HW next gen del 2013.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
L'APU è la stessa per tutte le console, e visti gli obiettivi nonché il budget non potevi pretendere che infilassero un FX in quel SoC.
Un FX sarebbe costato di più e reso di meno. Io pensavo ad un core Intel. Anche nella versione semplificata, un core Haswell da la birra a qualsiasi altro core AMD. Se poi realizzato a PP inferiore che Intel può, allora sì, potevo pretendere (o almeno pensare) che si potesse avere di più.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Allora per le leggi dell'economia il guadagno è pieno (zero investimento utile netto, il roi è infinito), ma per pagarne lo sviluppo hanno pur dovuto fare qualcosa o no?

Può anche darsi che Lisa si riferisse al ritorno dei chip custom, ma se non possiamo sapere:
costo di sviluppo (attivo o passivo) da parte di AMD
Costo Team sviluppo (e se nuova assunzione o sequestrati da altri progetti)
Valore know-how acquisito da AMD.
Lettere d'intese ed accordi di produzioni futuri su altri dispositivi vincolanti da quest'accordo.

Onestamente non proverei nemmeno a dire vendita sottocosto, o utile 0, o altre esagerazioni che ho sentito nella discussione.
Ma stai facendo i conti senza l'oste. Che è la concorrenza.
nvidia e Intel hanno margini di guadagno del 60% sui loro prodotti. Quando hai un prodotto che vale tot, non è che perché ne ricicli poi parte del progetto, ti diverti a venderlo a 1/3 di tot. Sopratutto quando sai che hai il vantaggio di essere l'unico che può farlo e che hai problemi economici (oltre che tecnici) da risolvere.
Quindi, le conclusioni a me sembrano lineari:
1. AMD non aveva una soluzione davvero così economicamente vantaggiosa rispetto a Intel o Intel+nvidia. Altrimenti avrebbe potuto sparare un prezzo molto più alto e MS e Sony avrebbero solo potuto dire "ok, va bene".
2. AMD ha tentato la carta HW su console tutto mio = monopolizzo lo sviluppo dei giochi pilotando l'ottimizzazione verso la mia architettura e con questa idea ha svenduto tutto lo svendibile, appunto come detto prima, perché le APU erano sostanzialmente già pronte e quindi i costi erano minimi. Questo però ha raso a zero i profitti possibili. Io ancora mi ricordo di gente che parlava di cifre di guadagno netto assurde quando era già chiaro che così non sarebbe stato.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Ps comunque 8 core x86 con clock operante da 1600 a 2700 mhz, il tutto racchiuso in 30w (il valore di tdp dei core) + architetura gnc con potenza paragonabile ad una 5870, in 90 w totali significa che un apu con 4 core, evoluzione di tale gpu con pieno supporto a gnc e dx12, con 2-4 gb hbm renderebbe di colpo fuori mercato tutte le cpu i3 e qualche i5 intel e tutta la fascia media (da 9600 liscia a scendere) nel casual gaming pc-notebook.

E se non è un vantaggio tecnologico acquisito questo, abbiamo modi di vedere le cose alquanto differenti (fermo restando che sono convinto delle mie conclusioni per logica ma non per fede, e che senza sapere il resto non ci scommetterei nemmeno un cente su queste mie conclusioni)
8 core Jaguar valgono meno di 4 core di un i5. Forse sono in linea con un i3 dual core + HT. Siccome si parla di costi contenuti, prendere in considerazione l'HBM non ha senso. Memoria e interposer (più la lavorazione necessaria per "incollare" il tutto) hanno costi non proprio contenuti.
GCN a parità di spazio e consumi va meno di Kepler, e non è detto che nvidia non potesse sfornare già Maxwell nel 2012, quindi seppur in chip separato, la stessa area di silicio a 28nm avrebbe dato di più e consumato di meno. E con memoria grafica dedicata (e quindi banda in abbondanza) MS non avrebbe avuto bisogno di eSRAM, e Sony risparmiava 4GB di GDDR5.
Quindi, in conclusione, tutto questo vantaggio di AMD io sinceramente non lo vedo.

Non avete capito che non si deve guardare alla potenza di calcolo in assoluto come termine di paragone per capire quale prodotto vale (e quindi guadagna) di più. Bisogna valutare in che modo ci si arriva a quella potenza di calcolo. Se necessita molto più spazio o processo produttivo più costoso (la corrente non importa, è a carico dell'utente) e si scontra contro una soluzione piccola ed efficiente, allora hai perso in partenza.

Per fare qualche esempio, il GK110 montato su 780(ti) è più costoso come soluzione rispetto a Hawaii (290X). Il GM204 che è andato a sostituirlo (con guarda caso ritiro immediato del GK110 dal mercato consumer) è di gran lunga la soluzione che ha un margine più alto rispetto alla soluzione AMD. Anche se la nuova 390X andasse poco di più, il prodotto nvidia sarebbe ancora il migliore in termini economici.
Il GM200, che è una padella assurda, rimane ancora più economico di Fiji. Il GK104 (GTX680) è stato una manna di guadagni stratosferici per nvidia nonostante fosse poco più lento della versione overcloccata di Tahiti (7970, e guarda caso oggi non più presente sul mercato in nessuna declinazione).
Insomma, il vantaggio tecnologico non ce l'hai perché raggiungi X ad un benchmark, ce l'hai perché raggiungi X con costo Y. E se il tuo X è molto in alto e Y è molto in basso, hai fatto bingo. Anche se X non è il massimo dei massimi. Ma se sei pure al top oltre che avere Y più basso della concorrenza, allora hai il massimo guadagno e puoi permetterti di fare un po' quello che vuoi, compreso schiacciare i margini della concorrenza che non può starti dietro (in termini economici).
Che è quello che è successo negli ultimi 6 anni nel mercato CPU e negli ultimi 3 nel mercato GPU.
Se qualcuno crede che dopo la guerra per il benchmark con la barretta più alta (che fa pubblicità) non conti la questione X su Y, gaurdate cosa sta facendo nvidia con il GM206 (aka GTX960). Un chip minuscolo e molto semplice (ha un bus di 128bit!) che si scontra con Tonga, il successore di Tahiti, immensamente più grande. Pensate che a nvidia importi che la 960 faccia qualche frame in meno della soluzione AMD quando ci guadagna forse il doppio o il triplo per ogni scheda venduta?
In termini economici nvidia è molto più avanti, e se contraesse i suoi margini a livello di AMD, altro che vantaggio tecnologico da parte di AMD...

Ultima modifica di CrapaDiLegno : 13-07-2015 alle 23:20.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 05:59   #234
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ragazzi, andate troppo in fretta, non riesco a leggervi sempre.
Riassumo per quanto posso...
Non ti preoccupare, rispondi pure quando puoi. Tante volte anch'io ho difficoltà a scrivere "subito", e faccio passare anche molto tempo. Purtroppo il tempo è una delle cose che non possiamo comprare al mercato...
Quote:
Non mi interessa sapere esattamente quanto a chiesto Mi basta vedere gli scarsi risultati della divisione semi-custom.
Una azienda che non ha più nulla di competitivo da vendere avrebbe dovuto sfruttare meglio il suo unico vantaggio di poter produrre una APU. Invece sembra che pur di vincere la fornitura sia andata giù giù fino a far desistere del tutto nvidia e Intel su una alternativa a margine risicatissimo.
Scusami, ma hai notizie che Intel fosse parte delle trattative, e che abbia addirittura rifiutato?

Che io sappia, diversi anni fa c'erano voci del possibile utilizzo di Larrabee, ma sono rimaste tali, e per ovvie ragioni (infatti Larrabee come GPU è morta).
Quote:
Ho già detto che economicamente sarebbe costato di più, ma visto quanto in basso è scesa AMD, ho il forte dubbio che il prezzo non debba essere stato tanto diverso in termini assoluti. Solo che AMD si è accontenta di una bella fetta di margine inferiore pur di avere la fornitura.
Se per AMD scendere dal 35% al 10% ha rappresentato un enorme sacrificio, pensi che Intel e nVidia, abituate al 60% (secondo quanto hai riportato), avrebbero mai potuto arrivare a simili livelli?

Io non credo proprio, e dunque l'operazione sarebbe stato impossibile da realizzare, già in partenza.

Anche perché, e come già discusso con AceGranger, si sarebbe aggiunto anche il costo per integrare la GPU di nVidia all'interno del SoC di Intel. Intel ha già speso per acquisire know-how per farlo con le PowerVR di Imagination, ma avrebbe dovuto farlo nuovamente per quelle di nVidia. Altri costi, per l'appunto.
Quote:
Qualsiasi cosa, non mi sembra che la creazione di bus di comunicazione proprietari/custom siano mai stati un problema nello sviluppo delle console.
Senz'altro, ma non è nulla di paragonabile rispetto a unità connesse internamente, che sono di gran lunga più veloci ed efficienti. Non è un caso che oggi si assista così tanto all'integrazione di tante unità all'interno di uno stesso SoC, e dunque non ci sarebbe stato motivo d'invertire la tendenza.
Quote:
Per PS3 si è fatto una cosa mica male per sfruttare fino all'ultimo I/O del Cell. Ed ha avuto il suo perché poi.
E' stata una mala pezza messa lì per cercare di sfruttare quel che si poteva. Se vai a ripescare i thread di una dozzina-decina d'anni fa, s'è discusso molto dell'argomento anche con programmatori che hanno lavorato a titoli AAA per PS3 e XBox360.

La PS3 è un hardware progettato molto male.
Quote:
Sarà più semplice da realizzare ma lo spazio sul die costa lo stesso in maneira uguale.
No: se le rese sono migliori, è ovvio che i chip sono più economici.
Quote:
E a quanto sembra tutto lo spazio che MS ha usato per la eSRAM non vale in temini di computazione come quello usato da Sony. Semplicemente, come detto, MS è rimasta indietro credendo ancora che per avere banda servisse la eSRAM quando invece Sony le ha dato il benservito sia come banda che come potenza di calcolo (shader, ROPs, TMUs). 2:0 per Sony e ciao ciao MS.
Al momento è così, ma XBoxOne ha ancora un po' di margine di crescita, come l'ha avuto la PS3 che all'inizio è stata fallimentare e dopo un po' di anni ha ricucito in parte il gap con la XBox360 (facendo sputare sangue ai programmatori).
Quote:
Un FX sarebbe costato di più e reso di meno. Io pensavo ad un core Intel. Anche nella versione semplificata, un core Haswell da la birra a qualsiasi altro core AMD. Se poi realizzato a PP inferiore che Intel può, allora sì, potevo pretendere (o almeno pensare) che si potesse avere di più.
Probabilmente sì, ma come sai Intel si fa pagare anche gli i3...
Quote:
8 core Jaguar valgono meno di 4 core di un i5. Forse sono in linea con un i3 dual core + HT.
Dipende fortemente dal tipo di calcolo eseguito. Quello dei giochi è più lineare / parallelizzabile e trae più vantaggio da più core fisici, per cui mi aspetto che la bilancia penda verso i primi (anche se non so quantificare).
Quote:
GCN a parità di spazio e consumi va meno di Kepler, e non è detto che nvidia non potesse sfornare già Maxwell nel 2012,
No. Se avesse potuto, l'avrebbe tirato fuori prima, per se stessa.

P.S. Scusami, ma non ho tempo di rileggere.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 09:26   #235
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3908
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Scusami, ma hai notizie che Intel fosse parte delle trattative, e che abbia addirittura rifiutato?

Che io sappia, diversi anni fa c'erano voci del possibile utilizzo di Larrabee, ma sono rimaste tali, e per ovvie ragioni (infatti Larrabee come GPU è morta).
Facciamo un ragionamento semplice semplice...Secondo te Sony e MS sono andate da AMD e le hanno detto... guarda sei l'unica che puoi realizzare questa soluzione, solo tu puoi garantirci di vednere console a prezzo basso e farci fare una barcata di soldi. E per risposta AMD ha detto, certo, non c'è problema, metto un margine bassissimo per farvi contente. Tanto io sto benissimo e non ho bisogno di farmi pagare quello per cui sono quasi 10 anni che investo qualche miliardino in R&D.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Se per AMD scendere dal 35% al 10% ha rappresentato un enorme sacrificio, pensi che Intel e nVidia, abituate al 60% (secondo quanto hai riportato), avrebbero mai potuto arrivare a simili livelli?

Io non credo proprio, e dunque l'operazione sarebbe stato impossibile da realizzare, già in partenza.
Che è quello che ho detto io. Chiediti perché AMD è dovuta scendere a un margine tanto risicato se dall'altra parte non ci fosse stata una contro-offerta comunque molto sofferta anche per i competitori. Poi sotto un certo margine è ovvio che è inutile andare se non si ha un secondo fine (pubblicità, vantaggi nello sviluppo etc...).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Anche perché, e come già discusso con AceGranger, si sarebbe aggiunto anche il costo per integrare la GPU di nVidia all'interno del SoC di Intel. Intel ha già speso per acquisire know-how per farlo con le PowerVR di Imagination, ma avrebbe dovuto farlo nuovamente per quelle di nVidia. Altri costi, per l'appunto.
Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica? Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die. Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo". Il chip di MS invece no. E' in accrocchio. Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Problema economico di risparmiare 5 dollari su ogni pezzo? Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Senz'altro, ma non è nulla di paragonabile rispetto a unità connesse internamente, che sono di gran lunga più veloci ed efficienti. Non è un caso che oggi si assista così tanto all'integrazione di tante unità all'interno di uno stesso SoC, e dunque non ci sarebbe stato motivo d'invertire la tendenza.
Si integra per ridurre i costi, non certo per avere soluzioni più performanti.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
No: se le rese sono migliori, è ovvio che i chip sono più economici.
Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Al momento è così, ma XBoxOne ha ancora un po' di margine di crescita, come l'ha avuto la PS3 che all'inizio è stata fallimentare e dopo un po' di anni ha ricucito in parte il gap con la XBox360 (facendo sputare sangue ai programmatori).
Un po' di margine di crescita in cosa? Per via di quella striminzita (in quantità) eSRAM a disposizione che occupa il 25% del die o giù di lì? Senza delle ROPs sufficienti a pompare pixel?
Probabilmente, se davvero c'è hUMA nella PS4, direi che ad avere maggiori margini di crescita è quest'ultima.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Dipende fortemente dal tipo di calcolo eseguito. Quello dei giochi è più lineare / parallelizzabile e trae più vantaggio da più core fisici, per cui mi aspetto che la bilancia penda verso i primi (anche se non so quantificare).

No. Se avesse potuto, l'avrebbe tirato fuori prima, per se stessa.
Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati. E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 12:00   #236
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5543
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi


Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica? Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die. Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo". Il chip di MS invece no. E' in accrocchio. Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Problema economico di risparmiare 5 dollari su ogni pezzo? Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.


Si integra per ridurre i costi, non certo per avere soluzioni più performanti.


Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.





Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati. E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.
Un paio di appunti:

Si fa tutto integrato per contenere i costi, e secondo la tua opinione hanno cannato due team di ingegneri (quelli di sony e ms), mentre tu hai ragione.
Forse è un'affermazione leggermente presuntuosa.

Utilizzare 2 chip separati (oltre a costare più) porta a far costare di più la mb, e lo sviluppo del bus (indispensabile).
Aumentano anche i costi del controller ram, oppure ti tocca gestire due sottosistemi ram (uno per la vga ed uno per la cpu)
dotare la vga di sufficente ram (4 gb?) con un controller abbastanza ampio e sufficenti moduli (nel 2013 mi sa che non esistevano chip da 2 gb)

Sony e ms non stanno vendendo in perdita le consolle (e sarebbe la prima volta) quindi nessuna svendita.

Mi parli del package della xbox:
Costa di più (anche per quel motivo) e dulcis in fondo si parla di revisioni del chip con frequenze maggiorate ed aggiornamento software delle vecchie consolle per alzare le frequenze (uno dei motivi del package con maggior volume).

Ms e sony non fanno il grosso degli utili dalla consolle, ma dai giochi.
Le software house hanno chiesto (o imposto) una piattaforma semplice da programmare e da fare il porting verso il pc e/o altra consolle, e puoi fare tutte le consolle che vuoi, ma se non ci sono giochi (e sviluppare giochi tripla A ha raggiunto i costi di un film oramai) rimane sugli scaffali tranne che a regalarla.

Ultima Chicca:
PS4 e xboxOne hanno venduto il doppio al lancio rispetto le sue predecessori.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 19:50   #237
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Facciamo un ragionamento semplice semplice...Secondo te Sony e MS sono andate da AMD e le hanno detto... guarda sei l'unica che puoi realizzare questa soluzione, solo tu puoi garantirci di vednere console a prezzo basso e farci fare una barcata di soldi. E per risposta AMD ha detto, certo, non c'è problema, metto un margine bassissimo per farvi contente. Tanto io sto benissimo e non ho bisogno di farmi pagare quello per cui sono quasi 10 anni che investo qualche miliardino in R&D.
La questione per me è molto semplice: Sony e Microsoft si sono rivolte a chi era in grado di produrre un SoC contenente tutto ciò che serviva per i loro scopi, incluse eventuali personalizzazioni, e a buon mercato.

Dunque AMD era l'unica papabile.
Quote:
Che è quello che ho detto io. Chiediti perché AMD è dovuta scendere a un margine tanto risicato se dall'altra parte non ci fosse stata una contro-offerta comunque molto sofferta anche per i competitori. Poi sotto un certo margine è ovvio che è inutile andare se non si ha un secondo fine (pubblicità, vantaggi nello sviluppo etc...).
Dall'altra parte poteva continuare a esserci IBM, che in ogni caso avrebbe garantito anche un'eventuale retrocompatibilità con le precedenti console.
Quote:
Ancora... mi chiedo dove sia scritto che una GPU debba necessariamente essere integrata. Per l'efficienza energetica?
Anche, ma non solo. Ne parlo meglio dopo.
Quote:
Quindi per 10W in meno mi sobbarco il costo di una integrazione tanto spinta? Per poi avere problemi di dissipazione su un'area inferiore? L'idea è: o hai un memory controller comune (e gli dai abbastanza banda) oppure è indifferente se la GPU sta dentro o fuori il die.
E invece la differenza è notevole, perché puoi togliere di mezzo il bus esterno e creare una connessione interna molto più veloce per lo scambio dei dati fra i due.
Quote:
Il chip di Sony con l'hUMA è quindi più o in meno in linea con la questione "integrazione maggiore, maggiore efficienza e potenza di calcolo".
L'hUMA dovrebbe essere una caratteristica comune di entrambi i SoC.
Quote:
Il chip di MS invece no. E' in accrocchio.
Come fai a dirlo, visto che i due SoC sono molto simili?
Quote:
Costerà poco (più o meno, tutta quella inutile eSRAM magna spazio ha veramente poco senso rispetto a cosa si sarebbe potuto fare con tutto quello spazio) e va pure niente.
Costa di meno, e va un po' meno. Non ci vedo grandi stravolgimenti fra i due SoC.
Quote:
Problema economico di risparmiare 5 dollari su ogni pezzo?
Non ho idea di quanto si risparmi, per cui non posso pronunciarmi, ma quando le GDDR5 usciranno di scena è fisiologico aspettarsi un aumento dei prezzi.
Quote:
Bene, vedremo quanto durerà questa generazione di console. E se la prossima, con questa idea di risparmio assoluto, riuscirà a competere con le altre alternative.
Per quanto mi riguarda una prossima generazione di console ha poco senso, col mercato invaso da tablet, smarthphone, e coi PC che sono sempre più potenti.
Quote:
Si integra per ridurre i costi, non certo per avere soluzioni più performanti.
Come già detto, avendo tutto integrato è possibile avere connessioni molto più veloci fra i componenti, che i componenti esterni possono soltanto sognarsi.

Quando la XBox360 è stata finalmente prodotto con un singolo chip, hanno dovuto introdurre delle latenze fra la connessione di CPU e GPU per mantenere la retrocompatibilità, proprio per questo motivo.

Ho recuperato il documento di presentazione del nuovo SoC della 360, che trovi qui, dove ne parla. E' interessante perché dimostra pure perché sia stato conveniente realizzare un solo chip, e la cosa non è certo peggiorata da allora; tutt'altro.
Quote:
Ma più economici un para de ball, se poi devi svendere la console perché ha una potenza di fuoco inferiore alla concorrenza. E ne vendi comunque meno.
Questo è un altro discorso.
Quote:
Un po' di margine di crescita in cosa? Per via di quella striminzita (in quantità) eSRAM a disposizione che occupa il 25% del die o giù di lì? Senza delle ROPs sufficienti a pompare pixel?
Probabilmente, se davvero c'è hUMA nella PS4, direi che ad avere maggiori margini di crescita è quest'ultima.
A parte il fatto che l'hUMA dovrebbe essere comune a entrambe le console, come dicevo l'eSRAM non è ancora sfruttata adeguatamente, e in futuro consentirà di migliorare le prestazioni.
Quote:
Parallelizzabile o semplice non conta nulla. Quello che conta è l'IPC. Se con 2+2 core posso eseguire lo stesso numero di istruzioni di 8 core, sia che parallelizzi o meno, sempre lo stesso numero di istruzioni esegui.
Non è così semplice, perché i decoder delle due microarchitetture non sono uguali e hanno vincoli diversi. Idem per le unità di esecuzione a cui vengono smistate le istruzioni.
Quote:
Quello che volevo dire è che la CPU nelle APU è talmente tanto debole che con uno sforzino Intel avrebbe potuto sfornare qualcosa di molto meglio. E oggi avremmo console ben diverse.
Ma AMD ha molta più esperienza di Intel in ambito GPU, sia nella progettazione degli stream processori sia riguardo ai driver. E il SoC è costituito da CPU + GPU, non soltanto dalla CPU.
Quote:
Va be', sono considerazioni che lasciano il tempo che trovano, lo so. Però questa cosa di esaltare AMD per un chip mediocre che ha solo il vantaggio di essere stato proposto a prezzo stracciato pur di finire dentro i botoli, mi sembra davvero esagerato.
Non c'è alcun vantaggio tecnologico né tanto meno prestazionale. E nemmeno economico, visto i risultati.
Non è questione di esaltare AMD o meno, ma le va dato sicuramente il merito di aver realizzato dei SoC che sono un buon compromesso per i requisiti entro i quali si doveva muovere.

Ricorda che i committenti sono Microsoft e Sony, e dunque sono loro che hanno deciso, in ultima analisi, cosa volere dentro quel chip.
Quote:
E secondo me il prossimo giro, dopo questa emerita cazz@ta di voler trasformare le console in simil PC per ridurre i costi al minimo possibile, non ci sarà né una APU né una CPU x86 nelle console.
O non ci saranno più console...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 20:09   #238
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5543
Quote:
Originariamente inviato da cdimauro Guarda i messaggi

Ho recuperato il documento di presentazione del nuovo SoC della 360, che trovi qui, dove ne parla. E' interessante perché dimostra pure perché sia stato conveniente realizzare un solo chip, e la cosa non è certo peggiorata da allora; tutt'altro.
Spero che adesso si renda conto che quello che avevo scritto (anche riferito al package) non sono barzellette.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 20:17   #239
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21456
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ma AMD ha molta più esperienza di Intel in ambito GPU, sia nella progettazione degli stream processori sia riguardo ai driver. E il SoC è costituito da CPU + GPU, non soltanto dalla CPU.

.

aggiungerei che la cpu strapotente in una console conta (relativamente, si intende) poco visto che anzitutto non c'è il problema di draw call ergo puoi spremere davvero all'osso cio che può darti la cpu avvicinandoti ai suoi limiti "fisiologici" o credete che i nostri i7 vengano davvero sfruttati?. Inoltre nei giochi la cpu gestisce meno roba della gpu, perlopiù cose tipo ia, calcoli tipo danni, gestione interfacce ecc. ecc (anche la fisica volendo in un titolo nativo console la si può far calcolare alla gpu con più efficienza non dovendoti preoccupare di diatribe di diversa architettura nvidia/amd, posto che non tutti i giochi hanno complessi motori fisici). Globalmente conta sicuramente più una buona gpu. Non mi stupirebbe che in una ipotetica next gen futura (io invece credo proprio che la faranno, chi gioca uncharted, halo ecc se ne fotte di sostituire le console con gli smartphone, sono utenze DIVERSE, il grosso del parco console attuale non lo hanno certo comprato i casualoni, poche storie) si useranno sempre apu: per allora vi saranno pp ancora più avanzati e architetture con prestazioni per watt ancora maggiori, basti pensare che già facendo slittare l'uscita di "soli" due anni avrebbero potuto montare una apu con architettura greenland anzichè gcn, pp a 16/14nani e hbm unificata...sarebbero state dei piccoli gioiellini di console. Poi certo un pc performerebbe sempre più - ma è altro discorso - ma sarebbero state imho macchine molto più equlibrate e di prestazioni adeguate
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 14-07-2015 alle 20:23.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 14-07-2015, 20:28   #240
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
@Piedone1113: certamente, anche quello che hai scritto prima lo ritenevo valido a prescindere dal documento che ho riportato adesso.
Quote:
Originariamente inviato da gridracedriver Guarda i messaggi
Anche hwupgrade riporta indiscrezioni in questo caso.
Quote:
mica ho detto che TSMC è esente da tutto ciò, anzi, è fresca questa notizia http://www.hwupgrade.it/news/cpu/pro...tri_58032.html
sono tutti sulla stessa barca e a me da fastidio il fatto che in giro ci sia la leggenda metropolitana che Intel cambi PP ogni 2 anni solo perché si chiama Intel...
Vorrei capire innanzitutto che motivo hai da essere così infastidito. Non so, per caso hai azioni di AMD, TSMC, Samsung, Globalfoundries? Sii chiaro, cortesemente.

Poi nessuno qui ha detto che Intel sia onnipotente: i limiti della fisica valgono per tutti.

Per cui continuo a non comprendere perché ti scaldi così tanto, per cose che ti dovrebbero essere ben lontane.
Quote:
mi pare strano tu non capisca:
il concetto di alzare le frequenze o rivedere l'architettura con ad esempio gli step di layout lo puoi fare con le cpu o gpu, ma in una console che è scatola chiusa il progetto originario nasce e muore in maniera identica, l'unico scopo delle shrink è abbassare i consumi, rendere stabile ciò che c'è, abbassare il calore generato e di conseguenza ridimensionare il pacchetto completo
punto
Lo shrink serve soprattutto a ridurre i costi, visto che l'hardware delle console è, per l'appunto, immutabile.

Comunque circolano voci che Microsoft si appresti ad alzare ancora una volta il clock del SoC...
Quote:
GF li ha saltati, TSMC i 20SOC li ha relegati tutti per apple e non sono adatti ad apu del genere, e samsung avendo avuto problemi li ha usati in bassa scala solo per lei...
quindi? facevano uscire le console nuove nel 2016 assieme ai 16/14nm?
Questi accordi si fanno ben prima che il nuovo processo produttivo sia disponibile, per cui non c'entrano nulla gli eventuali problemi che si sarebbero poi verificati.

Per essere chiari: se le fonderie mi danno disponibilità del processo a 20nm fra 3 anni, è chiaro che il mio progetto lo realizzerò in quell'ottica e coi vantaggi che esso mi darà.

Dunque il problema era di spuntare un accordo vantaggioso per sfruttare il processo a 20nm. Cosa che, evidentemente, non è stata possibile, complice anche il ruolo da primadonna di Apple. Quindi i vetusti 28nm sono stati un ripiego.
Quote:
a parte che non sono voci,
Finora leggo di voci. Ma se hai FATTI non hai che da riportarli.
Quote:
e conferme come vedi arrivano anche qua e quelle di B&C si sono sempre dimostrate reali e poi confermate nel 97% dei casi
Non lo frequento, e non posso giudicare.
Quote:
guarda bene e noterai molte frecciate verso tutti, nessuno escluso...
prova a farti un giro sul thread dei meme e ne vedrai delle belle verso amd gf nvidia...
Se il livello è lo stesso, come dici, allora preferisco farne a meno, grazie.
Quote:
è che evidentemente la verità ad alcuni fa male
Di quale "verità" stai parlando, visto che si tratta di voci?

Poi è il livello infantile di certi commenti che trovo squallido, visto che quei bambocci passano il tempo a godere delle (eventuali, perché si tratta di voci, per l'appunto) disgrazie altrui.

Il perché di tutto ciò rimane un mistero...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile iPhone 17 Pro: più di uno smartphone. &Eg...
Intel Panther Lake: i processori per i notebook del 2026 Intel Panther Lake: i processori per i notebook ...
Intel Xeon 6+: è tempo di Clearwater Forest Intel Xeon 6+: è tempo di Clearwater Fore...
4K a 160Hz o Full HD a 320Hz? Titan Army P2712V, a un prezzo molto basso 4K a 160Hz o Full HD a 320Hz? Titan Army P2712V,...
Recensione Google Pixel Watch 4: basta sollevarlo e si ha Gemini sempre al polso Recensione Google Pixel Watch 4: basta sollevarl...
Disney+ cambia: arriva Hulu, ma il servi...
Google annuncia Gemini Enterprise: l'IA ...
Battlefield 6 debutta tra code infinite ...
Gli iPhone di seconda mano dominano il m...
Pavel Durov (Telegram) lancia l'allarme:...
Occhiali Smart come lo smartphone: il fu...
Arriva NVIDIA GB300 NVL72, il cluster di...
Copilot si collega a OneDrive, Gmail e D...
Il Liquid Glass di iOS 26 è stato...
I biocarburanti fanno più danni d...
ELF, il Frankenstein di Mercedes che ant...
Da Kia arriva il passaporto per le batte...
The Elder Scrolls 6 renderà omagg...
YouTube dà una 'seconda chance' a...
Attacco hacker a Oracle E-Business Suite...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 21:17.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1