PDA

View Full Version : Il futuro di AMD, intervista al CEO e Presidente Lisa Su


Pagine : 1 [2]

CrapaDiLegno
15-07-2015, 17:27
inutile discutere con te.
Parti del presupposto che AMD ha svenduto il suo chip (quindi alla stima di 80$ dovremmo aggiungere un 30% ed arriviamo a 104$)
Che sia svenduto non lo dico io ma i conti in bilancio di AMD. Su questo c'è poco da avere dubbi. E tutte i report finora letti indicano che il margine sia inferiore al già striminzito 35% di margine che AMD applica ai suoi prodotti.


Dici che sei cosciente che due chip sarebbero costati più dell'apu (a 104 aggiungiamo un altro 30% e siamo a 134$)
Sei cosciente che due chip da alimentare avrebbe richiesto due sezioni di alimentazione sulle mb (+5$), alimentatore diverso (+2$) bus dedicato punto-punto (15$), doppie piste per la ram on board (e per contenere lo spazio anche più metallizazioni (25$).
2 dissipatori invece che uno (3$)
Senza considerare gli altri smazzi e mazzi siamo ad un costo di:
104$ in più.
Aggiungi il 20 % di dogana e siamo a 125$
ricarico di 15% per 3 passaggi.
Il costo finale per l'acquirente sarebbe stato di 190$ tasse escluse, maggiore di quello attuale.
Se mi sai fare un conteggio più economico riportami pure le fonti per le quali sei convinto che il costo sarebbe inferiore.
Purtroppo, o forse meglio per fortuna, non voglio ne posso riportare le mie.
O le motherboard di queste console non costano nulla o c'è qualcosa che non va nei tuoi conti, visto che sul mercato PC esistono motherboard complete che costano $25. Io ho comprato diversi anni fa una motherboard m-ITX con Atom saldato sopra per 50 euro. E ha doppio canale ai socket della memoria, linee tirate al PCI-e e linee al chipset.
Non servono 2 dissipatori, al massimo 2 heat spreader su cui poggia lo stesso dissipatore (come su XBox360 e PS3).
E continuerò a ripeterlo fino alla morte, se una alternativa a costi simili non fosse esistita, AMD non avrebbe messo un margine così basso sulle proprie APU. Altrimenti in AMD sarebbero dei veri gonzi da prendere a palate in faccia se davvero fossero stati gli unici a potersi permettere la soluzione comoda per MS e Sony.
Comunque hai ragione, inutile discutere. Abbiamo quello che abbiamo e quello dobbiamo tenerci. Altrettanto inutile, secondo me, credere che questa fosse l'unica soluzione possibile o la più performante al tempo.
Intanto siamo discutendo se MS farà o meno una versione 2 overcloccata (overcloccando il già overcloccato)... che è un'assurdità solo pensarlo, figuriamoci realizzarlo. Sono solo contento che questa potrebbe essere la degna conclusione del fatto che sono andati al massimo risparmio e non hanno pensato a realizzare qualcosa di moderno.

Piedone1113
15-07-2015, 17:51
Che sia svenduto non lo dico io ma i conti in bilancio di AMD. Su questo c'è poco da avere dubbi. E tutte i report finora letti indicano che il margine sia inferiore al già striminzito 35% di margine che AMD applica ai suoi prodotti.


O le motherboard di queste console non costano nulla o c'è qualcosa che non va nei tuoi conti, visto che sul mercato PC esistono motherboard complete che costano $25.

Atom è un soc, quindi mb molto semplice con praticamente solo le interfacce.

Ma sarei curioso di sapere quale atom hai, perché di atom dual Chanel, diversi anni fa, non c'era nemmeno l'ombra.
Oltretutto confondi il costo di progettazione di una mb con bus e slot-socket standard, con una che di standard non ha praticamente nulla.

cdimauro
16-07-2015, 06:37
per quanto riguarda il discorso che stai tenendo con CrapaDiLegno sono esattamente d'accordo con te...
ma vedi cosa si crea, quel concetto per cui tutto ciò che fa amd fa schifo.
è questo che mi da fastidio, per principio.

potrei rigirare la domanda, perché tifano intel?
Io preferisco un'altra domanda: perché tifare? Perché la "radice del male" per me è quella. Soprattutto considerato che qui siamo in un forum tecnico, e non al bar dello sport.
senza ricordarsi che come società c'è un rapporto di 10 a 1 tra dipendenti e cash, anzi cash penso di più :sofico:
Permettimi: se Intel è diventata quella che è, non è certo un caso o soltanto frutto di qualche azione scorretta. Se vai a vedere la sua storia, noterai che è stata una delle aziende che ha più innovato, ed è questo che le ha consentito di diventare così grande. Oggi usiamo tutti i microprocessori, le memorie DRAM, e nel passato recente abbiamo usato le EPROM: sono tutte invenzioni di Intel. Giusto per rendere l'idea della portata che ha avuto il lavoro che ha fatto.

AMD è nata ben dopo, peraltro finanziata pure (in parte, assieme ad altri investitori) da uno dei fondatori di Intel (Robert Noyce), quando Intel era già un colosso, e non è riuscita a raggiungere dimensioni paragonabili perché non è stata in grado di innovare quanto Intel. Anzi, generalmente ha copiato ciò che Intel tirava fuori; lei come tante altre aziende.

Questo giusto per farti capire che il rapporto di 1 a 10 non nasce certo dal caso. Ed è un invito a documentarti sulla storia delle due aziende, così da meglio comprendere come si sono mosse e cosa sono state in grado di fare. A parte il fatto che trovo sia decisamente interessante per un appassionato di informatico.
non ho azioni di nessuno e non me lo posso permettere, ma avrei acquistato azioni amd siccome si trovano al minimo storico di 2$, di certo non per tifo :asd:
ma come si fa a tifare per queste cose :stordita:
poi che mi faccia schifo ciò che ha fatto intel negli anni 2000 se permetti mi è lecito, dare mazzette agli oem per vendere i pentium, compilatori truccati, accordi sotto banco con amd che se questa superi un certo share per alcuni trimestri di fila la prima possa tornare a fare come faceva con gli oem (sono vago perché non ricordo i numeri precisi)... è tutto documentato eh, non mi invento nulla ;)
Lo so anch'io, ma sui compilatori ho già scritto in passato che la storia non è quella. Non era il compilatore a essere truccato, perché continua ancora oggi a funzionare allo stesso modo: ottimizza per le sue microarchitetture. Ciò che Intel doveva fare è mettere in chiaro questa cosa, e ha provveduto dopo che lo scandalo è venuto fuori.

Riguardo agli accordi fra Intel e AMD non sono "sotto banco", ma sono stati messi nero su bianco, e servono a rimuovere dei precisi vincoli nel caso in cui Intel non avesse più la posizione dominante che ha adesso, e quindi AMD fosse divenuta un concorrente di buon livello. Quindi, come vedi, non c'è niente di male e da scandalizzarsi, ma dovresti auspicare che una situazione del genere avvenga. ;)

L'unico elemento che rimane sono le politiche di concorrenza sleale. Ma consentimi: Intel ha già pagato, e da anni non c'è nemmeno l'ombra di politiche del genere. Deve continuare a pagare tutta la vita?
di nVida mi fa schifo l'ostruzionismo che fa alla tecnologia in generale, la politica totally closed, o per ultimo la storia della 970 che hanno dichiarato il falso per poi correggere le caratteristiche della scheda solo perché sul loro forum si era scatenata una class action.
Pensi che AMD sia pura e candida? Non ricordi, ad esempio, quando rilasciava driver apposta per taroccare benchmark come il 3DMark, ingannando gli utenti?

Cos'hai da dire in questo caso?
di amd mi fa schifo il marketing senza senso e l'incapacità di portare avanti i progetti lato cpu, ma essendo fabless è più difficile.

a gran parte degli utenti qua non frega nulla, a me si.
E' importante che ci sia concorrenza. Il resto, IMO, sono discussioni da bar che in un forum come questo non dovrebbero nascere.
invece c'è chi pensa che dall'oggi al domani possa tirare fuori chip a 10 nm è che è tutta colpa della concorrenza se non lo fa e bla bla bla.
Perché l'Italia ha 60 milioni di allenatori della nazionale...
non ci si ricorda che ormai amd è fabless è non può fare più la concorrente di una volta, ma che ci sono altri concorrenti per intel come il mondo arm in generale tra chi progetta (qualcomm) e chi realizza i chip (tsmc), per fare dei nomi.
Sì, ma oggi mantenere una fab quanto costa? Lo vedi tu stesso, inclusi tutti i problemi che ne derivano. AMD, date le sue dimensioni, ha fatto bene a cedere le sue fab (soprattutto se vedi tutti i problemi che ha sempre avuto Globalfoundries), e concentrare le poche risorse in quello che sa fare meglio.
io invece ci vedo un modo distaccato di analizzare le cose senza essere succube, cosa che ormai quasi tutti i portali lo sono, e per cui avere il coraggio di criticare.
C'è critica e critica, ma non voglio tornarci.
ps. però ormai siamo toppo OT :D
Penso che alcune cose siano interessanti e valga la pensa di essere discusse. Al limite qualche moderatore ci farà sapere se sia il caso di darci un taglio. :-)

cdimauro
16-07-2015, 06:51
Io non ho capito come possa la MS uscirsene con una console v2 che ha caratteristiche (prestazioni) diverse dalla v1 come sostenete.
Come sarà possibile fare un gioco che giri sia sulla v1 e sulla v2? A meno che non mi state dicendo che chi ha la v1 si troverà il gioco castrato e chi ha la v2 invece no... un po' come chi prende lo stesso gioco per PS3 o PS4... ma queste sono 2 generazioni differenti.
Io se avessi una XBoxOne mi sentirei preso in giro (e discriminato) da una mossa di quel genere.
E comunque va a pari a quello che ho detto io. Questa generazione durerà poco perché è troppo indietro rispetto a quello che la tecnologia permette, e gli altri non stanno certo a guardare.
L'idea è quella di alzare le frequenze in generale. E siccome il case della XBoxOne è un po' più grande, sarà più facile dissipare il maggior calore generato, anche per le prime versioni della console.
Riguardo alla questione SoC ARM vs APU... qualcuno ha scordato le architetture custom.
Custom vuol dire tutto e niente: a cosa ti riferisci?

Se parli di una re-implementazione della stessa ISA, non cambia molto: puoi girarla come vuoi, ma una pipeline ARM out-of-order a 2 vie non ha speranze di competere con una x86/x64 con caratteristiche simili.

Se parliamo di unità SIMD, l'ISA è quella, e nessuno si rifà in casa una nuova unità SIMD che non sia compatibile con NEON (perché poi quale software ci girerebbe?). NEON rimane alla base, e coi limiti dei suoi registri a 128 bit, mentre AVX ha registri a 256 bit e la prossima AVX-512 li ha a 512 bit.

Se hai altre idee per il "custom" di cui parli, non hai che da riportarle.
Tutto ciò che fa AMD fa schifo? No, assolutamente, solo che queste APU proposte nei botolo lo sono. Sono un compromesso che con la XBox360 e PS3 non avevamo.
Diciamo che XBox360 e PS3 avevano un hardware migliore rispetto ai tempi. Quelle attuali sono un compromesso al ribasso, per mantenere i costi.
Se la richiesta delle SH era di console più simil PC, ovvio che IBM non poteva essere della partita.
Perché no? Magari mi sbaglio, ma mi sembra che ce l'abbia ancora una licenza x86.
Ma un sistema molto più simile a quello di un PC moderno, certamente sì. E comunque la XBox360 al lancio aveva una GPU con tecnologia ancora non disponibile su PC
Vero, però come potenza di calcolo non era paragonabile a quella "rozza" disponibile per le GPU dell'epoca, sebbene queste ultime fossero più vecchie.

Il suo vantaggio è rappresentato da un'architettura custom, unito alla presenza dell'eDRAM.
e la PS3 un sistema di gestione dei flussi di dati che ancora oggi non ha nulla da invidiare a quello che si ha a disposizione. Certo che usarlo non è dei più semplici. Ma visto che tutti parlano di HSA e sistemi di computazione ibrida, il Cell ai tempi era già un'architettura che permetteva di fare le cose con i componenti giusti. Spiace davvero che sia stato abbandonato per usare sistemi più "development friendly".

P.S: con la tecnologia di oggi potremmo avere un Cell all'incirca 40 volte più potente di quello presente nella PS3. E visto cosa hanno ottenuto da quello, magari affiancato ad una GPU moderna (non quella cosa obsoleta della PS3) direi che le prestazioni non sarebbero certo state un problema.
Purtroppo tecnologia e progresso non vanno di pari passo con economia volta al risparmio.
No, il problema è un altro: Cell è stato fagocitato dalle GPU, per cui non ha più motivo di esistere.

Ho scritto un pezzo per spiegarlo, un po' di anni fa: Perché Sony metterà una pietra tombale su Cell (http://www.appuntidigitali.it/5965/perche-sony-mettera-una-pietra-tombale-su-cell/). Che complessivamente conserva il suo valore; infatti è proprio quello che è poi avvenuto, a distanza di quasi 4 anni (le nuove console sono state presentate a fine 2013).

cdimauro
16-07-2015, 06:56
Certo, in perdita perché aveva HW moderno, fin oltre quello che il mercato PC aveva. Molto del costo della PS3 era dovuto al lettore BluRay, nuovissima tecnologia. Poi aveva il Wi-Fi integrato. E 4 porte USB (doppio controller). E il lettore di schede SD. E un HDD incorporato. E una PS2 completa.
Ecco, avevo dimenticato il chip della PS2, che da solo costava 100$. Togliendo questo, il costo della PS3 sarebbe stato identico a quello della PS4.
Per inciso, la PS3 non ha la metà della memoria della XBox360. Ha anche lei 512GB, solo che non sono unificate: 256MB x GPU e 256MB x CPU.
Sì, ma il s.o. ne ha una parte consistente, specialmente per la GPU, e i programmatori hanno dovuto fare i salti mortali per cercare di superare il limite della memoria separata, dovendo mettere parte delle texture in quella di sistema, e adottando politiche per copiarle quando necessario nella memoria grafica.

Un casino assurdo.

CrapaDiLegno
16-07-2015, 10:06
Questo post, e poi finisco.

Atom è un soc, quindi mb molto semplice con praticamente solo le interfacce.
No, Atom è diventato un SoC solo ultimamente. Prima era uno scrauso chipetto costruito con vecchi PP con connesso un chipset ancora più obsoleto. Ecco, io ho preso uno di quelli


Ma sarei curioso di sapere quale atom hai, perché di atom dual Chanel, diversi anni fa, non c'era nemmeno l'ombra.
Oltretutto confondi il costo di progettazione di una mb con bus e slot-socket standard, con una che di standard non ha praticamente nulla.
Hai ragione, è mono channel, ma ha 2 socket sulla motherboard (= maggiori costi, che è quello che intendevo).
Che sia custom o standard, quando devi tirare le linee di un bus conta quante linee sono e a che velocità devono viaggiare. Non è che perché il PCI è standard tirare 16x3 o 4x4 linee sia la stessa cosa sulle motherboard.

L'idea è quella di alzare le frequenze in generale. E siccome il case della XBoxOne è un po' più grande, sarà più facile dissipare il maggior calore generato, anche per le prime versioni della console.
Vuoi dire che tramite aggiornamento aumenteranno le frequenze anche delle console oggi sul mercato? O_o


Custom vuol dire tutto e niente: a cosa ti riferisci?

Se parli di una re-implementazione della stessa ISA, non cambia molto: puoi girarla come vuoi, ma una pipeline ARM out-of-order a 2 vie non ha speranze di competere con una x86/x64 con caratteristiche simili.

Se parliamo di unità SIMD, l'ISA è quella, e nessuno si rifà in casa una nuova unità SIMD che non sia compatibile con NEON (perché poi quale software ci girerebbe?). NEON rimane alla base, e coi limiti dei suoi registri a 128 bit, mentre AVX ha registri a 256 bit e la prossima AVX-512 li ha a 512 bit.

Se hai altre idee per il "custom" di cui parli, non hai che da riportarle.
Dai su non facciamo i bambini con questi discorsi. Se Sony vuole fare un sistema custom basato su ARM da vendere in 100 milioni di copie e per farci girare SW specifici, direi che può permettersi di fare un architettura custom con un NEONv2 da 1024bit se lo vuole e non chiedere che sia compatibile con un bel niente.
Oppure usare una architettura con l'VLIW di nvidia e compilare i giochini per Android con l'ISA ARM e i giochi per console con il set di istruzioni nativo.
Il tutto sta nel capire dove volgerà il mercato videoludico nel prossimo futuro.


Perché no? Magari mi sbaglio, ma mi sembra che ce l'abbia ancora una licenza x86.
Qual è l'ultimo chip x86 che IBM ha sfornato? Se ci si rivolge a IBM è per usare la sua architettura, non la brutta copia di quella di un altro.


Ecco, avevo dimenticato il chip della PS2, che da solo costava 100$. Togliendo questo, il costo della PS3 sarebbe stato identico a quello della PS4.
Ma ci stava anche tutto il ben di Dio che ho elencato sopra, che era la prima volta che compariva in una console casalinga e parte di cui non era nemmeno tanto economica da aggiungere (Bluray in primis).
Il problema del costo della PS3 erano quelli, non certo perché aveva 2 bus esterni, uno per la GDDR3 e una per la XDR come si vuole insinuare qui.
I costi di progettazione di queste soluzioni, seppur alti, sono ammortizzati dalle milioni di unità realizzate. Inoltre i costi di realizzazione sono pressoché uguali. Non sono quelle linee e il cm in più di motherboard a fare la differenza di costi.

Sì, ma il s.o. ne ha una parte consistente, specialmente per la GPU, e i programmatori hanno dovuto fare i salti mortali per cercare di superare il limite della memoria separata, dovendo mettere parte delle texture in quella di sistema, e adottando politiche per copiarle quando necessario nella memoria grafica.

Un casino assurdo.
In verità credo che il problema con l'OS non sussiste proprio. Quando partono i giochi l'OS della PS3 è messo da parte, e quindi tutta la parte grafica che usa può essere swappata fuori dalla memoria grafica. Testimone è il fatto che se in un gioco si schiaccia il tasto PS per far venire fuori il menu dell'OS, l'HDD parte a raffica a swappare e i tempi per vedere il menu a video è abbastanza lungo.
D'altronde le console delle generazione passata avevano il problema opposto a quelle di oggi: troppa poca RAM rispetto alla potenza computazionale. Ne avessero avuta almeno il doppio, di buone cose se ne sarebbero potute fare ancora oggi.

Piedone1113
16-07-2015, 11:37
Questo post, e poi finisco.


No, Atom è diventato un SoC solo ultimamente. Prima era uno scrauso chipetto costruito con vecchi PP con connesso un chipset ancora più obsoleto. Ecco, io ho preso uno di quelli



Anch'io ho una essential board Intel con atom, ma l'ho pagata molto di più di 50€ (68 €)

Ma stai continuando a paragonare due cose completamente differenti:
Una Board del genere consuma al max 18w (quindi fase di alimentazioni mooolto più economiche), la parte che consumava di più era il 945 chipset (giacenze di magazzino praticamente regale insieme all'atom).
Tutti i bus erano riferiti al 945, gia sviluppato e con pochissime linee (dato che aveva addirittura solo uno slot PCI.
Ma in fin dei conti se io dico che solo il telaio dell'A8 costa 20000€, tu mi rispondi che è impossibile perché una panda intera ne costa 10000€.
Chiudo qui perché è inutile continuare a discutere se non ci si pone con spirito critico, cosa che su questo argomento hai mandato a prendere il sole a Rio.

cdimauro
16-07-2015, 20:09
No, Atom è diventato un SoC solo ultimamente. Prima era uno scrauso chipetto costruito con vecchi PP con connesso un chipset ancora più obsoleto. Ecco, io ho preso uno di quelli
Se era ridotto così male, perché l'hai preso?
Vuoi dire che tramite aggiornamento aumenteranno le frequenze anche delle console oggi sul mercato? O_o
Sì. Ricordi quello che ha fatto Sony con le prime PSP? Giravano a 222MHz per contenere consumi e calore, ma dopo 3 anni ha sbloccato questa limitazione e consentito ai nuovi giochi di girare a 333Mhz. Parliamo di una console portatile il cui clock è stato aumentato del 50%.

Una "desktop" è ovviamente in grado di dissipare molto meglio il calore, e non c'è il problema della durata della batteria. Oltre al fatto che dubito fortemente che il clock verrà aumentato del 50% (a parte il fatto che già in partenza era più alto rispetto alla PS4).
Dai su non facciamo i bambini con questi discorsi. Se Sony vuole fare un sistema custom basato su ARM da vendere in 100 milioni di copie e per farci girare SW specifici, direi che può permettersi di fare un architettura custom con un NEONv2 da 1024bit se lo vuole e non chiedere che sia compatibile con un bel niente.
Sì, direi che non è proprio il caso di fare i bambini: progettare un'unità SIMD più avanzata non è una passeggiata. Non è che se ne esce banalmente raddoppiando la dimensione dei registri utilizzati e il numero di ALU per processare tutti quei dati. E' una visione troppo semplicistica di chi non ha esperienza nel campo delle architetture dei processori.
Oppure usare una architettura con l'VLIW di nvidia e compilare i giochini per Android con l'ISA ARM e i giochi per console con il set di istruzioni nativo.
L'architettura VLIW di nVidia (impiegata su Project Denver) non ha nulla a che vedere con un'unità SIMD più avanzata. Infatti utilizza ancora NEON, per ovvi motivi, quando deve eseguire istruzioni SIMD.

Anche qui, come prima: VLIW, buttato lì così, non vuol dire proprio nulla.
Il tutto sta nel capire dove volgerà il mercato videoludico nel prossimo futuro.
Il futuro è il ray tracing. In ogni caso c'è convergenza fra console, di qualunque tipo, e PC: le problematiche sono le stesse, ma a scale diverse.
Qual è l'ultimo chip x86 che IBM ha sfornato?
E chi se lo ricorda ormai. Ma il punto è avere una licenza IA-32 e Intel64, che è merce rara.
Se ci si rivolge a IBM è per usare la sua architettura, non la brutta copia di quella di un altro.
La sua architettura non ha dato i frutti sperati, e da tempo sta perdendo terreno nei confronti del "brutto anatroccolo" e del giovane rampante.

Avendo una licenza x86 da sfruttare in ambiti come quello oggetto della discussione, ci sarebbe sicuramente molto più valore.
Ma ci stava anche tutto il ben di Dio che ho elencato sopra, che era la prima volta che compariva in una console casalinga e parte di cui non era nemmeno tanto economica da aggiungere (Bluray in primis).
Il BluRay non serviva. E' stato inserito apposta da Sony per i suoi interessi cinematografici.

Quanto al resto, l'unica differenza era la presenza dell'hard disk standard, mentre per la XBo360 era opzionale e disponibile soltanto per la versione normale/non-core.
Il problema del costo della PS3 erano quelli, non certo perché aveva 2 bus esterni, uno per la GDDR3 e una per la XDR come si vuole insinuare qui.
E' dovuto anche a quello, perché complica il layout della scheda madre, e ha dovuto richiedere una progettazione apposita per la GPU, a cui è stata aggiunto il bus (in realtà collegamento punto-punto) Flex. Oltre ovviamente le royalty a Rambus.
I costi di progettazione di queste soluzioni, seppur alti, sono ammortizzati dalle milioni di unità realizzate. Inoltre i costi di realizzazione sono pressoché uguali. Non sono quelle linee e il cm in più di motherboard a fare la differenza di costi.
I costi non sono affatto uguali. Sony con la PS3 ha voluto strafare.

Ecco le stime per la PS3 (http://web.archive.org/web/20070927131539/http://www.isuppli.com/news/default.asp?id=6919) e quelle per la XBox360 (http://www.alphr.com/news/hardware/80708/isuppli-reckoning-the-xbox-bill-of-materials) (qui (http://web.archive.org/web/20070121181701/http://www.isuppli.com/news/xbox/) l'articolo originale per quest'ultima).
In verità credo che il problema con l'OS non sussiste proprio. Quando partono i giochi l'OS della PS3 è messo da parte, e quindi tutta la parte grafica che usa può essere swappata fuori dalla memoria grafica. Testimone è il fatto che se in un gioco si schiaccia il tasto PS per far venire fuori il menu dell'OS, l'HDD parte a raffica a swappare e i tempi per vedere il menu a video è abbastanza lungo.
Non è così, e si vede che non sei informato su come funzionano le console. In questo forum una decina d'anni fa ci sono state discussioni in cui sono intervenuti anche sviluppatori di entrambe le console. Oltre al fatto che su Beyond3D c'era parecchio materiale, visto che è il sito preferito dagli sviluppatori di tutto il mondo.

Il GameOS mantiene comunque parte della memoria di sistema e di quella grafica, anche quando i giochi girano. In particolare la memoria grafica è quella che veniva maggiormente riservata (64MB, se non ricordo male).
D'altronde le console delle generazione passata avevano il problema opposto a quelle di oggi: troppa poca RAM rispetto alla potenza computazionale. Ne avessero avuta almeno il doppio, di buone cose se ne sarebbero potute fare ancora oggi.
I costi sarebbero ulteriormente lievitati.

Piedone1113
16-07-2015, 20:39
Una "desktop" è ovviamente in grado di dissipare molto meglio il calore, e non c'è il problema della durata della batteria. Oltre al fatto che dubito fortemente che il clock verrà aumentato del 50% (a parte il fatto che già in partenza era più alto rispetto alla PS4).

.
Dicitur (si dice) 1875mhz, anche se il chip dovrebbe poter girare come frequenza base a circa 2250mhz, ma forse per aumentare le rese è stato sottocloccato.

Quasi sicuramente l'aggiornamento software avrà una routin per poter tornare alle frequenze base se non si è stabili.

cdimauro
16-07-2015, 20:55
Ciò che serve alla XBoxOne è aumentare la frequenza di clock della GPU, più che quella della CPU. Comunque 1875Mhz non è un grosso cambiamento: se Microsoft vuole recuperare il gap, deve alzare ulteriormente il clock.

Nel frattempo ho trovato informazioni riguardo alla memoria riservata al GameOS della PS3 (https://forum.beyond3d.com/threads/analysis-of-ps3-online-the-good-the-bad-the-ugly.33004/): ben 100MB.

Piedone1113
16-07-2015, 21:01
Ciò che serve alla XBoxOne è aumentare la frequenza di clock della GPU, più che quella della CPU. Comunque 1875Mhz non è un grosso cambiamento: se Microsoft vuole recuperare il gap, deve alzare ulteriormente il clock.

Nel frattempo ho trovato informazioni riguardo alla memoria riservata al GameOS della PS3 (https://forum.beyond3d.com/threads/analysis-of-ps3-online-the-good-the-bad-the-ugly.33004/): ben 100MB.

Per la Gpu stiamo tra il 10 ed il 12% di clock in più, ma non so quanto margine abbiano sui chip usati, nei nuovi anche il 20%

cdimauro
16-07-2015, 21:09
Non è sufficiente per ricucire il gap.

Volevo aggiungere un'altra cosa che ho dimenticato di scrivere nei precedenti commenti. La situazione delle console è e rimane esclusivamente a carico di Microsoft e Sony. In tutto ciò AMD non c'entra nulla, essendo la mera esecutrice di ciò che le altre due hanno predisposto per le LORO macchine.