PDA

View Full Version : Xbox One: Microsoft migliora le prestazioni della memoria


Redazione di Hardware Upg
01-07-2013, 12:21
Link alla notizia: http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html

Microsoft comunica agli sviluppatori che la bandwidth della ESRAM che si trova in Xbox One sarà maggiore dell'88% nella versione definitiva della console rispetto ai devkit.

Click sul link per visualizzare la notizia.

qboy
01-07-2013, 12:44
cioè questi ingegneri scoprono a pochi mesi dal lancio che avranno prestazioni superiori? mi sembra tanto un tentativo di riemergere dopo i vari fail.

Duncan
01-07-2013, 12:46
Il fatto che ora siano supportate le operazioni di lettura e scrittura contemporanee apre scenari interessanti, è contemporaneamente possibile leoggere e scrivere anche sulla memoria centrale DDR3?

Obrigado
01-07-2013, 12:47
io comincio ad avere la percezione che certe dichiarazioni se non documentate da test comparativi o da benchmark specifici siano illegali...

El Korki
01-07-2013, 12:52
Il fatto che ora siano supportate le operazioni di lettura e scrittura contemporanee apre scenari interessanti, è contemporaneamente possibile leoggere e scrivere anche sulla memoria centrale DDR3?

decisamente no

giubox360
01-07-2013, 13:00
Basta MS..hai fatto un bel Fail...io fossi in loro ritarderei il lancio e rivedrei il progetto Xbox one per bene come dio comanda...chi si compra xbox one al lacio avrà un bel forno in beta test...forza c'è il kinect 2.0 comprate!: D

coschizza
01-07-2013, 13:16
Basta MS..hai fatto un bel Fail...io fossi in loro ritarderei il lancio e rivedrei il progetto Xbox one per bene come dio comanda...chi si compra xbox one al lacio avrà un bel forno in beta test...forza c'è il kinect 2.0 comprate!: D

perche chi compra un apparato tecnologico di qualsiasi marca, modello e tipologia oggi non fa la stesa cosa?

Per fare il beta test basta comprare qualsiasi cosa in qualsiasi negozio di qualsiasi produttore.

El Korki
01-07-2013, 13:20
Basta MS..hai fatto un bel Fail...io fossi in loro ritarderei il lancio e rivedrei il progetto Xbox one per bene come dio comanda...chi si compra xbox one al lacio avrà un bel forno in beta test...forza c'è il kinect 2.0 comprate!: D

ma ormai ne avranno i magazzini pieni a metà, non è che possono buttare via milioni di console perchè sony ha assemblato un hardware migliore...

e comunque questa notizia rischia di essere capita male, non è che si sono accorti che la console può avere prestazioni superiori dell'88% rispetto a quanto preventivato, stiamo parlando del bandwidth dell'esram (32mb), che permetterà di svolgere più velocemente... non so bene cosa ma comunque qualcosa che non usi più di 32 mb di ram (voglio vedere se c'è anche solo un filtro o effetto grafico che usa meno di 32mb di ram...); la banda tra cpu/gpu e ram resta comunque circa 70GB/s e non viene modificata dalla straordinaria scoperta dell'ultimo minuto

non voglio cadere sulla bieca console war, ma specifiche hardware alla mano sony ha dotato la sua console di una gpu più potente (1152 cores contro i 768 di xboxone) e di una memoria principale più veloce... e non c'è scoperta dell'ultimo minuto che tenga...

Bluknigth
01-07-2013, 13:23
Mi immagino la felicità di chi sta sviluppando sui kit attuali e crepa per un fps in più, non sapendo che cosa l'HW definito gli permetterà di fare.

Quindi i primi giochi saranno castrati dalle specifiche dei Devkit e poi con l'aggiornamento degli stessi le cose miglioreranno?

Duncan
01-07-2013, 13:26
Guardate che forse sarà cominciata la produzione dei case od altro... ma la produzione dei chip e schede non credo sia già cominciata... anche perchè non servono 10 milioni di console per il lancio, con meno della metà riusciranno benissimo a supportarlo più che degnamente

A64FX+DFI nF4
01-07-2013, 13:33
sta replicando gli errori di sony con ps3, complicare l'architettura hardware senza reali vantaggi.
anche sony aveva pensato alla edram,
qua Mark Cerny spiega perchè l'hanno scartata
https://www.youtube.com/watch?v=xHXrBnipHyA#t=2371s

ragugo
01-07-2013, 13:39
tra il passo indietro dell'always online ed ora una modifica in corsa delle specifiche mi fa pensare che Microsoft sta partendo svantaggiata rispetto a Sony.
Ribadisco con Sony si spende pure 100 euro in meno (e con il Plus REGALANO ogni mese un gioco).

Non sono certo ma se dovessi fare una scommessa direi che per ora Sony se la sta giocando (molto) meglio e Microsoft insegue...

Magic73
01-07-2013, 13:58
@ragugo, con Live Gold ora hai un gioco in regalo ogni 15 giorni. Fino ad ora è Fable 3, ma nel pomeriggio dovrebbero cambiare gioco. (aggiornano l'offerta il 1 ed il 15 di ogni mese)

A64FX+DFI nF4
01-07-2013, 14:09
Games with Gold andrà avanti fino a fine anno e solo per la Xbox 360, il primo gioco di luglio è Defence Grid The Awakening

il plus distribuirà un gioco al mese anche per ps4 (oltre ai 6 per ps3 e ai 4 per psvita), il primo sarà DriveClub PSPlus Edition (meno a auto e tracciati della versione normale, ma con tutte le modalità e la possibilità di comprare auto e tracciati), mentre nei mesi successivi saranno titoli "minori"

albero77
01-07-2013, 14:12
la solita pagliacciata m$...questa volta io non farò il beta tester...poi dichiarazioni e subito smentite.c'è da fidarsi?
io non mi fido più!con 500 euro riesco a prendere adesso un paio di 7950 usate oppure meglio 2 gtx 670 di seconda mano che se la pappano in un sol boccone..

PJivan
01-07-2013, 14:24
sta replicando gli errori di sony con ps3, complicare l'architettura hardware senza reali vantaggi.
anche sony aveva pensato alla edram,
qua Mark Cerny spiega perchè l'hanno scartata
https://www.youtube.com/watch?v=xHXrBnipHyA#t=2371s

guarda che anche la vecchia xbox360 la utilizza...la complicanza della ps3 stava nel cell e nel dev kit osceno

ionet
01-07-2013, 14:28
tra il passo indietro dell'always online ed ora una modifica in corsa delle specifiche mi fa pensare che Microsoft sta partendo svantaggiata rispetto a Sony.
Ribadisco con Sony si spende pure 100 euro in meno (e con il Plus REGALANO ogni mese un gioco).

Non sono certo ma se dovessi fare una scommessa direi che per ora Sony se la sta giocando (molto) meglio e Microsoft insegue...


ma ci crede veramente qualcuno che la xbox1 costera' piu' della ps4??;)

tanto prima dell'uscita M$ ne ha di dietrofront,mea culpa,revisioni,chiarimenti e aggiornamenti da annunciare:asd: :sofico:

PJivan
01-07-2013, 14:30
io comincio ad avere la percezione che certe dichiarazioni se non documentate da test comparativi o da benchmark specifici siano illegali...

infatti prima di avere benchmark specifici sono stati conservativi..in sostanza si sono accorti che in alcuni casi il limite che avevano teorizzato può essere superato utilizzando i buchi nei cicli, e sempre come riportato da loro fino ad un 133GB/s in alpha transparency blending e ovviamente lo stanno sbandierando come farebbe qualunque produttore...non facciamo i naive che non siamo bambini

A64FX+DFI nF4
01-07-2013, 14:36
lo so che la utilizzava anche la 360 (e anche la WiiU) ma nella 360 c'erano anche i 512MB GDDR3, era il 2005

sono gli sviluppatori che hanno chiesto una architettura meno complicata e MS che fa, aggiunge chip dedicate qua e la per sopperire ai colli di bottiglia della RAM principale

Piccioneviaggiatore
01-07-2013, 14:44
Dal BSOD della presentazione del fu win.... non ricordo,a memoria di uomo,un flop e commenti cosi' negativi come per il lancio della xbox one.Mi sa' dovranno rinforzare gli scaffali...........

omega726
01-07-2013, 14:48
Questi snocciolano percentuali come AMD con le release dei catalyst...."+200% di prestazioni in giochi come...."
Ma per cortesia!

PJivan
01-07-2013, 14:49
lo so che la utilizzava anche la 360 (e anche la WiiU) ma nella 360 c'erano anche i 512MB GDDR3, era il 2005

sono gli sviluppatori che hanno chiesto una architettura meno complicata e MS che fa, aggiunge chip dedicate qua e la per sopperire ai colli di bottiglia della RAM principale

Onestamente ci son sempre stati elogi per la facilità di programmazione con la 360 e benchè apparentemente sia un pò più complessa della ps4 rimane azzardato definirla una consolle ostica su cui sviluppare vista l'esperienza di M nei dev tools, le critiche sono state rivolte alla memoria non unificata che metteva dei limiti insensati ai programmatori e alla complessità del cell

senza contare i primi avvistamenti di Haswell con eDram e chissà forse le nuove gpu di fascia alta amd/nvidia monteranno eDram a bordo (su nvidia ci sono già i primi rumor) per gestire operazioni come alpha blending e AA

Quindi evitiamo di calcare troppo la mano su certe affermazioni se non siamo sviluppatori

Naturalmente dal punto di vista prestazionale GDDR5 era meglio della DDR sotto il punto di vista della banda passante ma il costo sarebbe aumentato ulteriormente cosi come il consumo

MaerliN
01-07-2013, 14:58
Con:

Secondo queste fonti, infatti, la GPU di Xbox One opererà a 800MHz, mentre la frequenza di clock della CPU sarà quella di 1,6 GHz. Si tratta, quindi, di specifiche allineate a quelle di PS4 che, lo ricordiamo, sarà del tutto speculare all'offerta Microsoft riguardo a GPU e CPU.

Intendete solo le frequenze? La GPU di PS4 non aveva una bella fetta in più di stream processors?

PJivan
01-07-2013, 15:06
Dal BSOD della presentazione del fu win.... non ricordo,a memoria di uomo,un flop e commenti cosi' negativi come per il lancio della xbox one.Mi sa' dovranno rinforzare gli scaffali...........

naaa.. leggi qualsiasi news su microsoft che sia dal windows 8 ai tablet e vedrai che il trend non è mai cambiato o se preferisci leggiti le news del lancio della ps3/360 dove c'è microsoft c'è odio

A64FX+DFI nF4
01-07-2013, 15:08
Naturalmente dal punto di vista prestazionale GDDR5 era meglio della DDR sotto il punto di vista della banda passante ma il costo sarebbe aumentato ulteriormente cosi come il consumo

e allora come mai dall'altra parte sono riusciti a mettere 8gb di gddr5 (probabilmente il pezzo più costoso di ps4) e a farla costare ben 100€ in meno
il kinect da solo non può costare tanto,
e il chippone da 5 miliardi di transistor sarà il pezzo più costoso della X1 e da quello che si sa avrà meno potenza bruta sulla carta
qualcosa non torna

mau.c
01-07-2013, 15:13
giuste speculazioni su dati tecnici sulla giusta piattaforma (forum tecnologico). ma quel che conterà alla fine sarà il supporto degli sviluppatori e la velocità di acquisto delle console.
direi che se le differenze tecniche tra le due console sono in questi termini (minime e di difficile individuazione per un "occhio non tecnico"), il prezzo più aggressivo della ps3 potrebbe fare la vera differenza. Il mercato americano sarà ancora a favore di microsoft a mio avviso, mentre ritengo che in europa MS potrebbe perdere terreno e non poco.

scusate se non è molto pertinente

A64FX+DFI nF4
01-07-2013, 15:17
giuste speculazioni su dati tecnici sulla giusta piattaforma (forum tecnologico). ma quel che conterà alla fine sarà il supporto degli sviluppatori e la velocità di acquisto delle console.
direi che se le differenze tecniche tra le due console sono in questi termini (minime e di difficile individuazione per un "occhio non tecnico"), il prezzo più aggressivo della ps3 potrebbe fare la vera differenza. Il mercato americano sarà ancora a favore di microsoft a mio avviso, mentre ritengo che in europa MS potrebbe perdere terreno e non poco.

scusate se non è molto pertinente

in america sarà sicuramente in vantaggio soprattutto per tutti quei servizi tv visti alla conferenza del 21 maggio che da noi non arriveranno mai

PJivan
01-07-2013, 15:33
e allora come mai dall'altra parte sono riusciti a mettere 8gb di gddr5 (probabilmente il pezzo più costoso di ps4) e a farla costare ben 100€ in meno
il kinect da solo non può costare tanto,
e il chippone da 5 miliardi di transistor sarà il pezzo più costoso della X1 e da quello che si sa avrà meno potenza bruta sulla carta
qualcosa non torna

se l'eye costa 60 euro vuoi che il kinect non ne costi 100?

Senza contare i consumi enormemente maggiori della GDDR5 di una consolle che deve sempre stare in stanby per sfruttare l'accensione vocale e istantanea detata dal kineck e la sospensione del kernel...

Ragazzi non è che alla microsoft ci abbiano messo topo gigio a progettare la consolle, si fa presto a dire perchè non ci han messo una 7970...microsoft non ha puntato solo su una consolle da gioco, ha voluto creare una smart tv, una piattaforma multimediale da salotto, dove poter sfogliare internet con la voce etcc e sarà solo per quello che io comprerò anche la xbox one altrimenti ps4 e pc mi sarebbero bastati e avanzati

A64FX+DFI nF4
01-07-2013, 15:47
se l'eye costa 60 euro vuoi che il kinect non ne costi 100?

Senza contare i consumi enormemente maggiori della GDDR5 di una consolle che deve sempre stare in stanby per sfruttare l'accensione vocale e istantanea detata dal kineck e la sospensione del kernel...

Ragazzi non è che alla microsoft ci abbiano messo topo gigio a progettare la consolle, si fa presto a dire perchè non ci han messo una 7970...microsoft non ha puntato solo su una consolle da gioco, ha voluto creare una smart tv, una piattaforma multimediale da salotto, dove poter sfogliare internet con la voce etcc e sarà solo per quello che io comprerò anche la xbox one altrimenti ps4 e pc mi sarebbero bastati e avanzati

ma dove sta scritto che in standby le gddr5 consuma di più delle ddr3

l'eye costa 49€ o 59$, ed è un optional, io farei volentieri a meno dei comandi vocali (la cui efficienza è anche da verificare) per spendere un centone in meno, che è poi quello che sembra farà microsoft scendendo ancora più in basso dei 399 di ps4, un bundle senza il kinect che secondo loro per ora è indispensabile

Duncan
01-07-2013, 15:49
in standby il consumo tra 8GB di DDR3 e GDDR5 in standby è irrilevante, fondamentalmente son architetture di memoria molto più simili di quanto si pensi

El Korki
01-07-2013, 15:53
Con:



Intendete solo le frequenze? La GPU di PS4 non aveva una bella fetta in più di stream processors?

si, 1154 contro 768

anche un occhio non esperto si accorge che è come mettere una 7790 contro una 7870
e i benchmark sono sotto gli occhi di tutti

PJivan
01-07-2013, 16:01
in standby il consumo tra 8GB di DDR3 e GDDR5 in standby è irrilevante, fondamentalmente son architetture di memoria molto più simili di quanto si pensi

Cosa significa irrilevante? quantifica...e sopratutto per chi per te o per le leggi EU?

Obrigado
01-07-2013, 16:02
la ps4 in stand by funziona con un processore ARM.

non si sa ancora se e' un quad o un dual core.

PJivan
01-07-2013, 16:07
la ps4 in stand by funziona con un processore ARM.

non si sa ancora se e' un quad o un dual core.

e taglia la ram.. ma Xbox questo non potrà farlo per ovvie ragioni

A64FX+DFI nF4
01-07-2013, 16:08
Cosa significa irrilevante? quantifica...e sopratutto per chi per te o per le leggi EU?

se c'è molta differenza puoi postare un link che mi interessa

e taglia la ram.. ma Xbox questo non potrà farlo per ovvie ragioni

quali?

Duncan
01-07-2013, 16:12
Cosa significa irrilevante? quantifica...e sopratutto per chi per te o per le leggi EU?

Scusa son 8GB l'unica cosa da fare è tenele alimentate per non perdere idati in memoria nello stato previsto in standby... oltretutto le memorie GDRR funzionano a voltaggi inferiori delle DDR in genere...

PJivan
01-07-2013, 16:19
se c'è molta differenza puoi postare un link che mi interessa



quali?

Scherzi siamo a 2.5W per un modulo da 8GB di DDR3 alcuni anche meno

Per la domanda quali l'ho scritto sopra o guarda come funge lo sleep o kinect... ci volevi un terzo modulo di ram sulla consolle?

Duncan
01-07-2013, 16:30
Poi l'argomento del contendere sta diventando l'accensione della console con la voce e com'è implementato per permettere alla stessa un basso consumo?

A64FX+DFI nF4
01-07-2013, 16:46
Scherzi siamo a 2.5W per un modulo da 8GB di DDR3 alcuni anche meno

Per la domanda quali l'ho scritto sopra o guarda come funge lo sleep o kinect... ci volevi un terzo modulo di ram sulla consolle?

in confronto a quanto?

la modalità sospensione e ripristino della console (quindi il mantenimento della ram) nell'esatto stato in cui era prima di spegnerla c'è anche su ps4, l'unica cosa diversa è che su x1 puoi accenderla anche con il kinect

PJivan
01-07-2013, 17:21
in confronto a quanto?

la modalità sospensione e ripristino della console (quindi il mantenimento della ram) nell'esatto stato in cui era prima di spegnerla c'è anche su ps4, l'unica cosa diversa è che su x1 puoi accenderla anche con il kinect

si parla di 8.7-12W per modulo da 2GB per i moduli a bassissimo consumo samsung

l'unica cosa ha? premere un bottone fisico o elaborare in continuazione i suoni per identificare il comando di accensione è praticamente l'unica differenza

PJivan
01-07-2013, 17:25
Poi l'argomento del contendere sta diventando l'accensione della console con la voce e com'è implementato per permettere alla stessa un basso consumo?

E' normale che cada nel banale... ci son 2 consolle...ognuno compra cio' che gli pare...io per esempio mi prendo entrambe...

Se ne discute sul forum perchè è interessante capire quali soluzioni sono state utilizzate e perchè, ma se invece di chiedersi perchè ci si limita a dire

"buffoni han fatto questo" "ridicoli non c'è quest'altro" il livello della discussione ne risente e diventa una sparata dietro l'altro con l'unico scopo di favorire la consolle che si è scelto di santificare...e quindi diventa solo un sony vs microsoft, gilette vs wilkinson, baby Johnson vs nivea etcc.

Difatti per quanto mi riguarda sto thread finisce qui, tornerò alle speculazioni quando e se si trasformerà in una discussione tecnica

A64FX+DFI nF4
01-07-2013, 17:36
si parla di 8.7-12W per modulo da 2GB per i moduli a bassissimo consumo samsung


in standby? mi sembrano cifre troppo alte, anche per le ddr3, una fonte?

non mi sembra siano stati pubblicati i consumi in standby di nessuna delle due console


l'unica cosa ha? premere un bottone fisico o elaborare in continuazione i suoni per identificare il comando di accensione è praticamente l'unica differenza

non ho capito cosa intendi

calabar
01-07-2013, 18:19
si parla di 8.7-12W per modulo da 2GB per i moduli a bassissimo consumo samsung
Questi valori mi paiono straini.
Le schede AMD con 3GB GDDR5 come la 7950 hanno idle da una decina di watt per tutta la scheda, non sarebbe compatibile con questi consumi (click (http://tpucdn.com/reviews/AMD/HD_7950/images/power_idle.gif)).
Che io sappia quello degli alti consumi in idle delle GDDR5 era un problema delle prime generazioni, ma da allora è migliorato notevolmente.

PJivan
01-07-2013, 18:54
Questi valori mi paiono straini.
Le schede AMD con 3GB GDDR5 come la 7950 hanno idle da una decina di watt per tutta la scheda, non sarebbe compatibile con questi consumi (click (http://tpucdn.com/reviews/AMD/HD_7950/images/power_idle.gif)).
Che io sappia quello degli alti consumi in idle delle GDDR5 era un problema delle prime generazioni, ma da allora è migliorato notevolmente.

Io ho questi altri invece http://www.hardocp.com/article/2012/06/21/amd_radeon_hd_7970_ghz_edition_video_card_review/8#.UdHBIvm1GuY

Se l'idle è eseguito a schermo spento ci credo...difatti come si legge li nell'articolo di cui parli si parla di zero core, ovvero monitor spento la scheda video viene praticamente spenta appunto come indica l'articolo sul sito amd

cito l'articolo "Please note that ZeroCore Power seems to engage only when the screen is completely static. If you have an application running that draws to the screen, the monitor will go black, but the card will not enter the low power state or return from it quickly."

In questo caso la memoria però non può essere disattivata visto che viene utilizzata anche in stanby

A64FX+DFI nF4
01-07-2013, 19:42
l'idle e lo standby sono due cose diverse
la frequenza durante lo standby è molto minore e così anche i consumi

ma specialmente non ho ancora capito all'inizio a cosa ti riferivi sul fatto che le memorie gddr5 consumano di più

in fullload è ovvio
in stanby no
in idle penso dipenda da come vengano gestite, la serie 7000 riduce la frequenza delle ram fino a 150MHz, abbattendo anche i consumi

questo per dire che le due console avranno consumi comparabili in standby, in idle dipenderà da come vengono gestite le risorse e in full load dovrebbe consumare di più ps4 avendo le gddr5 e una gpu più performante, poi il chippone di x1 + kinect potrebbere consumare comunque di più, anche perchè il soc sarà il componente che consuma di più, quello di ps4 dovrebbe avere meno transistor non avendo i 32MB di eSRAM, anche se ha piu unità di calcolo per la gpu

mau.c
01-07-2013, 20:38
in america sarà sicuramente in vantaggio soprattutto per tutti quei servizi tv visti alla conferenza del 21 maggio che da noi non arriveranno mai

mah, quelli per me potrebbero tranquillamente andare in epic fail. non è detto ma è molto probabile, non è che negli usa serva una cosa del genere e certo non per spingere all'acquisto di una console di gioco. quello che cercano è di ampliare la base di utenza ma se alla fine vendono 10 console e un solo gioco per quella feature l'idillio con gli sviluppatori durerà molto poco.
direi che mi pare una mossa tanto per anticipare apple, google o valve e fare parlare della console ad un numero più ampio di testate, una paraculata da marketing perchè la console non ha niente di innovativo veramente, ma la pubblicità si deve attaccare a qualcosa

direi che in USA venderanno comunque meglio perchè la console è già conosciuta, basta vedere i numeri dell'attuale generazione. i servizi live sono apprezzati e chi è salito su una barca non la lascia facilmente, per questo credo che la strategia sony del prezzo basso ha un senso, se non altro evitare di continuare a perdere quote di mercato in USA.

calabar
01-07-2013, 22:23
Io ho questi altri invece http://www.hardocp.com/article/2012/06/21/amd_radeon_hd_7970_ghz_edition_video_card_review/8#.UdHBIvm1GuY
I valori che ho riportato io sono quelli presi con la pinza amperometrica, e quindi quanto più si avvicina a quelli reali.
Questi invece riguardano i consumi dell'intero sistema a monte dell'alimentatore.
Insomma, stiamo parlando di due cose molto differenti.

Se l'idle è eseguito a schermo spento ci credo...difatti come si legge li nell'articolo di cui parli si parla di zero core, ovvero monitor spento la scheda video viene praticamente spenta appunto come indica l'articolo sul sito amd
Ma nel caso dell'Xbox sempre in ascolto il caso si avvicinerebbe molto di più a quello dello "zero core" AMD, che oltretutto riporta un consumo ancora inferiore, ossia pochi watt.

A mio parere in questo caso la scelta delle memorie non è un parametro influente per questa scelta.

Mak002
01-07-2013, 22:51
Innanzitutto ce da correggere l'articolo alla fine una monta una gddr5 e l'altra una ddr3 e non una gddr3 sono molto diverse le cose! All'E3 avevano dev kit in fase di sviluppo e tutt'ora come tali sono cioè in via di sviluppo...quindi non dico che scoprono perché non sapevano, ma che ottimizzano...poi ce da dire che avranno la possibilità di ridurre lo spazio occupato dai 3 sistemi opativi e liberare memoria...comunque informatevi sulle gddr5 si sono veloci ma soffrono di latenze e altre cose di cui non soffrono le ddr3 tra l'altro appunto affiancate da questa esram (Microsoft produce software, quindi essendo la esram probabilmente di un altro produttore, si ce la possibilità che lavorandoci si sono accorti di poter sfruttare più Banda) non so l'età media ma più che ragazzate non si leggono, si parla solo di fail di una piuttosto che dell'altra..sono entrambe ottimi prodotti, io vedo Xbox Noè più orientata al futuro e alla multimedialità, e quindi un prodotto nuovo..mentre la ps4 la vedo una ps3 potenzia e basta, non vedo un qualcosa di innovativo e nuovo, e tra l'altro con molte meno esclusive, ad ogni modo tutto è soggettivi entrambi i prodotti sono spessi solo che una offre delle cose in più che interessano o meno l'altra è una console per giocare punto, non fa altro di nuovo diciamo

Ale1992
02-07-2013, 08:40
Innanzitutto ce da correggere l'articolo alla fine una monta una gddr5 e l'altra una ddr3 e non una gddr3 sono molto diverse le cose! All'E3 avevano dev kit in fase di sviluppo e tutt'ora come tali sono cioè in via di sviluppo...quindi non dico che scoprono perché non sapevano, ma che ottimizzano...poi ce da dire che avranno la possibilità di ridurre lo spazio occupato dai 3 sistemi opativi e liberare memoria...comunque informatevi sulle gddr5 si sono veloci ma soffrono di latenze e altre cose di cui non soffrono le ddr3 tra l'altro appunto affiancate da questa esram (Microsoft produce software, quindi essendo la esram probabilmente di un altro produttore, si ce la possibilità che lavorandoci si sono accorti di poter sfruttare più Banda) non so l'età media ma più che ragazzate non si leggono, si parla solo di fail di una piuttosto che dell'altra..sono entrambe ottimi prodotti, io vedo Xbox Noè più orientata al futuro e alla multimedialità, e quindi un prodotto nuovo..mentre la ps4 la vedo una ps3 potenzia e basta, non vedo un qualcosa di innovativo e nuovo, e tra l'altro con molte meno esclusive, ad ogni modo tutto è soggettivi entrambi i prodotti sono spessi solo che una offre delle cose in più che interessano o meno l'altra è una console per giocare punto, non fa altro di nuovo diciamo

Tralasciando le info tecniche che hai scritto, che per carità possono anche essere giuste (io non me ne intendo molto), mi sembra però che tu sia un pochino di parte, vero che Xbox One sarà un "all in one" mentre ps4 no, ma considera che vengono entrambe vendute come console quindi che le acquista se ne frega di tv e media center (che alcuni non sanno nemmeno cos'è) e la compra solo per giocarci, quindi sminuire una piuttosto che l'altra è una grandissima cavolata. Tornando al topic anche a me sembra che questa sia una delle tante volte in cui un produttore cerca in tutti i modi di riavere la fiducia dei possibili acquirenti, in questo caso si parla di Microsoft (ma non è l'unica con questi atteggiamenti), non metto in dubbio che lavorando su un hardware che non è proprio si possano scoprire nuove possibilità e nuovi modi di sfruttarlo ma ormai credo che sia troppo tardi, l'hardware è quello e di certo non avranno una console migliore grazie a questa cosa che hanno scoperto, tutto è ancora da vedere, e ricordo, a chi parla di potenza e basta, che anche ps3 è nettamente superiore sulla carta ma in quanto ad ottimizzazione era molto al di sotto di xbox; quindi anche stavolta ci sarà da vedere come lavoreranno nel software, visto che ormai l'hardware è deciso.

gildo88
02-07-2013, 09:08
Microsoft è alla frutta, con la presentazione di Xbox one hanno fatto un flop assurdo che ora non sanno più che scusa inventarsi.

Duncan
02-07-2013, 09:53
Innanzitutto ce da correggere l'articolo alla fine una monta una gddr5 e l'altra una ddr3 e non una gddr3 sono molto diverse le cose! All'E3 avevano dev kit in fase di sviluppo e tutt'ora come tali sono cioè in via di sviluppo...quindi non dico che scoprono perché non sapevano, ma che ottimizzano...poi ce da dire che avranno la possibilità di ridurre lo spazio occupato dai 3 sistemi opativi e liberare memoria...comunque informatevi sulle gddr5 si sono veloci ma soffrono di latenze e altre cose di cui non soffrono le ddr3 tra l'altro appunto affiancate da questa esram (Microsoft produce software, quindi essendo la esram probabilmente di un altro produttore, si ce la possibilità che lavorandoci si sono accorti di poter sfruttare più Banda) non so l'età media ma più che ragazzate non si leggono, si parla solo di fail di una piuttosto che dell'altra..sono entrambe ottimi prodotti, io vedo Xbox Noè più orientata al futuro e alla multimedialità, e quindi un prodotto nuovo..mentre la ps4 la vedo una ps3 potenzia e basta, non vedo un qualcosa di innovativo e nuovo, e tra l'altro con molte meno esclusive, ad ogni modo tutto è soggettivi entrambi i prodotti sono spessi solo che una offre delle cose in più che interessano o meno l'altra è una console per giocare punto, non fa altro di nuovo diciamo


La bassa latenza serve nei normali PC perchè sono macchine che permettono di usare diversi programmi in contemporanea, quindi è fondamentare avere questa caratteristica, su una console, anche molto multimediale, social eccetera tutto questo è molto meno sentito, senza contare che ancora non ho letto da nessuna parte la quantità di cache L1, L2 ed eventalemte L3 sulla CPU delle due console, che nel caso di PS4 potrebbe aiutare molto a mitigare il problema latenza delle GDDR5.

Fino a che non le vediamo non sapremo chi ha fatto le scelte più sagge...

ice_v
02-07-2013, 10:16
Dunque, intanto che Don Matrick fa le sue valigie per abbandonare la nave XB1, per motivi che non sapremo mai ma vabbeh... :rolleyes:

M$ continua quasi disperatamente di cercare tenere in piedi la baracca, con scoperte sensazionali dell'ultimo momento...domani scopriremo che in realtà anche la GPU è più prestante di quanto si pensava perchè il die del chip è in grafene ...quindi immaginate che prestazioni da urlo che avrà la XBONE :sofico:

Scherzi a parte questa news non cambia poi più di tanto le carte in tavola, in quanto sta eSRAM, semplicemente non è quello che avevano chiesto i developers:

The monolithic die SoC is simply huge with the inclusion of a large chunk of eSRAM for game developers to manage and squeezing the last bit of performance, through extensive care in the eSRAM utilization to avoid performance degradation. However, judging from the past on the Xbox 360, it will probably just end up as an almost “free” anti-aliasing solution for most of the games, as game developers voiced opposition specifically to this technology to Sony, ultimately driving Sony to completely scratch the idea of using eDRAM for the graphics and instead used a large GDDR5 memory pool with over 176 GB/s bandwidth.

When approaching PS4, Cerny opened the floor to studios on how best to approach Sony’s next processor, “My first tour of the developers, I had a questionnaire where I just asked them their thoughts on what the next generation might bring. The largest piece of feedback we got was that they wanted unified memory.”

Se i devs in generale volevano tanto sto pezzo di eSRAM mirabolante lo avrebbero chiesto anche a Sony, non credete? E il discorso fu ribadito qualche giorno fa' da Cerny: http://www.youtube.com/watch?v=xHXrBnipHyA&t=39m58s

...e lui addirittura parla di performance teoretiche con l'impiego di memoria simile che arrivano fino a 1000Gb/s, altro che 192 GB/s

Lasciando da parte le performance teoriche, che comunque imho si vedranno solo col tempo, e soprattutto solo in uno scenario di agguerrita concorrenza sui titoli, ove ogni macchina cercherà di sfoggiare più eye-candy possibile in modo di attrarre più clientela...all'inizio la grafica sarà piuttosto allineata tra le due console...
Il punto è che nonostante tutto ciò, M$ se ne è sbattuta altamente di tutti quei segnali che i console gamers in generale e la loro xbox fanbase, lanciavano a voce sempre più dissonante su ogni testata/sito/youtube channel riguardante il mondo videoludico

M$ se ne è sbattuta delle critiche prima della prima Conference Press (TV, Sport Cod:Dogs ehm Ghosts)...se ne è sbattuta allegramente dopo...continuando a infischiarsene per l'intero arco dell'E3 e dopo...

Quand'è che hanno fatto marcia indietro?

Quando su Amazon i sondaggi dei pre-ordini hanno toccato il 95% per la PS4...

Cioè quando M$ ha avuto ben chiaro che la possibilità di fare grossi profitti se ne stava andando piano, piano a farsi fottere!

Ora...prima che qualcuno salti addosso alla tastiera a dirmi che fan tutti cosi...che tutte le major company ambiscono solo ai profitti...che anche Sony, o chi per essa, ha solo questo come obbiettivo...Io dico, OK e vero... però... nessuna major si è mai permessa di farlo cosi in faccia e alla luce del sole, con cosi tanta spudoratezza, che sembra quasi che ci stanno pisciando in testa e ci urlano "Tranquillo, è solo pioggia! :)"

Per come la vedo io, chi vuole capire questo comportamento lo capisce, e se ha un po' di sale in zucca si comporta di conseguenza; chi invece vuole acquistare tale prodotto a priori, perchè magari è uno di quelli che ha sempre comprato tutte le console indifferentemente dall'aria che tirava o per motivi di lavoro (youtuber/recensioni/videorecensioni etc), niente da ribattere...però non venite a dirmi che la XB1 e tutto l'ambaradan fattogli sotto ed intorno è solo per il beneficio dell'utente finale e il Gamer con al G maiuscola, perchè non ci credo.

PJivan
02-07-2013, 20:19
Dunque, intanto che Don Matrick fa le sue valigie per abbandonare la nave XB1, per motivi che non sapremo mai ma vabbeh... :rolleyes:

M$ continua quasi disperatamente bla bla bla

Non commento il resto perchè non ho ben capito cosa vuol dire il discorso di obbiettività e tutto ma non posso fare a meno di farti notare che entrambe le consolle hanno la memoria unificata... era la ps3 ad avere 512mb di ram divisi in 256 per cell 256 per gpu mentre la xbox 360 aveva 512 condivisi da sfruttare come volevano...

Le consolle attuali hanno entrambe 8GB, hai fatto un pò di confusione...

calabar
02-07-2013, 20:29
Non commento il resto perchè non ho ben capito cosa vuol dire il discorso di obbiettività e tutto ma non posso fare a meno di farti notare che entrambe le consolle hanno la memoria unificata... era la ps3 ad avere 512mb di ram divisi in 256 per cell 256 per gpu mentre la xbox 360 aveva 512 condivisi da sfruttare come volevano...

Le consolle attuali hanno entrambe 8GB, hai fatto un pò di confusione...
Il fatto è che con questa generazione le parti si sono invertite.

PS3 è complicatissima da programmare, e quelli di Sony, avendo sbattutto il muso su questo errore, hanno deciso con PS4 di tirare fuori un hardware che fosse più semplice possibile per chi sviluppa.

Microsoft invece con la Xbox One ha deciso di utilizzare la edram, che consente di avere una memoria tampone molto veloce, ma al prezzo di un maggiore sforzo da parte di chi programma per sfruttarla.

Morale della favola, a questo giro la PS sembra essere la più semplice da programmare (di quanto poi lo si vedrà col tempo), perchè pensata proprio in quest'ottica.

PJivan
02-07-2013, 20:31
La bassa latenza serve nei normali PC perchè sono macchine che permettono di usare diversi programmi in contemporanea, quindi è fondamentare avere questa caratteristica, su una console, anche molto multimediale, social eccetera tutto questo è molto meno sentito, senza contare che ancora non ho letto da nessuna parte la quantità di cache L1, L2 ed eventalemte L3 sulla CPU delle due console, che nel caso di PS4 potrebbe aiutare molto a mitigare il problema latenza delle GDDR5.

Fino a che non le vediamo non sapremo chi ha fatto le scelte più sagge...

Ma veramente no a parte che il processore non sa quanti programmi girano ma ragiona per thread che sono 8 nel caso della consolle proprio perchè le capacità multi thread sono essenziali per un pc quanto per la consolle e non vedo cosa centri la latenza della ram con il numero dei programmi...

tutte le applicazioni vengono scomposte in in set di istruzioni che vengono eseguite sotto la guida dello scheduler

PJivan
02-07-2013, 20:34
Il fatto è che con questa generazione le parti si sono invertite.

PS3 è complicatissima da programmare, e quelli di Sony, avendo sbattutto il muso su questo errore, hanno deciso con PS4 di tirare fuori un hardware che fosse più semplice possibile per chi sviluppa.

Microsoft invece con la Xbox One ha deciso di utilizzare la edram, che consente di avere una memoria tampone molto veloce, ma al prezzo di un maggiore sforzo da parte di chi programma per sfruttarla.

Morale della favola, a questo giro la PS sembra essere la più semplice da programmare (di quanto poi lo si vedrà col tempo), perchè pensata proprio in quest'ottica.

le cose non stanno come prima... il cell è andato via... la memoria è unificata in entrambe, lavoro nell'ambito dei videogiochi ma non sono un developer quindi non posso dirlo con certezza ma dubito che la complessità della memoria cache aumenti in particolar modo...anche perchè verrà introdotta da intel, nvidia e amd in ambito pc

Duncan
02-07-2013, 20:54
Ma veramente no a parte che il processore non sa quanti programmi girano ma ragiona per thread che sono 8 nel caso della consolle proprio perchè le capacità multi thread sono essenziali per un pc quanto per la consolle e non vedo cosa centri la latenza della ram con il numero dei programmi...

tutte le applicazioni vengono scomposte in in set di istruzioni che vengono eseguite sotto la guida dello scheduler

Certo, ma un conto è avere un gioco in esecuzione con più thread, un altro è avere N programmi diversi in esecuzione su cui fare un completo context switching, se la RAM risponde con latenze eccessive è tutta potenza elaborativa sprecata.

Oltretutto se vogliamo esser precisi dovremmo introdurre anche il concesso di processo oltre che di thread. Ogni programma gira nel suo processo che può essere poi suddiviso in più thread, se lo scheduler passa da un processo ad un'altro richiede un completo cambio di contesto di esecuzione e spesso richiede nuovi accessi alla memoria centrale per recuperare i dati dalle pagine di memoria visto che non può tenere tutto in cache, quindi accessi frequenti e non su aree di memoria contigua, su PC, diversamente da quello che accade su console dove il in genere ci son pochissimi programmi in esecuzione e la maggior prte delle elaborazioni saran fatte dalla GPU con accessi ad aree di memoria sequenziali per elaborare la grafica, se i programmatori son bravi potrebbero pure riuscire ad ottimizzare tutto per far stare la parte essenziale dell'eseguibile del gioco in cache, senza dimenticare che MS e Sony potrebbero aver customizzato pesantemente i Kernel dei SO per assegnare singoli core della CPU ad elaborazioni specifiche, come audio, AI od altro, nelle generazioni precedenti non è stato raro vedere soluzioni simili, cosa impossibile su PC proprio perchè è una macchina general purpose

PJivan
02-07-2013, 21:59
Certo, ma un conto è avere un gioco in esecuzione con più thread, un altro è avere N programmi diversi in esecuzione su cui fare un completo context switching, se la RAM risponde con latenze eccessive è tutta potenza elaborativa sprecata.

Oltretutto se vogliamo esser precisi dovremmo introdurre anche il concesso di processo oltre che di thread. Ogni programma gira nel suo processo che può essere poi suddiviso in più thread, se lo scheduler passa da un processo ad un'altro richiede un completo cambio di contesto di esecuzione e spesso richiede nuovi accessi alla memoria centrale per recuperare i dati dalle pagine di memoria visto che non può tenere tutto in cache, quindi accessi frequenti e non su aree di memoria contigua, su PC, diversamente da quello che accade su console dove il in genere ci son pochissimi programmi in esecuzione e la maggior prte delle elaborazioni saran fatte dalla GPU con accessi ad aree di memoria sequenziali per elaborare la grafica, se i programmatori son bravi potrebbero pure riuscire ad ottimizzare tutto per far stare la parte essenziale dell'eseguibile del gioco in cache, senza dimenticare che MS e Sony potrebbero aver customizzato pesantemente i Kernel dei SO per assegnare singoli core della CPU ad elaborazioni specifiche, come audio, AI od altro, nelle generazioni precedenti non è stato raro vedere soluzioni simili, cosa impossibile su PC proprio perchè è una macchina general purpose

Mha che la cpu di ps4 possa incontrare degli stall o che la latenza della ddr3 non aiuti in un gioco è un argomento che non posso affrontare.. come detto prima non lavoro come developer, ma sicuramente male non fà

calabar
02-07-2013, 22:57
le cose non stanno come prima... il cell è andato via... la memoria è unificata in entrambe, lavoro nell'ambito dei videogiochi ma non sono un developer quindi non posso dirlo con certezza ma dubito che la complessità della memoria cache aumenti in particolar modo...anche perchè verrà introdotta da intel, nvidia e amd in ambito pc
Si appunto, rispetto al Cell la situazione è invertita.
La edram aggiunge complessità, il che oltre ad essere una cosa ovvia e ben ribadita da Cerny come riportato in questo articolo (http://www.gamemag.it/news/sony-ps4-facile-da-programmare-come-la-playstation-originale_47565.html).

@Duncan
Quella divisione tra thread e processi è molto... "scolastica" e non proprio realistica. Comunque in generale condivido il discorso.

ice_v
02-07-2013, 23:17
Non commento il resto perchè non ho ben capito cosa vuol dire il discorso di obbiettività e tutto ma non posso fare a meno di farti notare che entrambe le consolle hanno la memoria unificata... era la ps3 ad avere 512mb di ram divisi in 256 per cell 256 per gpu mentre la xbox 360 aveva 512 condivisi da sfruttare come volevano...

Le consolle attuali hanno entrambe 8GB, hai fatto un pò di confusione...

Oh really:

http://upload.wikimedia.org/wikipedia/commons/a/af/X360bandwidthdiagram.jpg

la PS4 ha 8Gb di memoria unificata GDDR5 (notare la G) la XB1 ha 8Gb di memoria DDR3 e 32mb di memoria eSRAM...XB1 sta usando memoria inferiore per la GPU e cerca di metterci na pezza col chipone di eSRAM...nessuna confusione...forse sei te che non mastichi l'inglese :D

Duncan
03-07-2013, 08:15
Si appunto, rispetto al Cell la situazione è invertita.
La edram aggiunge complessità, il che oltre ad essere una cosa ovvia e ben ribadita da Cerny come riportato in questo articolo (http://www.gamemag.it/news/sony-ps4-facile-da-programmare-come-la-playstation-originale_47565.html).

@Duncan
Quella divisione tra thread e processi è molto... "scolastica" e non proprio realistica. Comunque in generale condivido il discorso.

Da sviluppatore che qualche volta li ha usati sono approcci diversi che hanno i loro pro e contro che vanno valutati nell'ambito d'uso in qui li applichi, oltretutto c'è abbastanza confuzione in merito, anche se thread è una buzz word molto in voga.

PJivan
06-07-2013, 11:00
Oh really:
la PS4 ha 8Gb di memoria unificata GDDR5 (notare la G) la XB1 ha 8Gb di memoria DDR3 e 32mb di memoria eSRAM...XB1 sta usando memoria inferiore per la GPU e cerca di metterci na pezza col chipone di eSRAM...nessuna confusione...forse sei te che non mastichi l'inglese :D


la xbox one ha una memoria cache cosi come la aveva la 360 (che è stata sempre elogiata per facilità di sviluppo)...solo che nella 360 c'eran 10mb... mi spieghi cosa centra la memoria cache con la memoria unificata? fai confusione! e due.....:rolleyes:
forse sei te che non sai manco di che parli

calabar
06-07-2013, 12:59
la xbox one ha una memoria cache cosi come la aveva la 360 (che è stata sempre elogiata per facilità di sviluppo)
Si, ma rispetto alla PS3, che da questo punto di vista era oscena, non in assoluto. ;)

...solo che nella 360 c'eran 10mb... mi spieghi cosa centra la memoria cache con la memoria unificata?
La memoria unificata, tra gli altri vantaggi, ha quello di semplificare la gestione delle memoria per i programmatori.
L'aggiunta di una cache, invece, aggiunge un ulteriore livello di memoria che va gestita, aumentando quindi il livello di complessità.

Capito ora?