View Full Version : [Aspettando] Microsoft Xbox One
tecnologico
29-06-2013, 20:00
prezzo dei giochi da gamestop fixati a 99 euro eccetto kinect sport e un'altro gioco che stavano a 64 euro.
naaaa è un prezzo forfait. appena hanno quelli ufficiali abbassano
oppure è tattica, giochi retail 99, dd 69 :asd:
la vendetta perfetta :asd:
sephiroth_85
29-06-2013, 20:02
speriamo che abbassino. anche perchè i prezzi di quelli x la ps4 sono ufficiali a 69. se mettono i titoli x la one a 99 euro se li possono veramente tenere. a sto giro torno al pc se hanno sti prezzi...
Antonioplay85
29-06-2013, 20:06
giochi a 99€ è una follia non credo che faranno una ca@@ata del genere già ne hanno fatte troppe fino ad ora..
crespo80
29-06-2013, 20:15
ma dove li avete visti quei prezzi?
Su gamestop.it non ci sono giochi per la xbox one
su gamestop.co.uk costano uguale alla PS4
:confused:
The_max_80
29-06-2013, 20:17
naaaa è un prezzo forfait. appena hanno quelli ufficiali abbassano
oppure è tattica, giochi retail 99, dd 69 :asd:
la vendetta perfetta :asd:
:asd: :asd:
sephiroth_85
29-06-2013, 20:18
ma dove li avete visti quei prezzi?
Su gamestop.it non ci sono giochi per la xbox one
su gamestop.co.uk costano uguale alla PS4
:confused:
ieri quando sono andato da gs per sapere cosa era disponibile all'uscita hanno la lista con le date e i relativi prezzi affianco
petru916
29-06-2013, 20:18
ma nella realtà qual' è il giusto compromesso? nel senso, quanto la ram bilancia la velocità della gpu?
Allora c'è da fare un distinguo: la ram classica, quella stile pc, bilancia molto poco, quasi nulla a dire il vero, la velocità della gpu, sicuramente ps4 avendo una memoria condivisa tra cpu e gpu ne beneficierà maggiormente rispetto alle situazioni canoniche. Certo non è una situazione determinante. Ora seguendo i calcoli che sono stati fatti, i 32MB di ram di xbox one sicuramente sgraveranno la gpu dai compiti di output dell'immagine quindi si avrà anche qui un guadagno prestazionale, similmente alle altre configurazioni. Ora quello che fa la differenza è il filtro, chi si ricorda su 360 praticamente ogni gioco aveva un AA almeno a 2x, questo perchè alla fine dei conti l'AA stesso veniva fuori "gratis" grazie all'esram.
crespo80
29-06-2013, 20:21
ieri quando sono andato da gs per sapere cosa era disponibile all'uscita hanno la lista con le date e i relativi prezzi affianco
ma li avranno messi giusto per fregare qualche allocco, non esiste proprio che lo stesso gioco possa avere prezzi diversi per le due console, ma davvero zero!
Al massimo possono farsi un pò di concorrenza sul DD anche se prevedo un allineamento anche qui, ma i dischi al 100% avranno lo stesso prezzo!
sephiroth_85
29-06-2013, 20:29
bhe considera che le versioni dei game attualmente tra ps3 x360 wii wiiu e pc sono diversi anche se multipiatta.
bhe considera che le versioni dei game attualmente tra ps3 x360 wii wiiu e pc sono diversi anche se multipiatta.
Però ms corre contro sony, il resto non conta.
Inviato dal mio GT-N7100 con Tapatalk 2
crespo80
29-06-2013, 20:34
quelli per PC non fanno testo, la wii nemmeno :D ma i giochi multipiattaforma per PS3/X360 hanno prezzi allineati all'uscita, poi è normale che dopo un certo periodo possano fare sconti su una o sull'altra, ma all'uscita mi sembra siano generalmente identici
quelli per PC non fanno testo, la wii nemmeno :D ma i giochi multipiattaforma per PS3/X360 hanno prezzi allineati all'uscita, poi è normale che dopo un certo periodo possano fare sconti su una o sull'altra, ma all'uscita mi sembra siano generalmente identici
Identici all'inizio e calano di prezzo assieme.
Inviato dal mio GT-N7100 con Tapatalk 2
tecnologico
29-06-2013, 20:54
Identici all'inizio e calano di prezzo assieme.
Inviato dal mio GT-N7100 con Tapatalk 2
ad occhio, su auchan, mw e euronics quelli x360 calano prima
petru916
29-06-2013, 21:46
ad occhio, su auchan, mw e euronics quelli x360 calano prima
Quoto, solitamente anche su amazon ci sono prezzi migliori sui giochi x360.
Ale55andr0
29-06-2013, 22:33
quindi per avere aa8x "gratis" sarebbero dovuti essere 64 giusto?
francamente non capirò mai perchè si sostiene che la edram consente di avere un'AA "a gratis", il filtro AA viene applicato sfruttando potenza di calcolo oltre che memoria, è la gpu che sfumando i colori ai bordi dei poligoni smussa l'immagine nei contorni, non vedo che ci azzecchi la edram con l'ottene l'AA senza impatto prestazionale, non è la ram ad applicare fisicamente i filtri, serve a stipare texture e altri dati, non a effettuare calcoli ed elaborazioni che spettano alla gpu
speriamo che abbassino. anche perchè i prezzi di quelli x la ps4 sono ufficiali a 69. se mettono i titoli x la one a 99 euro se li possono veramente tenere. a sto giro torno al pc se hanno sti prezzi...
microsoft ha dichiarato che i suoi giochi costeranno 60 dollari, non credo che i titoli multipiattaforma costino di piu, penso che i prezzi dei giochi rimangono come quelli attuali...
Mr.White83
30-06-2013, 08:02
microsoft ha dichiarato che i suoi giochi costeranno 60 dollari, non credo che i titoli multipiattaforma costino di piu, penso che i prezzi dei giochi rimangono come quelli attuali...
Mi pare che microsoft con questa nuova xbox abbia già fatto diversi sbagli, non credo che i prezzi dei giochi saliranno più di quanto già non lo siano altrimenti veramente le vendite ne risentiranno parecchio
Antonioplay85
30-06-2013, 09:09
http://www.spaziogames.it/images/notizie/2013/6/multi/177918/177918_6.jpg
scusate non ho saputo resistere :asd:
The_max_80
30-06-2013, 11:42
beh se vogliamo fare chiacchiere da bar e costruire un PC Desktop "paragonabile" ad una console next-gen (fatto e finito per l'utente finale, quindi con sistema operativo, assemblaggio, gamepad wireless di qualità) prendendo la PS4 come riferimento (che ha hardware più potente ma non ha il Kinect che ne alza il prezzo), e con i prezzi più bassi della rete, ecco cosa esce fuori :D
case + PSU pcie 6+8p -- 50
mainboard AMD 970 ---- 50
CPU AMD FX-8120 ----- 130
GPU AMD HD7870 2GB -- 160
ram DDR3-2133 8GB ---- 60
hard disk 500GB -------- 40
lettore BluRay ---------- 50
x360 wireless controller-- 40
Windows 8 OEM 64bit --- 70
assembl. e config. Win8-- 50
-------------------------
----------------------- 700
Sono 300 euro in più rispetto ai 400 della PS4, non abbiamo la velocissima ram GDDR5, anche se lato CPU possiamo contare su 8 core decisamente più potenti.
Ovviamente su un PC del genere i giochi gireranno a dettagli molto più bassi delle controparti PS4, perchè non sono ottimizzati nello stesso modo, quindi dovremmo prevedere almeno altri 150 euro per una scheda video HD7970 e il prezzo finale sale a 850 :eek:
Se poi i giochi futuri sfruttassero maggiormente la Vram e ne volessimo QUASI quanto la PS4, dovremmo aggiungere altri 150 euro per una HD7970 6GB GDDR5, per arrivare a 1000 euro!
Direi che il paragone è improponibile!
Sinceramente la cosa posta cosi non ha molto senso . Proprio dal punto di vista tecnico la cosa non quadra.
Beh sono sempre chiacchiere da bar :D è ovvio che non esiste niente sul mercato retail di paragonabile alle APU che AMD ha sviluppato per le due console.
Il mio discorso serviva solo a far notare che se si vuole avere un PC per il multimedia/gaming che abbia features paragonabili alle nuove console, si deve spendere almeno il doppio!
Cosa non ti convince nello specifico?
dico solo una che riguarda il tuo "SE" finale: anche se la ram su ps4 è condivisa cpu-gpu questo non significa che sia utilizzata tutta come vram e che quindi su pc dobbiamo avere 6 gb di ram sulle vga per avere "quasi" le ram della ps4. In vero tanta ram sarà usata su ps4 per gestione sistema, per audio del gioco, per IA del gioco, per fisica del gioco tutte cose che nel pc possono stare tranquillamente nella ram di sistema e non nella ram video. Per cui non c'è mica bisogno di 6 gb di vram per avvicinarsi alle ps4, già con un attuale vga con 3 gb + 4-8 gb di sistema direi che il lavoro che possono fare è simile in termini di quantità di ram. (Non è vero che la "velocissima" ram gddr5 non ci sta su pc, c'è dove serve, sulla vga, il sistema della ram ddr5 non se ne fa nulla, anzi è meno adatta a gestirlo
Te lo sai che l'ultimo metro 2033 per pc uscito a maggio pieno di effetti d11 che vedremo sulle nostre console giocato a ultra mi satura la ram video per 500-700 mb in totale ed è malamente ottimizzato?
Lo sai che se prendi lo stesso metro o il nuovo bioshock e metti settaggi "molto bassi" avrai una resa grafica nettamente migliore delle attuali console e il gioco giro su vga da 4 spiccioli?
I giochi console non sono mai giochi da settaggi alti su un pc, hanno sempre un loro equilibrio , non ti spareranno mai a "ultra" su console, neanche sulle nuove, saranno giochi simili al dettaglio medio su pc(medio sui nuovi giochi si intende, non sugli attuali) + alcuni effetti. Nel costruire un pc x gioco sta cosa si deve tenere in forte considerazione
Poi cmq tutta la cosa ha troppe variabili, spesso hai un sistema solo da aggiornare, non cambi case , ali e via dicendo ogni volta, raramente parti da zero. Molti ti potrebbero dire che del pad non se ne fanno niente e via dicendo e non contiamo che in genere i giochi costano meno e che quindi col pc recuperi di sicuro nel medio periodo e che ancora col pc fai anche altro e ammortizzi il costo
Cmq come dici te so giusto chiacchiere
petru916
30-06-2013, 13:56
francamente non capirò mai perchè si sostiene che la edram consente di avere un'AA "a gratis", il filtro AA viene applicato sfruttando potenza di calcolo oltre che memoria, è la gpu che sfumando i colori ai bordi dei poligoni smussa l'immagine nei contorni, non vedo che ci azzecchi la edram con l'ottene l'AA senza impatto prestazionale, non è la ram ad applicare fisicamente i filtri, serve a stipare texture e altri dati, non a effettuare calcoli ed elaborazioni che spettano alla gpu
http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled/2
Leggi qui, ovviamente l'aa non è gratis prestazionalmente parlando, quantitamente parlando invece si.
Radagast82
01-07-2013, 12:46
qualcuno fa un copia incolla della news sulle migliorie alle prestazioni della memoria di x1?
petru916
01-07-2013, 12:52
Fonte HWUpgrade:
Fonti facenti parte del mondo dello sviluppo di videogiochi hanno detto a Digital Foundry che la memoria ESRAM incorporata in Xbox One avrà prestazioni considerevolmente superiori nella versione definitiva della console rispetto alle unità di pre-produzione (quelle presenti all'E3, per intenderci). Avremo una capacità di trasmissione dei dati fino all'88% superiore nell'hardware definitivo.
L'ESRAM è stata introdotta in Xbox One in modo da sopperire al gap in termini di velocità della memoria che si è venuto a creare nei confronti di PlayStation 4, a causa del fatto che questa usa un pool di 8 GB di DDR5 unificata, contro gli 8 GB di DDR3 di Xbox One. I 32 MB di "embedded static RAM" che si trovano all'interno del processore di Xbox One precedentemente erano stati pensati per sostenere un picco teorico di 102 GB/s, mentre la bandwidth massima teorica di PS4 sarà di 176 GB/s. Adesso, che la versione finale dell'hardware di Xbox One è quasi ultimata, Microsoft dice agli sviluppatori di aver ottenuto un miglioramento verso l'alto per queste specifiche, con una velocità di trasmissione dei dati massima teorica di 192 GB/s.
Secondo quanto riferisce Digital Foundry, i tecnici di Microsoft avrebbero scoperto che l'hardware è capace di eseguire operazioni complesse di lettura e scrittura in contemporanea. Sembra che ci siano "buchi" nella pipeline di elaborazione che possono essere sfruttati per eseguire operazioni supplementari. Le indicazioni sulle prestazioni massime teoriche rimangono indicative, ma secondo il nuovo report dei tecnici Microsoft, Xbox One potrà essere in grado di raggiungere una capacità di trasmissione di 133GB/s grazi.
Voci precedenti sostenevano che Microsoft avrebbe incontrato problemi nella fabbricazione dei moduli di ESRAM, che avevano spinto i tecnici a procedere a un downclock per la GPU, riducendo le capacità complessive di quest'ultima e dilatando il divario tra le prestazioni delle componenti grafiche di Xbox One e di PlayStation 4. Queste voci non sono state confermate, e sembrano contrapporsi alle nuove comunicazioni dei tecnici Microsoft riportate da Digital Foundry.
Secondo queste fonti, infatti, la GPU di Xbox One opererà a 800MHz, mentre la frequenza di clock della CPU sarà quella di 1,6 GHz. Si tratta, quindi, di specifiche allineate a quelle di PS4 che, lo ricordiamo, sarà del tutto speculare all'offerta Microsoft riguardo a GPU e CPU.
Digital Foundry rimarca poi il fatto, che comunque è una costante per ogni nuova console, che all'inizio gli sviluppatori non saranno in grado di sfruttare pienamente l'hardware di Xbox One. Gli strumenti di sviluppo sono ancora in fase di rifinitura e a ogni nuova versione permettono di raggiungere prestazioni sensibilmente superiori. All'E3 sono emerse grosse difficoltà con alcuni giochi, che scendevano anche nettamente al di sotto dei 30 fps, ad esempio Ryse Son of Rome o Dead Rising 3, ma in vista del lancio gli sviluppatori dovrebbero godere di una nuova suite di driver, che permetterà di avere prestazioni più stabili.
Microsoft starebbe pensando in questa fase di implementare tutte le caratteristiche che ha annunciato, e di renderle subito disponibili agli sviluppatori. In una seconda fase, invece, si occuperà delle ottimizzazioni. Le differenze concrete tra le prestazioni delle due console potranno essere valutate solo quando gli sviluppatori si troveranno a lavorare su titoli mult-piattaforma utilizzando degli strumenti di sviluppo maturi.
I tecnici di Xbox One hanno poi detto agli sviluppatori che i 32 MB di ESRAM sono ottimizzati per gestire elementi grafici che richiedono un'ampia bandwidth, come shadowmap, lightmap, depth target e render target. Ma sappiamo come nel caso di Killzone Shadow Fall, ad esempio, vengano utilizzati 800 MB di memoria solo per i render target. Sempre stando a Digital Foundry, Microsoft, dall'altro lato, dovrebbe essere più competitiva sul fronte audio, grazie al chip personalizzato SHAPE (Scalable Hardware Audio Processing Engine), che dovrebbe garantire un ottimo lavoro per l'HD surround.
Ma anche questo consumerà risorse in termini di capacità di elaborazione della CPU. Per cui il discorso sulle prestazioni rimane ancora oscuro: quanto inciderà la presenza di memoria GDDR5 invece che di GDDR3? È questa la domanda principale, alla quale ancora non è possibile dare una risposta, nonostante i proclami di Microsoft dell'ultima ora.
Radagast82
01-07-2013, 13:00
grazie
ste cose però mi puzzano un po'. se il lancio resta previsto a fine novembre, e per lancio intendo disponibilità all'utente finale, hanno ancora il tempo di fare tutte queste modifiche all'hw? e quand'è che mandano tutto in produzione?
sephiroth_85
01-07-2013, 13:01
offerta euronics prenota oggi e ricevi in omaggio un secondo controller con play e charge
petru916
01-07-2013, 13:09
grazie
ste cose però mi puzzano un po'. se il lancio resta previsto a fine novembre, e per lancio intendo disponibilità all'utente finale, hanno ancora il tempo di fare tutte queste modifiche all'hw? e quand'è che mandano tutto in produzione?
Hanno ancora un bel pò di tempo, la produzione su larga scala la cominceranno un paio di mesi prima dell'uscita, e considerando la velocità con cui verranno prodotte (processo a 45nm mi sembra, molto ottimizzato e dalla ottima resa) avranno sicuramente pochi problemi sulle unità distribuite al day1. Secondo me qualche altra modifica la appoeteranno per poi dare la versione definitiva agli sviluppatori solo poco prima, ovviamente qualche margine lo dovranno avere per far si che i giochi day1 siano a posto.
ti mancano alla meglio 2 core ancora :asd:
i7 = 8 core :sofico:
comunque ormai è un anno che non gioco praticamente più su console: i pochi minuti che ho li spendo su steam/d3/sc2 :stordita:
Hanno ancora un bel pò di tempo, la produzione su larga scala la cominceranno un paio di mesi prima dell'uscita, e considerando la velocità con cui verranno prodotte (processo a 45nm mi sembra, molto ottimizzato e dalla ottima resa) avranno sicuramente pochi problemi sulle unità distribuite al day1. Secondo me qualche altra modifica la appoeteranno per poi dare la versione definitiva agli sviluppatori solo poco prima, ovviamente qualche margine lo dovranno avere per far si che i giochi day1 siano a posto.
Non è possibile predisporre un lancio mondiale senza aver iniziato gia da ora a produrre,figuriamoci un altro paio di mesi.
Credo siano
Sono solo marketing rumor (goffi invero) le console sono belle e fatte e gia in produzione, non è possibile sia altrimenti se vengono vendute a novembre.
Hanno ancora un bel pò di tempo, la produzione su larga scala la cominceranno un paio di mesi prima dell'uscita, e considerando la velocità con cui verranno prodotte (processo a 28nm mi sembra, molto ottimizzato e dalla ottima resa) avranno sicuramente pochi problemi sulle unità distribuite al day1. Secondo me qualche altra modifica la appoeteranno per poi dare la versione definitiva agli sviluppatori solo poco prima, ovviamente qualche margine lo dovranno avere per far si che i giochi day1 siano a posto.
Fixed
Non è possibile predisporre un lancio mondiale senza aver iniziato gia da ora a produrre,figuriamoci un altro paio di mesi.
Credo siano
Sono solo marketing rumor (goffi invero) le console sono belle e fatte e gia in produzione, non è possibile sia altrimenti se vengono vendute a novembre.
ma infatti e proprio con le consolle di produzione che si sono accorti che il limite virtuale nei dev kit era sottostimato, non è stato un upgrade semplicemente si sono accorti che ci sono dei buchi nei cicli che possono essere utilizzati, poi le cifre sparate saranno in via teorica e nella migliore delle ipotesi ovviamente come per ogni azienda che snocciola dati sui suoi prodotti, ma quello che dicono è credibile se non si vuol per forza di cose leggere ciò che si vuole
i7 = 8 core :sofico:
comunque ormai è un anno che non gioco praticamente più su console: i pochi minuti che ho li spendo su steam/d3/sc2 :stordita:
boh sono fuori dagli upgrade del pc lo ammetto, ma sul sito intel gli i7 parlano di 4 core / 8 thread.... per i laptop, 6 core per i desktop...
a meno che parli di e7 per i server :D
Ale55andr0
01-07-2013, 13:41
buhi o non buchi, banda o non banda, se la gpu ha davvero il 50& di SP in meno a parità di frequenza non ci sono santi ugualmente... per quanto comunque nei titoli multipiatta come detto, lo standard verrà comunque definito dalla macchina meno potente... salvo decisioni degli sviluppatori di sfuttare la potenza aggiuntiva di una delle due anche su titoli condivisi
buhi o non buchi, banda o non banda, se la gpu ha davvero il 50& di SP in meno a parità di frequenza non ci sono santi ugualmente... per quanto comunque nei titoli multipiatta come detto, lo standard verrà comunque definito dalla macchina meno potente... salvo decisioni degli sviluppatori di sfuttare la potenza aggiuntiva di una delle due anche su titoli condivisi
c'è sicuramente un 33% di potenza bruta in meno se il clock delle GPUs dovesse confermarsi identico
Speriamo...anche se dubito, in un clock di 1ghz anche se avrebbero già annunciato la specifica, avrebbe reso le differenza trascurabili
Mi sembra che molti di voi abbiano le idee un po' confuse sul funzionamento della EDRAM, perciò voglio intervenire con dei chiarimenti sulla questione. Preciso che di mestiere non faccio il programmatore, la mia è semplice conoscenza sull'argomento affrontato 7-8 anni fa all'uscita della XBOX 360, la quale implementava anch'essa la EDRAM. Perciò implico che potrei anche sbagliarmi :D
La EDRAM è una memoria particolare che ha come punti di forza un'altissima bandwidth e la possibilità di essere programmata con delle routine in grado di alterarne il contenuto, ad esempio può essere programmata con un motore di pixel o shader processing, sta poi ai programmatori sfruttarla al meglio e secondo le proprie esigenze. Questa memoria ha quindi la capacità di sgravare quasi totalmente la GPU di diverse operazioni riguardanti il frame buffer, il canale alpha, il buffer Z/stencil e soprattutto l'AA, che è uno dei filtri di post processing più pesanti in assoluto. Non è assolutamente pensata per caricare le texture, cosa che spetta alla normale memoria video che è molto più grande. La XBOX 360 possiedeva solo 10MB di EDRAM in quanto all'epoca in cui fu concepita questa console, integrarne un quantitativo maggiore non era possibile per via del processo produttivo che avrebbe aumentato sensibilmente il costo della console e l'avrebbe fatta consumare e quindi surriscaldare di più. Si decise comunque di mettere questi 10MB con tutti i vantaggi e gli svantaggi che apportavano. I vantaggi li abbiamo appena spiegati, gli svantaggi stanno nel fatto che 10MB sono insufficienti per implementare un 4xAA alla risoluzione standard 1280X720, o meglio è possibile farlo ma bisogna ricorrere a delle scorciatoie quali il cosiddetto "tile rendering" che però è per sua natura più lento e quindi sacrifica maggiori prestazioni sulla GPU a differenza di quando non lo si usa in cui l'impatto sulle prestazioni è veramente di pochi punti % (ecco perché si dice che con la EDRAM l'AA è "free"). Ecco spiegato il motivo per cui, però, i giochi XBOX 360 implementavano spesso un semplice 2xAA (che rientrava perfettamente nei 10MB), in confronto a quelli PS3 che ne erano spesso e malvolentieri completamente sprovvisti o giravano ad una risoluzione inferiore. Un'altra scorciatoia era appunto quella di abbassare un po' la risoluzione in modo da far rientrare tutto in 10MB e poter implementare comunque un 2xAA nei giochi più pesanti (tipo ai tempi utilizzarono questa tecnica con Project Gotham Racing 3). Con XBOX ONE invece la situazione è cambiata, in quanto 32MB di EDRAM sono perfettamente sufficienti ad implementare un 4xAA alla risoluzione 1920x1080. Capiamoci: fin'ora ho parlato solo di AA in quanto è il filtro che maggiormente siamo interessati a vedere implementato in quanto dal più grande impatto visivo, ma potrebbero benissimo implementare altre cose invece dell'AA, tipo l'HDR ecc. ecc.!
Secondo me Microsoft ci ha visto giusto ad implementare i 32MB di EDRAM, faranno veramente la differenza, come l'hanno fatta nei multipiattaforma i 10MB della XBOX 360 nell'attuale generazione, percui io sono completamente a favore della stregia che stanno utilizzando, mi sembra molto bilanciata come console.
petru916
01-07-2013, 15:35
Mi sembra che molti di voi abbiano le idee un po' confuse sul funzionamento della EDRAM, perciò voglio intervenire con dei chiarimenti sulla questione. Preciso che di mestiere non faccio il programmatore, la mia è semplice conoscenza sull'argomento affrontato 7-8 anni fa all'uscita della XBOX 360, la quale implementava anch'essa la EDRAM. Perciò implico che potrei anche sbagliarmi :D
La EDRAM è una memoria particolare che ha come punti di forza un'altissima bandwidth e la possibilità di essere programmata con delle routine in grado di alterarne il contenuto, ad esempio può essere programmata con un motore di pixel o shader processing, sta poi ai programmatori sfruttarla al meglio e secondo le proprie esigenze. Questa memoria ha quindi la capacità di sgravare quasi totalmente la GPU di diverse operazioni riguardanti il frame buffer, il canale alpha, il buffer Z/stencil e soprattutto l'AA, che è uno dei filtri di post processing più pesanti in assoluto. Non è assolutamente pensata per caricare le texture, cosa che spetta alla normale memoria video che è molto più grande. La XBOX 360 possiedeva solo 10MB di EDRAM in quanto all'epoca in cui fu concepita questa console, integrarne un quantitativo maggiore non era possibile per via del processo produttivo che avrebbe aumentato sensibilmente il costo della console e l'avrebbe fatta consumare e quindi surriscaldare di più. Si decise comunque di mettere questi 10MB con tutti i vantaggi e gli svantaggi che apportavano. I vantaggi li abbiamo appena spiegati, gli svantaggi stanno nel fatto che 10MB sono insufficienti per implementare un 4xAA alla risoluzione standard 1280X720, o meglio è possibile farlo ma bisogna ricorrere a delle scorciatoie quali il cosiddetto "tile rendering" che però è per sua natura più lento e quindi sacrifica maggiori prestazioni sulla GPU a differenza di quando non lo si usa in cui l'impatto sulle prestazioni è veramente di pochi punti % (ecco perché si dice che con la EDRAM l'AA è "free"). Ecco spiegato il motivo per cui, però, i giochi XBOX 360 implementavano spesso un semplice 2xAA (che rientrava perfettamente nei 10MB), in confronto a quelli PS3 che ne erano spesso e malvolentieri completamente sprovvisti o giravano ad una risoluzione inferiore. Un'altra scorciatoia era appunto quella di abbassare un po' la risoluzione in modo da far rientrare tutto in 10MB e poter implementare comunque un 2xAA nei giochi più pesanti (tipo ai tempi utilizzarono questa tecnica con Project Gotham Racing 3). Con XBOX ONE invece la situazione è cambiata, in quanto 32MB di EDRAM sono perfettamente sufficienti ad implementare un 4xAA alla risoluzione 1920x1080. Capiamoci: fin'ora ho parlato solo di AA in quanto è il filtro che maggiormente siamo interessati a vedere implementato in quanto dal più grande impatto visivo, ma potrebbero benissimo implementare altre cose invece dell'AA, tipo l'HDR ecc. ecc.!
Secondo me Microsoft ci ha visto giusto ad implementare i 32MB di EDRAM, faranno veramente la differenza, come l'hanno fatta nei multipiattaforma i 10MB della XBOX 360 nell'attuale generazione, percui io sono completamente a favore della stregia che stanno utilizzando, mi sembra molto bilanciata come console.
Bravissimo, è esattamente ciò che lessi tempo addietro e che postai qualche pagina fa. La console è molto bilanciata e sopperirà benissimo alla mancanza di quei cluster disabilitati sul die con la presenza dell'edram. Non scordiamoci che a quanto pare la MS non ha ancora annunciato "ufficialmente" la componentistica di Xbox One e quindi le specifiche finali potrebbero essere allineate verso l'alto.
Però la X1 userà esram con banda da 102GB/s (133GB/s dopo l'ultima "scoperta") e non edram che su 360 aveva banda dichiarata di 256GB/s.
tecnologico
01-07-2013, 15:45
quindi, in linea di massima, la x1 ha meno potenza sulla gpu in origine, mentre ps4 di più ma dato che poi la ps4 dovrà calcolare l' aa (o quello che è) mentre la gpu della x1 no perchè se ne occupa l' edram, la forbice dovrebbe stringersi.
ragionamento corretto?
io ero rimasto a cpu identiche, ma adesso leggo di frequenze più basse per x1...
quindi, in linea di massima, la x1 ha meno potenza sulla gpu in origine, mentre ps4 di più ma dato che poi la ps4 dovrà calcolare l' aa (o quello che è) mentre la gpu della x1 no perchè se ne occupa l' edram, la forbice dovrebbe stringersi.
ragionamento corretto?
io ero rimasto a cpu identiche, ma adesso leggo di frequenze più basse per x1...
No mo non esageriamo...la ram non calcola nulla, semplicemente salva bandwith :D diciamo che la differenza in bandwith dovrebbe essere sopperita sulla carta dalla esram
tecnologico
01-07-2013, 15:54
No mo non esageriamo...la ram non calcola nulla, semplicemente salva bandwith :D diciamo che la differenza in bandwith dovrebbe essere sopperita sulla carta dalla esram
quindi bilancia più o meno la lentezza delle ddr 3? e la gpu inferiore ce la sbattiamo sulla schiena?
alexbands
01-07-2013, 16:01
quindi bilancia più o meno la lentezza delle ddr 3? e la gpu inferiore ce la sbattiamo sulla schiena?
si deve capire bene la differenza tra edram ed esram (che non conosco e non ho voglia di approfondire personalmente :p)
Se funziona come su 360 ed è davvero in grado di sottrarre il calcolo di aliasing ed altri filtri pesanti alla gpu, beh la situazione si bilancia notevolmente... così come su 360 bilanciava la minor potenza della cpu (anche se li c'era la questione del cell sony che non era proprio adatto ai videogames visto come era concepito)
boh sono fuori dagli upgrade del pc lo ammetto, ma sul sito intel gli i7 parlano di 4 core / 8 thread.... per i laptop, 6 core per i desktop...
a meno che parli di e7 per i server :D
infatti è un laptop :sofico:
infatti è un laptop :sofico:
e allora te ne mancano 4 :asd:
quindi bilancia più o meno la lentezza delle ddr 3? e la gpu inferiore ce la sbattiamo sulla schiena?
ma è ufficiale ?
Dove sono le specifiche delle due gpu ?
si deve capire bene la differenza tra edram ed esram (che non conosco e non ho voglia di approfondire personalmente :p)
Se funziona come su 360 ed è davvero in grado di sottrarre il calcolo di aliasing ed altri filtri pesanti alla gpu, beh la situazione si bilancia notevolmente... così come su 360 bilanciava la minor potenza della cpu (anche se li c'era la questione del cell sony che non era proprio adatto ai videogames visto come era concepito)
entrambe possono essere utilizzate per quello scopo :cool:
petru916
01-07-2013, 16:32
Però la X1 userà esram con banda da 102GB/s (133GB/s dopo l'ultima "scoperta") e non edram che su 360 aveva banda dichiarata di 256GB/s.
In realtà è dell'88% in più, ovvero 192 GB/s.
Però la X1 userà esram con banda da 102GB/s (133GB/s dopo l'ultima "scoperta") e non edram che su 360 aveva banda dichiarata di 256GB/s.
Beh, anche la banda dichiarata della EDRAM della 360 era teorica, credo.
Comunque, da quel che ne so io, l'unica differenza fra ESRAM e EDRAM è la die area. La EDRAM costa di più ma occupa molto meno spazio.
alexbands
01-07-2013, 16:54
se così fosse allora davvero può bilanciare anche gli stream processors mancanti... ma non so fino a che punto, non credo sia semplice calcolarlo e/o ipotizzarlo... A questo punto tutto verrà girato alla capacità di programmatori di sfruttare sta cosa (programmatori che già lo fanno per 360, quindi non dovrebbe essere un problema per loro).
Se così fosse potremmo dire che sony è andata su una soluzione più semplice ma più costosa, microsoft su una più efficiente ma meno semplice e più economica lato ram. Sulla storia della cpu a 1,6 ghz personalmente non ci credo...
e allora te ne mancano 4 :asd:
nope, sono 8 con ht e di frequenza ho un gigahertz in più (più il turbo che va a 3ghz+ ) :sofico:
se così fosse allora davvero può bilanciare anche gli stream processors mancanti... ma non so fino a che punto, non credo sia semplice calcolarlo e/o ipotizzarlo... A questo punto tutto verrà girato alla capacità di programmatori di sfruttare sta cosa (programmatori che già lo fanno per 360, quindi non dovrebbe essere un problema per loro).
Si, ma dal lato AA ed alpha blending, secondo i rumors oltre agli stream processors in meno la GPU di X1 ha anche meno ROPS, 16 vs 32 di PS4.
Si, ma dal lato AA ed alpha blending, secondo i rumors oltre agli stream processors in meno la GPU di X1 ha anche meno ROPS, 16 vs 32 di PS4.
non credo ci siano dubbi sulla superiorità GPU sony, sempre che le specifiche microsoft siano confermate, la domanda semmai è come queste differenze si tradurranno al lato pratico...
alexbands
01-07-2013, 17:30
Si, ma dal lato AA ed alpha blending, secondo i rumors oltre agli stream processors in meno la GPU di X1 ha anche meno ROPS, 16 vs 32 di PS4.
ma se anche queste sono cose "aggirabili" con l'utilizzo della esram siam sempre li col discorso....
Fatto sta comunque che le architetture sono differenti quel minimo da non poter dire con certezza se ci saranno delle differenze e a favore di chi ;)
petru916
01-07-2013, 17:50
https://www.youtube.com/watch?v=-I5TEpAnuEg
Questo è molto interessante!
ma se anche queste sono cose "aggirabili" con l'utilizzo della esram siam sempre li col discorso....
Fatto sta comunque che le architetture sono differenti quel minimo da non poter dire con certezza se ci saranno delle differenze e a favore di chi ;)
Fra un pò finisce che sti 32 di ram tolgono la fame dal mondo ;)
A me sembra che si stia cadendo un po nella poca serieta.
non mitizziamo questi 32mb, per favore.
Possono aiutare a scaricare la bandwith ma non di piu.
La ps4 è tecnicamente piu performante e mi pare poco serio pensare che questo accorgimento, se pur in qualche misura migliorativo (siamo seri,marginalmente) possa rendere x1 piu potente.
Con ogni probabilita gpu superiore e memorie piu veloci della ps4 permetteranno multipiatta migliori.
È una ovvietà tecnica se le specifiche sono quelle che si conoscono attualmente. Il resto sono fuffamarketing di recupero.
The_max_80
01-07-2013, 19:09
diciamo che è poco serio pensare qualsiasi cosa perchè qui nessuno ha le competenze ne le informazioni per trarre conclusioni precise.
A me sembra che si stia cadendo un po nella poca serieta.
non mitizziamo questi 32mb, per favore.
Possono aiutare a scaricare la bandwith ma non di piu.
La ps4 è tecnicamente piu performante e mi pare poco serio pensare che questo accorgimento, se pur in qualche misura migliorativo (siamo seri,marginalmente) possa rendere x1 piu potente.
Con ogni probabilita gpu superiore e memorie piu veloci della ps4 permetteranno multipiatta migliori.
È una ovvietà tecnica se le specifiche sono quelle che si conoscono attualmente. Il resto sono fuffamarketing di recupero.
Secondo me non sono gli altri a mitizzare la questione, ma sei tu che stai minimizzando, probabilmente perché non hai sufficienti conoscenze su quello di cui stai parlando. Ti faccio notare come quei 10MB di EDRAM dell'XBOX 360 hanno fatto la differenza (eccome) nell'attuale generazione formata da due console di potenza molto simile.
P.S.: credimi, la mia non è una frecciatina nei tuoi confronti, volevo solo farti notare questa cosa da amante della tecnologia :)
Secondo me non sono gli altri a mitizzare la questione, ma sei tu che stai minimizzando, probabilmente perché non hai sufficienti conoscenze su quello di cui stai parlando. Ti faccio notare come quei 10MB di EDRAM dell'XBOX 360 hanno fatto la differenza (eccome) nell'attuale generazione formata da due console di potenza molto simile.
P.S.: credimi, la mia non è una frecciatina nei tuoi confronti, volevo solo farti notare questa cosa da amante della tecnologia :)
Stai parlando di una situazione completamente differente: la 360 aveva una gpu supriore a ps3 e piu facile da programmare.
In questa gen abbiamo una ps4 superiote tecnicamente in ogni componente (e pare estremamente facile da programmare per via dell'architettura estremamente pulita), credere che la esram possa bilanciare la cosa è semplicemente irrealistico. Non sono un programmatore ma credo di avete abbastanza conoscenze informatiche per asserirlo con serenita, altrimenti tutti a piazzare ste ram e via che non servono piu le gpu potenti.
Secondo me non sono gli altri a mitizzare la questione, ma sei tu che stai minimizzando, probabilmente perché non hai sufficienti conoscenze su quello di cui stai parlando. Ti faccio notare come quei 10MB di EDRAM dell'XBOX 360 hanno fatto la differenza (eccome) nell'attuale generazione formata da due console di potenza molto simile.
P.S.: credimi, la mia non è una frecciatina nei tuoi confronti, volevo solo farti notare questa cosa da amante della tecnologia :)
Dal lato AA la differenza è stata più che evidente :asd:
Ma si è annullata con la trovata del morphological AA ma è stato usato praticamente solo dai team interni sony...
Inviato dal mio GT-N7100 con Tapatalk 2
diciamo che è poco serio pensare qualsiasi cosa perchè qui nessuno ha le competenze ne le informazioni per trarre conclusioni precise.
se uno se ne intende un po' può parlarne per carità, se sbaglia pazienza non se lo mangia nessuno.
ma non voglio leggere post di grandi saggi che sanno tutto e trattano gli altri da scemi perché non è un comportamento che accettiamo qui.
petru916
01-07-2013, 20:00
Stai parlando di una situazione completamente differente: la 360 aveva una gpu supriore a ps3 e piu facile da programmare.
In questa gen abbiamo una ps4 superiote tecnicamente in ogni componente (e pare estremamente facile da programmare per via dell'architettura estremamente pulita), credere che la esram possa bilanciare la cosa è semplicemente irrealistico. Non sono un programmatore ma credo di avete abbastanza conoscenze informatiche per asserirlo con serenita, altrimenti tutti a piazzare ste ram e via che non servono piu le gpu potenti.
Il punto è questo, si sta parlando di una componente che, grazie alla sua notevole flessibilità, può essere un punto a favore nello sviluppo su Xbox. Nessuno, o perlomeno per quanto ho letto, ha detto che farà miracoli o chissà cosa. Semplicemente si sta parlando del fatto che la console potrà avere un filtro AA lossless a 1080p, come su Xbox accadeva a 720p. Se volessi espandere la tua conoscenza sul tiled rendering (su 360 si usa questo metodo per renderizzare con AA) ti posto il ridottissimo articoletto di http://en.wikipedia.org/wiki/Tiled_rendering
che potrai leggere con tutta calma. PS4 fino ad ora sembra avere semplicemente una GPU più potente, e nemmeno si sa di quanto, e con memoria GDDR5 condivisa con il sistema. Sarà sicuramente un punto a favore ma non sarà determinante, sicuramente il più grosso vantaggio ad oggi è la capacità computazione della GPU.
petru916
01-07-2013, 20:03
Dal lato AA la differenza è stata più che evidente :asd:
Ma si è annullata con la trovata del morphological AA ma è stato usato praticamente solo dai team interni sony...
Inviato dal mio GT-N7100 con Tapatalk 2
purtroppo il morphological AA ha una resa nettamente inferiore in termini di qualità visiva e nitidezza. Ecco perchè ogni tanto ci si lamentava dei titoli PS3 più "blurrati" che quelli 360. Pensa che io essendo un possessore Nvidia potrei attivare tranquillamente il TXAA, che ad oggi è la tecnica più avanzata e meno invasiva di AA presente su mercato, eppure resto al mio caro MSAA perchè alla fine si ottiene un'immagine meno nitida rispetto al MSAA stesso. Questione di gusti poi.
petru916
01-07-2013, 20:08
A me sembra che si stia cadendo un po nella poca serieta.
non mitizziamo questi 32mb, per favore.
Possono aiutare a scaricare la bandwith ma non di piu.
La ps4 è tecnicamente piu performante e mi pare poco serio pensare che questo accorgimento, se pur in qualche misura migliorativo (siamo seri,marginalmente) possa rendere x1 piu potente.
Con ogni probabilita gpu superiore e memorie piu veloci della ps4 permetteranno multipiatta migliori.
È una ovvietà tecnica se le specifiche sono quelle che si conoscono attualmente. Il resto sono fuffamarketing di recupero.
Chiedo scusa per il multipost ma ho letto solo adesso. La poca serietà dove starebbe? Io perlomeno sto argomentando tutte le mie idee con articoli e fonti online, al contrario di te. Nessuno qui si è assolutamente immaginato di dire che la Xbox è più potente, stiamo semplicemente ragionando su delle possibilità tecniche di un componente del sistema, che problema c'è? Se ti da fastidio puoi evitare di accusarci di essere poco seri e andare in altri thread che ti piacciono di più. Sicuramente i multipiattaforma saranno migliori su PS4 come in questa gen lo sono stati su 360, non vedo quale sia il problema. Non ho nulla contro di te e rispetto il tuo parere, solo ti consiglio di evitare di dare dei "poco seri" così a casaccio, grazie.
purtroppo il morphological AA ha una resa nettamente inferiore in termini di qualità visiva e nitidezza. Ecco perchè ogni tanto ci si lamentava dei titoli PS3 più "blurrati" che quelli 360.
Mah non mi pare, prendi ad es. gow3 è uno dei primi titoli ad usarlo ed è uno spettacolo sul piano visivo.
Cmq visto che il morphological AA è supportato dalle gpu amd, chissà che uso ne faranno su console...
Inviato dal mio GT-N7100 con Tapatalk 2
petru916
01-07-2013, 20:25
Mah non mi pare, prendi ad es. gow3 è uno dei primi titoli ad usarlo ed è uno spettacolo sul piano visivo.
Cmq visto che il morphological AA è supportato dalle gpu amd, chissà che uso ne faranno su console...
Inviato dal mio GT-N7100 con Tapatalk 2
Io ricordo in effetti che avendo giocato a GoW 3 e a KZ3 la mia immagine era leggermente sfocata, potrei anche sbagliarmi o ricordare male a questo punto. Che poi come resa a quanto leggo è molto simile all'FXAA. Forse per quello mi sembrava un pò sfocato.
Obrigado
01-07-2013, 20:30
Il punto è questo, si sta parlando di una componente che, grazie alla sua notevole flessibilità, può essere un punto a favore nello sviluppo su Xbox. Nessuno, o perlomeno per quanto ho letto, ha detto che farà miracoli o chissà cosa. Semplicemente si sta parlando del fatto che la console potrà avere un filtro AA lossless a 1080p, come su Xbox accadeva a 720p. Se volessi espandere la tua conoscenza sul tiled rendering (su 360 si usa questo metodo per renderizzare con AA) ti posto il ridottissimo articoletto di http://en.wikipedia.org/wiki/Tiled_rendering
che potrai leggere con tutta calma. PS4 fino ad ora sembra avere semplicemente una GPU più potente, e nemmeno si sa di quanto, e con memoria GDDR5 condivisa con il sistema. Sarà sicuramente un punto a favore ma non sarà determinante, sicuramente il più grosso vantaggio ad oggi è la capacità computazione della GPU.
ma guarda senza troppi giri di parole.
s'e' capito che la ps4 e' meglio in tutto
e s'e' capito pure che microsoft ha fatto le cose sottovalutando la forza della disperaizone di sony.... che in questo caso ha trasformato una sezione gaming in declino in un rientro in scena portentoso!
petru916
01-07-2013, 20:35
ma guarda senza troppi giri di parole.
s'e' capito che la ps4 e' meglio in tutto
Molto bene, quindi? Possiamo chiudere il thread? A me la console war interessa molto molto poco. Cosa ti aspetti che ti risponda se non un "bravo"?
Obrigado
01-07-2013, 20:39
Molto bene, quindi? Possiamo chiudere il thread? A me la console war interessa molto molto poco. Cosa ti aspetti che ti risponda se non un "bravo"?
figurati...
e' solo per dire che tra poco a parole un asino diventa un cavallo e viceversa...
potete continuare a fare discorsi di sto tipo: se in casa ho due prese da 220v e le unisco vuol dire che avro' 440v!!!!!
GRANNNDDEEEE!!!
in generale vedo somme di banda che fanno rabbrividire...
alexbands
01-07-2013, 20:44
Qua si sta discutendo, pacificamente e argomentando, delle possibilità della esram. Nessuno ha sparato che sarà la panacea di tutti i mali, e quindi sarebbe gradito altrettanto che nessuno sparasse cose del tipo tanto non risolve niente, ps4 è meglio. Ed evitiamo di aggettivare come poco seri discorsi di persone di cui magari non si conoscono le competenze.
petru916
01-07-2013, 20:44
figurati...
e' solo per dire che tra poco a parole un asino diventa un cavallo e viceversa...
Ma perdonami, se si sta parlando di una componente della console che può essere utile alla qualità grafica è un male? Se ho detto qualche castroneria me ne dispiaccio, molto anche. Ma sto argomentando quello che so con quello che ho. Se poi non va bene nemmeno così è ok, smetto di scrivere, ma mi pare di non aver mai detto che Xbox sia più potente di PS4 nè tantomeno che l'esram possa fare miracoli. Si sta parlando di una situazione che è venuta a presentarsi con la 360 e che potrebbe ipoteticamente ripresentarsi su One con tutti i benefici del caso. Se poi c'è qualcuno che è in possesso della verità assoluta che dice che PS4 è meglio in tutto e per tutto per tutti allora domani vado al gamestop sposto i miei soldi su PS4, tanto non me lo vieta nessuno. Venire qui, nel thread di una cosa che si è capito non ti interessa, a dire "tanto lo sappiamo che la maionese è più buona del ketchup" è controproducente per te prima che per gli altri. E ripeto, io non ho niente contro nessun utente, per l'amor di Dio.
petru916
01-07-2013, 20:45
Qua si sta discutendo, pacificamente e argomentando, delle possibilità della esram. Nessuno ha sparato che sarà la panacea di tutti i mali, e quindi sarebbe gradito altrettanto che nessuno sparasse cose del tipo tanto non risolve niente, ps4 è meglio. Ed evitiamo di aggettivare come poco seri discorsi di persone di cui magari non si conoscono le competenze.
Quoto.
petru916
01-07-2013, 20:48
figurati...
e' solo per dire che tra poco a parole un asino diventa un cavallo e viceversa...
potete continuare a fare discorsi di sto tipo: se in casa ho due prese da 220v e le unisco vuol dire che avro' 440v!!!!!
GRANNNDDEEEE!!!
in generale vedo somme di banda che fanno rabbrividire...
"somme di banda"? Dove, di grazia?
Obrigado
01-07-2013, 20:52
"somme di banda"? Dove, di grazia?
si del tipo che si somma la banda della ram di sistema con la banda della esram della gpu.
le cose non funzionano cosi...
cmq per correttezza (visto che oggi leggevo inesattezze sulla vecchia xbox)
ecco la banda della edram della 360 vs la esram della one
http://s2.postimg.org/46p62c0tl/Cattura.png
si del tipo che si somma la banda della ram di sistema con la banda della esram della gpu.
le cose non funzionano cosi...
cmq per correttezza (visto che oggi leggevo inesattezze sulla vecchia xbox)
ecco la banda della edram della 360 vs la esram della one
http://s2.postimg.org/46p62c0tl/Cattura.png
Hai ragione :asd: qualche pirla ha scritto 256GB/s invece di 256Gb/s (32GB/s) e l'ho riportato senza nemmeno controllare, me ne sono accorto pochi minuti fa...
Inviato dal mio GT-N7100 con Tapatalk 2
Mah non mi pare, prendi ad es. gow3 è uno dei primi titoli ad usarlo ed è uno spettacolo sul piano visivo.
Cmq visto che il morphological AA è supportato dalle gpu amd, chissà che uso ne faranno su console...
Inviato dal mio GT-N7100 con Tapatalk 2
Il MLAA è qualitativamente parlando abbastanza scadente in quanto non riesce a "distinguere" le geometrie della scena, semplicemente applica un effetto blur (=SFOCATURA) nelle zone ad alto contrasto e, per forza di cose, intacca anche le texture. Ho avuto modo di vederlo su PS3 e di provarlo su PC in quanto possiedevo una HD6850 e ora ho una HD7970, ad esempio in The Witcher e la differenza con, ad esempio, il MSAA è abissale (in favore di quest'ultimo). IMHO anche se si ha un impatto minore sulle prestazioni, il gioco non vale la candela, è proprio scadente. Probabilmente tu non ti sei reso conto della cosa in God of War 3 perché, essendo un gioco console, non hai potuto disattivarlo e provare il suddetto gioco in tutta la sua nitidezza :D. Se hai un PC con scheda video AMD ti consiglio di provarlo per renderti conto.
petru916
01-07-2013, 20:59
Ti ringrazio per l'immagine esplicativa che mette in luce le differenze tra 360 e One, ma dal canto mio non ho mai fatto somme di banda del genere. Semplicemente si parlava di questa fantomatica esram a 102GB/s che a quanto pare può leggere e scrivere in parallelo, il che aumenta la banda circa dell'88% (sempre a quanto ho letto, anche su HWUpgrade) e quindi il totale arriverebbe a essere 192GB/s (sempre dall'articoletto nel riquadro blu sopra). Se dovessi aver sommato bande di memoria dedicata con bande di memoria di sistema me ne scuso, ma sinceramente non ricordo di averlo fatto. Ti ringrazio comunque di aver precisato questo aspetto.
Credo sia inutile dire che la eSRAM possa in qualche modo sopperire alla mancanza delle CU e dei ROP nella scheda video della 360 (credo invece che la velocità della memoria possa essere parzialmente compensata, visto che secondo me comunque non farà tutta sta differenza).
Mi preoccuperei più del fatto che, essendo i giochi multipiattaforma, saranno sviluppati per il minimo comune denominatore, per non parlare del fatto che il processore comunque è lo stesso, il che un po' limita. Probabilmente la PS4 al limite riceverà qualche effetto di ombre migliore o forse qualche filtro più pesante. La differenza la vedremo sulle esclusive - ma quante ce ne saranno, a parte i titoli first-party? Gli indie in genere non sono dei mostri di grafica...
Dal lato AA la differenza è stata più che evidente :asd:
Ma si è annullata con la trovata del morphological AA ma è stato usato praticamente solo dai team interni sony...
Inviato dal mio GT-N7100 con Tapatalk 2
Attenzione, che nonostante il MLAA in particolare sia stato applicato quasi solo dalla Sony e qualcun altro, il suo sostanziale equivalente della Nvidia (FXAA) è stato usato invece in una moltitudine di giochi usciti dopo il 2011, sia su PS3 che su 360.
Che ci piaccia o no, ai programmatori l'idea di un antialiasing in post-processing risulta più gradevole di quella del MSAA, visto che richiede molto meno in termini di risorse.
Poi è chiaro che, essendo PS4 e X1 più potenti, volendo potrebbero anche usare di nuovo l'MSAA. Ma se guardi, vedrai che perfino su PC molti giochi hanno cominciato ad usare solo l'FXAA come metodo. Credo che sia facile vedere dove sta andando il futuro...
Obrigado
01-07-2013, 21:13
Ti ringrazio per l'immagine esplicativa che mette in luce le differenze tra 360 e One, ma dal canto mio non ho mai fatto somme di banda del genere. Semplicemente si parlava di questa fantomatica esram a 102GB/s che a quanto pare può leggere e scrivere in parallelo, il che aumenta la banda circa dell'88% (sempre a quanto ho letto, anche su HWUpgrade) e quindi il totale arriverebbe a essere 192GB/s (sempre dall'articoletto nel riquadro blu sopra). Se dovessi aver sommato bande di memoria dedicata con bande di memoria di sistema me ne scuso, ma sinceramente non ricordo di averlo fatto. Ti ringrazio comunque di aver precisato questo aspetto.
guarda non sto dicendo che lo hai detto tu, ma lo dicono in molti...
schematizzando le componenti (molto alla carlona) ti renderai conto che un elemento per per stare sulla velocissima esram deve passare dalla ram di sistema che sempre 68gb/s sono.
http://s8.postimg.org/p8sk0c9cl/Cattura1.png
quindi verra' usata per avere antialiasing quasi free come fu usata sulla 360!
Crashman
01-07-2013, 21:17
Rispondo ad un po' di cose velocemente
innanzitutto molti di voi hanno le idee un po' confuse su come funziona l'aa
in spicci, per creare un'immagine il pixel viene campionato dal poligono, mentre in frame senza aa ogni pixel viene campionato una volta, con l'aa viene campionato più volte in posizioni lievemente diverse (ci sono vari pattern), quindi lo stesso pixel viene copiato non 1 ma 4 volte (nel caso dell'aa 4x) all'interno del frame buffer e poi interpolato per arrivare ad un unico pixel che è la media dei 4 (ovviamente come colore). Ecco perchè la bandwidth è un fattore così critico.
Detto questo, la ps4 ad ampiezza di banda se la cava benissimo anche senza esram (rispondo in parentesi ad un'altra cosa non corretta che avevo letto: no, è la esram che costa di più della edram, perchè appunto è una memoria statica) e quindi se la caverà egregiamente anche con l'AA.
Poi ho dimenticato a cos'altro dovevo rispondere :D
Yngwie74
01-07-2013, 21:18
figurati...
e' solo per dire che tra poco a parole un asino diventa un cavallo e viceversa...
potete continuare a fare discorsi di sto tipo: se in casa ho due prese da 220v e le unisco vuol dire che avro' 440v!!!!!
GRANNNDDEEEE!!!
in generale vedo somme di banda che fanno rabbrividire...
Forse non ci siamo capiti.
O cambi modo di interfacciarti con gli altri utenti, o continuerai ad avere periodi di vacanza sempre piu' prolungati.
5GG di sospensione.
Il MLAA è qualitativamente parlando abbastanza scadente in quanto non riesce a "distinguere" le geometrie della scena, semplicemente applica un effetto blur (=SFOCATURA) nelle zone ad alto contrasto e, per forza di cose, intacca anche le texture. Ho avuto modo di vederlo su PS3 e di provarlo su PC in quanto possiedevo una HD6850 e ora ho una HD7970, ad esempio in The Witcher e la differenza con, ad esempio, il MSAA è abissale (in favore di quest'ultimo). IMHO anche se si ha un impatto minore sulle prestazioni, il gioco non vale la candela, è proprio scadente. Probabilmente tu non ti sei reso conto della cosa in God of War 3 perché, essendo un gioco console, non hai potuto disattivarlo e provare il suddetto gioco in tutta la sua nitidezza :D. Se hai un PC con scheda video AMD ti consiglio di provarlo per renderti conto.
In gow3 l'unico effetto di sfocatura si ha girandosi velocemente o correndo, ma credo sia voluto, succede un po' in tutti i giochi, rimanendo fermi invece non ricordo di texture slavate o altre imperfezioni.
Eh no, su pc sono legato ad nvidia, non ho mai avuto una ati o amd (nemmeno sui notebook) l'unica gpu non nvidia che possiedo è quella della 360 :asd:
Inviato dal mio GT-N7100 con Tapatalk 2
petru916
01-07-2013, 21:19
Credo sia inutile dire che la eSRAM possa in qualche modo sopperire alla mancanza delle CU e dei ROP nella scheda video della 360 (credo invece che la velocità della memoria possa essere parzialmente compensata, visto che secondo me comunque non farà tutta sta differenza).
Mi preoccuperei più del fatto che, essendo i giochi multipiattaforma, saranno sviluppati per il minimo comune denominatore, per non parlare del fatto che il processore comunque è lo stesso, il che un po' limita. Probabilmente la PS4 al limite riceverà qualche effetto di ombre migliore o forse qualche filtro più pesante. La differenza la vedremo sulle esclusive - ma quante ce ne saranno, a parte i titoli first-party? Gli indie in genere non sono dei mostri di grafica...
Attenzione, che nonostante il MLAA in particolare sia stato applicato quasi solo dalla Sony e qualcun altro, il suo sostanziale equivalente della Nvidia (FXAA) è stato usato invece in una moltitudine di giochi usciti dopo il 2011, sia su PS3 che su 360.
Che ci piaccia o no, ai programmatori l'idea di un antialiasing in post-processing risulta più gradevole di quella del MSAA, visto che richiede molto meno in termini di risorse.
Poi è chiaro che, essendo PS4 e X1 più potenti, volendo potrebbero anche usare di nuovo l'MSAA. Ma se guardi, vedrai che perfino su PC molti giochi hanno cominciato ad usare solo l'FXAA come metodo. Credo che sia facile vedere dove sta andando il futuro...
Quoto assolutamente ogni parola, la esram non potrà sopperire alle mancanze della GPU, ma sicuramente apporterà benefici (quanto notevoli non si saprà fino all'uscita delle nuove console) alla resa su Xbox. Quoto anche la parte sull' FXAA, e aggiungo un "purtroppo", in quanto a me l'FXAA non piace per niente, proprio come il TXAA in quanto blurrano oltremodo l'immagine. Il discorso di Malek oltretutto è riscontrabile prendendo qualsiasi gioco di un anno fa o meno, ormai sono tutti livellati su FXAA, pochi usano sia FXAA che MSAA (in particolar modo BF3), alcuni addirittura usano differente livelli di FXAA o passano direttamente al Supersampling che è pesante all'inverosimile, anche se di una bellezza allucinante. L'ultimo Tomb Raider dovrebbe essere un perfetto esempio.
petru916
01-07-2013, 21:24
In gow3 l'unico effetto di sfocatura si ha girandosi velocemente o correndo, ma credo sia voluto, succede un po' in tutti i giochi, rimanendo fermi invece non ricordo di texture slavate o altre imperfezioni.
Eh no, su pc sono legato ad nvidia, non ho mai avuto una ati o amd (nemmeno sui notebook) l'unica gpu non nvidia che possiedo è quella della 360 :asd:
Inviato dal mio GT-N7100 con Tapatalk 2
Quello è motion blur, è voluto per mitigare i rallentamenti percepiti sotto le 30 immagini al secondo. Quello che noterai se fai una ricerca velocissima su google, è che solitamente su ps3 abbiamo una resa più "blurrata" proprio come qualità visiva. Ciò non toglie che lavori come GoW3 siano spettacolari, ma personalmente mi da un po' fastidio, tutto qui, è proprio una mia preferenza.
Quello è motion blur, è voluto per mitigare i rallentamenti percepiti sotto le 30 immagini al secondo.
Si certo ma viene inserito anche dove le magagne non ci sono (vedi uncharted 2 o 3 o lo stesso gow, che girano a 30fps fissi) anche per dare un senso di velocità all'azione.
Inviato dal mio GT-N7100 con Tapatalk 2
miriddin
01-07-2013, 21:38
Ma riguardo al Gold, ed in considerazione dell'impossibilità di utilizzare i giochi XBox 360 sulla nuova XBox One, sarà possibile abbinare entrambe le console allo stesso profilo?
vabbeh, qua mi sa che in ms hanno completamente perso la testa
http://kotaku.com/the-man-in-charge-of-xbox-is-leaving-microsoft-635426652
non so, per sfortuna hanno già cominciato la produzione... altrimenti sarebbe stato meglio assumere qualcuno che i giochi li fa (tipo qualcuno di epic/id che ne sappia a pacchi) e riprogettare la cosa :muro: :rolleyes:
petru916
01-07-2013, 21:52
vabbeh, qua mi sa che in ms hanno completamente perso la testa
http://kotaku.com/the-man-in-charge-of-xbox-is-leaving-microsoft-635426652
non so, per sfortuna hanno già cominciato la produzione... altrimenti sarebbe stato meglio assumere qualcuno che i giochi li fa (tipo qualcuno di epic/id che ne sappia a pacchi) e riprogettare la cosa :muro: :rolleyes:
Riprogettare cosa, la console? Per quanto Mattrick mi stia antipatico, non riesco a comprendere quale sarebbe il nesso tra Mattrick stesso e l'hw di Xbox. Qualche testa doveva sicuramente saltare dopo l'orrenda campagna di marketing di MS, lui ha già un altro contratto con Zynga bello che pronto. Chiamalo scemo ;)
vabbeh, qua mi sa che in ms hanno completamente perso la testa
http://kotaku.com/the-man-in-charge-of-xbox-is-leaving-microsoft-635426652
non so, per sfortuna hanno già cominciato la produzione... altrimenti sarebbe stato meglio assumere qualcuno che i giochi li fa (tipo qualcuno di epic/id che ne sappia a pacchi) e riprogettare la cosa :muro: :rolleyes:
è l'unica cosa normale che han fatto dalla presentazione della consolle, ha fatto cazzate e ne ha pagato le conseguenze.
che c'entra l'hardware scusa?
giubox360
01-07-2013, 22:10
Sapremo quale delle due console è davvero più potente quando uscirà la nuova IP di Epic games con UE 4, e se faranno un'esclusiva, temporale o non...io credo che stavolta se la becca prioprio la Sony!:sofico:
Raga non tanto per fare il fanboy, alla fine la ps 4, se superiore, non lo sarà di moltissimo, ma concedetemelo...per quanto riguarda xbox One...se prendo un Case mini ATX e ci scor**ggio sopra...esce fuori un hardware migliore!! :asd: :D
petru916
01-07-2013, 22:17
Storicamente Epic è legata a MS, anche se a dire la verità non so quali siano i loro legami contrattuali dopo la fine della saga di Gears. Sicuramente non lavorano solo sulla console più potente. Il loro engine comunque sarà come sempre multipiattaforma e molto diffuso tra i giochi multi. Come diceva un utente qualche post addietro, credo che le differenze reali tra One e PS4 saranno nei dettagli difficilmente visibili. Vedremo col tempo come sempre.
giubox360
01-07-2013, 22:21
Storicamente Epic è legata a MS, anche se a dire la verità non so quali siano i loro legami contrattuali dopo la fine della saga di Gears. Sicuramente non lavorano solo sulla console più potente. Il loro engine comunque sarà come sempre multipiattaforma e molto diffuso tra i giochi multi. Come diceva un utente qualche post addietro, credo che le differenze reali tra One e PS4 saranno nei dettagli difficilmente visibili. Vedremo col tempo come sempre.
A me però, il fatto che a febbraio è uscita una demo di UE 4 sull'hardware di PS4 mi lascia intuire qualcosa..te non credi? ;)
Io su xbox one ancora sono perplesso che ci possano girare almeno @30 fps le loro famose esclusive del dayone...:sofico:
Il punto è questo, si sta parlando di una componente che, grazie alla sua notevole flessibilità, può essere un punto a favore nello sviluppo su Xbox. Nessuno, o perlomeno per quanto ho letto, ha detto che farà miracoli o chissà cosa. Semplicemente si sta parlando del fatto che la console potrà avere un filtro AA lossless a 1080p, come su Xbox accadeva a 720p. Se volessi espandere la tua conoscenza sul tiled rendering (su 360 si usa questo metodo per renderizzare con AA) ti posto il ridottissimo articoletto di http://en.wikipedia.org/wiki/Tiled_rendering
che potrai leggere con tutta calma. PS4 fino ad ora sembra avere semplicemente una GPU più potente, e nemmeno si sa di quanto, e con memoria GDDR5 condivisa con il sistema. Sarà sicuramente un punto a favore ma non sarà determinante, sicuramente il più grosso vantaggio ad oggi è la capacità computazione della GPU.
Ti ringrazio per le fonti, le leggerò con interesse. :)
petru916
01-07-2013, 23:00
Mah non lo so, credo che in ogni caso faranno qualcosa multi al massimo, con il solo Gears hanno venduto caterve di giochi e han fatto vendere caterve di 360. Vediamo cosa tireranno fuori, o forse ancora si limiteranno allo sviluppo di license dell'UE4, ovvero si limiteranno a venderlo, un pò come hanno sempre fatto. In ogni caso stanno spingendo molto su mobile vista l'importanza ormai di giochi alla Infinity Blade. Ripeto, vediamo quali mosse hanno in testa, anche se dubito che MS non li copra d'oro per mantenere l'esclusiva, insieme a Remedy sono quelli di maggior talento come esclusive MS.
alexbands
01-07-2013, 23:16
Ma riguardo al Gold, ed in considerazione dell'impossibilità di utilizzare i giochi XBox 360 sulla nuova XBox One, sarà possibile abbinare entrambe le console allo stesso profilo?
si su entrambe le console nuove gli account saranno ereditati e condivisi rispettivamente con 360 e ps3 (e psvita nel caso di sony)
vabbeh, qua mi sa che in ms hanno completamente perso la testa
http://kotaku.com/the-man-in-charge-of-xbox-is-leaving-microsoft-635426652
non so, per sfortuna hanno già cominciato la produzione... altrimenti sarebbe stato meglio assumere qualcuno che i giochi li fa (tipo qualcuno di epic/id che ne sappia a pacchi) e riprogettare la cosa :muro: :rolleyes:La vera domanda è: da chi verrà sostituito? Molti dicono Phil Spencer, in effetti sembrerebbe il più indicato poiché alcune delle ultime dichiarazioni/interviste M$, se non prevenivano da Mattrick, erano proprio sue. Non scordiamoci tuttavia di Harrison, che potrebbe benissimo concorrere anche lui al medesimo posto.
Rispondo ad un po' di cose velocemente
innanzitutto molti di voi hanno le idee un po' confuse su come funziona l'aa
in spicci, per creare un'immagine il pixel viene campionato dal poligono, mentre in frame senza aa ogni pixel viene campionato una volta, con l'aa viene campionato più volte in posizioni lievemente diverse (ci sono vari pattern), quindi lo stesso pixel viene copiato non 1 ma 4 volte (nel caso dell'aa 4x) all'interno del frame buffer e poi interpolato per arrivare ad un unico pixel che è la media dei 4 (ovviamente come colore). Ecco perchè la bandwidth è un fattore così critico.
Detto questo, la ps4 ad ampiezza di banda se la cava benissimo anche senza esram (rispondo in parentesi ad un'altra cosa non corretta che avevo letto: no, è la esram che costa di più della edram, perchè appunto è una memoria statica) e quindi se la caverà egregiamente anche con l'AA.
Poi ho dimenticato a cos'altro dovevo rispondere :D
Uhm, allora l'articolo qui è sbagliato?
http://en.wikipedia.org/wiki/EDRAM
Ma qual'è il vantaggio, in termini reali per la console, di usare DRAM invece che SRAM?
Per quanto riguarda l'AA, in ogni caso richiede un certo livello di risorse, no? Non credo sia solo una questione di banda. Su PC le schede video hanno ampiezza di banda superiore alla PS4, ma l'AA non è comunque leggero.
http://www.outcast.it/uploads/2013/07/image-1.jpg
:rotfl: :rotfl:
ed ecco il sostituto di Don...
disco solo:
developers developers developers developers developers developers developers developers developers developers
:asd:
sarà solo ad interim eh :D
alexbands
02-07-2013, 00:57
fare un tweet trolloso una volta va bene... farlo due volte può passare... continuare a farlo è di pessimo gusto per una persona nella sua posizione, imho...
sembrano i bambini dell'asilo :rolleyes:
http://www.outcast.it/uploads/2013/07/image-1.jpg
:rotfl: :rotfl:
ed ecco il sostituto di Don...
disco solo:
developers developers developers developers developers developers developers developers developers developers
:asd:
sarà solo ad interim eh :D
:D :D
fare un tweet trolloso una volta va bene... farlo due volte può passare... continuare a farlo è di pessimo gusto per una persona nella sua posizione, imho...
sembrano i bambini dell'asilo :rolleyes:
Guarda che non credo sia un account ufficiale eh..
Inviato dal mio GT-I9505 con Tapatalk 2
alexbands
02-07-2013, 01:22
Guarda che non credo sia un account ufficiale eh..
Inviato dal mio GT-I9505 con Tapatalk 2
non lo so, spero sia così ;)
Necroticism
02-07-2013, 08:02
Guarda che non credo sia un account ufficiale eh..
Inviato dal mio GT-I9505 con Tapatalk 2
Infatti non è il vero Hirai, è un tizio che scrive solo tweet ironici (un pò come Peter Molideux). Il dirigente Sony più alto con un account reale credo sia Yoshida.
vabbeh, qua mi sa che in ms hanno completamente perso la testa
http://kotaku.com/the-man-in-charge-of-xbox-is-leaving-microsoft-635426652
non so, per sfortuna hanno già cominciato la produzione... altrimenti sarebbe stato meglio assumere qualcuno che i giochi li fa (tipo qualcuno di epic/id che ne sappia a pacchi) e riprogettare la cosa :muro: :rolleyes:
mi pareva strano che non saltasse qualche testa, m$ stò giro ha fatto un marketing penoso, dovendo tornare sui suoi passi con una bella immagine...
Tom cruise di microsoft mi stava pure simpatico, ma vabbè... ormai il dado è tratto... possono solo correre ai ripari ....
Spider-Mans
02-07-2013, 08:12
Infatti non è il vero Hirai, è un tizio che scrive solo tweet ironici (un pò come Peter Molideux). Il dirigente Sony più alto con un account reale credo sia Yoshida.
ovviamente
figuriamoci se il vero hirai perda tempo in queste uscite "trollose"
non lo so, spero sia così ;)
Si, è falso, c'è scritto all'inizio: "Parody Account", cmq :asd:
Kinect è in grado di leggere i QR?:
http://xboxonedaily.com/wp-content/uploads/2013/07/XZX8ev4.jpg
Microsoft’s Marc Whitten recently took to Twitter to confirm that the Xbox One’s new Kinect sensor is capable of scanning QR codes. Whitten posted the above picture along with the words “to my reddit friends — yup — this works!”
Just like buying Microsoft Points, the days of keying in long, complex product codes to redeem DLC or bonus content from Xbox Live will soon be a thing of the past.
Quindi basterà passare il QR davanti a kinect per sbloccare DLC o altro senza dover inserire manualmente i codici.
fico... è una cosa che ho sempre odiato inserire i codici....
tecnologico
02-07-2013, 11:47
fico... è una cosa che ho sempre odiato inserire i codici....
li sbaglio sistematicamente :asd:
non lo so, spero sia così ;)
svegliaaaaaaaaaaa
alexbands
02-07-2013, 12:03
svegliaaaaaaaaaaa
tu mai preso un'abbaglio in vita tua? :rolleyes:
Non sono pratico di twitter e non sapevo fosse così "semplice" usare a proprio piacimento il nome di un personaggio pubblico (cioè se fossi io mi preoccuperei di farglielo chiudere)
Inoltre da gente che ha trollato "live" all'E3 e fatto video al limite della parodia, posso anche aspettarmelo.
Comunque, meglio così
Quindi basterà passare il QR davanti a kinect per sbloccare DLC o altro senza dover inserire manualmente i codici.
Bello bello, è una tortura dover inserire quei codici :asd:
alexbands
02-07-2013, 12:43
Bello bello, è una tortura dover inserire quei codici :asd:
questa è la vera next gen, i qr davanti al kinect :D
tecnologico
02-07-2013, 12:45
allora aveva ragione il tizio del "kinect 2 vi seppellirà tutti" :asd:
sephiroth_85
02-07-2013, 13:09
una domanda su gs dice la pubblicità che se si prenota hai 140 euro di sconto + controller celebrativo. vuol dire che danno 2 controller ?
britt-one
02-07-2013, 13:27
una domanda su gs dice la pubblicità che se si prenota hai 140 euro di sconto + controller celebrativo. vuol dire che danno 2 controller ?
no, il controller in dotazione è celebrativo...
più altri contenuti extra per i giochi al lancio.
sephiroth_85
02-07-2013, 13:43
no, il controller in dotazione è celebrativo...
più altri contenuti extra per i giochi al lancio.
tnx ^^
britt-one
02-07-2013, 13:48
tnx ^^
io sono molto indeciso se prenotare la seconda....
in quanto l'offerta dei 3 giochi da GS è scaduta, ed in oltre spero facciano quelle fantastiche promo dove si prendono le vecchie console per passare alle nuove....
Sperem
la comunità internet, e la gente in generale, talvolta è davvero ridicola...
prima MS (o chiunque altro) fa delle cose e dichiarazione e la gente si incazza.
a quel punto si ascoltano i feedback e si corregge secondo il volere della gente (mercato) e ci si lamenta ancora etichettando il tutto con un RICOLI.
bha... veramente mi chiedo se internet sia un bene o un male talvolta.
tecnologico
02-07-2013, 15:33
la comunità internet, e la gente in generale, talvolta è davvero ridicola...
prima MS (o chiunque altro) fa delle cose e dichiarazione e la gente si incazza.
a quel punto si ascoltano i feedback e si corregge secondo il volere della gente (mercato) e ci si lamenta ancora etichettando il tutto con un RICOLI.
bha... veramente mi chiedo se internet sia un bene o un male talvolta.
la verità è che c' è il dente avvelenato per via della potenza. è come quando qualcuno ti tradisce. qualsiasi cosa dica o faccia dopo è sbagliata.
britt-one
02-07-2013, 15:38
Purtroppo la seconda.
in quanto ci sono i "sempre scontenti" ed i "fanboy" dell'altra sponda che vanno in giro per i forum concorrenti giusto per il gusto di flammre e trollare.
Tonando IT,
ho visto che da euronics, offrono il secondo pad con il charger kit(batteria e cavo), ma la batteria, questa volta non era integrata e ricaricabile?
Mi sono perso questa spec??
alexbands
02-07-2013, 15:42
Purtroppo la seconda.
in quanto ci sono i "sempre scontenti" ed i "fanboy" dell'altra sponda che vanno in giro per i forum concorrenti giusto per il gusto di flammre e trollare.
Tonando IT,
ho visto che da euronics, offrono il secondo pad con il charger kit(batteria e cavo), ma la batteria, questa volta non era integrata e ricaricabile?
Mi sono perso questa spec??
è integrata nella forma del pad nel senso che non sporge, ma se vedi c'è uno sportellino. Se ho capito bene similmente ad adesso, puoi sia metterci delle pile normali, sia comprare il pacco batterie originale (sperando che nel pad in dotazione sia già inclusa questa batteria ricaricabile). Se ho capito bene però stavolta non sono 2 pile ricaricabili saldate ma una "vera" batteria al litio (le batterie originali per 360 muoiono piuttosto in fretta, ne ho comprate 2 e nel giro di pochi mesi non tenevano più la carica)
tu mai preso un'abbaglio in vita tua? :rolleyes:
Non sono pratico di twitter e non sapevo fosse così "semplice" usare a proprio piacimento il nome di un personaggio pubblico (cioè se fossi io mi preoccuperei di farglielo chiudere)
Inoltre da gente che ha trollato "live" all'E3 e fatto video al limite della parodia, posso anche aspettarmelo.
Comunque, meglio così
va bene va bene...
ma anche se fosse vero, cazzo evviva il rotfl ahahah
britt-one
02-07-2013, 15:44
è integrata nella forma del pad nel senso che non sporge, ma se vedi c'è uno sportellino. Se ho capito bene similmente ad adesso, puoi sia metterci delle pile normali, sia comprare il pacco batterie originale (sperando che nel pad in dotazione sia già inclusa questa batteria ricaricabile). Se ho capito bene però stavolta non sono 2 pile ricaricabili saldate ma una "vera" batteria al litio (le batterie originali per 360 muoiono piuttosto in fretta, ne ho comprate 2 e nel giro di pochi mesi non tenevano più la carica)
Grazie della info, in realtà io ne ho ancora una del day one funzionante :D
la verità è che c' è il dente avvelenato per via della potenza. è come quando qualcuno ti tradisce. qualsiasi cosa dica o faccia dopo è sbagliata.
machissenefrega.
ma viene in tasca qualcosa a questa gente tifare per MS o Sony?
io tifo per me, al limite.
scegliete la console che più vi piace, che più vi da "garanzie" presenti e future, quella con i giochi che vi piacciono, quella con caratteristiche che sognavate e pace amen.
tifare per una o per l'altra lo trovo ridicolo salvo non vi siano interessi economici nel mezzo, oh... magari mi sbaglio, ma quanti qui hanno azioni MS o Sony?
non ti garba? non la comprare.
ti ha deluso? non la comprare.
rivedono le spec e ti puzza di presa per il culo? e non la comprare.
fossero questi i problemi che non ti fanno dormire la notte.
Ale55andr0
02-07-2013, 15:47
ma se anche queste sono cose "aggirabili" con l'utilizzo della esram siam sempre li col discorso....
Fatto sta comunque che le architetture sono differenti quel minimo da non poter dire con certezza se ci saranno delle differenze e a favore di chi ;)
se vabè, tra un po fanno pure il caffè :sofico:
a sto punto mi chiedo perchè le mostruose e costose top di gamma desktop non implementano come standard questa panacea ad ogni male :fagiano:
Goofy Goober
02-07-2013, 15:49
Se ho capito bene però stavolta non sono 2 pile ricaricabili saldate ma una "vera" batteria al litio (le batterie originali per 360 muoiono piuttosto in fretta, ne ho comprate 2 e nel giro di pochi mesi non tenevano più la carica)
Scopro ora, con immensa tristezza, questa cosa.
Ecco perchè il pad ogni tanto muore anche se ha 2 tacche residue, e inizia a segnalare che è scarico dopo un uso relativamente breve...
ho sempre pensato che fosse bacato il mio
alexbands
02-07-2013, 15:50
se vabè, tra un po fanno pure il cafèe :sofico:
a sto punto mi chiedo perchè le mostruose e costose top di gamma desktop non implementano come standard questa panacea ad ogni male :fagiano:
sono ipotesi e ci si sta chiedendo fino a che punto potrà essere utile.
Quanto all'ambito desktop il problema non si pone perchè non si può raggiungere questo livello di integrazione, bisogna mantenere per forza di cose una certa modularità dei componenti...
Altrimenti ci sarebbe anche da chiedersì perchè non si fa la ram ddr5 unificata per cpu e gpu :O
Ale55andr0
02-07-2013, 15:51
In realtà è dell'88% in più, ovvero 192 GB/s.
da quel che ho capito si parla proprio di 133gb/s che "mediati" (non so come) con i 68 della memoria ddr3 danno 192 teorici di picco, prima infatti, se non erro, la banda calcolata con i 102gb +68 era di circa 150 teorici di picco, o qualcosa del genere
alexbands
02-07-2013, 15:52
Scopro ora, con immensa tristezza, questa cosa.
Ecco perchè il pad ogni tanto muore anche se ha 2 tacche residue, e inizia a segnalare che è scarico dopo un uso relativamente breve...
ho sempre pensato che fosse bacato il mio
si lasciale perdere, comprati 4 pile ricaricabili normali e un caricabatterie, così le alterni ;)
Goofy Goober
02-07-2013, 16:01
si lasciale perdere, comprati 4 pile ricaricabili normali e un caricabatterie, così le alterni ;)
guarda, ho provato a fare anche questo, ma forse ho sbagliato tipo di pile ricaricabili, non saprei, fatto sta che durano davvero qualche ora poi il pad inizia a spegnersi da solo senza nemmeno segnalare che le batterie sono scariche :stordita:
alexbands
02-07-2013, 16:14
guarda, ho provato a fare anche questo, ma forse ho sbagliato tipo di pile ricaricabili, non saprei, fatto sta che durano davvero qualche ora poi il pad inizia a spegnersi da solo senza nemmeno segnalare che le batterie sono scariche :stordita:
prendi delle pile da almeno 2000 mAh e non usare caricabatterie troppo rapidi che le distruggono ;)
Ale55andr0
02-07-2013, 16:28
Ti faccio notare come quei 10MB di EDRAM dell'XBOX 360 hanno fatto la differenza (eccome) nell'attuale generazione formata da due console di potenza molto simile.
e io ti faccio notare che l'attuale generazione non ha una potenza simile, l'X360 ha gpu superiore a quella di PS3, con shader unificati (che la ps3 non ha) e che ha accesso a tutta la ram disponibile visto che non è partizionata come su PS3: ovvio che comunque non la userebbero tutta per la gpu, ma i programmatori non sono murati a 256mb per il frame buffer come su PS3. QUindi le migliorie possibili su X360 prescindono dai 10Mb. Premetto che NON sono utente console ma "pciista" interessato alla next gen solo per capire se e quanto farà bene al pc gaming, ergo sta sicuro che i miei discorsi sono lontani anni luce da una qualsivoglia console war, non sono ne sonaro, ne boxaro.
Io sinceramente credo siano meno obiettivi i continui "eh ma la edram" "eh ma non sappiamo di preciso".
petru916
02-07-2013, 16:30
guarda, ho provato a fare anche questo, ma forse ho sbagliato tipo di pile ricaricabili, non saprei, fatto sta che durano davvero qualche ora poi il pad inizia a spegnersi da solo senza nemmeno segnalare che le batterie sono scariche :stordita:
prendi delle pile da almeno 2000 mAh e non usare caricabatterie troppo rapidi che le distruggono ;)
Quoto, per fare un esempio io ho delle batterie ricaricabili scarsissime dell'ikea (con tanto di caricabatterie) e ci vado liscio come l'olio. L'importante è non bruciare i cicli di ricarica e non scegliere caricabatterie troppo veloci in quanto ottieni l'effetto contrario.
da quel che ho capito si parla proprio di 133gb/s che "mediati" (non so come) con i 68 della memoria ddr3 danno 192 teorici di picco, prima infatti, se non erro, la banda calcolata con i 102gb +68 era di circa 150 teorici di picco, o qualcosa del genere
Uhm, non saprei sinceramente. Fatto sta che in ogni caso le RAM DDR3 di Xbox One, per fare un raffronto con le RAM DDR3 montate su molti PC da gaming, sono molto veloci e offrono basse latenze, ottimi tempi d'accesso e alta resa energetica. La esRAM è un discorso a parte, è una RAM estremamente veloce che, se venisse confermata la soluzione adottata su 360, offrirebbe dei buoni vantaggi sull' AA alla risoluzione 1080p. Magari, però, vedremo FXAA o comunque filtri più approssimativi e meno pesanti dell'MSAA a carico totalmente della GPU e alla fine l'esRAM sarà destinata ad altri compiti. Sicuramente dal mio punto di vista è una buona mossa per compensare la minor potenza di calcolo della GPU rispetto a PS4. Sicuramente non sarà una panacea ma potrà aiutare senz'altro.
Ale55andr0
02-07-2013, 16:34
Uhm, non saprei sinceramente. Fatto sta che in ogni caso le RAM DDR3 di Xbox One, per fare un raffronto con le RAM DDR3 montate su molti PC da gaming, sono molto veloci e offrono basse latenze, ottimi tempi d'accesso e alta resa energetica.
Nella vga da gaming, anche e soprattutto quelle high end, si cerca la bandwidth, non la latenza, si usano alte frequenze e bus ampi (384bit). Se montassi delle DDR 2133 ad una titan le sue prestazioni crollerebbero e la minore latenza (che ancora nessuno ha quantificato...) se la darebbe sulle gengive
Faccio inoltre un'altro ragionamento (personale): la reale frequenza delle DDR3 2133 dovrebbe essere 1066Mhz, quella delle GDDR5 è 1375Mhz effettivi, lo scarto sulla frequenza effettiva (22,5% a esser pignoli) e non nominale (2133-5500) non dovrebbe (?!) portare a latenze mostruosamente peggiori
Yngwie74
02-07-2013, 16:40
a sto punto mi chiedo perchè le mostruose e costose top di gamma desktop non implementano come standard questa panacea ad ogni male :fagiano:
Intel si sta muovendo in quella direzione con Iris:
http://www.eurogamer.net/articles/digitalfoundry-intel-unveils-iris-next-gen-igpu
In questo caso si parla di 128MB di Edram embedded sul chip
Ale55andr0
02-07-2013, 16:45
interessante, anche se sinceramente, il produttore (Intel) in ambito gpu non è che mi sembra abbia un know how degno di nota...tanto che le sue IGP vengono suonate da quelle AMD/nvidia :stordita: poi magari ci smutanda tutti e fa "La GPU" eh :)
eoni fa si parlava di un certo Intel larrabee che era tutto un wannabe bombastic, ma ancor un se visto nulla...
petru916
02-07-2013, 16:48
[QUOTE=petru916;39676088]
Uhm, non saprei sinceramente. Fatto sta che in ogni caso le RAM DDR3 di Xbox One, per fare un raffronto con le RAM DDR3 montate su molti PC da gaming, sono molto veloci e offrono basse latenze, ottimi tempi d'accesso e alta resa energetica./QUOTE]
Nella vga da gaming, anche e soprattutto quelle high end si cerca la bandwidth, non la latenza, si usano alte frequenze e bus ampi (384bit). Se montassi delle DDR 2133 ad una titan le sue prestazioni crollerebbero e la minore latenza (che ancora nessuno ha quantificato...) se la darebbe sulle gengive
Ma devi anche considerare che una Titan lavora a risoluzioni anche 4 volte superiori alle attuali console. Se prendi la mia Gtx660Ti ti accorgi che la banda è meno della metà di quella di una Titan, proprio perchè oltre i 1080p questa soluzione non ha senso di esistere, non so se mi sono spiegato. Devi anche considerare che la RAM è condivisa tra CPU+GPU e devi anche considerare che la esRAM ha praticamente accesso istantaneo ai processi della CPU quindi diciamo che problemi di banda non dovrebbero essercene, almeno quelli no. Il problema è della GPU che è un pò meno potente di PS4, nell'ordine del 40% su potenza bruta, ma anche questo, in base all'utilizzo della esRAM, potrebbe essere leggermente mitigato. Come diceva tempo addietro qualcuno nel thread, l'unica differenza che potremo avere nei multipiatta potrebbero essere delle ombre, delle textures, degli effetti particellari leggermente meno definiti. Ma quelle sono cose che un console gamer difficilmente sta a guardare, molto spesso invece, i pc gamer, compreso me, analizzano il fotogramma statico per controllare la qualità visiva. Sono proprio approcci diversi. In ogni caso tutto vien fuori dalla bravura di chi programma, sicuramente un Ryse o un FM5 mi hanno positivamente sbalordito. Ryse oltretutto è il primo vero gioco "nextgen" graficamente parlando. Magari farà schifo come gameplay, ma fino ad ora graficamente è sopra una spanna a tutti.
petru916
02-07-2013, 16:50
interessante, anche se sinceramente, il produttore (Intel) in ambito gpu non è che mi sembra abbia un know how degno di nota...tanto che le sue IGP vengono suonate da quelle AMD/nvidia :stordita: poi magari ci smutanda tutti e fa "La GPU" eh :)
eoni fa si parlava di un certo Intel larrabee che era tutto un wannabe bombastic, ma ancor un se visto nulla...
Uhm perchè il purpose per le schede Integrate Intel sicuramente non è il gaming quanto la gestione dei flussi HD (film, streaming) e al MASSIMO far girare un gioco del calibro di GTA San Andreas, per dirne uno. Anche se a dire il vero a dettagli bassi (ovviamente non a 1080p) le integrate Intel fanno un discreto lavoro con giochi come Dirt 2, CoD e compagnia.
Yngwie74
02-07-2013, 16:50
interessante, anche se sinceramente, il produttore (Intel) in ambito gpu non è che mi sembra abbia un know how degno di nota...tanto che le sue IGP vengono suonate da quelle AMD/nvidia :stordita: poi magari ci smutanda tutti e fa "La GPU" eh :)
Infatti nell'articolo si dice che intel voglia utilizzare questa soluzione per colmare il gap con AMD/Nvidia, ovviamente riferendosi alla fascia media:
Within Intel, the unofficial target performance of the Iris Pro part is to match or even exceed Nvidia's popular GT650M part, which marries up two Kepler SMX processor units with 2GB of GDDR5 memory. ...
With the top-end Iris Pro, Intel's solution to the bandwidth issue is ambitious - alongside the main processor, there's a reported 128MB of ultra-fast eDRAM to provide the bandwidth that the system RAM can't produce.
Ovviamente non si vuole andare a competere con una Titan, ma in che % di sistemi e' montata una Titan? In fin dei conti anche le GPU di PS4 e X1 si attestano in un mid range.
Ale55andr0
02-07-2013, 16:55
Ryse è quello dell'antica roma? no perchè visivamente, in caso fosse quello, non mi ha propriamente entusiasmato graficamente... Mi hanno più positivamente impressionato killzone che all'inizio mi pareva CG, e anche "the division" che mi ha fatto urlare al fotorealismo :eek:, specialmente sulla scena iniziale in cui ci si ritrova in quello che sembra un vicolo di new york.
petru916
02-07-2013, 17:04
Ryse è quello dell'antica roma? no perchè visivamente, in caso fosse quello, non mi ha propriamente entusiasmato graficamente... Mi hanno più positivamente impressionato killzone che all'inizio mi pareva CG, e anche "the division" che mi ha fatto urlare al fotorealismo :eek:, specialmente sulla scena iniziale in cui ci si ritrova in quello che sembra un vicolo di new york.
A me Killzone ha impressionato per definizione e qualità dell'ambiente, ma nel complesso sono rimasto molto molto colpito da Ryse, del resto dietro c'è Crytek, che magari non saprà fare capolavori di gameplay, ma sotto il punto di vista tecnico non ha rivali.
petru916
02-07-2013, 17:11
Un pensiero, però, mi frulla per la testa. Ma sulle nostre tv, per quanto ottime possano essere, abbiamo bisogno di un filtro AA 4x? Cioè mi spiego meglio. Ho FIFA 13 sia su Xbox che su PC, ora collegando il mio laptop al televisore e impostando la massima risoluzione (720p) con AA4x non noto granchè differenza dalla versione Xbox se non nella definizione delle textures. Cioè quanto incide l'AA sulla nitidezza a 1080p su un tv? Posso capirlo a 720p ma forse a 1080p è anche inutile. Conosco gente che su monitor disattiva l'AA perchè quasi non nota differenze se confrontate all'impatto prestazionale.
Ale55andr0
02-07-2013, 17:12
non saprei, io ryse quando l'ho visto ho riconosciuto immediatamente una grafica renderizzata, nel caso di killzone, stessa cosa, ma mi pareva CG, quindi molto spinta e quindi a suo modo impressionante, insomma roba da filmato di intermezzo, per quanto in alcune grate o in altri oggetti sorgeva un po' di aliasing; nel caso di the division, come dicevo, ho avuto proprio l'effetto fotrealismo, poi vedondolo dopo un po' ovviamente si capiva che era un game ma in termini di impatto mi ha folgorato.
Ad ogni modo si vedrà, alla fine a me interessa vedere un consistente incremento medio del livello visivo dei titoli di provenienza console :). Per dirti, spero in futuri splendidi esponenti next gen di GTA e della serie elder scroll, che finora sono quelli che hanno più patito a causa della poca ram delle vecchie console in termini di dettaglio sia da vicino che sulla distanza, già un watch dogs è più che discreto, anche se spero si possa fare di più.
Il titolo più deludente visivamente imho è thief 4, roba che neanche di sfuggita, con un'occhio bendato ed essendo generosi, mi ha dato il sapore next gen... ma al contrario pare un titolo da piattaforma attuale. Peccato perchè adoravo la serie
petru916
02-07-2013, 17:17
non saprei, io ryse quando l'ho visto ho riconosciuto immediatamente una grafica renderizzata, nel caso di killzone, stessa cosa, ma mi pareva CG, quindi molto spinta e quindi a suo modo impressionante, per quanto in alcune grate o in altri oggetti sorgeva un po' di aliasing, nel caso di the division, come dicevo, ho avuto proprio l'effetto fotrealismo, poi vedondolo dopo un po' ovviamente si capiva che ra un game, ma in termini di impatto mi ha folgorato.
Ad ogni modo si vedrà, alla fine a me interessa vedere un consistente incremento medio del livello visivo dei titoli di provenienza console :). Per dirti, spero in futuri splendidi esponenti next gen di GTA e della serie elder scroll, che finora sono quelli che hanno più patito a causa della poca ram delle vecchie console in termini di dettaglio sia da vicino che sulla distanza, già un watch dogs è discreto, anche se spero si possa fare di più
Sicuramente ci sarà un innalzamento della qualità visiva notevole tra questa e la prossima gen, e ciò ovviamente si ripercuoterà anche su PC, anche se giochi del calibro di Tomb Raider o BF3 non hanno niente da invidiare a questa next gen di console, e sono giochi usciti da un bel pezzo. Su GTA ho perso le speranze di vedere conversioni decenti. Se noti le prime uscite di Watch Dogs erano mostrate su PC ed erano impressionanti, man mano che hanno svelato le nuove console la qualità generale ne ha risentito, non di molto ma si nota secondo me. Come al solito chi vorrà il non plus ultra punterà su PC e al massimo prenderà una console per le esclusive di maggior interesse. Io sinceramente mi trovo bene come sto adesso, perchè ci sono volte in cui di mettermi davanti al PC a giocare non ne ho voglia, quindi mi piazzo sul divano e addio! :)
Ale55andr0
02-07-2013, 17:25
. Su GTA ho perso le speranze di vedere conversioni decenti. )
Teoricamente, molto teoricamente, molto ottimisticamente :asd: il problema dell'ottimizzazione dovrebbe essere superato con queste nuove console che tanto per cominciare sono meno potenti, in comparativa, ai pc di attuale generazione rispetto alle vecchie che non erano invece distanti su certe componenti. Ma soprattutto le cpu sono x86, e lo sono entrambe, non ci sta più power pc, e soprattutto non ci sta più cell :asd:, e finalmente si ha molta ram. Io poi ho una AMD gcn... e voglio illudermi che conti qualcosa :sofico: tomb raider mi fa ben sperare :asd:
britt-one
02-07-2013, 17:43
Ryse è quello dell'antica roma? no perchè visivamente, in caso fosse quello, non mi ha propriamente entusiasmato graficamente... Mi hanno più positivamente impressionato killzone che all'inizio mi pareva CG, e anche "the division" che mi ha fatto urlare al fotorealismo :eek:, specialmente sulla scena iniziale in cui ci si ritrova in quello che sembra un vicolo di new york.
Ti dirò, the Division, Parlando solo di grafica, mi ha entusiasmato nelle sequenze di combattimento e negli spazi aperti, mentre il dettaglio grafico, cala drasticamente negli ambienti al chiuso.
Per il resto non vedo l'ora che esca :D
Ryse è quello dell'antica roma? no perchè visivamente, in caso fosse quello, non mi ha propriamente entusiasmato graficamente... Mi hanno più positivamente impressionato killzone che all'inizio mi pareva CG, e anche "the division" che mi ha fatto urlare al fotorealismo :eek:, specialmente sulla scena iniziale in cui ci si ritrova in quello che sembra un vicolo di new york.
riguardo alla panacea Nvidia lo ha annunciato nella roadmap intell è pronta con il prossimo haswell e non credo che amd faccia diversamente...
Riguardo la grafica se guardi bene the division a schermo pieno ciò che colpisce maggiormente sono le animazioni e l'interazione con l'ambiente la scena è decisamente convincente ma graficamente non è un miracolo, ma in un certo senso sono d'accordo con te... inutile avere un graficone se poi animazioni e interazioni con il mondo sono terribili, il nostro cervello riesce ad identificare molto bene queste incoerenze e la sensazione di realismo va a farsi benedire...
alexbands
02-07-2013, 18:23
io l'ho già detto nel thread della ps4, ciò che mi è piaciuto di molti giochi visti all'e3 non è stata la grafica in se per se, alcuni non si discostavano molto dai migliori esempi della gen attuale, anche se sicuramente con maggiore pulizia (per quanto si possa parlare di pulizia guardando dei video su internet), più roba a schermo e effetti speciali a volte davvero speciali.... quello che mi ha colpito sono proprio le animazioni, davvero naturali e convincenti.
Ad esempio su questo particolare aspetto non mi ha convinto watch dogs, a livello di movimenti è assassin's creed, si vede lontano un miglio :D
Ma mi piace lo stesso :asd:
petru916
02-07-2013, 21:49
io l'ho già detto nel thread della ps4, ciò che mi è piaciuto di molti giochi visti all'e3 non è stata la grafica in se per se, alcuni non si discostavano molto dai migliori esempi della gen attuale, anche se sicuramente con maggiore pulizia (per quanto si possa parlare di pulizia guardando dei video su internet), più roba a schermo e effetti speciali a volte davvero speciali.... quello che mi ha colpito sono proprio le animazioni, davvero naturali e convincenti.
Ad esempio su questo particolare aspetto non mi ha convinto watch dogs, a livello di movimenti è assassin's creed, si vede lontano un miglio :D
Ma mi piace lo stesso :asd:
Assolutamente d'accordo, Ryse per me è l'apice della grafica per il momento, però il resto lascia a desiderare a partire dal gameplay. Sull'interazione ancora non si sa niente, quindi non mi sbilancio. Sicuramente lo prenderò in offerta quando avrò tempo/soldi da spendere.
giubox360
02-07-2013, 22:03
Assolutamente d'accordo, Ryse per me è l'apice della grafica per il momento, però il resto lascia a desiderare a partire dal gameplay. Sull'interazione ancora non si sa niente, quindi non mi sbilancio. Sicuramente lo prenderò in offerta quando avrò tempo/soldi da spendere.
Ryse ti ha sbalordito, perchè forse come me, ti piacciono i giochi di guerra stile romano greco e per le animazioni faciali che sono gestite da l'unico motore next gen tra tutti i titoli presentati su xbox one..l'ormai calibrato su pc cry engine 3, ma fidati, è un gioco fortemente scriptato che alla lunga stufa..poi magari mi sbaglio eh..;)
Cmq in generale killzone mi è parso molto più degno di nota, se confrontiamo i primi giochi di ps4 con i primi giochi di ps 3..beh Sony si sta rifacendo un nome ragazzi miei:sofico:
interessante, anche se sinceramente, il produttore (Intel) in ambito gpu non è che mi sembra abbia un know how degno di nota...tanto che le sue IGP vengono suonate da quelle AMD/nvidia :stordita: poi magari ci smutanda tutti e fa "La GPU" eh :)
eoni fa si parlava di un certo Intel larrabee che era tutto un wannabe bombastic, ma ancor un se visto nulla...
Beh, la nuova Iris Pro tira mattonate sulle gengive a tutte le schede video integrate esistenti sul mercato, AMD incluse, e se la gioca con la GT640, quindi Intel sembra che finalmente abbia imparato qualcosa.
Certo è che se la fanno pagare un botto comunque, quei 128MB di eDRAM non possono essere proprio economicissimi... ma per sistemi integrati, non è una cattiva idea.
petru916
02-07-2013, 23:15
Ryse ti ha sbalordito, perchè forse come me, ti piacciono i giochi di guerra stile romano greco e per le animazioni faciali che sono gestite da l'unico motore next gen tra tutti i titoli presentati su xbox one..l'ormai calibrato su pc cry engine 3, ma fidati, è un gioco fortemente scriptato che alla lunga stufa..poi magari mi sbaglio eh..;)
Cmq in generale killzone mi è parso molto più degno di nota, se confrontiamo i primi giochi di ps4 con i primi giochi di ps 3..beh Sony si sta rifacendo un nome ragazzi miei:sofico:
I gusti son gusti quindi io rispetto l'opinione altrui, ma anche KZ è fortemente scriptato, non so se hai giocato gli altri. Fatto sta che dopo aver giocato e finito la trilogia tra PS2 e PS3 dovranno tirare fuori qualcosa di veramente nuovo per farmi riavvicinare alla serie che, aimè, a parte la grafica ottima, non mi ha mai entusiasmato più di tanto. Ma ripeto son gusti quindi ok, a me sono piaciuti molto gli effetti parlticellari, i riflessi ed in generale la qualità visiva di Ryse. KZ continua a non convincermi fino in fondo, ma ripeto questa è solo una mia impressione. I primi giochi di PS3, almeno le esclusive, erano sbalorditivi, chi se lo ricorda Uncharted? Oppure passando a Xbox il primo Gears. Giochi una spanna sopra gli altri per qualità visiva e complessiva.
Nuovo sistema a reputazione nel multi:
Xbox One’s reputation system monitors player behavior, matches jerks with jerks
:asd:
http://xboxonedaily.com/wp-content/uploads/2013/07/reputation.png
The Xbox One’s new online reputation system is designed to track negative player behavior and protect do-gooders from trolls.
Players who are continuously banned from matches or complained against will eventually be paired with gamers of the same caliber, explained Microsoft Senior Product Manager, Mike Lavin in an interview with OXM.
“There’ll be very good things that happen to people that just play their games and are good participants,” said Lavin. “And you’ll start to see some effects if you continue to play bad or harass other people en masse. You’ll probably end up starting to play more with other people that are more similar to you.”
As for the possibility of people manipulating this system in order to banish innocent people to the land of misfit gamers, Lavin says it won’t be an easy task. Negative feedback will be tracked over time and grievances must be consistent from multiple sources.
The Xbox One’s new reputation system will not affect player’s friends lists, as it’s designed to manage anonymous game sessions, so even the biggest of jerks will still have a chance to game with their besties.
petru916
04-07-2013, 08:23
Finalmente, spero che si riducano i casi in cui vengo sommerso dagli insulti in alcune lobby. È proprio fastidioso, anche se si fa subito a mutare la gente. In ogni caso io non avrò provblemi avendo tutt'ora una rep perfetta su Live. Mai preso ad insulti o altro la gente, forse una volta sola.
alexbands
04-07-2013, 11:07
dipende da a cosa giochi... io per farmi RARAMENTE qualche partita casuale (nel senso con gente che non conosco) a forza motorsport e/o a fifa mi ritrovo nel mio resoconto il 70% di gente che mi ha evitato, ovviamente inutile che lo dica che un motivo non c'è :doh:
Mr.White83
04-07-2013, 11:47
dipende da a cosa giochi... io per farmi RARAMENTE qualche partita casuale (nel senso con gente che non conosco) a forza motorsport e/o a fifa mi ritrovo nel mio resoconto il 70% di gente che mi ha evitato, ovviamente inutile che lo dica che un motivo non c'è :doh:
Ehehehe ti capisco. Anche io giocando a fifa soprattutto pro club mi trovo con ben 75% di persone che mi hanno evitato e il bello è che quasi tutte sono per condotta sleale.
Sinceramente nn so il motivo visto che anche se perdo nn esco e nn ho giocatori che attuati. . Forse nn devo vincere è questo il trucco ;-)
Crashman
04-07-2013, 13:57
Uhm, allora l'articolo qui è sbagliato?
http://en.wikipedia.org/wiki/EDRAM
Ma qual'è il vantaggio, in termini reali per la console, di usare DRAM invece che SRAM?
Per quanto riguarda l'AA, in ogni caso richiede un certo livello di risorse, no? Non credo sia solo una questione di banda. Su PC le schede video hanno ampiezza di banda superiore alla PS4, ma l'AA non è comunque leggero.
Scusa il ritardo nella risposta
L'articolo dice che i costi si alzano, non mi pare dica che sono più alti della ram statica.
A parte questo sicuramente l'ampiezza di banda non è l'unico fattore che incide sulle prestazioni quando si applica l'AA, ma è il fattore limitante principale
boh, non so che dire...
grafica ok, ma è in pratica halo senza gli spartan
http://www.youtube.com/watch?v=gIp7vZuYzoA&feature=player_embedded
tecnologico
04-07-2013, 15:11
sembra che le cuffie rientrino nel bundle...
Capirai, a loro costeranno si e no 5 dollari.
In ogni caso, pare proprio che abbiano un margine di profitto bello grosso ancora da erodere. Che avari, e volevano mettere pure le politiche spremiconsumer.
Attendiamo un abbassamento del prezzo a questo punto.
boh, non so che dire...
grafica ok, ma è in pratica halo senza gli spartan
http://www.youtube.com/watch?v=gIp7vZuYzoA&feature=player_embedded
Si, in pratica un halo senza gli spartan.
Con missione cooperative, un mondo persistente, degli eventi stile MMO...
Scusa ma che c'entra con halo???? Mo perchè è uno sparatutto è halo senza spartan?
tecnologico
04-07-2013, 15:26
Si, in pratica un halo senza gli spartan.
Con missione cooperative, un mondo persistente, degli eventi stile MMO...
Scusa ma che c'entra con halo???? Mo perchè è uno sparatutto è halo senza spartan?
a me pare più borderlands
alexbands
04-07-2013, 15:29
Per me ha "l'aria di halo"... nel senso si vede subito, secondo me, che la casa è quella. Detto questo tutto il resto è piuttosto diverso, non è halo senza spartan insomma :D
tecnologico
04-07-2013, 15:44
Capirai, a loro costeranno si e no 5 dollari.
In ogni caso, pare proprio che abbiano un margine di profitto bello grosso ancora da erodere. Che avari, e volevano mettere pure le politiche spremiconsumer.
Attendiamo un abbassamento del prezzo a questo punto.
mah, più che un taglio, se c' è margine di manovra, mi piacerebbe che avvesse più optional a questo punto. se la spogli hai una ps3 più scarsa...io butterei dentro un secondo pad e un bel tagliandino per scaricare kinect qualcosa e un gioco full. tipo compri il megapack ma poi non devi spendere nemmeno un cent....va bene anche un 6 mesi di live...perchè se di taglio si deve parlare, qualunque taglio inferiore a 101euro è inutile
crespo80
04-07-2013, 16:01
sono curioso di sapere quale sarà il volume "critico" di vendite al di sotto del quale Microsoft ha in programma il "piano B" d'emergenza, vale a dire la rinuncia al Kinect obbligatorio e l'introduzione di una versione "base" a un prezzo inferiore a quello della concorrente, tipo 349$.
Perchè è normale che Microsoft ci creda nel Kinect, ma è altrettanto normale che se la PS4 venderà 3 volte tanto nei primi mesi fino a Natale, non potranno fare altro che prendere atto del fallimento e far uscire col nuovo anno quello che gli chiede il mercato...
Ovviamente spero che non sia necessario e che venda alla pari con Sony, ma ho forti dubbi in proposito!
tecnologico
04-07-2013, 16:10
sono curioso di sapere quale sarà il volume "critico" di vendite al di sotto del quale Microsoft ha in programma il "piano B" d'emergenza, vale a dire la rinuncia al Kinect obbligatorio e l'introduzione di una versione "base" a un prezzo inferiore a quello della concorrente, tipo 349$.
Perchè è normale che Microsoft ci creda nel Kinect, ma è altrettanto normale che se la PS4 venderà 3 volte tanto nei primi mesi fino a Natale, non potranno fare altro che prendere atto del fallimento e far uscire col nuovo anno quello che gli chiede il mercato...
Ovviamente spero che non sia necessario e che venda alla pari con Sony, ma ho forti dubbi in proposito!
così ad occhio, credo che il primo mese andranno pari, sono gli affezionati delle due console che comprano a prescindere (e poi rompono le balle nei forum :asd:) a natale sony venderà almeno con rapporto 2 a 1. se per gennaio\marzo si passa a un 3 a 1 o 4 a 1 a marzo primo taglio
Secondo me a MS basterebbe un taglio di 50$ per recuperare, il valore aggiunto per Kinetic c'è, ma non con una differenza di 100$, non son pochi... dovrebbe costare quanto un joypad aggiuntivo, all'incirca...
così ad occhio, credo che il primo mese andranno pari, sono gli affezionati delle due console che comprano a prescindere (e poi rompono le balle nei forum :asd:) a natale sony venderà almeno con rapporto 2 a 1. se per gennaio\marzo si passa a un 3 a 1 o 4 a 1 a marzo primo taglio
Se le cose andassero così male per Microsoft taglierebbero ben prima.
Secondo me a MS basterebbe un taglio di 50$ per recuperare, il valore aggiunto per Kinetic c'è, ma non con una differenza di 100$, non son pochi... dovrebbe costare quanto un joypad aggiuntivo, all'incirca...
Dopo lo scandalo NSA, per molta gente ora il Kinect non è un valore aggiunto, ma proprio il contrario :O
crespo80
04-07-2013, 17:23
Dopo lo scandalo NSA, per molta gente ora il Kinect non è un valore aggiunto, ma proprio il contrario :O
Ci manca solo che Snowden riveli un fantomatico accordo tra la NSA e Microsoft per l'utilizzo del Kinect per il controllo della cittadinanza e possiamo entrare di diritto nella fantascienza :D
Crashman
04-07-2013, 21:39
boh, non so che dire...
grafica ok, ma è in pratica halo senza gli spartan
http://www.youtube.com/watch?v=gIp7vZuYzoA&feature=player_embedded
è da :| null'altro
Antonioplay85
04-07-2013, 22:16
la Microsoft mi fa ridere e pena nello stesso momento :( :asd: :doh: :rolleyes:
ridicoli questi cambi di strategie continui, stanno nel pallone più totale...
va a finire che adesso abbassano anche il prezzo a 349€ :asd:
petru916
04-07-2013, 22:18
Graficamente è notevole obiettivamente. Sicuramente faranno un ottimo lavoro a livello narrativo che di gameplay.
la Microsoft mi fa ridere e pena nello stesso momento :( :asd: :doh: :rolleyes:
ridicoli questi cambi di strategie continui, stanno nel pallone più totale...
va a finire che adesso abbassano anche il prezzo a 349€ :asd:
e se succede che si fa?
gli si da dei ridicoli e non la si prende pur nonostante un prezzo stra-concorrente rispetto alla PS4?
bha... io non vi capisco, da tutto sto casino chi ci guadagna siamo noi utenti.
ca**o vi lamentate?
più continuano meglio è.
e se succede che si fa?
gli si da dei ridicoli e non la si prende pur nonostante un prezzo stra-concorrente rispetto alla PS4?
bha... io non vi capisco, da tutto sto casino chi ci guadagna siamo noi utenti.
ca**o vi lamentate?
più continuano meglio è.
Condivido.
Maggiore concorrenza c'è, piu dovranno aumentare il valore dell'offerta o diminuirne il prezzo.
Ad ogni modo, una Xbox1 senza kinect anche con un prezzo assurdi di 150 euro in meno la trovo non conveniente. E' una Ps4 meno potente, e direi che 50 euro per un 7 anni di potenza aggiuntiva li spenderebbero tutti.
Devono giocare sulla differenziazione: ergo ben venga Kinect e integrazione. Chi lo vuole prende Xbox, chi vuole una cosa piu classica Ps4.
Si, in pratica un halo senza gli spartan.
Con missione cooperative, un mondo persistente, degli eventi stile MMO...
Scusa ma che c'entra con halo???? Mo perchè è uno sparatutto è halo senza spartan?
due armi solo, lo hud identico ai vari halo, sovrascudi, la sensazione di movimento uguale, il coop, gli eventi stile orda :asd:
il mondo persistente = chissene, per me. mai piaciuti gli mmo
due armi solo, lo hud identico ai vari halo, sovrascudi, la sensazione di movimento uguale, il coop, gli eventi stile orda :asd:
il mondo persistente = chissene, per me. mai piaciuti gli mmo
L'hud non c'entra NIENTE: niente barra della vita, niente barra scudi, posizione della mapa ben differente, etc etc
La sensazione di movimento mi pare come tutti gli fps, poi come hai fatto a coglierla vedendo un video!
Ha un mondo persistente online che a te non fregerà niente ma di certo non è come halo...
Due armi neanche per sogno visto che si vede pure nel video come possono evolvere stile rpg...
Ma se tu hai deciso che è uguale a halo a me va bene eh, si fa per parlare :D
Antonioplay85
05-07-2013, 21:48
e se succede che si fa?
gli si da dei ridicoli e non la si prende pur nonostante un prezzo stra-concorrente rispetto alla PS4?
bha... io non vi capisco, da tutto sto casino chi ci guadagna siamo noi utenti.
ca**o vi lamentate?
più continuano meglio è.
io non mi lamento affatto mi fanno ridere e pena perché cosi facendo si stanno auto danneggiando perdendo di credibilità e la fiducia di chi dovrebbe acquistare il loro prodotto, stanno distruggendo tutto il buon lavoro fatto in 8 anni. :O
ma se a te va bene cosi che speri di trovare questo prodotto al minor prezzo possibile fa pure e inizia a pregare magari verrai accontentato :asd:
io personalmente ho bisogno di un prodotto più potente e longevo possibile per i prossimi 7 anni quindi di certo alla luce di tutta questa presa in giro continua e costante da parte della Microsoft non acquisterei mai una X1 neanche a 249€ ma preferisco mettere 150€ in più e stare tranquillo per tutta la durata della nuova generazione :)
alexbands
05-07-2013, 21:52
io non mi lamento affatto mi fanno ridere e pena perché cosi facendo si stanno auto danneggiando perdendo di credibilità e la fiducia di chi dovrebbe acquistare il loro prodotto, stanno distruggendo tutto il buon lavoro fatto in 8 anni. :O
ma se a te va bene cosi che speri di trovare questo prodotto al minor prezzo possibile fa pure e inizia a pregare magari verrai accontentato :asd:
io personalmente ho bisogno di un prodotto più potente e longevo possibile per i prossimi 7 anni quindi di certo alla luce di tutta questa presa in giro continua e costante da parte della Microsoft non acquisterei mai una X1 neanche a 249€ ma preferisco mettere 150€ in più e stare tranquillo per tutta la durata della nuova generazione :)
http://www.escapistmagazine.com/articles/view/columns/extra-punctuation/10460-The-Tale-of-M-and-S
:asd:
petru916
05-07-2013, 22:37
io non mi lamento affatto mi fanno ridere e pena perché cosi facendo si stanno auto danneggiando perdendo di credibilità e la fiducia di chi dovrebbe acquistare il loro prodotto, stanno distruggendo tutto il buon lavoro fatto in 8 anni. :O
ma se a te va bene cosi che speri di trovare questo prodotto al minor prezzo possibile fa pure e inizia a pregare magari verrai accontentato :asd:
io personalmente ho bisogno di un prodotto più potente e longevo possibile per i prossimi 7 anni quindi di certo alla luce di tutta questa presa in giro continua e costante da parte della Microsoft non acquisterei mai una X1 neanche a 249€ ma preferisco mettere 150€ in più e stare tranquillo per tutta la durata della nuova generazione :)
La tua idea è questa, benissimo, ognuno ha la sua. Ma permettimi di farti una domanda..se appunto questa è la tua idea, cosa ci fai ancora qui a commentare? La tua scelta l'hai fatta, come me e come altri qui. Di conseguenza commenti solo per puzecchiare qua e là o per fare un discorso serio (da persona del 1985, tiè)? Ti ringrazio per la tua eventuale risposta.
PS: Mi permetto di chiederti un'altra cosa, mi puoi illustrare gentilmente dove sta la presa in giro? Loro hanno fatto le loro proposte, che sono più o meno state accolte dalla community. Ora la community si fa sentire, loro cambiano politiche per vendere a più persone il loro prodotto (si, se ti fosse sfuggito MS è una società che punta al profitto, come Sony e tutte le altre) e tu la consideri presa in giro? Per me la loro campagna marketing è stata fallimentare ma il prodotto è di valore indiscutibile visto anche i precedenti MS. Come è di valore PS4.
petru916
07-07-2013, 13:03
A quanto pare la versione Xbox One di Watch Dogs sarà dotata di un mondo più ricco di NPC e più realistico e dinamico grazie al Cloud, stando alle dichiarazioni del producer Guay.
(Fonte: qualsiasi sito di giochi. Nel mio caso multiplayer.it)
Antonioplay85
07-07-2013, 19:55
La tua idea è questa, benissimo, ognuno ha la sua. Ma permettimi di farti una domanda..se appunto questa è la tua idea, cosa ci fai ancora qui a commentare? La tua scelta l'hai fatta, come me e come altri qui. Di conseguenza commenti solo per puzecchiare qua e là o per fare un discorso serio (da persona del 1985, tiè)? Ti ringrazio per la tua eventuale risposta.
che intendi dire scrivendo il mio anno di nascita? :mbe:
infatti hai ragione la mia scelta l'ho fatta e non è stata difficile da fare grazie a Microsoft quindi se hai notato non posto spesso ma comunque vengo a dare un'occhiata per tenermi aggiornato sulla situazione e di certo non sarai tu a vietarmi di venire qui a leggere e nel caso a fare qualche commento.
sai mi dai l'impressione che tu questa console già l'hai preordinata anzi ne sono sicuro e quindi parli come se dovresti difendere il tuo acquisto a tutti i costi e questo ti rende anche cieco difronte all'evidenza ed il fatto che dici che MS non prende in giro ne è una prova.
anche alcuni fanboy della Xbox hanno aperto gli occhi com'è possibile forse non ci vedono bene :asd:
PS: Mi permetto di chiederti un'altra cosa, mi puoi illustrare gentilmente dove sta la presa in giro? Loro hanno fatto le loro proposte, che sono più o meno state accolte dalla community. Ora la community si fa sentire, loro cambiano politiche per vendere a più persone il loro prodotto (si, se ti fosse sfuggito MS è una società che punta al profitto, come Sony e tutte le altre) e tu la consideri presa in giro? Per me la loro campagna marketing è stata fallimentare ma il prodotto è di valore indiscutibile visto anche i precedenti MS. Come è di valore PS4.
ovvio che MS e Sony mirano a fare profitto è l'obbiettivo di tutte le aziende al mondo :asd: ma cosa pensi che MS con questi ripensamenti ti sta facendo un favore a te o lo fanno per loro? dopo che la gente si è lamentata e non poco per forza hanno fatto marcia indietro altrimenti cosa avrebbero venduto?
il prodotto è di valore indiscutibile?? ma secondo te quanto gli costa alla MS la X1 con quei componenti il quale alcuni li definirei anche scarti??
e poi cercare di far credere alla gente che la X1 è più potente di quello che realmente è non è presa in giro??
la verità è che la Microsoft stavolta ha sottovalutato molto la Sony perchè visti gli errori passati già la davano per spacciata ed ora se la sono presi nel posteriore rovinando tutti quello di buono fatto dal 2001....
io la vedo cosi poi ognuno fa come gli pare ma certo credere che gli asini volano francamente non ci credo :asd:
detto ciò la chiudo qui non risponderò più ad una tua eventuale risposta ciao :)
ps. ecco il valore del prodotto indiscutibile :D
http://wimages.vr-zone.net/2013/07/PS4-and-Xbox-One-GPU.jpg
io ste console le volevo ancora più potenti, tra 2 anni già saranno vecchie...
A quanto pare la versione Xbox One di Watch Dogs sarà dotata di un mondo più ricco di NPC e più realistico e dinamico grazie al Cloud, stando alle dichiarazioni del producer Guay.
(Fonte: qualsiasi sito di giochi. Nel mio caso multiplayer.it)
Mi sembrano le classiche dichiarazioni dietro pagamento, non c'è nulla di serio tecnicamente per far si che ciò sia vero, su una console meno potente per giunta. Ricordiamo che il cloud non è in nessun modo esclusiva MS, oltre che essere non disponibile per tutto il bacino d'utenza quindi non credo che ci punteranno piu di tanto. Sono solo specchietti per le allodole.
Mi aggancio alla discussione di cui sopra per chiarire alcuni aspetti e chiedere info su altri: conosco molto bene l'architettura delle GPU Pitcairn in quanto io stesso sul mio PC da Gaming ho una 7850 Overcloccata di fabbrica, e vi assicuro che è una scheda video di media fascia assolutamente valida, fino ad ora ho giocato a tutto (compreto Tomb Raider) con tutto al massimo senza mai scendere sotto i 30 fps, abbinata ad un i5 2500k. Credo che questa scheda video sia una scelta particolarmente felice per una console, in quanto con le ottimizzazioni del caso credo possa fare grandi cose da qui a 6-7 anni: se penso a cosa sono riusciti a fare con uncharted 3 su quel catorcio di gpu di PS3 non saprei neanche immaginare a cosa si arriverà.
Ora, la GPU che ha XBOXONE non dovrebbe essere la stessa? Che architettura è Bonaire?
petru916
07-07-2013, 21:02
che intendi dire scrivendo il mio anno di nascita? :mbe:
infatti hai ragione la mia scelta l'ho fatta e non è stata difficile da fare grazie a Microsoft quindi se hai notato non posto spesso ma comunque vengo a dare un'occhiata per tenermi aggiornato sulla situazione e di certo non sarai tu a vietarmi di venire qui a leggere e nel caso a fare qualche commento.
sai mi dai l'impressione che tu questa console già l'hai preordinata anzi ne sono sicuro e quindi parli come se dovresti difendere il tuo acquisto a tutti i costi e questo ti rende anche cieco difronte all'evidenza ed il fatto che dici che MS non prende in giro ne è una prova.
anche alcuni fanboy della Xbox hanno aperto gli occhi com'è possibile forse non ci vedono bene :asd:
ovvio che MS e Sony mirano a fare profitto è l'obbiettivo di tutte le aziende al mondo :asd: ma cosa pensi che MS con questi ripensamenti ti sta facendo un favore a te o lo fanno per loro? dopo che la gente si è lamentata e non poco per forza hanno fatto marcia indietro altrimenti cosa avrebbero venduto?
il prodotto è di valore indiscutibile?? ma secondo te quanto gli costa alla MS la X1 con quei componenti il quale alcuni li definirei anche scarti??
e poi cercare di far credere alla gente che la X1 è più potente di quello che realmente è non è presa in giro??
la verità è che la Microsoft stavolta ha sottovalutato molto la Sony perchè visti gli errori passati già la davano per spacciata ed ora se la sono presi nel posteriore rovinando tutti quello di buono fatto dal 2001....
io la vedo cosi poi ognuno fa come gli pare ma certo credere che gli asini volano francamente non ci credo :asd:
detto ciò la chiudo qui non risponderò più ad una tua eventuale risposta ciao :)
ps. ecco il valore del prodotto indiscutibile :D
http://wimages.vr-zone.net/2013/07/PS4-and-Xbox-One-GPU.jpg
io ste console le volevo ancora più potenti, tra 2 anni già saranno vecchie...
Allora, chiariamo un bel punticino perchè forse mi sono spiegato male, io non ho mai e poi mai detto che tu non possa venire qui a commentare, anzi io sono molto molto propenso a leggere, confrontarmi con opinioni diverse come dimostrano i miei post (non mi sono mai permesso di dare contro a chi avesse un'idea diversa dalla mia, anzi tento di capirla e accettarla). Io sono contro chi commenta con frasi del tipo "ridicoli qua ridicoli là", "presa in giro così, presa in giro colì". Abbiamo tutti quanti letto la tua idea, a me fa anche piacere che tu l'abbia espressa e io in primis l'ho accolta dicendoti che sicuramente avrai avuto le tue ragioni, ma è palesemente inutile continuare a ripetere le stesse cose giusto per punzecchiare chi non la pensa nel tuo stesso modo. Sicuramente da una persona della tua età mi aspetto commenti sicuramente più seri e meno trollosi, ma questo è quello che mi aspetterei io quindi sicuramente non sto lì a giudicare i tuoi comportamenti perchè non sono e non devono essere fatti miei, hai ragione. Detto questo per me, e ripeto per me, la MS si è limitata a seguire il feedback dei preordini che hanno ricevuto su Xbox One, evidentemente poco esaltanti, e si è regolata di conseguenza. Non nascondo che il cambio di politica mi abbia fatto storcere il naso perchè mi sarebbe piaciuto avere due prodotti ben differenziati e a loro stanti essendo uno che le console comunque le avrebbe comprate ambedue. Se ti chiedi se ho preordinato One? Si, e con altrettanta tranquillità ti dico che il mio preorder è stato fatto prima del cambio di rotta e che, solo per mancanza di tempo, non sono andato a disdire o a convertire con PS4, cosa che molto probabilmente farò. Poco mi interessa se mi cataloghi tra quelli coi salami sugli occhi perchè tanto non mi cambia molto la giornata. Il valore del prodotto va ben oltre un'immaginetta postata lì tanto per farmi vedere la potenza della GPU di PS4 a confronto con One, perchè se ne è parlato prima, si è arrivati a certe conclusioni generiche e poco importa se vuoi sguazzare nelle immaginette di Google Images, fai pure. Sicuramente non è la differenza nelle GPU che determina un costo maggiore di One, ma forse questo era anche palese.
Detto questo, ti rispondo sull'ultima cosa e poi la chiudo qui, perchè è giusto così, senza rancore alcuno, io quella di MS non la chiamo presa in giro lo sai perchè? Presa in giro la chiamo quando compri 2 PSN Card da 20€, vai a casa, depositi i tuoi soldini sul portafoglio online di PSN e nel giro di una settimana buttano giù il servizio e ti fottono i 20.01€ (si intanto avevo comprato un titolo da 19.99€) che non rivedrai mai più, perchè chiamando e mandando le letterine alla Sony e compagnia bella tutti ti rispondono che è colpa tua e solo tua, non loro che si son fatti buttar giù il sistema. Quindi anche qui abbiamo due idee di prese in giro diverse, e meno male aggiungo.
Mi sembrano le classiche dichiarazioni dietro pagamento, non c'è nulla di serio tecnicamente per far si che ciò sia vero, su una console meno potente per giunta. Ricordiamo che il cloud non è in nessun modo esclusiva MS, oltre che essere non disponibile per tutto il bacino d'utenza quindi non credo che ci punteranno piu di tanto. Sono solo specchietti per le allodole.
Mi aggancio alla discussione di cui sopra per chiarire alcuni aspetti e chiedere info su altri: conosco molto bene l'architettura delle GPU Pitcairn in quanto io stesso sul mio PC da Gaming ho una 7850 Overcloccata di fabbrica, e vi assicuro che è una scheda video di media fascia assolutamente valida, fino ad ora ho giocato a tutto (compreto Tomb Raider) con tutto al massimo senza mai scendere sotto i 30 fps, abbinata ad un i5 2500k. Credo che questa scheda video sia una scelta particolarmente felice per una console, in quanto con le ottimizzazioni del caso credo possa fare grandi cose da qui a 6-7 anni: se penso a cosa sono riusciti a fare con uncharted 3 su quel catorcio di gpu di PS3 non saprei neanche immaginare a cosa si arriverà.
Ora, la GPU che ha XBOXONE non dovrebbe essere la stessa? Che architettura è Bonaire?
Di sicuro è tanto credibile quanto lo sviluppatore di CDProjekt che afferma che le versioni delle console next gen di W3 saranno identiche a quelle PC. In ogni caso, sicuramente il cloud non è esclusiva MS, ma l'investimento fatto ad ogni modo dovrebbe ripagare le scelte che sono state fatte. Sicuramente tra i due servizi cloud, quello più vicino al lancio è quello di MS, quello di Sony per il momento mi sembra più incentrato sulla questione delle esclusive e leggevo ancora non essere pronto per il lancio della console. La GPU di PS4 è una Pitcairn Pro, che dovrebbe essere all'incirca una 7850,scheda mid-high range, 5-10% in più in performance a quanto leggevo online, stesso dicasi della Bonaire XT di Xbox One, 5-10% più prestante della 7790, che è una scheda midrange.
Beh ad essere onesti la serie 78000 è mid-level mentre la serie 7700 è entry level. La high level è la serie 7900
petru916
07-07-2013, 22:39
Beh ad essere onesti la serie 78000 è mid-level mentre la serie 7700 è entry level. La high level è la serie 7900
http://it.wikipedia.org/wiki/AMD_Radeon_HD_7000_series
Io mi sono basato su questo e su un articolo di Tomshw. In ogni caso sono concorde con Antonioplay85 sul fatto che le avrei gradite più spinti come sistemi, sono lontani i tempi in cui su 360 c'era una high end di ATi e su PS3 un processore high end.
petru916
07-07-2013, 22:47
http://www.youtube.com/watch?v=qzf7Q2-A7AU
Questo dovrebbe essere più o meno lo scenario di ciò che avremo di fronte, considerando che la esRAM dovrebbe aiutare la GPU di One non penso che alla fine, ottimizzazione permettendo, i risultati debbano essere molto diversi. Sicuramente avremo uno standard di framerate migliore su PS4. Come sempre poi la differenza la faranno gli sviluppatori, PS3 e 360 sono molto simili eppure Rockstar sulle versioni PS3 pare si sia affidata a dei cammelli anzichè a dei professionisti, dicasi lo stesso su Fallout 3 mentre ad esempio FF XIII era notevolmente migliore su PS3.
Vedete di stare calmi
Ora, la GPU che ha XBOXONE non dovrebbe essere la stessa? Che architettura è Bonaire?
è un'architettura più recente di Pitcairn, non so se oltre alla 7790 (scheda tra la 7770 e la 7850) la monta qualche altra VGA.
comunque il limite di Xbox One è la mancanza di GDDR5 (che monta la stessa 7790 come tutte le VGA destinate al gioco degli ultimi anni)
http://www.youtube.com/watch?v=qzf7Q2-A7AU
Questo dovrebbe essere più o meno lo scenario di ciò che avremo di fronte, considerando che la esRAM dovrebbe aiutare la GPU di One non penso che alla fine, ottimizzazione permettendo, i risultati debbano essere molto diversi. Sicuramente avremo uno standard di framerate migliore su PS4. Come sempre poi la differenza la faranno gli sviluppatori, PS3 e 360 sono molto simili eppure Rockstar sulle versioni PS3 pare si sia affidata a dei cammelli anzichè a dei professionisti, dicasi lo stesso su Fallout 3 mentre ad esempio FF XIII era notevolmente migliore su PS3.
Non conosco le differene tra processori, se dovessero esserci il risultato potrebbe essere piu divergente di quello mostrato nel video (che comunque è sostanziale, oltre 10 fps di differenza sempre).
Ad ogni modo, credo che questa volta ci saranno molte meno discrepanze rispetto alal generazione passata: hanno la stessa architettura, cambiano solo le prestazioni dei componenti. Credo che l'unica differenza sarà il framerate o qualche effetto in piu su PS4 nei multipiatta.
petru916
07-07-2013, 22:57
Vedete di stare calmi
è un'architettura più recente di Pitcairn, non so se oltre alla 7790 (scheda tra la 7770 e la 7850) la monta qualche altra VGA.
comunque il limite di Xbox One è la mancanza di GDDR5 (che monta la stessa 7790 come tutte le VGA destinate al gioco degli ultimi anni)
Calmissimo, chiedo scusa a tutti nel caso fossi andato sopra le righe. Vedremo come si comporterà il sistema dovendo far fronte a questa mancanza, impensabile di buttare tutto sull'esRAM. In ogni caso DDR3 dovrebbero assicurare una minore latenza, a tutto vantaggio della CPU, non che sia determinante, ma vedremo come sarà sfruttata.
petru916
07-07-2013, 23:03
Non conosco le differene tra processori, se dovessero esserci il risultato potrebbe essere piu divergente di quello mostrato nel video (che comunque è sostanziale, oltre 10 fps di differenza sempre).
Ad ogni modo, credo che questa volta ci saranno molte meno discrepanze rispetto alal generazione passata: hanno la stessa architettura, cambiano solo le prestazioni dei componenti. Credo che l'unica differenza sarà il framerate o qualche effetto in piu su PS4 nei multipiatta.
I processori a quanto pare saranno identici, su Anandtech leggevo di stime attorno a 1,6-2 GHz, quindi niente di troppo spinto. Comunque postando il video, che ricordo essere fatto alle stesse risoluzioni/impostazioni grafiche, volevo far notare come c'è ed è evidente una differenza, ma considerando che le console sono un sistema chiuso e destinato a perdurare, sicuramente sarà meno evidente rispetto a quanto vediamo ora su PC. Che poi per raggiungere il framerate di PS4 debbano tagliare qualche effetto qua e là è indubbio mi pare di capire. Alle stesse impostazioni sicuramente avremo qualcosa di più stabile, parlando di fluidità, su PS4.
alexbands
07-07-2013, 23:40
http://www.youtube.com/watch?v=qzf7Q2-A7AU
cut.
su console non uscirebbe mai un gioco nelle condizioni mostrate con entrambe le schede... bloccherebbero il frame rate a 30 max 40 e bona lì. Sempre che non si riesca a mantenere un frame rate più alto grazie all'ottimizzazione.
Io da questo video vedo 2 schede che nelle fasi concitate non reggono i 40, una fa peggio dell'altra ma sono entrambe "scarse"...
Detto questo, ti rispondo sull'ultima cosa e poi la chiudo qui, perchè è giusto così, senza rancore alcuno, io quella di MS non la chiamo presa in giro lo sai perchè? Presa in giro la chiamo quando compri 2 PSN Card da 20€, vai a casa, depositi i tuoi soldini sul portafoglio online di PSN e nel giro di una settimana buttano giù il servizio e ti fottono i 20.01€ (si intanto avevo comprato un titolo da 19.99€) che non rivedrai mai più, perchè chiamando e mandando le letterine alla Sony e compagnia bella tutti ti rispondono che è colpa tua e solo tua, non loro che si son fatti buttar giù il sistema. Quindi anche qui abbiamo due idee di prese in giro diverse, e meno male aggiungo.
A cosa ti riferisci esattamente? Ho usato parecchie PSN Cards da 50€ e non ho mai perso nemmeno un centesimo :confused:
Mi sembrano le classiche dichiarazioni dietro pagamento, non c'è nulla di serio tecnicamente per far si che ciò sia vero, su una console meno potente per giunta. Ricordiamo che il cloud non è in nessun modo esclusiva MS, oltre che essere non disponibile per tutto il bacino d'utenza quindi non credo che ci punteranno piu di tanto. Sono solo specchietti per le allodole.
Mi aggancio alla discussione di cui sopra per chiarire alcuni aspetti e chiedere info su altri: conosco molto bene l'architettura delle GPU Pitcairn in quanto io stesso sul mio PC da Gaming ho una 7850 Overcloccata di fabbrica, e vi assicuro che è una scheda video di media fascia assolutamente valida, fino ad ora ho giocato a tutto (compreto Tomb Raider) con tutto al massimo senza mai scendere sotto i 30 fps, abbinata ad un i5 2500k. Credo che questa scheda video sia una scelta particolarmente felice per una console, in quanto con le ottimizzazioni del caso credo possa fare grandi cose da qui a 6-7 anni: se penso a cosa sono riusciti a fare con uncharted 3 su quel catorcio di gpu di PS3 non saprei neanche immaginare a cosa si arriverà.
Ora, la GPU che ha XBOXONE non dovrebbe essere la stessa? Che architettura è Bonaire?
Quella che è usata sulla 7790. Come scheda sta una spanna sopra alla 7770, che pure non è male (per usare il tuo esempio di Tomb Raider, anche la 7790 rimarrebbe sempre sopra i 30fps). La differenza è che la 7790 usa memorie GDDR5... però ha un bus di 128 bit. La X1 ha il bus a 256 bit e usa memorie a 2166mhz, il risultato è che la banda delle due schede non è tanto diversa. La banda della X1 è simile alla 7770. Diciamo che come scheda sta a metà strada fra la 7770 e la 7790. Non sarebbe neanche male. Se vedi le recensioni della 7790, sta mediamente un 15-20% sotto alla 7850. E' anche vero che la GPU della PS4 dovrebbe essere un po' sopra alla 7850. Diciamo a metà fra la 7850 e la 7870. In tal caso, il divario si allargherebbe.
Per quanto riguarda il discorso memoria, continuo a dire che secondo me, non è tanto importante. Le schede video DDR3 su PC tendono ad avere memorie da 1600mhz e il bus a 64 o 128 bit, il che produce bande ridicole tipo 12-25GB/s. Sotto questo punto di vista, i 68GB/s della X1 non sono tanto male, è come avere GDDR5 su 128 bit. Certo bisognerà vedere poi in uno scenario reale se 68GB/s sono sufficienti o no. Per fortuna entrambe le console dovrebbero avere quantità elevate di memoria (5GB e 7GB, quando le schede attuali in genere non vanno oltre i 3GB - se pensi invece alla PS3, i suoi 256MB di memoria video erano scarsi anche al lancio).
Non esistono recensioni di schede con DDR3 a 256 bit, temo. L'unica cosa che si può vedere è la 7750 che ha un bus da 128bit ed esiste sia in versione DDR3 che GDDR5. La versione GDDR5 supera del 50-60% la versione DDR3. Ma come ho già detto, con una banda limitata a 25GB/s, la cosa era prevedibile. Non credo sia paragonabile alla X1. L'unica allora è aspettare che escano i giochi e vedere le differenze.
Altro problema è capire quanto il processore influisca sulla scheda. Se entrambe le console usano davvero 8-core a 1.6Ghz con architettura a basso consumo, temo che le due GPU saranno limitate (nel qual caso fra l'altro il vantaggio della GPU della PS4 sarebbe ridotto).
petru916
08-07-2013, 13:39
A cosa ti riferisci esattamente? Ho usato parecchie PSN Cards da 50€ e non ho mai perso nemmeno un centesimo :confused:
OT/ il famoso blackout, dove Anonymous buttò giù tutto. Purtroppo tra gli "onesti" ovviamente c'erano anche meno "onesti". Fatto sta che all'epoca comprai il DLC do Midnight Club LA a e Crash Bandicoot PS1 (totale 15+4.99) e il resto dei miei fondi non c'era più. Leggendo su qualche forum effettivamente furono mandati via in alcuni che avevano "cavalcato l'onda". Fatto sta che io i miei soldi non li ho visti più, difatti nemmeno su Live o su Steam ho carte di credito o saldi punti residui, tutto quello che compro lo spendo e non lascio più fondi da nessuna parte. /OT Fine
miriddin
08-07-2013, 16:00
Probabilmente il mio è un parere poco utile, visto che ho preso sempre tutte le console.
Comunque, tanto per dire la mia:
- ho prenotato l'XBox One perchè, a mio avviso, il progetto inizialmente presentato si prestava a sviluppi molto interessanti, a cominciare dall'interazione totale tra giocatore e console potenzialmente possibile con questa piattaforma: non mi ha fatto piacere che Microsoft sia tornata sulle proprie posizioni e molto probabilmente rinuncerei all'acquisto se il Kinect diventasse facoltativo, visto che verrebbe meno quel concept a cui mi riferivo;
- non ho prenotato la PS4, considerando i precedenti (PS3 arrivata sul mercato europeo castrata rispetto all'originale) ed aspetto di vedere se l'hardware finale sarà quello previsto.
gagliardi88
09-07-2013, 09:06
Condivido.
Maggiore concorrenza c'è, piu dovranno aumentare il valore dell'offerta o diminuirne il prezzo.
Ad ogni modo, una Xbox1 senza kinect anche con un prezzo assurdi di 150 euro in meno la trovo non conveniente. E' una Ps4 meno potente, e direi che 50 euro per un 7 anni di potenza aggiuntiva li spenderebbero tutti.
Devono giocare sulla differenziazione: ergo ben venga Kinect e integrazione. Chi lo vuole prende Xbox, chi vuole una cosa piu classica Ps4.
Ma sei un ingegnere che parli di dati certi? 7 anni di di potenza aggiuntiva? O.o da dove l hai pescata sta cosa?
Non sai neanche quanto dureranno ste due concole è gia fai calcoli da qui a 7 anni. Il tuo potenziale è sprecato su questo forum dovresti lavorare in super uffici.
È tanto per la cronaca le ddr5 della.ps4 saranno piu veloci in grafica ma abbinate alla.cpu sono lente se confrontate alla ddr3. Quindi un compenso di una scompensa l altra.
E per i tuoi famosi 7 anni, i più importanti ceo hanno gia diagnosticato un spostamento sempre piu progressivo verso il cloud, e quindi piu dati calcolati dalla.cpu
tu non devi prendere la PS4? cosa attendi? :mbe:
A me interessano entrambe le console, ad un prezzo che ritengo equo.
Le GDDR5 hanno latenze maggiori, problema che può essere fortissimamente limitato dalla cache della CPU, come il problema della banda minore di One potrebbe essere mitigato dalla presenza della edram che sgava molti calcoli di postprocessin alla GPU
Non conosco le differene tra processori, se dovessero esserci il risultato potrebbe essere piu divergente di quello mostrato nel video (che comunque è sostanziale, oltre 10 fps di differenza sempre).
Ad ogni modo, credo che questa volta ci saranno molte meno discrepanze rispetto alal generazione passata: hanno la stessa architettura, cambiano solo le prestazioni dei componenti. Credo che l'unica differenza sarà il framerate o qualche effetto in piu su PS4 nei multipiatta.
non dimentichiamoci anche dei sistemi operativi che opereranno in background
gagliardi88
09-07-2013, 12:03
Le GDDR5 hanno latenze maggiori, problema che può essere fortissimamente limitato dalla cache della CPU, come il problema della banda minore di One potrebbe essere mitigato dalla presenza della edram che sgava molti calcoli di postprocessin alla GPU
Sai quanta cache hanno per caso?
tecnologico
09-07-2013, 12:25
E per i tuoi famosi 7 anni, i più importanti ceo hanno gia diagnosticato un spostamento sempre piu progressivo verso il cloud, e quindi piu dati calcolati dalla.cpu
dai su, un bel bicchierone di latte e poi a letto :asd:
no, sulla One si cache di L2 2MB per 4 core, quindi 4 MB in totale, ogni core ha i canonici 32 + 32 Kb di L1 per dati e codice.
Sulla PS3 immagino sia identica per cache di L1, mentre per la cache di L2 non ho trovato informazioni specifiche.
Obrigado
09-07-2013, 12:35
Le GDDR5 hanno latenze maggiori, problema che può essere fortissimamente limitato dalla cache della CPU, come il problema della banda minore di One potrebbe essere mitigato dalla presenza della edram che sgava molti calcoli di postprocessin alla GPU
da vikipedia:
GDDR5 operates with two different clock types. A differential command clock (CK) as a reference for address and command inputs, and a forwarded differential write clock (WCK) as a reference for data reads and writes. Being more precise, the GDDR5 SGRAM uses two write clocks, each of them assigned to two bytes. The WCK runs at twice the CK frequency. Taking a GDDR5 with 5 Gbit/s data rate per pin as an example, the CK clock runs with 1.25 GHz and WCK with 2.5 GHz. The CK and WCK clocks will be aligned during the initialization and training sequence. This alignment allows read and write access with minimum latency. Most modern graphics cards now use this technology, including the new PlayStation 4.
http://www.hwstation.net/img/news/allegati/Qimonda_GDDR5_whitepaper.pdf
sta storiella della latenza alta delle gddr5 sta durando fin troppo.
"di problemi" di latenze ne ha piu' xbox one che ps4
non e' quello che si capisce da come scrivi su entrambi i thread ufficiali. sara'...
Una la trovo molto piu calzante alle mie esigenze ma non voglio precludermi le esclusive quindi se diventasse meno improponobile meglio per tutti. Ad ogni modo non vedo perche debba interessarti :)
petru916
09-07-2013, 13:26
The principle differences are:
•DDR3 runs at a higher voltage that GDDR5 (typically 1.25-1.65V versus ~1V)
•DDR3 uses a 64-bit memory controller per channel ( so, 128-bit bus for dual channel, 256-bit for quad channel), whereas GDDR5 is paired with controllers of a nominal 32-bit (16 bit each for input and output), but whereas the CPU's memory contoller is 64-bit per channel, a GPU can utilise any number of 32-bit I/O's (at the cost of die size) depending upon application ( 2 for 64-bit bus, 4 for 128-bit, 6 for 192-bit, 8 for 256-bit, 12 for 384-bit etc...). The GDDR5 setup also allows for doubling or asymetric memory configurations. Normally (using this generation of cards as example) GDDR5 memory uses 2Gbit memory chips for each for each 32-bit I/O (I.e for a 256-bit bus/2GB card: 8 x 32-bit I/O each connected by a circuit to a 2Gbit IC = 8 x 2Gbit = 16Gbit = 2GB), but GDDR5 can also operate in what is known as clamshell mode, where the 32-bit I/O instead of being connected to one IC is split between two (one on each side of the PCB) allowing for a doubling up of memory capacity. Mixing the arrangement of 32-bit memory controllers and memory circuit splitting allows of asymetric configurations ( 192-bit, 2GB VRAM for example)
•Physically, a GDDR5 controller/IC doubles the I/O of DDR3 - With DDR, I/O handles an input (written to memory), or output (read from memory) but not both on the same cycle. GDDR handles input and output on the same cycle.
The memory is also fundamentally set up specifically for the application it uses:
System memory (DDR3) benefits from low latency (tight timings) at the expense of bandwidth, GDDR5's case is the opposite. Timings for GDDR5 would seems unbelieveably slow in relation to DDR3, but the speed of VRAM is blazing fast in comparison with desktop RAM- this has resulted from the relative workloads that a CPU and GPU undertake. Latency isn't much of an issue with GPU's since their parallel nature allows them to move to other calculation when latency cycles cause a stall in the current workload/thread. The performance of a graphics card for instance is greatly affected (as a percentage) by altering the internal bandwidth, yet altering the external bandwidth (the PCI-Express bus, say lowering from x16 to x8 or x4 lanes) has a minimal effect. This is because there is a great deal of I/O (textures for examples) that get swapped in and out of VRAM continuously- the nature of a GPU is many parallel computations, whereas a CPU computes in a basically linear way.
well said lol. you need faster memory for transferring larger amounts of data, that is why Gddr5 is used, but DDR3 is better for transferring smaller amounts of data. If you notice, DDR3 video cards have mainly 64bit memory bandwidth or 128 (64x2), while gddr5 cards have 256 or 384 bit memory bandwidths.
Preso da techspot.com , nel forum.
Il succo è questo: le DDR3 sono memorie che usano un voltaggio più alto, un memory controller più ampio, ma sono limitate dalla possibilità di dover o solo scrivere o solo leggere dati, questo ne limita la banda. Le GDDR invece hanno la possibilità di avere operazioni I/O simultanee, di conseguenza la banda aumenta. Ad ogni modo la latenza non dovrebbe inficiare le performance dela GPU perchè proprio per natura la GPU svolge calcoli paralleli, quindi uno stallo nello scambio di informazioni non dovrebbe essere limitante. Ad ogni modo, lo stesso utente, fa notare come la esRAM sia una risorsa molto importante per Xbox One, che permette di equiparare la banda disponibile in modo abbastanza efficace potendo anche lei gestire operazioni I/O simultanee. Sicuramente, come si diceva anche qui, sono due approcci che ad una prima occhiata sembrano uguali (stessa CPU, stesso quantitativo di RAM, stessa famiglia di GPU), ma da una parte (Xbox) sono una diretta evoluzione del sistema Xbox 360, dall'altra invece è una completa riprogettazione del sistema visti i risultati ottenuti con PS3 (dove tutti i third party si sono lamentati della difficoltà di programmazione, tralasciando ovviamente le perle dei first party che saranno un 5-6% del mercato complessivo di titoli PS3). Sicuramente il "raw power" è a favore di PS4, ma, come detto, la qualità complessiva dei titoli sarà pressochè simile sulle due console sin dal lancio.
tecnologico
09-07-2013, 14:58
si ma simile non vuol dire uguale. a me pare che ci stiamo nascondendo dietro un dito. siamo stati una generazione a bestemmiare contro una delle due versioni dei multipiatta "leggermente inferiore" ma appunto SIMILE alla controparte. a volte erano delle texture meno definite, a volte il frame rate, altre qualche scalettatura. i giochi tra ps3 e x360 erano SIMILI ma non uguali. ed è bastata questa micro differenza per decidere quale console acquistare e verso chi bestemmiare. ora invece qua pare che il "vabbè saranno simili" è abbastanza. quindi quando arriveranno le texture migliori, o il frame migliore o qualche effetto in più che diremo? no dai sono simili? detto dalle stesse persone che hanno gongolato per 7 anni per un paio di texture migliori e 3 frame in più.
e si aggiunge che in linea di massima qui si parla di ddr5 = ddr3 + edram..e non si considera che, dando per buona questa uguaglianza, c' è da considerare una gpu più lenta, una probabile frequenza della cpu inferiore e un so probabilmente più pesante.
ma di che stiamo parlando?
si ma simile non vuol dire uguale. a me pare che ci stiamo nascondendo dietro un dito. siamo stati una generazione a bestemmiare contro una delle due versioni del multipiatta "leggermente inferiore" ma appunto SIMILE alla controparte. a volte erano dele texture meno definite, a volte il frame rate, altre qualche scalettatura. i giochi tra ps3 e x360 erano SIMILI ma non uguali. ed è bastata questa micro differenza per decidere quale console acquistare e verso chi bestemmiare. ora invece qua pare che il "vabbè saranno simili" è abbastanza. quindi quando arriveranno le texture migliori, o il frame migliore o qualche effetto in più che diremo? no dai sono simili? detto dalle stesse persone che hanno gongolato per 7 anni per un paio di texture migliori e 3 frame in più.
e si aggiunge che in linea di massima qui si parla di ddr5 = ddr3 + edram..e non si considera che, dando per buona questa uguaglianza, c' è da considerare una gpu più lenta, una probabile frequenza della cpu inferiore e un so probabilmente più pesante.
ma di che stiamo parlando?
Si infatti mi pare che l'andazzo sia questo e mi sembra che l'utenza qui sia un pò ostile quando si parla di prestazioni, ergo meglio soprassedere.
Una domanda per i più preparati (anticipo che non è polemica, ma solo mia ignoranza in materia...):
ma le specifiche hardware ufficiali della xone sono state rese note? Quelle PS4 mi pare di aver capito di sì, mentre per la controparte ms quando se ne parla è tutto "dovrebbe" "potrebbe" etc...ci sono o no??? Grazie in anticipo!!! :)
Una domanda per i più preparati (anticipo che non è polemica, ma solo mia ignoranza in materia...):
ma le specifiche hardware ufficiali della xone sono state rese note? Quelle PS4 mi pare di aver capito di sì, mentre per la controparte ms quando se ne parla è tutto "dovrebbe" "potrebbe" etc...ci sono o no??? Grazie in anticipo!!! :)
Queste le specifiche su wikipedia
Central Processing Unit:
AMD64 x86-64[11]
8 cores[11]
Graphics Processing Unit:
Performance complessiva dichiarata in virgola mobile: 1.23 TeraFLOPS[12] (not official).
Memoria:
8 GB RAM/VRAM DDR3 unificata[11]
System Bandwidth @68.3GB/s[13]
Unità Disco:
Blu-ray Disc
Archiviazione:
500 GB HDD
Comunicazione:
Wi-Fi IEEE 802.11 b/g/n
Ethernet
USB 3.0
Uscite Audio/Video
2xHDMI
S/PDIF
fonte http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-4/2
Sono diciamo ufficiose, ma non smentite, e direi che questo basta per renderle praticamente certe.
E' ovvio che, trovandosi in una situazione di difetto con il competitor, non le confermeranno mai fino al giorno del lancio.
petru916
09-07-2013, 18:29
si ma simile non vuol dire uguale. a me pare che ci stiamo nascondendo dietro un dito. siamo stati una generazione a bestemmiare contro una delle due versioni dei multipiatta "leggermente inferiore" ma appunto SIMILE alla controparte. a volte erano delle texture meno definite, a volte il frame rate, altre qualche scalettatura. i giochi tra ps3 e x360 erano SIMILI ma non uguali. ed è bastata questa micro differenza per decidere quale console acquistare e verso chi bestemmiare. ora invece qua pare che il "vabbè saranno simili" è abbastanza. quindi quando arriveranno le texture migliori, o il frame migliore o qualche effetto in più che diremo? no dai sono simili? detto dalle stesse persone che hanno gongolato per 7 anni per un paio di texture migliori e 3 frame in più.
e si aggiunge che in linea di massima qui si parla di ddr5 = ddr3 + edram..e non si considera che, dando per buona questa uguaglianza, c' è da considerare una gpu più lenta, una probabile frequenza della cpu inferiore e un so probabilmente più pesante.
ma di che stiamo parlando?
Io storicamente non sono mai stato uno che è andato a guardare la scalettatura o la texture più slavata, altrimenti non sarei stato 10 anni con PS2 e tutt'ora possessore, dal day one, di PS3. Per farti capire io l'Xbox l'ho presa per un motivo puramente ed esclusivamente "amicale", nel senso che gli amici con cui mi piaceva giocare erano passati tutti su Xbox. Bona lì. Se per te il gioco NON vale la candela, nel senso che vuoi a tutti i costi la versione visivamente migliore vai a prenderti PS4, e questo lo sappiamo già a priori, senza nessuna comparativa e compagnia bella. I numeri lo confermano e lo riconfermano. Detto questo io, che AL MOMENTO sto considerando l'acquisto di Xbox, penso e quindi dico che tutta questa tragicità sull'hw non c'è dal mio personalissimo personale ultrapersonale punto di vista, chiariamo. Al massimo, ma proprio al massimo, avremo la stessa identica situazione di questa gen, ovvero giochi meglio su una console (PS4) che sull'altra, mai nella vita come i giochi che uscivano per la prima Xbox e per PS2, proprio una spanna inferiori su PS2, ma data la distanza con cui uscì l'hw Xbox era anche prevedibile. Detto questo, tu sai benissimo qual è l'offerta delle due console, una ti dà un sistema all in one (Tv caxxi e mazzi) e l'altra ti da un'impostazione improntata al gaming puro. Poi uno sceglie quello che gli piace di più.
Altri rumor! Prendeteli con un pizzico di sale e pepe, come al solito :O
https://xboxuncut.squarespace.com/microsoft-asking-developers-about-an-increased-gpu-clock-and-an-increase-to-12-gb-of-ram/
As rumors are continually made about a change in the final specs on the Xbox One we have now heard rumors from a member on the website Beyond3D that Microsoft is actually asking developers about an increased GPU upclock and a increase in total DDR3 RAM to 12GB.
The_max_80
09-07-2013, 18:34
Una domanda per i più preparati (anticipo che non è polemica, ma solo mia ignoranza in materia...):
ma le specifiche hardware ufficiali della xone sono state rese note? Quelle PS4 mi pare di aver capito di sì, mentre per la controparte ms quando se ne parla è tutto "dovrebbe" "potrebbe" etc...ci sono o no??? Grazie in anticipo!!! :)
no, non sono ufficiali e non si sa neppure COME verrà impiegata la famosa esdram e non è ufficiale neppure la sua velocità, non si sa neppure l'impatto software e driver , non si conosce il beneficio delle directx 11.2 esclusiva x1 (e pc) che dovrebbe alleggerire il carico, non si sa come sarà fatta lavorare la cpu (per esempio a me risulta che in ps4 delle famose 18 unità di calcolo della gpu solo 14 sono per le classiche operazione della gpu e 4 andranno a fare in parallelo il lavoro che dovrebbe fare la cpu , il che non sappiamo che cosa produce in termini di prestazioni), in definitiva non sappiamo le PRESTAZIONI reali dell'intera MACCHINA, infatti si sta parlando del nulla. Purtroppo però siccome sony è stata presa in simpatia per vari motivi (giusti o sbagliati non mi interessa) si fa fatica a fare delle analisi serie visto che chiunque si mantenga cauto sulle prestazioni viene tacciato di essere poco serio e , sotto sotto, fan boy MS.
miriddin
09-07-2013, 18:43
A parte le speculazioni sull'hardware finale delle due console, che allo stato attuale mi sembra un pò come dibattere sul sesso degli angeli, la cosa importante citata nel link mi sembra essere la buona risposta dell'hardware alle variazioni termiche, situazione che sembra lasciare spazio anche per un settaggio più alto del clock della console...
Poi, prima del lancio le specifiche cambieranno sicuramente altre 100 volte!
Brightblade
09-07-2013, 18:43
Altri rumor! Prendeteli con un pizzico di sale e pepe, come al solito :O
https://xboxuncut.squarespace.com/microsoft-asking-developers-about-an-increased-gpu-clock-and-an-increase-to-12-gb-of-ram/
Rumor di upgrade di specifiche che erano rumors :sofico:
A scanso di equivoci, ben vengano tutte le ipotetiche migliorie e, per quanto mi riguarda, i cambi di rotta fatti fin'ora, ma a sto punto potevano lasciar presentare prima la PS4 :asd:
no, non sono ufficiali e non si sa neppure COME verrà impiegata la famosa esdram e non è ufficiale neppure la sua velocità, non si sa neppure l'impatto software e driver , non si conosce il beneficio delle directx 11.2 esclusiva x1 (e pc) che dovrebbe alleggerire il carico, non si sa come sarà fatta lavorare la cpu (per esempio a me risulta che in ps4 delle famose 18 unità di calcolo della gpu solo 14 sono per le classiche operazione della gpu e 4 andranno a fare in parallelo il lavoro che dovrebbe fare la cpu , il che non sappiamo che cosa produce in termini di prestazioni), in definitiva non sappiamo le PRESTAZIONI reali dell'intera MACCHINA, infatti si sta parlando del nulla. Purtroppo però siccome sony è stata presa in simpatia per vari motivi (giusti o sbagliati non mi interessa) si fa fatica a fare delle analisi serie visto che chiunque si mantenga cauto sulle prestazioni viene tacciato di essere poco serio e , sotto sotto, fan boy MS.
come non quotarti?
tecnologico
09-07-2013, 22:28
dove è stato detto 11.2 non su ps4? ma tanto non va a opengl?
si avrà le OpenGL 4.2 mi pare
tecnologico
09-07-2013, 22:40
quindi che gli frega delle direct? :asd:
è come dire win 8 esclusiva pc e x1. e grazie al pero :asd:
Piccola notifica
Le directx non sono polvere magica in grado di di fare brillare di più la scheda video.
Semplicemente è un metodo per usare le funzioni della scheda video.
Ovviamente le directx 11.2 supportano più roba delle directx 9. Ma il concetto è che la scheda video deve potere supportare queste funzioni.
Visto che le schede video sono basati sulla stessa architettura avranno le stesse funzioni.
Comunque non è la sony che è stato preso di simpatia, ma piuttosto la gente si è accorta che non tutto quello che è marrone è cioccolata.
Non è che la maggioranza dell'internet sia diventata fanboy sony.
tecnologico
09-07-2013, 23:05
io resto dell' idea che a 199 sarebbero ancora vendute non in perdita :asd:
Piccola notifica
Le directx non sono polvere magica in grado di di fare brillare di più la scheda video.
Semplicemente è un metodo per usare le funzioni della scheda video.
Ovviamente le directx 11.2 supportano più roba delle directx 9. Ma il concetto è che la scheda video deve potere supportare queste funzioni.
Visto che le schede video sono basati sulla stessa architettura avranno le stesse funzioni.
uhm, non è proprio così.
directx è anche funzioni della scheda video, ma è anche roba in più
perché quando tutti i tuoi post sembrano delle provocazioni e basta, ma rigorosamente su uno dei due thread, uno si fa delle domande... se permetti...
Provocazioni? parlare di una console è una provocazione a CHI esattamente? Non capisco proprio..secondo me siete un po permalosetti in questo 3d, io parlo con cognizione esclusivamente tecnica della macchina che tra l'altro ad un prezzo inferiore mi interesserebbe anche. E ad ogni modo non siamo qui per parlare dei miei gusti, nè di quelli di altri credo quindi..se hai domande usiamo i pvt :)
giubox360
10-07-2013, 00:53
io resto dell' idea che a 199 sarebbero ancora vendute non in perdita :asd:
Come non quotarti!!:D considerando che Amd per ogni chip di una console si prende solo 60 dollari, poi infilaci un blue ray economico, un HD 2.5, una scheda rete, le ram, la scocca e alimentatore...1 controller...si diciamo che con 200 dollari ci fanno una ps 4 o xbox one senza kinect (forse la xbox anche con meno per via delle ram più economiche e della GPU castrata), e in più consideraci le spese per il marketing e il progetto, credo che alla fine fargli guadagnare 100 dollari a console mi pare anche lecito!:ciapet:
P.S. un I phone 5 se non sbaglio credo costi solo 150 dollari alla apple, ed è venduto a 700 al consumatore..quindi dai è fattibile sta next-gen!; )
no, non sono ufficiali e non si sa neppure COME verrà impiegata la famosa esdram e non è ufficiale neppure la sua velocità, non si sa neppure l'impatto software e driver , non si conosce il beneficio delle directx 11.2 esclusiva x1 (e pc) che dovrebbe alleggerire il carico, non si sa come sarà fatta lavorare la cpu (per esempio a me risulta che in ps4 delle famose 18 unità di calcolo della gpu solo 14 sono per le classiche operazione della gpu e 4 andranno a fare in parallelo il lavoro che dovrebbe fare la cpu , il che non sappiamo che cosa produce in termini di prestazioni), in definitiva non sappiamo le PRESTAZIONI reali dell'intera MACCHINA, infatti si sta parlando del nulla. Purtroppo però siccome sony è stata presa in simpatia per vari motivi (giusti o sbagliati non mi interessa) si fa fatica a fare delle analisi serie visto che chiunque si mantenga cauto sulle prestazioni viene tacciato di essere poco serio e , sotto sotto, fan boy MS.
Quoto in toto (che fa pure rima :D)...era quello che volevo arrivare a dire...
dove è stato detto 11.2 non su ps4? ma tanto non va a opengl?
Si, probabilmente la resa finale sarà identica, come è già ora, anzi, ad ascoltare Valve l'opengl sembra più rapido di directx, l'hanno scorso hanno dichiarato che il loro L4D2 a parità di HW girava in opengl a 300fps su linux contro i 270fps in directx su W7.
Michael80
10-07-2013, 08:13
no, non sono ufficiali e non si sa neppure COME verrà impiegata la famosa esdram e non è ufficiale neppure la sua velocità, non si sa neppure l'impatto software e driver , non si conosce il beneficio delle directx 11.2 esclusiva x1 (e pc) che dovrebbe alleggerire il carico, non si sa come sarà fatta lavorare la cpu (per esempio a me risulta che in ps4 delle famose 18 unità di calcolo della gpu solo 14 sono per le classiche operazione della gpu e 4 andranno a fare in parallelo il lavoro che dovrebbe fare la cpu , il che non sappiamo che cosa produce in termini di prestazioni), in definitiva non sappiamo le PRESTAZIONI reali dell'intera MACCHINA, infatti si sta parlando del nulla. Purtroppo però siccome sony è stata presa in simpatia per vari motivi (giusti o sbagliati non mi interessa) si fa fatica a fare delle analisi serie visto che chiunque si mantenga cauto sulle prestazioni viene tacciato di essere poco serio e , sotto sotto, fan boy MS.
anche io la penso allo stesso modo
tecnologico
10-07-2013, 08:39
Si, probabilmente la resa finale sarà identica, come è già ora, anzi, ad ascoltare Valve l'opengl sembra più rapido di directx, l'hanno scorso hanno dichiarato che il loro L4D2 a parità di HW girava in opengl a 300fps su linux contro i 270fps in directx su W7.
valve però ha un po il dente avvelenato con win...
Si, probabilmente la resa finale sarà identica, come è già ora, anzi, ad ascoltare Valve l'opengl sembra più rapido di directx, l'hanno scorso hanno dichiarato che il loro L4D2 a parità di HW girava in opengl a 300fps su linux contro i 270fps in directx su W7.
Le dichiarazioni della Valve le prenderei con prudenza, sembra che ci tengano a screditare Windows ad ogni occasione per quella faccenda dello Store.
quindi che gli frega delle direct? :asd:
è come dire win 8 esclusiva pc e x1. e grazie al pero :asd:
Gli frega perchè directx e opengl sono due API differenti su cui si fa grande affidamento durante lo sviluppo, e eventuali differenze fra le due fidati che si ripercuotono anche sulla qualità del prodotto finale.
Ulteriore motivo per cui non è banale fare un confronto fra le due console.
valve però ha un po il dente avvelenato con win...
Le dichiarazioni della Valve le prenderei con prudenza, sembra che ci tengano a screditare Windows ad ogni occasione per quella faccenda dello Store.
senza contare che non mi pare abbiano fatto confronti sulla qualità delle immagini a schermo e che si sono fatti fare un driver apposito da nvidia :asd:
Se le specifiche non fossero quelle Microsoft avrebbe già smentito non credete? :stordita:
A loro non conviene ufficializzarle, visto che sarebbero inferiori a quelle di Ps4..Quindi se ne staranno probabilmente zitti fino all'uscita, imho.
no, non sono ufficiali e non si sa neppure COME verrà impiegata la famosa esdram e non è ufficiale neppure la sua velocità, non si sa neppure l'impatto software e driver , non si conosce il beneficio delle directx 11.2 esclusiva x1 (e pc) che dovrebbe alleggerire il carico, non si sa come sarà fatta lavorare la cpu (per esempio a me risulta che in ps4 delle famose 18 unità di calcolo della gpu solo 14 sono per le classiche operazione della gpu e 4 andranno a fare in parallelo il lavoro che dovrebbe fare la cpu , il che non sappiamo che cosa produce in termini di prestazioni), in definitiva non sappiamo le PRESTAZIONI reali dell'intera MACCHINA, infatti si sta parlando del nulla. Purtroppo però siccome sony è stata presa in simpatia per vari motivi (giusti o sbagliati non mi interessa) si fa fatica a fare delle analisi serie visto che chiunque si mantenga cauto sulle prestazioni viene tacciato di essere poco serio e , sotto sotto, fan boy MS.
mega quotone.
aspettiamo che vengano rilasciate sul mercato, tempo 1 giorno ci saranno test e articoli di chi le ha aperte.
poi tanto... alla fine la differenza sarà nella FRUIZIONE di una console: parco giochi, resa, live e multiplayer ecc...
onestamente frega poco sapere cosa c'è dentro se tutto gira come dio comanda per 8 anni.
mega quotone.
aspettiamo che vengano rilasciate sul mercato, tempo 1 giorno ci saranno test e articoli di chi le ha aperte.
poi tanto... alla fine la differenza sarà nella FRUIZIONE di una console: parco giochi, resa, live e multiplayer ecc...
onestamente frega poco sapere cosa c'è dentro se tutto gira come dio comanda per 8 anni.
Allora chiudiamo il thread fino a quando non esce? Di cosa si dovrebbe parlare scusate??
Finchè la Microsoft non smentisce quelle uscite fin'ora, le specifiche sono quelle e si parla di quelle.
Altrimenti veramente, non c'è nulla di cui parlare e sto thread non serve a nulla :asd:
Gli frega perchè directx e opengl sono due API differenti su cui si fa grande affidamento durante lo sviluppo, e eventuali differenze fra le due fidati che si ripercuotono anche sulla qualità del prodotto finale.
Ulteriore motivo per cui non è banale fare un confronto fra le due console.
OpenGL 4.2 e directX 11.1 sono assolutamente comparabile, senza dimenticare che entrambe le console hanno GPU con medesima architettura e quindi stesse funzionalità...
Obrigado
10-07-2013, 12:46
mega quotone.
aspettiamo che vengano rilasciate sul mercato, tempo 1 giorno ci saranno test e articoli di chi le ha aperte.
poi tanto... alla fine la differenza sarà nella FRUIZIONE di una console: parco giochi, resa, live e multiplayer ecc...
onestamente frega poco sapere cosa c'è dentro se tutto gira come dio comanda per 8 anni.
il parco giochi dipende anche dalla potenza e dalla facilita' di sviluppo.(la wiiu non se la file nessuno(sviluppatori di terze parti) proprio per la sua scarsa potenza)
la resa dipende dalla potenza e dalla semplicita' dell'architettura.(moar powa, moar effctz)
live e multiplayer dipendono dagli svilupplatori e dai server.
valve però ha un po il dente avvelenato con win...
Le dichiarazioni della Valve le prenderei con prudenza, sembra che ci tengano a screditare Windows ad ogni occasione per quella faccenda dello Store.
senza contare che non mi pare abbiano fatto confronti sulla qualità delle immagini a schermo e che si sono fatti fare un driver apposito da nvidia :asd:
Ho cercato la notizia e la faccenda è un pochino diversa, per valve L4D2 gira in opengl su ubuntu a 315fps, in directx su w7 a 270.6fps, in opengl su w7 a 303.4fps quindi hanno fatto un confronto anche sullo stesso os.
Sulla qualità di immagine non ci sono dichiarazioni ma presumibilmente è la stessa, le due api supportano praticamente gli stessi effetti.
Inviato dal mio GT-N7100 con Tapatalk 2
OpenGL 4.2 e directX 11.1 sono assolutamente comparabile, senza dimenticare che entrambe le console hanno GPU con medesima architettura e quindi stesse funzionalità...
Sono assolutamente comparabili che vuol dire?
Volevi dire sono assolutamente equivalenti a livello di features?
Probabile, ma non conta solo quello.
È cosa conta? OpenGL è uno standard conosciuto ed esiste da prima di directX
È cosa conta? OpenGL è uno standard conosciuto ed esiste da prima di directX
E questo che c'entra?
Ti potrei dire che ormai usano tutti directX allora... ma non è questo il punto.
Il punto è che API diverse sono diverse più di così che ti posso dire?
Hai mai usato delle librerie da programmatore? Ce ne sono molte che fanno la stessa cosa e si interfacciano allo stesso hardware ma non sono uguali.
Potrebbero essere diverse nelle modalità di utilizzo, nelle prestazioni, in mille altre cose!
Inoltre sembra che la "nuova" feature D3D Tiled Resources che qualcuno aveva linkato pagine fa non sia un'esclusiva delle DX 11.2 ma nemmeno una novità, su opengl è presente una funzione simile già dalla versione 4.2 (ora 4.3).
cmq è già supportata in hw dalle Radeon GCN delle due console.
tecnologico
10-07-2013, 16:48
è una vaccata, ma quella delle 12gb è bella :asd:
è una vaccata, ma quella delle 12gb è bella :asd:
Il rumor della ram aggiuntiva sembra partito dai devkit che dovrebbero averne proprio 12GB, ma mi pare ovvio e scontato che ne abbiano più della console definitiva, visto che devono far girare sia il gioco in se che l'ambiente di sviluppo, poi, mettersi a 4 mesi dalla vendita a cercare posto sulla sk madre per la ram aggiuntiva, a riprogettare il sistema di raffreddamento etc...
è una vaccata, ma quella delle 12gb è bella :asd:
MA ci rendiamo conto che
1)le console sono già in produzione e in versione definitiva per il lancio di novembre, non può essere fatto nessun cambiamento hardware (infatti servira una patch per rimuovere il DRM proprio perchè già hanno magazzini pieni di migliaia di confezioni pronte)
2)fosse stato vero fin dall'inizio lo avrebbero detto per marketing.
Ergo..boiata
tecnologico
10-07-2013, 17:27
però l' overclock della gpu non è impossibile...
E questo che c'entra?
Ti potrei dire che ormai usano tutti directX allora... ma non è questo il punto.
Il punto è che API diverse sono diverse più di così che ti posso dire?
Hai mai usato delle librerie da programmatore? Ce ne sono molte che fanno la stessa cosa e si interfacciano allo stesso hardware ma non sono uguali.
Potrebbero essere diverse nelle modalità di utilizzo, nelle prestazioni, in mille altre cose!
Son programmatore, ma non è che OpenGL sia fatta da mio cugino... È uno standard a cui contribuiscono moltissime aziende... Usato da anni in applicazioni professionali come giochi... La gran parte delle applicazioni 3D per sistemi non Windows son fatte in OpenGL...
Paolo 74
10-07-2013, 18:24
premetto che la discussione su open gl/directx mi interessa molto, ma vorrei farvi leggere questo articolo che riguarda ps4 nello specifico, ma che vale anche per xbox1. In pratica si afferma che entrambe le console non saranno legate allo sviluppo dei giochi secondo queste esclusive librerie, ma anche utilizzando linguaggi di programmazione più di basso livello (presumo "c" e derivati) per sfruttare al massimo l'hardware a disposizione! Questo, più della componentistica hardware in se, mi fa ben sperare per il livello qualitativo dei giochi next gen! ;)
http://www.eurogamer.it/articles/digitalfoundry-all-interno-di-playstation-4-articolo-GDC-2013
andate alla sezione Accesso di basso livello e API ;)
In pratica si afferma che entrambe le console non saranno legate allo sviluppo dei giochi secondo queste esclusive librerie, ma anche utilizzando linguaggi di programmazione più di basso livello (presumo "c" e derivati) per sfruttare al massimo l'hardware a disposizione! Questo, più della componentistica hardware in se, mi fa ben sperare per il livello qualitativo dei giochi next gen!
Ottima notizia, cmq per sony è già così da tempo (almeno per i first party), è il team ICE dei naughty dog che sviluppa tutte le tecnologie grafiche di supporto e mi pare che i risultati si siano visti.
uhm, non è proprio così.
directx è anche funzioni della scheda video, ma è anche roba in più
Ma non permette di fare cose come diminuire uso CPU come sosteneva a chi ho risposto.
Come pure non sono cose Univoche della directx.
Anzi chiaramente tutte le feature che non sono specifiche per accesso a una delle funzioni gpu girerà sulla cpu, aumentandone il carico.
è una vaccata, ma quella delle 12gb è bella :asd:
La ddr3 ormai lo trovi dentro alle lavatrici, aumentarla di un po non dovrebbe essere difficile :asd:
Anche se lo avessero fatto non sarebbe più una rumor ormai
tecnologico
10-07-2013, 19:23
La ddr3 ormai lo trovi dentro alle lavatrici, aumentarla di un po non dovrebbe essere difficile :asd:
Anche se lo avessero fatto non sarebbe più una rumor ormai
si ma non è una mb pc con gli slot liberi :asd:
si ma non è una mb pc con gli slot liberi :asd:
Potrebbero rispolverare i memory pack tipo n64 e vendere la ram aggiuntiva assieme al gioco a cui serve :asd:
Inviato dal mio GT-N7100 con Tapatalk 2
Potrebbero rispolverare i memory pack tipo n64 e vendere la ram aggiuntiva assieme al gioco a cui serve :asd:
Inviato dal mio GT-N7100 con Tapatalk 2
Ipotizzando che abbiano fatto due banchi basterebbe cambiarne uno con uno da 8 GB.
anche se questo portrebbe influenzare il double channel? non mi ricordo se esiste ancora quella roba nei moderni processori.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.