View Full Version : XboX One vs PS4 (no flame plz)
per popup intendo la finestra che si apre e dice "press x to open" o "press [] to change weapon"
Si' si', anche io... Avevo capito benissimo.
gagliardi88
24-06-2013, 10:23
Per me la grafica migliore l'ha mostrata the division (che poi girasse su devkit ps4 è un altro discorso)
Inviato dal mio GT-N7100 con Tapatalk 2
Be si parlava di esclusive, the division sarà anche su x1
Jon_Snow
26-06-2013, 09:55
Ea ha ammesso che ci vorranno almeno due anni prima di abbandonare totalmente la current gen. Purtroppo questo c'era da aspettarselo la base istallata è troppo elevata ed il salto generazionale non è così alto come il precedente.
Ea ha ammesso che ci vorranno almeno due anni prima di abbandonare totalmente la current gen. Purtroppo questo c'era da aspettarselo la base istallata è troppo elevata ed il salto generazionale non è così alto come il precedente.
Basta che da gennaio 2014 se fanno un gioco per Playstation me lo ritrovo sia su PS3 che su PS4 (idem per XboX). Altrimenti bestemmie che volano...
Basta che da gennaio 2014 se fanno un gioco per Playstation me lo ritrovo sia su PS3 che su PS4 (idem per XboX). Altrimenti bestemmie che volano...
beh immagino di si..
..spero almeno.. :stordita:
Goofy Goober
26-06-2013, 10:38
beh immagino di si..
..spero almeno.. :stordita:
io spero di no invece.
altrimenti non si fa altro che portarsi dietro tutti gli aspetti negativi del dover creare giochi che siano adatti a 2 generazioni di console con hardware completamente diverso e, in più, ai computer.
poi ovvio che mi frega zero se un altro shit of duty esce per 40 piattaforme diverse, tanto sono giochi spazza già di base, ma se mi fanno uscire un gioco "novità", su PS4, XONE e PC, ma al contempo devono mantenere una versione che sia giocabile su PS3 e X360, io piango... devono mettere un paletto subito alla qualità/resa grafica minima per i nuovi giochi, altrimenti finiremo con avere sempre giochi su base DX9 con solo implementazioni marginali DX11... perchè dubito che tutti i produttori si mettano a crerare casi più unici che rari di giochi sviluppati in parallelo su base tutta DX9 e tutta DX11.
Hai ragione. Io piu' che altro intendevo che non facessero il contrario, cioe' che facessero un gioco per PS3 e XboX 360 e non sulle nuove console.
Altrimenti questa sara' la causa della 3a guerra mondiale haha
Goofy Goober
26-06-2013, 10:54
Hai ragione. Io piu' che altro intendevo che non facessero il contrario, cioe' che facessero un gioco per PS3 e XboX 360 e non sulle nuove console.
Altrimenti questa sara' la causa della 3a guerra mondiale haha
Già esce GT6 che sarà su PS3 e stop a quanto si capisce, ma dati i tempi di sviluppo dell'ultimo GT non c'è da stupirsi, forse nel 2016 avremo un GT su PS4 :asd:
idem GTA5, io lo avrei voluto sulle nuove console, dato che ormai esce a ridosso del loro lancio...
dato che però si punta a far il big-launch con grossi incassi al lancio, non manderanno mai fuori gioconi incredibili al lancio di queste console, almeno credo.
io prego ancora per un FABLE al lancio dell'XONE, che sia su livelli del primo o del secondo.
per PS4 mi aspettavano che un qualcosa tipo reboot di God Of War oppure un continuo a sorpresa del 5 lo facessero... e invece...
Ti prendono per il culo insomma... "Ecco le nuove console! Pero' alcuni giochi gireranno ancora sulle vecchie"...
Spero nel cloud della PS4 per giocare ai titoli PS3.
Ah domanda, che non l'ho scritto: ma almeno la XboX avra' una retrocompatibilita'? Sai per la PS3 ok, aveva un'architettura complessa col Cell, ma la XboX?
Hai ragione. Io piu' che altro intendevo che non facessero il contrario, cioe' che facessero un gioco per PS3 e XboX 360 e non sulle nuove console.
Altrimenti questa sara' la causa della 3a guerra mondiale haha
si intendevo anche io in tal senso..
ed il pensiero andava proprio al big "GTA5".. non vorrei ci fossero altri titoloni che rimangono solo sulle vecchie.. :(
Necroticism
26-06-2013, 11:29
Ti prendono per il culo insomma... "Ecco le nuove console! Pero' alcuni giochi gireranno ancora sulle vecchie"...
Spero nel cloud della PS4 per giocare ai titoli PS3.
Ah domanda, che non l'ho scritto: ma almeno la XboX avra' una retrocompatibilita'? Sai per la PS3 ok, aveva un'architettura complessa col Cell, ma la XboX?
Zero retrocompatibilità, nemmeno per i giochi XBLA.
Zero retrocompatibilità, nemmeno per i giochi XBLA.
"Way to go"...
Goofy Goober
26-06-2013, 12:10
si intendevo anche io in tal senso..
ed il pensiero andava proprio al big "GTA5".. non vorrei ci fossero altri titoloni che rimangono solo sulle vecchie.. :(
GTA5 è una cocente delusione sotto quest'aspetto, dato che per vedere GTA6 sulle nuove console quanto dovremo aspettare?
tristezza immensa...
anche perchè stai a vedere che quando ci saranno un tot. di giochi interessanti sul serio per le nuove console sarà il momento in cui faranno uscire le revisioni delle stesse, aka PS4 SLIM e XONE SLIM :asd: :asd:
A me un pò fa piacere che escano giochi, per ora, solo per la X360. Così non sarò costretto a prendere la nuova solo per qualche gioco. Ovvio che il passaggio ci sarà, ma almeno così posso prendermela comoda :D
A me un pò fa piacere che escano giochi, per ora, solo per la X360. Così non sarò costretto a prendere la nuova solo per qualche gioco. Ovvio che il passaggio ci sarà, ma almeno così posso prendermela comoda :D
Io preferisco che le facciano per entrambe all'inizio E alcuni solo per quelle nuove.
Ora, lasciando perdere le discussioni da PCista......ca**o sono SETTE anni che ci sono in giro ste console....ebbasta...
Gia' si fa questo ragionamento sulle auto (che sono anni che siamo fermi su un motore inefficiente), se lo si faceva su tutto eravamo stile Flinstones... Vediamo di aggiornarci...
Io preferisco che le facciano per entrambe all'inizio E alcuni solo per quelle nuove.
Ora, lasciando perdere le discussioni da PCista......ca**o sono SETTE anni che ci sono in giro ste console....ebbasta...
Gia' si fa questo ragionamento sulle auto (che sono anni che siamo fermi su un motore inefficiente), se lo si faceva su tutto eravamo stile Flinstones... Vediamo di aggiornarci...
Hai ragione però se aspettano un 2-3 mesi per le esclusive X1 a loro non cambia molto :D
Jon_Snow
26-06-2013, 13:27
Basta che da gennaio 2014 se fanno un gioco per Playstation me lo ritrovo sia su PS3 che su PS4 (idem per XboX). Altrimenti bestemmie che volano...
In effetti mi ero espresso male. EA ha detto che praticamente il 90% dei suoi giochi saranno sia per le attuale che per le prossime. Questo vuol dire che prima di avere un Frostbite realmente next gen ci vorrà. Ed infatti a BF3, con tutto che ha una grafica di certo non scarsa, si vede che è un gioco 360/PS3 pompato.
giubox360
26-06-2013, 14:37
In effetti mi ero espresso male. EA ha detto che praticamente il 90% dei suoi giochi saranno sia per le attuale che per le prossime. Questo vuol dire che prima di avere un Frostbite realmente next gen ci vorrà. Ed infatti a BF3, con tutto che ha una grafica di certo non scarsa, si vede che è un gioco 360/PS3 pompato.
Ma la EA pur di guadagnare ferebbe ancora i giochi sulla ps 1 e sul gameboy!! :asd: Le ditte serie per i videogame so altre...se non fosse per Battlefield loro non vedono più i miei soldi da fifa 98!!:sofico: :ciapet:
Basta che da gennaio 2014 se fanno un gioco per Playstation me lo ritrovo sia su PS3 che su PS4 (idem per XboX). Altrimenti bestemmie che volano...
fifa, cod, pes e forse i vari need for speed penso di si, il resto si vedrà :asd:
non credo che punteranno molto di piu sulle vecchie, devono iniziare a vendere anche quelle nuove, quindi penso che giochi "esclusivi" xbox one ps4 usciranno molto di piu.
zavatta_fighter
27-06-2013, 10:28
Stato attuale preorder "mondiale" Xone/PS4 ?
In effetti mi ero espresso male. EA ha detto che praticamente il 90% dei suoi giochi saranno sia per le attuale che per le prossime. Questo vuol dire che prima di avere un Frostbite realmente next gen ci vorrà. Ed infatti a BF3, con tutto che ha una grafica di certo non scarsa, si vede che è un gioco 360/PS3 pompato.
ovvio alla fine, mica buttano milioni di euro così tanto per...
la base installata è grande, deve esserci un tot di tempo per passare totalmente alle nuove console
Mr.White83
27-06-2013, 23:28
Sarò breve e didascalico.
Ps4 nonostante sia possessore da tempo di una xbox360 e da poco di una ps3.
I motivi sono nel prezzo (ad ora più basso) nelle prestazioni potenziali maggiori di casa sony, e nella conduzione del marketing da parte microsoft che mi ha lasciato molto interdetto sia prima del e3 che dopo.
Dubbi non ne ho avuti e non ne ho nemmeno ora. Ps4 già prenotata al day one.
Uff che due palle...
E XboX ha il DRM, poi no, poi forse. E la PS4 che la prende in giro perche' lei non ce l'ha, ma poi se gli sviluppatori mettono il DRM allora c'e'.
Poi ora XboX dice no agli sviluppatori Indie. Magari poi tornera' a dire si'.
Mi sono rotto i maroni, qui mi limitero' a sistemare il primo post nel caso qualcuno segnali nuovi rumors o news, ma per il resto aspettero' nel 2014 quando ci saranno gia' le console in giro.
Che poi nemmeno li' sei piu' sicuro, guarda la PS3 (vero che e' stato dopo anni e anni, ma...) che ad un certo punto non supportava piu' l'installazione di altri OS come Linux...
Sti qua un giorno con l'altro potrebbero blindare la console...
The Pein
28-06-2013, 18:41
e ci sarà la rivolta stile
http://4.bp.blogspot.com/_2Uh-Ue7EpK8/SRVSVnJ6dcI/AAAAAAAAABI/yXqjqO_N2OE/S1600-R/300-movie03.jpg
confronto ravvicinato tra joypads:
http://ps4daily.com/wp-content/uploads/2013/06/uP4KpSg-640x960.jpg
alfredo.r
29-06-2013, 16:46
Spero non abbiano storpiato il pad della 360 nel tentativo di renderlo più futuristico perché da queste foto mi pare molto meno comodo del precedente...
Il pad della ps4 mi sembra migliorato rispetto a quello della ps3 e mi sembra meno plasticoso..
crespo80
29-06-2013, 16:49
ma è enorme quello della PS4 o sbaglio? In questa gen non era il contrario?
Il pad della ps4 mi sembra migliorato rispetto a quello della ps3 e mi sembra meno plasticoso..
Si, sarà più che altro gommoso :) da quel che ho capito ha delle zone in plastica morbida.
ma è enorme quello della PS4 o sbaglio? In questa gen non era il contrario?
Confronto diretto ds3 ds4:
http://ps4daily.com/wp-content/uploads/2013/06/ps4-controller-vs-ps3-controller-580-75.jpg
Inviato dal mio GT-N7100 con Tapatalk 2
Spero l'abbiano reso più robusto e meno scricchiolante.
Mr.White83
30-06-2013, 08:14
Il pad della ps4 sembra migliorato anche in fatto di ergonomicità.
Quello della xbox sembra più o meno simile.
Io ho entrambe le console e ora come ora non c'è dubbio per me su quale sia il migliore.Quello della xbox è il vincitore anche se è più pesante, l'impugnatura è molto più comoda. E poi il fatto degli stick analogici messi in obliquo per me sono il top. Ovviamente questo è un parere del tutto personale :D
Aspettiamo l'uscita e poi sapremo con certezza :-)
Ti assicuro che la stragrande maggioranza dei videogiocatori è d'accordo con te. :D
Già hanno messo gli stick concavi e migliorato l'impugnatura,
speriamo che prenda piu piede il touch che è su tutte le ps4 il kinect che è su tutte le x1
andreasperelli
30-06-2013, 15:52
Per ora propendo per la PS4, nonostante abbia fatto tutta la generazione attuale con l'Xbox 360 e solo da un mese anche con una PS3.
Questa volta Sony sembra aver imparato dagli errori del passato ed averle fatte tutte meglio di microsoft, persino le dimensioni e il fatto di poterla mettere in verticale sono dalla parte di Sony.
Detto questo, non entrerò subito nella next gen, aspetterò qualche mese ed i primi confronti ma per ora mi sembra che l'unico punto di forza della One sia Forza 5 come esclusiva.
alexbands
30-06-2013, 16:02
il pad sony sembra molto migliorato, certo che è bruttino e poi temo che quella sorta di scalino tra l'impugnatura e il "piattello" che accoglie i pulsanti possa dare fastidio. Meglio la forma "continua" del pad microsoft. La gomma che hanno usato per la parte posteriore spero non diventi appiccicaticcia durante l'uso... per me avrebbero dovuto semplicemente usare una plastica rugosa come microsoft invece di quella liscia che per chi suda anche un minimo le mani è una piccola tragedia... le mani si attaccano e il pad si sporca di tracce di sudore (io devo pulirlo periodicamente)
zavatta_fighter
30-06-2013, 18:23
Il Versus riceve benzina :
http://multiplayer.it/notizie/120601-i-calcoli-di-microsoft-erano-errati-xbox-one-puo-processare-piu-dati-di-playstation-4.html
192Gb...
http://i.imgur.com/EiyQVAi.gif
la 360 li batte entrambi (fonte nelson) :O
Ale55andr0
30-06-2013, 18:57
fermo restando che se microsoft ha cannato i dati della bandwidth mi cascano in terra (perchè devono essere degli incompetenti gli ingegneri al lavoro su xboxone a non saper calcolare nemmeno correttamente la banda passante della memoria :doh: ). se la gpu è inferiore a quella di ps4 puoi avere pure 500gb/s di banda, tanto sarà la potenza computazionale il collo di bottiglia, non è che se a una 7770 monti le memorie di una 7970ghz edition guadagni chissà cosa...il "foraggiare" la gpu di dati è comunque in funzione di quanti ne puo' elaborare, oltre il guadagno è..nullo Esempio: se nella mia 7970 aumento a dismisura il clock della memoria il guadango prestazionale è minimo, se riporto la memoria a default e invece aumento la frequenza della sola gpu il guadagno è consistente, perchè evidentemente la banda passante che ha di basa già le basta a far lavorare a pieno regime la gpu e spingere oltre la memoria cambia poco. Se relazionamo questo discorso agli ipotetici 768sp della gpu sullla xbox e agli ipotetici 1152sp della PS4 si capisce come l'incremento della bandwidth non comporterebbe chissà quale miglioramento se la potenza di calcolo della gpu di xbox è inferiore...o per metterla in termini automobilistici: se rimappo alla morte la mia vettura, oltre un certo limite parte del gasolio resterà incombusta e anche inviando ettolitri di carburante al motore, questo non potrà bruciarne più di un tot
Ma infatti questo rumor è ridicolo,proprio degno multiplayer, leggete i commenti dei bimbominkia sotto. Apparte che è nuovamente ultra ridicolo "alla ms hanno scoperto che la memoria era piu veloce" minchia ma come lavorate non sapete le specifiche della vostra console? E poi la memoria con piu banda....cosa ce ne frega? La gpu processa i dati se è inferiore rimane inferiore ma cosa sarebbe marketing per i bambocci? Io ho 999999999999gb/s di banda pero ho una scheda video del 1998...minchia che potenza.
Probabilmente è un rumor ma tutte ste voci ridicole a mio avviso stanno distruggendo la credibilita che xbox si era costruita.
Ma infatti questo rumor è ridicolo,proprio degno multiplayer, leggete i commenti dei bimbominkia sotto. Apparte che è nuovamente ultra ridicolo "alla ms hanno scoperto che la memoria era piu veloce" minchia ma come lavorate non sapete le specifiche della vostra console? E poi la memoria con piu banda....cosa ce ne frega? La gpu processa i dati se è inferiore rimane inferiore ma cosa sarebbe marketing per i bambocci? Io ho 999999999999gb/s di banda pero ho una scheda video del 1998...minchia che potenza.
Probabilmente è un rumor ma tutte ste voci ridicole a mio avviso stanno distruggendo la credibilita che xbox si era costruita.
Concordo..non ci resta che aspettare e vedere quando esce per verificare la vera potenza della console,mi sa tanto di bluff queste notizie se nemmeno microsoft sa quello che c'e' dentro la console siamo messi veramente bene..purtroppo l'utente che vuole divertirsi andrà sempre a vedere come dato di riferimento quei 999999999999gb/s :/
Il Versus riceve benzina :
http://multiplayer.it/notizie/120601-i-calcoli-di-microsoft-erano-errati-xbox-one-puo-processare-piu-dati-di-playstation-4.html
Uao eccezionale.
I 32MB di ram aggiuntivi della XboX One possono lavorare al doppio della velocita' di banda.
Spettacolo. Peccato che quei 32MB sono utili come le monete da 1 centesimo...
Concordo..non ci resta che aspettare e vedere quando esce per verificare la vera potenza della console,mi sa tanto di bluff queste notizie se nemmeno microsoft sa quello che c'e' dentro la console siamo messi veramente bene..purtroppo l'utente che vuole divertirsi andrà sempre a vedere come dato di riferimento quei 999999999999gb/s :/
I bimbimarketing non sanno che la 360 ne aveva ancora di piu di banda passante...è piu potent3 di ps4 e xboxone lol!
giubox360
01-07-2013, 00:58
I bimbimarketing non sanno che la 360 ne aveva ancora di piu di banda passante...è piu potent3 di ps4 e xboxone lol!
Io credo che a sto giro, alla Sony abbiano affinato l'udito, e chiuso ben bene la bocca..che dire GG!!; ) :D
O.F. Bella prova del Brasile!:sofico: chiuso O.T.
Uao eccezionale.
I 32MB di ram aggiuntivi della XboX One possono lavorare al doppio della velocita' di banda.
Spettacolo. Peccato che quei 32MB sono utili come le monete da 1 centesimo...
non discuto che la potenza pura di ps4 su lato gpu sia superiore...ma mi piacerebbe che tu ci spiegassi a cosa servono i 32MB di ram, se verranno utilizzati come frame buffer, cache o in che modo abbiano intenzione di ridurre le richieste alla memoria DDR, dalla tua affermazione pare proprio che tu sappia di cosa parli!!
Fra l'altro la notizia e' inesatta o meglio detta cosi e' veramente banalizzata....
p.s. la banda passante non e' una velocita'...
I bimbimarketing non sanno che la 360 ne aveva ancora di piu di banda passante...è piu potent3 di ps4 e xboxone lol!
difatti parlando di AA, z-buffering e alpha blending i risultati si son visti se prendi in considerazione ne limitazioni tecniche della macchina
Yngwie74
01-07-2013, 11:34
Se ben ricordo nella 360 la EDRAM da 10MB non era semplicemente una RAM ad alta velocita' a se stante, ovvero non faceva solo da frame buffer, ma aveva anche dei processori logici a corredo che avevano l'unica funzione di effettuare l'AA delle immagini immagazzinate della RAM. Per quello si diceva che l'AA fosse "gratis", perche' avveniva nella RAM senza coinvolgere la GPU e quindi sgravandola dei calcoli necessari all'AA.
Se l'ESRAM nella ONE avesse la stessa funzione e fosse corredata da processori logici, potrebbe effettivamente sgravare la GPU dai calcoli relativi all'AA. Nella 360 per eseguire un AA 2x a 1280x720 in 10MB mi sembra si dovesse ricorrere al tiling.
Ora vorrei capire, questi 32MB di ESRAM, che AA potrebbero consentire, considerando una risoluzione 1920*1080. Questo dipende ovviamente dal numero di immagini che si devono buttare dentro (e quindi se si volesse un 2x o un 4x come AA) ed il numero di bit necessari per ogni pixel.
Se ben ricordo nella 360 la EDRAM da 10MB....... aveva anche dei processori logici .
no no la ram rimane una ram se avesse dei processori non sarebbe più una ram ma un processore :D forse ti confondi col fatto che permetteva appunto l'AA 2x "a gratisi"
si utilizzava il tiling...in sto caso ci stanno tranquillamente 2 frame a 1080p quindi va a scaricare un sacco le richieste al bus della ram DDR, ma potrebbe essere usata per molto altro quindi forse i dev potrebbero decidere di continuare ad utilizzare il tilling e indirizzare la memoria rimasta ad altre operazioni
Sarà interessante vedere se la soluzione M riuscirà a tenere testa a ps4 anche se probabilmente la resa sarà molto simile, eccezion fatta per le esclusive magari...
Secondo me, anche se effettivamente non mi sono informato quindi e' solo una sensazione, quella memoria da 32MB sara' utile, ripeto, come una moneta da 1 centesimo: in teoria serve, ma costa di piu' di quello che offre e risulta comunque poco utile.
Sara' il cloud a fare la differenza stavolta. Al momento abbiamo la XboX One con la fisica cloud e avremo la PS4 con l'emulatore PS3 in cloud. Faranno un sistema simile ad Onlive.
Ah, non so se qualcuno l'aveva letta: http://www.tomshw.it/cont/news/kinect-di-xbox-one-non-va-su-pc-comprate-quello-speciale/47132/1.html
Il Kinect della XboX One non sara' utilizzabile sul pc. Alla faccia dell'integrazione tra i vari dispositivi (cit. primo commento)... :doh:
Yngwie74
01-07-2013, 19:51
no no la ram rimane una ram se avesse dei processori non sarebbe più una ram ma un processore :D forse ti confondi col fatto che permetteva appunto l'AA 2x "a gratisi"
si utilizzava il tiling...in sto caso ci stanno tranquillamente 2 frame a 1080p quindi va a scaricare un sacco le richieste al bus della ram DDR, ma potrebbe essere usata per molto altro quindi forse i dev potrebbero decidere di continuare ad utilizzare il tilling e indirizzare la memoria rimasta ad altre operazioni
Io mi riferisco all'articolo che e' stato linkato nel thread di XB1 di cui quoto una parte:
Embedded DRAM for "free" antialiasing
The GPU won't be using system memory itself quite as much as one might expect, because it packs 10MB of embedded DRAM right on the package. In fact, the Xbox 360 GPU is really a two-die design, with two chips in a single package on a single substrate. The parent die contains the GPU and memory controller, while the daughter die consists of the 10MB of eDRAM and some additional logic. There's a high-speed 2GHz link between the parent and daughter dies, and Feldstein noted that future revisions of the GPU might incorporate both dies on a single piece of silicon for cost savings.
The really fascinating thing here is the design of that daughter die. Feldstein called it a continuation of the traditional graphics pipeline into memory. Basically, there's a 10MB pool of embedded DRAM, designed by NEC, in the center of the die. Around the outside is a ring of logic designed by ATI. This logic is made up of 192 component processors capable of doing the basic math necessary for multisampled antialiasing. If I have it right, the component processors should be able to process 32 pixels at once by operating on six components per pixel: red, green, blue, alpha, stencil, and depth. This logic can do the resolve pass for multisample antialiasing right there on the eDRAM die, giving the Xbox 360 the ability to do 4X antialiasing on a high-definition (1280x768) image essentially for "free"—i.e., with no appreciable performance penalty. The eDRAM holds the contents of all of the back buffers, does the resolve, and hands off the resulting image into main system memory for scan-out to the display.
http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled/2
Questo e' quello che si deduce da quanto riportato sopra e che potrebbe essere stato replicato pari pari per la XB1. Pero' ho qualche dubbio che un 1920*1080 AA4x possa stare in 32MB. Dovrebbe dipendere anche a che profondita' di bit sono le immagini, tra l'altro.
Confermo, vedremo se son stati troppo ottimisti in MS, fino a quando non escono non potremo giudicare.
The_misterious
02-07-2013, 13:14
Secondo me, anche se effettivamente non mi sono informato quindi e' solo una sensazione, quella memoria da 32MB sara' utile, ripeto, come una moneta da 1 centesimo: in teoria serve, ma costa di piu' di quello che offre e risulta comunque poco utile.
Sara' il cloud a fare la differenza stavolta. Al momento abbiamo la XboX One con la fisica cloud e avremo la PS4 con l'emulatore PS3 in cloud. Faranno un sistema simile ad Onlive.
Ah, non so se qualcuno l'aveva letta: http://www.tomshw.it/cont/news/kinect-di-xbox-one-non-va-su-pc-comprate-quello-speciale/47132/1.html
Il Kinect della XboX One non sara' utilizzabile sul pc. Alla faccia dell'integrazione tra i vari dispositivi (cit. primo commento)... :doh:
Il cloud é una trollata bella grossa, il problema é che ancora la gente ci crede...
Comunque Yoshida ha detto che pure il cloud della Ps permette di fare le stesse identiche cose di quello della One.
petru916
02-07-2013, 13:25
Io mi riferisco all'articolo che e' stato linkato nel thread di XB1 di cui quoto una parte:
http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled/2
Questo e' quello che si deduce da quanto riportato sopra e che potrebbe essere stato replicato pari pari per la XB1. Pero' ho qualche dubbio che un 1920*1080 AA4x possa stare in 32MB. Dovrebbe dipendere anche a che profondita' di bit sono le immagini, tra l'altro.
Per la precisione, come accennato da un utente nel thread Xbox, l'immagine 1920*1080 a AA4x richiede all'incirca 30 MB di memoria. Quindi teoricamente si dovrebbe rientrare nello spazio.
Io mi riferisco all'articolo che e' stato linkato nel thread di XB1 di cui quoto una parte:
http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled/2
Questo e' quello che si deduce da quanto riportato sopra e che potrebbe essere stato replicato pari pari per la XB1. Pero' ho qualche dubbio che un 1920*1080 AA4x possa stare in 32MB. Dovrebbe dipendere anche a che profondita' di bit sono le immagini, tra l'altro.
esatto, c'è la memoria... punto poi intorno ad essa ci sono i 192 cu della ati a fare il lavoro...cmq si diciamo che la xbox one lavora alla stessa maniera
Yngwie74
02-07-2013, 16:22
esatto, c'è la memoria... punto poi intorno ad essa ci sono i 192 cu della ati a fare il lavoro...cmq si diciamo che la xbox one lavora alla stessa maniera
Il succo del mio discorso era quello. La ram embedded non e' a se stante, ma viene corredata di processori logici capaci di eseguire il postprocessing su cio' che e' contenuto al suo interno.
Se ho ben capito le texture dovrebbero essere contenute nella gddr3 e la gpu eseguire i compiti di rendering, mentre il post processing sull'immagine avverra' nella Esram.
Ora quanti bit servono per ogni pixel dell'immagine? perche' in base a questo, moltiplicando per 1920*1080 e per il moltiplicatore dell'AA si dovrebbe capire se ci stanno o no in 32MB (il calcolo non mi convince ancora).
petru916
02-07-2013, 17:02
Il succo del mio discorso era quello. La ram embedded non e' a se stante, ma viene corredata di processori logici capaci di eseguire il postprocessing su cio' che e' contenuto al suo interno.
Se ho ben capito le texture dovrebbero essere contenute nella gddr3 e la gpu eseguire i compiti di rendering, mentre il post processing sull'immagine avverra' nella Esram.
Ora quanti bit servono per ogni pixel dell'immagine? perche' in base a questo, moltiplicando per 1920*1080 e per il moltiplicatore dell'AA si dovrebbe capire se ci stanno o no in 32MB (il calcolo non mi convince ancora).
1920x1080 pixel x 4 byte per pixel = 8294400 byte x AA4x = 33177600 byte = 31.64 MB è il calcolo riportato da Crashman nel thread di Xbox, e comunque dovrebbe essere giusto il tuo ragionamento.
Uao eccezionale.
I 32MB di ram aggiuntivi della XboX One possono lavorare al doppio della velocita' di banda.
Spettacolo. Peccato che quei 32MB sono utili come le monete da 1 centesimo...
ma che fesserie vai scrivendo?
incredibile come internet consenta a tutti, purtroppo, di dire la propria
Secondo me, anche se effettivamente non mi sono informato quindi e' solo una sensazione,
bene...
allora sulle "sensazioni" il "non mi sono informato" e "secondo me", senza conoscere nulla di programmazione aggiungo io...
direi che è buona cosa astenersi dal commentare, soprattutto come hai fatto te.
1920x1080 pixel x 4 byte per pixel = 8294400 byte x AA4x = 33177600 byte = 31.64 MB è il calcolo riportato da Crashman nel thread di Xbox, e comunque dovrebbe essere giusto il tuo ragionamento.
si o potrebbero usarlo per un 2x e utilizzare il resto per operazioni come l'alpha blending insomma le operazioni che hanno un maggior numero di op per sgravare il più possibile il bandwith della memoria DDR3
peccato che nel silicio non sia rimasto spazio per inserire altre cu e ROP
petru916
02-07-2013, 17:47
si o potrebbero usarlo per un 2x e utilizzare il resto per operazioni come l'alpha blending insomma le operazioni che hanno un maggior numero di op per sgravare il più possibile il bandwith della memoria DDR3
peccato che nel silicio non sia rimasto spazio per inserire altre cu e ROP
Oltretutto ho espresso un mio dubbio nel thread Xbox One: secondo voi, ad una risoluzione alta come 1080p, sulle tv, quanto sarà utile l'AA? Secondo me sui 720p aveva un senso, ma a 1080p? Conosco gente che su monitor non lo usa per niente a 1080p. Questo a prescindere di quale console si parli, che sia PS4 o One.
Oltretutto ho espresso un mio dubbio nel thread Xbox One: secondo voi, ad una risoluzione alta come 1080p, sulle tv, quanto sarà utile l'AA? Secondo me sui 720p aveva un senso, ma a 1080p? Conosco gente che su monitor non lo usa per niente a 1080p. Questo a prescindere di quale console si parli, che sia PS4 o One.
Puoi fare la prova tu stesso col pc, io collego spesso il mio pc alla tv...ho un 55" e onestamente si vede...magari 4x non è necessario ma il 2x si...
Ma è una domanda alla quale non c'è risposta perchè ci sono giochi soggetti a un maggior aliasing, cosi come diagonali differenti, distanze differenti...conosco gente che guarda il 32 pollici da 4 metri... in generale posso dire che almeno un 2x ci stà... 4x lo trovo superfluo preferire avere quelle risorse investite in altro
tecnologico
02-07-2013, 18:14
Oltretutto ho espresso un mio dubbio nel thread Xbox One: secondo voi, ad una risoluzione alta come 1080p, sulle tv, quanto sarà utile l'AA? Secondo me sui 720p aveva un senso, ma a 1080p? Conosco gente che su monitor non lo usa per niente a 1080p. Questo a prescindere di quale console si parli, che sia PS4 o One.
a meno di non stare sui 4k l' aa serve.
però è meglio un 1080 aa4x o 720 aa8x?
giubox360
02-07-2013, 18:27
a meno di non stare sui 4k l' aa serve.
però è meglio un 1080 aa4x o 720 aa8x?
Se giochi a giochi frenetici tipo sparatutto, la differenza non la noti per via dell'azione, ma se la vuoi notare tra un 2x e un 4x c'è e non poca..perchè il 4x copre le scalettature a distanze maggiori, (poi alcuni AA funzionano in modo statico, ma perdono effetto se muovi la visuale)
Se poi vogliono fare giochi a@1080 togliendo anche il filtro anisotropico a 16x...e magari il dettaglio delle ombre su medio...allora torna tutto....:doh: :sofico:
Non venitemi a dire che le console sono superiori al pc..sono customizzate meglio e ottimizzate al massimo per quanto riguarda il software magari quello si...
alexbands
02-07-2013, 18:28
dipende da quanto è grande lo schermo e quanto ci giochi vicino... a un certo punto la natura stessa dei pixel crea le scalettature e l'antialiasing stesso può solo limitare un pò la cosa...
Effettivamente per dimenticarsene serve il 4k... tra 10 anni saremo pronti :p
ma che fesserie vai scrivendo?
incredibile come internet consenta a tutti, purtroppo, di dire la propria
ci sono modi e modi per rivolgersi al prossimo, anche nel caso avesse scritto una castroneria.
Perché scrivere senza essere informati sarà sbagliato ma non portare rispetto è peggio.
vediamo un po' di discutere in modo tranquillo ed educato.
petru916
02-07-2013, 22:01
a meno di non stare sui 4k l' aa serve.
però è meglio un 1080 aa4x o 720 aa8x?
Non avendo una tv full hd purtroppo non posso testare da me, quindi mi fido. Secondo me comunque 1080p a 4x hai una definizione dei bordi maggiore quindi tutto è più nitido. Io ai tempi feci le prove con la 8800GT quando uscì Crysis e preferivo di gran lunga risoluzione maggiore senza AA piuttosto che risoluzione minore con AA, che blurra la scena anche se vai di MSAA. Poi va a gusti, e va anche in base allo scaler che abbiamo in mano. Su un monitor è sicuramente più accentuata che su una tv.
dipende da quanto è grande lo schermo e quanto ci giochi vicino... a un certo punto la natura stessa dei pixel crea le scalettature e l'antialiasing stesso può solo limitare un pò la cosa...
Effettivamente per dimenticarsene serve il 4k... tra 10 anni saremo pronti :p
Sicuramente quando usciranno gli schermi 4k a prezzi umani avremo anche GPU che seguiranno lo standard, e poi i puristi dell'AA ci sarebbero lo stesso per cui sarà d'obbligo.
Se giochi a giochi frenetici tipo sparatutto, la differenza non la noti per via dell'azione, ma se la vuoi notare tra un 2x e un 4x c'è e non poca..perchè il 4x copre le scalettature a distanze maggiori, (poi alcuni AA funzionano in modo statico, ma perdono effetto se muovi la visuale)
Se poi vogliono fare giochi a@1080 togliendo anche il filtro anisotropico a 16x...e magari il dettaglio delle ombre su medio...allora torna tutto....:doh: :sofico:
Non venitemi a dire che le console sono superiori al pc..sono customizzate meglio e ottimizzate al massimo per quanto riguarda il software magari quello si...
Nono le console non sono superiori al PC. Essendo degli investimenti sicuramente a più lungo termine devono sopportare meglio il peso degli anni, ma in quanto a potenza bruta, il PC è sempre la piattaforma di rifermento per come la vedo io. Ovvio che c'è gente fissata come ce n'è a cui non frega una cippa. Sono due filosofie diverse a priori.
Vedo che Microsoft sta tentando di recuperare il GAP sulla RAM di PS4, senza flame, ma mi sembra un tentativo di arrampicarsi un po sugli specchi, cosi all'ultimo momento : :mc:
http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html
Voi che ne pensate ?
Vedo che Microsoft sta tentando di recuperare il GAP sulla RAM di PS4, senza flame, ma mi sembra un tentativo di arrampicarsi un po sugli specchi, cosi all'ultimo momento : :mc:
http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html
Voi che ne pensate ?
Che possono puntare sulle esdram, l'unica cosa diversa da ps4 , per cercare di dare "credibilità" al gap performance.... il cloud è durato poco (perchè sony ha risposto che anche loro possono implementare il cloud), per cui la esdram è l'unica differenza, in quanto sony non può saltare fuori con l'aggiunta di esdram.
Che sia più performante di prima non credo che riusciremo a tirare fuori quanto peserà questa cosa nei risultati finali , finchè non usciranno i primi multipiatta a decretare se è meglio esdram o ddr5 :D
ma che fesserie vai scrivendo?
incredibile come internet consenta a tutti, purtroppo, di dire la propria
bene...
allora sulle "sensazioni" il "non mi sono informato" e "secondo me", senza conoscere nulla di programmazione aggiungo io...
direi che è buona cosa astenersi dal commentare, soprattutto come hai fatto te.
Bene, allora vorrei che mi spiegassi a cosa servono questi "spettacolari" 32MB di memoria nel 2013 dove ormai una quantita' di memoria del genere e' ridicola sotto ogni aspetto, in una console di "ultima generazione"...
Chiedo, perche' visto che io non lo so (e infatti non lo so) e tu sembri cosi' informato ed esperto, attendo una spiegazione...
Il cloud é una trollata bella grossa, il problema é che ancora la gente ci crede...
Io non credo sia una trollata. Ci guadagnerebbero un macello, io in primis che non ho mai avuto una console per odio personale (da pc gamer appunto), vecchi giochi PS3 li giocherei volentieri (soprattutto le esclusive).
Vedo che Microsoft sta tentando di recuperare il GAP sulla RAM di PS4, senza flame, ma mi sembra un tentativo di arrampicarsi un po sugli specchi, cosi all'ultimo momento : :mc:
http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html
Voi che ne pensate ?
Ma secondo te è plausibile che degli ingegneri MS si accorgano DOPO che la memoria automagicamente permette di scrivere e leggere contemporaneamente?
Già questo mi fa pensare come sia un rumor di quelli della peggior specie.
Con questo non intendo dire che non sia vero, ma solo che mi pare assurdo esca DOPO che la console è progettata mica ci lavora topo gigio alla sezione hardware.
Detto questo non considero l'uso della esdram un "arrampicarsi sugli specchi" perchè ripeto, ma mi sembra ovvio, che sono scelte progettuali sicuramente fatte un bel po' di tempo fa ad opera di qualcuno con le palle più che quadrate. Non è che arriva il primo pirla e decide a caso (nonostante adesso vada di moda nei forum che tutti sono straesperti e avrebbero fatto sicuramente meglio).
Bene, allora vorrei che mi spiegassi a cosa servono questi "spettacolari" 32MB di memoria nel 2013 dove ormai una quantita' di memoria del genere e' ridicola sotto ogni aspetto, in una console di "ultima generazione"...
Potrebbe servire a quello per cui è servita la edram di 10MB della xbox360 ad esempio. Se non trovi info in questo thread le trovi nelle ultime di quello dedicato alla xbox One (non ci sto capendo piu niente :) ).
Mi pare assurdo bollare come inutile la esram solo perchè è di 32MB.
Con lo stesso ragionamento neanche la cache nei processori serve a niente perchè nell'ordine di qualche mega quindi infinitesimale rispetto alla ram di sistema. Ma che discorsi sono servono a cose differenti.
tecnologico
03-07-2013, 11:28
Bene, allora vorrei che mi spiegassi a cosa servono questi "spettacolari" 32MB di memoria nel 2013 dove ormai una quantita' di memoria del genere e' ridicola sotto ogni aspetto, in una console di "ultima generazione"...
te non hai la minima idea di quello che stai dicendo :asd:
va che non è una scheda sd da 32mb :asd:
te non hai la minima idea di quello che stai dicendo :asd:
va che non è una scheda sd da 32mb :asd:
Ripeto: spiegatemi.
Potrebbe servire a quello per cui è servita la edram di 10MB della xbox360 ad esempio. Se non trovi info in questo thread le trovi nelle ultime di quello dedicato alla xbox One (non ci sto capendo piu niente :) ).
Mi pare assurdo bollare come inutile la esram solo perchè è di 32MB.
Con lo stesso ragionamento neanche la cache nei processori serve a niente perchè nell'ordine di qualche mega quindi infinitesimale rispetto alla ram di sistema. Ma che discorsi sono servono a cose differenti.
Guarda, ho letto il link che ha girato space81: http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html
Ok la loro memoria da 32MB avra' un bandwidth di 192Gb/s. Fantastico.
Peccato che TUTTI E 8GB della PS4 hanno bandwidth di 176Gb/s...
Cioe' anche una formica corre velocissima e solleva 10 volte il suo peso rispetto alle sue dimensioni, ma un essere umano solleva anche 100kg e solo camminando la supera... Capisci cosa intendo, nonostante non sappia bene l'argomento su quello sputo di ram in piu'?
Quei 32MB non faranno la differenza. Mi chiedo perche' non abbiano messo la GDDR5 anche loro da subito, appena sapute le specifiche PS4... Tanto con tutto lo spionaggio industriale che c'e'...
Ma la Microsoft vuole risparmiare facendo pagare di piu', IMHO l'hardware XboX One costa meno dell'hardware PS4 (come la XboX 360 vs PS3) e tanto i giochi gireranno allo stesso modo su tutte le console.
Peccato pero' che se vendono 2.000 XboX contro le 50.000 di PS4, il guadagno della Sony a singola unita' venduta sara' minore ma alla fine il totale guadagnato e' maggiore.
Yngwie74
03-07-2013, 11:43
Ok la loro memoria da 32MB avra' un bandwidth di 192Gb/s. Fantastico.
Peccato che TUTTI E 8GB della PS4 hanno bandwidth di 176Gb/s...
Se tu avessi voglia di leggere i vari link postati nei thread di XB1 e in questo, scopriresti che i 32MB di Esram sono utilizzati differentemente dal resto della Ram condivisa di sistema. Quindi paragonare i 32MB di esram agli 8GB Gddr5 di PS4 o agli 8gb Gddr3 di XB1 non ha molto senso, all'atto pratico.
Se invece non hai voglia di andare a leggere i link sarebbe un po' pretenzioso chiedere che sia qualcun altro a farlo per te e a speigarti le differenze.
petru916
03-07-2013, 12:39
Ripeto: spiegatemi.
Guarda, ho letto il link che ha girato space81: http://www.gamemag.it/news/xbox-one-microsoft-migliora-le-prestazioni-della-memoria_47596.html
Ok la loro memoria da 32MB avra' un bandwidth di 192Gb/s. Fantastico.
Peccato che TUTTI E 8GB della PS4 hanno bandwidth di 176Gb/s...
Cioe' anche una formica corre velocissima e solleva 10 volte il suo peso rispetto alle sue dimensioni, ma un essere umano solleva anche 100kg e solo camminando la supera... Capisci cosa intendo, nonostante non sappia bene l'argomento su quello sputo di ram in piu'?
Quei 32MB non faranno la differenza. Mi chiedo perche' non abbiano messo la GDDR5 anche loro da subito, appena sapute le specifiche PS4... Tanto con tutto lo spionaggio industriale che c'e'...
Ma la Microsoft vuole risparmiare facendo pagare di piu', IMHO l'hardware XboX One costa meno dell'hardware PS4 (come la XboX 360 vs PS3) e tanto i giochi gireranno allo stesso modo su tutte le console.
Peccato pero' che se vendono 2.000 XboX contro le 50.000 di PS4, il guadagno della Sony a singola unita' venduta sara' minore ma alla fine il totale guadagnato e' maggiore.
L'elettronica non la puoi paragonare con formichine e uomini, mi sembra del tutto fuori luogo. Mi sembra un tantino supponente dire che non ci vuole niente per per cambiare un componente per un qualsivoglia sistema elettonico. Ci sono ingegneri che si alzano la mattina per fare calcoli apposta, e secondo me ne capiscono molto di più di te e me messi insieme a tanti altri. Se paragoni la esRAM con la GDDR5 della PS4 che è RAM di sistema allora proprio sei fuori pista, e anche di tanto. Sei stato invitato ad informarti perchè, anche se è permesso, non è consigliabile dire delle cose palesemente sbagliate, insistendo oltretutto di avere ragione. Detto questo, prima di parlare di un determinato argomento, ti invito a fartene almeno un'idea su Google, una biblioteca che tutti possiamo utilizzare, e solo poi venire a commentare. Nessuno qui ha le competenze necessarie per dire che una è meglio dell'altra ma almeno se ne parla e se ne discute in modo tranquillo. Il maggiore costo della console è da attribuirsi al Kinect 2.0, difatti Sony ha puntato a togliere la PS Eye dal bundle per puntare ad un prezzo minore. Questo mi pare ovvio e anche abbastanza scontato.
tecnologico
03-07-2013, 12:42
Ripeto: spiegatemi.
cercati le notizie da solo
Comunque fino a quando non avremo dati più precisi sulle CPU saranno tutte discussioni molto teoriche, anzi probabilmente fino a quando non usciranno le console... solo sull'edram possiamo avere un'idea abbastanza precisa del funzionamento ed impiego visto che è simile, come architettura, a qualla della 360, al netto dell'evoluzione generazionale e cambio di architettura...
Oltretutto se MS ha deciso di inserire solo 32 MB edram avrà fatto i sui conti, voglio sperare :)
petru916
03-07-2013, 12:47
cercati le notizie da solo
Preciso e diretto :asd:
Goofy Goober
03-07-2013, 12:53
cercati le notizie da solo
non è che se scrivo su google "perchè 32mb di ESRAM sono più faighi di millemila giga di non-ESRAM?" escono tante spiegazioni ben fatte per chi non è un espertone del settore eh :D
anche a me piacerebbe una spiegazione più terra terra del perchè e percome una cosa sia meglio dell'altra, le notizie in giro spesso dicono solo "quella console avrà quella cosa molto potente mentre l'altra ce l'ha ma va più piano, però quell'altra avrà quell'altra cosa totalmente diversa che è potentissima e quindi magari andranno uguale alla fine oppure chissà" (sostituire quella o quell'altra cosa con componenti di cui i più non sanno ne funzionamento ne cosa sono realmente in un discorso più semplicistico) :asd: :asd:
siamo come ai tempi dei confronti hardware PS3 vs X360:
il CELL contro lo Xenon (uno ha 8 core, l'altro 3, ps3 wins!!! no cosa dici, un cell non è un 8 core, è diverso, lo xenon è meglio!)
e le ram XDR paragonate alle GDDR3: io ne ho di più ma sono più lente, io ne ho di meno ma sono più veloci, ma no cosa dite le XDR sono un altro pianeta rispetto alle normali etc etc...
(se non ricordo male tanti asserivano che le XDR dovevano essere ram rivoluzionarie che avrebbero garantito prestazioni incredibili a PS3 rispetto a delle normali GDDR)
a me pare che non qualche confronto conclusivo su cosa realmente possa cambiare a favore o sfavore di sti dannati 32mega non ci sia ancora, e magari è giusto dato che c'è ancora tempo prima dell'uscita delle console...
al momento credo invece che con questi 32mb di ESRAM si sia trovato il giusto punto cardine "nebuloso" con cui l'XONE non può essere dichiarata peggiore della PS4, che dopo le prime specifiche sembrava, dalla carta, risultare superiore per semplici fattori numerici aka 3>2 :read:
tecnologico
03-07-2013, 13:00
se però entri nel forum con l' aria saccente ed è evidente che non ne sai nulla, non ne hai capito nulla ma qualcosa la devo dire lo stesso, se sei uno di quei tipi imbambolati dai numeri, più cpu è meglio , più ghz è meglio , più memoria è meglio, più megapixel è meglio..e normale che ti mandano tutti affancuffia.
quelli delle fotocamere migliori perchè hanno più megapixel, delle cpu migliori perchè hanno più core ( e ho anche sentito un tipo che mi diceva che il suo tab va più del mio vecchio note con un cd2 7500 perchè lui ha 4 core io 2 :asd:)
o quelli delle gpu modello baracca ma con 4gb di memoria video....prima di fare i saccendi dovrebbero informarsi un po meglio che già di cugggini ne abbiamo tanti.
non è che se scrivo su google "perchè 32mb di ESRAM sono più faighi di millemila giga di non-ESRAM?" escono tante spiegazioni ben fatte per chi non è un espertone del settore eh :D
In soldoni: prima di tutto la bandwitdh non è tutto. La bandwidth indica solamente la quantità massima di dati che può essere spostata da e verso la memoria in un certo tempo.
Poi questi dati vanno utilizzati ossia processati dai processori sia che siano cpu o gpu.
Quindi il primo sbaglio è assumere che la ps4 sia più potente in assoluto solo perchè ha ram più veloce.
Secondo, bisogna considerare la latenza. E' vero che i processori sono multicore, ci sono le pipeline e tutto quel che serve a massimizzare il parallelismo e quindi minimizzare la dipendenza di continui ma brevi accessi alla memoria ma... comunque le richieste vanno fatte e ci vuole un certo tempo. E PARE assodato che le gdd3 abbiano meno latenza delle gddr5.
Inoltre la latenza proprio dell'esram dovrebbe essere ancora minore e meno legata al "pattern di accesso" (cioe alla posizione fisica in cui risiedono i dati in memoria).
In soldoni: prima di tutto la bandwitdh non è tutto. La bandwidth indica solamente la quantità massima di dati che può essere spostata da e verso la memoria in un certo tempo.
Poi questi dati vanno utilizzati ossia processati dai processori sia che siano cpu o gpu.
Quindi il primo sbaglio è assumere che la ps4 sia più potente in assoluto solo perchè ha ram più veloce.
Secondo, bisogna considerare la latenza. E' vero che i processori sono multicore, ci sono le pipeline e tutto quel che serve a massimizzare il parallelismo e quindi minimizzare la dipendenza di continui ma brevi accessi alla memoria ma... comunque le richieste vanno fatte e ci vuole un certo tempo. E PARE assodato che le gdd3 abbiano meno latenza delle gddr5.
Inoltre la latenza proprio dell'esram dovrebbe essere ancora minore e meno legata al "pattern di accesso" (cioe alla posizione fisica in cui risiedono i dati in memoria).
Però avere la GPU servita solo da memoria DDR3 sarebbe troppo impattante in senso negativo sulle prestazioni. Con la ESRAM hanno riequilibrato anche quel problema.
Che ritorni un'architettura simile a quella di 360, con unità di calcolo a supporto della EDRAM (di cui si parlava sopra), per avere AA etc. "gratuiti"?
In quel caso potrebbero mettere una pezza anche alla questione dei ROPS (che si occupano anche dei calcoli relativi all'AA), visto che i rumors indicano 16ROPS per X1 (vs 32 di PS4).
Rimangono cmq le 6 unità di calcolo in meno (12 vs 18 e relativi stream processors), quindi a parità di spazio occupato dall'APU, MS ha scelto di sacrificare la GPU (meno stream processors, meno rops etc.) per far spazio alla ESRAM, che cmq da il suo contributo.
Goofy Goober
03-07-2013, 13:44
@tenologico: ma ti riferisci a me quando parli di aria saccente? :stordita:
In soldoni: prima di tutto la bandwitdh non è tutto. La bandwidth indica solamente la quantità massima di dati che può essere spostata da e verso la memoria in un certo tempo.
Poi questi dati vanno utilizzati ossia processati dai processori sia che siano cpu o gpu.
Quindi il primo sbaglio è assumere che la ps4 sia più potente in assoluto solo perchè ha ram più veloce.
Secondo, bisogna considerare la latenza. E' vero che i processori sono multicore, ci sono le pipeline e tutto quel che serve a massimizzare il parallelismo e quindi minimizzare la dipendenza di continui ma brevi accessi alla memoria ma... comunque le richieste vanno fatte e ci vuole un certo tempo. E PARE assodato che le gdd3 abbiano meno latenza delle gddr5.
Inoltre la latenza proprio dell'esram dovrebbe essere ancora minore e meno legata al "pattern di accesso" (cioe alla posizione fisica in cui risiedono i dati in memoria).
grazie.
la domanda però resta aperta. parliamo di latenze, però ad oggi le ram sono sempre progredite a favore di velocità sempre maggiori e latenze superiori (direi sia per ram da mainboard, sia per ram da gpu), quindi viene da pensare che si, le latenze sono importanti, ma fanno davvero la differenza o contano maggiormente le capacità velocistiche "brute" del tipo di ram?
tecnologico
03-07-2013, 13:59
@tenologico: ma ti riferisci a me quando parli di aria saccente? :stordita:
grazie.
la domanda però resta aperta. parliamo di latenze, però ad oggi le ram sono sempre progredite a favore di velocità sempre maggiori e latenze superiori (direi sia per ram da mainboard, sia per ram da gpu), quindi viene da pensare che si, le latenze sono importanti, ma fanno davvero la differenza o contano maggiormente le capacità velocistiche "brute" del tipo di ram?
no :D
non è che se scrivo su google "perchè 32mb di ESRAM sono più faighi di millemila giga di non-ESRAM?" escono tante spiegazioni ben fatte per chi non è un espertone del settore eh :D
anche a me piacerebbe una spiegazione più terra terra del perchè e percome una cosa sia meglio dell'altra, le notizie in giro spesso dicono solo "quella console avrà quella cosa molto potente mentre l'altra ce l'ha ma va più piano, però quell'altra avrà quell'altra cosa totalmente diversa che è potentissima e quindi magari andranno uguale alla fine oppure chissà" (sostituire quella o quell'altra cosa con componenti di cui i più non sanno ne funzionamento ne cosa sono realmente in un discorso più semplicistico) :asd: :asd:
siamo come ai tempi dei confronti hardware PS3 vs X360:
il CELL contro lo Xenon (uno ha 8 core, l'altro 3, ps3 wins!!! no cosa dici, un cell non è un 8 core, è diverso, lo xenon è meglio!)
e le ram XDR paragonate alle GDDR3: io ne ho di più ma sono più lente, io ne ho di meno ma sono più veloci, ma no cosa dite le XDR sono un altro pianeta rispetto alle normali etc etc...
(se non ricordo male tanti asserivano che le XDR dovevano essere ram rivoluzionarie che avrebbero garantito prestazioni incredibili a PS3 rispetto a delle normali GDDR)
a me pare che non qualche confronto conclusivo su cosa realmente possa cambiare a favore o sfavore di sti dannati 32mega non ci sia ancora, e magari è giusto dato che c'è ancora tempo prima dell'uscita delle console...
al momento credo invece che con questi 32mb di ESRAM si sia trovato il giusto punto cardine "nebuloso" con cui l'XONE non può essere dichiarata peggiore della PS4, che dopo le prime specifiche sembrava, dalla carta, risultare superiore per semplici fattori numerici aka 3>2 :read:
In soldoni: prima di tutto la bandwitdh non è tutto. La bandwidth indica solamente la quantità massima di dati che può essere spostata da e verso la memoria in un certo tempo.
Poi questi dati vanno utilizzati ossia processati dai processori sia che siano cpu o gpu.
Quindi il primo sbaglio è assumere che la ps4 sia più potente in assoluto solo perchè ha ram più veloce.
Secondo, bisogna considerare la latenza. E' vero che i processori sono multicore, ci sono le pipeline e tutto quel che serve a massimizzare il parallelismo e quindi minimizzare la dipendenza di continui ma brevi accessi alla memoria ma... comunque le richieste vanno fatte e ci vuole un certo tempo. E PARE assodato che le gdd3 abbiano meno latenza delle gddr5.
Inoltre la latenza proprio dell'esram dovrebbe essere ancora minore e meno legata al "pattern di accesso" (cioe alla posizione fisica in cui risiedono i dati in memoria).
Ringrazio almeno voi, vedo che non sono l'unico ad avere i paraocchi. Perche' io saro' anche ignorante in materia di ESRAM, ma qui si sta gridando al miracolo per una cache del kaiser, in cui Microsoft si sta arrampicando sugli specchi per far finta che riesce a colmare il gap prestazionale solo dalla bandwidth di una striminzita memoria...
Altro che "saccente"... Sara' che nonostante l'ignoranza in materia, io guardo anche tutto il resto nel suo insieme, non una memoria li' nell'angolo con una considerevole bandwidth...
Ma se appunto mi si aggiunge la minor latenza delle GDDR3 (che in effetti non avevo tenuto in considerazione) e della ESRAM, gia' e' qualcosa in piu'.
E come ha detto Goofy, qui si parla di sta memoria miracolosa ma io i miracoli non li ho ancora visti...
@tenologico: ma ti riferisci a me quando parli di aria saccente? :stordita:
grazie.
la domanda però resta aperta. parliamo di latenze, però ad oggi le ram sono sempre progredite a favore di velocità sempre maggiori e latenze superiori (direi sia per ram da mainboard, sia per ram da gpu), quindi viene da pensare che si, le latenze sono importanti, ma fanno davvero la differenza o contano maggiormente le capacità velocistiche "brute" del tipo di ram?
Mi accodo. Tra l'altro non si sanno nemmeno le frequenze di queste ram, perche' contano pure quelle.
Ci sono troppe variabili per soffermarsi su una cavolo di ram.
http://xboxitalia.net/forum/index.php?/topic/1498-xbox-one-%E2%80%93-inside-hardware-ovvero-cosa-si-cela-sotto-la-scocca/
Tra l'altro nessuno parla invece dell'hard disk scrauso che hanno messo, 5400rpm e 8MB di cache. Se la PS4 monta qualcosa di piu' veloce, poi voglio vedere le pause tra un caricamento e l'altro quanto saranno brevi...
Mi avete proprio fatto girare le balle, si'. Mi date dell'ignorante saccente e poi vi soffermate su un singolo componente senza guardare tutto il resto.
Tralasciando poi il fatto che i giochi verranno adattati, quindi girera' su XboX One cosi' come girera' su PS4.
Il confronto tra le console non si fa su base prestazionale (a meno che non ci sia l'abisso come tra queste due e la Wii U), ma si fa sul prezzo, sui bundle, sui giochi, ecc ecc.
la domanda però resta aperta. parliamo di latenze, però ad oggi le ram sono sempre progredite a favore di velocità sempre maggiori e latenze superiori (direi sia per ram da mainboard, sia per ram da gpu), quindi viene da pensare che si, le latenze sono importanti, ma fanno davvero la differenza o contano maggiormente le capacità velocistiche "brute" del tipo di ram?
E beh, adesso chiedi troppo :)
Ad ogni modo il fatto che le ram abbiano latenze sempre superiori è uno scotto da pagare per la maggiore velocità, un po' un limite tecnico con cui i produttori devono fare i conti.
Poi cosa sia meglio per i videogiochi non lo so proprio. Di paragoni coi pc non se ne possono fare, o comunque se ne possono fare fino a un certo punto.
Se da una parte è vero che le moderne sk video montano gddr5 (ce ne sono anche tante che vanno forte e montano le 3), la ram di sistema non è gddr5.
Resta invece altro tasto “dolente” il southbridge, ovvero quel simil-processore (quindi meglio chiamarlo controller) che gestisce tutte le periferiche secondarie, quali porte USB, Ethernet e, come il circuito sulla scheda madre sembra far notare, l’HDMI in ingresso e pure Kinect 2.
Tasto dolente perché nella vecchia Xbox 360 era gestito da un chip SiS, che non è grande innovatrice se non negli anni ‘90/2000 e che ora produce solo soluzioni “base”, e dall’immagine sembra proprio lo stesso identico.
E avendo il Kinect 2 da gestire e per di più tre porte USB 3.0 (due posteriori ed una laterale) ed Ethernet in caso di connessione via cavo, spero che veramente non abbia il lag della prima versione come annunciato all’ #XboxReveal e che la velocità delle varie porte non sia compromessa da un controller di basse qualità/prestazioni.
Altra cosa da tenere in considerazione (se e' gia' stato fatto mi scuso ma non seguo ogni post che viene scritto).
http://xboxitalia.net/forum/index.php?/topic/1498-xbox-one-%E2%80%93-inside-hardware-ovvero-cosa-si-cela-sotto-la-scocca/
Radagast82
03-07-2013, 14:42
@Baboo
non è che solo tu non li hai visti sti miracoli (tra l'altro non mi sembra che nessuno abbia parlato di miracoli della x1), qui finora nessuno ha visto niente, nè da x1 nè da ps4, se non qualche video all'E3, caricato su youtube e simili, di giochi che potevano girare benissimo su pc carrozzati (vedi x1) o essere delle techdemo ultra scriptate o peggio ancora filmati in CGI (vedi ps4). Per cui, detto sinceramente, si sta parlando del NULLA, in questi thread volano parole tipo ROPS, FLOPS, CRICK E CROCK etc etc, ma per ora restano solo sigle e numeri, all'atto pratico nessuno ha idea di cosa queste sigle e numeri portino nei giochi. Per cui di fatto, ma questo è puramente IMHO, o ci si butta nella mischia snocciolando sigle trovate su wikipedia, numeri presi da siti le cui fonti sono sempre "riservate e interne a MS/Sony", o si parla degli ecosistemi delle due console (che sono l'unica cosa certa e conosciuta finora), inteso come kinect vs pseye, cloud vs gaikai, esclusive etc.
P.s. riguardo l'hd ti faccio notare che non sempre 7.200rpm sono meglio di 5.400. I primi scaldano molto di più, consumano di più, e se non sono di alto livello hanno una probabilità maggiore di rompersi, tutte caratteristiche che mal si sposano con le console. Molte periferiche dell'audio video e non solo utilizzano 5.400 rpm proprio per questi motivi. E non pensare che in termini prestazionali ci sia chissà quale gap. Poi con questo ragionamento allora potevano pure metterci i cheetah 10.000 rpm no? Quando si crea una console o un qualsiasi altro apparecchio si sceglie la migliore soluzione per quel tipo di prodotto, non la migliore in assoluto sul mercato.
Caro Baboo, come vedi parecchie persone qui non condividono il tono da "fanboy" con cui hai setenziato su un argomento di cui non conosci nulla.
32mb sono tanti per l'uso che serve quel tipo di ram
la xbox360 ne aveva 10... ripeto 10... eppure a fatto a fettine la PS3.
come si comporteranno ora questi 32mb contro le DDR5 lo sapremo quando usciranno le console.
per i dettagli tecnici e a cosa, e come, funziona fatti un giro nel topic X1.
detto questo, bisognerebbe chiedere ciò che non si conosce e non fare gli espertoni...
petru916
03-07-2013, 14:46
Qui, perdonatemi, stiamo cadendo nel ridicolo. Si sta dicendo che fino ad ora si è sostenuto che questa esRAM possa fare miracoli: NON E' COSÌ (e lo scrivo in grande per evidenziarlo meglio e per far capire bene il concetto, che a quanto pare non è chiaro a tutti). Qui, come nel thread Xbox, si sta discernendo sulle possibili utilità dell'esRAM nell'ecosistema Xbox. Ora, si è già detto e ridetto che la GPU della PS4 ha circa il 50% in più di operazioni al secondo, si è già detto che è più potente e quello che volete. Si è capito, lo abbiamo capito e tutti siamo contenti. Avere il paraocchi è forse dall'altro lato, ovvero sostenere a mani basse che l'esRAM sia inutile. Chi se li ricorda i multipiattaforma della scorsa gen? Uscivano meglio su Xbox soprattutto per la nitidezza d'immagine. I filtri erano applicati a posteriori "gratis" proprio grazie all'edRAM, quindi tanto inutile non mi pare. Ma questo è stato ripetuto tante e tante volte fino alla nausea. Se poi volete innalzarvi a paladini di X o di Y a me non tenge, non me ne viene niente in tasca. Solo gradirei non passare dal forum e leggere di gente che nemmeno sa cos'è una esRAM che grida allo scandalo perchè pensa sia completamente inutile. Così si fa solo disinformazione e si confondono le idee.
ah.. dimenticavo, i 100€ in meno della PS4 sono fumo negli occhi, visto che la X1 ti da un Kinect 2.0 compreso... che credimi, è davvero una gran periferica e controlla fino a 6 persone in full HD.
prova aggiungere ora PS eye con 6 move e dimmi che cifra viene fuori?
detto questo, il mettere la Kinect compresa è un modo anche per stimolare i programmatori ad usarla, sapendo che tutte le console ne sono munite.
il PS eye non incluso è praticamente limitato a pochi giochi di chi li vorrà, ergo... periferica di serie C.
meglio che rifai i conti anche sui costi di produzione.
anzi... mi chiedo su che basi di acquisto li hai fatti
petru916
03-07-2013, 14:55
Ringrazio almeno voi, vedo che non sono l'unico ad avere i paraocchi. Perche' io saro' anche ignorante in materia di ESRAM, ma qui si sta gridando al miracolo per una cache del kaiser, in cui Microsoft si sta arrampicando sugli specchi per far finta che riesce a colmare il gap prestazionale solo dalla bandwidth di una striminzita memoria...
Altro che "saccente"... Sara' che nonostante l'ignoranza in materia, io guardo anche tutto il resto nel suo insieme, non una memoria li' nell'angolo con una considerevole bandwidth...
Ma se appunto mi si aggiunge la minor latenza delle GDDR3 (che in effetti non avevo tenuto in considerazione) e della ESRAM, gia' e' qualcosa in piu'.
E come ha detto Goofy, qui si parla di sta memoria miracolosa ma io i miracoli non li ho ancora visti...
Mi accodo. Tra l'altro non si sanno nemmeno le frequenze di queste ram, perche' contano pure quelle.
Ci sono troppe variabili per soffermarsi su una cavolo di ram.
http://xboxitalia.net/forum/index.php?/topic/1498-xbox-one-%E2%80%93-inside-hardware-ovvero-cosa-si-cela-sotto-la-scocca/
Tra l'altro nessuno parla invece dell'hard disk scrauso che hanno messo, 5400rpm e 8MB di cache. Se la PS4 monta qualcosa di piu' veloce, poi voglio vedere le pause tra un caricamento e l'altro quanto saranno brevi...
Mi avete proprio fatto girare le balle, si'. Mi date dell'ignorante saccente e poi vi soffermate su un singolo componente senza guardare tutto il resto.
Tralasciando poi il fatto che i giochi verranno adattati, quindi girera' su XboX One cosi' come girera' su PS4.
Il confronto tra le console non si fa su base prestazionale (a meno che non ci sia l'abisso come tra queste due e la Wii U), ma si fa sul prezzo, sui bundle, sui giochi, ecc ecc.
Guarda, nessuno ti ha dato dell'ignorante. Sei stato tu a darti dell'ignorante in materia nei primi post dove nemmeno sapevi di che roba stavi parlando. Eppure le sentenze primordiali le hai date tutte. Detto questo, spero che la prossima console di Microsoft la possa progettare tu, perchè se per te un HDD da 5.200 è enormemente meno performante di un 7.200 (leggi online alcun comparative per farti un'idea) allora evidentemente sei detentore della Verità assoluta. Detto questo, ti ripeto che i miracoli che accenni, li hai visti solo ed esclusivamente tu.
ah.. dimenticavo, i 100 in meno della PS4 sono fumo negli occhi, visto che la X1 ti da un Kinect 2.0 compreso... che credimi, è davvero una gran periferica e controlla fino a 6 persone in full HD.
prova aggiungere ora PS eye con 6 move e dimmi che cifra viene fuori?
detto questo, il mettere la Kinect compresa è un modo anche per stimolare i programmatori ad usarla, sapendo che tutte le console ne sono munite.
il PS eye non incluso è praticamente limitato a pochi giochi di chi li vorrà, ergo... periferica di serie C.
meglio che rifai i conti anche sui costi di produzione.
anzi... mi chiedo su che basi di acquisto li hai fatti
E chi non è interessato a kinect cosa dovrebbe fare? Lo paga cmq per lasciarlo nella scatola?
Inviato dal mio GT-N7100 con Tapatalk 2
E chi non è interessato a kinect cosa dovrebbe fare? Lo paga cmq per lasciarlo nella scatola?
Inviato dal mio GT-N7100 con Tapatalk 2
Non compra la x1, mi pare ovvio...
Non è un bene di prima necessità se alla ms hanno deciso così poi noi decidiamo se comprare o no non vedo il problema!
@Baboo
non è che solo tu non li hai visti sti miracoli (tra l'altro non mi sembra che nessuno abbia parlato di miracoli della x1), qui finora nessuno ha visto niente, nè da x1 nè da ps4, se non qualche video all'E3, caricato su youtube e simili, di giochi che potevano girare benissimo su pc carrozzati (vedi x1) o essere delle techdemo ultra scriptate o peggio ancora filmati in CGI (vedi ps4). Per cui, detto sinceramente, si sta parlando del NULLA, in questi thread volano parole tipo ROPS, FLOPS, CRICK E CROCK etc etc, ma per ora restano solo sigle e numeri, all'atto pratico nessuno ha idea di cosa queste sigle e numeri portino nei giochi. Per cui di fatto, ma questo è puramente IMHO, o ci si butta nella mischia snocciolando sigle trovate su wikipedia, numeri presi da siti le cui fonti sono sempre "riservate e interne a MS/Sony", o si parla degli ecosistemi delle due console (che sono l'unica cosa certa e conosciuta finora), inteso come kinect vs pseye, cloud vs gaikai, esclusive etc.
P.s. riguardo l'hd ti faccio notare che non sempre 7.200rpm sono meglio di 5.400. I primi scaldano molto di più, consumano di più, e se non sono di alto livello hanno una probabilità maggiore di rompersi, tutte caratteristiche che mal si sposano con le console. Molte periferiche dell'audio video e non solo utilizzano 5.400 rpm proprio per questi motivi. E non pensare che in termini prestazionali ci sia chissà quale gap. Poi con questo ragionamento allora potevano pure metterci i cheetah 10.000 rpm no? Quando si crea una console o un qualsiasi altro apparecchio si sceglie la migliore soluzione per quel tipo di prodotto, non la migliore in assoluto sul mercato.
Scaldare e consumare molto di piu' potrei tranquillamente obiettare (tra l'altro un WD Scorpio Black consuma molto poco e non scalda un cavolo).
http://www.tomshw.it/cont/articolo/hard-disk-da-500-gb-per-notebook-da-samsung-e-hitachi-throughput-da-record-samsung-spinpoint-h6-hm500li-500gb/22136/5.html
Questo dovrebbe essere lo Spinpoint presente nella console. Assorbe qualcosa come 0,85A. Un WD Scorpio Black ne assorbe 0,55A...
http://www.stuartconnections.com/9013-thickbox/Western-Digital-Scorpio-Black-500GB-7200RPM-16MB-Cache-SATA-II-30Gbs-Laptop-Notebook-Hard-Drive-.jpg
E i consumi sono minori: samsung (http://www.tomshw.it/guides/hardware/storage/20080709/images/image009.png) e western digital (http://www.storagereview.com/images/wd_scorpio_black_500gb_power_values.png).
Il posizionamento dell'hard disk mi sembra sul retro all'uscita dell'aria (se cosi' fosse, e' una pessima cosa, IMHO), quindi comunque l'aria gli arriva.
E per il costo, ormai tra 5400 e 7200 non e' che c'e' molta differenza (a meno di non prendere uno scrauso da 5400 e uno serio da 7200, allora si' che la differenza si vede)...
Caro Baboo, come vedi parecchie persone qui non condividono il tono da "fanboy" con cui hai setenziato su un argomento di cui non conosci nulla.
32mb sono tanti per l'uso che serve quel tipo di ram
la xbox360 ne aveva 10... ripeto 10... eppure a fatto a fettine la PS3.
come si comporteranno ora questi 32mb contro le DDR5 lo sapremo quando usciranno le console.
per i dettagli tecnici e a cosa, e come, funziona fatti un giro nel topic X1.
detto questo, bisognerebbe chiedere ciò che non si conosce e non fare gli espertoni...
Fanboy? Ma se non ho mai avuto una console e non volevo prendere nemmeno queste, ma lo faro' perche' e' un risparmio per chi vuole giocare (rispetto al pc)...
Vorrei pero' far notare che la XboX 360 ha fatto a fettine la PS3 perche' hanno infilato un Cell da....6 core mi sembra, che era difficile programmarci sopra e le API non erano un granche'...
Tra comparto grafico e processore, a me sembra (dati alla mano su wikipedia) che la PS3 era due piste in la' di XboX. Ma aveva punti deboli, che io sappia: memoria separata da 256MB per il sistema e altre 256MB per la memoria video mentre la XboX ne aveva 512 unificati (il che rendeva migliore la gestione della memoria stessa e non si avevano troppe limitazioni), il Cell che nonostante le prestazioni grandiose era un cesso da programmare, la GPU comunque sia per alcuni versi era castrata (al momento non ricordo per cosa)...
Ripeto: non erano SOLO quei 10MB in piu' e basta che permettevano all'XboX di affettare la PS3. Cosi' come non lo saranno adesso.
O mi sbaglio?
E chi non è interessato a kinect cosa dovrebbe fare? Lo paga cmq per lasciarlo nella scatola?
Inviato dal mio GT-N7100 con Tapatalk 2
La differenza di cui parlo io appunto e' quella. Ok c'e' il Kinect, ma la gente vede 100€ in piu'. Se non ci sara' un bundle senza kinect (sperando che costi 399 come la PS4) ci sara' gente che ragionera' a portafogli.
petru916
03-07-2013, 15:11
E chi non è interessato a kinect cosa dovrebbe fare? Lo paga cmq per lasciarlo nella scatola?
Inviato dal mio GT-N7100 con Tapatalk 2
Semplicemente prenderà PS4. Ringraziando a Dio siamo in una società in cui la concorrenza esiste e fa bene. Se non mi piace l'offerta della TIM, vado con la Vodafone, giusto per fare un esempio semplicistico. Per quanto mi riguarda, e parlo per me prima di essere accusato di cose che manco mi interessano, c'è curiosità nel vedere come Kinect verrà sfruttato. Senza Kinect la Xbox mi sembrerebbe solo una 360 HD, come lo sarebbe PS4. Tutto qui. Come dicevo nell'altro thread, se anche in questa gen ci saranno solo giochi alla Dance Central sarò il primo a dar via Xbox One. Sinceramente a questo punto rimarrei comunque su PC.
Non compra la x1, mi pare ovvio...
Non è un bene di prima necessità se alla ms hanno deciso così poi noi decidiamo se comprare o no non vedo il problema!
Beh, hanno dichiarato (o erano rumors?) che kinect non è obbligatorio per avviare il sistema, che sarà possibile giocare a tutti i giochi con il joypad etc. Che facciano l'ultimo passo e vendano anche una versione senza kinect, le esclusive sono cmq allettanti...
Inviato dal mio GT-N7100 con Tapatalk 2
Goofy Goober
03-07-2013, 15:20
Non compra la x1, mi pare ovvio...
Non è un bene di prima necessità se alla ms hanno deciso così poi noi decidiamo se comprare o no non vedo il problema!
io voglio giocare a Forza 5 :cry:
ma senza kinect chiaro :D
petru916
03-07-2013, 15:22
Scaldare e consumare molto di piu' potrei tranquillamente obiettare (tra l'altro un WD Scorpio Black consuma molto poco e non scalda un cavolo).
http://www.tomshw.it/cont/articolo/hard-disk-da-500-gb-per-notebook-da-samsung-e-hitachi-throughput-da-record-samsung-spinpoint-h6-hm500li-500gb/22136/5.html
Questo dovrebbe essere lo Spinpoint presente nella console. Assorbe qualcosa come 0,85A. Un WD Scorpio Black ne assorbe 0,55A...
http://www.stuartconnections.com/9013-thickbox/Western-Digital-Scorpio-Black-500GB-7200RPM-16MB-Cache-SATA-II-30Gbs-Laptop-Notebook-Hard-Drive-.jpg
E i consumi sono minori: samsung (http://www.tomshw.it/guides/hardware/storage/20080709/images/image009.png) e western digital (http://www.storagereview.com/images/wd_scorpio_black_500gb_power_values.png).
Il posizionamento dell'hard disk mi sembra sul retro all'uscita dell'aria (se cosi' fosse, e' una pessima cosa, IMHO), quindi comunque l'aria gli arriva.
E per il costo, ormai tra 5400 e 7200 non e' che c'e' molta differenza (a meno di non prendere uno scrauso da 5400 e uno serio da 7200, allora si' che la differenza si vede)...
Fanboy? Ma se non ho mai avuto una console e non volevo prendere nemmeno queste, ma lo faro' perche' e' un risparmio per chi vuole giocare (rispetto al pc)...
Vorrei pero' far notare che la XboX 360 ha fatto a fettine la PS3 perche' hanno infilato un Cell da....6 core mi sembra, che era difficile programmarci sopra e le API non erano un granche'...
Tra comparto grafico e processore, a me sembra (dati alla mano su wikipedia) che la PS3 era due piste in la' di XboX. Ma aveva punti deboli, che io sappia: memoria separata da 256MB per il sistema e altre 256MB per la memoria video mentre la XboX ne aveva 512 unificati (il che rendeva migliore la gestione della memoria stessa e non si avevano troppe limitazioni), il Cell che nonostante le prestazioni grandiose era un cesso da programmare, la GPU comunque sia per alcuni versi era castrata (al momento non ricordo per cosa)...
Ripeto: non erano SOLO quei 10MB in piu' e basta che permettevano all'XboX di affettare la PS3. Cosi' come non lo saranno adesso.
O mi sbaglio?
La differenza di cui parlo io appunto e' quella. Ok c'e' il Kinect, ma la gente vede 100€ in piu'. Se non ci sara' un bundle senza kinect (sperando che costi 399 come la PS4) ci sara' gente che ragionera' a portafogli.
Ps3 e 360 erano praticamente alla pari, chi sapeva usare Cell poteva mitigare le discrepanze prestazionali tra le GPU dei due sistemi. Difatti i vari Uncharted hanno mostrato il massimo di ciò che si poteva fare con PS3. Dall'altro canto la 360 aveva una GPU migliore ma allo stesso tempo poteva caricare di meno sulla CPU, ergo bilanciavi tutto. La edRAM ha fatto la differenza sotto al lato qualitativo dell'immagine. Ogni gioco 360 aveva ALMENO 2x di MSAA a differenza della controparte PS3 che poteva avere dei filtri più approssimativi. Dire che i miracoli non li faccia è corretto, dire che la edRAM non sia servita a niente o denota una poca conoscenza del sistema o malafede. Sicuramente avremo dei giochi PS4 più ricchi di dettagli, come si diceva nell'altro thread, per quanto riguarda la qualità delle ombre, la qualità dei particellari e tutte quelle cosine che ad occhio nudo è difficile soffermarsi a notare se si ha una resa molto vicina. Sicuramente Xbox One potrà contare su una minore "pesantezza" del filtro AA poichè verrà appoggiato alla esRAM (che su 360 aveva delle unità matematiche dedicate intorno a sè, quindi probabilmente anche su One). Non sarà un miracolo ma è sicuramente un buon punto per Xbox, del resto Intel e molti produttori di GPU passeranno ad esRAM quando il costo sarà meno proibitivo sui grandi volumi.
Per quanto riguarda il discorso HDD: la differenza prestazionale tra i 5400 e i 7200 ci potrebbe essere ma non sarebbe in alcun modo determinante, in altre parole potrebbe anche essere molto risicata. L'affidabilità è sicuramente il nocciolo fondamentale del discorso. Chi progetta una console che deve sopportare tanti anni di servizio e deve garantire la massima affidabilità sa benissimo che i 5400 sono una scelta più oculata e di sicuro vantaggio, nulla togliendo ai 7200, che personalmente ho anche nel mio PC.
Radagast82
03-07-2013, 15:41
Scaldare e consumare molto di piu' potrei tranquillamente obiettare (tra l'altro un WD Scorpio Black consuma molto poco e non scalda un cavolo).
http://www.tomshw.it/cont/articolo/hard-disk-da-500-gb-per-notebook-da-samsung-e-hitachi-throughput-da-record-samsung-spinpoint-h6-hm500li-500gb/22136/5.html
Questo dovrebbe essere lo Spinpoint presente nella console. Assorbe qualcosa come 0,85A. Un WD Scorpio Black ne assorbe 0,55A...
http://www.stuartconnections.com/9013-thickbox/Western-Digital-Scorpio-Black-500GB-7200RPM-16MB-Cache-SATA-II-30Gbs-Laptop-Notebook-Hard-Drive-.jpg
E i consumi sono minori: samsung (http://www.tomshw.it/guides/hardware/storage/20080709/images/image009.png) e western digital (http://www.storagereview.com/images/wd_scorpio_black_500gb_power_values.png).
Il posizionamento dell'hard disk mi sembra sul retro all'uscita dell'aria (se cosi' fosse, e' una pessima cosa, IMHO), quindi comunque l'aria gli arriva.
E per il costo, ormai tra 5400 e 7200 non e' che c'e' molta differenza (a meno di non prendere uno scrauso da 5400 e uno serio da 7200, allora si' che la differenza si vede)...
ma che fai, mi riporti le recensioni di un modello in particolare quando si parla del generale? secondo la tua logica allora i 5.400 non hanno senso di esistere e di essere prodotti, tanto scaldano e consumano quanto i 7.200 e costano uguale! boh... fossi in te cmq manderei il cv alla MS o alla Sony perchè a naso ne sai molto più tu che i loro progettisti, o dei progettisti di tutte le periferiche che usano dischi a 5.400 rpm .
Non pensare che perchè in ambito desktop i 7.200 siano la soluzione migliore lo stesso vale per tutte le periferiche. in un desktop generalmente circola più aria, c'è una diversa distribuzione dei componenti, ci sono dei cicli di lettura e scrittura diversi, ed è facile sostituirli. In una console tutte queste cose non ci sono. se si fonde l'hd dopo 1 anno non è che apri la console, togli il disco vecchio, ci metti quello nuovo e via andare.
In una console tutte queste cose non ci sono. se si fonde l'hd dopo 1 anno non è che apri la console, togli il disco vecchio, ci metti quello nuovo e via andare.
Sono anni che uso un 7200rpm nella ps3 fat e la differenza di prestazioni con la slim che monta un 5400rpm è evidente, nei caricamenti anche di 10-15 sec in meno.
Inviato dal mio GT-N7100 con Tapatalk 2
ma che fai, mi riporti le recensioni di un modello in particolare quando si parla del generale? secondo la tua logica allora i 5.400 non hanno senso di esistere e di essere prodotti, tanto scaldano e consumano quanto i 7.200 e costano uguale! boh... fossi in te cmq manderei il cv alla MS o alla Sony perchè a naso ne sai molto più tu che i loro progettisti, o dei progettisti di tutte le periferiche che usano dischi a 5.400 rpm .
Non pensare che perchè in ambito desktop i 7.200 siano la soluzione migliore lo stesso vale per tutte le periferiche. in un desktop generalmente circola più aria, c'è una diversa distribuzione dei componenti, ci sono dei cicli di lettura e scrittura diversi, ed è facile sostituirli. In una console tutte queste cose non ci sono. se si fonde l'hd dopo 1 anno non è che apri la console, togli il disco vecchio, ci metti quello nuovo e via andare.
Ma...
http://xboxitalia.net/forum/index.php?/topic/1498-xbox-one-%E2%80%93-inside-hardware-ovvero-cosa-si-cela-sotto-la-scocca/
Queste sono le foto della XboX One smontata, foto fatte da Wired.
A meno che tu non mi dica "quello e' solo un disco di test" (e chissa', potrebbe anche essere) allora ok, ma se il disco e' quello i dati sono quelli...
petru916
03-07-2013, 16:01
Sono anni che uso un 7200rpm nella ps3 fat e la differenza di prestazioni con la slim che monta un 5400rpm è evidente, nei caricamenti anche di 10-15 sec in meno.
Inviato dal mio GT-N7100 con Tapatalk 2
Guarda, non perchè non ti credo, ma qualche tempo fa lessi la comparativa ps3 con HDD 7200rpm contro PS3 con SSD, la differenza si attestava tra il 10-15%, non di più, non appena riesco ti linko la fonte. Mi vien da pensare che proprio a posto quel tuo HDD da 5400rpm non fosse. Io, per contro, ti potrei dire che il mio portatile a 5400rpm è più veloce di quello della mia ragazza che è a 7200rpm a pari caratteristiche hardware. Questi sono tutti dati empirici, che differiscono da esperienza ad esperienza.
Guarda, non perchè non ti credo, ma qualche tempo fa lessi la comparativa ps3 con HDD 7200rpm contro PS3 con SSD, la differenza si attestava tra il 10-15%, non di più, non appena riesco ti linko la fonte. Mi vien da pensare che proprio a posto quel tuo HDD da 5400rpm non fosse. Io, per contro, ti potrei dire che il mio portatile a 5400rpm è più veloce di quello della mia ragazza che è a 7200rpm a pari caratteristiche hardware. Questi sono tutti dati empirici, che differiscono da esperienza ad esperienza.
Con un pc e' piu' difficile fare confronti, un nuovo notebook con disco 5400 scrauso sarebbe sicuramente piu' veloce del mio 7200 che sono due anni che non lo formatto e c'e' su roba.
Anche per l'SSD, non e' come per gli hard disk meccanici che la differenza di qualita' c'e' ma si vede poco: se l'SSD in questione e' uno da 100MB/s la differenza e' poca, se e' uno da 500MB/s allora altro che 10-15%...
In quel caso si va al risparmio, ma i 5-10 euro di differenza tra un 7200 e un 5400 si possono anche spendere e dare un'esperienza migliore. Non parlo certo di un Momentus XT con un SSD di cache, ma un normale HDD decente.
Non e' che ci carichi i salvataggi e basta, ci carichi anche i giochi presi in digitale. Se e' lento e' frustrante e ti senti come col Commodore e le cassette a nastri...
petru916
03-07-2013, 16:14
Ma...
http://xboxitalia.net/forum/index.php?/topic/1498-xbox-one-%E2%80%93-inside-hardware-ovvero-cosa-si-cela-sotto-la-scocca/
Queste sono le foto della XboX One smontata, foto fatte da Wired.
A meno che tu non mi dica "quello e' solo un disco di test" (e chissa', potrebbe anche essere) allora ok, ma se il disco e' quello i dati sono quelli...
Continuo a sostenere che nell'economia della console non sia proprio quello che dovrebbe saltare all'occhio. In ogni caso la scelta dei 5400rpm sicuramente è favore di una maggiore silenziosità, durabilità e affidabilità dell HDD stesso. Ricordamoci che Xbox One fornisce anche funzioni diverse dal gaming. Molti dei miei amici usano già la Xbox per intrattenersi con Premium ol altri servizi televisivi, o ancora musicali, di conseguenza il rumore si deve attestare al minimo. Non è un caso che Xbox One sia molto più voluminosa di PS4 avendo un sistema di raffreddamento molto ben progettato e in grado di venire incontro alle varie situazioni (estate in primis). Come già ccennava un utente prima di me, qui sembra che gli HDD da 5400rpm non abbiano senso di esistere, ma evidentemente lo si dice non analizzando bene ogni vantaggio/svantaggio che si può apportare. Ripeto, chi è arrivato a progettare in Microsoft è sicuramente un ingegnere con le palle quadrate, spero solo di poter anche io arrivare a lavorare a certi livelli essendo un ingegnere anche io. Non spariamole in alto che non è nemmeno il caso.
petru916
03-07-2013, 16:25
Con un pc e' piu' difficile fare confronti, un nuovo notebook con disco 5400 scrauso sarebbe sicuramente piu' veloce del mio 7200 che sono due anni che non lo formatto e c'e' su roba.
Anche per l'SSD, non e' come per gli hard disk meccanici che la differenza di qualita' c'e' ma si vede poco: se l'SSD in questione e' uno da 100MB/s la differenza e' poca, se e' uno da 500MB/s allora altro che 10-15%...
In quel caso si va al risparmio, ma i 5-10 euro di differenza tra un 7200 e un 5400 si possono anche spendere e dare un'esperienza migliore. Non parlo certo di un Momentus XT con un SSD di cache, ma un normale HDD decente.
Non e' che ci carichi i salvataggi e basta, ci carichi anche i giochi presi in digitale. Se e' lento e' frustrante e ti senti come col Commodore e le cassette a nastri...
Evidentemente 5-10€ di differenza non sono. E ovviamente si sta parlando di SSD umani, non mostri da 400€ che costano più della console stessa, lì poi si perde l'ordine di grandezza delle cose. Non so te ma io qualche settimana fa ho pagato 70€ un WD da 500GB 7200rpm 32MB di cache. Se lo metti in relazione al costo complessivo della console è esorbitante. Cioè considera un 100€ per il Kinect ad essere ottimisti, hai 399€ da giostrare sui vari componenti, sulla produzione, sui costi di pubblicità e quant'altro. Se ne mandi via 50 solo con l'HDD cosa ci vuoi montare poi sulla console? Devi tenere conto anche di questo. Ti ricordo che 7 anni fa la Sony vendeva a 599€ una console che le faceva perdere soldi, hanno tagliato poi su tante cose e sono rientrati nei costi. Ad oggi non è possibile replicare una tale situazione, pensa anche in che periodo ci troviamo.
Continuo a sostenere che nell'economia della console non sia proprio quello che dovrebbe saltare all'occhio. In ogni caso la scelta dei 5400rpm sicuramente è favore di una maggiore silenziosità, durabilità e affidabilità dell HDD stesso. Ricordamoci che Xbox One fornisce anche funzioni diverse dal gaming. Molti dei miei amici usano già la Xbox per intrattenersi con Premium ol altri servizi televisivi, o ancora musicali, di conseguenza il rumore si deve attestare al minimo. Non è un caso che Xbox One sia molto più voluminosa di PS4 avendo un sistema di raffreddamento molto ben progettato e in grado di venire incontro alle varie situazioni (estate in primis). Come già ccennava un utente prima di me, qui sembra che gli HDD da 5400rpm non abbiano senso di esistere, ma evidentemente lo si dice non analizzando bene ogni vantaggio/svantaggio che si può apportare. Ripeto, chi è arrivato a progettare in Microsoft è sicuramente un ingegnere con le palle quadrate, spero solo di poter anche io arrivare a lavorare a certi livelli essendo un ingegnere anche io. Non spariamole in alto che non è nemmeno il caso.
Non e' che non hanno senso di esistere, ma la differenza di temperatura, consumi, rumorosita' e costi ormai hanno raggiunto livelli talmente simili che ormai conviene un 7200 per le prestazioni migliori. Tutto qui. E non e' una cosa campata in aria, guardati qualsiasi benchmark dei dischi 2,5".
Gli unici che fanno tanto rumore o sono quelli veramente economici oppure sono i 10k.
Evidentemente 5-10€ di differenza non sono. E ovviamente si sta parlando di SSD umani, non mostri da 400€ che costano più della console stessa, lì poi si perde l'ordine di grandezza delle cose. Non so te ma io qualche settimana fa ho pagato 70€ un WD da 500GB 7200rpm 32MB di cache. Se lo metti in relazione al costo complessivo della console è esorbitante. Cioè considera un 100€ per il Kinect ad essere ottimisti, hai 399€ da giostrare sui vari componenti, sulla produzione, sui costi di pubblicità e quant'altro. Se ne mandi via 50 solo con l'HDD cosa ci vuoi montare poi sulla console? Devi tenere conto anche di questo. Ti ricordo che 7 anni fa la Sony vendeva a 599€ una console che le faceva perdere soldi, hanno tagliato poi su tante cose e sono rientrati nei costi. Ad oggi non è possibile replicare una tale situazione, pensa anche in che periodo ci troviamo.
Visto tutti i rumors e news che vengono fuori, basta risparmiare sul marketing e sono a posto. Spesso costa piu' tutta una campagna che il prodotto spesso e molte volte non da' i risultati sperati.
E poi conta che a te costa 70, a loro costa 50 dal rivenditore (ricorda: noi abbiamo l'equo compenso :asd:). Un solo hard disk. Ordinando due Titanic di hard disk gli verra' a costare ancora meno. Diciamo che piu' loro risparmiano e piu' ci guadagnano, l'hard disk credono di poterselo permettere perche' al massimo ci sara' chi se lo cambiera'...
Mi vien da pensare che proprio a posto quel tuo HDD da 5400rpm non fosse. Io, per contro, ti potrei dire che il mio portatile a 5400rpm è più veloce di quello della mia ragazza che è a 7200rpm a pari caratteristiche hardware. Questi sono tutti dati empirici, che differiscono da esperienza ad esperienza.
È quello standard della slim 3000, non l'ho mai aperta quindi non so dire che hdd monta, di contro sulla fat ho invece un wd scorpio black.
La differenza cmq si nota sui giochi con caricamenti pesanti come gta iv (che impiega oltre 1 min ad avviarsi) o quando si avviano gli uncharted. Diversamente sono trascurabili, nell'ordine di 2-3s in meno.
Inviato dal mio GT-N7100 con Tapatalk 2
alexbands
03-07-2013, 17:57
È quello standard della slim 3000, non l'ho mai aperta quindi non so dire che hdd monta, di contro sulla fat ho invece un wd scorpio black.
La differenza cmq si nota sui giochi con caricamenti pesanti come gta iv (che impiega oltre 1 min ad avviarsi) o quando si avviano gli uncharted. Diversamente sono trascurabili, nell'ordine di 2-3s in meno.
Inviato dal mio GT-N7100 con Tapatalk 2
ma gli uncharted non vengono caricati direttamente dal BD? Non hanno alcuna installazione, a meno che non parli della versione digitale...
petru916
03-07-2013, 17:59
Non e' che non hanno senso di esistere, ma la differenza di temperatura, consumi, rumorosita' e costi ormai hanno raggiunto livelli talmente simili che ormai conviene un 7200 per le prestazioni migliori. Tutto qui. E non e' una cosa campata in aria, guardati qualsiasi benchmark dei dischi 2,5".
Gli unici che fanno tanto rumore o sono quelli veramente economici oppure sono i 10k.
Visto tutti i rumors e news che vengono fuori, basta risparmiare sul marketing e sono a posto. Spesso costa piu' tutta una campagna che il prodotto spesso e molte volte non da' i risultati sperati.
E poi conta che a te costa 70, a loro costa 50 dal rivenditore (ricorda: noi abbiamo l'equo compenso :asd:). Un solo hard disk. Ordinando due Titanic di hard disk gli verra' a costare ancora meno. Diciamo che piu' loro risparmiano e piu' ci guadagnano, l'hard disk credono di poterselo permettere perche' al massimo ci sara' chi se lo cambiera'...
Io comunque ti ripeto, sono sicuramente d'accordo sul fatto che i 7200 siano più veloci, ma un 5400 non è per niente non auspicabile. È un sistema fatto per durare anni e mantenere l'integrità nel tempo, non devi guardare solo il lato prestazionale delle cose, è quello che voglio farti capire. Altrimenti buttiamoci dentro qualche centinaio di euro in più di componenti e siamo tutti contenti. Lo so come funzionano le vendite tra società finalizzate alla produzione ma ti ripeto che devi pensare che con 350-400€ devi starci dentro con tutti gli altri componenti e con i costi di produzione/progettazione. Ovviamente il margine più è grande meglio è per la società che produce non essendo una società che va avanti ad aria. Quei kit che hai linkato sono oltretutto molto vecchi (21 maggio mi pare) quindi nemmeno tanto definitivi. Poi magari li confermano eh. Ma PS4 che HDD avrà? Io leggo solo 500GB e niente più.
ma gli uncharted non vengono caricati direttamente dal BR? Non hanno alcuna installazione, a meno che non parli della versione digitale...
vero, sono senza installazione, ma credo che all'avvio si creino una sorta di cache su hdd, per non dover accedere ogni volta al blu ray.
Inviato dal mio GT-N7100 con Tapatalk 2
Ma PS4 che HDD avrà? Io leggo solo 500GB e niente più.
Probabilmente anche su ps4 sarà a 5400rpm, ma si potrà sostituire.
Inviato dal mio GT-N7100 con Tapatalk 2
alexbands
03-07-2013, 18:10
vero, sono senza installazione, ma credo che all'avvio si creino una sorta di cache su hdd, per non dover accedere ogni volta al blu ray.
Inviato dal mio GT-N7100 con Tapatalk 2
si ma a sto punto non credo che il tuo "problema" sia l'hard disk. Tra l'altro quando fu lanciata la slim fioccarono in rete video che mostravano caricamenti più lenti su quest'ultime rispetto alle fat, anche se ne ignoro il motivo...
ps: Si sta discutendo veramente di nulla comunque eh... addirittura adesso diventa un problema il southbridge...
A sto punto io dico che il nero di cui è dipinta la console potrebbe rallentarla :mc:
petru916
03-07-2013, 18:22
si ma a sto punto non credo che il tuo "problema" sia l'hard disk. Tra l'altro quando fu lanciata la slim fioccarono in rete video che mostravano caricamenti più lenti su quest'ultime rispetto alle fat, anche se ne ignoro il motivo...
ps: Si sta discutendo veramente di nulla comunque eh... addirittura adesso diventa un problema il southbridge...
A sto punto io dico che il nero di cui è dipinta la console potrebbe rallentarla :mc:
A sto giro va così aimè.
Orionlight
03-07-2013, 19:14
Per quanto riguarda il discorso RAM io so che PS4 ha le GDDR5 (dove G sta per Graphics) e sono delle memorie calibrate più per il video e la grafica appunto. E svolgono la funziona di quella che una volta si chiamava VRAM. Questo chipset mi pare derivi direttamente dalle DDR3 che invece monta X1 e sono memorie più "classiche".
LE GDDR5 sembrano avere una velocità massima maggiore ma una latenza più alta, mentre le DDR3 l'opposto.
Non so se l'esempio calza però è come parlare di due macchine e della loro accelerazione (che sarebbe la latenza) e della velocità.
Una macchina (in questo caso PS4) fa gli 0 - 100 km/h in 7 secondi ad esempio (sto inventando :) ) e ha una velocità massima di 220 km/h ad esempio.
Mentre l'altra macchina (X1) ha un'accelerazione bruciante e fa gli 0 - 100 km/h in appena 3 secondi però ha una velocità di punta più bassa, ad esempio 180 km/h.
Credo che le differenze possano essere simili a questo facendo un paragone automobilistico. Poi non lo so..
Il discorso ESRAM non l'ho ben capito e non so se questo chip servirà a potenziare la velocità oppure fungerà da "aiuto" alla GPU ad esempio calcolando l'AA o robe simili. Qualcuno diceva che lo spazio degli shader in più di PS4 è stato occupato dalla ESRAM su X1 e alla fine per certi versi si equivalgono, cambia solo il giro che fanno i dati all'interno :)
Detto questo credo che l'hardware PS4 sia calibrato molto sui giochi, mentre quello X1 è più funzionale per quello che, almeno inizialmente, era progettata.. quindi non solo giochi ma anche altro.
Ora, non so se MS si stia arrampicando sugli specchi :mc: perché sa di aver concepito un prodotto meno potente della concorrenza e quindi sta cercando di rimediare come può, oppure se non è vero e alla fine i giochi saranno più o meno equivalenti.
Stesso discorso per il cloud. Mi chiedo, se è veramente tutta questa innovazione, perché non l'hanno approfondito facendo vedere anche qualche demo. E' solo fumo negli occhi, oppure qualcosa di grosso bolle in pentola?
Io aspetterò a passare alla next-gen perchè voglio far passare qualche mese e vedere cosa succede..
si ma a sto punto non credo che il tuo "problema" sia l'hard disk. Tra l'altro quando fu lanciata la slim fioccarono in rete video che mostravano caricamenti più lenti su quest'ultime rispetto alle fat, anche se ne ignoro il motivo...
ps: Si sta discutendo veramente di nulla comunque eh... addirittura adesso diventa un problema il southbridge...
A sto punto io dico che il nero di cui è dipinta la console potrebbe rallentarla :mc:
La slim è più lenta nella gestione del sistema operativo perché parte di questo sta su HDD, mentre nelle versioni Fat di PS3 stava tutto su memoria flash. Ovviamente, quando uscì la slim, si premurarono di dimezzare la memoria flash della console che memorizza il firmware (per ridurre i costi) ed una parte di questo, da allora, è mantenuto su HDD. Ecco perché l'XMB di PS3 slim è nettamente meno reattiva di quella delle vecchie fat (dovendo spesso accedere all'HDD). Inoltre, quando si sostituisce l'HDD di una PS3 slim, occorre sempre tenere uno stick USB col l'ultimo firmware, proprio per questo motivo, cioè ricopiare sul nuovo disco la parte di firmware che va su HDD. Sulle vecchie fat tutto ciò non era necessario.
alexbands
03-07-2013, 20:12
La slim è più lenta nella gestione del sistema operativo perché parte di questo sta su HDD, mentre nelle versioni Fat di PS3 stava tutto su memoria flash. Ovviamente, quando uscì la slim, si premurarono di dimezzare la memoria flash della console che memorizza il firmware (per ridurre i costi) ed una parte di questo, da allora, è mantenuto su HDD. Ecco perché l'XMB di PS3 slim è nettamente meno reattiva di quella delle vecchie fat (dovendo spesso accedere all'HDD). Inoltre, quando si sostituisce l'HDD di una PS3 slim, occorre sempre tenere uno stick USB col l'ultimo firmware, proprio per questo motivo, cioè ricopiare sul nuovo disco la parte di firmware che va su HDD. Sulle vecchie fat tutto ciò non era necessario.
ok, ma la cosa si ripercuote anche nel caricamento dei giochi? se si, ecco spiegata la differenza notata da wrad3n... io mi ricordo proprio alcuni esempi con uncharted con la slim significativamente più lenta della fat... ovviamente tutta roba che all'atto pratico te ne freghi, non è che sia un dramma eh :D
Per quanto riguarda il discorso RAM io so che PS4 ha le GDDR5 (dove G sta per Graphics) e sono delle memorie calibrate più per il video e la grafica appunto. E svolgono la funziona di quella che una volta si chiamava VRAM. Questo chipset mi pare derivi direttamente dalle DDR3 che invece monta X1 e sono memorie più "classiche".
LE GDDR5 sembrano avere una velocità massima maggiore ma una latenza più alta, mentre le DDR3 l'opposto.
Non so se l'esempio calza però è come parlare di due macchine e della loro accelerazione (che sarebbe la latenza) e della velocità.
Una macchina (in questo caso PS4) fa gli 0 - 100 km/h in 7 secondi ad esempio (sto inventando :) ) e ha una velocità massima di 220 km/h ad esempio.
Mentre l'altra macchina (X1) ha un'accelerazione bruciante e fa gli 0 - 100 km/h in appena 3 secondi però ha una velocità di punta più bassa, ad esempio 180 km/h.
Credo che le differenze possano essere simili a questo facendo un paragone automobilistico. Poi non lo so..
Non sono automobili, le CPU non accedono mai direttamente alla memoria di sistema perché sarebbero troppo lente.
Accesso viene fatto via cache, quindi il tempo di accesso in realtà è dovuto a
p*tc + (1-p) * tm
Dove tc è tempo accesso cache e tm è tempo accesso memoria.
p invece è la probabilità di trovare un certo tipo di dato in memoria cache.
Valori che già ai tempi dei 486 con cache piccole e stupide era intorno al 0,96.
Potrai vedere già a naso che il tempo di accesso dipende solo in minima parte dalla velocità della memoria di RAM
Vorrei pero' far notare che la XboX 360 ha fatto a fettine la PS3 perche' hanno infilato un Cell da....6 core mi sembra, che era difficile programmarci sopra e le API non erano un granche'...
quindi?
ti rendi conto che ti dai le risposte da solo e neppure te ne accorgi?
le console sono difficilmente paragonabili, e se simili è ancora più difficile giudicare.
morale?
quando escono i giochi li confronti come RESA MIGLIORE, secondo... scegli la console in base al parco giochi che ti interessa (wii insegna)
Orionlight
03-07-2013, 21:14
Non sono automobili, le CPU non accedono mai direttamente alla memoria di sistema perché sarebbero troppo lente.
Accesso viene fatto via cache, quindi il tempo di accesso in realtà è dovuto a
p*tc + (1-p) * tm
Dove tc è tempo accesso cache e tm è tempo accesso memoria.
p invece è la probabilità di trovare un certo tipo di dato in memoria cache.
Valori che già ai tempi dei 486 con cache piccole e stupide era intorno al 0,96.
Potrai vedere già a naso che il tempo di accesso dipende solo in minima parte dalla velocità della memoria di RAM
grazie per la delucidazione, io avevo fatto un esempio più banale per rendere una possibile idea ;)
Non sono automobili, le CPU non accedono mai direttamente alla memoria di sistema perché sarebbero troppo lente.
Accesso viene fatto via cache, quindi il tempo di accesso in realtà è dovuto a
p*tc + (1-p) * tm
Dove tc è tempo accesso cache e tm è tempo accesso memoria.
p invece è la probabilità di trovare un certo tipo di dato in memoria cache.
Valori che già ai tempi dei 486 con cache piccole e stupide era intorno al 0,96.
Potrai vedere già a naso che il tempo di accesso dipende solo in minima parte dalla velocità della memoria di RAM
Si però ad esser precisi il discorso non verteva proprio sulla cache. Voglio dire, che i processori avessero la propria cache era scontato! :)
Inoltre, il tempo non è così slegato dalla velocità della memoria: la probabilità sarà alta per il principio di località, ma prima o poi la roba dalla ram la devi andare a prendere non ci sono santi!
E poi, ma qua vado a naso, ho l'impressione che quando si parla di grafica le cose siano un tantino più complesse purtroppo per quanto riguarda la gestione e l'efficacia della cache!
Comunque sono d'accordo che i paragoni con le automobili non si possono più sentire:) Si scherza eh, senza offesa!:fagiano:
giubox360
04-07-2013, 00:18
Raga..tutte ste azzuffate per la memoria ram...invece di parlare del vero problema di xbox One..che la sua GPU è inferiore non di poco a quella di PS 4...e con l'ottimizzazione e tutto, più in là, (se non già da subito) si vedrà la differenza...concedetemelo..:sofico:
P.s. per piacere non rispondetemi dicendo che degli effetti particellari e delle ombre e texture migliori a chi gioca sulle console non frega nulla....Pace Thanks!;)
Non sono automobili, le CPU non accedono mai direttamente alla memoria di sistema perché sarebbero troppo lente.
Accesso viene fatto via cache, quindi il tempo di accesso in realtà è dovuto a
p*tc + (1-p) * tm
Dove tc è tempo accesso cache e tm è tempo accesso memoria.
p invece è la probabilità di trovare un certo tipo di dato in memoria cache.
Valori che già ai tempi dei 486 con cache piccole e stupide era intorno al 0,96.
Potrai vedere già a naso che il tempo di accesso dipende solo in minima parte dalla velocità della memoria di RAM
Concordo, per questo chiedevo quantità di cache L1, L2 e L3 sulle due rispettive CPU
Concordo, per questo chiedevo quantità di cache L1, L2 e L3 sulle due rispettive CPU
Schema a blocchi della CPU X1 (vgleaks):
http://www.vgleaks.com/wp-content/uploads/2013/02/cpu.jpg
Grazie!
Quindi classici (per architettura x86) 32 KB di cache L1 per dati e codice e L2 di 2MB per modulo di 4 core, niente L3.
Per One può avere senso visto che ha le DDR3, per PS4 son curioso di vedere se hann aumentato qualcuno di questi valori per bilanciare l'aumentata latenza della memoria centrale.
hw migliore per la ps4 e neanche di poco.
quando i giochi su xboxone cominceranno a laggare su ps4 andranno ancora fluidi
hw migliore per la ps4 e neanche di poco.
quando i giochi su xboxone cominceranno a laggare su ps4 andranno ancora fluidi
Falso. I giochi verranno adattati per girare uguale su entrambe le console. Piuttosto si avranno meno dettagli grafici sull'una o sull'altra (vedi alcuni giochi con la generazione attuale) ma non possono permettersi di farli girare a meno di 30fps (che gia' per un gioco e' poco).
petru916
04-07-2013, 09:31
Raga..tutte ste azzuffate per la memoria ram...invece di parlare del vero problema di xbox One..che la sua GPU è inferiore non di poco a quella di PS 4...e con l'ottimizzazione e tutto, più in là, (se non già da subito) si vedrà la differenza...concedetemelo..:sofico:
P.s. per piacere non rispondetemi dicendo che degli effetti particellari e delle ombre e texture migliori a chi gioca sulle console non frega nulla....Pace Thanks!;)
Sicuramente dovremo vedere come si comporterà la GPU di One rispetto a PS4, in fin dei conti se il tuo discorso calzasse a pennello allora i multipiattaforma su PS3 avrebbero dovuto vendere molto ma molto poco, e tutti sappiamo che non è così. Ricordiamoci che qui si parla di GPU identiche per architettura ma una ha dei cluster di sp disabilitati (ovviamente questo influisce su ROPs e compagnia), sicuramente la discrepanza non sarà così evidente come nella scorsa gen dove Xenon era architettonicamente una gen avanti a RSX (ovviamente il Cell bilanciava la situazione). Se uno va in giro per uno qualsiasi dei siti di tecnologia che propongono recensioni comparative di schede video, vede che tra queste GPU, all'atto pratico, potrebbe si e non esserci un 15% di discrepanza, quindi niente di non aggirabile. Sicuramente i giochi su PS4 saranno più ricchi di dettagli qua e là e con un framerate sicuramente più stabile. Sicuramente l'ottimizzazione potrà mitigare le differenze sui multipiatta come potrà sicuramente anche mostrare le vere capacità di PS4 e One. Del resto Uncharted insegna, se un team è capace a programmare e a sfruttare per bene l'hw che si trova in mano, allora i limiti (in caso di PS3 il chip grafico) possono essere aggirati con maestria.
Si, ma PS3 è riuscita a fare questo solo perchè il Cell è veramente un'ottimo processore, ma difficile da sfruttare, chi è riuscito a spremerlo ha ottenuto ottimi risultati, gli altri no.
Con questa generazione l'architettura è molto simile, la differenza la faranno GPU e banda passante disponibile, che sia per le GDDR5 o per la EDRAM. Inoltre il lavoro di ottimizzazione nel 90% del codice sarà molto simile
petru916
04-07-2013, 09:53
Si, ma PS3 è riuscita a fare questo solo perchè il Cell è veramente un'ottimo processore, ma difficile da sfruttare, chi è riuscito a spremerlo ha ottenuto ottimi risultati, gli altri no.
Con questa generazione l'architettura è molto simile, la differenza la faranno GPU e banda passante disponibile, che sia per le GDDR5 o per la EDRAM. Inoltre il lavoro di ottimizzazione nel 90% del codice sarà molto simile
Sisi, ma infatti è quello che sostengo io. PS3 ha raggiunto vette molte alte sulla grafica nei first party grazie al Cell, anche se RSX era veramente molto meno performante di Xenos. Si parla architetturalmente della differenza che intercorreva da 7900GTX e HD2900XT, ovvero una rivoluzione sotto il punto di vista delle GPU, se ti ricordi Xenos è stata la prima GPU prodotta da ATi ad avere un modello a shader unificati, cosa che era stata proposta ancora solo in ambito PC. Sicuramente, come dicevo, i giochi PS4 avranno una resa complessiva migliore, ma a questo punto ciò che conterà ancor di più sarà la capacità di sfruttare l'hw in possesso. La differenza in termini prestazionali tra GPU è ovvia e palese, ma sicuramente non nell'ordine del 50% come alcuni vanno gridando ai 4 venti (solo perchè una ha 1,8 TFlops mentre l'altra 1,2). Come nella scorsa gen, si guarderanno i dettagli, si guarderà la stabilità dei frame, sicuramente la resa generale visiva sarà MOLTO simile. Poi se usciranno obbrobri alla Fallout 3 (PS3) non sarà mica colpa della sola macchina.
Posso concordare, ma le macchine sono molto molto simile e le differenze su GPU son palesi, mentre sulla banda disponibile è davedere come effetivamente impatteranno GDDR5 ed EDRAM.
Personalmente ritengo che la EDRAM della One riuscirà a pareggiare o superare con PS4 il conto per gli effetti in post processing, come antialiasing ecc, ma sotto altri aspetti è probabile che patirà, ma appunto è solo una mia idea, son impaziente di vedere i risultati effettivi :)
La differenza in termini prestazionali tra GPU è ovvia e palese, ma sicuramente non nell'ordine del 50% come alcuni vanno gridando ai 4 venti (solo perchè una ha 1,8 TFlops mentre l'altra 1,2). Come nella scorsa gen, si guarderanno i dettagli, si guarderà la stabilità dei frame, sicuramente la resa generale visiva sarà MOLTO simile. Poi se usciranno obbrobri alla Fallout 3 (PS3) non sarà mica colpa della sola macchina.
C'è da dire però che la differenza (FLOPS) delle GPU della gen attuale è molto ridotta, nell'ordine del 5% a favore di 360, che oltre a questo poteva contare sulla edram e sulle unità di calcolo aggiuntive per l'AA.
Ora si parla del 50% di potenza in più per PS4 (le unità di calcolo sono 6 in più, 18 vs 12), con una GPU in grado di gestire senza problemi l'AA.
petru916
04-07-2013, 10:25
Posso concordare, ma le macchine sono molto molto simile e le differenze su GPU son palesi, mentre sulla banda disponibile è davedere come effetivamente impatteranno GDDR5 ed EDRAM.
Personalmente ritengo che la EDRAM della One riuscirà a pareggiare o superare con PS4 il conto per gli effetti in post processing, come antialiasing ecc, ma sotto altri aspetti è probabile che patirà, ma appunto è solo una mia idea, son impaziente di vedere i risultati effettivi :)
Quoto, anche io sono molto curioso.
C'è da dire però che la differenza (FLOPS) delle GPU della gen attuale è molto ridotta, nell'ordine del 5% a favore di 360, che oltre a questo poteva contare sulla edram e sulle unità di calcolo aggiuntive per l'AA.
Ora si parla del 50% di potenza in più per PS4 (le unità di calcolo sono 6 in più, 18 vs 12), con una GPU in grado di gestire senza problemi l'AA.
Infatti i FLOPs contano ma non sono determinanti, ecco perchè quando annunciarono questa fantomatica GPU da 1.8 TFLOPs prima di giudicare avrei aspettato di vedere le altre caratteristiche tecniche, ed infatti così ho fatto. C'è da dire che sicuramente la GPU di PS4 non avrà nessun problema a processare quei filtri, ma c'è anche da dire come la esRAM di One sia messa lì molto probabilmente apposta, come lo era su 360. Che sia un approccio vincente o perdente, come si diceva prima, il tempo ce lo dirà. Sicuramente la differenza pa vedremo sulle esclusive, da una e dall'altra parte.
Infatti i FLOPs contano ma non sono determinanti, ecco perchè quando annunciarono questa fantomatica GPU da 1.8 TFLOPs prima di giudicare avrei aspettato di vedere le altre caratteristiche tecniche, ed infatti così ho fatto.
Vero, nella gen attuale il dato sui flops conta fino ad un certo punto, le architetture sono diverse. Ma ora, su PS4 ed X1 le GPU sono della stessa famiglia, con stessa architettura, quel dato ha molta più importanza.
tecnologico
04-07-2013, 10:46
Vero, nella gen attuale il dato sui flops conta fino ad un certo punto, le architetture sono diverse. Ma ora, su PS4 ed X1 le GPU sono della stessa famiglia, con stessa architettura, quel dato ha molta più importanza.
è un ottimo metro di paragone a sto giro. e se per due hw distanziati di un 10% come ps3 e x360 nei multipiatta le differenze ci sono state, non oso pensare a due hw con 25\30% di potenza di differenza. perchè lo so che dirlo rasserena, ma le versioni non saranno uguali e la differenza non sarà "qualche effettino qui e li" (che poi è detto da gente che quando erano su x360 gli "effettini" in più questi diventavano magnifici e causa di acquisto di una versione rispetto l' altra)
quindi da simpatizzante xbox, non ce la andiamo a menare con questa speranza per dormire tranquilli.
petru916
04-07-2013, 11:01
Boh, sicuramente avendo PS3 e 360 (PS3 per prima) non ho preso la 360 dopo per gli effettini, anzi molti multipiatta ce li ho su PS3. Questo ti fa capire quanto mi interessi il marchio della console qualunque essa sia. Detto questo le console sono molto simili ma non uguali, non dimentichiamocelo, sicuramente ci sono delle varianti che possono fare la differenza (non in senso prestazionale) sul lato software. Al 90% verranno utilizzate tutte e due in modo uguale. Secondo il mio pensiero, per quello che ho potuto vedere, la differenza alla lunga distanza sarà fatta dai dettagli sui multipiattaforma, niente di troppo evidente. Poi se dovessi essere smentito non mi farò nessun problema eh, nessuno qui ha la verità assoluta, stiamo andando per ipotesi. Sicuramente la potenza pende a favore di PS4 comunque.
alexbands
04-07-2013, 11:44
il discorso che si sta facendo è questo, e lo semplifico perchè non mi va di riportare tutti i numeri e i termini esatti :D
La ps4 ha una gpu con 15 cluster e ddr5
La xbox gpu con 10 cluster e ddr3, più esram da 32 mega.
Mi sembra evidente che la ram potrà essere bilanciata dalla esram guadagnandone anche di latenza visto le nature delle ddr3...
Ora, se è vero che questa esram è in grado di fornire ANCHE filtri "gratis", potrebbe essere che anche la differenza di gpu venga limata (magari non del tutto), perchè se devo applicare un bell'antialiasing e qualche altro filtro, non vado ad occupare 2 o 3 di quei cluster che la gpu sony aveva in più e che invece su xbox non occupo grazie alla esram? Ecco quindi che all'atto pratico la differenza si riduce da 5 cluster (il famoso 50%) a, esempio, 2 cluster (che già è un 20%)
Questo senza considerare come potrà essere ottimizzato il software sull'una o l'altra....
Quindi magari non usciranno pari ma si dovrà vedere all'atto pratico la differenza quale sarà e quanto sarà apprezzabile.
Non credo che la EDRAM riesca a far recuperare tutto il gap sulla bandwith che ha la One nei confronti di PS4 in ogni situazione, per antialiasing e filtri in post processing, ok, ma per elaborazioni 3D o su texture durante l'elaborazione vera e propria del frame non interviene, anche perchè se fa aliasing, non può fare molto altro...
che 32 MB possano far recuperare l'inferiorita di tutta la ram e della GPU decisamente meno potente?
Mi sembra impossibile. Aiuterà (magari non pareggiando) sulla ram, per il resto non credo proprio.
Del resto la Xone no è stata concepita per essere la high end in grafica, lo hanno detto chiaramente. Punta su altro
alexbands
04-07-2013, 12:23
e infatti sto dicendo che però magari la differenza non sarà di sto famoso 50% ma molto meno.. ma non che sia nulla. E se sarà meno si dovrà vedere quanto sarà apprezzabile. Ad esempio io vi dico che tra ps3 e xbox, tranne casi di problemi di frame rate non ho mai notato granchè. Cioè si se mi metto a guardare apposta le differenze si vedono, ma niente che mi riporti poi a scegliere una console piuttosto che un altra per differenze grafiche tra titoli multipiattaforma
giubox360
04-07-2013, 12:38
Sicuramente dovremo vedere come si comporterà la GPU di One rispetto a PS4, in fin dei conti se il tuo discorso calzasse a pennello allora i multipiattaforma su PS3 avrebbero dovuto vendere molto ma molto poco, e tutti sappiamo che non è così. Ricordiamoci che qui si parla di GPU identiche per architettura ma una ha dei cluster di sp disabilitati (ovviamente questo influisce su ROPs e compagnia), sicuramente la discrepanza non sarà così evidente come nella scorsa gen dove Xenon era architettonicamente una gen avanti a RSX (ovviamente il Cell bilanciava la situazione). Se uno va in giro per uno qualsiasi dei siti di tecnologia che propongono recensioni comparative di schede video, vede che tra queste GPU, all'atto pratico, potrebbe si e non esserci un 15% di discrepanza, quindi niente di non aggirabile. Sicuramente i giochi su PS4 saranno più ricchi di dettagli qua e là e con un framerate sicuramente più stabile. Sicuramente l'ottimizzazione potrà mitigare le differenze sui multipiatta come potrà sicuramente anche mostrare le vere capacità di PS4 e One. Del resto Uncharted insegna, se un team è capace a programmare e a sfruttare per bene l'hw che si trova in mano, allora i limiti (in caso di PS3 il chip grafico) possono essere aggirati con maestria.
Come dici tu la ps3 bilanciava, l'inferiorità della sua Gpu con il Cell che era sulla carta superiore al tricore di xbox 360, ma giusto dal 2010 con god of war 3 e uncharted e compagnia si è visto qualcosa di degno. :rolleyes:
La GPU è fondamentale per la grafica, la xbox One come bilancia la sua GPU inferiore...se entrambe le console hanno la stessa CPU??:mc:
Ora la sony si è rimboccata le maniche e ha utilizzato una GPU 10 volte più potente di quella di ps3!:sofico:
La MS invece ha moltiplicato la potenza della gpu di sole 5 volte... (onestamente mi sarei aspettato da MS una Gpu da 3 tflops almeno :()
l'avrei capito se avesse messo la console a 399 con kinect (considerando inoltre che la ram ddr3 anche se cambia poco, costa molto meno di quella di Ps4)...io 100 euro nn gliele regalo non so voi! :asd:
petru916
04-07-2013, 12:47
che 32 MB possano far recuperare l'inferiorita di tutta la ram e della GPU decisamente meno potente?
Mi sembra impossibile. Aiuterà (magari non pareggiando) sulla ram, per il resto non credo proprio.
Del resto la Xone no è stata concepita per essere la high end in grafica, lo hanno detto chiaramente. Punta su altro
Assolutamente, ma ripeto che nessuno qui dice che potrà pareggiare la GPU meno potente. Sicuramente è un aiuto alla GPU visto l'utilizzo su 360 che potrebbe allieviare o comunque rendere meno tangibili le differenze tra le 2 console visto che comunque l'AA insieme all' AF sono dei bei filtri da calcolare. Assolutamente non apparerà niente ma è un metodo per sgravare la GPU da alcuni calcoli. Certo è che se avessero messo la stessa GPU della PS4 senza esRAM sarebbe stato sicuramente più facile per gli sviluppatori gestire le due piattaforme.
Come dici tu la ps3 bilanciava, l'inferiorità della sua Gpu con il Cell che era sulla carta superiore al tricore di xbox 360, ma giusto dal 2010 con god of war 3 e uncharted e compagnia si è visto qualcosa di degno. :rolleyes:
La GPU è fondamentale per la grafica, la xbox One come bilancia la sua GPU inferiore...se entrambe le console hanno la stessa CPU??:mc:
Ora la sony si è rimboccata le maniche e ha utilizzato una GPU 10 volte più potente di quella di ps3!:sofico:
La MS invece ha moltiplicato la potenza della gpu di sole 5 volte...
l'avrei capito se avesse messo la console a 399 con kinect (considerando inoltre che la ram ddr3 anche se cambia poco, costa molto meno di quella di Ps4)...io 100 euro nn gliele regalo non so voi! :asd:
Non cominciamo a dire "Le prestazioni di GPU x sono 5-20-30 volte maggiori" in stile Apple (e lo dico da Apple user) perchè quelli sono specchiettini per le allodole di chi non ci capisce una cippa, e bada, non sto rivolgendomi a te in particolare. Sul discorso Cell, sicuramente è stato più difficile programmare giochi su PS3 in quanto l'approccio era rivoluzionario in modo totale. Alla fine però sono usciti dei capolavori di programmazione. E comunque sul costo della componentistica devi considerare che la GPU di PS4 non sarà eccessivamente più costosa di quella di One, per cui devi considerare che senza Kinect magari il prezzo si sarebbe attestato a 379€ (come i rumors su una versione senza Kinect riportavano), quindi non è che vai a pagare la console in sè di più, anzi, forse la paghi di meno, sicuramente il Kinect ha un valore commerciale intorno ai 150€. Poi sempre e comunque dipende da cosa si cerca, se uno non vuole il Kinect è palese che si possa rivolgere a PS4, sono scelte assolutamente personali quelle.
e infatti sto dicendo che però magari la differenza non sarà di sto famoso 50% ma molto meno.. ma non che sia nulla. E se sarà meno si dovrà vedere quanto sarà apprezzabile. Ad esempio io vi dico che tra ps3 e xbox, tranne casi di problemi di frame rate non ho mai notato granchè. Cioè si se mi metto a guardare apposta le differenze si vedono, ma niente che non mi riporti poi a scegliere una console piuttosto che un altra per differenze grafiche tra titoli multipiattaforma
Quoto.
tecnologico
04-07-2013, 13:05
per me avremo una differenza grafica di poco inferiore a quella che c' era tra ps2 e xbox primo modello
per me avremo una differenza grafica di poco inferiore a quella che c' era tra ps2 e xbox primo modello
esagerato, già i giochi mostrati alla e3 facevano vedere che differenze sostanziali non ci sono, poi se stiamo a farci le pippe su aa4x invece di 2x, etc..etc.. è un'altro discorso, ma visivamente parlando non sarà cosi netta la differenza...
Più che altro da vedere quanto con l'edram la One riuscirà a mascherare eventuali problemi come numero di poligoni gestiti o grandezza delle texture...
magari su schemi 4K renderà meglio proprio grazie ai 32 MB di EDRAM :)
petru916
04-07-2013, 13:25
esagerato, già i giochi mostrati alla e3 facevano vedere che differenze sostanziali non ci sono, poi se stiamo a farci le pippe su aa4x invece di 2x, etc..etc.. è un'altro discorso, ma visivamente parlando non sarà cosi netta la differenza...
Quoto.
Più che altro da vedere quanto con l'edram la One riuscirà a mascherare eventuali problemi come numero di poligoni gestiti o grandezza delle texture...
magari su schemi 4K renderà meglio proprio grazie ai 32 MB di EDRAM :)
Non penso avrà problemi su quel punto di vista, forse texture meno definite, ma sicuramente con le nuove tecniche di tessellazione e tutti quei processi che prima non c'erano, i poligoni dovrebbero essere l'ultimo problema. Più che altro sono curioso di vedere come si comporteranno sui due sistemi gli effetti di post processing. Magari su Xbox vedremo qualche effetto HDR meno definito rispetto alla controparte PS4. Giusto per citare uno dei tanti effetti post.
per me avremo una differenza grafica di poco inferiore a quella che c' era tra ps2 e xbox primo modello
Ma no dai, a questo punto no..cioè guarda dei video comparativi tra, non so, un Watch Dogs o un qualsiasi multipiatta. Non dico siano perfettamente identici ma sicuramente la resa è molto molto simile.
esagerato, già i giochi mostrati alla e3 facevano vedere che differenze sostanziali non ci sono, poi se stiamo a farci le pippe su aa4x invece di 2x, etc..etc.. è un'altro discorso, ma visivamente parlando non sarà cosi netta la differenza...
Sinceramente su PS4 credo che molti sviluppatori ancora devono farsi le ossa, mentre su One con DirectX ecc è tutto molto simile a 360 o PC, nel tempo la familiarizzazione con la piattaforma, le nuove API, e quantità di RAM effettivamente disponibile maggiore si farà sentire (si parla di 2 GB in più)
@petru916 sinceramente credo che grazie all'EDRAM la differenza sui filtri in post processing sarà poca, la differenza sarà in tutto quello che accade prima, dove la potenza in PI§ della GPU e banda verso la memoria si farà sentire di più
Sinceramente su PS4 credo che molti sviluppatori ancora devono farsi le ossa, mentre su One con DirectX ecc è tutto molto simile a 360 o PC, nel tempo la familiarizzazione con la piattaforma, le nuove API, e quantità di RAM effettivamente disponibile maggiore si farà sentire (si parla di 2 GB in più)
Io spero anche in porting migliori...
Ma no dai, a questo punto no..cioè guarda dei video comparativi tra, non so, un Watch Dogs o un qualsiasi multipiatta. Non dico siano perfettamente identici ma sicuramente la resa è molto molto simile.
Ma sono usciti filmati di multipiatta presi da X1?
Quelli dell'E3 erano praticamente tutti su PS4.
petru916
04-07-2013, 13:35
@petru916 sinceramente credo che grazie all'EDRAM la differenza sui filtri in post processing sarà poca, la differenza sarà in tutto quello che accade prima, dove la potenza in PI§ della GPU e banda verso la memoria si farà sentire di più
Io non intendo i filtri in post eh, intendo proprio gli effetti grafici in post.
petru916
04-07-2013, 13:49
Ma sono usciti filmati di multipiatta presi da X1?
Quelli dell'E3 erano praticamente tutti su PS4.
Proverò a controllare allora quando tornerò a casa, se ho detto una cavolata mi scuso. Sinceramente ricordavo di aver visto un paio di gameplay su One.
Proverò a controllare allora quando tornerò a casa, se ho detto una cavolata mi scuso. Sinceramente ricordavo di aver visto un paio di gameplay su One.
Figurati, era giusto per sapere, magari ne sono usciti di nuovi...
Crashman
04-07-2013, 13:52
Quoto.
Non penso avrà problemi su quel punto di vista, forse texture meno definite, ma sicuramente con le nuove tecniche di tessellazione e tutti quei processi che prima non c'erano, i poligoni dovrebbero essere l'ultimo problema. Più che altro sono curioso di vedere come si comporteranno sui due sistemi gli effetti di post processing. Magari su Xbox vedremo qualche effetto HDR meno definito rispetto alla controparte PS4. Giusto per citare uno dei tanti effetti post.
Ma no dai, a questo punto no..cioè guarda dei video comparativi tra, non so, un Watch Dogs o un qualsiasi multipiatta. Non dico siano perfettamente identici ma sicuramente la resa è molto molto simile.
Da quando l'hdr è un effetto di post processing? Lo confondi (tu e la quasi totalità delle testate giornalistiche) con il bloom
petru916
04-07-2013, 13:59
Da quando l'hdr è un effetto di post processing? Lo confondi (tu e la quasi totalità delle testate giornalistiche) con il bloom
http://en.wikipedia.org/wiki/Video_post-processing
Mi sono basato su questo, se è sbagliato allora mi scuso.
tecnologico
04-07-2013, 14:00
Sinceramente su PS4 credo che molti sviluppatori ancora devono farsi le ossa, mentre su One con DirectX ecc è tutto molto simile a 360 o PC, nel tempo la familiarizzazione con la piattaforma, le nuove API, e quantità di RAM effettivamente disponibile maggiore si farà sentire (si parla di 2 GB in più)
in linea di massima xb1 non mi sembra molto diversa da x360 come struttura...
ok, ma la cosa si ripercuote anche nel caricamento dei giochi? se si, ecco spiegata la differenza notata da wrad3n... io mi ricordo proprio alcuni esempi con uncharted con la slim significativamente più lenta della fat... ovviamente tutta roba che all'atto pratico te ne freghi, non è che sia un dramma eh :D
Potrebbe essere. Il problema è che una volta acquistata la slim e venduta la fat, non ho mai potuto provare le due console contemporaneamente per cui non ho mai avuto un riscontro effettivo su questa cosa. So solo che l'XMB su una slim è notevolmente più lenta e laggosa che non sulla vecchia fat, però per i caricamenti in-game, non saprei dire. Inoltre penso che conti molto anche la qualità dell'HDD che si utilizza. Ad esempio io ne ho sostituiti vari sulle varie PS3 che ho avuto, alcuni erano più lenti, altri (tipo il WD Skorpio blue che ho adesso) sono più veloci e reattivi.
TAURUS123
04-07-2013, 15:05
Scusate ma non sono riuscito a trovare informazioni relative alla scheda di rete che monteranno le due consolle.
Qualcuno di voi saprebbe dirmi le caratteristiche?
No perchè restare con delle schede di rete pietose come quelle attuali, per di più con le voci che vorrebbero l'online a pagamento, sarebbe un sacrilegio.:doh:
Io da giocatore della "new generation" grandi passi avanti me li aspetto proprio dal comparto online, più che da quello grafico.
Parere personale, ovviamente.
giubox360
04-07-2013, 15:54
Non cominciamo a dire "Le prestazioni di GPU x sono 5-20-30 volte maggiori" in stile Apple (e lo dico da Apple user) perchè quelli sono specchiettini per le allodole di chi non ci capisce una cippa, e bada, non sto rivolgendomi a te in particolare. Sul discorso Cell, sicuramente è stato più difficile programmare giochi su PS3 in quanto l'approccio era rivoluzionario in modo totale. Alla fine però sono usciti dei capolavori di programmazione. E comunque sul costo della componentistica devi considerare che la GPU di PS4 non sarà eccessivamente più costosa di quella di One, per cui devi considerare che senza Kinect magari il prezzo si sarebbe attestato a 379€ (come i rumors su una versione senza Kinect riportavano), quindi non è che vai a pagare la console in sè di più, anzi, forse la paghi di meno, sicuramente il Kinect ha un valore commerciale intorno ai 150€. Poi sempre e comunque dipende da cosa si cerca, se uno non vuole il Kinect è palese che si possa rivolgere a PS4, sono scelte assolutamente personali quelle.
Quoto.
Ti rispondo ; ) , sul fatto dei numeri stile apple, non sono d'accordo perchè i numeri che ho postato sono basati sulle prestazioni reali dichiarate delle 2 console con riferimenti all'Old-gen, tutto questo non era per confondere ma per rendere più evidente che la Microsoft si poteva impegnare un pò di più sotto il punto di vista Hardware..
Sul valore commerciale di xbox One, invece, una gpu con metà delle Rops a me su pc costa quasi la metà, e le ram ddr3 le trovi anche nelle patatine san carlo, mentre la differenza di prezzo tra una GPU per pc con 2gb o 4 gb di ram gddr5 è di almeno una 70 ina di euro, (pensa tra 8 gb ddr 3 e 8 gb gddr5). Ergo, xbox One è cara a prescinde dal Kinect....:read:
Se fossi quello di Top Gears..direi che la Xbox One andrebbe a finire chiaramente sul tabellone delle macchine UN-Cool!!:sofico:
Il vero specchietto per le allodole è proprio il Kinect 2.0 , traccia fino a 6 persone in full HD @30fps se non sbaglio vero?..bene con chi cavolo devo giocare a casa? con una squadra di calcio a 5 arbitro compreso?? :ciapet: :D
petru916
04-07-2013, 16:21
Ti rispondo , sul fatto dei numeri stile apple, non sono d'accordo perchè i numeri che ho postato sono basati sulle prestazioni reali dichiarate delle 2 cosole con riferimenti all'Old-gen, tutto questo non era per confondere ma per rendere più evidente che la Microsoft si poteva impegnare un pò di più sotto il punto di vista Hardware..
Sul valore commerciale di xbox One, invece, una gpu con metà delle Rops a me su pc costa quasi la metà, e le ram ddr3 le trovi anche nelle patatine san carlo, mentre la differenza di prezzo tra una GPU per pc con 2gb o 4 gb di ram gddr5 è di almeno una 70 ina di euro, (pensa tra 8 gb ddr 3 e 8 gb gddr5). Ergo, xbox One è cara a prescinde dal Kinect....:read:
Se fossi quello di Top Gears..direi che la Xbox One andrebbe a finire chiaramente sul tabellone delle macchine UN-Cool!!:sofico:
Il vero specchietto per le allodole è proprio il Kinect 2.0 , traccia fino a 6 persone in full HD @30fps se non sbaglio vero?..bene con chi cavolo devo giocare a casa? con una squadra di calcio a 5 arbitro compreso?? :ciapet: :D
Guarda da che mondo è mondo quello di dire "la gpu è x volte più potente" vuol dire tutto e non dire niente. Siccome siamo in un sito di tecnologia allora si presume che uno voglia andare oltre. Ti posso fare un esempio stupido: aumentando il numero delle unita di calcolo non si ha un aumento 1:1, nel senso se ho 1000sp e prendo un'altra GPU da 2000sp non è detto che il mio guadagno sia nell'ordine del 100%, ovvero sia 2 volte più veloce, è un esempio idiota e buttato giù su due piedi per farti capire che "l'iphone 4S è 9 volte più potente dell'iphone 4" vuol dire molto poco. Le ram ddr3 serie costano un bel pò, quelle senza pretese le trovi dappertutto. La ram gddr5 è costosa, la esram lo è ancora di più. Sul kinect non mi trovi d'accordo e ho spiegato anche perchè. A mio personalissimo modo di vedere, se utilizzato in maniera corretta, è un qualcosa di finalmente diverso e che può dare tanto. Poi ognuno la pensa come vuole e può assolutamente non piace come può piacere, sicuramente è una periferica che vale un bel pò di soldi considerando la qualità tecnologica che possiede. E questo mi pare sia palese. Poi se la utilizzeranno per mappare Just Dance 14 allora il discorso cambia, ma penso che nessuno qui abbia la palletta di cristallo per esserne certo, quindi aspetto prima di giudicare. Anzi voglio provare con mano.
tecnologico
04-07-2013, 16:48
aumentando il numero delle unita di calcolo non si ha un aumento 1:1, nel senso se ho 1000sp e prendo un'altra GPU da 2000sp non è detto che il mio guadagno sia nell'ordine del 100%, ovvero sia 2 volte più veloce
se non 100 sei nella fascia 70\90%
Scusate ma non sono riuscito a trovare informazioni relative alla scheda di rete che monteranno le due consolle.
Qualcuno di voi saprebbe dirmi le caratteristiche?
No perchè restare con delle schede di rete pietose come quelle attuali, per di più con le voci che vorrebbero l'online a pagamento, sarebbe un sacrilegio.:doh:
Io da giocatore della "new generation" grandi passi avanti me li aspetto proprio dal comparto online, più che da quello grafico.
Parere personale, ovviamente.
La velocità della scheda di rete mica determina la tua velocità di connessione.
Se hai una adsl 20 mega cosa cambia avere una 100 mega o 1 gigabit di lan?
Oppure hai la gigabit a casa?
Beh se si hanno server DLNA in casa avere 1Gbit aiuta
petru916
04-07-2013, 17:39
se non 100 sei nella fascia 70\90%
Beh se prendi una Titan che ha praticamente il doppio delle unità di calcolo di una 680 ha un buon 40/60% di margine a 1080p in base ai giochi. Quindi come dicevo prima non è così facile l'estimazione delle performance.
TAURUS123
04-07-2013, 18:54
La velocità della scheda di rete mica determina la tua velocità di connessione.
Se hai una adsl 20 mega cosa cambia avere una 100 mega o 1 gigabit di lan?
Oppure hai la gigabit a casa?
Punto primo la scheda attualmente montata su ps3 non è compatibile nemmeno con lo standard N, il che a certe cifre, mi sembra paradossale.
Inoltre basta googlare un attimo per trovare miliardi di problemi a causa di compatibilità davvero limitata con i router di ultima generazione. (Vi ricordo che la ps3 fat aveva seri problemi con l'80% dei modem in commercio)
Punto secondo no, io ho una alice 7 mega.
Non so cosa sia una gigalan. Se intendi il collegamento tra ps3 e un router gigabit, quello puoi farlo anche ora e può farlo chiunque.
alexbands
04-07-2013, 19:04
intende che, a parte problemi di compatibilità come quelli che citi, normalmente anche una connessione wireless G (54 Mbps) basta e avanza, perchè "copre" tranquillamente la velocità delle normali linee adsl (che arrivano a 20 mega se proprio ti va di cuculo)
Se invece hai una rete locale ad esempio per vedere dalla ps3-4 film in hd che hai su un nas o un altro pc può diventare insufficiente perchè il bitrate dei film in HD può superare le "possibilità" di una wireless G.
Nella pratica, si sta tranquilli con una wireless N che equivale e in alcuni casi supera le connessioni via lan a 100 Mbps, e non credo che su ps4 e xbox one non metteranno un wi-fi N che ormai si usa ovunque...
Di meglio si ha solo con una rete CABLATA gigabit (ossia un Gigabit al secondo), ma i benefici si hanno appunto solo a livello di rete locale, sempre che tu abbia anche apparecchi abbastanza veloci nel trasferire i dati per sfruttarla :D
TAURUS123
04-07-2013, 19:06
Ti rispondo ; ) , sul fatto dei numeri stile apple, non sono d'accordo perchè i numeri che ho postato sono basati sulle prestazioni reali dichiarate delle 2 console con riferimenti all'Old-gen, tutto questo non era per confondere ma per rendere più evidente che la Microsoft si poteva impegnare un pò di più sotto il punto di vista Hardware..
Sul valore commerciale di xbox One, invece, una gpu con metà delle Rops a me su pc costa quasi la metà, e le ram ddr3 le trovi anche nelle patatine san carlo, mentre la differenza di prezzo tra una GPU per pc con 2gb o 4 gb di ram gddr5 è di almeno una 70 ina di euro, (pensa tra 8 gb ddr 3 e 8 gb gddr5). Ergo, xbox One è cara a prescinde dal Kinect....:read:
Se fossi quello di Top Gears..direi che la Xbox One andrebbe a finire chiaramente sul tabellone delle macchine UN-Cool!!:sofico:
Il vero specchietto per le allodole è proprio il Kinect 2.0 , traccia fino a 6 persone in full HD @30fps se non sbaglio vero?..bene con chi cavolo devo giocare a casa? con una squadra di calcio a 5 arbitro compreso?? :ciapet: :D
Tutto molto relativo.
Ci sono ram ddr3 a latenza bassissima che costano un patrimonio.
Vi ricordo che la ps3 fat aveva seri problemi con l'80% dei modem in commercio
Ma problemi dovuti all'incapacità di configurare il router o di compatibilità? Ho provato/ho diversi modelli di router in casa è non ho mai avuto problemi di connessione, né con 360, né con ps3.
Inviato dal mio GT-N7100 con Tapatalk 2
crespo80
04-07-2013, 19:20
Ma problemi dovuti all'incapacità di configurare il router o di compatibilità? Ho provato/ho diversi modelli di router in casa è non ho mai avuto problemi di connessione, né con 360, né con ps3.
Se già devi mettere mano ai parametri del router per far collegare una console, si può parlare di incompatibilità, perchè ti sei giocato il 90% sei suoi utenti; quello che per noi è un parametro di configurazione da 30 secondi, per molti potrebbero essere estenuanti conversazioni telefoniche con l'assistenza tecnica...
TAURUS123
04-07-2013, 19:25
Ma problemi dovuti all'incapacità di configurare il router o di compatibilità? Ho provato/ho diversi modelli di router in casa è non ho mai avuto problemi di connessione, né con 360, né con ps3.
Inviato dal mio GT-N7100 con Tapatalk 2
Preferisco non linkare ma se googli un attimo, capisci di cosa parlo.
Mi riferisco ai primi modelli fat e i problemi di compatibilità con,lo standard n
Crashman
04-07-2013, 21:49
http://en.wikipedia.org/wiki/Video_post-processing
Mi sono basato su questo, se è sbagliato allora mi scuso.
Non mi pare si parli di hdr ma per l'appunto compare la voce bloom
PS: ah non ne parla, ma non riesco a credere che scrivano hdr rendering xDDD se è rendering non è post processing. Vi prego la prossima volta che leggo qualcosa da wiki vomito
petru916
04-07-2013, 21:52
Non mi pare si parli di hdr ma per l'appunto compare la voce bloom
HDR dovrebbe essere l'acronimo di High dynamic range rendering o sbaglio?
PS: ho letto la tua risposta, ma a quanto leggevo il rendering HDR viene applicato in post in quanto gli oggetti vengono renderizzati in scene isolate. Cosa c'è di vero?
Crashman
04-07-2013, 22:10
HDR dovrebbe essere l'acronimo di High dynamic range rendering o sbaglio?
PS: ho letto la tua risposta, ma a quanto leggevo il rendering HDR viene applicato in post in quanto gli oggetti vengono renderizzati in scene isolate. Cosa c'è di vero?
si scusami per la risposta frammentata di prima ma a quest'ora la stanchezza mi assale.
Comunque quando si parla di hdr in post processing altro non è che il bloom, ovvero effetti di luminescenza che si avrebbero se si applicasse un reale rendering in hdr. Ma rimane pur sempre una simulazione
Per questo si parla di oggetti isolati (viceversa sarebbe applicato all'intera scena)
Per definizione l'hdr non è altro che il calcolo dell'illuminazione con un intervallo di valori maggiore (e ricordo che l'illuminazione, nel rendering come nella realtà è tutto)
petru916
04-07-2013, 22:15
si scusami per la risposta frammentata di prima ma a quest'ora la stanchezza mi assale.
Comunque quando si parla di hdr in post processing altro non è che il bloom, ovvero effetti di luminescenza che si avrebbero se si applicasse un reale rendering in hdr. Ma rimane pur sempre una simulazione
Per questo si parla di oggetti isolati (viceversa sarebbe applicato all'intera scena)
Per definizione l'hdr non è altro che il calcolo dell'illuminazione con un intervallo di valori maggiore (e ricordo che l'illuminazione, nel rendering come nella realtà è tutto)
Perfetto, sei stato chiarissimo, grazie!
Ragazzi rimanendo in tema di next gen, sono rimasto sorpreso :sbavvv: dalla bellezza di questo titolo "THE DIVISION" di cui all'E3 avevo sentito parlare poco ( in uscita per PS4 e XBOX ONE ), un motore grafico spettacolare, vi posto il link (godetevelo in HD) :
http://www.youtube.com/watch?v=O_j9uKBmUEk
Punto primo la scheda attualmente montata su ps3 non è compatibile nemmeno con lo standard N, il che a certe cifre, mi sembra paradossale.
Inoltre basta googlare un attimo per trovare miliardi di problemi a causa di compatibilità davvero limitata con i router di ultima generazione. (Vi ricordo che la ps3 fat aveva seri problemi con l'80% dei modem in commercio)
Punto secondo no, io ho una alice 7 mega.
Non so cosa sia una gigalan. Se intendi il collegamento tra ps3 e un router gigabit, quello puoi farlo anche ora e può farlo chiunque.
La versione N è stata approvata a fine 2009 quindi non è che sa uscito eoni fa.
Tra l'altro non ho capito a cosa serve andare oltre il g su una console: non saturi la banda adsl, non ti limita se devi fare streaming e tanto non devi mica spostarci su GB e GB di roba dalla lan.
Tra l'altro su google mi vengono fuori più risultati cercando i problemi wifi della xbox che della ps3.
Sinceramente io la PS3 l'ho usata anche per vedere film in streaming dal server DLNA in rete locale, e se guardi video FullHD il WiFi G non basta e la rete ad 1Gbit mi è tornata molto comoda per non saturare la rete intranet
Mkv 12 GB da 2.5h: bitrate 1.4 MB/s
Wifi G max teorica 6.75, diciamo 3 MB/s sullo stesso piano con un muro in mezzo.
Per sfondare i 4MB/s devi avere mkv che per due ore occupi 28.8GB.
tecnologico
05-07-2013, 10:46
Mkv 12 GB da 2.5h: bitrate 1.4 MB/s
Wifi G max teorica 6.75, diciamo 3 MB/s sullo stesso piano con un muro in mezzo.
Per sfondare i 4MB/s devi avere mkv che per due ore occupi 28.8GB.
cioè tutti i full iso br.
TAURUS123
05-07-2013, 11:30
La versione N è stata approvata a fine 2009 quindi non è che sa uscito eoni fa.
Tra l'altro non ho capito a cosa serve andare oltre il g su una console: non saturi la banda adsl, non ti limita se devi fare streaming e tanto non devi mica spostarci su GB e GB di roba dalla lan.
Tra l'altro su google mi vengono fuori più risultati cercando i problemi wifi della xbox che della ps3.
Quando è stata approvata la versione N non lo so. Io ho un router belkin N 150 acquistato da secoli, non ricordo bene l'anno.
Io che ci sono passato ( avevo una fat, morta di ylod) preferirei che si imparasse dal passato.
Tecnicamente non sarebbe nemmeno sbagliato montare una scheda che supporti anche il modello AC; lo dico non tanto per i risultati che se ne trarrebbero ma per evitare noiose e complesse incompatibilità con i futuri router che usciranno.
Come dire: stiamo pensando al pad che fa anche il caffè, allora parliamo di ciò che davvero potrebbe essere un punto di forza. :D
Mr.White83
05-07-2013, 11:38
Ragazzi rimanendo in tema di next gen, sono rimasto sorpreso :sbavvv: dalla bellezza di questo titolo "THE DIVISION" di cui all'E3 avevo sentito parlare poco ( in uscita per PS4 e XBOX ONE ), un motore grafico spettacolare, vi posto il link (godetevelo in HD) :
http://www.youtube.com/watch?v=O_j9uKBmUEk
Effettivamente è impressionante. :eek:
Anche come giocabilita e menu vari sembra davvero interessante
http://www.tomshw.it/cont/news/battlefield-4-su-playstation-4-forse-con-mouse-e-tastiera/47514/1.html
Se faranno il supporto a tastiera e mouse, ne compro 5 di console...
Una la uso, una e' la riserva, una la tengo come riserva della riserva, una la lascio nella scatola e una la metto in bacheca...
-Mariello-
10-07-2013, 19:18
http://www.tomshw.it/cont/news/battlefield-4-su-playstation-4-forse-con-mouse-e-tastiera/47514/1.html
Se faranno il supporto a tastiera e mouse, ne compro 5 di console...
Una la uso, una e' la riserva, una la tengo come riserva della riserva, una la lascio nella scatola e una la metto in bacheca...
Ma davvero tastiera e mouse è una discriminante cosi importante?
Inviato dal mio Motorola 8200.
crasydemon
10-07-2013, 19:26
Ragazzi rimanendo in tema di next gen, sono rimasto sorpreso :sbavvv: dalla bellezza di questo titolo "THE DIVISION" di cui all'E3 avevo sentito parlare poco ( in uscita per PS4 e XBOX ONE ), un motore grafico spettacolare, vi posto il link (godetevelo in HD) :
http://www.youtube.com/watch?v=O_j9uKBmUEk
impressionante... in tutto... esempio quando lui e dietro a una macchina della pula e la porta dietro e aperta e per spostarsi con una mano chiude la porta non gli va addosso e la porta si chiude da sola...piccole cose ma che tutte assieme......
Ma davvero tastiera e mouse è una discriminante cosi importante?
Inviato dal mio Motorola 8200.
Per me che sono un pc gamer, mmmmh...si'.
Sicuro che arriveranno i supporti su entrambe come per le vecchie console, ma se il gioco gia' le supporta, non servono adattatori o chissa' cosa.
Sai, se ci fosse il supporto potrei andare di console al 100%, finche' non ci sara' dovro' giocare ai FPS/TPS su PC. Perche' comunque continuo a pensare che usare il pad per questi giochi e' una bestemmia (idem gli strategici ma non mi piace il genere).
Cosi' come reputo una quasi-bestemmia giocare i platform (e i giochi di sport e guida, che non mi piacciono pure questi :ciapet:) e gli sparatutto stile vecchi Tomb Raider che avevano la mira automatica, con una tastiera e un mouse.
Dico quasi-bestemmia, perche' e' piu' comodo giocarli col pad, ma non diventa complicato ed impreciso come un FPS col pad.
Ovvio che poi i gusti son gusti, ma la precisione e la rapidita' di risposta del mouse non sara' mai comparabile con quella di un pad.
tecnologico
10-07-2013, 19:49
certo the division è bello ma l' hud è a dir poco invasivo. peggio dell' ultimo ghost recon.
che poi ci stiamo stupendo di titoli che fra 3 anni saranno visti come una porcheria...chi se li è mai filati i titoli dayone?
crasydemon
10-07-2013, 19:59
si vero ma ora non stiamo parlando di titolo dayone di ps2 o 3 e di xbox o 360... ma di una generazione molto piu' avanti... se tu vuoi aspettare 3 anni per dire che questi fanno schifo allora aspetta....
certo the division è bello ma l' hud è a dir poco invasivo. peggio dell' ultimo ghost recon.
che poi ci stiamo stupendo di titoli che fra 3 anni saranno visti come una porcheria...chi se li è mai filati i titoli dayone?
Beh, io Resistance Fall of Man me lo ricordo eccome! E' uno degli FPS più belli che abbia mai giocato, anche se tecnicamente lasciava alquanto a desiderare...
A proposito, magari si decidessero una buona volta a supportare mouse e tastiera anche sulle console... Personalmente eviterei di spendere soldi nell'aggiornamento del PC per giocare agli fps (che odio giocare col pad) e mi accontenterei volentieri della console per 5/6 anni anche per questo genere di giochi :D
PhoEniX-VooDoo
10-07-2013, 21:32
impressionante... in tutto... esempio quando lui e dietro a una macchina della pula e la porta dietro e aperta e per spostarsi con una mano chiude la porta non gli va addosso e la porta si chiude da sola...piccole cose ma che tutte assieme......
è esattamente lo stesso dettaglio che ho notatro pure io, impressionante come esegua quell'operazione in maniera naturale.
mi lasciano un po dubbiosi gli scontri a fuoco, sembra che la scena rallenti e che vi sia come un aiuto allo sparo per ovviare all'innaturalezza del pad, non so, non mi ha convinto...
https://fbcdn-sphotos-d-a.akamaihd.net/hphotos-ak-ash4/1070059_692484220778099_1572108867_n.jpg
non conosco la fonte, non so se è affidabile o meno :D
tecnologico
11-07-2013, 08:02
è un sondaggio o sono i preorder?
Michael80
11-07-2013, 08:06
Ma davvero tastiera e mouse è una discriminante cosi importante?
Inviato dal mio Motorola 8200.
assolutamente sì
parlo per me, benchè da quando ho comprato la xbox mi sia ormai abituato (non senza difficoltà) agli FPS col pad (BC2 e BF3), se PS4 ed i suoi giochi dovessero dare questo supporto fin dall'inizio non avrei dubbi e virerei sulla SONY. QUESTA sarebbe una cosa che mi farebbe propendere ad una piuttosto che all'altra, non tutti i calcoli di quanti frame di differenza ci stanno. La naturalezza/velocità del mouse è inavvicinabile dal pad per quel tipo di giochi.
è un sondaggio o sono i preorder?
come ho detto non conosco la fonte
lo ha linkato un amico su fb, che è un funboy della ps4 :D
Ma davvero tastiera e mouse è una discriminante cosi importante?
Inviato dal mio Motorola 8200.
tutto sommato per una minoranza, che però esiste.
per me la discriminante maggiore nel confronto tra le 2 console resta il prezzo, acquistassi al dayone non spenderei mai 100 € in più sapendo che è per via di un optional che non userei mai, neanche se la one fosse più potente e avesse delle esclusive che mi piacciono di più. 100 € non sono niente.
è un sondaggio o sono i preorder?
sondaggio
petru916
11-07-2013, 09:30
è un sondaggio o sono i preorder?
È un sondaggio dove tutti possono votare, purtroppo non lo trovo al momento, ma qualche giorno fa ci sono capitato anche io. Ho evitato di votare però.
tecnologico
11-07-2013, 10:50
È un sondaggio dove tutti possono votare, purtroppo non lo trovo al momento, ma qualche giorno fa ci sono capitato anche io. Ho evitato di votare però.
ma di che sito? cmq questi non hanno in pratica valore. se fai questo sondaggio dento gtplanet hai un valore, dentro xboxforum....
ma di che sito? cmq questi non hanno in pratica valore. se fai questo sondaggio dento gtplanet hai un valore, dentro xboxforum....
non ricordo ma è un sito non di parte e ha sui 100.000 voti
ovvio che poi i preordini sono una cosa e un sondaggio online un'altra
i numeri di preordini non li sappiamo
petru916
11-07-2013, 11:10
ma di che sito? cmq questi non hanno in pratica valore. se fai questo sondaggio dento gtplanet hai un valore, dentro xboxforum....
Nono non è un sondaggio di un particolare sito di videogiochi, è proprio un sito a sè stante. Non mi pare sia collegato ad altre testate online.
PS: trovato:
http://www.xboxonevspsfour.com/
Yngwie74
11-07-2013, 11:25
tutto sommato per una minoranza, che però esiste.
per me la discriminante maggiore nel confronto tra le 2 console resta il prezzo, acquistassi al dayone non spenderei mai 100 € in più sapendo che è per via di un optional che non userei mai, neanche se la one fosse più potente e avesse delle esclusive che mi piacciono di più. 100 € non sono niente.
Anche per me, ad oggi, resta la principale delle discriminanti. Da una parte te ne vai con una console, sulla carta piu' potente, ed un gioco. Dall'altra con una periferica che per il mio modo di giocare trovo di dubbia utilita'.
Penso di saltare il day-one, piu' che altro per provare entrambi i nuovi pad e per vedere che network mettono su da una parte e dall'altra.
Il family-share alla lunga mi avrebbe fatto piu' che recuperare quei 100€, ma e' stato cazziato, quindi ad oggi vedo la console Sony in testa. Vediamo se alla gamescon succede qualcosa per farmi modificare il parere.
Mi spiace che della PS4 si sia visto poco, principalmente filmati o tech demo (mentre della One si è visto Forza 5 che per me era il gioco più impressionante all'E3).
Per il momento sono più diretto verso la PS4 per via del Plus, perchè con quello in teoria non avrei più bisogno di comprare quasi nulla. Pagherei il prezzo della console e l'abbonamento, e basta. Ma ammetto che i giochi mostrati per Xbox One mi hanno entusiasmato di più, e poi, a differenza di altri qui, credo che il Kinect abbia del potenziale (soprattutto se hanno migliorato lag e angolo visivo). Quindi, non so. Aspetto e vedo cosa succede.
Mi spiace che della PS4 si sia visto poco, principalmente filmati o tech demo (mentre della One si è visto Forza 5 che per me era il gioco più impressionante all'E3).
Per il momento sono più diretto verso la PS4 per via del Plus, perchè con quello in teoria non avrei più bisogno di comprare quasi nulla. Pagherei il prezzo della console e l'abbonamento, e basta. Ma ammetto che i giochi mostrati per Xbox One mi hanno entusiasmato di più, e poi, a differenza di altri qui, credo che il Kinect abbia del potenziale (soprattutto se hanno migliorato lag e angolo visivo). Quindi, non so. Aspetto e vedo cosa succede.
Pero' vedi? Hai visto poco ma sei indirizzato verso la PS4.
IMHO (e ripeto ancora IMHO) la Sony ha mostrato 4 cose che doveva mostrare per attirare la gente, la Microsoft ha fatto una figuraccia dietro l'altra, cercando poi di arrampicarsi sugli specchi (vedi i pc sgamati sul quale giravano dei giochi per XboX (sono arrivati tardi gli sviluppatori? Cavoli loro, non mostri il gioco), vedi la storia dei 32MB di cache superveloce (ESRAM) che io ancora adesso considero poco incidenti sulle prestazioni, ecc) e collezionando figuracce.
La Sony non sta nemmeno facendo marketing, ci pensa l'XboX a farselo negativo. Poi magari la PS4 sara' uno schifo (ipotizzo) quando usciranno, ma al momento l'ago della bilancia pende verso di lei.
Anche la storia di quanto pesa l'OS sulla ram, la PS4 ruba solo 1GB e l'XboX 3GB. Su 8. Pesa meno Windows 8 Pro x64 che ho sul mio pc... Ho capito che e' un dispositivo multimediale, pero' sono scettico lo stesso.
Boh, veramente io Microsoft non la capisco...
tecnologico
14-07-2013, 14:00
, vedi la storia dei 32MB di cache superveloce (ESRAM) che io ancora adesso considero poco incidenti sulle prestazioni, ecc)
se lo fai è perchè probabilmente non ne capisci molto...
se lo fai è perchè probabilmente non ne capisci molto...
Adoro questi insulti velati, mi piacciono, contornati da una totale mancanza di spiegazioni (visto che tu sembri invece saperne tantissimo) o un rimando ad altri thread che tanto "e' scritto li', vai a leggertelo"...
Ma non volevo ricominciare questa inutile discussione su una inutile cache.
neuralhub
14-07-2013, 16:42
Finché accosti l'aggettivo "inutile" a cache, un po' la polemica te la vai a cercare. Studiati un po' di algoritmica magari, ecco.
Ma non volevo ricominciare questa inutile discussione su una inutile cache.
E allora evita di continuare a dire che non serve a niente perchè è una clamorosa inesattezza!!
Non è la prima volta che lo fai e non è che hai dato spiegazioni. Anzi, a quanto ricordo per te era inutile perchè "troppo poca adesso rispetto alla ram totale". Notevole!
tecnologico
14-07-2013, 17:04
Adoro questi insulti velati, mi piacciono, contornati da una totale mancanza di spiegazioni (visto che tu sembri invece saperne tantissimo) o un rimando ad altri thread che tanto "e' scritto li', vai a leggertelo"...
Ma non volevo ricominciare questa inutile discussione su una inutile cache.
Finché accosti l'aggettivo "inutile" a cache, un po' la polemica te la vai a cercare. Studiati un po' di algoritmica magari, ecco.
E allora evita di continuare a dire che non serve a niente perchè è una clamorosa inesattezza!!
Non è la prima volta che lo fai e non è che hai dato spiegazioni. Anzi, a quanto ricordo per te era inutile perchè "troppo poca adesso rispetto alla ram totale". Notevole!
può bastare :asd:
Adoro questi insulti velati, mi piacciono, contornati da una totale mancanza di spiegazioni (visto che tu sembri invece saperne tantissimo) o un rimando ad altri thread che tanto "e' scritto li', vai a leggertelo"...
Ma non volevo ricominciare questa inutile discussione su una inutile cache.
LOL...
persistere senza mai desistere :D
Forse avete frainteso... a me non interessa se la PS4 ha la banda di memoria a un milione di gigabyte per secondo e la GPU abbastanza potente da renderizzare i peli ascellari dei giocatori in FIFA 15, mentre la Xbox One fa fatica a girare Mario 64 :stordita:
Il motivo per cui propenderei verso la PS4 è il costo minore insieme al fatto di poter usufruire del PS+ per non dover pagare i giochi. La grafica c'incastra pochino. I giochi ovviamente sono importanti nella scelta di una console, ma tanto scommetto che saranno quasi tutti multipiattaforma. I titoli first-party non mi piacciono granchè, sia da Sony che da Microsoft.
i 32 MB di Edram possono incidere sulle prestazioni come gli 8 GB di GDDR5 o la GPU più potente, lo sapremo quando le vedremo effettivamente, per ora son opinioni e sensazioni.
alexbands
14-07-2013, 20:35
Forse avete frainteso... a me non interessa se la PS4 ha la banda di memoria a un milione di gigabyte per secondo e la GPU abbastanza potente da renderizzare i peli ascellari dei giocatori in FIFA 15, mentre la Xbox One fa fatica a girare Mario 64 :stordita:
Il motivo per cui propenderei verso la PS4 è il costo minore insieme al fatto di poter usufruire del PS+ per non dover pagare i giochi. La grafica c'incastra pochino. I giochi ovviamente sono importanti nella scelta di una console, ma tanto scommetto che saranno quasi tutti multipiattaforma. I titoli first-party non mi piacciono granchè, sia da Sony che da Microsoft.
Infatti anche per me la storia è più o meno questa:
lato xbox: forza 5
lato ps4: costo inferiore, compattezza, plus (anche se non da subito entro un paio d'anni dovrebbe diventare valido come quello ps3)
Appurato che forza 5 non migliora dove secondo me era necessario, sono quasi convinto al 100% per ps4...
E anche a me dispiace perchè secondo me lato software e lato "ecosistema" (live) microsoft non si batte
Le pippe sulle "inutili cache" lasciano il tempo che trovano, come pure sindacare su chi fa disastri col marketing... sai che mi frega, io vado a vedere gli aspetti pratici :O
tecnologico
14-07-2013, 20:53
ma è stato confermato da qualche parte che il plus ps4 avrà i giochi gratis fin dall' inizio?
ma è stato confermato da qualche parte che il plus ps4 avrà i giochi gratis fin dall' inizio?
Si, 1 gioco al mese, all'E3 hanno anche mostrato i primi titoli.
Inviato dal mio GT-N7100 con Tapatalk 2
ma è stato confermato da qualche parte che il plus ps4 avrà i giochi gratis fin dall' inizio?
Fin dall'inizio, credo proprio di no... forse avrà qualche DLC gratis o qualche indie, e sconti sui giochi da scaricare... ma non credo ti diano subito gratuitamente dei giochi che al lancio costeranno 60 euro (e infatti la versione PS+ di Drive Club sarà limitata in contenuti).
Però, se sarà come la PSV, allora i giochi gratis inizieranno ad arrivare dopo circa un annetto. Mi basta aspettare quel poco. Tanto scommetto che buona parte dei giochi nei primi dodici mesi avranno anche delle versioni per 360/PS3/PC. Se poi sarò fortunato, nel periodo natalizio ci sarà pure qualche discreto sconticino...
Il mio timore principale, semmai, è che essendo il PS+ sostanzialmente obbligatorio per la PS4 (dato che include il multiplayer) a differenza della PS3, non vorrei che la qualità dei giochi offerti cali notevolmente, visto che non avranno bisogno di così tanto incentivo per spingere la gente a iscriversi.
Ale55andr0
14-07-2013, 21:22
i 32 MB di Edram possono incidere sulle prestazioni come gli 8 GB di GDDR5 o la GPU più potente, lo sapremo quando le vedremo effettivamente, per ora son opinioni e sensazioni.
è altresì vero, pur prendendo per buoni certi rumors, che una volta uscite le specifiche di PS4, è dal lato xboxone che si è sentito "no aspè aspè, abbiamo scoperto che la edram può permettere 192gb/s" :asd: oppure di ipotetico passaggio da 8 a 12gb o di incrementi nel clock della gpu, ripeto, sono rumors, ma fossero affermazioni vere mostrano la chiara posizione di svantaggio di chi si trova dover inseguire e lo sa, senza bisogno di aspettare proprio nulla...a ragà, l'architettura della gpu è la gnc di AMD, si può discutere sino a domattina, ma una volta rese note le unità elaborative, il clock e la bandwidth non resta molto di cui discutere :stordita:
Ale55andr0
14-07-2013, 21:25
edit doppio
alexbands
14-07-2013, 21:52
Si, 1 gioco al mese, all'E3 hanno anche mostrato i primi titoli.
Inviato dal mio GT-N7100 con Tapatalk 2
Per i primi tempi credo che avremo mezze demo come drive club (versioni limitate dei giochi) che è il primo gioco gratuito che daranno col plus
Per i primi tempi credo che avremo mezze demo come drive club (versioni limitate dei giochi) che è il primo gioco gratuito che daranno col plus
Partiranno con giochi indie, oltre a dc:
Don't Starve: https://www.youtube.com/watch?v=4KvSivxjRc0&feature=youtube_gdata_player
Outlast: https://www.youtube.com/watch?v=2GPf3MdVOKI&feature=youtube_gdata_player
Secret Ponchos: https://www.youtube.com/watch?v=E3v7rlxdLkQ&feature=youtube_gdata_player
Inviato dal mio GT-N7100 con Tapatalk 2
alexbands
14-07-2013, 22:03
Partiranno con giochi indie, oltre a dc:
Don't Starve
Outlast
Secret Ponchos
Inviato dal mio GT-N7100 con Tapatalk 2
Quelli, con tutta l'ammirazione che posso avere per chi li programma, io non li conto :sofico:
gagliardi88
15-07-2013, 16:38
Secondo voi è giusto il mio ragionamento?
Xbox era nata per essere sempre online, quindi ogni scelta di hardware software periferiche è stata condizionata da questa caratteristica.
Parlando del cloud game, Ms ha puntato molto su di esso spendendo cifre esorbitanti per i server.
Ora dopo il dietrofront, e la possibilità di usare la xbox offline, presumo che tutto l interessamento degli sviluppatori verso il cloud si sia spento in quanto puo essere visto come optional.
Io sviluppatore non posso basare il mio gioco su un sistema opzionale ma al massimo rendere tale sistema integrativo giusto da non compromettere il mio lavoro in sua assenza ( esempio watch dogs).
Secondo voi Ms ha speso migliaia di dollari per avere qualche macchina in piu in strada o uccellini che svolazzano in citta nei suoi giochi?
Secondo me no e non so quando, riavremo la xbox only online, magari appena piazzate tot xbox nelle case dei giocatori
Secondo voi Ms ha speso migliaia di dollari per avere qualche macchina in piu in strada o uccellini che svolazzano in citta nei suoi giochi?
Secondo me no e non so quando, riavremo la xbox only online, magari appena piazzate tot xbox nelle case dei giocatori
No, non credo, ms ha potenziato la piattaforma cloud windows azure, su cui x1 può fare affidamento, non ha di certo investito tutto quel denaro solo per la console.
Inviato dal mio GT-N7100 con Tapatalk 2
Yngwie74
15-07-2013, 16:55
a ragà, l'architettura della gpu è la gnc di AMD, si può discutere sino a domattina, ma una volta rese note le unità elaborative, il clock e la bandwidth non resta molto di cui discutere :stordita:
Si, ma quello che vorrei capire e' chi si occupa del calcolo dell'AA sull'Xbox1? Perche' se dovesse funzionare come sulla 360, anzi, come e' scritto che funzionasse sulla 360, ovvero che l'AA viene calcolato da unita' logiche dedicate direttamente nella esram, la GPU verrebbe sgravata da un bel po' di calcoli e liberata pure un po' di bandwidth. D'altronde e' abbastanza evidente quanto impatta l'AA sulle prestazioni di una scheda video.
Mi piacerebbe avere una comprativa tra una 7790 senza AA e una 7850 con AA 4x (o anche solo 2x).
Ale55andr0
15-07-2013, 17:03
l'esram non calcola proprio nulla, se parliamo di unità logiche adibite all'applicazione dell'AA già non è più una ram :fagiano:
se ben ricordo (potrei dire una castronata) nella xbox 360 la ram integrata serviva a tenere in memoria la struttura geometrica poligonare (che occupa pochissimo spazio, sono linee, non texture "piene") per permettere di applicare l'AA, selettivamente, solo dove serve, ovvero nei poligoni visibili del reticolato 3d, risparmiando risorse, ma era la gpu poi a sfumare i contorni fatta "la tara", non la ram, la ram non esegue calcoli di alcun genere, serve a leggere e scrivere dati. E' da notare comunque che non tutti i titoli 360 supportano l'AA, inoltre oramai con le tecnica FXAA si ottengono ottimi risultati con basso impatto solle performance, senza contare che già i produttori di game possono implementare filtri AA proprietari che agiscono solo su alcune parti della scena e non ovunque. Un'esempio banale è il fatto che tipicamente l'AA impostato dal pannello di gioco si rivela spesso più leggero, a parità di tipologia (MLAA, SSAA ecc), che non tenendolo disabilitato dal game e forzandolo dal pannello di controllo della vga che lo applica in modo non ottimizzato
Yngwie74
15-07-2013, 17:18
l'esram non calcola proprio nulla, se parliamo di unità logiche adibite all'applicazione dell'AA già non è più una ram :fagiano:
se ben ricordo (potrei dire una castronata) nella xbox 360 la ram integrata serviva a tenere in memoria la struttura geometrica poligonare per permettere di applicare l'AA, selettivamente, solo dove serve, ovvero nei poligoni visibili del reticolato 3d, ma era la gpu poi a sfumare i contorni, non la ram, la ram non esegue calcoli di alcun genere, serve a leggere e scrivere dati
Ovvio che non e' la Ram a calcolare. Ma e' cosi' che funzionava sulla 360, ovvero ram+logic. Mi riferisco all'articolo di techreport sul funzionamneto dell'Edram sulla 360 e che riporto qui di seguito (l'avevo gia' fatto in precedenza in questo thread)
The really fascinating thing here is the design of that daughter die. Feldstein called it a continuation of the traditional graphics pipeline into memory. Basically, there's a 10MB pool of embedded DRAM, designed by NEC, in the center of the die. Around the outside is a ring of logic designed by ATI. This logic is made up of 192 component processors capable of doing the basic math necessary for multisampled antialiasing. If I have it right, the component processors should be able to process 32 pixels at once by operating on six components per pixel: red, green, blue, alpha, stencil, and depth. This logic can do the resolve pass for multisample antialiasing right there on the eDRAM die, giving the Xbox 360 the ability to do 4X antialiasing on a high-definition (1280x768) image essentially for "free"—i.e., with no appreciable performance penalty. The eDRAM holds the contents of all of the back buffers, does the resolve, and hands off the resulting image into main system memory for scan-out to the display.
Quindi sulla 360 non c'erano solo 10MB di Edram ma c'era anche un corredo di processori logici per eseguire l'AA.
http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled/2
Il problema dell'edram nella 360 e' che la cache non consentiva di contenere per intero un frame per un AA4x e quindi era necessario ricorrere al tiling che comunque comportava lavoro per la gpu.
Per quello mi interesserebbe capire se anche l'XB1 funziona cosi' (ovvero esram+logic) e quindi se l'AA viene eseguita senza aggravio per la GPU. In questo caso paragonare una 7790 senza AA con una 7850 con AA (2x o 4X) potrebbe anche avere un senso.
Ma quindi state dicendo che questa ram in realtà non è una RAM ma è un processorino a parte che fa solo AA?
Ma siamo proprio sicuri? E la scheda video quindi è come se non applicasse alcun AA e non farà alcun lavoro per esso?
petru916
15-07-2013, 20:10
Ma quindi state dicendo che questa ram in realtà non è una RAM ma è un processorino a parte che fa solo AA?
Ma siamo proprio sicuri? E la scheda video quindi è come se non applicasse alcun AA e non farà alcun lavoro per esso?
Su Xbox 360 era così, difatti tutti, o quasi, i giochi avevano un MSAA 2x gratis. Per ora sono solo supposizioni, ma considerando l'approccio che hanno avuto nella scorsa gen è altamente probabile.
Su Xbox 360 era così, difatti tutti, o quasi, i giochi avevano un MSAA 2x gratis. Per ora sono solo supposizioni, ma considerando l'approccio che hanno avuto nella scorsa gen è altamente probabile.
gratis? ma siete sicuri? mi sembra una cosa un po strana
petru916
15-07-2013, 20:16
Gratis in pratica, se vai a prendere il thread di tecnologico sui multipiatta xbox vs ps3 noti che alcuni hanno una risoluzione anche più alta perchè la gpu non doveva gestire il calcolo AA.
Gratis in pratica, se vai a prendere il thread di tecnologico sui multipiatta xbox vs ps3 noti che alcuni hanno una risoluzione anche più alta perchè la gpu non doveva gestire il calcolo AA.
Qui http://www.hdtvarcade.com/hdtvforums/index.php?/topic/9406-edram-allows-360-to-do-4x-msaa-for-free/
fa vedere che un certo drop lo aveva la 360.
Io credo che sia come si diceva pochi post fa, la ram mantiene una struttura poligonale vuota della scena da rifinire, e fa da buffer per il lavoro di sfumatura che viene effettuato dalla gpu.
Altrimenti non ha piu senso parlare di GPU, se vi sono altri elementi logici è come se la esram fosse una mini gpu per l'aliasing
petru916
15-07-2013, 20:32
Qui http://www.hdtvarcade.com/hdtvforums/index.php?/topic/9406-edram-allows-360-to-do-4x-msaa-for-free/
fa vedere che un certo drop lo aveva la 360.
Io credo che sia come si diceva pochi post fa, la ram mantiene una struttura poligonale vuota della scena da rifinire, e fa da buffer per il lavoro di sfumatura che viene effettuato dalla gpu.
Altrimenti non ha piu senso parlare di GPU, se vi sono altri elementi logici è come se la esram fosse una mini gpu per l'aliasing
È tutto in giapponese, io non ho capito niente tranne qualche immaginetta. Comunque un drop sicuramente ce l'ha, non saprei sinceramente, non sono abbastanza informato per parlarne con certezza.
È tutto in giapponese, io non ho capito niente tranne qualche immaginetta. Comunque un drop sicuramente ce l'ha, non saprei sinceramente, non sono abbastanza informato per parlarne con certezza.
Ci sono gli screen nel primo post con indicati gli fps e il tipo di AA.
Ad ogni modo credo siano cose che non divulgerà con precisione MS, lo scopriremo solo vedendo i titoli.
petru916
15-07-2013, 20:37
Ci sono gli screen nel primo post con indicati gli fps e il tipo di AA.
Ad ogni modo credo siano cose che non divulgerà con precisione MS, lo scopriremo solo vedendo i titoli.
E come hanno fatto a forzare diversi filtri su un gioco Xbox?
E come hanno fatto a forzare diversi filtri su un gioco Xbox?
Questo non lo so, mi spiace :stordita: sarà una boiata?
Potrebbero avere un devkit
Comunque non credo che ci sia veramente qualcosa di completamente gratis.
Se si potesse applicare antialiasing con processori secondari efficientemente probabilmente sarebbe già venuto in mente alla nvidia o ati.
Probabilmente free significa quasi free. Infatti un 10% li chiamerei pure io free. Figuriamoci qualcuno del marketing.
petru916
15-07-2013, 21:19
Questo non lo so, mi spiace :stordita: sarà una boiata?
Mai dire mai, ma a me puzza. Può essere anche che in tutta quella fiaba scritta in giapponese (di cui io non capisco una fava) abbiano fatto una comparazione con PC :)
petru916
15-07-2013, 21:22
Potrebbero avere un devkit
Comunque non credo che ci sia veramente qualcosa di completamente gratis.
Se si potesse applicare antialiasing con processori secondari efficientemente probabilmente sarebbe già venuto in mente alla nvidia o ati.
Probabilmente free significa quasi free. Infatti un 10% li chiamerei pure io free. Figuriamoci qualcuno del marketing.
Si assolutamente d'accordo, un impatto marginale lo avrà, sicuramente non ai livelli di quello calcolato interamente dalla GPU. Ad esempio, BF4 con MSAA4x ha circa, sulla mia configurazione, una pardita nell'ordine del 30-35%.
Potrebbero avere un devkit
Comunque non credo che ci sia veramente qualcosa di completamente gratis.
Se si potesse applicare antialiasing con processori secondari efficientemente probabilmente sarebbe già venuto in mente alla nvidia o ati.
Probabilmente free significa quasi free. Infatti un 10% li chiamerei pure io free. Figuriamoci qualcuno del marketing.
Si infatti credo che il buonsenso voglia che la cosa stia così: la soluzione con Esram "alleggerisce" i calcoli per l'aliasing.
petru916
15-07-2013, 21:24
Si infatti credo che il buonsenso voglia che la cosa stia così: la soluzione con Esram "alleggerisce" i calcoli per l'aliasing.
Sisi è così, sarebbe troppo bello altrimenti! Gratis lo utilizzavamo per dire molto molto risicata rispeto alle canoniche flessioni che si hanno su GPU. Colpa mia che mi sono espresso male, chiedo scusa ;)
Yngwie74
16-07-2013, 01:04
Si infatti credo che il buonsenso voglia che la cosa stia così: la soluzione con Esram "alleggerisce" i calcoli per l'aliasing.
Dunque, per quanto riguarda la questione 360, l'articolo di techreport che sopra ho quotato si basa su un'intervista fatta con Bob Feldstein, ai tempi VP Engineering ATI, ora in Nvidia, quindi qualche cognizione di causa dovrebbe averla avuta. E' stato lui a riferire della Edram NEC al centro del die con un logic ring progettato da Ati capace di eseguire l'AA.
L'edram (10Mb) non era sufficientemente capiente per contenere il frame da 1280*720 ed eseguire un AA (non mi ricordo se 4x o se anche il 2x) dovendo quindi ricorrere al tiling. Il tiling qualche impatto sulle prestazioni della GPU lo ha ( https://en.wikipedia.org/wiki/Tiled_rendering ), da qui potrebbe essere la percentuale in drop di cui si parlava nell'altro link.
La mia curiosita' sta nel capire se anche la esram dell'one sia porgettata in questa maniera (quindi con processori logici a corredo) e se i 32mb sono sufficienti come framebuffer per un AA 4x senza dover ricorrere al tiled rendering (questa volta su una risoluzione di 1920*1080).
Speriamo che questa volta abbian fatto i conti giusti :O
Dunque, per quanto riguarda la questione 360, l'articolo di techreport che sopra ho quotato si basa su un'intervista fatta con Bob Feldstein, ai tempi VP Engineering ATI, ora in Nvidia, quindi qualche cognizione di causa dovrebbe averla avuta. E' stato lui a riferire della Edram NEC al centro del die con un logic ring progettato da Ati capace di eseguire l'AA.
L'edram (10Mb) non era sufficientemente capiente per contenere il frame da 1280*720 ed eseguire un AA (non mi ricordo se 4x o se anche il 2x) dovendo quindi ricorrere al tiling. Il tiling qualche impatto sulle prestazioni della GPU lo ha ( https://en.wikipedia.org/wiki/Tiled_rendering ), da qui potrebbe essere la percentuale in drop di cui si parlava nell'altro link.
La mia curiosita' sta nel capire se anche la esram dell'one sia porgettata in questa maniera (quindi con processori logici a corredo) e se i 32mb sono sufficienti come framebuffer per un AA 4x senza dover ricorrere al tiled rendering (questa volta su una risoluzione di 1920*1080).
Direi che la questione oramai pare abbastanza chiarita.
rimane da vedere come se la caverà nella pratica...l'attesa è lunga
Yngwie74
16-07-2013, 09:23
Speriamo che questa volta abbian fatto i conti giusti :O
Non è mai stato un problema di conti, ma di costi. L'esram, tra l'altro, e' anche piu' costosa dell'edram.
Non è mai stato un problema di conti, ma di costi. L'esram, tra l'altro, e' anche piu' costosa dell'edram.
Si si, voleva solo essere una battuta :)
Comunque facendo 4 conti veloci (quindi prendeteli per quel che sono) dovrebbero avanzare per fare AA 4x, visto che nei 32 MB dovrebbero entrare oltre 4 frame FullHD con profondita colore 32 Bit per pixel, quindi per ogni frame mettiamo che debba fare l'oversampling sul 50% dell'immagine comunque dovrei poter lavorare su due frame, visto che non ha senso applicare su tutta la scena l'AA
P.S.: rifacendo i conti ci sta anche un frame completo per calcolare AA4x su tutta la scena, ma solo uno
*sasha ITALIA*
16-07-2013, 10:02
p.s. un pò OT
Sabato ho visto i miei primi tv 4K, di primo impatto nulla di sconvolgente
Visti anche io, invece a me hann fatto un'ottima impressione, immagini molto tridimensionali, ottimi dettagli
p.s. un pò OT
Sabato ho visto i miei primi tv 4K, di primo impatto nulla di sconvolgente
Occorre vedere se l'hai visto con materiale nativo a 4K o o con normali video fullHD semplicemente riscalati, perché la differenza è notevole ;)
Occorre vedere se l'hai visto con materiale nativo a 4K o o con normali video fullHD semplicemente riscalati, perché la differenza è notevole ;)
dite?
sarei curioso di vederli anche io.. nei centri commerciali cominciano già a vedersi?
Ultimo OT...
Al centro commerciale dove l'ho visto avevano un Sony 55" ed un LG 84" :eek:
Prezzo? Rispettivamente 4500 € e 19500 € :eek: :eek:
Se esdram della One funziona come descritto su questi schermi potrebbe dar migliori risultati lei della PS4 senza impatti rilevanti sulla qualità del rendering dell'immagine
alfredo.r
16-07-2013, 10:50
Ora costano uno sproposito ma sono sicuro che già l'anno prossimo si troveranno sui 2000€, e in meno di 3-4 anni sotto i 2000€...
Ricordo ancora quando uscirono i primi plasma: 12 milioni un 42 pollici....
Lo stesso Tv oggi costa 200€ :fagiano:
Non è male come prezzo 20mila € per un 84" 4k. I primi 60" nei centri commerciali costavano più di 30 mila.
Alessiuccio
16-07-2013, 11:40
Io li ho visti un po' tutti, visto che di lavoro li vendo... anche samsung ha fatto un "mostro" 4k, io lo trovo orrendo, ha uno stand che lo fa assomigliare ad una mega lavagna...
Confermo, bellini ma praticamente non sfruttabili come si deve. Anche il 55 sony, che è l'unico ad avere dimensioni ancora umane, in full hd non è che faccia gridare al miracolo. E senza contenuti che me ne faccio del 4K?
In sostanza è stata la "novità" di quest'anno, l'anno scorso lo smart tv, l'anno prima il 3d. La verità è che stanno raschiando il fondo del barile, non sanno più cosa inventarsi per rilanciare un mercato FERMO. Ci vorrebbe una svolta concreta nella tecnologia dei pannelli, ma l'OLED è praticamente sparito e non se ne parla più... i plasma ormai non se li fila più nessuno... oramai è tutta questione di quanto sottili riesci a farli e quanta poca cornice riesci a metterci intorno...
anche il 55" 4.500 non è male... pensando quanto costava il mio 50" 5 anni fa...
Ale55andr0
16-07-2013, 13:24
Se esdram della One funziona come descritto su questi schermi potrebbe dar migliori risultati lei della PS4 senza impatti rilevanti sulla qualità del rendering dell'immagine
non vedo perchè, mica l'AA è un'esclusiva xbox :fagiano: il minore impatto prestazionali (se usi un FXAA l'impatto è basso e la resa valida comunque e ancora non si è ben capito a che serve la ram onchip nella xbox, cioè se ha la medesima funzoione che sulla 360 o altro, come migliorare la bandwidth compensando i 68gb/s delle ddr3) poi può essere compensato da una gpu col 50% degli sp in più. I tecnici sony mi pare abbiano detto che non hanno implementato la ram integrata perchè così si facilità la programmazione agli sviluppatori, anche se non ho capito bene il come/perchè
i plasma ormai non se li fila più nessuno... ..
E pensare che un'ottimo plasma da le piste a qualunque led per quanto mi riguarda
Ad ogni modo se i nuovi 4k sono dei banali LCD dotati solo di schermo + risoluto se li possono dare sulle gengive a priori per me, e poi che ci si vedra? fil e game riscalati per eoni, per non parlare della resa dei normali programmi tv...naaa, è presto e quando la tecnologia sarà matura si troveranno prodotti migliori e a prezzo umano
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.