Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro punta a diventare uno dei riferimenti assoluti nel segmento dei camera phone di fascia alta. Con un teleobiettivo Hasselblad da 200 MP, una batteria al silicio-carbonio da 7500 mAh e un display da 6,78 pollici con cornici ultra ridotte, il nuovo flagship non teme confronti con la concorrenza, e non solo nel comparto fotografico mobile. La dotazione tecnica include il processore MediaTek Dimensity 9500, certificazione IP69 e un sistema di ricarica rapida a 80W
DJI Romo, il robot aspirapolvere tutto trasparente
DJI Romo, il robot aspirapolvere tutto trasparente
Anche DJI entra nel panorama delle aziende che propongono una soluzione per la pulizia di casa, facendo leva sulla propria esperienza legata alla mappatura degli ambienti e all'evitamento di ostacoli maturata nel mondo dei droni. Romo è un robot preciso ed efficace, dal design decisamente originale e unico ma che richiede per questo un costo d'acquisto molto elevato
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
La nuova fotocamera compatta DJI spicca per l'abbinamento ideale tra le dimensioni ridotte e la qualità d'immagine. Può essere installata in punti di ripresa difficilmente utilizzabili con le tipiche action camera, grazie ad una struttura modulare con modulo ripresa e base con schermo che possono essere scollegati tra di loro. Un prodotto ideale per chi fa riprese sportive, da avere sempre tra le mani
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-05-2016, 18:48   #41
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17233
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non sarebbe cosa da poco, specialmente la differenza fra 30 e 60 FPS.
Diciamo che con le potenze delle console attuale è complicato (tocca scendere di risoluzione), con il doppio di potenza disponibile... si sta stretti. Con potenze attorno alle quattro volte come si vocifera (per XB1) ci si potrebbe stare ampiamente. Ovviamente con una risoluzione solo Full HD, per i 4K siamo ancora molto lontani con le attuali gpu appena uscite, quindi non c'è neanche da pensarci.

Quote:
Più che altro non vedo come delle console, anche potenziate, possano essere capaci di garantire un'adeguata esperienza per la realtà virtuale.
Su questo non ci piove, vedendo le specifiche (hardware dei pc) dei vari visori. Io parlavo solo a livello di interesse nelle case... non penso sia ancora una cosa trainante per le vendite. Ma è un opinione da non esperto del mercato.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 18:53   #42
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17233
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
La Xbox360 aveva gli shader unificati, su PC non sono usciti assieme perchè erano ancora in fase di produzione ma già c'era il G80.
Attenzione che l'xbox 360 è uscite nel 2005, c'erano ancora le DX9 e nessuna gpu a shader unificati, nè in casa Ati (che ha ritardato appunto per il progetto Xbox) nè in casa Nvidia. G80 è del 2006, un anno dopo.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 18:54   #43
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da DjLode Guarda i messaggi
Attenzione che l'xbox 360 è uscite nel 2005, c'erano ancora le DX9 e nessuna gpu a shader unificati, nè in casa Ati (che ha ritardato appunto per il progetto Xbox) nè in casa Nvidia. G80 è del 2006, un anno dopo.
Si pardon
Hai ragione.

Si ci chiede allora come caspita ha fatto AMD nonostante avesse già un prodotto a shader unificati a ritardare così tanto le 2900 ed essere un fail.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 18:58   #44
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17233
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Si pardon
Hai ragione.

Si ci chiede allora come caspita ha fatto AMD nonostante avesse già un prodotto a shader unificati a ritardare così tanto le 2900 ed essere un fail.
Questo non lo so, probabilmente portare avanti due progetti (l'XGpu e la Gpu a shader unificati) era troppo dispendioso e sono arrivati tardi...
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 19:03   #45
kamon
Senior Member
 
L'Avatar di kamon
 
Iscritto dal: May 2006
Città: Cagliari
Messaggi: 6182
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Più che altro non vedo come delle console, anche potenziate, possano essere capaci di garantire un'adeguata esperienza per la realtà virtuale.
Mah, questo lo vedremo... In passato ci sono stati casi di macchine con meno forza bruta ma che grazie ad un hardware specifico per certe feature erano molto avvantaggiate rispetto ad altre che in teoria erano più potenti... Tipo chip dedicati per per lo scrolling o il super fx di super nintendo oppure... Bho, al momento non mi viene in mente altro .
__________________
MERCATINO: Transazioni Positive 55, ultima: eddysar Negative 3: knaiv, dottorcapone, Sir Alamon.

https://www.stopkillinggames.com/
kamon è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 19:07   #46
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Realtà virtuale su console = 1080p con filtri attivi e 60fps.

Siccome pochi erano i titoli che soddisfassero sti requisiti han tirato fuori ste nuove versioni.
L'HW maggiorato serve solo a garantire almeno sti 60fps con i titoli pesanti, che in VR verranno percepiti come 30 o poco più.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 19:22   #47
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da GoFoxes Guarda i messaggi
Non è che dai dettaglio agli utenti PC, lo toglio a quello console semmai, ma non si tratta comunque di assets diversi.
dipende cosa tu intendi per dettaglio...
riduce il dettaglio in termini di pixel, ma aumenti quello poligonale...che poi è quello che abbiamo assistito nel tempo con la ps3...dove i primi giochi giravano a 1280x1080, per poi scendere alla risoluzione 720p dopo 3 anni dal debutto e persino a 600p...

Ultima modifica di tuttodigitale : 26-05-2016 alle 19:30.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 19:38   #48
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Il prezzo da pagare per mettere una GPU avanzata nella 360 e' stato quello di creare un forno da pizza da piu di 200Watt totali, con danni da miliardi di dollari.
Se avessero ingegnerizzato la 360 in modo corretto, avrebbero dovuto ripensare tutto il case e il sistema di dissipazione mettendone uno moolto buono, a livello dei sistemi per overclock del PC.

Ovviamente non potevano perche avrebbero dovuto aumentare il costo della macchina, sempre se ci fossero riusciti a far stare un'accoppiata CPU+GPU da 175w in una scatola delle scarpe.

Solo dopo con la Jasper, nel 2008 credo, , passando da 90 a 60nm, hanno potuto fare una console finalmente decente.
Un buon dissipatore da PC costa anche 40€ in versione retail.
Un acquisto a di massa avrebbe portato ad un aumento di qualche decina di euro, roba minima considerando che sarebbe comunque costata molto meno di PS3 e sempre in anticipo sull'uscita.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 19:59   #49
NODREAMS
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 1370
Xbox One e PS4 sarebbero dovute uscire 1 anno prima sul mercato con questo HW...forse forse nessuno avrebbe detto niente e sarebbe stato normale parlare delle future ammiraglie già da ora.

Il ritardo voluto da MS e SONY (palesemente d'accordo sulle date di uscita), ha compromesso molte strategie, anche a cavallo di tecnologie come 4K e VR che erano alle porte.

Hanno fatto un errore, perchè avrebbero potuto gestire meglio il tutto non posticipando così tanto One e PS4, e così facendo uscire tranquillamente Xbox New e PS5 verso Ottobre 2018, senza che nessuno avrebbe detto nulla.

Comunque, spero che Microsoft faccia uscire una console di nuova concezione, con GPU, RAM e CPU nuova capaci di garandire magari giochi a 2K e 60fps poi upscalati a 4K e con inoltre un emulazione totale dei giochi di Xbox One e 360 anch'essi migliorati via emulazione dandogli maggiore risoluzione e filtri AA.
__________________
Case : Lian Li O11 Dynamic ; Motherboard : Asus ROG Strix X570 ; CPU : AMD Ryzen 9 5900X ; Cooler : NZXT Kraken Z73 ; RAM : Kingston Fury 2x16GB 3600Mhz CL16 RGB ; SSD : Samsung 980 Pro 1Tb ; GPU : Nvidia RTX 3080Ti FE ; PSU : Corsair HX1000 1000watt 80Plus Platinum.
NODREAMS è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 20:03   #50
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Si pardon
Hai ragione.

Si ci chiede allora come caspita ha fatto AMD nonostante avesse già un prodotto a shader unificati a ritardare così tanto le 2900 ed essere un fail.
C'è anche da dire che R580 delle x1900, aveva una potenza, seppur più difficile da sfruttare, enormemente superiore...550Gflops contro i 200 e spicci di xenos.
E anche la complessità, non era certo paragonabile:
384 milioni vs 220milioni..(molto meglio di PS3 sia chiaro, che è uscita con colpevole ritardo). Imho in quegli anni ha pagato anche la scelta di nvidia, di avere frequenze di clock maggiore per gli shader. Vantaggio, annullato con il passaggio ai 55nm..
Imho, più che demeriti di ATI (un disegno unificato dx10, è per sua natura meno efficiente di quello dx9 con shader dedicati con codice legacy), credo che sia stata nvidia a piazzare il colpo..

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Un buon dissipatore da PC costa anche 40€ in versione retail.
Un acquisto a di massa avrebbe portato ad un aumento di qualche decina di euro, roba minima considerando che sarebbe comunque costata molto meno di PS3 e sempre in anticipo sull'uscita.
Non saprei....ATI ha fatto un chip con architettura custom per Xbox, e quindi avrà dovuto versare quattrini anche per il suo sviluppo e tape out. Sony si è comprata i chip g71 di nvidia...

Vi ricordo anche MS, aveva ancora bisogno di farsi un nome tra i consolari....il prezzo del modello base era di 299 euro....estremamente competitivo

Ultima modifica di tuttodigitale : 26-05-2016 alle 20:12.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 20:17   #51
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Il prezzo da pagare per mettere una GPU avanzata nella 360 e' stato quello di creare un forno da pizza da piu di 170Watt totali, con danni da miliardi di dollari.
non tutta è colpa della gpu di ATI..
avevano anche un mostro di CPU, un tri-core da 3,2GHz..
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 21:16   #52
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
La CPU Cell PS3 è stata un fail.
In che senso? Perché a livello di potenza di calcolo non c'era nessuna CPU che poteva competere.

Poi che ci fossero problemi per sfruttarla è un altro paio di maniche.
Quote:
La Xbox360 aveva gli shader unificati, su PC non sono usciti assieme perchè erano ancora in fase di produzione ma già c'era il G80.
No, come ti è stato detto non c'era niente. Inoltre la GPU della XBox360 aveva persino delle funzionalità di hardware tessellation che sarebbero state introdotte soltanto con le DirectX11 su PC.
Quote:
Originariamente inviato da DjLode Guarda i messaggi
Diciamo che con le potenze delle console attuale è complicato (tocca scendere di risoluzione), con il doppio di potenza disponibile... si sta stretti. Con potenze attorno alle quattro volte come si vocifera (per XB1) ci si potrebbe stare ampiamente. Ovviamente con una risoluzione solo Full HD, per i 4K siamo ancora molto lontani con le attuali gpu appena uscite, quindi non c'è neanche da pensarci.
Col nuovo hardware il FullHD a 60FPS sarà finalmente abbordabile. Pure con modelli poligonali un po' migliorati, se le voci che circolano saranno confermate.
Quote:
Originariamente inviato da DjLode Guarda i messaggi
Questo non lo so, probabilmente portare avanti due progetti (l'XGpu e la Gpu a shader unificati) era troppo dispendioso e sono arrivati tardi...
Lo penso anch'io, ma è stato anche molto comodo per Ati, perché ha potuto riciclare ricerca & sviluppo fatti per la GPU della XBox360, per le nuove GPU per PC.
Quote:
Originariamente inviato da kamon Guarda i messaggi
Mah, questo lo vedremo... In passato ci sono stati casi di macchine con meno forza bruta ma che grazie ad un hardware specifico per certe feature erano molto avvantaggiate rispetto ad altre che in teoria erano più potenti... Tipo chip dedicati per per lo scrolling o il super fx di super nintendo oppure... Bho, al momento non mi viene in mente altro .
Non ci sarà nulla del genere: ormai si va avanti a colpi di più shader core, e frequenze più elevate (se/quando possibile).
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Finalmente qualcuno che la pensa come me.

Io l'ho sempre detto, la Ps4 ha portato, nel momento in cui e' uscita, la migliore APU possibile.
Veramente tuttodigitale non ha detto nulla del genere.
Quote:
In proporzione e' un progetto fatto molto meglio rispetto ai vecchi hardware model, che hanno portato poi altri problemi, ovvero perdite economiche, console bruciate e difficolta estreme nella programmazione.
Ha parlato della sola GPU, e peraltro soltanto di quella della PS3.
Quote:
Sony da questo punto di vista e' cresciuta parecchio.
E' regredita, semmai, visti i risultati.
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Ci riprovo

L'Xbox 360 e' uscita a Novembre 2005, l'XBOX ONE a Novembre 2013
La Ps3 e' uscita nel Novembre 2006, la Ps4 nel Novembre 2013

Quindi , come ho detto prima, non sono 10 ma neanche 4/5.
Sono 7/8 anni.
Sì, 8 e 7 anni rispettivamente.
Quote:
Se la NEO uscisse a primavera 2017 dimezzerebbero i tempi rispetto a prima.
Perché così le console diventeranno a tutti gli effetti dei PC: cambio di hardware dopo pochi anni.
Quote:
Originariamente inviato da NODREAMS Guarda i messaggi
Comunque, spero che Microsoft faccia uscire una console di nuova concezione, con GPU, RAM e CPU nuova capaci di garandire magari giochi a 2K e 60fps poi upscalati a 4K
FullHD a 60FPS dovrebbero essere tranquillamente gestibili. Non so 2K, visto che ci sono un bel po' di pixel in più da processare.
Quote:
e con inoltre un emulazione totale dei giochi di Xbox One e 360 anch'essi migliorati via emulazione dandogli maggiore risoluzione e filtri AA.
Lato GPU non ci sarebbe alcun problema. Al momento il collo di bottiglia è rappresentato dalla CPU, che tante volte non è sufficiente per garantire una certa fluidità.

Solo che se aumenteranno soltanto di qualche decina di punti percentuali la frequenza dei core della CPU, le problematiche non saranno risolte, ma soltanto leggermente migliorate.
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Devi usarne 2, uno sulla CPU e uno sulla GPU.
Il case lo devi ridisegnare in funzione di immettere l'aria e di estrarla.
Poi le ventole devi metterle buone, se no fa casino.
Certamente. Infatti anche la Wii U fa casino, pur avendo hardware ben inferiore.
Quote:
Gia la 360 era venduta in perdita..
Ne abbiamo già parlato: di circa $100 all'introduzione, ma dopo appena un anno Microsoft guadagnava circa $75 per ogni console venduta.
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
C'è anche da dire che R580 delle x1900, aveva una potenza, seppur più difficile da sfruttare, enormemente superiore...550Gflops contro i 200 e spicci di xenos.
E anche la complessità, non era certo paragonabile:
384 milioni vs 220milioni..(molto meglio di PS3 sia chiaro, che è uscita con colpevole ritardo).
Xenos aveva anche 10MB di eDRAM, più un bel po' di milioni di transistor per un po' di logica "tipo ROP".
Quote:
Imho in quegli anni ha pagato anche la scelta di nvidia, di avere frequenze di clock maggiore per gli shader. Vantaggio, annullato con il passaggio ai 55nm..
Imho, più che demeriti di ATI (un disegno unificato dx10, è per sua natura meno efficiente di quello dx9 con shader dedicati con codice legacy), credo che sia stata nvidia a piazzare il colpo..
Non credo, visto che tanti sviluppatori sono stati costretti a utilizzare Cell per scaricargli un po' di effetti di postprocessing, per cercare di scaricare un po' di calcoli dalla GPU, che aveva già il suo bel da fare.
Quote:
Vi ricordo anche MS, aveva ancora bisogno di farsi un nome tra i consolari....il prezzo del modello base era di 299 euro....estremamente competitivo
Sì, ma non perdeva nemmeno tanto: vedi sopra.

E' Sony con la PS3 che s'è svenata, visto che ha voluto strafare, con l'integrazione dell'inutilissimo lettore BluRay in pompa magna, che le è costato un occhio della testa, ma soprattutto il ritardo di un anno per i problemi di approvvigionamento dei pick-up del laser.
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
non tutta è colpa della gpu di ATI..
avevano anche un mostro di CPU, un tri-core da 3,2GHz..
No, Xenon era "una carretta", citando testualmente lo sviluppatore di Fable 2, che è stato utente di questo forum. Se cerchi quelli dell'utente fek, ci sono un sacco di commenti che ha scritto all'epoca, e in cui si è lamentato della scarsa potenza di calcolo della CPU della XBox360.

Per la GPU il discorso era, invece, molto diverso, ma affermava che per sfruttarla adeguatamente bisognava cambiare il modo di programmarla, rispetto a una tradizionale GPU per PC. Anche questo l'ha scritto qui, da qualche parte.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 21:47   #53
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Se non ricordo male fek, che scriveva anche su multi player, parlava male anche del cell.
Sì.
Quote:
Potente per certi tipi di calcoli ma osceno per altri, tipo vado a sprazzi, qualcosa legato a istruzioni in order o robe così.
Esattamente, ma anche la CPU della XBox360 era in-order.
Quote:
Mi pare parlasse male anche della edram della 360, tipo che era difficile farci stare la res completa e infatti alcuni giochi erano a risoluzione inferiore per poi essere scalata. Bo.
Sì, servivano 3 passaggi per renderizzare a 720p@30FPS con AA 4x, se non ricordo male.
Quote:
In pratica stiamo dicendo che le vecchie console facevano schifo, difficili da programmare , costose, bollenti ecc., in pratica un compromesso un po' su tutto.
Come sempre, ma meglio delle precedenti console.

Forse a parte la prima XBox, che fra quelle vecchie è la più semplice da programmare. Ma c'è da dire che era anche di gran lunga più costosa.
Quote:
La filosofia adottata da ps4 e one in poi é migliore, c'è poco da discutere.
Mi permetto di dissentire, e ho già ampiamente spiegato il perché.
Quote:
Prezzo la lancio basso, facile da programmare, potenza giusta e ciclo vitale medio.
La XBox360 costava soltanto $100 in più, ma... a Microsoft, e non agli utenti.

Poi c'è da dire che la XBoxOne ricalca un po' quello che è stato fatto con la XBox360, avendo anche lei memoria embedded, e dunque costringendo i programmatori a fare i salti mortali per spremerla per bene.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 21:51   #54
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Xenos aveva anche 10MB di eDRAM, più un bel po' di milioni di transistor per un po' di logica "tipo ROP".
la edram non la considero, pechè è semplicemente un modo per risparmiare, sulle ram e sul pcb..se no cosa si fa, misuriamo anche le dimensioni totale dei chips montati su r580?

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non credo, visto che tanti sviluppatori sono stati costretti a utilizzare Cell per scaricargli un po' di effetti di postprocessing, per cercare di scaricare un po' di calcoli dalla GPU, che aveva già il suo bel da fare.
forse hai equivocato. Tu parli di PS3, e quindi di g70/1, che era un bel pò più lento con filtri attivi di r580.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
No, Xenon era "una carretta", citando testualmente lo sviluppatore di Fable 2, che è stato utente di questo forum. .
Su questo sono d'accordo, il mostro era riferito al consumo. Era affamato di energia.
Il modello Falcon (90nm GPU, 80nm edram e 65nm CPU) assorbiva 120W contro i 175W del modello originale...
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 22:03   #55
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
la edram non la considero, pechè è semplicemente un modo per risparmiare, sulle ram e sul pcb..se no cosa si fa, misuriamo anche le dimensioni totale dei chips montati su r580?
Quindi non consideri nemmeno l'ESRAM della XBoxOne? Se fai il conteggio dei transistor del SoC, togli quelli per questo componente?

Comunque l'eDRAM nella GPU della XBox360 serviva come framebuffer & zbuffer (se non ricordo male), ed era necessario per il rendering della scena assieme alla logica di cui sopra (che gestiva ROP, AA, e HDR).

Si tratta di un componente che fa parte della GPU, anche se è staccato (poi integrato nella versione singolo chip, e infine singolo SoC), ed è ben diverso dalla normale RAM (infatti c'è anche un bel po' di logica).
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 22:31   #56
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Quindi non consideri nemmeno l'ESRAM della XBoxOne? Se fai il conteggio dei transistor del SoC, togli quelli per questo componente?
si...lo sai meglio di me che la ESRAM è una soluzione di ripiego, a basso costo, rispetto ad una soluzione basata sulle gddr5.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 22:35   #57
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
OK, da questo punto di vista hai perfettamente ragione.

Ma l'eDRAM della XBox360 non serviva solo a quello, visto che c'era anche la logica delle ROP + AA + HDR. Xenos è nato per lavorare in un certo modo, molto diverso dalle normali GPU.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 23:07   #58
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4377
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
OK, da questo punto di vista hai perfettamente ragione.

Ma l'eDRAM della XBox360 non serviva solo a quello, visto che c'era anche la logica delle ROP
di questo fatto ne ero all'oscuro.

Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
Finalmente qualcuno che la pensa come me.

Io l'ho sempre detto, la Ps4 ha portato, nel momento in cui e' uscita, la migliore APU possibile.
ho detto un qualcosa di poco diverso....
se si dà contro alla ps4 lato GPU, non si può non trascurare il fatto che la ps3, la regina delle console della passata generazione, era messa peggio, con un HW, che per chi se lo fosse dimenticato, che non era neppure in grado di usare la combinazione HDR+AA..
Per tale motivo, non ha senso dire che le console di questa generazione sono nate vecchie...quando a differenza, sempre della ps3, sono tecnologicamente all'avanguardia.

PS parlo della ps3, perchè tra le 2 pare che abbia riscosso un maggior successo, o almeno questa è la mia sensazione

Quote:
Originariamente inviato da ambaradan74 Guarda i messaggi
In proporzione e' un progetto fatto molto meglio rispetto ai vecchi hardware model, che hanno portato poi altri problemi, ovvero perdite economiche, console bruciate e difficolta estreme nella programmazione.
Non voglio sminuire il ragionamento...ma 175W alla presa, sono circa 150W tra CPU, GPU e edram, potenze facilmente dissipabili (beh, dipende anche dalle dimensioni del chassis) .
sul cell, in effetti pare essere stato davvero un buco nell'acqua..

Ultima modifica di tuttodigitale : 26-05-2016 alle 23:14.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-05-2016, 23:24   #59
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
La XBox360 ha avuto più successo rispetto alla PS3, e ha avuto la miglior GPU. Infatti era persino normale che i giochi per questa console avessero HDR e AA, visto che erano quasi gratis (grazie a eDRAM + logica di cui sopra).

Cell è stato un fallimento perché era difficile da programmare. Inoltre veniva spacciato come la rivoluzione che avrebbe seppellito il PC e i suoi processori, mentre si vedeva subito (tranne per chi non capiva una mazza di architetture. E in questo forum ce ne sono stati diversi) che non fosse un processore general-purpose.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 27-05-2016, 15:32   #60
OttoVon
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 1345
Quote:
Originariamente inviato da GoFoxes Guarda i messaggi
Mi sembra molto strano.
Giuro.
Ora non so come venga implementato il timing, può essere che tra 60fps e 120fps poi non cambi nulla. Risulterebbe ingiocabile.
Un altro titolo può essere DS2, se lo giochi a 60fps le armi dimezzano la loro durata. Perché hanno vincolato diverse cose ai 30fps.

Terraria bloccato a 40fps, contro i pillars lunari si sblocca fino a 60fps.
Diventa un altro gioco.

Esempi non mancano.
OttoVon è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh OPPO Find X9 Pro: il camera phone con teleobiett...
DJI Romo, il robot aspirapolvere tutto trasparente DJI Romo, il robot aspirapolvere tutto trasparen...
DJI Osmo Nano: la piccola fotocamera alla prova sul campo DJI Osmo Nano: la piccola fotocamera alla prova ...
FUJIFILM X-T30 III, la nuova mirrorless compatta FUJIFILM X-T30 III, la nuova mirrorless compatta
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati Oracle AI World 2025: l'IA cambia tutto, a parti...
Donald Trump e Xi Jinping si sono incont...
OPPO Reno12 F 5G in offerta super: fotoc...
ECOVACS GOAT O800 RTK: il robot tagliaer...
SUSE Linux Enterprise Server 16: il prim...
Universal Music Group e Udio fanno pace ...
Samsung fa il pieno con l'AI: profitti a...
Zuckerberg: meglio investire troppo che ...
Xbox in caduta libera: vendite in calo d...
Le immagini nell'occhio dell'uragano Mel...
Anche gli USA inseguono l'indipendenza: ...
TikTok: i content creator guadagneranno ...
Nothing Phone (3a) Lite disponibile, ma ...
Emissioni globali per la prima volta in ...
Bancomat lancia Eur-Bank: la stablecoin ...
NVIDIA supera i 5.000 miliardi di dollar...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 09:23.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1