Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 08-03-2013, 13:57   #21
moddingpark
Senior Member
 
L'Avatar di moddingpark
 
Iscritto dal: Oct 2006
Città: Ovunque, da nessuna parte, nel mio case.
Messaggi: 514
Sono contento dei passi che si stanno facendo sul lato hardware delle console, o per lo meno sono contento delle decisioni prese da Sony, visto che dall'altro lato arrivano solo rumor.

E appunto per questo, penso che bisognerebbe smettere di dare troppo credito a questi rumor, o almeno si dovrebbe riportare le notizie solo dopo aver sentito almeno 2 fonti, non una sola "fonte ritenuta affidabile", altrimenti si rischia di fare la stessa magra figura di VideoGamer.com per aver diffuso rumor falsi sulla saga di Dead Space.
__________________
Cooler Master Wave Master | Corsair HX750i | Gigabyte Z97X-UD3H | Intel i5-4690K @ 4.4GHz + Noctua NH-D15S | G.Skill 16 GB DDR3-1866 @ 2400 MHz | Zotac nVidia GTX1080 Mini | Samsung SSD 840 Pro 256 GB + Seagate Ironwolf 2TB | BluRay HD-DVD Combo LG GGW-H20L | Acer H257HU 25" IPS | AIWA NSX-V25 45W x 2 RMS + Headset 5.1 Sharkoon X-Tatic Pro || Logitech G15 | Logitech G500 + Razer eXactMat
moddingpark è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 14:05   #22
Bluknigth
Senior Member
 
Iscritto dal: Oct 2005
Messaggi: 1734
Mah, indipendenemente da che architettura AMD montano (buldozzer, jaguar, o altro) non cedo che a livello di codice da fargli sgranocchiare le differenze saranno tante.
Magari qualche ottimizzazione per qualche istruzione, ma poco altro.

Come per GPU, fatti i driver non è che le architetture AMD siano cambiate completamente. Se certe istruzioni le hai in HW le metti, altrimenti le disabiliti o le attivi via software...

Per chi dice perchè non Intel:
A mio parere Intel non ha un'apu all'altezza e quindi avrebbe necessitato di un chip grafico da aafiancare, mentre la soluzione AMD credo sia tutto in uno. Pertano i costi probabileme sono inferiori, l'igengnerizzazione più semplice e probabilmente i die shrink saranno fatti in un colpo solo, senza situazioni miste.

Inolte rimanendo su architettura x86 (o AMD64 se preferite) credo si siano mantenuto il favore degli sviluppatori, con tre piattaforme archietturalemente simili (Ps4, xbox, PC)...

Bluknigth è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 14:23   #23
checo
Senior Member
 
L'Avatar di checo
 
Iscritto dal: Aug 2000
Messaggi: 17963
Quote:
Originariamente inviato da Red Baron 80 Guarda i messaggi
Sono libero di pensarlo e credo che tu abbia la facoltà di sentenziare su questo. Inoltre senza fare dell'unitile sarcasmo da mercato come te, volevo semplicemente dire che se volevano fare qualcosa di prestante avevano ben altre soluzioni invece che una cpu octo AMD. Bastava un quadcore Intel, ad esempio, che costerebbe anche meno. Non è fanboysmo che vorresti far credere, ma semplicemente un dato di fatto, visto che nel comparto CPU AMD non sta per niente brillando al momento. Tanto si sa che la faranno pagare più di quanto vale. Già la PS4 in preordine sta a 600€. I geni saranno loro a fare se cavolate e ancora di più chi la compra, secondo me.
ti ripeto che se entrambe hanno scelto una cpu amd ci sarà un motivo no? o pensi facciano a caso?Probabilemnte ncesettitavano di 8 core dalle pretazioni medie anzichè 4 dalle prestazioni alte, intel pèropone qualcosa con 8 core, che non costi uno stipendio?
che amd non brilli lato cpu è palese, ma questo vale per prestazioni assolute.
che la facciano pagare più di quyanto vale non centra secondo te se piotevno mettere come dici tu una cpu che andava di più e costava meno , avendo così maggiori guadagni, non lo facevano? dai su non scadiamo sul ridicolo.
__________________
.
checo è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 14:43   #24
gioita90
Member
 
L'Avatar di gioita90
 
Iscritto dal: Aug 2007
Messaggi: 115
Quote:
Originariamente inviato da checo Guarda i messaggi
ti ripeto che se entrambe hanno scelto una cpu amd ci sarà un motivo no? o pensi facciano a caso?Probabilemnte ncesettitavano di 8 core dalle pretazioni medie anzichè 4 dalle prestazioni alte, intel pèropone qualcosa con 8 core, che non costi uno stipendio?
che amd non brilli lato cpu è palese, ma questo vale per prestazioni assolute.
che la facciano pagare più di quyanto vale non centra secondo te se piotevno mettere come dici tu una cpu che andava di più e costava meno , avendo così maggiori guadagni, non lo facevano? dai su non scadiamo sul ridicolo.
non lo fanno a casaccio è ovvio, costa semplicemente mooolto poco... già amd/ati svende su pc, figuriamoci a livelli industriali quanto si fa pagare, ad oggi abbiamo gamecube, wii, 360, wii U, ps4 e forse anche 720 che usano amd/ati

un altro motivo per cui si rivolgono ad amd/ati sono appunto le "APU" che permettono di abbattere ulteriormente i costi e di semplificare il design della console stessa e le dimensioni, facilitando pure la dissipazione del calore grazie a controller vari, gpu e cpu sulla stessa unità.

Sono sempre stato pro intel e nvidia, ma dando a cesare quel che è di cesare amd/ati si sta facendo notare non poco per le apu che attualmente ritengo sia nel panorama pc economico, sia console una ottima scelta a differenza invece dei loro prodotti per la fascia più alta dove intel e nvidia rimangono comunque una scelta migliore.

Ultima modifica di gioita90 : 08-03-2013 alle 14:46.
gioita90 è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 15:55   #25
Capozz
Senior Member
 
L'Avatar di Capozz
 
Iscritto dal: Aug 2007
Messaggi: 10227
Quote:
Originariamente inviato da Red Baron 80 Guarda i messaggi
Bastava un quadcore Intel, ad esempio, che costerebbe anche meno. Non è fanboysmo che vorresti far credere, ma semplicemente un dato di fatto.
Guarda, te lo dico da possessore di un 3570K: secondo te tra un FX 8350 ed un 3770K qual'è la differenza prestazionale in ambito gaming ? Ti rispondo io: 17% in media e praticamente zero con quei giochi che usano tutti i thread, tipo Battlefield per intenderci. Essendo pc gamer dovresti sapere meglio di me che quasi tutti i giochi sfruttano ancora due thread a dir tanto, per questo AMD ne esce svantaggiata, ma se il gioco lo programmi con l'obiettivo di usarne 8 non c'è problema. Inoltre dovresti anche sapere che con l'architettura AMD non è facile saturare le alu, ergo potrebbe permettergli di far girare il gioco e, contemporaneamente, gestire la dashboard o registrare un video di gameplay senza rallentamenti, cosa che con un procio Intel non è scontata.
In secondo luogo, intel quale gpu avrebbe potuto fornirgli ? L'HD4000 ? Così anche con una cpu della Madonna saremmo tornati alla grafica del Game Cube.
E se anche avessero scelto cpu intel e gpu amd o nvidia, non avrebbero potuto integrare il tutto in un singolo package, quindi maggiori costi di produzione e d'acquisto, più problemi di dissipazione del calore, impossibilità dell'utilizzo di memoria condivisa ecc.
AMD era la scelta ovvia, inutile inventarsi cavolate.
__________________
CM Carbide Air 540 - Thermaltake Toughpower GF A3 1200W - Asus Prime Z690-P D4 - Intel Core i7 14700K - Arctic Liquid Freezer III 280 A-RGB - 32GB Corsair Vengeance LPX 3200 - Gigabyre RTX 5070 Ti SFF - SSD Crucial T500 2TB - AOC Gaming CU34G2X
CM Q500L - OCZ ZT-650W - Asus TUF Gaming A520M Plus - AMD Ryzen 5500 - 32GB Corsair Vengeance LPX 3200 - RTX 2070 Super ROG Strix - SSD Samsung 970 EVO Plus 1TB - ASUS TUF Gaming VG27AQ1A 27"

Ultima modifica di Capozz : 08-03-2013 alle 15:59.
Capozz è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 16:11   #26
slvido
Junior Member
 
Iscritto dal: Dec 2008
Messaggi: 16
Qui c'è gente che si fa tante pugnette mentali.

Credo che il motivo principale per il quale sia MS che Sony hanno scelto AMD è il prezzo. Non state nemmeno a dire che non Intel non costa poi così tanto di più e bla bla vari: sapete che accordi hanno preso? sapete di che volumi si parla? no, quindi evitiamo di sparare cavolate.
questo detto sopra è un fatto innegabile, ora vango alla mia opinione personale.
Secondo me, Bulldozer ha fatto flop in ambito PC per un motivo molto semplice, l'architettura non è adatta al software attuale.
Secondo me, se il software fosse scritto e costruito esclusivamente per andare su un bulldozer, potremmo vedere dei risultati sorprendenti. ma attenti, questa è solo una mia opinione.
Altra cosa, le console hanno sicuramente bloccato l'evolzione dei giochi, ma vi ricordate quando sono uscite le attuali console? che pc servivano per far girare i loro giochi? e con questo ho finito
slvido è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 16:20   #27
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21412
Quote:
Originariamente inviato da The Pein Guarda i messaggi
Ma fai davvero? perchè il problema è la ddr3 secondo te?

E' la scheda video che processa, almeno una 7970 ci vuole
ovviamente stai scherzando


perchè quei babbioni degli ingegneri AMD sulla 7970 montano delle gddr5 a 6ghz con bus a 384bit che forniscono 288Gb/s di banda...se per ipotesi monteresti delle memorie che forniscono 68gb/s di banda sulla 7970 quest'ultima in 1080p e con AA andrebbe "un pelo" meno, perchè creeresti un bel collo di bottiglia alla gpu che non vierrebbe foraggiata a sufficienza, cosa che renderebbe semplicemente stupido l'utilizzo di un chip così complesso per farlo andare comunque meno mantenendo in compenso il costo più elevato, il consumo e la produzione di calore. Troppa gente qua dentro pensa che la velocità della memoria non conti perchè fa l'errore di confontare le prestazioni che si hanno al passaggio di una ddr3 1600 ad una 2133 dimenticando bellamente che in un PC la GPU dispone della propria memoria mooolto piu' veloce di quella di sistema...Quanto alla scelta di di cpu AMD c'è da dire che nascendo come hw unico ne potranno sfruttare al 100% le caratteristiche dell'architettura e ovviamente sfruttare tutti i core, non è possibile fare un confronto 1:1 con la stessa gpu usata in ambito PC laddove il software deve girare su hardware profondamente differente e mantenere compatibilità totale. Tra l'altro al giorno d'oggi la cpu influisce relativamente poco sulla maggioranza dei giochi rispetto ad una ottima vga sulla quale gravano i calcoli piu' pesanti, e dal momento che non si prevede da domani una IA prossima a quella di "Io robot" ho seri dubbi che la potenza della cpu possa porre limiti seri agli sviluppatori a meno che non vogliano simulare 10.000 NPC ognuno con la propria IA personalizzata in real time tutti simultaneamente su schermo. E' assolutamente OVVIO che le economie di scala sono prese in primissima considerazione, ma sempre in relazione a quanto chiesto dagli sviluppatori (che non hanno chiesto 100Tflop, ma si sono premurati di avere a disposizione molta memoria in piu' che risorse di calcolo esagerate rispetto le precedenti macchine)
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 08-03-2013 alle 16:47.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 16:22   #28
Zifnab
Senior Member
 
Iscritto dal: Feb 2008
Città: Breme City ;-P
Messaggi: 429
Stai bene a vedere che forse è la volta che vediamo VERAMENTE il massimo potenziale di Buldozer/Piledriver o quello che sarà, e della sua architettura. Chissà che magari anche chi sviluppa per pc si dia del rimbambito!!!
Zifnab è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 16:31   #29
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21412
Quote:
Originariamente inviato da slvido Guarda i messaggi
Secondo me, se il software fosse scritto e costruito esclusivamente per andare su un bulldozer, potremmo vedere dei risultati sorprendent

il punto è che esattamente cio' che faranno con l'hardware delle nuove console

EDIT: tieni però presente "per far andare i giochi console su PC" anziche fare un confronto diretto dovresti: abbassare il dettaglio delle texture, andare a720p, ridurre/eliminare i filtri e acontentarti di 30fps, ergo non ti serve molta piu' potenza di quella di una console, anche se certo un minimo in più si ( anche perchè a momenti manco lo trovi un'hardware cos' poco potente sul mercato a meno di no nstare su una gpu integrata )
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 08-03-2013 alle 16:44.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 16:52   #30
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21412
Quote:
Originariamente inviato da Zifnab Guarda i messaggi
Stai bene a vedere che forse è la volta che vediamo VERAMENTE il massimo potenziale di Buldozer/Piledriver o quello che sarà, e della sua architettura. Chissà che magari anche chi sviluppa per pc si dia del rimbambito!!!
se non dico castronerie (chiedo venia se ricordo male) bulldozer si comporta molto bene e supera l'i7 3770k in Crysis3 proprio perhè vengono spremuti meglio i core aggiuntivi
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 17:33   #31
moddingpark
Senior Member
 
L'Avatar di moddingpark
 
Iscritto dal: Oct 2006
Città: Ovunque, da nessuna parte, nel mio case.
Messaggi: 514
Quote:
Originariamente inviato da Capozz Guarda i messaggi
Guarda, te lo dico da possessore di un 3570K: secondo te tra un FX 8350 ed un 3770K qual'è la differenza prestazionale in ambito gaming ? Ti rispondo io: 17% in media e praticamente zero con quei giochi che usano tutti i thread, tipo Battlefield per intenderci. Essendo pc gamer dovresti sapere meglio di me che quasi tutti i giochi sfruttano ancora due thread a dir tanto, per questo AMD ne esce svantaggiata, ma se il gioco lo programmi con l'obiettivo di usarne 8 non c'è problema. Inoltre dovresti anche sapere che con l'architettura AMD non è facile saturare le alu, ergo potrebbe permettergli di far girare il gioco e, contemporaneamente, gestire la dashboard o registrare un video di gameplay senza rallentamenti, cosa che con un procio Intel non è scontata.
In secondo luogo, intel quale gpu avrebbe potuto fornirgli ? L'HD4000 ? Così anche con una cpu della Madonna saremmo tornati alla grafica del Game Cube.
E se anche avessero scelto cpu intel e gpu amd o nvidia, non avrebbero potuto integrare il tutto in un singolo package, quindi maggiori costi di produzione e d'acquisto, più problemi di dissipazione del calore, impossibilità dell'utilizzo di memoria condivisa ecc.
AMD era la scelta ovvia, inutile inventarsi cavolate.
Quoto.
__________________
Cooler Master Wave Master | Corsair HX750i | Gigabyte Z97X-UD3H | Intel i5-4690K @ 4.4GHz + Noctua NH-D15S | G.Skill 16 GB DDR3-1866 @ 2400 MHz | Zotac nVidia GTX1080 Mini | Samsung SSD 840 Pro 256 GB + Seagate Ironwolf 2TB | BluRay HD-DVD Combo LG GGW-H20L | Acer H257HU 25" IPS | AIWA NSX-V25 45W x 2 RMS + Headset 5.1 Sharkoon X-Tatic Pro || Logitech G15 | Logitech G500 + Razer eXactMat
moddingpark è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 18:00   #32
ice_v
Senior Member
 
L'Avatar di ice_v
 
Iscritto dal: Dec 2008
Città: Oderzo
Messaggi: 2867
Quote:
Originariamente inviato da Red Baron 80 Guarda i messaggi
Più che una scimmia, io ci vedrei un chiaro tentativo di fare un passo in avanti senza però perderci troppo. Insomma del tipo "Compriamo qualcosa che vada bene e che ce lo diano ad un prezzo stracciato tanto non dobbiamo fare chissà che giochi e vendiamolo come un miracolo". Avrei parlato così lo stesso se si fosse trattato di altro HW. Voglio solo dire che hanno sparato la bomba dell Octo-Core per impressionare ma a vedere poi in concreto non ci saranno poi chissà che passi avanti. Ecco perché avevo parlato di un quadcore Intel, perché usare una stessa cpu di quest'ultima a otto core sarebbe stato un suicidio in materia di costi.
Insomma per farvela in breve, sto parlando di una questione meramente economica. Tutto qua.
Premetto che sono anch'io un giocatore PC convinto...e sono il primo che si ribella di fronte a certi giochetti di marketing e mosse al limite dello squallido, da parte di certe realtà high tech, con magari a volte la giusta dose d'insulti...ma sono anche tra i primi che se la spassano quando il pollame abbocca alle suddette frottole...ho goduto come un riccio al debutto di D3, mi sono fatto qualche buona risata di fronte agli scandali The War Z e Aliens: C.M. e trovo altamente divertente l'attuale situazione di disaggio in cui navigano coloro che hanno preordinato/acquistato al day1 il recente SimCity...stesso discorso vale per l'utenza apple che sono probabilmente quella specie di fanboy più disinformata di sempre...e per fortuna ultimamente si stanno prendendo abbastanza merda pubblicamente e a 360° gradi:

http://www.youtube.com/watch?v=wFeC25BM9E0


http://www.youtube.com/watch?v=ew6fv9UUlQ8


...imho manca solo che diventi accettabile l'equazione omofobica che l'Iphone è un prodotto studiato appositamente per l'utenza gay, con annesse battutine e vedi tutti quanti che cambiano telefono, allo stesso modo della fine della moda dei rollerblade: tutti ce li avevano, tutti i ragazzini ne volevano un paio...ci si divertiva a metter degli ostacoli e fare slalom e trucchetti vari ...e bastato QUEL tipo che in una giornata calda si è messo uno spandex bello attillato, magari con tanto di granita e cannuccia fissa in bocca ...ed è stata la fine della moda dei rollerblade



Quote:
Originariamente inviato da Capozz Guarda i messaggi
Guarda, te lo dico da possessore di un 3570K: secondo te tra un FX 8350 ed un 3770K qual'è la differenza prestazionale in ambito gaming ? Ti rispondo io: 17% in media e praticamente zero con quei giochi che usano tutti i thread, tipo Battlefield per intenderci. Essendo pc gamer dovresti sapere meglio di me che quasi tutti i giochi sfruttano ancora due thread a dir tanto, per questo AMD ne esce svantaggiata, ma se il gioco lo programmi con l'obiettivo di usarne 8 non c'è problema. Inoltre dovresti anche sapere che con l'architettura AMD non è facile saturare le alu, ergo potrebbe permettergli di far girare il gioco e, contemporaneamente, gestire la dashboard o registrare un video di gameplay senza rallentamenti, cosa che con un procio Intel non è scontata.
In secondo luogo, intel quale gpu avrebbe potuto fornirgli ? L'HD4000 ? Così anche con una cpu della Madonna saremmo tornati alla grafica del Game Cube.
E se anche avessero scelto cpu intel e gpu amd o nvidia, non avrebbero potuto integrare il tutto in un singolo package, quindi maggiori costi di produzione e d'acquisto, più problemi di dissipazione del calore, impossibilità dell'utilizzo di memoria condivisa ecc.
AMD era la scelta ovvia, inutile inventarsi cavolate.
Ecco questo già mi pare uno discorso che ha senso...grazie.

Ultima modifica di ice_v : 08-03-2013 alle 18:06.
ice_v è offline   Rispondi citando il messaggio o parte di esso
Old 08-03-2013, 20:04   #33
fra888
Member
 
Iscritto dal: Dec 2010
Messaggi: 33
Poi per microsoft c'è un ulteriore fattore, secondo me, per cui per Ms è importante supportare amd, in questi tempi amd se la sta vedendo brutta, se fallisce intel alza i prezzi dei processori e fa uscire meno novità, si vendono meno pc, e la potenza non aumenta molto, questo implica meno vendite di sistemi operativi che implica meno entrate per Ms.Io fossi in Ms manterrei lo stato attuale ovvero amd competitiva almeno nella fascia bassa, così intel non può fare quello che vuole.Inoltre poter contare su di un processore e scheda grafica dello stesso produttore può essere un vantaggio in quanto difficilmente vi saranno dei colli di bottiglia.Più giustamente tutto il discorso di capozz
fra888 è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 01:21   #34
bronzodiriace
Senior Member
 
Iscritto dal: Feb 2004
Città: Napoli
Messaggi: 19942
Fondamentalmente in questa generazione di console (Wii U-Ps4-X720) adottano/eranno soluzioni in cui tutto il carico più pesante è gestito da una gpu "prestante" (metto il virgolettato in confronto al pc) e da una cpu molto più ottimizzata al gioco rispetto anche a frequenze più basse e sopratutto con un ottimo rapporto prestazioni/consumi. Ma sopratutto l'avere a disposizione 32mb di ed-ram/e-sram che fà realmente comodo ai vari sviluppatori.
__________________
Pc1Phanteks p600s-Arctic liquid freezer ii 360argb-9900k@5ghz - Aorus Gaming 7 - patriot viper16gb 4ghz CL16- 3080ti Fe- 970 evo plus 500gb- 840 Evo 240gb- WDBlu 1TB- Antec HCP 1200w-Sound Blaster Z-G19-Knossos--LG Cx 55.
bronzodiriace è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 12:12   #35
Capozz
Senior Member
 
L'Avatar di Capozz
 
Iscritto dal: Aug 2007
Messaggi: 10227
Quote:
Originariamente inviato da bronzodiriace Guarda i messaggi
Fondamentalmente in questa generazione di console (Wii U-Ps4-X720) adottano/eranno soluzioni in cui tutto il carico più pesante è gestito da una gpu "prestante" (metto il virgolettato in confronto al pc) e da una cpu molto più ottimizzata al gioco rispetto anche a frequenze più basse e sopratutto con un ottimo rapporto prestazioni/consumi. Ma sopratutto l'avere a disposizione 32mb di ed-ram/e-sram che fà realmente comodo ai vari sviluppatori.
Si ma Ps4 e X720 col wiiU non c'entrano proprio nulla, saranno decine di volte più potenti. La console nintendo ha ancora lo stesso processore del wii overcloccato, che a sua volta era il processore del game cube overcloccato, qui parliamo di cpu x86 di derivazione desktop, quindi un altro pianeta. Idem per la gpu.
__________________
CM Carbide Air 540 - Thermaltake Toughpower GF A3 1200W - Asus Prime Z690-P D4 - Intel Core i7 14700K - Arctic Liquid Freezer III 280 A-RGB - 32GB Corsair Vengeance LPX 3200 - Gigabyre RTX 5070 Ti SFF - SSD Crucial T500 2TB - AOC Gaming CU34G2X
CM Q500L - OCZ ZT-650W - Asus TUF Gaming A520M Plus - AMD Ryzen 5500 - 32GB Corsair Vengeance LPX 3200 - RTX 2070 Super ROG Strix - SSD Samsung 970 EVO Plus 1TB - ASUS TUF Gaming VG27AQ1A 27"
Capozz è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 13:43   #36
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7519
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
se non dico castronerie (chiedo venia se ricordo male) bulldozer si comporta molto bene e supera l'i7 3770k in Crysis3 proprio perhè vengono spremuti meglio i core aggiuntivi
infatti ti ricordi male nel migliore dei casi le 2 cpu pareggiajo ma mediamente quella intel resta superiore e anche parlando dei modelli intel un gradino piu in basso di quello citato da te.

Ultima modifica di coschizza : 09-03-2013 alle 13:54.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 13:46   #37
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7519
Quote:
Originariamente inviato da Capozz Guarda i messaggi
Si ma Ps4 e X720 col wiiU non c'entrano proprio nulla, saranno decine di volte più potenti. La console nintendo ha ancora lo stesso processore del wii overcloccato, che a sua volta era il processore del game cube overcloccato, qui parliamo di cpu x86 di derivazione desktop, quindi un altro pianeta. Idem per la gpu.
decine no saranno al massimo 3-4 volte superori (confrontando le specifiche), inoltre la nintendo no usa nessun processore della wii overcloccato ne lato cpu ne gpu sono 2 prodotti nuovi e diversi da quelli utilizzati prima.

Ultima modifica di coschizza : 09-03-2013 alle 14:06.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 15:18   #38
Capozz
Senior Member
 
L'Avatar di Capozz
 
Iscritto dal: Aug 2007
Messaggi: 10227
Quote:
Originariamente inviato da coschizza Guarda i messaggi
decine no saranno al massimo 3-4 volte superori (confrontando le specifiche), inoltre la nintendo no usa nessun processore della wii overcloccato ne lato cpu ne gpu sono 2 prodotti nuovi e diversi da quelli utilizzati prima.
Ma non è vero, è un IBM power pc 750CL a 1.2 ghz, sostanzialmente la stessa della wii, cambia solo il clock. La gpu invece è completamente diversa, ma comunque molto inferiore a quelle che monteranno x720 e ps4.
__________________
CM Carbide Air 540 - Thermaltake Toughpower GF A3 1200W - Asus Prime Z690-P D4 - Intel Core i7 14700K - Arctic Liquid Freezer III 280 A-RGB - 32GB Corsair Vengeance LPX 3200 - Gigabyre RTX 5070 Ti SFF - SSD Crucial T500 2TB - AOC Gaming CU34G2X
CM Q500L - OCZ ZT-650W - Asus TUF Gaming A520M Plus - AMD Ryzen 5500 - 32GB Corsair Vengeance LPX 3200 - RTX 2070 Super ROG Strix - SSD Samsung 970 EVO Plus 1TB - ASUS TUF Gaming VG27AQ1A 27"
Capozz è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 20:37   #39
Vul
Senior Member
 
Iscritto dal: Nov 2006
Messaggi: 6824
Quote:
Originariamente inviato da Red Baron 80 Guarda i messaggi
No scusami ma stai dicendo una cavolata. Prima di tutto io non voglio fare l'ingegnerino da forum, secondo date troppa fiducia e troppo credito a persone che definisci "hanno studiato". Non è che chi ha studiato sia sempre una mente eccelsa, anzi spesso è più ottusa di chi invece ha fatto da se. E ce ne sono di esempi a cominciare da Jobs e Gates.
Non credo proprio che i giochi vadano 5-6 volte più che un PC medio visto che è testato che i giochi da console girerebbero perfino su un portatile vista la bassa qualità. 10 anni per svilluppare una console che quando uscirà sarà già obsoleta in confronto ad un qualsiasi PC di stesso prezzo non mi sembra una gran genialata, anzi. Il ragionamento PC vs Consolle si può fare e come visto che l'architettura alla base è sempre quella. CPU+MB+Ram+VGA+HDD. Dubito che la CPU presa in considerazione sia più adatta. Diciamo piuttosto che preferiscono usare una CPU che costa meno facendoti pagare il tutto molto più del suo valore reale. Pensaci bene tu e quelli che non la pensate come me. Siamo qui per parlare non per dar ragione ed inginocchiarci davanti ad un miracolo che miracolo non è.:
Ma cosa diavolo dici?
Ma cosa diavolo stai dicendo?

A 8, 8 anni dalla release della 360 portatili di fascia medio bassa in full hd vanno ancora peggio di una 360. 8 anni.

Io possiedo un acer 5750g.

Facciamo il confronto, 360/mio portatile:
cpu 1 core 3 ghz, cpu 4 core 2.4 ghz con turbo boost
512 MB gddr3 700 mhz condivise fra scheda video e cpu, 4 gb ram ddr 3 1066 + 2 gb gddr 5 a 900 mhz
scheda video derivata da x1800, 500 mhz, contro una scheda video da 700/1600 di 4 generazioni dopo.

Ecco, è palese quanto il mio portatile sia infinitamente superiore lato hardware di una 360, e guarda un pò? Col cavolo che faccio girare arkham city anche con tutto al minimo a 1920. E altri giochi che sono sia su xbox che su pc vanno estremamente meglio su 360, più fluidi, più belli, di un portatile di fascia medio bassa uscito otto anni dopo.

Quindi, per carità di dio, smetti di confrontare architetture console con quelle pc, non hanno niente a che vedere l'una con l'altra, sono disegnate letteralmente in maniera differente e i giochi vengono progettati in modo da sfruttare al meglio uno specifico hardware.

Se nella 720 ci sarà un 8 core bulldozer significa che a parità di prezzo nessun 4 core della concorrenza poteva portare a prestazioni paragonabili, non siamo su pc, siamo su architetture completamente differenti.
Vul è offline   Rispondi citando il messaggio o parte di esso
Old 09-03-2013, 22:07   #40
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7519
Quote:
Originariamente inviato da Capozz Guarda i messaggi
Ma non è vero, è un IBM power pc 750CL a 1.2 ghz, sostanzialmente la stessa della wii, cambia solo il clock. La gpu invece è completamente diversa, ma comunque molto inferiore a quelle che monteranno x720 e ps4.
perche anche la wii aveva una cpu con 3 core? mi sembra di no. Il fatto che ci sia una compatibilità binaria grazie al fatto che la tecnologia base sia la stessa non singifica che anche la cpu sia la stessa moltiplicata per 3 e con solo una frequenza superiore, si parla comunque di una cpu nata 7 anni dopo.

la gpu è inferiore di 3-4 volte dalle specifiche emerse non decine di volte.

Ultima modifica di coschizza : 09-03-2013 alle 22:16.
coschizza è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Il rover NASA Perseverance ha ''raccolto...
NASA e ISRO hanno lanciato il satellite ...
Switch 2 ha venduto 5,82 milioni di cons...
Assassin's Creed Black Flag Remake: le m...
Cosa ci fa una Xiaomi SU7 Ultra alle por...
Promo AliExpress Choice Day: prezzi stra...
Nostalgico, ma moderno: il nuovo THEC64 ...
AVM avvia la distribuzione di FRITZ! OS ...
Super offerte Bose: le QuietComfort a me...
Epic vince (ancora) contro Google: Andro...
Sconti nuovi di zecca su Amazon: 27 arti...
Un'esplorazione del 'lato oscuro' di Fac...
Apple ha venduto 3 miliardi di iPhone da...
Grandi sconti oggi sugli spazzolini elet...
Reddit sfida Google: vuole diventare il ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 00:44.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1