Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 24-11-2007, 11:14   #21
halduemilauno
Senior Member
 
L'Avatar di halduemilauno
 
Iscritto dal: Feb 2002
Città: Discovery
Messaggi: 34710
Quote:
Originariamente inviato da zanardi84 Guarda i messaggi
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.
questo giro generazionale non è ancora finito. manca la 8800gts512. quindi spetterei a dire che non è all'altezza della situazione.



ps e mancano anche le dual gpu 3870x2, 8850gx2.
__________________
Good afternoon, gentlemen, I'm a H.A.L. computer.
halduemilauno è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 11:18   #22
Vertex
Senior Member
 
L'Avatar di Vertex
 
Iscritto dal: Apr 2004
Città: ۞۞۞ Oristano ۞۞۞ Sto giocando a: Blades of Fire
Messaggi: 4097
Quote:
Originariamente inviato da zanardi84 Guarda i messaggi
Teniamo presente che le tanto sbandierate nVidia alla fine con Crysis e Vista ottengono una clamorosa vittoria di Pirro. Saranno più veloci delle AMD (e questo non si discute), ma non riescono a garantire le prestazioni che dovrebbero essere proprie di quella fascia di prezzo.
Pertanto, visto che Crysis è il benchmark attualmente di riferimento, si può dire che se AMD ha fallito, nonostante un anno di permanenza sul mercato, nVidia alla prova dei fatti non ha certo brillato.
Spendere cifre elevatissime per poi non poter giocare al massimo della risoluzione o dei dettagli non è certo il massimo.

Pertanto, nVidia avrà sì vinto questo giro generazionale, ma non è comunque all'altezza della situazione.
Se Crysis non è ottimizzato che colpa ha Nvidia
__________________

Deepcool DN650 ● Gigabyte B450M DS3H Amd Ryzen 5 5600 G.Skill Aegis DDR4 3200 MHz (2x8 GB) MSI Radeon RX 6650 XT LG IPS237L-BN Kingston A2000 NVMe M.2 500 GB + Samsung 840 EVO SSD 250 GB + WD 2TBPS4 PRO
Vertex è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 11:46   #23
gianni1879
Bannato
 
L'Avatar di gianni1879
 
Iscritto dal: May 2004
Città: Sicily™ Trattative:Innumerevoli
Messaggi: 20620
idea molto interessante! ma sarà reale o pura fantasia di fud?
gianni1879 è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:04   #24
The_SaN
Senior Member
 
L'Avatar di The_SaN
 
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
Quote:
Originariamente inviato da OmgKllL Guarda i messaggi
allora il divaqrio prestazionale fra 3870 e 8800gt è del 15% x questo 15% in + io spendo volentieri 20 euro in + (le 8800 nn costano 250 euro...le trovi facilmente a 230...)
Facendo una media delle recensioni viene una differenza tra il 10% e il 15%.
Peró ho trovato le 8800GT a partire da 230Euro, come te.
La 3870 a 186,25 Euro.
Sono il 23,5% di differenza
The_SaN è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:06   #25
::NSM::
Senior Member
 
L'Avatar di ::NSM::
 
Iscritto dal: Feb 2006
Città: Rovato (Brescia)
Messaggi: 942
Alla Crytek hanno lavorato su schede Nvidia... ottimizzazione o no dovrebbe girare bene su quelle. Mica loro sviluppano Crysis come han voglia e aspettano che qualche GPU degna riesca a farlo girare. Crysis dovrebbe girare su queste schede: loro ci tengono a farlo girare bene. Se non vendono mezza copia perchè bisogna aspettare il 2010 chi è a perderci?

Sono ATI e Nvidia a dover correre dietro agli sviluppatori?

Quando le 8800GTX erano una novità tutti a sbavare per il salto dalla generazione precedente; ora di colpo non sono abbastanza potenti? Ma per cosa? Non ha senso.

In attinenza alla notizia perchè, se effettivamente la strada è quella della parallelizzazione, SLI e Crossfire hanno avuto così poco successo? Sperem.

/
::NSM:: è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:39   #26
FedNat
Senior Member
 
L'Avatar di FedNat
 
Iscritto dal: Jul 2007
Città: Agliana (PT)
Messaggi: 561
Quote:
Originariamente inviato da AndreaG. Guarda i messaggi
Cmq il discorso che le gpu erano già di per loro dei multicore per come erano progettate? va a farsi benedire? faranno un multicore di multicore!? oppure ci siamo sempre sbagliati con le nostre definizioni?
E' vero le GPU sono gia' estremamente parallele, non ha molto senso parlare di multi core. Personalmente credo che questa cosa dei mini-core serva dal punto di vista dell'organizzazione interna: IMHO AMD vuole raggruppare gli stream processor in gruppi funzionali indipendenti ed abbastanza autosufficenti tutti coordinati da una logica di controllo centrale.

Questo porta due vantaggi:
1) Semplifica la gestione dell'offerta tra fascia alta, media e bassa compreso il recupero di die difettosi. basta giocera sull'abilitazione dei mini.-core
2) Facilita l'estrazione di una parte della GPU per inserirla come core di una CPU (Fusion docet)

Saluti
__________________
The Wheel of Time turns, and Ages come and pass, leaving memories that become legend. Legend fades to myth, and even myth is long forgotten when the Age that gave it birth comes again. In one Age, called the Third Age by some, an Age yet to come, an Age long past, a wind rose.... The wind was not the beginning. There are neither beginnings nor endings to the turning of the Wheel of time. But it was a beginning.
FedNat è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:41   #27
Dexther
Senior Member
 
L'Avatar di Dexther
 
Iscritto dal: Oct 2004
Città: Roma
Messaggi: 26290
che sia la volta buona ..
Dexther è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:55   #28
Rufus86
Senior Member
 
L'Avatar di Rufus86
 
Iscritto dal: Sep 2005
Città: Genova
Messaggi: 410
Preciso che non si tratta di un sistema multi-GPU, come visto sinora, ma di un sistema modulare intro GPU, mai visto sinora. All'atto pratico, R700 sarebbe riconosciuta dall'applicazione come una singola GPU.

Verosimilmente i core, nella top di gamma, dovrebbero essere cinque: quello centrale di coordinamento, che dovrebbe contenere tra gli altri il memory controller, e quelli intorno contenenti le ALU e le TMU (e forse anche le ROPs).

Ben intenso, ammesso che quanto detto da Fudzilla sia vero.
__________________
Si vis pacem, para bellum.

Ultima modifica di Rufus86 : 24-11-2007 alle 13:59.
Rufus86 è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 13:59   #29
McGraw
Senior Member
 
L'Avatar di McGraw
 
Iscritto dal: Mar 2006
Città: prov. Livorno
Messaggi: 1152
"Le informazioni su R700 sono al momento piuttosto ridotte, in quanto il debutto di questa architettura non avverrà prima della seconda metà del 2008."

Correggerei con la seconda metà del 2010 mi sembra appena piu plausibile! La storia dei mini core nasce per creare economia di progetto a lungo termine senza ricorrere continuamente a nuovi progetti per ogni fascia di mercato e quindi a nuovi investimenti, lo scopo é creare un progetto agiornabile nel tempo per tre fasce di mercato, quando invece la priorità dovrebbe essere una costante ricerca delle prestazioni! Mentre nei prossimi 2 anni si apprenderanno sempre piu dettagli su R700 la concorrenza annuncerà e lancerà un'infinità di schede nuove e sempre piu potenti, poi quando AMD sarà pronta per lanciarla sul mercato e noi con le p***e piene dai discorsi e continue post date di lancio sarà una scheda superata e scavalcata SICURAMENTE per prestazioni da Nvidia!
Questa politica di AMD all'entusiamo generale non appena hanno due fogli di progetto in mano protratto per mesi e culminante con prodotti al di sotto della concorrenza non la condivido, appare piu come una presa in giro collettiva verso chi deve comprare, come una falsa soddisfazione dell'aquirente che si deve accontentare, come uno stare dalla parte di chi vuol risparmiare e che in realtà si traduce in incapacità di competere su fasce di prodotti!
Il malcontento della gente inizia a farsi sentire, speriamo che il 2008 per AMD sia un anno diverso! me lo auguro!
McGraw è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 17:38   #30
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da Bambù Guarda i messaggi
Per me dovremmo smetterla di dare le colpe a chi non le ha...
Le ultime generazioni sia AMD che NVIDIA vanno bene e di potenza ne hanno da vendere!
Il problema sta in cosa devono far girare... CRYSIS è mal programmato non è colpa dell'hardware! se tu attacchi un rimorchio da camion ad una ferrari non puoi aspettarti prestazioni da urlo! Lo stesso con i giochi mal fatti!
Purtroppo per pc è sempre stato così: per la gran quantità di periferiche leggermenti differenti tra loro non si è mai sfruttato a pieno l'hw... cosa che si fa a fondo con le console (unica piattaforma)!
è vero però che alcune case (es. EPIC) lavorano meglio di altre e i risultati si vedono!! è inutile fare giochi super belli con milioni di effetti se poi ci giochi a 30 fps o peggio ancora a scatti!
Io la penso così, dopo... a tutti piace la bella grafica ma non se va a scapito del divertimento!
Ciao
che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)

per quel che riguarda la mi esperienza personale, forse tutto dipende dalla risoluzione a cui lo si vuole giocare, ferma restando l'intenzione di tenere effetti e filtri al max o quasi: a 1280x960 va benone anche con tutti gli effetti al max (compresi quelli attivabili editando i file di configurazione e che dovrebbero essere riservati all gpu dx10 su vista) e con qualche piccola rinuncia sui filtri; questo su una "schifosa" x1900xt.
da tenere presente che probabilmente la risluzione di riferimento dell'industria videoludica è ora 1280x720 o giù di lì come num totale di pixel/frame, dato che è quella del framebuffer del 99% (se non il 100%) dei titoli delle attuali console

non mi sembra qualcuno abbia mai affermato esplicitamente che con una delle ultime gpu sia essa ati o nv si sarebbe potuto giocare crysis con tutto al max e risoluzione elevata a piacere ottenendo per es un min di fps intorno a 30 e/o una media sui 60 ... tantomeno qualcuno te lo "garantisce" quando compri la scheda video o crysis

Quote:
Originariamente inviato da McGraw Guarda i messaggi
"Le informazioni su R700 sono al momento piuttosto ridotte, in quanto il debutto di questa architettura non avverrà prima della seconda metà del 2008."

Correggerei con la seconda metà del 2010 mi sembra appena piu plausibile! La storia dei mini core nasce per creare economia di progetto a lungo termine senza ricorrere continuamente a nuovi progetti per ogni fascia di mercato e quindi a nuovi investimenti, lo scopo é creare un progetto agiornabile nel tempo per tre fasce di mercato, quando invece la priorità dovrebbe essere una costante ricerca delle prestazioni! Mentre nei prossimi 2 anni si apprenderanno sempre piu dettagli su R700 la concorrenza annuncerà e lancerà un'infinità di schede nuove e sempre piu potenti, poi quando AMD sarà pronta per lanciarla sul mercato e noi con le p***e piene dai discorsi e continue post date di lancio sarà una scheda superata e scavalcata SICURAMENTE per prestazioni da Nvidia!
Questa politica di AMD all'entusiamo generale non appena hanno due fogli di progetto in mano protratto per mesi e culminante con prodotti al di sotto della concorrenza non la condivido, appare piu come una presa in giro collettiva verso chi deve comprare, come una falsa soddisfazione dell'aquirente che si deve accontentare, come uno stare dalla parte di chi vuol risparmiare e che in realtà si traduce in incapacità di competere su fasce di prodotti!
Il malcontento della gente inizia a farsi sentire, speriamo che il 2008 per AMD sia un anno diverso! me lo auguro!
senza volre entrare nel merito del ragionamento, difficile capire da dove ti venga tanta fiducia nello "sparare" il 2010 per r700: anzi, facendo semplicemente un discorso probabilistico, vista la storia recente in cui sia nv che ati tirano fuori, che venga "bene" o "male", almeno un sostanzioso step architetturale all'anno, e visto che non c'è stato mai ancora un singolo rumor che semntisca questo ritmo come "caso peggiore", direi che la tua ipotesi sia più improbabile di una volesse l'inter non vincere lo scudetto 07/08
(secondo te il successore di r600 uscirebbe dopo circa 3 anni dalla presentazione della generazione precedente, in fondo non suona strana anche a te che l'hai pensata, sta cosa ?)
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein

Ultima modifica di MenageZero : 24-11-2007 alle 17:43.
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 17:57   #31
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
tornando all'architettura presunta di r700, ovvero modulare con un approccio multicore simile a quello delle attuali cpu, con la fascia di una gpu detreminata primariamente dal num di core che integra ...
probabilmente se così sarà, avranno vantaggi in sede di produzione rispetto all'approccio attuale ... ma concettualmente all fine non è quello che già fanno ora e da un pezzo diminuendo/aumentando le unità di esecuzione ? (oggi sono gli "stream processor", ieri si chiamavano in altro modo ma il ruolo è quello)
tanto più che si dice che in futuro non spariranno certo le variazioni sui clock e sui bit totali del bus gpu<->vram, nonché anche il mem. controller delle attuali gpu è "già multicore" se vogliamo vederla in questo modo

e poi, mettiamo che anche nel 2008 nv presenti un'arch molto ben riuscita e quindi quantomeno con un ottimo incremento di performance rispetto alle gen precedenti, un approcio del genere rende più agevole o ancora più difficile competere per il max delle prestazioni per singola gpu ?

__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 19:17   #32
MiKeLezZ
Senior Member
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26788
L'idea dei multicore è di per sé geniale, poichè si riduce di 1/4 l'impegno nella progettazione (integrata/bassa/media/alta), si crea una base comune di sviluppo (percui un eventuale UVD ci sarebbe a prescindere). Senza contare la possibilità di "spegnere core inutili".
Il problema sarà l'ottimizzazione... Se è basato su CrossFire o comunque una sua derivazione, è difficile aspettarsi una perfetta scalabilità, cosa che invece avviene tranquillamente con i chip "proprietari" (nel senso, una scheda da 128 sp è realmente il doppio più potente di una da 64 sp, ma non si può dire che due schede da 64 sp siano potenti quanto una da 128 sp).
Quote:
Originariamente inviato da goldorak Guarda i messaggi
Infatti, quello che molti si rifiutano di vedere e' che nei giochi in cui una 88xx rende anche la 3870 va bene, e laddove una 88xx arranca anche una 3870 arranca.
Non serve a niente dire la 88xx fa 20 fps in Crysis mentre la 3870 ne fa solo 15 fps perche' ne' l'una ne' l'altra sono schede idonee per giocare come si deve all'ultima fatica dei Crytek.
Bisogna saperli interpretare i dati, e non guardare solo ai numeri in assoluto.

Ps : per la cronaca ho una scheda Nvidia, metto le mani avanti per evitare di essere trattato da fanboy ATI.
Quello che dici non è corretto. Crysis mi gira a 20/25FPS con le schedine ATI e 30/35FPS con le schedine NVIDIA.
Questo è proprio l'esempio opposto, ovvero come sia possibile creare un così grande divario fra due prodotti in realtà molto simili...
10FPS di differenza spesso sono niente, nel caso di Crysis fanno la differenza fra "NON GIOCABILE" e "GIOCABILE", e questo significa tanto.
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)
Mal programmato non so... Sicuramente non è proprio fatto da dei geni della programmazione, visto che riducendo l'impatto grafico sembra molto simile a Far Cry, eppure le richieste hardware rimangono elevatissime, e non ci si schioda dai 30FPS (con saltuari stuttering). E qui Oblivion mi è subito saltato alla mente...
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 19:36   #33
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6650
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
che crisis sia malprogrammato credo sia tutto da dimostrare (ammesso che possa essere mai possibile senza stuidiarne il sorgente e considerando i propri desideri personali al posto degli obiettivi di progetto - due cose che a volte possono differire anche in maniera significativa)

per quel che riguarda la mi esperienza personale, forse tutto dipende dalla risoluzione a cui lo si vuole giocare, ferma restando l'intenzione di tenere effetti e filtri al max o quasi: a 1280x960 va benone anche con tutti gli effetti al max (compresi quelli attivabili editando i file di configurazione e che dovrebbero essere riservati all gpu dx10 su vista) e con qualche piccola rinuncia sui filtri; questo su una "schifosa" x1900xt.
Quoto.
Questa faccenda della scarsa ottimizzazione su pc è diventato un tormentone, non c'è gioco, non c'è rinnovo tecnologico che non si porti dietro questa frase...
Per contro magicamente i giochi su console invece sono sempre iperottimizzati, ignorando i cali di fps (visibilissimi anche sulle ultime console), ignorando spesso la differenza nella risoluzione utilizzata tra le diverse piattaforme, ignorando la differenza qualitativa tra pc e console.
C'è gente che con una X800 che si lamenta perchè non riesce a giocare a Bioshock o UT3, magari su un display disastrosamente immenso con una risoluzione nativa allucinante, e da la colpa alla "scarsa ottimizzazione dei giochi per pc", insomma diamoci una regolata

Io con la configurazione in sign a Bioshock sto giocando in 1280x1024 con dettagli sparati al massimo e sto sempre sopra i 30 fps, stiamo parlando di hw per certi versi preistorico e ben al di sotto della più ridicola configurazione attuale entry-level. A me non pare proprio una dimostrazione di scarsa ottimizzazione...

Una osservazione e un piccolo spunto di riflessione, nella storia dei videogiochi per pc c'è sempre stato un minimo di configurabilità dei dettagli grafici, e sebbene il progresso abbia portato a giochi visivamente sempre più belli, l'aspetto grafico è sempre stato considerato di importanza più o men secondaria rispetto al divertimento, alla giocabilità, all'esperienza di gioco.
I titoli attuali spesso hanno una granularità tale nella configurazione grafica da far vacillare anche le conoscenze del più esperto videogiocatore (se si somma anche la configurazione dei drivers video si sale a livelli da MIT), eppure nonostante questo si tende sempre a sparare tutto a razzo, se l'hw non ce la fa i casi son due, o si upgrada oppure ci si lamenta della scarsa ottimizzazione.
Ma dove sta scritto che non si possono ridurre i dettagli?
Da quando siamo diventati tutti così intransigenti da non poter sopportare un misero spigolo di poligono leggermente scalettato?
Imho stiamo diventando un po' troppo viziati, questo è il problema, non la scarsa ottimizzazione
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 19:52   #34
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da MiKeLezZ Guarda i messaggi
Mal programmato non so... Sicuramente non è proprio fatto da dei geni della programmazione, visto che riducendo l'impatto grafico sembra molto simile a Far Cry, eppure le richieste hardware rimangono elevatissime, e non ci si schioda dai 30FPS (con saltuari stuttering). E qui Oblivion mi è subito saltato alla mente...
non ho provato a vedere se segando di brutto la qualità grafica mancasse un visibile aumento di fps, quindi sul punto specifico non posso aggiungere nulla. mi sono limitato a cercare di giocarlo al max possibile, e facendo questo non ho avuto la sensazione di una "pesantezza" seriamente eccessiva (dopotutto graficamente non credo ci sia di meglio in giro attualmente ed io non è che l'ho fatto girare su una 8800ultra); voglio dire che la mia impressione è quantomeno che ci siano stati titoli di primo piano o presunti tali con un "rapporto pesantezza / qualità / hw usato" nettamente peggiore (tipo vegas... e spesso neanche sembra che abbia l' U.E.3 ...)

forse la poca scalabilità degli fps rispetto alle impostazioni grafiche potrebbe essere dovuta magari ad un numero di poligoni totale che rimane cmq elevato, ad aspetti che pesano più sulla cpu come "fisica" e "i.a."... cioè per dire aspetti che anche quando faccio avvicinare la qualità visiva ad un far cry, forse rimangono nettamenete più pesanti computazionalmente di quanto lo fossero le rispettive implementazioni del primo capitolo, e magari tanto pesanti da non essere una "piuma" per l'hw attuale (ammesso che quanto appena detto possa essere una ipotesi sensata , se poi ciò sia in sé da considerare cmq un grave difetto o meno, non lo so )
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2007, 20:05   #35
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da Tasslehoff Guarda i messaggi
...
Io con la configurazione in sign a Bioshock sto giocando in 1280x1024 con dettagli sparati al massimo e sto sempre sopra i 30 fps, stiamo parlando di hw per certi versi preistorico e ben al di sotto della più ridicola configurazione attuale entry-level. A me non pare proprio una dimostrazione di scarsa ottimizzazione...
occhio alle parole, visto che , a quanto pare, se c'è una costante nell'informatica "domestica", è che, per giocare ai super-titoloni del momento, quando anche una nuova generazione di chip grafici dovessero prenderla direttamente da una astronave aliena, le gpu entry-level faranno sempre schifo visto che pare debbano essere sempre inferiori quantomeno alla fascia media di generazione precedente e di generazione in generazione con un divario sempre crescente con le fasce superiori contemporanee ....
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2007, 10:51   #36
Oireen
Junior Member
 
Iscritto dal: Apr 2007
Messaggi: 24
Come scegliere il male minore

Un unico appunto personale. All'uscita la 8800GTX (che tuttora posseggo) era decantata come la prima (e migliore) scheda video per Windows (s)Vista.

All'uscita di Vista (dopo 18 mesi più o meno di betatesting) non c'era UN DRIVER UNO per la 8800GTX NON BETA in grado di funzionare con Vista. Il primo driver WHQL s'è visto 1 mese dopo il lancio sul mercato del nuovo obrobrio di Microsoft.

Il primo driver con un claudicante supporto directX 10 s'è visto a fine marzo-inizio aprile 2007 mentre per lo SLI abbiamo dovuto aspettare maggio (per DX9) e metà luglio per DX10. Ed ancora, ad ogni titolo rilasciato per DirectX10 nVidia rilascia un nuovo driver video (e a me sa di cheating) per ottenere delle prestazioni accettabili. Basti vedere il susseguirsi di drivers... Lost Planet, Call of Juarez, World in Conflict, Crysis...

C'è poi la vicenda alta definizione... Ho comprato quella scheda dopo le acclamate promesse di nVidia di un supporto alla decodifica HD per Bluray e HD-DVD. Avete mai provato a collegare una TV LCD via HDMI (con cavo DVI-HDMI) ? E' già un mezzo miracolo se riuscite a far si che il driver imposti la risoluzione ed abiliti il display. Lanciate poi un player e sappiatemi dire. La protezione HDCP funziona così bene che per poter vedere un HD-DVD sul mio TV Samsung da PC devo usare AnyDVD HD per bypassare la protezione del supporto.

Io sono stato un fanboy di nVidia per ANNI. Ma con questa scheda mi hanno davvero fatto cadere i contrappesi. Spero che ATi, ora AMD-ATi sappia fare qualcosa di meglio con le future architetture.

Con qualche anno di esperienza nel campo di PC ed assemblaggio mi sento di dire solo una cosa. I numeri contano poco. FPS, 3DMark etc. L'importante è che i consumatori non vengano presi per i fondelli con promesse non mantenute in cambio di un prodotto estremamente costoso e rapidamente condannato all'obsolescenza.

Cert'è che il mio prossimo upgrade non vedrà un'altra "the way is meant to be played" montata sulla mia macchina... nel frattempo gioco ad Assassins Creed sulla PS3 :P

Buone feste a tutti quanti!
Oireen è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2007, 11:20   #37
M4R1|<
Senior Member
 
L'Avatar di M4R1|<
 
Iscritto dal: Jul 2006
Messaggi: 4801
su fudzilla si dice anche che dovrebbe avere un potenza complessiva di 2Tflops. òa 8800ultra in super oc nn arriva nemmeno a 500Gflops, se fosse vero con la prossima generazione si vedrebbero delle schede che sono quasi 4 volte più potenti di tutte le attuali!!!!
M4R1|< è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2007, 11:32   #38
Defragg
Senior Member
 
L'Avatar di Defragg
 
Iscritto dal: Mar 2006
Messaggi: 8605
Quote:
Originariamente inviato da halduemilauno Guarda i messaggi
questo giro generazionale non è ancora finito. manca la 8800gts512. quindi spetterei a dire che non è all'altezza della situazione.



ps e mancano anche le dual gpu 3870x2, 8850gx2.
Parliamo per il presente, del domani non c'è certezza.
__________________
Steam Deck OLED 2 TB | Ryzen 7 7700 — 2x16GB Corsair Dominator Platinum 6400 MHz — PowerColor Hellhound RX 7700 XT
Trattative OK: 1mp3r4t0r, armenico11, Babumba92, CoolBits, Drigerott, gino1221, k.o.z, Macco, Mastermarcox, Mone_82, stacker, Velvet, Vladimiro Bentovich, frupoli, Sheva77, deg626, HcK190, Godmar, Simonxp, LCol84, pp2k, xeno the holy, SamuTnT, fantacaz
Defragg è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2007, 11:40   #39
M4R1|<
Senior Member
 
L'Avatar di M4R1|<
 
Iscritto dal: Jul 2006
Messaggi: 4801
Quote:
Originariamente inviato da Marcus Scaurus Guarda i messaggi
Ecco a che serviva R600... A preparare questa... A partire dal ringbus che non ha garantito il salto prestazionale sperato e gli shader unificati... Ecco dove andava a parare Ati... Però cavolo se sta parata è costata...
imho verissimo ati si è fatta le ossa per programmare R600 e credo che molte cose nn siano più così difficili con R700

Quote:
Originariamente inviato da Rufus86 Guarda i messaggi
Preciso che non si tratta di un sistema multi-GPU, come visto sinora, ma di un sistema modulare intro GPU, mai visto sinora. All'atto pratico, R700 sarebbe riconosciuta dall'applicazione come una singola GPU.

Verosimilmente i core, nella top di gamma, dovrebbero essere cinque: quello centrale di coordinamento, che dovrebbe contenere tra gli altri il memory controller, e quelli intorno contenenti le ALU e le TMU (e forse anche le ROPs).

Ben intenso, ammesso che quanto detto da Fudzilla sia vero.
secondo te potrebbe essere vero fare una vga da 2Tflops? utilizzando quest'architettura? in fondo dalla precedente generazione all'attuale si è "solo" raddoppiata la potenza elaborativa, ma qui si parla di quadruplicare, fattibile?
__________________
2x Xeon E5-2630 v4 ES QK3G - SuperMicro X10DRi - 128GB Crucial LRDIMM 2400MHz - LSI 9211-8i - 8x Samsung 850 EVO 500GB
Core i7-7700k - Cooler Master MasterLiquid Pro 280 - Gigabyte Z270X Gaming 7 - 32GB Corsair Dominator 3000MHz CL15 - EVGA GTX 1070 FTW - Crucial MX300 525GB

Twitter - LinkedIn
M4R1|< è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2007, 11:47   #40
MiKeLezZ
Senior Member
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26788
Quote:
Originariamente inviato da M4R1|< Guarda i messaggi
imho verissimo ati si è fatta le ossa per programmare R600 e credo che molte cose nn siano più così difficili con R700
Generalmente i team di lavoro sono due e lavorano in modo alterno, percui R700 sarà fatto da altri ragazzi, mentre quelli che han lavorato su R600 stanno ora progettando R800.
E poi è un discorso che deve esser fatto in due direzioni, come se l'è fatte ATI, se l'è fatte pure NVIDIA (e a quanto pare dalle prestazioni, anche in modo più efficace).
Quote:
Secondo te potrebbe essere vero fare una vga da 2Tflops? utilizzando quest'architettura? in fondo dalla precedente generazione all'attuale si è "solo" raddoppiata la potenza elaborativa, ma qui si parla di quadruplicare, fattibile?
Per R700 si parla di "mini-core", percui i 2TF possono anche esser solo un'indiscrezione nata dal calcolo 1 mini-core = 500GF; 4 mini-core = 2TF , che ovviamente per ora è buona solo sulla carta...
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Il telescopio spaziale James Webb ha cat...
Amazon scatenata nel weekend: sconti sug...
Pulizia per 45 giorni senza pensieri: il...
Apple taglia il prezzo degli AirPods Pro...
Tutti i MacBook Air M4 2025 da 13 pollic...
Roborock QV 35A a 429€ o Dreame L40 Ultr...
SpaceX Starship: Ship 37 ha eseguito due...
Sharkoon punta sui case a basso costo, m...
La tua rete Wi-Fi fa pena? Questi FRITZ!...
Amazon, un weekend di fuoco per gli scon...
Ancora 3 smartwatch Amazfit in forte sco...
Sharkoon A60 RGB: dissipatore ad aria du...
HONOR 400 Pro a prezzo bomba su Amazon: ...
Offerte da non perdere: robot aspirapolv...
Apple Watch e Galaxy Watch ai minimi sto...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 03:38.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1