Torna indietro   Hardware Upgrade Forum > Giochi > Giochi per PC

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 15-01-2004, 07:30   #1
abracadabra84
Senior Member
 
L'Avatar di abracadabra84
 
Iscritto dal: Oct 2002
Città: Catania
Messaggi: 512
Doom 3- The way it's meant to be played?

Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....)
abracadabra84 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 08:21   #2
Redvex
Senior Member
 
L'Avatar di Redvex
 
Iscritto dal: Apr 2002
Città: Nosgoth
Messaggi: 16890
Mah anke se non fosse meant to be ecc ecc se uscisse sarebbe già un miracolo
__________________
Redvex è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 09:05   #3
Korn
Senior Member
 
L'Avatar di Korn
 
Iscritto dal: Jul 2000
Città: La città più brutta della Toscana: Prato
Messaggi: 6704
Re: Doom 3- The way it's meant to be played?

Quote:
Originariamente inviato da abracadabra84
Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....)
lo conosci il marketing?
Korn è online   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 09:14   #4
R@nda
Senior Member
 
L'Avatar di R@nda
 
Iscritto dal: Jun 2002
Messaggi: 15163
Re: Re: Doom 3- The way it's meant to be played?

Quote:
Originariamente inviato da Korn
lo conosci il marketing?
E tu lo conosci il reale significato di quella sigla?
Non c'entra il marketing....e nemmeno che Nvidia ha pagato quella
software House per far andare meglio il gioco sulle sue schede.
Significa solo che Nvidia ha collaborato con loro allo sviluppo del gioco....per accertarsi che con le sk video Nvidia non ci sia nessun problema di compatibilità con il gioco.

E' stato spiegato bene da Nvidia all'ultimo meeting che avevano organizzato..non ricordo il nome della manifestazione.

Quindi non significa che va più veloce o meglio con sk Nvidia....ma solo che ci va senza nessun problema...e direi anche ben venga

Tutto qui...
__________________
Christopher Hinz - Ciclo Paratwa -
R@nda è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:12   #5
Korn
Senior Member
 
L'Avatar di Korn
 
Iscritto dal: Jul 2000
Città: La città più brutta della Toscana: Prato
Messaggi: 6704
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia

Ultima modifica di Korn : 15-01-2004 alle 10:46.
Korn è online   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:41   #6
Deuced
Senior Member
 
L'Avatar di Deuced
 
Iscritto dal: Jun 2002
Città: Salerno
Messaggi: 4636
Quote:
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare lo "scarsa" gpu nvidia


l'ha detto r@nda,perchè hanno collaborato allo sviluppo del gioco.E' ovvio che poi per aumentare la compatibilità forniscono informazioni più dettagliate sulle loro schede e drivers.


Doom 3 all'e3 girava su una 9700 in fin dei conti...
Deuced è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:48   #7
cesko
Senior Member
 
L'Avatar di cesko
 
Iscritto dal: Mar 2000
Città: Padova
Messaggi: 456
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S
__________________
Desktop: CM Stacker | Corsair 550VX | ASUS P7P55D Deluxe | i7 860 | Noctua NH-U12P SE2 | 8GB Corsair XMS3 1600Mhz | GTX260 Gainward GS 216SP | Viewsonic G90f+B
Notebook: ASUS V6800V | Pentium M 760 (2GHz) | 2GB DDR2 | X600 64MB | 80GB 5400RPM _Affari
cesko è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 11:05   #8
R@nda
Senior Member
 
L'Avatar di R@nda
 
Iscritto dal: Jun 2002
Messaggi: 15163
Quote:
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia
Ma quale scarsa....
Anche qui ti dico di informarti....l'architettura nv30 nv35 è diversa
da quella di Ati e va prgrammata a modo.
Tanto che devono uscire le Dx9.1 per risparmiare in parte questo lavoro ai programmatori.

Insomma....finiamola con le solite polemiche Nvidiane...

Intanto sto cavolo di gioco,che comunque andrà su qualsiasi tipo di scheda dx8.1 dx9 non esce mai,questo è quello che conta.
__________________
Christopher Hinz - Ciclo Paratwa -
R@nda è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 11:22   #9
Redvex
Senior Member
 
L'Avatar di Redvex
 
Iscritto dal: Apr 2002
Città: Nosgoth
Messaggi: 16890
Eppoi il progetto nv35 non è male soprattutto vedendo le 5700ultra 5900 xt
__________________
Redvex è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:15   #10
ray_hunter
Senior Member
 
L'Avatar di ray_hunter
 
Iscritto dal: Dec 2002
Città: Vicenza
Messaggi: 4696
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.
Di fatto molti però ottimizzano i giochi per le FX, mentre le ATI vanno molto bene anche con driver generici.
Qualche mese fa J.C. disse che avrebbe fatto una modalità specifica per NV30 mentre le 9700/9800 non la avrebbero avuta dato che in Doom III erano già spremute al max con la modalità standard. Con tale modalità le FX andavano male perciò ha dovuto implementare delle limitazioni nella modalità NV30 che però non incidono nell'aspetto visivo complessivo.
In tal modo sulle FX Doom III gira un po' più fluido che sulle ATI anche se con delle semplificazioni nella visualizzazione degli shader's (di quella intervista mi ricordo, si discusse molto in questo forum).
Un punto a favore delle FX è lo stencil shadows che fa si che in giochi con illuminazione i tempo reale come Doom III vadano benissimo.

L'architettura tra ATI e Nvidia è sicuramente molto diversa.
Personalemente preferisco le scelte di ATI, ma le FX, in particolare NV35 e NV36 sono delle schede molto buone.
__________________
<CPU>9800X3D<MB>GIGABYTE X870 GAMING X WIFI7<HEATSINK>ARTIC LC III PRO 360 A-RGB<RAM>16x2GB DDR5 G.Skill Trident Z5 NEO RGB 6000Mhz CL30<GPU>Zotac RTX 5090 AMP Infinity Extreme 32G<SSD>Intel 760P PCIe3.0 M.2 NVMe 256GB<SSD>Crucial MX 500 SATAIII M.2 1TB<SSD>Corsair MP600 PCIe4.0 M.2 NVMe 2TB<PSU>Corsair HX1200i<CASE>NZXT H710i<DISPLAY>LG OLED48C14LB
ray_hunter è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:20   #11
shambler1
Senior Member
 
L'Avatar di shambler1
 
Iscritto dal: Jul 2001
Messaggi: 2776
[
shambler1 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:21   #12
shambler1
Senior Member
 
L'Avatar di shambler1
 
Iscritto dal: Jul 2001
Messaggi: 2776
Quote:
Originariamente inviato da cesko
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S
secondo me no.
shambler1 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:26   #13
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da ray_hunter
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.
Beh, non mi sembra un difetto, per lo meno sino a quando si riescono a ottenere prestazioni simili alle concorrenti.
Si tratta di architetture radicalmente diverse, e nVidia da parte sua paga lo scotto di aver fatto delle scelte progettuali a mio avviso parecchio interessanti, ma non adatte a gestire al meglio le DX a meno di ottimizzare il codice. Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. Anche i 32 bit di precisione sono, per certi aspetti, importantissimi e aderenti a qualsiasi standard, ma per qualche incomprensibile motivo MS ha preferito limitarsi ai 24 bit delle DX9. ATI, supportando solo i 24 bit, non necessità quindi di ottimizzazione del codice.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:36   #14
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originariamente inviato da GMCPape
[...] Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. [...]
Se non sbaglio la tecnologia F-buffer, introdotta nella 9800pro, ha eliminato le suddette limitazioni.
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:38   #15
TheRipper
Senior Member
 
L'Avatar di TheRipper
 
Iscritto dal: Sep 2002
Città: Roma
Messaggi: 13052
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.
Sarebbe stato piu' comodo per tutti se nVidia avesse rispettato le specifiche dx9, i programmatori avrebbero avuto molto meno lavoro e i giochi che tanto stiamo aspettando sarebbero usciti molto prima.
__________________
Tag Xbox Live= Th3Ripp3r666
TheRipper è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:46   #16
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 23923
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?
Va bene che la nVidia vuole mantenere il primato per le applicazioni OpenGL, ma a parte Doom 3... quali altri videogiochi quest' anno useranno un motore scritto per le OpenGL che richieda davvero qualche innovazione tecnologica ?
Nessuno !
Si continuerà ad usare il vecchio engine di Quake 3... che comunque le schede ATI fanno girare alla stragrande, e le differenze con nVidia sono pressochè nulle.
Lo standard futuro sarà senza ombra di dubbio il Direct 3D, soprattutto grazie a giochi come Half life 2 e STALKER (nonchè Far cry, Thief 3 e molti altri...) che baseranno il loro engine appunto sulle librerie Microsoft.
La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.
Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit

Ultima modifica di Xilema : 15-01-2004 alle 13:48.
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:48   #17
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da TheRipper
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.
Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:52   #18
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 23923
Quote:
Originariamente inviato da GMCPape
Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape
Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:52   #19
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da Xilema
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?
Lo standard è stato abbastanza travagliato, se ben ricordi, e le specifiche delle DX 9 continuavano a cambiare.

Quote:
La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.
Certo, ma si potrebbero ottenere migliori effetti se si potessero usare shader più complessi, no?

Quote:
Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.
Mah, io vedo dai benchmark che, nonostante tutto, ATI e nVidia bene o male si equivalgono, dimostrando la validità di entrambe le architetture. In alcuni test vince ATI, in altri nVidia, ma solitamente i margini di distacco non sono enormi.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:53   #20
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da Xilema
Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...
Si, ma che te frega? Sino a che i giochi vanno bene e sono visivamente identici alla controparte ATI, che usi codice a 24 bit, o 32, o un mix delle tue non ti cambia assolutamente nulla

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
SUV, 100% elettrico e costa meno di un b...
Hai mai caricato un referto su ChatGPT? ...
Apple vuole un nuovo campus nella Silico...
DJI Osmo 360, la nuova action cam a 360&...
Lo strumento anti-requisiti per Windows ...
Utenti di Claude in rivolta: 'I bei vecc...
Rocket Lab Mars Telecommunications Orbit...
NVIDIA GeForce RTX: supporto driver su W...
iliad ha iniziato a vendere smartphone d...
La cinese SatNet ha lanciato un nuovo gr...
Cloud sovrano europeo: a che punto siamo...
The Medium arriverà al cinema gra...
Addio alle faccende domestiche? Il robot...
Fallito il primo lancio del razzo spazia...
Addio Bitcoin: in Algeria anche il solo ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:00.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v