Torna indietro   Hardware Upgrade Forum > Giochi > Giochi per PC

OPPO Watch X2 Mini, lo smartwatch compatto a cui non manca nulla
OPPO Watch X2 Mini, lo smartwatch compatto a cui non manca nulla
OPPO Watch X2 Mini è uno smartwatch compatto capace di offrire un'esperienza completa di monitoraggio della salute e fitness con una cassa da 43 mm che può adattarsi a qualsiasi tipo di polso, dal più grande al - soprattutto - più piccolo. Con l'architettura dual-chip e un'autonomia che può coprire due giorni con tranquillità, rappresenta la soluzione ideale per chi cerca prestazioni premium in un formato ridotto.
Xiaomi 15T Pro, è lui il nuovo best buy? La recensione
Xiaomi 15T Pro, è lui il nuovo best buy? La recensione
Dopo il recente lancio della serie Xiaomi 15T di Monaco, vi parliamo oggi della versione più performante della nuova famiglia, ovvero Xiaomi 15 T Pro. Vi raccontiamo la nostra prova nel dettaglio, spiegando perché a questo prezzo e in questa fascia, questo smartphone ha davvero senso tenerlo in seria considerazione.
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento
Acer ha ampliato la sua offerta professionale con il TravelMate P6 14 AI, un notebook ultraleggero e robusto pensato per chi lavora in mobilità. Certificato Copilot+ PC, combina design premium, autonomia elevata e piattaforma Intel Core Ultra Serie 2 con funzionalità AI, garantendo sicurezza, affidabilità e produttività per l'utenza business moderna.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 15-01-2004, 07:30   #1
abracadabra84
Senior Member
 
L'Avatar di abracadabra84
 
Iscritto dal: Oct 2002
Città: Catania
Messaggi: 512
Doom 3- The way it's meant to be played?

Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....)
abracadabra84 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 08:21   #2
Redvex
Senior Member
 
L'Avatar di Redvex
 
Iscritto dal: Apr 2002
Città: Nosgoth
Messaggi: 16899
Mah anke se non fosse meant to be ecc ecc se uscisse sarebbe già un miracolo
__________________
Redvex è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 09:05   #3
Korn
Senior Member
 
L'Avatar di Korn
 
Iscritto dal: Jul 2000
Città: La città più brutta della Toscana: Prato
Messaggi: 6711
Re: Doom 3- The way it's meant to be played?

Quote:
Originariamente inviato da abracadabra84
Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....)
lo conosci il marketing?
Korn è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 09:14   #4
R@nda
Senior Member
 
L'Avatar di R@nda
 
Iscritto dal: Jun 2002
Messaggi: 15240
Re: Re: Doom 3- The way it's meant to be played?

Quote:
Originariamente inviato da Korn
lo conosci il marketing?
E tu lo conosci il reale significato di quella sigla?
Non c'entra il marketing....e nemmeno che Nvidia ha pagato quella
software House per far andare meglio il gioco sulle sue schede.
Significa solo che Nvidia ha collaborato con loro allo sviluppo del gioco....per accertarsi che con le sk video Nvidia non ci sia nessun problema di compatibilità con il gioco.

E' stato spiegato bene da Nvidia all'ultimo meeting che avevano organizzato..non ricordo il nome della manifestazione.

Quindi non significa che va più veloce o meglio con sk Nvidia....ma solo che ci va senza nessun problema...e direi anche ben venga

Tutto qui...
__________________
Boris Strugatskij - Arkadij Strugatskij : Picnic sul ciglio della strada
R@nda è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:12   #5
Korn
Senior Member
 
L'Avatar di Korn
 
Iscritto dal: Jul 2000
Città: La città più brutta della Toscana: Prato
Messaggi: 6711
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia

Ultima modifica di Korn : 15-01-2004 alle 10:46.
Korn è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:41   #6
Deuced
Senior Member
 
L'Avatar di Deuced
 
Iscritto dal: Jun 2002
Città: Salerno
Messaggi: 4636
Quote:
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare lo "scarsa" gpu nvidia


l'ha detto r@nda,perchè hanno collaborato allo sviluppo del gioco.E' ovvio che poi per aumentare la compatibilità forniscono informazioni più dettagliate sulle loro schede e drivers.


Doom 3 all'e3 girava su una 9700 in fin dei conti...
Deuced è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 10:48   #7
cesko
Senior Member
 
L'Avatar di cesko
 
Iscritto dal: Mar 2000
Città: Padova
Messaggi: 456
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S
__________________
Desktop: CM Stacker | Corsair 550VX | ASUS P7P55D Deluxe | i7 860 | Noctua NH-U12P SE2 | 8GB Corsair XMS3 1600Mhz | GTX260 Gainward GS 216SP | Viewsonic G90f+B
Notebook: ASUS V6800V | Pentium M 760 (2GHz) | 2GB DDR2 | X600 64MB | 80GB 5400RPM _Affari
cesko è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 11:05   #8
R@nda
Senior Member
 
L'Avatar di R@nda
 
Iscritto dal: Jun 2002
Messaggi: 15240
Quote:
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia
Ma quale scarsa....
Anche qui ti dico di informarti....l'architettura nv30 nv35 è diversa
da quella di Ati e va prgrammata a modo.
Tanto che devono uscire le Dx9.1 per risparmiare in parte questo lavoro ai programmatori.

Insomma....finiamola con le solite polemiche Nvidiane...

Intanto sto cavolo di gioco,che comunque andrà su qualsiasi tipo di scheda dx8.1 dx9 non esce mai,questo è quello che conta.
__________________
Boris Strugatskij - Arkadij Strugatskij : Picnic sul ciglio della strada
R@nda è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 11:22   #9
Redvex
Senior Member
 
L'Avatar di Redvex
 
Iscritto dal: Apr 2002
Città: Nosgoth
Messaggi: 16899
Eppoi il progetto nv35 non è male soprattutto vedendo le 5700ultra 5900 xt
__________________
Redvex è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:15   #10
ray_hunter
Senior Member
 
L'Avatar di ray_hunter
 
Iscritto dal: Dec 2002
Città: Vicenza
Messaggi: 4774
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.
Di fatto molti però ottimizzano i giochi per le FX, mentre le ATI vanno molto bene anche con driver generici.
Qualche mese fa J.C. disse che avrebbe fatto una modalità specifica per NV30 mentre le 9700/9800 non la avrebbero avuta dato che in Doom III erano già spremute al max con la modalità standard. Con tale modalità le FX andavano male perciò ha dovuto implementare delle limitazioni nella modalità NV30 che però non incidono nell'aspetto visivo complessivo.
In tal modo sulle FX Doom III gira un po' più fluido che sulle ATI anche se con delle semplificazioni nella visualizzazione degli shader's (di quella intervista mi ricordo, si discusse molto in questo forum).
Un punto a favore delle FX è lo stencil shadows che fa si che in giochi con illuminazione i tempo reale come Doom III vadano benissimo.

L'architettura tra ATI e Nvidia è sicuramente molto diversa.
Personalemente preferisco le scelte di ATI, ma le FX, in particolare NV35 e NV36 sono delle schede molto buone.
__________________
<CPU>9800X3D<MB>GIGABYTE X870 GAMING X WIFI7<HEATSINK>ARTIC LC III PRO 360 A-RGB<RAM>16x2GB DDR5 G.Skill Trident Z5 NEO RGB 6000Mhz CL30<GPU>Zotac RTX 5090 AMP Infinity Extreme 32G<SSD>Intel 760P PCIe3.0 M.2 NVMe 256GB<SSD>Crucial MX 500 SATAIII M.2 1TB<SSD>Corsair MP600 PCIe4.0 M.2 NVMe 2TB<PSU>Corsair HX1200i<CASE>NZXT H710i<DISPLAY>LG OLED48C14LB
ray_hunter è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:20   #11
shambler1
Senior Member
 
L'Avatar di shambler1
 
Iscritto dal: Jul 2001
Messaggi: 2776
[
shambler1 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:21   #12
shambler1
Senior Member
 
L'Avatar di shambler1
 
Iscritto dal: Jul 2001
Messaggi: 2776
Quote:
Originariamente inviato da cesko
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S
secondo me no.
shambler1 è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:26   #13
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da ray_hunter
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.
Beh, non mi sembra un difetto, per lo meno sino a quando si riescono a ottenere prestazioni simili alle concorrenti.
Si tratta di architetture radicalmente diverse, e nVidia da parte sua paga lo scotto di aver fatto delle scelte progettuali a mio avviso parecchio interessanti, ma non adatte a gestire al meglio le DX a meno di ottimizzare il codice. Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. Anche i 32 bit di precisione sono, per certi aspetti, importantissimi e aderenti a qualsiasi standard, ma per qualche incomprensibile motivo MS ha preferito limitarsi ai 24 bit delle DX9. ATI, supportando solo i 24 bit, non necessità quindi di ottimizzazione del codice.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:36   #14
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originariamente inviato da GMCPape
[...] Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. [...]
Se non sbaglio la tecnologia F-buffer, introdotta nella 9800pro, ha eliminato le suddette limitazioni.
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:38   #15
TheRipper
Senior Member
 
L'Avatar di TheRipper
 
Iscritto dal: Sep 2002
Città: Roma
Messaggi: 13052
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.
Sarebbe stato piu' comodo per tutti se nVidia avesse rispettato le specifiche dx9, i programmatori avrebbero avuto molto meno lavoro e i giochi che tanto stiamo aspettando sarebbero usciti molto prima.
__________________
Tag Xbox Live= Th3Ripp3r666
TheRipper è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:46   #16
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 23969
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?
Va bene che la nVidia vuole mantenere il primato per le applicazioni OpenGL, ma a parte Doom 3... quali altri videogiochi quest' anno useranno un motore scritto per le OpenGL che richieda davvero qualche innovazione tecnologica ?
Nessuno !
Si continuerà ad usare il vecchio engine di Quake 3... che comunque le schede ATI fanno girare alla stragrande, e le differenze con nVidia sono pressochè nulle.
Lo standard futuro sarà senza ombra di dubbio il Direct 3D, soprattutto grazie a giochi come Half life 2 e STALKER (nonchè Far cry, Thief 3 e molti altri...) che baseranno il loro engine appunto sulle librerie Microsoft.
La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.
Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit

Ultima modifica di Xilema : 15-01-2004 alle 13:48.
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:48   #17
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da TheRipper
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.
Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:52   #18
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 23969
Quote:
Originariamente inviato da GMCPape
Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape
Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:52   #19
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da Xilema
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?
Lo standard è stato abbastanza travagliato, se ben ricordi, e le specifiche delle DX 9 continuavano a cambiare.

Quote:
La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.
Certo, ma si potrebbero ottenere migliori effetti se si potessero usare shader più complessi, no?

Quote:
Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.
Mah, io vedo dai benchmark che, nonostante tutto, ATI e nVidia bene o male si equivalgono, dimostrando la validità di entrambe le architetture. In alcuni test vince ATI, in altri nVidia, ma solitamente i margini di distacco non sono enormi.

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
Old 15-01-2004, 13:53   #20
Alberto Falchi
Senior Member
 
Iscritto dal: Jun 2003
Messaggi: 4825
Quote:
Originariamente inviato da Xilema
Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...
Si, ma che te frega? Sino a che i giochi vanno bene e sono visivamente identici alla controparte ATI, che usi codice a 24 bit, o 32, o un mix delle tue non ti cambia assolutamente nulla

Pape
Alberto Falchi è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OPPO Watch X2 Mini, lo smartwatch compatto a cui non manca nulla OPPO Watch X2 Mini, lo smartwatch compatto a cui...
Xiaomi 15T Pro, è lui il nuovo best buy? La recensione Xiaomi 15T Pro, è lui il nuovo best buy? ...
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento Acer TravelMate P6 14 AI: il Copilot+ PC sotto i...
ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondo...
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint Cybersecurity: email, utenti e agenti IA, la nuo...
Lunedì sera tiratela lunga: a mez...
Il prossimo pieghevole di Huawei potrebb...
Euro digitale nel 2027 con app e infrast...
Galaxy S26 Ultra: tra le novità c...
OneDrive avrà presto una nuova app per W...
Il nuovo OnePlus 15 è pronto: il ...
Non serve essere Prime: 7 offerte bomba ...
Ci sono un sacco di prodotti con lo scon...
Xbox Game Pass, gli aumenti di prezzo pe...
I nuovi top di gamma di HONOR sono pront...
Il Garante della Privacy ha bloccato Clo...
C'è un nuovo operatore virtuale s...
Google Chrome non si ferma più: &...
Tenstorrent produrrà chip nelle f...
Tutte le offerte HOT di Amazon: Galaxy S...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 04:13.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v