Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 14-09-2003, 15:34   #121
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11782
Quote:
Originariamente inviato da yossarian
Vero, però le specifiche PS2.0 e, ancora di più quelle PS1.4 e lo shader language relativo all'OpenGL1.4 erano già note da tempo (i PS1.4 e le OPenGL1.4 ben oltre i 6/8 mesi antecedenti alla presentazione dei chip). A questo mi riferivo nell'intervento precedente.
L'impressione che ho avuto è che nVIDIA, pur essendo a conoscenza delle API standard, non ne abbia tenuto conto, pensando di poter imporre un proprio modello proprietario. Questa, almeno, era la sensazione che si percepiva

No, credo che il problema sia diverso. Sebbene le specifiche sono disponibili da tempo (ed in realta' sono state imposta da nVidia/ATI), non c'era esperienza sullo sviluppo con tali versioni, quindi non si poteva prevedere come sarebbero state usate.
fek è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2003, 16:00   #122
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da fek
No, credo che il problema sia diverso. Sebbene le specifiche sono disponibili da tempo (ed in realta' sono state imposta da nVidia/ATI), non c'era esperienza sullo sviluppo con tali versioni, quindi non si poteva prevedere come sarebbero state usate.

Ti riferisci alle specifiche DX9, ovviamente.
Però. in tal caso, non sarebbe stato più saggio optare per un'architettura più "neutra" e meno condizionante (anche alla luce delle versioni precedenti delle API stesse)?

Ti riporto un paio di passi da cui sembra emergere un limite architetturale difficilmente superabile lavorando solo sul SW

Questo è tratto dal link che ti ho postato in precedenza

If we try to explain the real measured performance of the NV30 with the aforementioned characteristics, we notice that there must be something missing from the picture. There must be something else that keeps NV30 from performing to its full potential. One special recommendation from nVidia to the use of pixel shaders is to use as few temporary registers as possible. While analyzing the Gatekeeper function we noticed that the number of quads in the pipeline depends straight on the number of temp registers. The less temp registers are used, the more quads fit into memory.

questo è tratto dal commento fatto da Anandtech ai risultati del bench HL2

So the first change that was made is to use partial-precision registers where appropriate, well what does that mean? As we've mentioned in previous articles, NVIDIA's pixel shading pipelines can either operate on 16 or 32-bit floating point numbers, with the 32-bit floats providing greater precision. Just like on a CPU, the actual FPUs that are present in the pixel shader units have a fixed number of local storage locations known as registers. Think of a register as nothing more than a place to store a number; with the NV3x architecture, each register can either hold one 32-bit floating point value or it can be used as two 16-bit floating point registers. Thus when operating in 16-bit (aka partial precision) mode, you get twice as many physical registers as when you're running in 32-bit mode.

Note that using 32-bit floating point numbers doesn't increase the amount of memory bandwidth you're using, it simply means that you're cutting down the number of physical registers your pixel shader FPUs have access to. What happens if you run out of registers? After running out of registers, the functional units (FPUs in this case) must swap data in and out of the graphics card's local memory (or caches) which takes a significantly longer time - causing stalls in the graphics pipeline or underutilization of the full processing power of the chip.

The fact that performance increased when moving to partial-precision (16-bit) registers, indicates that NVIDIA's NV3x chips may have fewer usable physical registers than ATI's R3x0 series. If we're correct, this is a tradeoff that the NVIDIA engineers have made and it is to conserve die space, but we're not here to criticize NVIDIA's engineers rather explain NVIDIA's performance here.

Questo, in realtà, è un problema noto dai tempi delle DX7, però, finora, non si era mai presentato in maniera ecalatante. Se così fosse, si spiegherebbe parte delle difficoltà dell'NV3x a lavorare in FP32 e il continuo ricorso a FP16, FX12 e ai PS1.4 (o addirittura a versioni precedenti).
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2003, 16:02   #123
massibirba
Member
 
Iscritto dal: Feb 2002
Messaggi: 112
X orsobubu

caro orsobubu,io non volevo generalizzare...volevo fare solo un po di chiarezza nel mondo delle schede video perche' ho visto che alcuni hanno postato che non sanno se riusciranno a giocare con una 7500 e similari:la risposta e' si a meno che hl2 sia una vera e propria ciofeca come temo sia anche doom3(spero di sbagliarmi)...se il gioco ha requisiti cosi' alti devo concludere che ...il gioco non vale la candela...
Riguardo a quello che dici che sia fantascenza che io gioco agli ultimissimi giochi a 1024x768 tanti nel forum che come me hanno la 7500 ti smentiranno,ti assicuro che e' una scheda che nonostante sia "vecchia" ti gira tutto e anche bene cmq gli ultimi giochi da me giocati e che sto giocando sono ut2003,cmr3,vietcong per far solo dei nomi.
Anche a me fa gola la 9700 o la 5900,ma solo perche' posso attivare tutti i filtri(e non e' poco)e non perche' con una scheda meno potente non riesco a giocare con il pc.
Spero di essermi chiarito meglio.
massibirba è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2003, 17:27   #124
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11782
Quote:
Originariamente inviato da yossarian
Ti riferisci alle specifiche DX9, ovviamente.
Però. in tal caso, non sarebbe stato più saggio optare per un'architettura più "neutra" e meno condizionante (anche alla luce delle versioni precedenti delle API stesse)?
Hmmm... questa e' una scelta dei progettisti e non mi sento in grado di criticarla. Personalmente apprezzo lo sforzo di creare un'architettura piu' ricca di funzionalita' sebbene questo sia andato un po' a discapito delle prestazioni.
fek è offline   Rispondi citando il messaggio o parte di esso
Old 14-09-2003, 19:25   #125
Orsobubu
Senior Member
 
Iscritto dal: May 2003
Messaggi: 417
Re: X orsobubu

Quote:
Originariamente inviato da massibirba
io gioco agli ultimissimi giochi a 1024x768 tanti nel forum che come me hanno la 7500 ti smentiranno
-CUT-
Non ho alcun dubbio sul fatto che tu ed altri utenti riusciate a giocare con i suddetti titoli: il punto è che dicendo "1024x768 senza neanche uno scatto" è come affermare che basta una 7500 per godere tranquillamente degli ultimissimi giochi, cosa non propriamente vera. E' solo una questione di precisione per non creare troppa confusione nella testa di chi legge, e si aspetta poi di giocare con SplinterCell a 1024x768 senza scatti, stupendosi di dover tagliare i dettagli al minimo e vedere esposioni e sparatorie (etc) a 5fps.
Comunque, io stesso ho provato l'alpha di DIII con una Geforce (NV10 sdr), e "funzionava", quindi riuscirai sicuramente a giocare con HL2 e DIII con la 7500... ma è tutto da vedere il COME ci giocherai!
Orsobubu è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 07:21   #126
Orsettob
Member
 
Iscritto dal: Dec 2001
Messaggi: 73
Scusate ma per quasta frase verrò linciato... ma una bella xbox psx2 invece di buttare i soldi? O fate i grafici x una azienda o il postafoglio lo riempite la mattina invece del cesso????
Orsettob è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 07:45   #127
Kaiozzi
Member
 
Iscritto dal: Mar 2003
Messaggi: 48
penso che farò.....

come feci per Half life I.
Lo compro fra un annetto, quando le schede in commercio che lo facciano girare BENE non abbiano piu un costo proibitivo.
Kaiozzi è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 08:00   #128
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da DoomIII
bè... inutile non notare come sicuramente il futuro è già diverso da ciò che si prospettava nVidia... ma intendevo dire che IMHO nVidia nel progetto NV30/35 ci sono state più spese/investimenti per la generazione sucessiva(NV40) che non per il prodotto NV30/35.
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...
Quote:
Con ottimo non intendo che sia stato un ragionamento che le ha portato beneficio per come sono andate le cose... ma quando l'hanno pensato aveva la sua logica... poichè sicuramente si aspettavano di poter uscire prima con NV30, di non incorrere in problemi di produzione di poter dettare lo standard e che Ati non riuscisse a produrre una scheda più che competitiva.
Logico che sol senno di poi...
C'è un problema di fondo in tutto ciò. Io posso capire che alla nVidia non si aspettassero l'enorme successo di Ati, e questo nessuno poteva prevederlo, giustamente. Ma perché andare a dettare lo standard, quando già esisteva e si chiamava DirectX 9? Non metto in dubbio che CineFX sia un'architettura più avanzata dal punto di vista delle innovazioni, ma ci si deve confrontare con gli standard, altrimenti il mercato torna ad essere una giungla selvaggia.
Oltre a ciò, a nVidia non sono bastati 130 milioni di transistor e il processo produttivo a 0,13u per rimanere competitiva nei confronti dell'R300 (che è fabbricato a 0,15u ne contiene 107 milioni), e allora perché continuare sulla stessa strada (NV35)? Non era logico fermarsi e puntare tutto su una nuova architettura, che non presentasse i problemi intrinseci di CineFX? I problemi stanno venendo al pettine ora che cominciano ad arrivare i primi giochi DX9...
Quote:
Intendevo dire che ancora oggi ci sono bench di Q3 o_O ...figuriamoci per quanto tempo probabilmente si parlerà di HL2... la situazione per me è simile a quella di Q3 per le performance ottenute...
Su questo concordo, non c'è dubbio...
Quote:
penso sia meglio giocare ad HL2 con la next-generation trovo difficile che adesso la maggioranza degli 'utenti' non siano costretti a scendere a compromesso o cmq ad accettare qualche tentennamento...
Beh, non mi sembra la mia 9600Pro sia da buttare con HL2. E pensare che ero indeciso fra la 5600Ultra e la 9600Pro, ma poi per un discorso di prezzo, prestazioni e soprattutto di qualità video (lavoro quasi sempre nel 2D), ho preferito puntare su quest'ultima, anche se i dubbi sui Catalyst erano forti (è per questo che ero indeciso per la 5600Ultra). Forse ho avuto fortuna, questa volta (e mi sono trovato bene coi Catalyst).
Quote:
hai sicuramente visto il nuovo video DX9/HDRD... posso ovviamente sbagliarmi perchè è un video e dipende cmq dai parametri con i quali è stato fatto... allora sembra giocabilissimo però non è affatto limpidamente fluido... e di fisica applicata/AI/moltitudine di personaggi ecc... (le situazioni che si sono viste negli altri video) neanche l'ombra...
quindi non so su che sistema sia possibile effettivamente potersi godere HL2 la massimo del massimo.
No, l'ultimo video non l'ho visto. Ho visto giusto l'altro ieri quello da 500MB circa che circolava tempo addietro e sono rimasto stupefatto dalla fisica implementata: mai visto niente di simile fino ad ora. Però il gioco scattava un po'.
Se mi dici che quello nuovo è più fluido, ma noti dei dettagli mancanti, mi lasci abbastanza perplesso.
Comunque tra un po' ci toglieremo tutti i dubbi, perché verrà rilasciato il benchmark ufficiale e potremo valutare le prestazioni di questo gioco con i nostri sistemi, anche se non credo che i numeri rilasciati da Valve non siano attendibili, anche perché chi ha effettuato le prove online ha ottenuto gli stessi risultati...
Quote:
Tra l'altro è il primo gioco DX9... e ben venga visto che di DX8 si è visto poco niente... ma cmq senza voler togliere nulla al gioco... non credo sfrutti le DX9 a dovere. (NB: per carità... questo non è un insulto al gioco e non voglio togliere nulla al capolavoro)
cmq ad esempio le luci di cui tanti si meravigliano visibili nel demo di cui sopra... sono ottenibili anche in DX8. (certo singolarmente e probabilmente non insieme a tutto il resto... ma con le DX9 si può cmq fare ancora molto di più)
Le DX9 sono arrivate da poco e penso che ci vorrà del tempo per sfruttarle a dovere, su questo non ci sono dubbi. Ma penso cha Valve, in 5 anni di sviluppo, qualcosa di buono sia riuscita a tirarla fuori. Ho visto il vecchio filmato e, ripeto, sono rimasto di stucco. Chissà cosa ci riserverà il futuro...
Quote:
apparte che per un discorso competitività/concorrenza che sia nVidia o Ati ma non è certo augurabile che una 'domini'
Nessuna persona di buon senso potrebbe farlo...
Quote:
ad ogni modo a vedere le performance per me c'è poco da stare allegri... poi vabbè... al bench manca poco ci si potrà fare un idea migliore...
Appunto. E poi, ripeto: non mi pare che su un'economica 9600Pro giri tanto male...
Quote:
ma dal mio punto di vista uno dovrebbe come prima cosa auspicarsi di poter giocare al meglio possibile ad HL2 e non che HL2 giri meglio su una marca di scheda...
OK, su questo concordo, ma non a tutti i costi. Lo standard è rappresentato dalle DirectX 9, non dal CineFX. I giochi andrebbero sviluppati soltanto per le DX9: tutto il resto DOVREBBE essere a carico dei costruttori di GPU.
Immagina cosa accadrebbe se ognuno facesse uscire una GPU che funzioni a modo suo: ci sarebbe il caos! E tu pensi che le software house dovrebbero rilasciare una versione degli shader per ogni GPU esistente? Sarebbe assurdo, dai!
L'ha fatto nVidia perché ha una posizione dominante nel mercato, ma la sua azione non merita alcuna giustificazione.
Quote:
certo le ottimizzazioni che dici tu sopra sono una buona cosa... ma se sono state fatte dimostrano anche che c'è stata necessità...
Appunto perché si tratta di nVidia e non si è voluto lasciare col culo per terra milioni di utenti, ma non è assolutamente una buona cosa...
Quote:
ho detto che non so quanto stia ad nVidia risolvere il bug o quanto stia alla Valve...
Beh, anche nVidia ha dichiarato ufficialmente che quello della nebbia è un bug dei DET50: almeno a loro dovrai pur credere...
Quote:
miglioramenti ci saranno di sicuro... non so in che ordine... ma come ti ho detto non credo in un ribalto di situazione.
Come ho già detto, se ci saranno miglioramenti saranno per il codice DX9 generico. Il "mixed mode" è già stato ottimizzato "a mano", e non credo che potrà giovarsi dei nuovi driver...
Quote:
be, mi sono già espresso sull'architettura...
Anch'io, e ho esposto chiaramente le mie perplessità sulla capacità del CineFX di far girare bene i giochi DX9 (a livello di shader). Tomb Raider prima (lo so che è una chiavica) e HL2 sembrano dimostrare ciò che dico. All'appello manca Doom 3, ma chissà quando arriverà... Ho tralasciato il 3DMark2003 perché non lo considero neppure (vedi messaggi precedenti), ma i test atti a valutare le prestazioni teoriche degli shader (che servono agli operatori del settore) avevano già mostrato questa realtà...
Quote:
non credo sia falsa... ed al riguardo penso siano manovre abbastanza classiche... probabilmente ci sono anche altre cose sotto quando ci sono queste situazioni.(generalmente in questi affari.. non nel caso specifico)
Scusa, ma come fai a sostenere ancora queste cose? Cerca di essere obiettivo: DUE ANNI FA le cose stavano così come pensi? L'accordo MS/Ati risale al mese scorso, e a voler portare indietro le lancette, pensi che MS si sarebbe fidata di Ati, senza qualcosa di concreto in mano, per la prossim XBox? Con l'R300 prima (che ha fatto fuori l'NV30 su tutti i campi), e con l'R350 poi (che si mantiene competitivo con l'NV35 sulle DX8, e vincente sulle DX9), Ati ha dimostrato di essere una realtà solida su cui MS si può appoggiare per lo sviluppo della sua nuova console.
Ma questa, ripeto, è tutta storia RECENTISSIMA. Non hai alcuna prova, neppure indiziaria, per poter parlare di manovre o accordi sottobanco. Se è vero che cose del genere possono succedere usualmente, è anche vero che hanno bisogno di tempo per essere elaborate. E proprio il tempo è quello che smentisce le tue affermazioni. Prendine atto onestamente e chiudiamo questa parte della discussione.
Quote:
si... ma il bench specifico per il quale ci sono i risultati... vorrei sapere qualcosino in più di quello.
Non ci vorrà molto. Tra poco sarà rilasciato e lo potrai testare, tranquillo...
Quote:
Per quanto ti riguarda non credo di aver mai indirizzato termini come 'tifoso' verso di te... apprezzo i tuoi post ed il tuo modo di esporti... vabbè mi lascia un po perplesso come non ti scandalizzi per chi veramente insulta... ma ad ogni modo penso sia normale che in qualche modo chi più chi meno siamo affezzionati alla nostra GPU.

Saluti.
Ho voluto lasciare quest'ultimo pezzo per risponderti in merito alla questione dei flame e degli insulti. So che non erano rivolti a me, ma il discorso era in generale, e ti riporto il mio pensiero.

Cosa accadrebbe se ci mettessimo a insultare o redarguire tutti i cretini che scrivono "nVidia merda, Ati merda, ecc."? Il forum diventerebbe la succursale della nettenza urbana. Per cui questi post già a priori bisogna lasciarli perdere: ci sono i moderatori che mi sembrano le persone più indicate mettere in riga queste persone.

Se c'è qualche utente che spara delle cazzate, puoi sempre quotarlo e metterlo con le spalle al muro, chiedendo conto e ragione delle sue affermazioni. Anche in questo caso non c'è bisogno di ricorrere a epiteti o offese: è sufficiente la forza dei fatti.

Per gli altri utenti che sono in grado di sostenere una discussione, non vedo perché bisogna arrivare sempre ai ferri corti quando sostengono idee diverse: c'è modo e modo di intavolare un dialogo. Se poi non si possono oggettivamente conciliare le posizioni, basta finirla lì.

Il motivo dei miei richiami nei tuoi confronti è stato forte perché non mi aspetto che una persona capace di sostenere delle discussioni di un certo spessore si metta al livello di quelli che hanno scambiato il forum per il lettino dello psicanalista per sforgare le loro frustazioni di fanatici. Da te mi aspetto discussioni serie e basta, questo è il punto.

Infine, è vero che + o - siamo affezionati alla nostra CPU o GPU (ed è evidentissimo che da tempo tieni per nVidia ), ma ripeto il concetto: quando si discute di una cosa tecnica, bisogna lasciare a casa i sentimenti personali. Quando parlavamo di GPU mesi addietro, avevo una Voodoo3 3000 sul muletto (da cui ti sto sto scrivendo... ) e una fiammante GF2 MX400 sul computer principale; da circa un mese invece ho cambiato la GF2 per una 9600Pro (principalmente per la qualità video, come ti ho detto, perché la uso per il 2D e quasi mai per il 3D). Sei vai a rivedere i miei commenti, puoi affermare che siano cambiati da allora e che adesso siano influenzati dalla mia nuova scheda grafica? In tutta onestà penso di no.

A me piace discutere e basta, senza insultare e scatenere flame, ed è quello che spero facciano tutti, anche se mi rendo conto che, proprio per una questione di attaccamento personale, a volte è difficile accettare alcuni fatti.

Spero che quello che ho scritto ti serva per il futuro e ti permetta di affrontare con più maturità anche le discussioni più "rognose"...

Saluti
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 10:23   #129
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11782
Quote:
Originariamente inviato da cdimauro
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...
Assolutamente no. In questo campo non butti via niente. I progetti successivi si basano sempre pesantemente sull'esperienza accumulata con i progetti precedenti, ancor piu' in un campo come questo ad "alta velocita'".
fek è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 11:58   #130
Hammon
Member
 
Iscritto dal: Jun 2003
Messaggi: 50
forza ati!!

son contento di aver preso una 9500pro.. non penso di moddarla a 9700, visto che ho letto da qualche parte che la percentuale di riuscita si aggira attorno al 50%.. siccome sono abbastanza sfigato preferirei evitare mi accontentero' della terza posizione nei benchmark, tenendo conto che ho tweakato la scheda e ora ho clock e frequenza di ram sparati al massimo supportato dalla 9500pro
Ho fatto bene quindi a consigliare a tutti i miei amici di non prendere le nuove FX e tenersi le vecchie ti42xx
Hammon è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 13:50   #131
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17229
Purtroppo l'esito della modifica da 9500 Pro a 9700 ha percentuali ben minori, diciamo pari allo 0%
E' la 9500 liscia che si modifica, la Pro nisba.
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 15:19   #132
BlackBug
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 566
ati

poco da dire 1 bella vittoria...m è solo una battaglia non una guerra...peccato che le vittime siano i consumatori!
BlackBug è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 16:40   #133
Biotech
Member
 
Iscritto dal: Jun 2001
Messaggi: 122
Poi dite che non siete pro ATI...

l'Nvidia ha già affermato con certezza che i detonator 5 saranno ottimizzati per tale titolo e voi mettete in prima pagina un titolo che dice "ATI distanzia nettamente le schede nVidia". Ma scusate, mi dite che vi hanno fatto di male quelli dell'Nvidia?

Il gioco non è ancora uscito, perciò che senso ha disquisire su qual'è la piattaforma migliore!

E poi perchè per par condicio non dite che le ATI vanno uno schifo su DOOMIII?

Un po' di serietà grazie
Biotech è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 17:14   #134
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 14772
X Biotech

Magari sarà un po troppo lungo, ma leggere i post precedenti è chiedere troppo?
Magari fra i tanti ce n'è qualcuno interessante scritto da gente che ne sa qualcosina ed è pure poco di parte.
E per par condicio, a te che "bene" hanno fatto quelli di NVidia per essere difesi oltre ogni evidenza?
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 17:34   #135
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Quote:
Originariamente inviato da cdimauro
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...
se dovesse accadere sarebbe davvero la fine di nVidia... cmq no... impensabile che buttino via l'esperienza ed i progressi che hanno fatto

Quote:
Originariamente inviato da cdimauro
C'è un problema di fondo in tutto ciò. Io posso capire che alla nVidia non si aspettassero l'enorme successo di Ati, e questo nessuno poteva prevederlo, giustamente. Ma perché andare a dettare lo standard, quando già esisteva e si chiamava DirectX 9? Non metto in dubbio che CineFX sia un'architettura più avanzata dal punto di vista delle innovazioni, ma ci si deve confrontare con gli standard, altrimenti il mercato torna ad essere una giungla selvaggia.
Oltre a ciò, a nVidia non sono bastati 130 milioni di transistor e il processo produttivo a 0,13u per rimanere competitiva nei confronti dell'R300 (che è fabbricato a 0,15u ne contiene 107 milioni), e allora perché continuare sulla stessa strada (NV35)? Non era logico fermarsi e puntare tutto su una nuova architettura, che non presentasse i problemi intrinseci di CineFX? I problemi stanno venendo al pettine ora che cominciano ad arrivare i primi giochi DX9...
be sai... in realtà le "DX9 sono Microsoft" ma gli standard non è che se li inventi lei... le DX8 avevano gli shaders dati in brevetto cioè in licenza da nVidia (similmente per OpenGL)... e probabilmente nVidia voleva bissare... alle DX lavorano tutti i produttori che fanno parte del consorzio... nVidia contava sicuramente di imporsi.

Quote:
Originariamente inviato da cdimauro
Su questo concordo, non c'è dubbio...
su cosa? hehehe... si si lo so.

Quote:
Originariamente inviato da cdimauro
Beh, non mi sembra la mia 9600Pro sia da buttare con HL2. E pensare che ero indeciso fra la 5600Ultra e la 9600Pro, ma poi per un discorso di prezzo, prestazioni e soprattutto di qualità video (lavoro quasi sempre nel 2D), ho preferito puntare su quest'ultima, anche se i dubbi sui Catalyst erano forti (è per questo che ero indeciso per la 5600Ultra). Forse ho avuto fortuna, questa volta (e mi sono trovato bene coi Catalyst).
hmm... be si, certo... ma a questo punto aspettiamo che esca... non intendo certo dire che la tua scheda sia da buttare... anzi anche su Gef4&company ,e sarebbe da vedere come se la cava una Gef3, il gioco penso posso essere ben che godibile(poi bisogna vedere anche il sistema, CPU/ram ecc...).
Ma magari per i puristi... che penso siano generalmente quelli che stanno facendo post particolarmente entusiastici... non sarà tutto rose e fiori. cmq è solo un'ipotesi


Quote:
Originariamente inviato da cdimauro
No, l'ultimo video non l'ho visto. Ho visto giusto l'altro ieri quello da 500MB circa che circolava tempo addietro e sono rimasto stupefatto dalla fisica implementata: mai visto niente di simile fino ad ora. Però il gioco scattava un po'.
Se mi dici che quello nuovo è più fluido, ma noti dei dettagli mancanti, mi lasci abbastanza perplesso.
Comunque tra un po' ci toglieremo tutti i dubbi, perché verrà rilasciato il benchmark ufficiale e potremo valutare le prestazioni di questo gioco con i nostri sistemi, anche se non credo che i numeri rilasciati da Valve non siano attendibili, anche perché chi ha effettuato le prove online ha ottenuto gli stessi risultati...
hmm... sicuro? è quel file bink sui 100Mb... è un tech demo... secondo me enfatizza troppo gli effetti volutamente proprio per mostrarli... non fraintendermi... non intendevo che la scena sia scarna e manchino dettagli... proprio in virtù di ciò che il video vuole evidenziare rispetteo agli altri video c'è una situazione meno pesante.
Sarei a questo punto curioso di sapere come gira HL2 con ciò che si vede in questo video.

Quote:
Originariamente inviato da cdimauro
Le DX9 sono arrivate da poco e penso che ci vorrà del tempo per sfruttarle a dovere, su questo non ci sono dubbi. Ma penso cha Valve, in 5 anni di sviluppo, qualcosa di buono sia riuscita a tirarla fuori. Ho visto il vecchio filmato e, ripeto, sono rimasto di stucco. Chissà cosa ci riserverà il futuro...
si si, per carità... nessuno mette in dubbio il lavoro svolto... non credo che dire o portare dei dubbi sul fatto che HL2 non sia poi FULLDX9 sminuisca il titolo o il lavoro stesso.
Tutto sommato è anche normale che sia cosi... certo si potrebbe dire che se nVidia già adesso se la cava a stento... ma chissà... magari la scheda non perderebbe molto con titoli ancora + impegnativi ed in virtù di nuovi driver il tutto potrebbe mantenersi su un livello di discretezza.


Quote:
Originariamente inviato da cdimauro
Nessuna persona di buon senso potrebbe farlo...

Appunto. E poi, ripeto: non mi pare che su un'economica 9600Pro giri tanto male...

OK, su questo concordo, ma non a tutti i costi. Lo standard è rappresentato dalle DirectX 9, non dal CineFX. I giochi andrebbero sviluppati soltanto per le DX9: tutto il resto DOVREBBE essere a carico dei costruttori di GPU.
Immagina cosa accadrebbe se ognuno facesse uscire una GPU che funzioni a modo suo: ci sarebbe il caos! E tu pensi che le software house dovrebbero rilasciare una versione degli shader per ogni GPU esistente? Sarebbe assurdo, dai!
L'ha fatto nVidia perché ha una posizione dominante nel mercato, ma la sua azione non merita alcuna giustificazione.
e già... ci sarebbe il caos... dannata 3dfx con le sue glide
ehheheh... be i tempi erano diversi... non hai tutti i torti... l'azione di nVidia non sarà bella... ma queste sono regole di mercato... tutti cercano di tirare l'acqua dal proprio mulino.
cmq al riguardo i nuovi driver (non so se già la prime rel. dei 50) dovrebbero avere quel 'famoso' compilatore in modo da adattare gli shaders scomponendone le istruzione e cercando l'ottimizzazione adatta per il chip Fx.
Al riguardo ho letto post contro questi driver di utenti che criticano nVidia per il fattore driver... dicendo che questi driver sono per Hl2 e non è possibile avere per ogni gioco questi problemi e cioè dover fare per ogni gioco dei driver.
Be... in realtà nVidia ha detto che i .50 sono per tutti i titoli DX9... poi probabile che ci sia dietro una particolare attenzione ai casi specifici di HL2(niente di strano del resto... non c'è molto altro su cui lavorare).

Quote:
Originariamente inviato da cdimauro

Appunto perché si tratta di nVidia e non si è voluto lasciare col culo per terra milioni di utenti, ma non è assolutamente una buona cosa...

Beh, anche nVidia ha dichiarato ufficialmente che quello della nebbia è un bug dei DET50: almeno a loro dovrai pur credere...
si... ma hanno detto che NELLA LORO VERSIONE... in una frase un po mistica/scocciata che volendo :P nasconde qualcosa dietro.


Quote:
Originariamente inviato da cdimauro
Come ho già detto, se ci saranno miglioramenti saranno per il codice DX9 generico. Il "mixed mode" è già stato ottimizzato "a mano", e non credo che potrà giovarsi dei nuovi driver...

Anch'io, e ho esposto chiaramente le mie perplessità sulla capacità del CineFX di far girare bene i giochi DX9 (a livello di shader). Tomb Raider prima (lo so che è una chiavica) e HL2 sembrano dimostrare ciò che dico. All'appello manca Doom 3, ma chissà quando arriverà... Ho tralasciato il 3DMark2003 perché non lo considero neppure (vedi messaggi precedenti), ma i test atti a valutare le prestazioni teoriche degli shader (che servono agli operatori del settore) avevano già mostrato questa realtà...
si si infatti... driver nuovi per DX9... Doom3 è OpenGL.

per i test... si ma io avevo visto test anche un tantino diversi... certo erano casi se vogliamo particolari... quei casi dove nVidia risolve tutto in una passata e la controparte Ati ne necessita di 5.

Quote:
Originariamente inviato da cdimauro
Scusa, ma come fai a sostenere ancora queste cose? Cerca di essere obiettivo: DUE ANNI FA le cose stavano così come pensi? L'accordo MS/Ati risale al mese scorso, e a voler portare indietro le lancette, pensi che MS si sarebbe fidata di Ati, senza qualcosa di concreto in mano, per la prossim XBox? Con l'R300 prima (che ha fatto fuori l'NV30 su tutti i campi), e con l'R350 poi (che si mantiene competitivo con l'NV35 sulle DX8, e vincente sulle DX9), Ati ha dimostrato di essere una realtà solida su cui MS si può appoggiare per lo sviluppo della sua nuova console.
Ma questa, ripeto, è tutta storia RECENTISSIMA. Non hai alcuna prova, neppure indiziaria, per poter parlare di manovre o accordi sottobanco. Se è vero che cose del genere possono succedere usualmente, è anche vero che hanno bisogno di tempo per essere elaborate. E proprio il tempo è quello che smentisce le tue affermazioni. Prendine atto onestamente e chiudiamo questa parte della discussione.
be...ho generalizzato (hai letto la parentesi?)... accordi ci sono generalmente sempre... ci sono tra Intel ed Amd, Ati ed nVidia... ci sono tra i fornitori di servizi cell. del nostro paese ecc....
o cara Intel... perchè farci sta guerra di prezzi? guarda che io Amd abbasso ancora i prezzi... poi li abbassi anche tu ecc... hmm... cara Intel... penso sia meglio ci mettiamo daccordo perchè io AMD guadagno molto di più vendendo 10 pezzi a 100 piuttosto che vendendone 20 a 20... (stesso discorso contrario) ecc... ecc...

nel caso sopra... tra M$ ed nVidia non ci sono rose e fiori da un bel po di tempo... le cause legali che ci sono state attorno alla fornitura di chip per Xbox hanno creato una sorta di tensione e le 2 si son fatte parecchi 'dispetti'.


Quote:
Originariamente inviato da cdimauro
Non ci vorrà molto. Tra poco sarà rilasciato e lo potrai testare, tranquillo...
vedremo...

Quote:
Originariamente inviato da cdimauro
Ho voluto lasciare quest'ultimo pezzo per risponderti in merito alla questione dei flame e degli insulti. So che non erano rivolti a me, ma il discorso era in generale, e ti riporto il mio pensiero.

Cosa accadrebbe se ci mettessimo a insultare o redarguire tutti i cretini che scrivono "nVidia merda, Ati merda, ecc."? Il forum diventerebbe la succursale della nettenza urbana. Per cui questi post già a priori bisogna lasciarli perdere: ci sono i moderatori che mi sembrano le persone più indicate mettere in riga queste persone.

Se c'è qualche utente che spara delle cazzate, puoi sempre quotarlo e metterlo con le spalle al muro, chiedendo conto e ragione delle sue affermazioni. Anche in questo caso non c'è bisogno di ricorrere a epiteti o offese: è sufficiente la forza dei fatti.

Per gli altri utenti che sono in grado di sostenere una discussione, non vedo perché bisogna arrivare sempre ai ferri corti quando sostengono idee diverse: c'è modo e modo di intavolare un dialogo. Se poi non si possono oggettivamente conciliare le posizioni, basta finirla lì.
ok...

hmmm.... mi che postone...



Quote:
Originariamente inviato da cdimauro
Il motivo dei miei richiami nei tuoi confronti è stato forte perché non mi aspetto che una persona capace di sostenere delle discussioni di un certo spessore si metta al livello di quelli che hanno scambiato il forum per il lettino dello psicanalista per sforgare le loro frustazioni di fanatici. Da te mi aspetto discussioni serie e basta, questo è il punto.
ue che vuoi fare? mi aduli per portarmi sul lato oscuro... anzi chiaro della forza? ghghghgh


Quote:
Originariamente inviato da cdimauro
Infine, è vero che + o - siamo affezionati alla nostra CPU o GPU (ed è evidentissimo che da tempo tieni per nVidia ), ma ripeto il concetto: quando si discute di una cosa tecnica, bisogna lasciare a casa i sentimenti personali. Quando parlavamo di GPU mesi addietro, avevo una Voodoo3 3000 sul muletto (da cui ti sto sto scrivendo... ) e una fiammante GF2 MX400 sul computer principale; da circa un mese invece ho cambiato la GF2 per una 9600Pro (principalmente per la qualità video, come ti ho detto, perché la uso per il 2D e quasi mai per il 3D). Sei vai a rivedere i miei commenti, puoi affermare che siano cambiati da allora e che adesso siano influenzati dalla mia nuova scheda grafica? In tutta onestà penso di no.
io tengo per nVidia? naaa... ma che dici mai... ma cosa te lo fa pensare?
be... è cmq relativo... attualmente vorrei vedere e sapere qualcosa di più su xgi...
prima di passare ad nVidia... avevo le 3dfx (1 e 2)... poi con la 3 ecc... ho iniziato a storcere il naso... e sono passato alla Gef1 (bellllaaaaa)... se 3dfx faceva una nuova scheda grafica (sulle ultime vodoo preferisco nn esprimermi...)... ma ha fallito...
Ora come ora aspetto la next-generation... già da prima che uscisse il chip ho considerato NV30/35 troppo sperimentale e la concorrenza per quanto abbia un ottimo chip... aspetto cmq di vedere che combinano nella next-generation... e se salta fuori qualche nuovo contendente... tanto meglio...
oppure forse prenderò Ati... o nVidia... dipende da che combinano... ma questa generazione lo ripeto come l'ho detto quando stava per uscire...: non mi interessa minimamente.

Quote:
Originariamente inviato da cdimauro

A me piace discutere e basta, senza insultare e scatenere flame, ed è quello che spero facciano tutti, anche se mi rendo conto che, proprio per una questione di attaccamento personale, a volte è difficile accettare alcuni fatti.

Spero che quello che ho scritto ti serva per il futuro e ti permetta di affrontare con più maturità anche le discussioni più "rognose"...

Saluti
o_O''' ma chi sei? mia mamma?
la mia forumamma

Saludos.
__________________

DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 15-09-2003, 18:04   #136
Biotech
Member
 
Iscritto dal: Jun 2001
Messaggi: 122
X the joe

sicuramente dovrai darmi ragione del fatto che è troppo presto tirare conclusioni sulle prestazioni dell'NV3x su HL2 con i driver attuali; mi sembra insomma un voler girare il coltello nella piaga...

Devo dire onestamente che non ho nulla contro ATI, in quanto ho schede di entrambe le marche, però devo dire che tutte le accuse velocistiche su NVIDIA sono assolutamente infondate in quanto le schede sono perfettamente uguali.

CIAUZ
Biotech è offline   Rispondi citando il messaggio o parte di esso
Old 16-09-2003, 08:15   #137
the_joe
Senior Member
 
L'Avatar di the_joe
 
Iscritto dal: May 2003
Città: Lucca
Messaggi: 14772
Ciao Biotech, certamente è presto, troppo presto per trarre conclusioni definitive, ma non puoi nemmeno dire che le due schede siano identiche dopo tutti i post che hanno evidenziato le differenze strutturali delle GPU in questione, la diversità dei Ps e VS 2.0 nelle GPU NVidia rispetto alle specifiche DX9 è stato fatto notare già da tempi non sospetti.
Poi se i programmatori NVidia saranno in grado di sfornare dei driver che possano effettuare delle operazioni di ottimizzazione delle istruzioni critiche per meglio adattarle ai propri shaders al volo e con prestazioni decenti, meglio per tutti in special modo per tutti coloro che hanno acquistato (magari un po' avventatamente a mio avviso perchè ripeto il problema era noto da tempo e considerando che ATI ha da + di una anno una scheda DX9 pienamente funzionale in listino) una scheda FX.
Io non sono per ATI o per NVidia, ammiro chi fa dei buoni prodotti e magari la prossima generazione di schede ribalterà la situazione ed io sarò il primo ad elogiare il vincitore (come ho comprato NVidia quando lo meritava), ora la situazione è questa, il prodotto FX è ancora immaturo ed ha bisogno di affinamenti.
Per quanto riguarda DOOM III è un titolo OpenGL che quindi non sfrutta i VS e PS 2.0 ma la versione 1.4 quindi il confronto si sposta su un altro campo non più in quello delle DX9, considerando poi che i drivers NVidia per le OpenGL sono sempre stati migliori di quelli ATI e che per il titolo in questione è stata scritta una path apposita per il motore FX è chiaro che le schede NVidia diano le migliori prestazioni, non voglio dire che se fosse scritta una path apposita per ATI la situazione cambierebbe, ma solo che al momento le schede ATI fanno girare meglio i giochi scritti rispettando gli standard senza bisogno di interventi da parte dei programmatori mentre viste le scelte di NVidia , le GPU FX hanno bisogno di un po' più di attenzioni per essere sfruttate al meglio.

BYEZ
the_joe è offline   Rispondi citando il messaggio o parte di esso
Old 16-09-2003, 10:42   #138
Biotech
Member
 
Iscritto dal: Jun 2001
Messaggi: 122
quindi...

non fai altro che confermare ciò che ti ho detto prima, ovvero che non è corretto classificare come perdente un prodotto validissimo, solo perchè un versione beta peraltro con driver sbagliati non è all'altezza di schede su cui il gioco è stato sviluppato! Grazie alla pizza che non vanno uguali!

E poi un consiglio a tutti: non vi fidate mai quando vedete differenze velocistiche esagerate: c'è sempre qualcosa sotto. Ciò che voglio dire è che non è umanamente pensabile che una 9600Pro possa essere due volte più veloce di una bestia di scheda come la 5900 ultra. Qui si parla di eresia!
Io ho avuto la fortuna di provarle tutte quante le schede di questo periodo e posso affermare che le FX sono delle gran belle schede così come le ATI; l'unica cosa che non digerisco delle ATI è la suscettibilità enorme all'overclock, la gestione obbrobriosa dei driver (che ancora installano nel sistema due periferiche - FURY MAXX docet!).
Per il resto non me la sento di dire che non siano schede valide: grazie a Dio viviamo un bel periodo dal punto di vista hardware con novità continue e concorrenza spietata, in cui l'utente può fare tutte le scelte che vuole.

CIAUZ
Biotech è offline   Rispondi citando il messaggio o parte di esso
Old 16-09-2003, 10:47   #139
emylyano
Member
 
L'Avatar di emylyano
 
Iscritto dal: Sep 2003
Messaggi: 34
Voglio Giocareeeeeeee!!

Ho fatto la "pazzia" di acquistare una Sapphire Radeon 9800pro 128Mb...Mi arriva oggi..(CHL €450) il 30 Settembre tutti a comprare HL2..che dite andrà bene...AsusA7N8X-X, AMD XP 2500+ barton, 2x256Mb CorsairTwix 3200...)
Voglio Giocareeeeeee!!
Ciauz.....
emylyano è offline   Rispondi citando il messaggio o parte di esso
Old 16-09-2003, 11:04   #140
roxys
Junior Member
 
Iscritto dal: Mar 2003
Messaggi: 7
Scusate

Scusate l'ignoranza ma qualcuno mi sa dire con tranquillità com'è che ne l benk di aquamark 3 la fx 5900 e vicina e a volte leggermente sopra alla 9800 mentre con Hl2 la differenza è enorme ?
Non vi puzza un pochino il fatto che con HL2 ci sia uno sbilanci pro Ati di quasi il doppio delle prestazioni............... mentre fino ad ora il divario era più contenuto......cosi da profano chiedo....peò se mi dovete sbandierare che AquaMax e total conversion per Nvidia fate a meno di rispondermi grazie...
roxys è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Identikit della scheda video perfetta, p...
SUV, 100% elettrico e costa meno di un b...
Hai mai caricato un referto su ChatGPT? ...
Apple vuole un nuovo campus nella Silico...
DJI Osmo 360, la nuova action cam a 360&...
Lo strumento anti-requisiti per Windows ...
Utenti di Claude in rivolta: 'I bei vecc...
Rocket Lab Mars Telecommunications Orbit...
NVIDIA GeForce RTX: supporto driver su W...
iliad ha iniziato a vendere smartphone d...
La cinese SatNet ha lanciato un nuovo gr...
Cloud sovrano europeo: a che punto siamo...
The Medium arriverà al cinema gra...
Addio alle faccende domestiche? Il robot...
Fallito il primo lancio del razzo spazia...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:38.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1