Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 09-09-2008, 18:22   #121
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
questo è interessante, imho.

quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?

sai qualcosa su eventuali engine in lavorazione, a questo proposito ?

che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?


che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
non sono yossarian ma imho "veri" giochi dx10 (10.1) si cominceranno a vedere verso la fine dell'anno prossimo/primi 2010; "veri" giochi dx11 non prima di tre anni almeno
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:27   #122
Mr_Paulus
Senior Member
 
Iscritto dal: Nov 2007
Messaggi: 9047
Quote:
Originariamente inviato da ThePunisher Guarda i messaggi
La vera domanda è... NVIDIA ha fatto addirittura uno shrink del G92... e un chip nuovo (GT200), anche se sempre evoluzione del G92... perchè diavolo non ha implementato il supporto DX10.1?
forse perchè costa meno pagare le sh per non implementare queste features (e quindi che amd non se ne avvantaggi) piuttosto che riprogettare il chip?..........



















ok questa era cattiva


p.s. a scanso di flames era una battuta
Mr_Paulus è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:34   #123
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
questo è interessante, imho.

quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?

sai qualcosa su eventuali engine in lavorazione, a questo proposito ?

che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?


che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
la cosa intelligente a sto punto, sarebbe saltare le dx10 e puntare a programmare direttamente in dx11, cosi quando uscirà l'hardware adatto usciranno anche gli engine adatti. Ogni volta sennò siamo da capo, escono le dx10 e i titoli sono finalmente ottimizzati in dx9, escono le 11 e vai di titoli in dx10...e che cacchio
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:35   #124
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da ThePunisher Guarda i messaggi
MMh non proprio... qualcuno su forum stranieri specializzati è già in possesso di qualche esemplare e GPU-Z indica come nome proprio "GTX 260" e basta.
ti dirò, può non significare nulla: a volte bisogna aspettare una nuova release di gpu-z/di driver per avere il nome corretto, su quell'applicazione...

Quote:
Originariamente inviato da ghiltanas Guarda i messaggi
la cosa intelligente a sto punto, sarebbe saltare le dx10 e puntare a programmare direttamente in dx11, cosi quando uscirà l'hardware adatto usciranno anche gli engine adatti. Ogni volta sennò siamo da capo, escono le dx10 e i titoli sono finalmente ottimizzati in dx9, escono le 11 e vai di titoli in dx10...e che cacchio
il fatto è imho che se vedessimo un "vero" gioco dx10 (o 10.1) rimarremmo già così (ovviamente su hw sufficientemente potente )

quindi direi che cmq sarebbe già una svolta rispetto ad ora (che abbiamo solo "assaggiato" qualche effetto posticcio dx10 su giochi scritti in dx9)
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto

Ultima modifica di appleroof : 09-09-2008 alle 18:37.
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:36   #125
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
cmq aspetto anche una risp da yossorian, trovo i suoi interventi tecnici sempre molto istruttivi
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:41   #126
Mister Tarpone
 
Messaggi: n/a
Quote:
Originariamente inviato da appleroof Guarda i messaggi

il fatto è imho che se vedessimo un "vero" gioco dx10 (o 10.1) rimarremmo già così (ovviamente su hw sufficientemente potente )
io intanto sono rimasto così vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi
  Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:43   #127
Mr_Paulus
Senior Member
 
Iscritto dal: Nov 2007
Messaggi: 9047
Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
io intanto sono rimasto così vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi
eppure dicevano che i giochi dx10 dovrebbero essere più leggeri a parità di effetti rispetto ai dx9.
magari le performance scandalose sono date dal fatto che i presunti giochi dx10 sono in realtà dx9 con qualche effetto dx10
Mr_Paulus è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:44   #128
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
io intanto sono rimasto così vedendo le performance (nel sito di pcgh) poco soddisfacenti - con tutto al max- con una gtx 260 o 4870 con il nuovo stalker in dx9 e dx10
..quindi credo che con un gioco completamente dx10-dx10.1 farebbero fatica ste schede...
poi
sicuramente....

considera cmq che non considero clear sky un campione di ottimizzazione (come crysis ovviamente ) e la ragione molto probabilmente è proprio (o cmq incide molto) nel fatto che è dx9 e 1/2 o "quasi" dx10 che vogliamo dire
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:54   #129
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
questo è interessante, imho.

quindi da quel che sai come esperto di gpu e professionista del settore, puoi "confermare" che ad ora ancora non sono usciti engine che, sul sistema opportuno, fanno tutto il lavoro che c'è da fare con dx usando chiamate dx10 ?
no, al momento non ci sono titoli dx10; ci sono aolo alcune feature (poche per la verità) dx10 che era possibile portare su un engine dx9 (e in alcuni casi addirittura dx8, tipo quello di stalker). Uno di questi permette l'utilizzo di MSAA con motori che fanno uso di deferred lightning attraverso (si renderizza su una texture il contenuto dello z-buffer per renderlo riutilizzabile, cosa che con le dx9 è impossibile).

Quote:
Originariamente inviato da MenageZero Guarda i messaggi

sai qualcosa su eventuali engine in lavorazione, a questo proposito ?

che tempi pronosticheresti per vedere titoli veramente dx10 ? pensi ne vedremo di (effettivamente)dx10.1 ?
non so molto; so che ci sono degli engine dx10 in lavorazione ma non ne conosco i tempi di rilascio. Il ritardo è, comunque fisiologico e dovuto principalmente al fatto che in un primo tempo non c'erano piattaforme su cui lavorare (lo sviluppo di un gioco o anche di un motore grafico richiede tempi piuttosto lunghi); ora le piattaforme di sviluppo ci sono, ma l'HW è ancora piuttosto limitato (le fasce basse o medio basse non vanno tenute in conto, poichè non sufficientemente potenti da elaborare codice complesso). Un altro fattore di ritardo è lo sviluppo di titoli multipiattaforma e le relative operazioni di porting. Le dx10.1 sono le dx10 con alcune ottimizzazioni miranti a migliorare la qualità e, in alcuni casi a velocizzare l'elaborazione e a facilitare il compito del porgrammatore. Per questo sarebbe stupido scrivere codice dx10 senza includere le estensioni dx10.1. Il caso degli attuali titoli non fa testo, in quanto il codice scritto non è dx10.

Quote:
Originariamente inviato da MenageZero Guarda i messaggi

che ti aspetti sui tempi del rilascio di dx11 e poi uscita sul mercato del relativo hw?
per l'uscita delle dx11 suppongo che sarà rispettata la roadmap (probabilmente le vedremo prima di seven). Per l'HW, direi tra il Q3 e il Q4 del 2009; diciamo che prima esce e prima possonmo iniziare le sWhouse a lavorarci su .
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 18:56   #130
Mister Tarpone
 
Messaggi: n/a
Quote:
Originariamente inviato da appleroof Guarda i messaggi
sicuramente....

considera cmq che non considero clear sky un campione di ottimizzazione (come crysis ovviamente ) e la ragione molto probabilmente è proprio (o cmq incide molto) nel fatto che è dx9 e 1/2 o "quasi" dx10 che vogliamo dire
non sono ottimizzati.. però se ci fai caso proprio questi tengono una grafica allucinante... eh!!!

vabbè stalker fa cagare per alcune cose... ma l'illuminazione massima è SPAVENTOSA... mai vista in un altro videogame
  Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 19:01   #131
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
non sono ottimizzati.. però se ci fai caso proprio questi tengono una grafica allucinante... eh!!!

vabbè stalker fa cagare per alcune cose... ma l'illuminazione massima è SPAVENTOSA... mai vista in un altro videogame
appunto...immagina un gioco scritto interamente in dx10.1... (con hw dx11 per poterlo pompare al massimo )
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 19:17   #132
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
visto che parlate di illuminazione, nel warhead proprio l'illuminazione e gli effetti particellari sono stati migliorati:

- New Global Ambient Lighting system that improves how lights and shadows interact to better show off normal mapping and shaders.
- Denser and more intense particle effects.
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 09-09-2008, 20:14   #133
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da yossarian Guarda i messaggi
no, al momento non ci sono titoli dx10; ci sono aolo alcune feature (poche per la verità) dx10 che era possibile portare su un engine dx9 (e in alcuni casi addirittura dx8, tipo quello di stalker). Uno di questi permette l'utilizzo di MSAA con motori che fanno uso di deferred lightning attraverso (si renderizza su una texture il contenuto dello z-buffer per renderlo riutilizzabile, cosa che con le dx9 è impossibile).



non so molto; so che ci sono degli engine dx10 in lavorazione ma non ne conosco i tempi di rilascio. Il ritardo è, comunque fisiologico e dovuto principalmente al fatto che in un primo tempo non c'erano piattaforme su cui lavorare (lo sviluppo di un gioco o anche di un motore grafico richiede tempi piuttosto lunghi); ora le piattaforme di sviluppo ci sono, ma l'HW è ancora piuttosto limitato (le fasce basse o medio basse non vanno tenute in conto, poichè non sufficientemente potenti da elaborare codice complesso). Un altro fattore di ritardo è lo sviluppo di titoli multipiattaforma e le relative operazioni di porting. Le dx10.1 sono le dx10 con alcune ottimizzazioni miranti a migliorare la qualità e, in alcuni casi a velocizzare l'elaborazione e a facilitare il compito del porgrammatore. Per questo sarebbe stupido scrivere codice dx10 senza includere le estensioni dx10.1. Il caso degli attuali titoli non fa testo, in quanto il codice scritto non è dx10.



per l'uscita delle dx11 suppongo che sarà rispettata la roadmap (probabilmente le vedremo prima di seven). Per l'HW, direi tra il Q3 e il Q4 del 2009; diciamo che prima esce e prima possonmo iniziare le sWhouse a lavorarci su .
mitico, grazie delle info

... premesso che, non so se lo fanno, ma non sembrerebbe troppo problematico lato ms fornire delle beta di uan nuova major version di dxe relativo sdk, ati ed nv, se non veri e propri prototipi, non danno mai dei "sample", con significativo anticipo sulla commercializzazione, alle sw house (quantomeno ad alcune) per guadagnare, che so, almeno qualche mese ?

altra cosa, parzialmente collegata al discorso degli engine attuali, (tanto ormai ho svariato parecchio ... temo necessiti di auto-richiamo ):

che tu sappia, una certa differenza di fps che molti trovano (o dicono di trovare) tra vista ed xp, con uno stesso titolo a parità di tutto il resto (hw, vers. drv, impostazione vari, config generale sw pc etc.)
(per es con crysis a very high su entrambi i sistemi - tanto se ho capito bene sono cmq sempre al 99% chiamate dx9, anche su vista)

è dovuta all'ottimizzazione lato drv su vista non ancora ai livelli di quelli per xp, o al fatto che magari l'implementazione delle dx9 su vista è un po' meno performante (non so se lo sia ... ipotesi "a naso" ) o significativamente ad entrambi i fattori ? (... o altro ?)

su vista, programmando "in dx10" per ottenere il medesimo risultato finale, in termini di quello che viene reso a schermo, che si è ottenuto con un certo lavoro "in dx9" , si otterrebbe un significativo incremento di fps, rispetto all'esecuzione del codice dx9 ? rispetto sempre al medesimo codice dx9 ma eseguito su xp ?
(oppure ovviamente ci si può porre questo quesito anche dal pdv "duale", ovvero del poter, o meno, ottenere maggiore qualità a prestazioni sostanzialmente pari)
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein

Ultima modifica di MenageZero : 09-09-2008 alle 20:30.
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 10-09-2008, 08:50   #134
SfiAndrInA
Registered User
 
Iscritto dal: Mar 2006
Città: Ravenna
Messaggi: 278
Quote:
Originariamente inviato da Kuarl Guarda i messaggi
ma qual'è il problema? il nome?

alla fine sono le prestazioni che contano, se la scheda e bona e va forte non vedo motivi per non comprarla.
probabilmente ancora siete in molti a pensarla cosi e infatti Nvidia "continua nei suoi giochetti rubando soldini ai poveretti della città"
Senza offesa , ma è chiaro che ATi ha dato una bella batosta a Nvidia con la serie 4xxx !
Ma la batosta + significativa è stata quella dei prezzi .... Infatti Nvidia che aveva già lanciato le sue ottime schede a prezzi esorbitanti , si è dovuta inmediatamente ridimensionare per restare competitiva da quel lato ...
Ora ritorna (come ha già fatto con la 9800GTX+) a strizzare le sue schedozze ,facendone uscire mille varianti con piccoli incrementi che corrisponderanno a incrementi di prezzo . Cosi potrà ritirar su alcuni nuovi soldini dalla stessa tecnologia ....
SfiAndrInA è offline   Rispondi citando il messaggio o parte di esso
Old 10-09-2008, 12:32   #135
Marko#88
Senior Member
 
Iscritto dal: Apr 2006
Messaggi: 21891
Quote:
Originariamente inviato da SfiAndrInA Guarda i messaggi
probabilmente ancora siete in molti a pensarla cosi e infatti Nvidia "continua nei suoi giochetti rubando soldini ai poveretti della città"
Senza offesa , ma è chiaro che ATi ha dato una bella batosta a Nvidia con la serie 4xxx !
Ma la batosta + significativa è stata quella dei prezzi .... Infatti Nvidia che aveva già lanciato le sue ottime schede a prezzi esorbitanti , si è dovuta inmediatamente ridimensionare per restare competitiva da quel lato ...
Ora ritorna (come ha già fatto con la 9800GTX+) a strizzare le sue schedozze ,facendone uscire mille varianti con piccoli incrementi che corrisponderanno a incrementi di prezzo . Cosi potrà ritirar su alcuni nuovi soldini dalla stessa tecnologia ....
non mi sembra che nessuno abbia messp in dubbio il miglior rapporto qualità prezzo della serie HD4000 di Ati...non vedo perchè rimarcarlo sempre e comunque...il discorso è diverso, la GTX260 è semplicemente frutto dei chip che non reggono tutti gli sp che sono presenti nella GTX280...ora che stanno affinando la produzione possono riuscire a creare chip intermedi e fanno bene a venderli...quelli che vengono fregati sono i soliti coglioni, gli utenti un minimo appassionati sono i primi ad informarsi su ciò che acquistano...e se gli utonti che non si informano vengono fregati...beh, da che mondo è mondo c'è gente che non sa e compra di getto, non parlo solo di schede video...affari loro, si informino meglio prima...
Marko#88 è offline   Rispondi citando il messaggio o parte di esso
Old 10-09-2008, 13:19   #136
MenageZero
Senior Member
 
L'Avatar di MenageZero
 
Iscritto dal: Sep 2005
Messaggi: 2717
Quote:
Originariamente inviato da Marko#88 Guarda i messaggi
non mi sembra che nessuno abbia messp in dubbio il miglior rapporto qualità prezzo della serie HD4000 di Ati...non vedo perchè rimarcarlo sempre e comunque...il discorso è diverso, la GTX260 è semplicemente frutto dei chip che non reggono tutti gli sp che sono presenti nella GTX280...ora che stanno affinando la produzione possono riuscire a creare chip intermedi e fanno bene a venderli...quelli che vengono fregati sono i soliti coglioni, gli utenti un minimo appassionati sono i primi ad informarsi su ciò che acquistano...e se gli utonti che non si informano vengono fregati...beh, da che mondo è mondo c'è gente che non sa e compra di getto, non parlo solo di schede video...affari loro, si informino meglio prima...
il regolamento non ammette insulti, nemmeno andando "per categorie" ...

1 giorno di vacanza dal forum
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein
fonte: http://it.wikiquote.org/wiki/Albert_Einstein
MenageZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-09-2008, 14:31   #137
oldseawolf666
Senior Member
 
L'Avatar di oldseawolf666
 
Iscritto dal: Sep 2005
Città: Fucecchio(Fi)
Messaggi: 1691
Notizie su quando uscira la GTX 260 con 216 stream processors e quanto costerà?????
__________________
WORP: CPU: Intel i7 8700k(@ 5000 Mhz ) + Noctua NH-D15 | Mobo: Asus ROG STRIX Z370-F | VGA: Windforce GTX1080 G1 8GB (@2050 @4300) | RAM: Corsair Vengeance 3000Mhz 16G XMP 2.0 | HDD: X2 SSD Samsung 840PRO 512Gb | ALI: Corsair 750w HX750I | Monitor: Acer Predator X34P | Sound: Creative Sound Blaster Z + Creative inspire 5.1 | Case: Silverstone Raven 01|| Razer Mamba 4g + G19 | Notebook: HP DV6 3150EL | Trattative
oldseawolf666 è offline   Rispondi citando il messaggio o parte di esso
Old 11-09-2008, 17:30   #138
Marko#88
Senior Member
 
Iscritto dal: Apr 2006
Messaggi: 21891
Quote:
Originariamente inviato da oldseawolf666 Guarda i messaggi
Notizie su quando uscira la GTX 260 con 216 stream processors e quanto costerà?????
dovrebbe uscire la settimana prossima, nulla di ufficiale ancora per quanto riguarda il prezzo...
Marko#88 è offline   Rispondi citando il messaggio o parte di esso
Old 13-09-2008, 02:34   #139
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da MenageZero Guarda i messaggi
mitico, grazie delle info

... premesso che, non so se lo fanno, ma non sembrerebbe troppo problematico lato ms fornire delle beta di uan nuova major version di dxe relativo sdk, ati ed nv, se non veri e propri prototipi, non danno mai dei "sample", con significativo anticipo sulla commercializzazione, alle sw house (quantomeno ad alcune) per guadagnare, che so, almeno qualche mese ?
la cosa non funziona come per le console, per tutta una serie di ragioni. L'evoluzione è molto più rapida e spesso, tra un chip ed il suo "refresh" non passano molti mesi (non è quindi possibile sviluppare avendo come riferimento un unico chip); chip differenti (soprattutto di marche diverse) non hanno la stessa architettura anche se l'api di riferimento è la stessa, figuriamoci per versioni diverse delle api (e chi sviluppa giochi per pc deve tener conto del fatto che più sono le piattaforme su cui gira il suo SW più ha possibilità di vendere). Moltissimi giochi sono multipiatta (e non c'è nessuna console dx10 o, tanto meno dx11). Infine, una vga di fascia alta nasce anche per giocare ma va, comunque, ad equipaggiare un dispositivo che non serve solo per giocare: con questo intendo dire che una ps3 non la vendi se, contestualmente al suo lancio, non escono anche giochi che ne giustifichino l'acquisto; al contrario, una 8800 la vendi anche se per vedere il primo gioco dx10 devi aspettare 3 o 4 anni.

Quote:
Originariamente inviato da MenageZero Guarda i messaggi
mitico, grazie delle info


altra cosa, parzialmente collegata al discorso degli engine attuali, (tanto ormai ho svariato parecchio ... temo necessiti di auto-richiamo ):

che tu sappia, una certa differenza di fps che molti trovano (o dicono di trovare) tra vista ed xp, con uno stesso titolo a parità di tutto il resto (hw, vers. drv, impostazione vari, config generale sw pc etc.)
(per es con crysis a very high su entrambi i sistemi - tanto se ho capito bene sono cmq sempre al 99% chiamate dx9, anche su vista)

è dovuta all'ottimizzazione lato drv su vista non ancora ai livelli di quelli per xp, o al fatto che magari l'implementazione delle dx9 su vista è un po' meno performante (non so se lo sia ... ipotesi "a naso" ) o significativamente ad entrambi i fattori ? (... o altro ?)
non conosco nello specifico crysis, però, in alcuni casi, dipende dall'implementazione di alcune feature che è differente tra path dx9 e path dx10. Considera che si sta parlando sempre di engine sviluppati con le dx8 o le dx9 comeriferimento, su cui si "appiccicano" alcuni effetti mutuati dalle dx10. Un esempio è quello dell'illuminazione dinamica con MSAA con engine che fanno deferred rendering. Con le dx10 si adotta lo stratagemma di renderizzare su una texture i valori dello z-buffer e questo permette di riutilizzarli; di conseguenza si ha la possibilità di avere illuminazione dinamica e AA. Con le dx9, al contrario, ciò non è possibile: la soluzione adottata è quella di far uso di una sorta di blurring che simuli un MSAA e un'illuminazione di tipo statico. I due approcci hanno, ovviamente, conseguenze differenti sul frame rate.

Quote:
Originariamente inviato da MenageZero Guarda i messaggi

su vista, programmando "in dx10" per ottenere il medesimo risultato finale, in termini di quello che viene reso a schermo, che si è ottenuto con un certo lavoro "in dx9" , si otterrebbe un significativo incremento di fps, rispetto all'esecuzione del codice dx9 ? rispetto sempre al medesimo codice dx9 ma eseguito su xp ?
(oppure ovviamente ci si può porre questo quesito anche dal pdv "duale", ovvero del poter, o meno, ottenere maggiore qualità a prestazioni sostanzialmente pari)
in dx10 si possono adottare alcune "scorciatoie" che permettono, a parità di tipologia di istruzioni, di ottenere dei vantaggi prestazionali (o maggior qualità a parità di prestazioni).
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 13-09-2008, 03:01   #140
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da appleroof Guarda i messaggi
si, il concetto era (è chiaro): oggi le gtx260 vanno uguale alle 4870, domani prossimo, con i giochi dx10.1, la 4870 avrà un vantaggio sulla gtx260 perchè appunto dx10.1. La conseguenza logica è che una 4870 ha maggiore longevità di una gtx260

ma in un quadro più generale, sia per chi compra le vga per tenerle a lungo (ed aspetta il momento migliore per farlo --leggi architettura nuova dx11--), sia per l'entusiasta che le cambia spesso/spessissimo, anche la 4870 ha un quadro molto limitato nel tempo, perchè l'anno prossimo verrà surclassata non solo dalla nuova architettura Nvidia, presumibilmente, ma anche da quella nuova Ati, sicuramente.

ovvio che in un quadro generale, chi può permettersi di aspettare, fa bene ad attendere la prossima generazione saltando l'attuale. Il problema sorge per chi deve cambiare il pc o la vga adesso (con le dx11 e i relativi chip non propriamente dietro l'angolo)

Quote:
Originariamente inviato da appleroof Guarda i messaggi

allora credi che Microsoft dica che l'unità di tassellazione presente oggi nelle vga (cioè solo Ati) sia incompatibile con quelle previste dalle dx11 solo per fare un piacere ad Nvidia? E Ati se ne stà zitta a guardare senza fare una minima reazione?

se lo dici tu....
e quale reazione dovrebbe avere? La serie 4xxx non si vende per la presenza dell'unità di tessellation. Molto più pesante, a livello d'immagine, la mancata implementazione di feature dx10.1 che permetterebbero ai chip ATi di avvantaggiarsi in maniera non trascurabile sulla concorrenza.
Certo, anche l'utilizzo di algoritmi per le high order surface rappresenterebbe un vantaggio non indifferente (molti meno vertici per ottenere lo stesso dettaglio poligonale significa meno carico di lavoro sullo shader core e minor banda passante richiesta). Ad oggi, l'utilizzo delle tecniche di tessellation è frenato soprattutto dalla carenza di HW in grado di supportare algoritmi per la creazione di HOS più complessi di un subset delle n-patches (qualcosa tipo truform); questo anche a causa del limite di 16 float4 vertex imput value delle dx dx9 e 10 (portati a 32 con le 10.1).

Quote:
Originariamente inviato da ThePunisher Guarda i messaggi
La vera domanda è... NVIDIA ha fatto addirittura uno shrink del G92... e un chip nuovo (GT200), anche se sempre evoluzione del G92... perchè diavolo non ha implementato il supporto DX10.1?
perchè avrebbe dovuto riprogettare gran parte del chip, aumentandone la complessità già così molto elevata.
yossarian è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Identikit della scheda video perfetta, p...
SUV, 100% elettrico e costa meno di un b...
Hai mai caricato un referto su ChatGPT? ...
Apple vuole un nuovo campus nella Silico...
DJI Osmo 360, la nuova action cam a 360&...
Lo strumento anti-requisiti per Windows ...
Utenti di Claude in rivolta: 'I bei vecc...
Rocket Lab Mars Telecommunications Orbit...
NVIDIA GeForce RTX: supporto driver su W...
iliad ha iniziato a vendere smartphone d...
La cinese SatNet ha lanciato un nuovo gr...
Cloud sovrano europeo: a che punto siamo...
The Medium arriverà al cinema gra...
Addio alle faccende domestiche? Il robot...
Fallito il primo lancio del razzo spazia...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:28.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1