Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Attenti a Poco F7: può essere il best buy del 2025. Recensione
Attenti a Poco F7: può essere il best buy del 2025. Recensione
Poco F7 5G, smartphone che punta molto sulle prestazioni grazie al processore Snapdragon 8s Gen 4 e a un display AMOLED da ben 6,83 pollici. La casa cinese mantiene la tradizione della serie F offrendo specifiche tecniche di alto livello a un prezzo competitivo, con una batteria generosissima da 6500 mAh e ricarica rapida a 90W che possono fare la differenza per gli utenti più esigenti.
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 19-01-2009, 09:11   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwupgrade.it/news/skvideo...dia_27743.html

Emergono le prime informazioni circa l'architettura di nuova generazione con cui Nvidia intende supportare DirectX 11

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:17   #2
Automator
Senior Member
 
Iscritto dal: May 2005
Messaggi: 809
speriamo davvero in un calo consistente dei consumi.... cavolaccio
Automator è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:17   #3
zani83
Member
 
Iscritto dal: Jun 2002
Messaggi: 171
...bah....la vedo grigia x nvidia...non so quanto ridurrà i consumi con una mimd......sono sempre + convinto ke verrà staccata da ati...ma....spettiamo e vediamo....
zani83 è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:21   #4
bs82
Senior Member
 
L'Avatar di bs82
 
Iscritto dal: Nov 2002
Messaggi: 3048
Ohhhhh

E si copia da Ati ;-) ... beh dopottuto è la soluzione più efficente.... vedi prestazioni per transistori di Rv770 vs Gt2xx ;-)
bs82 è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:22   #5
giaballante
Senior Member
 
Iscritto dal: Jan 2002
Messaggi: 307
diminuirà le frequenze di clock?

siamo sicuri di questa affermazione?
giaballante è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:24   #6
viper-the-best
Senior Member
 
L'Avatar di viper-the-best
 
Iscritto dal: Aug 2007
Città: Milano
Messaggi: 3461
mah..ce n'è di tempo da aspettare..possono succederne di cose...
viper-the-best è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:26   #7
2012comin
Senior Member
 
Iscritto dal: Dec 2008
Messaggi: 422
"Nvidia diminuirà le frequenze di clock e il consumo energetico"

cioè?
da quel che mi ricordo la freq della gpu Nvidia sono mediamente attorno ai 650 Mhz dalla serie 7900 o prima... con un range tra i 500 e i 700 circa

è possibile avere qualche info in più?
2012comin è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:33   #8
Joxer
Senior Member
 
L'Avatar di Joxer
 
Iscritto dal: Feb 2006
Messaggi: 4556
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.
Joxer è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:35   #9
Cialtrone
Member
 
Iscritto dal: Nov 2005
Messaggi: 31
Di per se, quando si cambia architettura di un processore, un aumento o una diminuzione di frequenza non implicano necessariamente un aumento delle prestazioni e/o dei consumi..dipende tutto da come sono strutturate le unità logiche all'interno! La progettazione di un processore è una cosa terribilmente complessa!
Cialtrone è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 09:38   #10
XFer
Member
 
Iscritto dal: Dec 2008
Città: Roma
Messaggi: 73
Premetto che sono uno sviluppatore CUDA.
Le frequenze delle GPU Nvidia sono più complicate.
Gli shader di una 9800 GTX sfiorano gli 1.7 GHz, mentre i ROP vanno attorno a 700 MHz e gli instruction issuer degli shader a 1/4 degli shader.
Per calcolare la capacità di calcolo di picco va preso come riferimento il clock degli shader, quindi nell'esempio che ho fatto circa 1.7 GHz.
Con la serie GT200 a parità di processo (65nm) i clock sono stati abbassati (shader attorno a 1.3 GHz) per via dell'aumento di transistor e quindi di consumo.
Forse con la nuova architettura NVidia userà un clock unico per tutto il chip, e a quel punto gli shader potrebbero viaggiare ad un clock più basso rispetto all'attuale, com'è appunto il caso di ATI.

Piccola osservazione del tutto personale: ho l'impressione che NVidia da G80 in poi abbia iniziato a puntare più sulla flessibilità, e quindi allo sfruttamento della GPU per CUDA e PhysX, che sulle prestazioni "hardcore" in ambito gaming. Ecco che ATI si è rifatta prepotentemente sotto... vedremo, bella comunque la competizione!
XFer è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:04   #11
halduemilauno
Senior Member
 
L'Avatar di halduemilauno
 
Iscritto dal: Feb 2002
Città: Discovery
Messaggi: 34710
Quote:
Originariamente inviato da Joxer Guarda i messaggi
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.
il GT300 è previsto per novembre.
__________________
Good afternoon, gentlemen, I'm a H.A.L. computer.
halduemilauno è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:06   #12
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
nn vedo l'ora

inoltre è auspicabile che finalmente andranno ad utilizzare le nuove dx11...mmm e le 10? le hanno saltate?
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:07   #13
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
Quote:
Originariamente inviato da halduemilauno Guarda i messaggi
il GT300 è previsto per novembre.
è probabilissima come data, anche g80 (che bei ricordi ) usci a novembre
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:25   #14
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17229
Quote:
Originariamente inviato da XFer Guarda i messaggi
Forse con la nuova architettura NVidia userà un clock unico per tutto il chip, e a quel punto gli shader potrebbero viaggiare ad un clock più basso rispetto all'attuale, com'è appunto il caso di ATI.
Lo troverei abbastanza strano, Nvidia si è fatta da un pò "promotrice" della cosa e ha sempre usato frequenze diverse per lo shader core.
Il calo di frequenza secondo me è imputabile ad un aumento della complessità che (anche a processi produttivi più bassi ) porterebbe ad aumenti di consumi.
Se invece stesse pensando anche Nvidia che è meglio una gpu piccola magari da proporre in multi gpu rispetto alla solita gpu monolitica?
Comunque troverei strano anche questa inversione di tendenza.

Quote:
Piccola osservazione del tutto personale: ho l'impressione che NVidia da G80 in poi abbia iniziato a puntare più sulla flessibilità, e quindi allo sfruttamento della GPU per CUDA e PhysX, che sulle prestazioni "hardcore" in ambito gaming. Ecco che ATI si è rifatta prepotentemente sotto... vedremo, bella comunque la competizione!
Nvidia ha puntato molto su CUDA e PhysX, ma con le gpu monolitiche che si ritrova in casa l'aumento di prestazioni (quindi frequenze o shader) non è così semplice (una gpu grossa da fare aumentare ancora di più) quindi volente o nolente si è dovuta un attimino fermare.
Ati dal canto suo ha fatto le mosse giuste, una gpu piccola ma molto prestante che accorpata ad una sua sorella ha di fatto sopravanzato la gpu di punta Nvidia, costando anche meno.
Da qui il mio pensiero sopra, cioè che anche Nvidia stia pensando di fare la stessa cosa, accorpare due gpu piccole le dovrebbe risultare semplice visto che di solito lo fa con quelle grosse
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:30   #15
Mparlav
Senior Member
 
L'Avatar di Mparlav
 
Iscritto dal: Dec 2005
Messaggi: 20689
xghiltanas: diciamo che vanno a "supportare" le Directx11
Da qui ad "utilizzarle" realmente, campa cavallo...
Infatti, continuiamo ad aspettare i giochi Directx10: magari poi ne esce qualcuno, così per errore ;-)

Con i budget di sviluppo delle software house quest'anno ridotti all'osso, sempre più dedicati alle console, che queste sono e restano invariate anche nel 2010 se non anche 2011, voglio proprio vedere quanti giochi PC usciranno l'anno prossimo in Direct11.

Non è un caso che questo GT300 continua a spingere architetturalmente col discorso Gpgpu, considerando che Larrabee uscirà più o meno nello stesso periodo.
Mparlav è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:32   #16
ghiltanas
Senior Member
 
L'Avatar di ghiltanas
 
Iscritto dal: Sep 2006
Messaggi: 27833
Quote:
Originariamente inviato da Mparlav Guarda i messaggi
xghiltanas: diciamo che vanno a "supportare" le Directx11
Da qui ad "utilizzarle" realmente, campa cavallo...
Infatti, continuiamo ad aspettare i giochi Directx10: magari poi ne esce qualcuno, così per errore ;-)

Con i budget di sviluppo delle software house quest'anno ridotti all'osso, sempre più dedicati alle console, che queste sono e restano invariate anche nel 2010 se non anche 2011, voglio proprio vedere quanti giochi PC usciranno l'anno prossimo in Direct11.

Non è un caso che questo GT300 continua a spingere architetturalmente col discorso Gpgpu, considerando che Larrabee uscirà più o meno nello stesso periodo.
per vari motivi imho le dx11 saranno realmente utilizzate, basta pensare ad esempio che saranno utilizzate su 2 so diversi, invece che solo su uno, appena uscito, come successe per le 10. Inoltre vista sarà ormai parecchio diffuso e quindi sarà interesse delle software house puntare alle 11
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
ghiltanas è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 10:50   #17
Mparlav
Senior Member
 
L'Avatar di Mparlav
 
Iscritto dal: Dec 2005
Messaggi: 20689
Quote:
Originariamente inviato da ghiltanas Guarda i messaggi
per vari motivi imho le dx11 saranno realmente utilizzate, basta pensare ad esempio che saranno utilizzate su 2 so diversi, invece che solo su uno, appena uscito, come successe per le 10. Inoltre vista sarà ormai parecchio diffuso e quindi sarà interesse delle software house puntare alle 11
Certo che le utilizzeranno: ci mancherebbe.
E' sul "quando" che sono molto scettico, visto che quest'anno assisteremo ad un forte rallentamento dello sviluppo in diversi settori, e non vedo molte società pronte a gareggiare per proporre il primo gioco Directx11 per fare il figo con Windows 7 subito dopo il debutto.
Mparlav è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 11:24   #18
0sc0rpi0n0
Senior Member
 
L'Avatar di 0sc0rpi0n0
 
Iscritto dal: Apr 2006
Messaggi: 726
A mio avviso con questi nuovi prodotti ci sarà un salto prestazionale notevole , più di altre volte .
0sc0rpi0n0 è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 11:42   #19
Notturnia
Senior Member
 
L'Avatar di Notturnia
 
Iscritto dal: May 2008
Messaggi: 12543
aspetterò :-D

il GT280 va bene.. quindi posso aspettare il 300 e saltare il 295
Notturnia è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2009, 11:49   #20
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7532
Quote:
Originariamente inviato da Mparlav Guarda i messaggi
Certo che le utilizzeranno: ci mancherebbe.
E' sul "quando" che sono molto scettico, visto che quest'anno assisteremo ad un forte rallentamento dello sviluppo in diversi settori, e non vedo molte società pronte a gareggiare per proporre il primo gioco Directx11 per fare il figo con Windows 7 subito dopo il debutto.
le Directx11 sono per windows 7 e windows vista quindi all'uscita il parco di utenza sarà molto ampio rispetto alla storia recente delle Directx10

le Directx11 sono un espansione modulare delle Directx10 e 10.1 quindi, si puo decidere di sviluppare utilizzando le vecchie librerie senza rischiare di avere problemi di compatibilità o altro, la situazione è diametralmente opposta rispetto il passato e il passaggio dalle Directx7-8-9.

Ultima modifica di coschizza : 19-01-2009 alle 11:53.
coschizza è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Attenti a Poco F7: può essere il best buy del 2025. Recensione Attenti a Poco F7: può essere il best buy...
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
TSMC produrrà a 2 nm anche in Ari...
Tesla vuole Musk a tutti i costi: propos...
Spotify aumenta i prezzi: da 10,99 a 11,...
Prezzi folli su AliExpress con Choice Da...
IA ed etica: Fastweb+Vodafone fra le pri...
Pannelli solari nuovi o riciclati? Quest...
Instagram cambia le regole per i Live: n...
Windows 11 SE addio: Microsoft stabilisc...
Kali Linux più facile su macOS gr...
È la fine per le antenne 5G? Al l...
WhatsApp, una taglia da 1 milione di dol...
Sembrava spacciato, poi una bici elettri...
Apple Watch Series 1 diventa obsoleto: a...
ho. Mobile, upgrade a 250 GB senza sovra...
Reddit non avrà post a pagamento,...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:57.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1