View Full Version : NVIDIA Desktop Optimus al debutto per il Computex
Redazione di Hardware Upg
26-04-2011, 15:41
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-desktop-optimus-al-debutto-per-il-computex_36457.html
Debutto previsto a Giugno per la tecnologia NVIDIA che permette l'utilizzo parallelo di GPU integrata nelle soluzioni Sandy Bridge e GPU discreta
Click sul link per visualizzare la notizia.
D3stroyer
26-04-2011, 16:02
penso sia geniale. Tutta quella potenza succhiata in idle dalle vga nei desktop..è solo uno spreco
Ovviamente questa tecnologia come la LucidLogix sono benvenute, anche se è un peccato che si debba ricorrere a programmi di terze parti per ovviare a una mancanza del chipset...
Cmq il mio dubbio è, quali differenze avrà questo sistema rispetto al LucidLogix?
Perchè se andrà a virtualizzare la Vga come per LL il fatto di connettere il monitor alla presa della Vga integrata comporta il fenomeno di Overhead e il conseguente calo di FPS..
Per ovviare a questo problema l'ultima versione del LL permette di collegare il monitor alla VGA discreta, in questo modo non si ha Overhead e calo di FPS, per controparte però la VGA discreta nn puo essere spenta totalmente ma passa solo in idle quando viene utilizzata la vga integrata (per correttezza bisogna dire che fino ad ora LL cmq nn spegneva mai la VGA discreta anche quando nn veniva utilizzata, ma la metteva sempre in idle).
Qualcuno sa qualcosa di piu?
P.s.:Si trovano già delle review su LL, anche di un sito diretto concorrente di Hw :D, spero che che anche voi ne pubblichiate una al piu presto...
Vampire666
26-04-2011, 16:10
Bisognerà vedere se la scheda discreta verrà spenta completamente con un consumo pari o vicino allo 0, o sarà come per la tecnologia Lucid che vede i consumi della scheda discreta in idle comunque presenti.
EDIT: anticipato da Eva00. ;)
s0nnyd3marco
26-04-2011, 16:14
Bisognerà vedere se la scheda discreta verrà spenta completamente con un consumo pari o vicino allo 0, o sarà come per la tecnologia Lucid che vede i consumi della scheda discreta in idle comunque presenti.
EDIT: anticipato da Eva00. ;)
Se non spengono completamente la scheda discreta tale tecnologia e' del tutto inutile...
PS: mi chiedo in quanto tempo saranno presenti i driver per far funzionare su linux una cosa del genere.
Se non spengono completamente la scheda discreta tale tecnologia e' del tutto inutile...
Nn è del tutto inutile perchè ti permetterebbe cmq di sfruttare il QuickSink.
Il problema in generale è in questi termini, con la tecnologia LucidLogix:
-collegando il monitor alla VGA integrata si ha Overhead e calo di FPS in ambito gaming, al momento la VGA discreta cmq nn viene spenta quando nn utilizzato ma messa in Idle, si puo sfruttare il Quicksink.
-collegando il monitor alla VGA discreta non si hanno problemi di Overhead, ovviamente la VGA discreta non potrà mai essere spenta, neanche con future patch del programma, si puo anche qui sfruttare il Quicksink, con prestazioni quasi identiche a quanto la VGA integrata è la primaria.
Come mi domandavo prima, la tecnologia Nvidia aggiunge qualcosa di diverso a questo panorama?
ndwolfwood
26-04-2011, 16:43
penso sia geniale. Tutta quella potenza succhiata in idle dalle vga nei desktop..è solo uno spreco
Di sicuro male non fa ... però sai quanto consuma in idle una GTX560Ti (che dopotutto è di fascia medio-alta)? 15W.
Se la disattivi devi comunque attivare la GPU Intel che consuma circa 5W. Quindi si tratta di risparmiare 10W (che se anche uno tenesse il PC accesso per 5000 ore all'anno corrisponderebbero a 10 euro) ...
L'ottimus sui notebook apporta vantaggi sulla batteria ma in un destop tale beneficio non c'è.
E' veramente interessante solo per gli utenti enthusiast con schede video di fascia altissima e/o SLI che tengono il PC acceso per tanto tempo ... suppongo che non sia moltissimi.
Cmq ci guadagnano tutti ... anche se non correrò di certo a cambiare mobo per questa tecnologia.
stessa tecnlogia dell' Hybrid Power... l' unica differenza è che invece di avere chipset nforce con un 9300 integrata potremo sfruttare l' integrata intel...fortunatamente hanno rivalutato questa tecnlogia
Di sicuro male non fa ... però sai quanto consuma in idle una GTX560Ti (che dopotutto è di fascia medio-alta)? 15W.
Se la disattivi devi comunque attivare la GPU Intel che consuma circa 5W. Quindi si tratta di risparmiare 10W (che se anche uno tenesse il PC accesso per 5000 ore all'anno corrisponderebbero a 10 euro) ...
L'ottimus sui notebook apporta vantaggi sulla batteria ma in un destop tale beneficio non c'è.
E' veramente interessante solo per gli utenti enthusiast con schede video di fascia altissima e/o SLI che tengono il PC acceso per tanto tempo ... suppongo che non sia moltissimi.
Cmq ci guadagnano tutti ... anche se non correrò di certo a cambiare mobo per questa tecnologia.
Non mi pare che GTX560Ti in idle consumi 15 watt
http://www.hwupgrade.it/articoli/skvideo/2699/nvidia-geforce-gtx-560-ti-spazio-a-gf114_7.html
Come ce scritto qui non ce scritto 15 watt ma 112 watt che sono moooolto di piu!!!
Se facciamo una scheda video di alto livello come 590/580/570 andiamo sui 150 in su di watt e il consumo di corrente/soldi si incomincia a sentire.
Quindi consumare di meno non solo risparmiamo un po di soldi ma può contribuire all'ambiente e chissà forse alla riduzione del costo del petrolio(sul petrolio????:D Mooooooooolto improbabile ihihihihihi)
KristinEinander
26-04-2011, 17:42
stessa tecnlogia dell' Hybrid Power... l' unica differenza è che invece di avere chipset nforce con un 9300 integrata potremo sfruttare l' integrata intel...fortunatamente hanno rivalutato questa tecnlogia
Ciao loripod,
mi spiace smentirti, ma purtroppo non è come dici tu. L' HybridPower di Nvidia era stato pianificato anche per il chipset Nvidia 9300 / 9400 per Cpu Intel ( http://www.nvidia.it/object/product_geforce_9400_mgpu_it.html , http://www.nvidia.it/object/product_geforce_9300_mgpu_it.html ), ma non è mai stato rilasciato ( Intel non lo ha voluto e non si è mai saputo il perchè ). HybridPower era perfettamente funzionante su piattaforma AMD chipset 8100 / 8200 / 8300 ... però è stato supportato per un breve periodo con alcune limitazioni : sistema operativo VISTA, schede video 9800 GTX ( non tutte ) 9800GX2 GTX260 GTX280; già la GTX285 e seguenti non erano più supportate.
Ti posso assicurare che la scheda veniva spenta al 99,99%, consumava al massimo mezzo watt, era incredibile vedere la ventola della GPU che si fermava e non girava più :) e poi quando la riabilitavi riprendeva a girare.
Il lag era inesistente, avevano fatto proprio un lavoro eccellente ;) Non ti dico quante maledizioni gli ho mandato quando hanno deciso di non supportarlo più :cry:
Se questo Optimus Desktop sarà come l'HybridPower ben venga ... da quello che mi sembra di aver capito, rispetto a LucidLogix, andrà a spegnere la scheda ( consumi minori ) invece di tenerla in idle ( maggiori consumi )
Per di più, visto che parrebbe essere Gratis, penso che sarà da preferire a LucidLogix ... basta attendere e poi verificheremo la bontà dell'uno o dell'altro sistema.
Dre@mwe@ver
26-04-2011, 17:49
Non mi pare che GTX560Ti in idle consumi 15 watt
http://www.hwupgrade.it/articoli/skvideo/2699/nvidia-geforce-gtx-560-ti-spazio-a-gf114_7.html
Come ce scritto qui non ce scritto 15 watt ma 112 watt che sono moooolto di piu!!!
Se facciamo una scheda video di alto livello come 590/580/570 andiamo sui 150 in su di watt e il consumo di corrente/soldi si incomincia a sentire.
Quindi consumare di meno non solo risparmiamo un po di soldi ma può contribuire all'ambiente e chissà forse alla riduzione del costo del petrolio(sul petrolio????:D Mooooooooolto improbabile ihihihihihi)
Il consumo nel test che hai linkato è riferito a tutto il sistema, non solo alla VGA.
Il consumo nel test che hai linkato è riferito a tutto il sistema, non solo alla VGA.
Ok chiedo scusa :D:D
letto male!! ;)
Dre@mwe@ver
26-04-2011, 17:54
Ok chiedo scusa :D:D
letto male!! ;)
Capita anche a me :D
ma collegando la integrata comunque si andrebbe a perdere il 3d, l' audio, il multimonitor etc..
Di sicuro male non fa ... però sai quanto consuma in idle una GTX560Ti (che dopotutto è di fascia medio-alta)? 15W.
Se la disattivi devi comunque attivare la GPU Intel che consuma circa 5W. Quindi si tratta di risparmiare 10W (che se anche uno tenesse il PC accesso per 5000 ore all'anno corrisponderebbero a 10 euro) ...
L'ottimus sui notebook apporta vantaggi sulla batteria ma in un destop tale beneficio non c'è.
E' veramente interessante solo per gli utenti enthusiast con schede video di fascia altissima e/o SLI che tengono il PC acceso per tanto tempo ... suppongo che non sia moltissimi.
Cmq ci guadagnano tutti ... anche se non correrò di certo a cambiare mobo per questa tecnologia.
Si ma... Quando ti va in idle? Praticamente mai. Andra' in idle 15watt quando lo schermo si spegne. Se il pc lo usi, consuma di piu'. Se poi vai su youtube o altri siti di streaming, dato l'ottimizzatissimo flash la GPU ti spara a mille.
Disattivare o anche solo lasciare in idle la GPU discreta quando non si gioca e' un'ottima idea.
Certo e' che una volta nei giochi potevi selezionare la scheda video e anche il tipo di grafica da usare (DirectX, OpenGL o software) mentre ora non puoi piu' farlo. E forse sarebbe l'ora di rimettere l'opzione per certi giochi online (vuoi che giochi come League of Legends o il vecchio World of Warcraft chiedano piu' di una integrata Sandy Bridge? Si', se attivi inutili effetti che manco noti :)).
Comunque, Optimus c'e' anche su notebook ma non ne ho sentito parlare benissimo... Non funziona granche'.
ndwolfwood
27-04-2011, 09:30
Si ma... Quando ti va in idle? Praticamente mai. Andra' in idle 15watt quando lo schermo si spegne. Se il pc lo usi, consuma di piu'.
Se poi vai su youtube o altri siti di streaming, dato l'ottimizzatissimo flash la GPU ti spara a mille.
Premesso che ho precisato che è cmq una cosa buona: anche se poco è sempre meglio di niente.
In ogni caso l'energia consumata dipende dalla potenza e dal tempo quindi parliamo anche del tempo.
Per un PC (home-entertainment) che sta molto accesso (16-24h) è facile che per gran parte di questo tempo non ci sia nessuno davanti allo schermo, quindi passa dal 50 al 70% del giorno in idle.
Altro che "praticamente mai"! Chiaramente intendi PC che stanno accesi meno tempo ... ma il punto è proprio il fattore tempo!
(N.b. "home-entertainment" perché se il PC è da lavoro allora o la scheda video dedicata non c'è o se c'è serve!)
Adesso mettiamo che nelle ore di utilizzo alcune si passino a fare cose fattibili anche con una grafica integrata: navigare, guardare video ... "la GPU ti spara a mille"? No, perchè una GPU potente è sfruttata solo in minima parte: ecco che navigando la potenza assorbita sale solo di qualche watt e guardando un video FullHD di una dozzina di watt (per GTX460-560).
Per concludere ammettiamo di usare una scheda che consuma molto durante la riproduzione dei video HD, ammettiamo 50W e di guardare video per un paio di ore al giorno quasi tutti i giorni (600 ore all'anno): quanto risparmierei disattivandola? 6 euro (all'anno!)
Premesso che ho precisato che è cmq una cosa buona: anche se poco è sempre meglio di niente.
In ogni caso l'energia consumata dipende dalla potenza e dal tempo quindi parliamo anche del tempo.
Per un PC (home-entertainment) che sta molto accesso (16-24h) è facile che per gran parte di questo tempo non ci sia nessuno davanti allo schermo, quindi passa dal 50 al 70% del giorno in idle.
Altro che "praticamente mai"! Chiaramente intendi PC che stanno accesi meno tempo ... ma il punto è proprio il fattore tempo!
(N.b. "home-entertainment" perché se il PC è da lavoro allora o la scheda video dedicata non c'è o se c'è serve!)
Adesso mettiamo che nelle ore di utilizzo alcune si passino a fare cose fattibili anche con una grafica integrata: navigare, guardare video ... "la GPU ti spara a mille"? No, perchè una GPU potente è sfruttata solo in minima parte: ecco che navigando la potenza assorbita sale solo di qualche watt e guardando un video FullHD di una dozzina di watt (per GTX460-560).
Per concludere ammettiamo di usare una scheda che consuma molto durante la riproduzione dei video HD, ammettiamo 50W e di guardare video per un paio di ore al giorno quasi tutti i giorni (600 ore all'anno): quanto risparmierei disattivandola? 6 euro (all'anno!)
Ma guarda che io ho detto che questa e' un'ottima idea... :D
Stappern
27-04-2011, 10:10
Ecco aspettago questo per aggiornare il pc
Scusate ma Windows 7 non usa la GPU per la grafica desktop e AERO, se la si toglie sparisce anche l'aero ?
E poi funziona su tutti i sistemi con schede nVidia o serve una nuova mobo.
Io per esempio ho una P55 e mi sta per arrivare un GTX 560, quindi vorrei capire se posso far calare i consumi almeno quando lascio il PC acceso ma inutilizzato, senza doverlo per forza spegnere. :confused:
nicgalla
13-05-2011, 17:34
Dopo aver passato un po' di schede AMD (sostituita la veneranda 7900GT con una 4670, 4770, 5770) potrei ritornare a nVidia. Le AMD sono ottime schede caratterizzate da grande rapporto prezzo/prestazioni e bassi consumi in idle, ma la possibilità di azzerare il consumo in idle mi fa gola. Anche se sono solo 10W in meno ma è una tecnologia gratuita e che non richiede hw aggiuntivo... questo è progresso!
NODREAMS
13-05-2011, 17:55
un po' come lo start & stop delle macchine...finalmente anche sulle nostre GPU ??? :D
mikele96
25-04-2012, 08:16
ottimo! già ho un portatile con tecnologia optimus, e vi garantisco che veramente permette di risparmiare tanta batteria e soprattutto di non farlo scaldare (quando attivo la geforce 520 sono cavoli amari in quanto al calore che viene tirato via...)... io la vedo utile questa tecnologia sui desktop, permette di risparmiare energia (e la bolletta potrebbe ringraziare) e far scaldare di meno (un integrata scalderà sempre meno di una dedicata anche in idle)...
e permetterà di usare anche 'sto benedetto quicksync (che sfrutta l' integrata) nelle configurazioni con un processore intel core i3/i5/i7 che comprendono una video dedicata... dai benchmark con mediaespresso pare che il quicksync dei sandy bridge (intel hd graphics 3000 + intel core i7 2700k) sia superato dal cuda (nvidia geforce gtx 680 + intel core i7 3770k), ma il trono è del core i7 3770k con la hd graphics 4000. la configurazione radeon hd 7970 + intel core i7 3770k, con l' app (accelerated parallel processing) sta dietro all' i7 2700k con la hd graphics 3000.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.