PDA

View Full Version : Self Refresh: anche gli schermi aumentano l'autonomia


Redazione di Hardware Upg
15-09-2011, 15:22
Link alla notizia: http://www.hwupgrade.it/news/portatili/self-refresh-anche-gli-schermi-aumentano-l-autonomia_38509.html

Attesa sul mercato tra un paio di anni, questa tecnologia permetterà di contenere i consumi dei display soprattutto con contenuti statici, aumentando l'autonomia con batteria

Click sul link per visualizzare la notizia.

nick091
15-09-2011, 15:32
mi sembra una cosa intelligente, ma non capisco cosa c'entra il pannello

dav1deser
15-09-2011, 15:37
Se CPU e GPU sono in sleep vuol dire che non stanno più inviando informazioni al monitor, un monitor normale quindi non mostrerebbe più alcun'immagine, un monitor con questa tecnologia invece sa che deve continuare a mostrare la stessa immagine.

nick091
15-09-2011, 15:40
Se CPU e GPU sono in sleep vuol dire che non stanno più inviando informazioni al monitor, un monitor normale quindi non mostrerebbe più alcun'immagine, un monitor con questa tecnologia invece sa che deve continuare a mostrare la stessa immagine.
giusto :)
grazie

Willy_Pinguino
15-09-2011, 17:14
hummm... e se parte il salvaschermo???

questo per dire quanto la tecnologia corre, l'uomo resta appiccicato a concetti vecchi per pigrizia e la formazione (o informazione) costante é un utopia...

il salvaschermo che serviva a non bruciare i fosfori dei monitor di 15 anni fa ora potrebbe arrivare ad accorciare la vita delle nostre future batterie nel momento in cui questa tecnologia entrerà nella catena produttiva...

SuperSandro
15-09-2011, 17:17
Se le informazioni sono statiche - e quindi la GPU viene "bypassata" dalla memoria interna del display, il vantaggio dovrebbe essere costituito da un consumo minore di quest'ultima rispetto a quello necessario alla GPU per mantenere "in vita" l'immagine sul display.

Ho però notato (ma forse è solo un caso mio particolare) che anche se osservo una schermata statica (come un giornale on-line) in realtà non sto mai fermo: faccio scorrere le barre laterali, evidenzio testo, passo da una scheda all'altra e così via. Ovvio che se lascio la postazione per prendere un caffè, lo schermo rimane fisso (a meno che non intervenga uno screen-saver animato).

Indipendentemente dalle mie azioni, in una schermata on-line ci sono quasi sempre animazioni (banner, ecc.).

Anche in un documento di Word "immobile" c'è comunque il cursore che lampeggia e dovrebbe impedire alla memoria interna di entrare in funzione.

In definitiva, mi chiedo se - nell'utilizzo normale - il passaggio continuo della GPU tra la fase dormiente e quella da sveglia non generi un aumento del consumo che non se fosse sempre attiva.

Kino87
15-09-2011, 17:34
In definitiva, mi chiedo se - nell'utilizzo normale - il passaggio continuo della GPU tra la fase dormiente e quella da sveglia non generi un aumento del consumo che non se fosse sempre attiva.

Beh, dipende da che intendi per utilizzo "normale". Per un utente che usa il computer normalmente no, per un computer usato in negozi per slideshow, presentazioni in aziende/università e altre cose simili può avere la sua utilità... è un pò come la tecnologia che disattiva lo schermo se rivela che non c'è nessuno davanti: sugli schermi normali nemmeno si prendono la pena di implementarla, in quelli dedicati ad uso d'ufficio si e non metto nemmeno in dubbio che i 10-20-50€ in più che può venir fatta pagare una tecnologia simile si ripaghi velocemente in termini di consumi/preservazione dello schermo nel tempo

SuperSandro
15-09-2011, 17:41
Beh, dipende da che intendi per utilizzo "normale" (...omissis...) non metto nemmeno in dubbio che i 10-20-50€ in più che può venir fatta pagare una tecnologia simile si ripaghi velocemente in termini di consumi/preservazione dello schermo nel tempo

Osservazione corretta, ma un notebook è usato generalmente per uso personale. E poi, dubito fortemente che il prezzo finale di vendita aumenti solo di 50 euro.

Comunque, ben vengano soluzioni per il risparmio energetico. Se però smettessero di fare processori e GPU sempre più potenti (e generalmente sottoutilizzati dai più) ma si concentrassero sul risparmio energetico degli stessi si risparmierebbe molto, molto, molto di più.

O no? ;)

OldDog
15-09-2011, 18:04
Ho però notato (ma forse è solo un caso mio particolare) che anche se osservo una schermata statica (come un giornale on-line) in realtà non sto mai fermo: faccio scorrere le barre laterali, evidenzio testo, passo da una scheda all'altra e così via. Ovvio che se lascio la postazione per prendere un caffè, lo schermo rimane fisso (a meno che non intervenga uno screen-saver animato).

Indipendentemente dalle mie azioni, in una schermata on-line ci sono quasi sempre animazioni (banner, ecc.).

Anche in un documento di Word "immobile" c'è comunque il cursore che lampeggia e dovrebbe impedire alla memoria interna di entrare in funzione.

La notizia spiega che il nuovo pannello accederebbe a una memoria dedicata per attingere all'immagine mostrata. Il blink del cursore non richiede l'intervento di una GPU, così come la visualizzazione di una parte di una immagine più grande ma già in memoria (lo scroll di un testo word, per es.), che richiede un banale trasferimento cache RAM - schermo.
Animazioni e banner: dipende se sono cicli di un set di immagini, pensa alle gif animate come gli smile che compaiono qui a fianco della finestra di edit dei messaggi del forum. In quel caso sono solo delle "slide" cicliche perfettamente memorizzabili in cache e semplicemente alternate in visione.
Nulla che richieda un disegno vettoriale via GPU, l'applicazione di una texture o il calcolo delle luci ed ombre in tempo reale, come in un videogioco. :)
Ovviamente, premesso che a quanto ne so i display comuni non possono lavorare in questo modo, non avendo possibilità autonoma di mantenere e maneggiare la cache video come è descritto nell'articolo. :cool:

birmarco
15-09-2011, 18:32
La notizia spiega che il nuovo pannello accederebbe a una memoria dedicata per attingere all'immagine mostrata. Il blink del cursore non richiede l'intervento di una GPU, così come la visualizzazione di una parte di una immagine più grande ma già in memoria (lo scroll di un testo word, per es.), che richiede un banale trasferimento cache RAM - schermo.
Animazioni e banner: dipende se sono cicli di un set di immagini, pensa alle gif animate come gli smile che compaiono qui a fianco della finestra di edit dei messaggi del forum. In quel caso sono solo delle "slide" cicliche perfettamente memorizzabili in cache e semplicemente alternate in visione.
Nulla che richieda un disegno vettoriale via GPU, l'applicazione di una texture o il calcolo delle luci ed ombre in tempo reale, come in un videogioco. :)
Ovviamente, premesso che a quanto ne so i display comuni non possono lavorare in questo modo, non avendo possibilità autonoma di mantenere e maneggiare la cache video come è descritto nell'articolo. :cool:

Non credo che la cache memorizzi sequenze di slide, semplicemente se l'immagine rimane la stessa per un tot di tempo la GPU e la CPU vengono spente. Ad esempio quando rimani fisso a leggere il contenuto di una pagina statica sul web oppure quando hai tutte le applicazioni aperte e lasci il desktop di Windows oppure guardi delle foto ecc...

MiKeLezZ
15-09-2011, 19:26
hummm... e se parte il salvaschermo???

questo per dire quanto la tecnologia corre, l'uomo resta appiccicato a concetti vecchi per pigrizia e la formazione (o informazione) costante é un utopia...

il salvaschermo che serviva a non bruciare i fosfori dei monitor di 15 anni fa ora potrebbe arrivare ad accorciare la vita delle nostre future batterie nel momento in cui questa tecnologia entrerà nella catena produttiva...generalmente i portatili non hanno il salvaschermo, ma abbassano la luminosità e poi spengono direttamente lo schermo
sul fisso ho impostato la stessa modalità
se poi purtroppo c'è chi continua ad usare il salvaschermo... ma d'altronde c'è ancora chi non ha capito come si va in macchina nelle rotonde... quindi è un problema un po' più generalizzato

jappilas
15-09-2011, 20:32
La notizia spiega che il nuovo pannello accederebbe a una memoria dedicata per attingere all'immagine mostrata. Il blink del cursore non richiede l'intervento di una GPU, così come la visualizzazione di una parte di una immagine più grande ma già in memoria (lo scroll di un testo word, per es.), che richiede un banale trasferimento cache RAM - schermo.
Animazioni e banner: dipende se sono cicli di un set di immagini, pensa alle gif animate come gli smile che compaiono qui a fianco della finestra di edit dei messaggi del forum. In quel caso sono solo delle "slide" cicliche perfettamente memorizzabili in cache e semplicemente alternate in visione.
Nulla che richieda un disegno vettoriale via GPU, l'applicazione di una texture o il calcolo delle luci ed ombre in tempo reale, come in un videogioco. :)
Ovviamente, premesso che a quanto ne so i display comuni non possono lavorare in questo modo, non avendo possibilità autonoma di mantenere e maneggiare la cache video come è descritto nell'articolo. :cool:cachare autonomamente uno slideshow di più immagini implicherebbe una capacità elaborativa locale (quantomeno per il passaggio autonomo dal' una all' altra), ma qui non si menziona nulla del genere...

semplicemente tenendo presente il funzionamento di un display LCD (in cui tra un frame e l' altro il pixel non viene spento per poi essere rapidamente portato alla nuova tonalità colore, ma passa da un livello di intensità all' altra) si capisce che la memoria dedicata di cui si parla, con ogni probabilità non è altro che un buffer di dimensione minima indispensabile per contenere gli ultimi valori d' intensità dei pixel, da mantenere in assenza di nuovi dati o in caso di disattivazione dell' ingresso) e interposto tra i pixel veri e propri (che senza di esso sarebbero stati controllati direttamente dall' ingresso) e quest' ultimo - possibilmente combinato con un watchdog per rilevare la staticità delle scena e in tal caso disabilitare la circuiteria di ingresso video (continuando a rinfrescare l' ultima schermata) risparmiando appunto quei 500 mW...

eeetc
15-09-2011, 21:04
Mah, mi sembra un accrocchio complicato e che alla fine garantisce poco risparmio energetico.
Secondo me un'implementazione aggressiva del throttle del processore e dei bus di sistema, che riducano a una frazione le frequenze di funzionamento dopo un periodo preimpostato e che le riportino istantaneamente quando serve garantirebbe risparmi ben superiori.
Tra l'altro se fatto in software costerebbe zero come hardware.

Fire-Dragon-DoL
15-09-2011, 21:20
Io quando so che "l'immagine rimarrà statica" spengo lo schermo (anche sul portatile posso).

Per il resto, immagine statica vuol dire che pure il mouse deve stare fermo, TUTTO.

maumau138
15-09-2011, 22:44
Io quando so che "l'immagine rimarrà statica" spengo lo schermo (anche sul portatile posso).

Per il resto, immagine statica vuol dire che pure il mouse deve stare fermo, TUTTO.

Bé, se ci pensi non è poi così difficile. Mentre stai leggendo questo messaggio probabilmente non starai muovendo il mouse, quindi l'immagine che stai vedendo è la stessa da un paio di secondi. Su un portatile mettici un paio di secondi qua e la e potresti risparmiare una mezz'ora di batteria o anche di più in base all'uso.

OldDog
16-09-2011, 00:06
generalmente i portatili non hanno il salvaschermo, ma abbassano la luminosità e poi spengono direttamente lo schermo (...)
se poi purtroppo c'è chi continua ad usare il salvaschermo... ma d'altronde c'è ancora chi non ha capito come si va in macchina nelle rotonde... quindi è un problema un po' più generalizzato
In ambiente di lavoro il salvaschermo serve per bloccare con la password utente un PC lasciato attivo mentre l'utilizzatore si è allontana (e non si è ricordato di attivare il lock manualmente con CTRL+ALT+DEL e scelta blocco).
In molte aziende è un obbligo di configurazione.
Che cosa ti abbia ispirato il paragone con la precedenza alle "rotonde" è un mistero tra te e i tuoi amici, che non voglio indagare... ;)

OldDog
16-09-2011, 00:09
Secondo me un'implementazione aggressiva del throttle del processore e dei bus di sistema, che riducano a una frazione le frequenze di funzionamento dopo un periodo preimpostato e che le riportino istantaneamente quando serve garantirebbe risparmi ben superiori.
Tra l'altro se fatto in software costerebbe zero come hardware.
Però quello che tu dici ha senso se il sistema può considerarsi inattivo. In realtà ci sono un sacco di servizi e rielaborazioni che possono tranquillamente svolgersi senza dover aggiornare lo schermo, quindi la CPU deve restare ben sveglia, mentre lo schermo può andare al minimo, giusto un refresh ogni tanto.

OldDog
16-09-2011, 00:10
cachare autonomamente uno slideshow di più immagini implicherebbe una capacità elaborativa locale (quantomeno per il passaggio autonomo dal' una all' altra), ma qui non si menziona nulla del genere...
Si, hai ragione. Stavo speculando ben oltre le notizie disponibili.

Pleg
16-09-2011, 01:28
Se le informazioni sono statiche - e quindi la GPU viene "bypassata" dalla memoria interna del display, il vantaggio dovrebbe essere costituito da un consumo minore di quest'ultima rispetto a quello necessario alla GPU per mantenere "in vita" l'immagine sul display.

Ho però notato (ma forse è solo un caso mio particolare) che anche se osservo una schermata statica (come un giornale on-line) in realtà non sto mai fermo: faccio scorrere le barre laterali, evidenzio testo, passo da una scheda all'altra e così via. Ovvio che se lascio la postazione per prendere un caffè, lo schermo rimane fisso (a meno che non intervenga uno screen-saver animato).

Indipendentemente dalle mie azioni, in una schermata on-line ci sono quasi sempre animazioni (banner, ecc.).

Anche in un documento di Word "immobile" c'è comunque il cursore che lampeggia e dovrebbe impedire alla memoria interna di entrare in funzione.

In definitiva, mi chiedo se - nell'utilizzo normale - il passaggio continuo della GPU tra la fase dormiente e quella da sveglia non generi un aumento del consumo che non se fosse sempre attiva.

Sono osservazioni valide. Al momento anche un solo banner o gif animata che continua a cambiare rende passare alla modalita' self-refresh.

Il modo in cui funziona e' che c'e' un framebuffer (cioe' un blocco di memoria) direttamente dentro il pannello, che fa il caching di un singolo frame (quindi per esempio ~6 MB di memoria per un fullHD). Quando la GPU rileva che l'immagine e' rimasta statica per abbastanza tempo (esempio, qualche frame) puo' segnalare (usando il canale ausiliario, i2c per LVDS e AUX per DP) al pannello di fare il caching del prossimo frame; il pannello lo fa, e poi continua a ripeterlo all'infinito (magari anche abbassando il frame rate in modo automatico, tanto l'immagine e' statica). Nel frattempo la GPU (e anche la CPU) puo' andare in uno stato di sleep esteso, puo' anche fare power-down quasi completo (grazie al power gating), rimane accesa solo al logica che serve a rimanere in contatto con la CPU (poca roba).

Quando la GPU rileva un cambiamento, si riaccende immediatamente e invia il prossimo frame.

Se il sistema e' abbastanza veloce (e in genere lo e', basta qualche millisecondo a fare power-down / power-up) puoi addirittura entrare in power-down tra un blink del cursore e l'altro, e risparmiare cmq un po' di energia. BTW, l'energia risparmiata non e' solo quella della GPU/CPU e' anche quella necessaria a trasmettere i dati sul cavo che collega il monitor! spegnere il cavo gia' risparmia non poco.

Ho sentito parlare, per il futuro, di nuove tecnologie per monitor che permetteranno di inviare non un intero frame ma solo parte di esso; as es. la GPU potrebbe spedire, come "aggiornamento", solo la parte di schermo che contiene il cursore che lampeggia e lasciare immutato il resto, riducendo drasticamente la quantita' di dati che vengono elaborati e trasmessi, e riducendo ancora di piu' l'energia.

SuperSandro
16-09-2011, 06:51
Però, scusate, per risparmiare energia non pensate che sarebbe meglio affrontare il problema direttamente alla radice?

In altre parole, nell'uso medio basso (va be', parlo del mio caso personale) quando devo navigare sul web (giornali, qualche videoclip su Youtube, posta e altre scicchezzuole) accendo il netbook (con Atom 450, nemmeno 550) e vado alla grande.

Quindi:

Soluzione 1:
Convincersi che non è necessario (oggi) installare processori a 16 core se l'utilizzo è sovradimensionato.

Soluzione 2:
Creare motherboard con due processori (il primo con 256 core e il secondo con Atom 450) che - automaticamente o su indicazione dell'utente - shiftano fra l'uno e l'altro a seconda delle esigenze.

Ovvio che se sto lavorando con Photoshop e pretendo di passare su Atom viene visualizzata una finestra che dice "Ma sei fuori? Devi prima salvare il lavoro e poi passare al processore minimo".

Troppe ca**ate in solo post? ;)

OldDog
16-09-2011, 09:05
In altre parole, nell'uso medio basso (va be', parlo del mio caso personale) quando devo navigare sul web (giornali, qualche videoclip su Youtube, posta e altre scicchezzuole) accendo il netbook (con Atom 450, nemmeno 550) e vado alla grande.

Quindi:

Soluzione 1:
Convincersi che non è necessario (oggi) installare processori a 16 core se l'utilizzo è sovradimensionato.

Soluzione 2:
Creare motherboard con due processori (il primo con 256 core e il secondo con Atom 450) che - automaticamente o su indicazione dell'utente - shiftano fra l'uno e l'altro a seconda delle esigenze.

Ovvio che se sto lavorando con Photoshop e pretendo di passare su Atom viene visualizzata una finestra che dice "Ma sei fuori? Devi prima salvare il lavoro e poi passare al processore minimo".

Lo switch lo gestiscono tra GPU integrate e GPU dedicate, perché le prime sono già "comprese nel prezzo" dei chipset offerti oggi. Non so se sarà possibile fare qualcosa di simile per le CPU, ma continuo a pensare che non sia quello il settore unico su cui operare, visto che già la situazione si è di molto raddrizzata con l'abbandono delle vecchie architetture "stufetta elettrica Pentium 4" :) e si parla di spazi di miglioramento nei prossimi rilasci. Attualmente sono parecchio avidi di energia schermi e Hard disk, quindi se diventeranno disponibili fuori dai laboratori alcune soluzioni interessanti di cui si è parlato nei mesi scorsi, potremmo avere netti miglioramenti in tempi più ristretti senza complicarci la vita in gestioni sw arzigogolate per conservare la coerenza di elaborazione durante gli switch.
Mia opinione, come ovvio. :cool:

Pleg
16-09-2011, 09:09
Però, scusate, per risparmiare energia non pensate che sarebbe meglio affrontare il problema direttamente alla radice?

In altre parole, nell'uso medio basso (va be', parlo del mio caso personale) quando devo navigare sul web (giornali, qualche videoclip su Youtube, posta e altre scicchezzuole) accendo il netbook (con Atom 450, nemmeno 550) e vado alla grande.

Quindi:

Soluzione 1:
Convincersi che non è necessario (oggi) installare processori a 16 core se l'utilizzo è sovradimensionato.

Soluzione 2:
Creare motherboard con due processori (il primo con 256 core e il secondo con Atom 450) che - automaticamente o su indicazione dell'utente - shiftano fra l'uno e l'altro a seconda delle esigenze.

Ovvio che se sto lavorando con Photoshop e pretendo di passare su Atom viene visualizzata una finestra che dice "Ma sei fuori? Devi prima salvare il lavoro e poi passare al processore minimo".

Troppe ca**ate in solo post? ;)

Guarda che e' gia' cosi' :)
Tegra3 e mi pare OMAP4 (o 5?) hanno diversi tipi di processore all'interno nello stesso SoC. Ad esempio Tegra3 ha 4 Cortex-A9 e un mini-core a bassissimo consumo e prestazioni; quando il sistema rileva che l'attivita' e' minima spegne tutti i Cortex (nel senso che sono proprio spenti, power-gated, consumo zero) e sposta l'attivita' sul minicore, che riesce magari a garantire il refresh dello schermo, il movimento del mouse ecc. Nel momento in cui chiedi piu' potenza si riaccendono i Cortex. Il tutto in modo automatico e invisibile all'utente.
La stessa cosa fa Optimus per le GPU. Man mano questa diventera' la norma, e come vedi adesso questi concetti si spostano anche ai pannelli.