PDA

View Full Version : Niente più HybridPower sui sistemi desktop


Redazione di Hardware Upg
20-03-2009, 10:07
Link alla notizia: http://www.hwupgrade.it/news/sistemi/niente-piu-hybridpower-sui-sistemi-desktop_28424.html

La tecnologia sviluppata e introdotta sul mercato da NVIDIA, destinata a tagliare, durante l'idle, il consumo della scheda grafica, non ha futuro e non sarà quindi portata avanti

Click sul link per visualizzare la notizia.

Cybor069
20-03-2009, 10:31
Peccato, sarebbe stato bello fosse diventato uno standard obbligatorio per tutti (UE dove sei ??)

Ho sotto la scrivania un HD4870 che per tanti motivi (Lavoro, impegni ed altro) sfrutto perlopiù come scaldapiedi, ma con la stagione calda in arrivo sarebbe stato bello poter spengere ed usare una scheda da pochi watt.

Speriamo che nella nuova Mania/Esigenza/Disperazione/Moda ecologistadepressiva che sta imperversando negli states non ci sia un cambio di direzione.

Arnalde
20-03-2009, 10:32
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.

70Faramir
20-03-2009, 10:37
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.

concordo pienamente... puoi avere la migliore tecnologia possibile ma far consumare una GTX285 come una integrata la vedo davvero dura...

imho hanno fatto una pessima scelta...

Angelonero87
20-03-2009, 10:48
imho hanno fatto una pessima scelta...

Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle, che imho è la soluzione migliore che di avevre du schede diverse

Bronx.sbt
20-03-2009, 10:58
probabilmente è stato fatto perche nvidia nn so nel futuro quanti chipset nel settore desktop potrà continuare a progettare.ormai quello è un settore in declino per lei.speriamo invece in amd che ha la possibilità di fare piattaforme assolutamente complete integrando proprio funzionalità del genere.Inoltre è bene rilflettere sul fatto che il mercato dei chip grafici integrati sulle schede madri andrà anche esso a morire in favore di chip integrati direttamente nel processore sia per intel che per amd.

Sgt.Pepper89
20-03-2009, 11:04
Massi dai togliamo le funzioni interessanti, rimarchiamo i modelli vecchi e poi ci stupiamo se i chipset nvidia non vendono un tubo :fagiano:

bLaCkMeTaL
20-03-2009, 11:11
molto male, peccato veramente per questa tecnologia.
Potenzialmente avrebbe permesso ad nvidia di vendere schede madri premium con la video integrata e questa funzionalità, soprattutto a quelle coppie che, pur vivendo in due, ricevono bollettoni da ben €. 237 !!!

II ARROWS
20-03-2009, 11:28
BUUU!

Mah, non sarà sviluppato per il desktop ma sì per i portatili? Ma ci prendono per il culo? Un portatile non è così diverso da un fisso, una volta fatta la tecnologia la puoi mettere dove ti pare.

xcavax
20-03-2009, 11:29
Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle, che imho è la soluzione migliore che di avevre du schede diverse

non c'è lo zii di creative che fa una cosa simile? :stordita:

Mercuri0
20-03-2009, 11:38
Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle

Secondo me già fanno così.

Mercuri0
20-03-2009, 11:41
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.
Sui desktop i consumi non sono tanto un problema, quanto la rumorosità della scheda. L'importante è la rumorosità della scheda in idle più che il watt in più o in meno.

A dire il vero, quando nVidia annunciò questa tecnologia, avevo già intuito come sarebbe andata a finire :)

La strada più sensata sui desktop è che la scheda consumi il meno possibile in idle.


Mah, non sarà sviluppato per il desktop ma sì per i portatili? Ma ci prendono per il culo?
Sui portatili il watt conta sul serio, perché quando non uso la GPU dedicata vorrei avere massima autonomia della batteria. Inoltre anche riguardo al rumore non c'è lo spazio per il dissipatore della GTX285 :sofico:

Un portatile non è così diverso da un fisso, una volta fatta la tecnologia la puoi mettere dove ti pare.
I portatili hanno il vantaggio di essere collaudati "interi", e di poter avere circuiteria "custom" nel sistema, cose certamente utili a una tecnologia di questo tipo.

Inoltre lì serve davvero, è giusto impiegare le risorse dove servono.

MadJackal
20-03-2009, 11:42
non c'è lo zii di creative che fa una cosa simile? :stordita:

Mi pareva di aver capito anche io una cosa del genere, ma è ovvio, come dice Mercuri0...

Secondo me già fanno così.

Fanno già così, disattivano tutte le parti della GPU che è possibile disattivare (e le prime sono gli SP).
Il problema è che comunque, per quanto in "idle", una discreta consumerà sempre di più di una integrata di base. Sempre. Anche perchè la VRAM aggiuntiva consuma, non solo la GPU.

Mercuri0
20-03-2009, 11:49
Il problema è che comunque, per quanto in "idle", una discreta consumerà sempre di più di una integrata di base. Sempre. Anche perchè la VRAM aggiuntiva consuma, non solo la GPU.
Certo, addirittura si dice che per la 4870 in idle il problema sia che non hanno attivato il sistema di risparmio delle GDDR5 perché ancora non si "fidavano" della sua affidabilità

Comunque il mio discorso era che 10-20 watt di differenza non sono un problema per i desktop.

Splarz
20-03-2009, 11:49
mi unisco al coro dei "nooo!"
col chip grafico geforce 8300 ero proprio curioso di vedere hybrid sli con una nvidia potente.
peccato per il risparmio in bolleta.

maurilio968
20-03-2009, 11:53
Peccato davvero... ma siera capito dal mancato supporto nella gtx285.

e.cera
20-03-2009, 11:56
e ditelo che non volete spendere soldi per farla funzionare bene, e che non avete voglia di sbattervi a cercare accordi con le aziende che fanno i SO e altri componenti interessati perché é una tencologia che fa bene "solo" ai clienti e all'ambiente ma non al vostro profitto...

jokerpunkz
20-03-2009, 12:16
non sono esperto di schede video, ma le Gpu hanno un sistema di scaling della frequenza?

sui notebook spero si diffonda presto questa pratica, anche se sui desktop non ci sarebbe stata male....uffa stavo aspettando che sviluppassero meglio il segmento per cambiare computer sob :(

non capisco proprio perche non si mettano d'accordo con ati per creare uno standard....ne avrebbero giovato entrambe, alla fin fine uno dei freni per comprare una scheda potente è proprio soppesare quante volte ne fai uso rispetto al comune utilizzo del computer: è inutile prendere una scheda potente per fare grafica o giocare 5 volte l'anno se po consuma e fa il rumore di un elicottero!!! questa soluzione era ottima....avrebbero venduto a fasce di consumatori anche saltuari oltre che pro/gamers......mah misteri del mercato

Master_T
20-03-2009, 13:44
Scusate l'ignoranza, faccio una domanda tecnica... ma le uscite video? Cioè, o collego il monitor al chip integrato o alla sk video... o avevano messo un qualche sistema di "bridging". Vabbè, ormai purtroppo l'idea è stata abbandonata, ma mi resta la curiosità...

frankie
20-03-2009, 14:14
Male...molto male... Peccato!

quoto, e tanto non mi tange perchè ho su un PC un 690G e sull'altro il 780G, quindi SOLO integrati.
Massi dai togliamo le funzioni interessanti, rimarchiamo i modelli vecchi e poi ci stupiamo se i chipset nvidia non vendono un tubo :fagiano:
Già...
...
Comunque il mio discorso era che 10-20 watt di differenza non sono un problema per i desktop.
Non direi, l'HTPCin idle a piena frequenza consuma 38W, 20 sarebbero il 50% in più. Sappiamo benissimo cosa consuma una scheda video oggi.

Scusate l'ignoranza, faccio una domanda tecnica... ma le uscite video? Cioè, o collego il monitor al chip integrato o alla sk video... o avevano messo un qualche sistema di "bridging". Vabbè, ormai purtroppo l'idea è stata abbandonata, ma mi resta la curiosità...
Secondo me il futuro dovrebbe essere:
Tutti i chipset con video integrato
Scheda accelleratrice video su pciex ma le uscite sono sempre sull'integrata

Giaki
20-03-2009, 14:14
sono sempre i migliori quelli che se ne vanno. mi piacerebbe sapere i veri motivi, magari avevano dei problemi tecnici che non avevano interesse a superare

sniperspa
20-03-2009, 14:22
Scusate l'ignoranza, faccio una domanda tecnica... ma le uscite video? Cioè, o collego il monitor al chip integrato o alla sk video... o avevano messo un qualche sistema di "bridging". Vabbè, ormai purtroppo l'idea è stata abbandonata, ma mi resta la curiosità...

Chiaramente il segnale passa per la stessa uscita ma l'output veniva elaborato dalla gpu integrata invece di quella discreta...

Penso funzioni come quando si installa una vga senza driver :)

qboy
20-03-2009, 15:11
comunque siamo seri: chi ha quelle schedozze non penso si farà tanti problemi per i watt che consuma di più, mica tiene tutto il pc accesso 24/24. avrà pure un mulo spero. persino io con la mia 9800gt e l'e7400 uso un mulo (pentium 3 vga integrata e hdd da 1 terabyte) quando non gioco quindi ...

icoborg
20-03-2009, 15:50
comunque siamo seri: chi ha quelle schedozze non penso si farà tanti problemi per i watt che consuma di più, mica tiene tutto il pc accesso 24/24. avrà pure un mulo spero. persino io con la mia 9800gt e l'e7400 uso un mulo (pentium 3 vga integrata e hdd da 1 terabyte) quando non gioco quindi ...

e speri male :asd: c'era gente e forse c'è tuttora che tenevfa acceso 24/24 un prescott per scaricare :asdone:

cmq secondo me tornerà + avanti qualcosa di simile, quando i processori incorporeranno un sottosistema video. si farà la stessa cosa ma in modo diverso.

calabar
20-03-2009, 15:52
Mah, secondo me invece è proprio il fatto di avere un PC potente all'occorrenza e parsimonioso in ogni altro momento era un'idea più che vincente.
Per chi non gioca assiduamente, ma desidera ogni tanto giocare ad un buon livello (o anche per chi utilizza le schede per altro che non sia il gioco), la possibilità di prendere una scheda discretamente potente senza doversi preoccupare dei consumi del PC nella maggior parte del tempo sarebbe stata davvero la soluzione ideale.

L'unica cosa che bisognerebbe sperare, è che con la prossima generazione di schede video riescano davvero ad ottenere consumi in idle paragonabili a quelli ottenuti con HybridPower, ma il fatto che mantengano la tecnologia sui notebook mi lascia seri dubbi a riguardo...

Peccato, lo ritenevo uno dei campi davvero significativo in cui nvidia era in vantaggio e per cui in determinati casi sarebbe potuta valere la pena di puntare in quella direzione.

bongo74
20-03-2009, 16:53
secondo me il concetto del pc unico in casa va morendo..
perche' se uno vuole "tirare" ha bisogno del pc grosso

pero' di solito c'è anche l'utilizzo office-email-navigazione-player ecc..dove il computer grosso brucia troppa corrente x quello che fa

mi sembra difficile vedere e pensare al ragazzo che gioca solo con il pc e non naviga-chatta-mail-a ecc

grng
20-03-2009, 18:56
Una delle poche cose utili che avevano introdotto.
Va beh, tanto tra 1-2 anni avremo tutti la gpu inclusa nella cpu, chissà che non ripropongano questa utility in altre forme

Kharonte85
21-03-2009, 18:08
:eek:


mannaggia era una delle cose piu' intelligenti degli ultimi anni...:doh:


Probabilmente sono emersi vari problemi con l'implementazione...:boh:

uvox
22-03-2009, 22:31
e io che volevo prendere scheda madre asus M3N-HT apposta per potergli abbinate una scheda video nvidia 9800 gtx+ da tenere spenta quando non serve.
Mi sa che devo rivedere tutto e tornare ad ATI.

Che peccato

Rizlo+
23-03-2009, 10:32
Sarebbe anche ora di iniziare a sviluppare schede video ad alte prestazioni che non scaldano e consumano come forni da pizza! Sembra che non ci sia proprio la tecnologia per tali risultati... Ma IMHO è solo una questione di costi.
E' assurdo pensare che le prestazioni di oggi non siano ottenibili con schede delle dimensioni/consumi ad esempio di una Geforce2

Produrre schede altamente dispendiose in termini energetici è ancora più conveniente che investire nella ricerca di sistemi più parsimoniosi...
E non sto parlando di ultramobile (dove invece qualcosa si muove) parlo propprio di schede video high end.

II ARROWS
23-03-2009, 10:57
Sui portatili il watt conta sul serio, perché quando non uso la GPU dedicata vorrei avere massima autonomia della batteria.La prossima bolletta me la paghi tu, visto che non hai di questi problemi.

La tecnologia una volta fatta per portatile è fatta per un fisso, quando non uso la GPU dedicata vorrei avere minimi consumi e soprattutto calore che d'estate viene fuori anche se navigo e guardo la posta. Senza considerare il rumore che fa solo la ventola della scheda video che vorrei non avere durante la notte se mi capita di doverlo tenere a scaricare qualcosa.

Non ci sono chissà quali lavori dietro, basta che la scheda madre implementi alcune caratteristiche necessarie e che i driver lo notino. Credo che lo SLi normale richieda ben più lavoro perchè devono lavorare insieme, qua invece si parla di disattivare.
Mi va bene anche che la scheda video debba rispecchiare delle caratteristiche perchè deve veicolare il segnale video della GPU integrata.

!fazz
23-03-2009, 11:01
Sarebbe anche ora di iniziare a sviluppare schede video ad alte prestazioni che non scaldano e consumano come forni da pizza! Sembra che non ci sia proprio la tecnologia per tali risultati... Ma IMHO è solo una questione di costi.
E' assurdo pensare che le prestazioni di oggi non siano ottenibili con schede delle dimensioni/consumi ad esempio di una Geforce2

Produrre schede altamente dispendiose in termini energetici è ancora più conveniente che investire nella ricerca di sistemi più parsimoniosi...
E non sto parlando di ultramobile (dove invece qualcosa si muove) parlo propprio di schede video high end.

difficile, se una persona prende una scheda di fascia alta, ovviamente cerca prestazioni e per avere maggiori prestazioni si deve per forza alzare frequenza quindi consumi,
risparmi energetici sulle schede di fascia alta vengono implementati (es abbassamento del processo produttivo) ma il guadagno in termini termici viene utilizzato per spingere di più la componentistica ed avere prestazioni maggiori.

interessanti sarebbero sistemi di scaling dinamico della frequenza/ shader attivati ma più per fascia media che per fascia alta,