Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione HUAWEI Mate X7: un foldable ottimo, ma restano i soliti problemi
Recensione HUAWEI Mate X7: un foldable ottimo, ma restano i soliti problemi
Mate X7 rinnova la sfida nel segmento dei pieghevoli premium puntando su un design ancora più sottile e resistente, unito al ritorno dei processori proprietari della serie Kirin. L'assenza dei servizi Google e del 5G pesa ancora sull'esperienza utente, ma il comparto fotografico e la qualità costruttiva cercano di compensare queste mancanze strutturali con soluzioni ingegneristiche di altissimo livello
Nioh 3: souls-like punitivo e Action RPG
Nioh 3: souls-like punitivo e Action RPG
Nioh 3 aggiorna la formula Team NINJA con aree esplorabili più grandi, due stili di combattimento intercambiabili al volo (Samurai e Ninja) e un sistema di progressione pieno di attività, basi nemiche e sfide legate al Crogiolo. La recensione entra nel dettaglio su combattimento, build, progressione e requisiti PC
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti
La facilità di installazione e la completa automazione di tutte le fasi di utilizzo, rendono questo prodotto l'ideale per molti clienti. Ecco com'è andata la nostra prova in anteprima
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 20-03-2009, 10:07   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: http://www.hwupgrade.it/news/sistemi...top_28424.html

La tecnologia sviluppata e introdotta sul mercato da NVIDIA, destinata a tagliare, durante l'idle, il consumo della scheda grafica, non ha futuro e non sarà quindi portata avanti

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 10:31   #2
Cybor069
Member
 
Iscritto dal: Feb 2005
Città: Parma
Messaggi: 259
Un altra occasione persa..

Peccato, sarebbe stato bello fosse diventato uno standard obbligatorio per tutti (UE dove sei ??)

Ho sotto la scrivania un HD4870 che per tanti motivi (Lavoro, impegni ed altro) sfrutto perlopiù come scaldapiedi, ma con la stagione calda in arrivo sarebbe stato bello poter spengere ed usare una scheda da pochi watt.

Speriamo che nella nuova Mania/Esigenza/Disperazione/Moda ecologistadepressiva che sta imperversando negli states non ci sia un cambio di direzione.
Cybor069 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 10:32   #3
Arnalde
Member
 
L'Avatar di Arnalde
 
Iscritto dal: Apr 2008
Città: Cicagna!!!
Messaggi: 216
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.
Arnalde è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 10:37   #4
70Faramir
Senior Member
 
L'Avatar di 70Faramir
 
Iscritto dal: Jan 2001
Città: Sharepoint World
Messaggi: 1345
Quote:
Originariamente inviato da Arnalde Guarda i messaggi
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.
concordo pienamente... puoi avere la migliore tecnologia possibile ma far consumare una GTX285 come una integrata la vedo davvero dura...

imho hanno fatto una pessima scelta...
70Faramir è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 10:48   #5
Angelonero87
Senior Member
 
L'Avatar di Angelonero87
 
Iscritto dal: Mar 2008
Città: Roma
Messaggi: 394
Quote:
Originariamente inviato da 70Faramir Guarda i messaggi
imho hanno fatto una pessima scelta...
Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle, che imho è la soluzione migliore che di avevre du schede diverse
Angelonero87 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 10:58   #6
Bronx.sbt
Member
 
Iscritto dal: Mar 2006
Messaggi: 97
probabilmente è stato fatto perche nvidia nn so nel futuro quanti chipset nel settore desktop potrà continuare a progettare.ormai quello è un settore in declino per lei.speriamo invece in amd che ha la possibilità di fare piattaforme assolutamente complete integrando proprio funzionalità del genere.Inoltre è bene rilflettere sul fatto che il mercato dei chip grafici integrati sulle schede madri andrà anche esso a morire in favore di chip integrati direttamente nel processore sia per intel che per amd.
Bronx.sbt è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:04   #7
Sgt.Pepper89
Utente sospeso
 
L'Avatar di Sgt.Pepper89
 
Iscritto dal: Dec 2005
Città: Milano
Messaggi: 1153
Massi dai togliamo le funzioni interessanti, rimarchiamo i modelli vecchi e poi ci stupiamo se i chipset nvidia non vendono un tubo
__________________
- Canon Powershot a610 - Samsung T9 8Gb -Epiphone Dot Studio - Last.fm ->ROSIK FINALE !!<- >OWNAGE<
http://www.myspace.com/whenmusicattacks
Sgt.Pepper89 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:11   #8
bLaCkMeTaL
Senior Member
 
L'Avatar di bLaCkMeTaL
 
Iscritto dal: Jul 2002
Città: ...sul web.
Messaggi: 696
molto male, peccato veramente per questa tecnologia.
Potenzialmente avrebbe permesso ad nvidia di vendere schede madri premium con la video integrata e questa funzionalità, soprattutto a quelle coppie che, pur vivendo in due, ricevono bollettoni da ben €. 237 !!!
__________________
C2D 3.5Ghz (E6550@500x7)/Giga GA-P35C-DS3/[email protected] TG XtreemDark/9800GTX-512/XP@WD-500Gb-ide/Ubuntu@WD Raptor-X-150Gb-sata/psu Liberty 500W 120cm/SS2/case-XION Chin+14cm/DeLL FPW-24"/G5Laser+MS Digital Media Pro keyb
Visit my bL0g -> http://www.pwrusr.com
bLaCkMeTaL è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:28   #9
II ARROWS
Bannato
 
L'Avatar di II ARROWS
 
Iscritto dal: Aug 2005
Città: Buguggiate(VA)
Messaggi: 12007
BUUU!

Mah, non sarà sviluppato per il desktop ma sì per i portatili? Ma ci prendono per il culo? Un portatile non è così diverso da un fisso, una volta fatta la tecnologia la puoi mettere dove ti pare.
II ARROWS è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:29   #10
xcavax
Senior Member
 
L'Avatar di xcavax
 
Iscritto dal: Feb 2008
Città: padova
Messaggi: 3155
Quote:
Originariamente inviato da Angelonero87 Guarda i messaggi
Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle, che imho è la soluzione migliore che di avevre du schede diverse
non c'è lo zii di creative che fa una cosa simile?
__________________
Codice:
ho concluso felicemente con: okorop, dragonix21, Saur0n, albisdp sensi, cyfer73, bertux, magalini, HaF2, ilcalmo talas36, steee, sosa, holydio, antecx, Kaneda79, Hiwa, 4HwGenXX, scupetta, oldfield, M@X27, lollapalooza, luciferme, FroZen, Fr4Ps, hornet75, ercagno, Simone_85, predator_85, Obelix-it, ertruffa, cherokee80, egounix, slemmer87, Braccino-ita, iSynapse93, Spectrum7glr, stefano_na, Yellow13,Jonny32,cptfisher
xcavax è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:38   #11
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Angelonero87 Guarda i messaggi
Dipende cosa faranno in futuro, sarebbe anche il caso di iniziare a progettare chip grafici che disattivano gli SP che non servono quando sono in idle
Secondo me già fanno così.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:41   #12
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da Arnalde Guarda i messaggi
Male...molto male... Peccato!
Insomma, una gtx285 pur con tutti gli accorgimenti del caso in idle consumerà molto di più di una integrata, immagino.
Sui desktop i consumi non sono tanto un problema, quanto la rumorosità della scheda. L'importante è la rumorosità della scheda in idle più che il watt in più o in meno.

A dire il vero, quando nVidia annunciò questa tecnologia, avevo già intuito come sarebbe andata a finire

La strada più sensata sui desktop è che la scheda consumi il meno possibile in idle.

Quote:
Originariamente inviato da II ARROWS Guarda i messaggi
Mah, non sarà sviluppato per il desktop ma sì per i portatili? Ma ci prendono per il culo?
Sui portatili il watt conta sul serio, perché quando non uso la GPU dedicata vorrei avere massima autonomia della batteria. Inoltre anche riguardo al rumore non c'è lo spazio per il dissipatore della GTX285

Quote:
Un portatile non è così diverso da un fisso, una volta fatta la tecnologia la puoi mettere dove ti pare.
I portatili hanno il vantaggio di essere collaudati "interi", e di poter avere circuiteria "custom" nel sistema, cose certamente utili a una tecnologia di questo tipo.

Inoltre lì serve davvero, è giusto impiegare le risorse dove servono.

Ultima modifica di Mercuri0 : 20-03-2009 alle 11:46.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:42   #13
MadJackal
Senior Member
 
Iscritto dal: Sep 2008
Messaggi: 376
Quote:
Originariamente inviato da xcavax Guarda i messaggi
non c'è lo zii di creative che fa una cosa simile?
Mi pareva di aver capito anche io una cosa del genere, ma è ovvio, come dice Mercuri0...

Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
Secondo me già fanno così.
Fanno già così, disattivano tutte le parti della GPU che è possibile disattivare (e le prime sono gli SP).
Il problema è che comunque, per quanto in "idle", una discreta consumerà sempre di più di una integrata di base. Sempre. Anche perchè la VRAM aggiuntiva consuma, non solo la GPU.
__________________
командир роты - Quando la CAUSA chiama, l'esercito del male risponde!
MadJackal è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:49   #14
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da MadJackal Guarda i messaggi
Il problema è che comunque, per quanto in "idle", una discreta consumerà sempre di più di una integrata di base. Sempre. Anche perchè la VRAM aggiuntiva consuma, non solo la GPU.
Certo, addirittura si dice che per la 4870 in idle il problema sia che non hanno attivato il sistema di risparmio delle GDDR5 perché ancora non si "fidavano" della sua affidabilità

Comunque il mio discorso era che 10-20 watt di differenza non sono un problema per i desktop.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:49   #15
Splarz
Member
 
Iscritto dal: Sep 2008
Messaggi: 114
mi unisco al coro dei "nooo!"
col chip grafico geforce 8300 ero proprio curioso di vedere hybrid sli con una nvidia potente.
peccato per il risparmio in bolleta.
Splarz è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:53   #16
maurilio968
Senior Member
 
L'Avatar di maurilio968
 
Iscritto dal: Feb 2006
Messaggi: 1659
Peccato davvero... ma siera capito dal mancato supporto nella gtx285.
__________________
ogni minuto muore un imbecille e ne nascono due.
maurilio968 è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 11:56   #17
e.cera
Senior Member
 
L'Avatar di e.cera
 
Iscritto dal: Jan 2002
Città: dintorni di Roma
Messaggi: 1747
e ditelo che non volete spendere soldi per farla funzionare bene, e che non avete voglia di sbattervi a cercare accordi con le aziende che fanno i SO e altri componenti interessati perché é una tencologia che fa bene "solo" ai clienti e all'ambiente ma non al vostro profitto...
e.cera è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 12:16   #18
jokerpunkz
Senior Member
 
L'Avatar di jokerpunkz
 
Iscritto dal: Sep 2005
Città: Bassano del Grappa
Messaggi: 1093
non sono esperto di schede video, ma le Gpu hanno un sistema di scaling della frequenza?

sui notebook spero si diffonda presto questa pratica, anche se sui desktop non ci sarebbe stata male....uffa stavo aspettando che sviluppassero meglio il segmento per cambiare computer sob

non capisco proprio perche non si mettano d'accordo con ati per creare uno standard....ne avrebbero giovato entrambe, alla fin fine uno dei freni per comprare una scheda potente è proprio soppesare quante volte ne fai uso rispetto al comune utilizzo del computer: è inutile prendere una scheda potente per fare grafica o giocare 5 volte l'anno se po consuma e fa il rumore di un elicottero!!! questa soluzione era ottima....avrebbero venduto a fasce di consumatori anche saltuari oltre che pro/gamers......mah misteri del mercato
jokerpunkz è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 13:44   #19
Master_T
Senior Member
 
Iscritto dal: Jun 2005
Messaggi: 511
Scusate l'ignoranza, faccio una domanda tecnica... ma le uscite video? Cioè, o collego il monitor al chip integrato o alla sk video... o avevano messo un qualche sistema di "bridging". Vabbè, ormai purtroppo l'idea è stata abbandonata, ma mi resta la curiosità...
Master_T è offline   Rispondi citando il messaggio o parte di esso
Old 20-03-2009, 14:14   #20
frankie
Senior Member
 
L'Avatar di frankie
 
Iscritto dal: Nov 2000
Città: Varees
Messaggi: 9171
Quote:
Originariamente inviato da Arnalde Guarda i messaggi
Male...molto male... Peccato!
quoto, e tanto non mi tange perchè ho su un PC un 690G e sull'altro il 780G, quindi SOLO integrati.
Quote:
Originariamente inviato da Sgt.Pepper89 Guarda i messaggi
Massi dai togliamo le funzioni interessanti, rimarchiamo i modelli vecchi e poi ci stupiamo se i chipset nvidia non vendono un tubo
Già...
Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
...
Comunque il mio discorso era che 10-20 watt di differenza non sono un problema per i desktop.
Non direi, l'HTPCin idle a piena frequenza consuma 38W, 20 sarebbero il 50% in più. Sappiamo benissimo cosa consuma una scheda video oggi.

Quote:
Originariamente inviato da Master_T Guarda i messaggi
Scusate l'ignoranza, faccio una domanda tecnica... ma le uscite video? Cioè, o collego il monitor al chip integrato o alla sk video... o avevano messo un qualche sistema di "bridging". Vabbè, ormai purtroppo l'idea è stata abbandonata, ma mi resta la curiosità...
Secondo me il futuro dovrebbe essere:
Tutti i chipset con video integrato
Scheda accelleratrice video su pciex ma le uscite sono sempre sull'integrata
frankie è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione HUAWEI Mate X7: un foldable ottimo, ma restano i soliti problemi Recensione HUAWEI Mate X7: un foldable ottimo, m...
Nioh 3: souls-like punitivo e Action RPG Nioh 3: souls-like punitivo e Action RPG
Test in super anteprima di Navimow i220 LiDAR: il robot tagliaerba per tutti Test in super anteprima di Navimow i220 LiDAR: i...
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto Dark Perk Ergo e Sym provati tra wireless, softw...
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker DJI RS 5: stabilizzazione e tracking intelligent...
La società europea The Exploratio...
Dalle auto ai robot umanoidi: Faraday Fu...
Vodafone annuncia la dismissione di un s...
Stiga lancia i nuovi robot tagliaerba co...
Bullismo e cyberbullismo, Keenetic lanci...
Con AI Skills Checker Bitdefender mette ...
E-bike giapponese con 1.000 km di autono...
Un eVTOL con cui basta saper andare in b...
Dal mercato cinese al mondo: HONOR firma...
Sovranità digitale: l'UE sperimen...
Accesso alla memoria su Windows 11 solo ...
iPhone 18 Pro Max con batteria da oltre ...
Windows 11, cali di prestazioni sulle GP...
Un altro iPhone economico è in arrivo a ...
The Grand Tour 2026: ecco chi saranno i ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:54.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1