View Full Version : Schede video PCI Express 3.0 per il 2010
Redazione di Hardware Upg
13-06-2008, 13:29
Link alla notizia: http://www.hwupgrade.it/news/skvideo/schede-video-pci-express-30-per-il-2010_25633.html
Il consorzio PCI Express sta definendo le specifiche 3.0, ma ci vorranno alcuni anni prima che vengano utilizzate da prodotti in commercio
Click sul link per visualizzare la notizia.
firestormrudy
13-06-2008, 13:31
mmm 3 slot, un mattone rovente!
vuol dire che assorbono + corrente ancora della8800?
se continua così non posso passare ai contatori digitali.. phon +pc salta la corrente^^
unnilennium
13-06-2008, 13:36
Stiamo parlando di fantascienza,sono ancora agli albori le 2.0, e poi si spera che migliorino colla gestione dei consumi,se arrivano a300w di assorbimento solo x la vga sarà un caldo d'inferno dentro il case,ai voglia a mettere ventole!
marco_zanna87
13-06-2008, 13:37
Ah beh, allora ho fatto bene a fare il contratto a 6kW con l'enel :D:D:D
Però 3 slot, tocca cambiare standart dimensionale sia per schede madri che per case, un triple sli con 3 vga a triplo slot sarebbe semplicemente osceno!!! :D:D
Stech1987
13-06-2008, 13:40
mi sa che dovrò aprire un mutuo per pagare l'enel... :sofico:
Cmq concordo con unnilennium: in teoria la riduzione dei processi produttivi e l'ottimizzazione delle architetture dovrebbe portare ad un aumento di potenza senza incidere troppo sui consumi :sisi:
jacopo147
13-06-2008, 13:42
se veramente sforneranno vga con consumo di 300W all'inizio di ogni sessione di gioco spunterà fuori un omino dell'enel a presentarti il preventivo e a chiederti i cash in anticipo... poi, va beh in inverno, metti i piedi vicino al case e te li abbrustolisci per bene (mi immagino qualcuno che usera il pc come sgabello riscaldato) ma in estate che fai? porti il pc sul balcone e prolunghe a tutto per giocare in camera? :(
ma con tutti i problemi di risparmio energetico che ci sono, che fanno? aumentano la richiesta di energia? mah.... stupido mondo
viper-the-best
13-06-2008, 13:51
Pazzesco. valori di picco di ben 300 Watt. solo per le GPU. siamo all'assurdo... al posto che andare verso un risparmio energetico si va verso l'aumento
ThePunisher
13-06-2008, 13:51
E' questo sarebbe il progresso?
Maggiori dimensioni, più calore, più potenza utilizzata?
ci fosse stato un commento azzeccato del tipo:
considerata la scalata alla nanometria (vedi gtx280 consumo gia sotto i 300w) probabilmente non serviranno piu stupidi connettori ausiliari per alimentare schede video.
E dopo le flat per internet l'Enel presenterà le flat per l'utenza casalinga sull'energia. Non riesco a capire perchè spingere ad elevati consumi...
BYezzzzzzzzzzzzzzz
e cosi si fuse il pc :sofico: :sofico: :rotfl:
ThePunisher
13-06-2008, 14:00
ci fosse stato un commento azzeccato del tipo:
considerata la scalata alla nanometria (vedi gtx280 consumo gia sotto i 300w) probabilmente non serviranno piu stupidi connettori ausiliari per alimentare schede video.
Se fosse vero che senso avrebbe investire in questo standard come descritto nella news?
bisogna cercare di limitare questa tendenza. non ci può essere un supercomputer in ogni casa per elaborare grafica 3d solo per giocare.
o si spinge sulle consolle (ahime :'( ) o si cambia tecnologia. i chip su silicio disperdono troppa energia
ma con tutti i problemi di risparmio energetico che ci sono, che fanno? aumentano la richiesta di energia? mah.... stupido mondo
poi 25W per il processore e 300 per il video.
Think green e ottimizzate il sw
sniperspa
13-06-2008, 14:15
Putroppo rispecchia ank la tendenza a fare alimentatori sempre più grossi a quanto sembra...sta succedendo il contrario di quello che dovrebbe succedere mi sembra...
que va je faire
13-06-2008, 14:16
azz, specifiche del genere promettono male, mooolto male
Se fosse vero che senso avrebbe investire in questo standard come descritto nella news?
chiedilo a loro :) un motivo ci sara'
leddlazarus
13-06-2008, 14:21
bisogna raffreddare anche il PCB allora
300 W che passano sui circuiti stampati generano calore.
goldenhawkitaly
13-06-2008, 14:22
300W per una VGA!!!!
Potente che sia con 300W ci alimento un desktop completo e me ne avanza :)
quando ho preso il mio alimentatore da 750W pensavo già a come dargli corrente, figuriamoci un domani con due VGA da 300W cadauna!!!
ci fosse stato un commento azzeccato del tipo:
considerata la scalata alla nanometria (vedi gtx280 consumo gia sotto i 300w) probabilmente non serviranno piu stupidi connettori ausiliari per alimentare schede video.
perchè ti sembra forse che il consumo delle schede grafiche sia in diminuzione? dalle prime vga 3d ai giorni nostri i consumi sono aumentati in modo spropositato, nonostante il rimpicciolimento del processo produttivo e le migliorie sotto il profilo del risparmio energetico.
certo le prestazioni sono aumentate di pari passo, e i benchmark vogliono farci credere che il rapporto prestazioni/consumo è addirittura migliorato. però si giocava anche una volta, con pochi watt. con la tecnologia di cui si dispone oggi i consumi per una scheda a basse prestazioni sarebbero irrisori. eppure il mercato necessita della corsa alla potenza.
tra qualche anno si arriverà al limite della attuale tecnologia e probabilmente ci sarà una fase di stallo finchè qualcuno non si inventerà qualcosa di meglio e funzionante
Buichtnt
13-06-2008, 14:25
lol l'xbox consuma 175w.......asd che spreco!!
lol l'xbox consuma 175w.......asd che spreco!!
è cmq meno di un pc da gioco (è l'unico pregio delle consolle :rolleyes: )
the_wizard
13-06-2008, 14:29
ci fosse stato un commento azzeccato del tipo:
considerata la scalata alla nanometria (vedi gtx280 consumo gia sotto i 300w) probabilmente non serviranno piu stupidi connettori ausiliari per alimentare schede video.
il consumo totale di una skeda dipende solo marginalmente dal processo produttivo, quello ke conta sul serio è il bus e la banda passante...infatti TUTTE le 256 bit hanno connettore esterno....
Se ricordo bene, quando avevo la x800gt, non c'era alcun connettore aggiuntivo, mentre ora c'è sulla 7800gt, quindi non è universalmente vero;).
Comunque penso che si rasenti la follia con questi consumi, quel precedente post sulla xbox mi ha fatto pensare ad un rumor letto pochi giorni fa, secondo cui la revision del 2009 (Valahalla) starebbe intorno ai 100w, non so per quanto tempo ancora gli utenti saranno disposti a consumi simili, vista anche l'aria di recessione...
In un paio di anni penso che si arriverà a pc con video integrato (e sulle cpu sì che si sta aumentando l'efficienza), e console in caso uno voglia giocare, ormai con specifiche simili e un modello a settimana siamo arrivati alla follia più totale:rolleyes:
il consumo totale di una skeda dipende solo marginalmente dal processo produttivo, quello ke conta sul serio è il bus e la banda passante...infatti TUTTE le 256 bit hanno connettore esterno....
premetto che sono ignorante, però:
non si può fare un bus seriale? 2 bit di ampiezza, ma molto veloce. un po' come si è fatto passando dall'interfaccia parallel ata alla s-ata. la banda passante in quel caso è pure aumentata. in teoria si può fare anche con il bus di sistema e quello delle schede video? o è già così :stordita: ?
un collegamento seriale non consuma meno di uno parallelo? ci sarebbero meno piste no?
Bla-Bla-Bla....poi quando esce la scheda superminkiapower tutti a comprarla perchè fa figo avere 3 frames in più del l'amico di turno..invece di comprare super alimentatori (in previsione...)perchè non tenete il vecchio a basso wattaggio e vi ponete un limite all'acquisto ; vedrete che qualcuno si accorgerà del calo di vendite e in fase di progetto il consumo verrà posto davanti alle prestazioni...ma mi sembra di parlare al vento..tanto ci saranno nuove centrali..
se ricordo bene, quando avevo la x800gt, non c'era alcun connettore aggiuntivo, mentre ora c'è sulla 7800gt, quindi non è universalmente vero;).
Comunque penso che si rasenti la follia con questi consumi, quel precedente post sulla xbox mi ha fatto pensare ad un rumor letto pochi giorni fa, secondo cui la revision del 2009 (Valahalla) starebbe intorno ai 100w, non so per quanto tempo ancora gli utenti saranno disposti a consumi simili, vista anche l'aria di recessione...
In un paio di anni penso che si arriverà a pc con video integrato, e console in caso uno voglia giocare, ormai con specifiche simili e un modello a settimana siamo arrivati alla follia più totale:rolleyes:
quoto!
cmq queste nuove specifiche servono proprio ad eliminare i connettori esterni :laugh: così non si ha l'impressione che la scheda consumi più del dovuto, serve a far accettare e rendere normale il fatto che una scheda video possa consumare 300W. in fin dei conti è la componente più complessa del computer e quella che fornisce maggiore potenza elaborativa, è ovvio che consumi molto.
però non si dovrebbero mai superare i 100W imho.
Bla-Bla-Bla....poi quando esce la scheda superminkiapower tutti a comprarla perchè fa figo avere 3 frames in più del l'amico di turno..invece di comprare super alimentatori (in previsione...)perchè non tenete il vecchio a basso wattaggio e vi ponete un limite all'acquisto ; vedrete che qualcuno si accorgerà del calo di vendite e in fase di progetto il consumo verrà posto davanti alle prestazioni...ma mi sembra di parlare al vento..tanto ci saranno nuove centrali..
siiiii vai di nucleare, così cambio la hd2400pro
topo loco
13-06-2008, 14:42
E' che fa figo (vuoi giocare a crisishdcheversionenonmiricordomaharottolepalle) , se no a che serve una macchina da 220 km/h sul contachilometri ?
Tornando in tema spero che contengano i consumi se no di questo passo si dovra usare un gruppo elettrogeno (20 litri di benza con quello che costa) per avviare la gpu /con manovella turbo ;) .
Io penso che invece bisogna separare quello che lo slot puo' erogare e quello che le VGA richiederanno. E' vero che la 3° generazione del PCI-e arrivera' a 300w ma credo ( SPERO ! ) che i produttori di VGA , anche spinti dalla sempre maggiore attenzione dei cittadini al problema ambientale, saranno in futuro molto attenti ai consumi. Con il costo dell'energia che sale di continnuo il "fattore consumo" puo' diventare importante nella scelta della VGA. ciao ciao.
p.s. ATi e NVidia vediamo di non farmi fare figuracce ! ! !:D :D
leddlazarus
13-06-2008, 14:46
300W per una VGA!!!!
Potente che sia con 300W ci alimento un desktop completo e me ne avanza :)
quando ho preso il mio alimentatore da 750W pensavo già a come dargli corrente, figuriamoci un domani con due VGA da 300W cadauna!!!
300 W saranno per l'intera catena pci-ex non per singola vga
II ARROWS
13-06-2008, 14:47
premetto che sono ignorante, però:
non si può fare un bus seriale? 2 bit di ampiezza, ma molto veloce. un po' come si è fatto passando dall'interfaccia parallel ata alla s-ata. la banda passante in quel caso è pure aumentata. in teoria si può fare anche con il bus di sistema e quello delle schede video? o è già così :stordita: ?
un collegamento seriale non consuma meno di uno parallelo? ci sarebbero meno piste no?256bit per frequenze operative superiori a 2GHz...
Se riesci a creare una architettura che permetta di trasferire così tanti dati contemporaneamente in modo da soddisfare il calcolo parallelo richiesti dalla grafica, tanti auguri.
Un HDD fa tutto tranne parallelismo. ;)
300 W saranno per l'intera catena pci-ex non per singola vga
si
tralaltro, non è meglio mantenere il grosso dell'amperaggio sui connettori esterni? far correre l'energia sulla piastra madre non provoca riscaldamento? il segnale non è più soggetto a disturbi?
Master Mystery
13-06-2008, 15:02
Mi chiedo, perchè non fanno le stesse cose per le interconessioni?
Perchè non posso usare l'USB per caricare le batterie di una periferica o per alimentare HD da 3,5" ma solo quelli da 2,5" (purchè standard e massimo da 7200rpm)?
Perche nel 2008 il SerialATA non trasferisce corrente e devo avere ben due cavi, uno per i dati e una per l'alimentazione, per gli HD interni ed esterni?
Perchè per alimentare il monitor devo utilizzare un ulteriore cavo, la presa per alimentarlo, e non basta attaccarlo via hdmi o dvi?
Ulteriori watt per qualcosa che ne ciuccia già troppi e non pensano a questo?
E poi, PERCHE' per alimentare le schede pci-e 3 dovremo avere 300W nello slot e avere ulteriori NUOVI cavi di alimentazione, quelli pci-e di adesso da 6-8pin cosa hanno che non va? O meglio, cosa avevano i classici molex da 4pin di male?
jacopo147
13-06-2008, 15:06
Mi chiedo, perchè non fanno le stesse cose per le interconessioni?
Perchè non posso usare l'USB per caricare le batterie di una periferica o per alimentare HD da 3,5" ma solo quelli da 2,5" (purchè standard e massimo da 7200rpm)?
Perche nel 2008 il SerialATA non trasferisce corrente e devo avere ben due cavi, uno per i dati e una per l'alimentazione, per gli HD interni ed esterni?
Perchè per alimentare il monitor devo utilizzare un ulteriore cavo, la presa per alimentarlo, e non basta attaccarlo via hdmi o dvi?
Ulteriori watt per qualcosa che ne ciuccia già troppi e non pensano a questo?
E poi, PERCHE' per alimentare le schede pci-e 3 dovremo avere 300W nello slot e avere ulteriori NUOVI cavi di alimentazione, quelli pci-e di adesso da 6-8pin cosa hanno che non va? O meglio, cosa avevano i classici molex da 4pin di male?
eh ma a quel punto uno non cambia più l'alimentatore, se i connettori van tutti bene e non cambiano mai compri un ali ogni 7 anni con amperaggi alti e sei a posto, così ne devi cambiare uno ogni 2 :asd: pensa ai quei poveracci che li producono, devono mangiare anche loro no? :O
zerothehero
13-06-2008, 15:30
MA che noia, francamente. :)
Le schede video top di gamma costituiscono una percentuale infinitesimale delle schede installate nei computer...più della metà delle vga sono delle integrate che consumano pochi watt.
In un'ottica cosidetta "green" è ben più preoccupante l'imponente consumo di milioni di console "next gen" che consumano oltre i 150watt, piuttosto che qualche decina di migliaia di gx280 e via dicendo.
Piuttosto bisognerebbe fare qualcosina per far consumare in idle e in stand-by meno..70-80 watt per l'idle e 4-5 watt per lo stand-by non sono accettabili.
Lud von Pipper
13-06-2008, 15:37
Proprio non ci arrivo: il PC ha i suoi bei vantaggi e permette di creare giochi molto diversificati ma tanto sono anni che non esce un tubo di interessante e sopratutto la roba per PC esce "forse" e comunque "dopo" che la sie è vista su consolle.
Se proprio qualcuno ancora si diverte con la mondezza che si trova sugli scaffali credo che gli convenga prendersi una consolle da 300€ invece che un fornetto grill da 600€ che ciuccia corrente come se l'elettricità piovesse dal cielo.
Il fallimento grossolano delle DX10 è dimostrazione che tanto i giochi odierni sono solo porting da XboX e PS3 (che vanno con le DX9) e nessuno sente realmente la necessità di sostituire le vecchie schede ATI 1900 e nVidia 7900 (tranne per rottura o nuovi sistemi).
gli schermi da 30" non vendono e le risoluzioni sono bloccate a 1900x1200.
Non riesco proprio a capire la necessitò di schede video che assorbano 300W quando migliorando e ottimizzando le attuali s fa tutto quello che la tecnologia permette (Tranne Crysis che è semplicemente un aborto di programmazione).
Faticano a trovare un senso al PCIe 2.0 e pensano al 3... :muro:
La gente oggi il PC lo vuole soprattutto SILENZIOSO e il boom dei laptop dovrebbe insegnare qualcosa: a che serve tecnologia che renderà l'hardware sempre più di nicchia?
Credono davvero che ci sarà poi chi programmerà per le loro assurdità, che non arrivano all1% dell'installato? :muro
gianni1879
13-06-2008, 15:51
effettivamente il consumo sulle schede grafiche sono aumentati proporzionalmente alla potenza elaborativa, siamo ad un punto di non ritorno dal punto di vista dei consumi su questo settore.
nonikname
13-06-2008, 17:26
E' una vita che sento sempre le stesse storie (38 anni e a 16 anni il Vic20) : I primi 2 anni dalla presentazione delle consolle si sente solo che il Game su PC è morto , la grafica delle console è migliore e via dicendo...
Passati i 2 anni le schede grafiche surclassano le consolle e i giochi cominciano a spostarsi sul pc che fa di nuovo da apripista per i titoli di maggior spessore tecnologico ... fino alla presentazione delle nuove consolle (4-6 anni di vita media)
E il ciclo si ripete , con i soliti ragazzini che godono davanti ai loro nuovi giocattolini dicendo che ormai i pc e le mostruose vga da 200W sono superate... ;)
E' una vita che sento sempre le stesse storie (38 anni e a 16 anni il Vic20) : I primi 2 anni dalla presentazione delle consolle si sente solo che il Game su PC è morto , la grafica delle console è migliore e via dicendo...
Passati i 2 anni le schede grafiche surclassano le consolle e i giochi cominciano a spostarsi sul pc che fa di nuovo da apripista per i titoli di maggior spessore tecnologico ... fino alla presentazione delle nuove consolle (4-6 anni di vita media)
E il ciclo si ripete , con i soliti ragazzini che godono davanti ai loro nuovi giocattolini dicendo che ormai i pc e le mostruose vga da 200W sono superate... ;)
:confused: :confused: e che c'entra?
qui si parla di consumo. purtroppo una consolle ha un'hardware studiato ad hoc e consumerà sempre meno di un pc.
il problema vero è che il comparto grafico ormai assorbe TROPPA energia e ne consumerà sempre di più finchè non si camia tecnologia (il resto è fantascienza). certo anche le nuove consolle consumeranno di più, ma credo che la forbice tornerà ad allargarsi.
il pc gaming non morirà, credo, ma sta diventando purtroppo assurdo (odio le consolle)
AceGranger
13-06-2008, 18:55
Mi chiedo, perchè non fanno le stesse cose per le interconessioni?
Perchè non posso usare l'USB per caricare le batterie di una periferica o per alimentare HD da 3,5" ma solo quelli da 2,5" (purchè standard e massimo da 7200rpm)?
Perche nel 2008 il SerialATA non trasferisce corrente e devo avere ben due cavi, uno per i dati e una per l'alimentazione, per gli HD interni ed esterni?
Perchè per alimentare il monitor devo utilizzare un ulteriore cavo, la presa per alimentarlo, e non basta attaccarlo via hdmi o dvi?
Ulteriori watt per qualcosa che ne ciuccia già troppi e non pensano a questo?
E poi, PERCHE' per alimentare le schede pci-e 3 dovremo avere 300W nello slot e avere ulteriori NUOVI cavi di alimentazione, quelli pci-e di adesso da 6-8pin cosa hanno che non va? O meglio, cosa avevano i classici molex da 4pin di male?
perchè sarebbe un'enorme cazzata, visto che il cavo dati è fatto e studiato per portare i DATI, indipendentemente quello che consumi la periferica che li riceve.
Un HDMi che alimenti anche la periferica ????? un monitor da 15 non consuma come uno da 30, cosi oltre il conumo della scheda video avresti anche ulteriori 150 watt almeno da far uscire da ogni connettore HDMI, furba come cosa !
perchè sarebbe un'enorme cazzata, visto che il cavo dati è fatto e studiato per portare i DATI, indipendentemente quello che consumi la periferica che li riceve.
Un HDMi che alimenti anche la periferica ????? un monitor da 15 non consuma come uno da 30, cosi oltre il conumo della scheda video avresti anche ulteriori 150 watt almeno da far uscire da ogni connettore HDMI, furba come cosa !
alimentare il monitor per il cavo del segnale non è fattibile, sono d'accordo, però sarebbe auspicabile che una prossima versione di e-sata possa veicolare anche l'energia necessaria a far funzionare gli hard disk. basterebbe fondere in unico cavo e spinotto le due connessioni tal quali sono oggi. dietro le quinte (nel case) avresti un molex e un cavo sata per ogni spinotto esata, come se si collegasse un normale hd. all'altro capo del filo, potresti avere un'altro connettore ibrido o direttamente uno sdoppiamento in sata standard data e power (a seconda dell'uso).
il fatto che periferiche diverse hanno consumi diversi è poco rilevante: basta che il voltaggio sia allo standard convenuto (nel caso i classici cavi a 3,5v, 5v e 12v) e che l'apparecchio che eroga l'energia sia in grado di fornirne un amperaggio sufficente.
adirittura
dato che vogliono far correre fino a 300w sul bus pci-e, non credo sarebbe difficile farne passare un po' in zona southbridge per dei nuovi connettori sata "elettrificati". il case sarebbe molto più ordinato se ci fossero meno cavi molex.
pura e mera operazione commerciale...poi 3 slot. :rolleyes:
AleLinuxBSD
13-06-2008, 21:10
Queste notizie mi lasciano sgomento.
Non fosse altro per un motivo ecologico bisogna andare nella riduzione dei consumi. :O
Riduzione dei consumi che porta pure altri benefici (bolletta in primis!), silenziosità ...
:mbe:
... e questo sarebbe progresso?
E' una vita che sento sempre le stesse storie (38 anni e a 16 anni il Vic20) : I primi 2 anni dalla presentazione delle consolle si sente solo che il Game su PC è morto , la grafica delle console è migliore e via dicendo...
Passati i 2 anni le schede grafiche surclassano le consolle e i giochi cominciano a spostarsi sul pc che fa di nuovo da apripista per i titoli di maggior spessore tecnologico ... fino alla presentazione delle nuove consolle (4-6 anni di vita media)
E il ciclo si ripete , con i soliti ragazzini che godono davanti ai loro nuovi giocattolini dicendo che ormai i pc e le mostruose vga da 200W sono superate... ;)
Non è il caso di sboroneggiare perchè il tuo pc in firma fa "figo", magari ci sono tanti 14enni che non possono permettersi che 199eur di consolle, e tanti che come te o me, anche se più giovane, sono partiti da vic20/c64 e che stanno vedendo che probabilmente stiamo superando il limite... Comunque sei abbondantemente ot, il thread tratta di altro, non è una flame war consolle vs pc, le mostruose vga capaci di assorbire 300w sarebbero follia in questi tempi duri, e chi dice il contrario o ha i soldi di paparino che tanto paga sempre, o vuole investire i suoi contribuendo ad andare a fondo, non lamentiamoci domani del costo della benzina o della bolletta che paghiamo 4volte che in UK, quando poi acquisteremmo simili bestialità per giocare all'ultimo sparatutto. Non vorrai negare che ormai con hardware 18/24 mesi fa puoi giocare a ben poco, a meno di non stare a 1024x768 spesso disabilitando l'HDR, complici codice programmato con i PIEDI, svegliamoci, per Dio!!:muro: :doh:
Credo che l'ottimizzare sempre meno, l'aumento dei bug, sia cosa intenzionale per arrivare a questo.
Master Mystery
13-06-2008, 22:03
perchè sarebbe un'enorme cazzata, visto che il cavo dati è fatto e studiato per portare i DATI, indipendentemente quello che consumi la periferica che li riceve.
Il cavo dati non è altro che un CAVO, e può contenere SIA il necessario per trasportare i dati SIA quello per l'alimentazione, sullo stesso principio dell'USB che oltre a trasferire i dati alimenta le periferiche (mouse, HD, tastiere, cuffie ecc), solo l'ernergia erogata riguardo a queste interconessioni non è abbastanza per altre periferiche, dove tornerebbe utile.
Un HDMi che alimenti anche la periferica ????? un monitor da 15 non consuma come uno da 30, cosi oltre il conumo della scheda video avresti anche ulteriori 150 watt almeno da far uscire da ogni connettore HDMI, furba come cosa !
Non è furba, è intelligente, in quanto serve per eliminare un sacco di cavi inutili.
veramente l'usb alimenta piccole periferiche, se non sbaglio fino a 5w o giù di lì, tant'è che molti cassettini hanno un connettore aggiuntivo per l'alimentazione.
Dumah Brazorf
13-06-2008, 22:29
300W? Le piste sulla mobo saran grosse come cotechini...
Master Mystery
13-06-2008, 22:29
veramente l'usb alimenta piccole periferiche, se non sbaglio fino a 5w o giù di lì, tant'è che molti cassettini hanno un connettore aggiuntivo per l'alimentazione.
E chi lo nega, dico solo che dovrebbero migliorare appunto sta cosa :D
Ma lasciamo perdere.
che vuoi che sia 300w, sono 2 criceti nella ruota che girano.
Fossi figo, vorrei anche io una scheda da 300 w, per dire, la mia tira 300 w ma gioco a freecell che è una meraviglia
nonikname
13-06-2008, 23:22
Non è il caso di sboroneggiare perchè il tuo pc in firma fa "figo", magari ci sono tanti 14enni che non possono permettersi che 199eur di consolle, e tanti che come te o me, anche se più giovane, sono partiti da vic20/c64 e che stanno vedendo che probabilmente stiamo superando il limite... Comunque sei abbondantemente ot, il thread tratta di altro, non è una flame war consolle vs pc, le mostruose vga capaci di assorbire 300w sarebbero follia in questi tempi duri, e chi dice il contrario o ha i soldi di paparino che tanto paga sempre, o vuole investire i suoi contribuendo ad andare a fondo, non lamentiamoci domani del costo della benzina o della bolletta che paghiamo 4volte che in UK, quando poi acquisteremmo simili bestialità per giocare all'ultimo sparatutto. Non vorrai negare che ormai con hardware 18/24 mesi fa puoi giocare a ben poco, a meno di non stare a 1024x768 spesso disabilitando l'HDR, complici codice programmato con i PIEDI, svegliamoci, per Dio!!
Credo che l'ottimizzare sempre meno, l'aumento dei bug, sia cosa intenzionale per arrivare a questo.
Datti una calmata !! la mia era solo una risposta a chi parlava di console come soluzione al fatto che le specifiche di erogazione Watt Max della PCIe 3 sarebbero troppo elevate....
Nessuno a pensato che queste specifiche sono dettate dal fatto che ormai esistono molti tipi di molex aggiuntivi da collegare alle vga.. (si è cominciato con l'alimentazione dei floppy poi il normale molex 4 poli , poi il 3x2 e ora il 4x2+3x2)... mentre con il PCIe3.0 si cerca di raggruppare tutto sulla mobo con un guadagno in termini di semplificazione e di pulizia dell'interno del case...
Che poi le schede attuali consumino molto è insindacabile , come è innegabile il fatto che in 10 anni sia aumentato più di 100K volte il numero di poligoni su schermo e le texture sono 1000 volte più definite ... ma il consumo delle VGA non è aumentato di 10k volte...(metre le cpu va già bene se sono più di 10-20 volte potenti di quelle del 1998)
http://www.tomshw.it/cpu.php?guide=20041221&page=cpu_charts-13
ThePunisher
14-06-2008, 05:59
chiedilo a loro :) un motivo ci sara'
Certo... che hai detto una cavolata... come un altro utente ti ha fatto notare.
perchè ti sembra forse che il consumo delle schede grafiche sia in diminuzione? dalle prime vga 3d ai giorni nostri i consumi sono aumentati in modo spropositato, nonostante il rimpicciolimento del processo produttivo e le migliorie sotto il profilo del risparmio energetico.
certo le prestazioni sono aumentate di pari passo, e i benchmark vogliono farci credere che il rapporto prestazioni/consumo è addirittura migliorato. però si giocava anche una volta, con pochi watt. con la tecnologia di cui si dispone oggi i consumi per una scheda a basse prestazioni sarebbero irrisori. eppure il mercato necessita della corsa alla potenza.
tra qualche anno si arriverà al limite della attuale tecnologia e probabilmente ci sarà una fase di stallo finchè qualcuno non si inventerà qualcosa di meglio e funzionante
:mbe:
... e questo sarebbe progresso?
L'ho già chiesto io asd. :D
Apocalysse
14-06-2008, 07:21
il fatto che periferiche diverse hanno consumi diversi è poco rilevante: basta che il voltaggio sia allo standard convenuto (nel caso i classici cavi a 3,5v, 5v e 12v) e che l'apparecchio che eroga l'energia sia in grado di fornirne un amperaggio sufficente.
Col cacchio :)
Sebbene il consumo degli HD sia piu o meno allineata a tutti, questo concetto preso a se è sbagliato!
Dimentichi la legge di ohm: I cavi devono avere sezione appropriata alla potenza che devono trasportare, altrimenti la disperti tutta in forma di calore del cavo e proprio perchè hanno consumi diversi, devi sovradimensionare la sezione del cavo a quello che sarà il consumo massimo :)
L'alimentazione aggiuntiva non sparirà mai dalle vga perchè è il modo più facile e meno costoso di produrre schede video performanti, sarebbe troppo costoso investire nella ricerca per produrre chip sempre più potenti ed allo stesso tempo che consumino poca elettricità...quindi possono arrivare anche a 600W tanto un connettore che dall'alimentatore va alla scheda video ci sarà sempre.
Mi sa che queste persone le parole "risparmio energetico" non le hanno mai sentite...
Quindi 300w di picco da parte del connettore pci-e, mettiamo 200 continui e gli altri che provengono dai connettori ausiliari, più design a tre slot per il raffreddamento; direi che nel 2010 le schede video top di gamma consumeranno 500-600watt.
freeagle
15-06-2008, 14:45
TRE SLOT?! :eek: Qui stiamo rasentando il ridicolo...
AceGranger
15-06-2008, 17:24
Non è furba, è intelligente, in quanto serve per eliminare un sacco di cavi inutili.
ma cosa stai dicendo, è una cazzata immane. cosi dovresti avere tutte le sorgenti che escono in HDMI con un alimentatore sovradimensionato, contando il massimo consumo possibile del monitor, cosi per esempio avresti la tua bella xbox con 200 watt in piu per il cavo HDMI ? e se poi hai un monitor che consuma di piu ? che fai ? cambi l'alimentatore delle sorgenti che non ci arrivano ?? MA PER FAVORE ! i cavi separati ci sono per un motivo veramente intelligente ed è giusto che rimangano cosi.
Master Mystery
15-06-2008, 20:14
ma cosa stai dicendo, è una cazzata immane. cosi dovresti avere tutte le sorgenti che escono in HDMI con un alimentatore sovradimensionato, contando il massimo consumo possibile del monitor, cosi per esempio avresti la tua bella xbox con 200 watt in piu per il cavo HDMI ? e se poi hai un monitor che consuma di piu ? che fai ? cambi l'alimentatore delle sorgenti che non ci arrivano ?? MA PER FAVORE ! i cavi separati ci sono per un motivo veramente intelligente ed è giusto che rimangano cosi.
Cioè, per UN esempio che oggi nel 2008 non è applicabile, certo, mi dici che scrivo cazzate?
Ma poi come ti permetti di dire che scrivo cazzate anche una seconda volta? Ma chi sei?
Non ti va bene il monitor? Usa gli altri esempi che ho citato, quali HD interni ed esterni, cosa che ESISTE GIA' OGGI ed è possibile, ma solo per gli HD standard da 2,5" o per periferiche che richiedono veramente poco, come mouse tastiere ecc..
se veramente sforneranno vga con consumo di 300W all'inizio di ogni sessione di gioco spunterà fuori un omino dell'enel a presentarti il preventivo e a chiederti i cash in anticipo... poi, va beh in inverno, metti i piedi vicino al case e te li abbrustolisci per bene (mi immagino qualcuno che usera il pc come sgabello riscaldato) ma in estate che fai? porti il pc sul balcone e prolunghe a tutto per giocare in camera? :(
notizia sensazionale: da oggi in poi l'enel sponsorizzerà i gioconi per pc...:D
ma con tutti i problemi di risparmio energetico che ci sono, che fanno? aumentano la richiesta di energia? mah.... stupido mondo
Pazzesco. valori di picco di ben 300 Watt. solo per le GPU. siamo all'assurdo... al posto che andare verso un risparmio energetico si va verso l'aumento
assurdo
E' questo sarebbe il progresso?
Maggiori dimensioni, più calore, più potenza utilizzata?
l'enel ringrazia :D
300W per una VGA!!!!
Potente che sia con 300W ci alimento un desktop completo e me ne avanza :)
quando ho preso il mio alimentatore da 750W pensavo già a come dargli corrente, figuriamoci un domani con due VGA da 300W cadauna!!!
:muro:
300W? Le piste sulla mobo saran grosse come cotechini...
si è assurdo...altro che Matx :mad:
TRE SLOT?! :eek: Qui stiamo rasentando il ridicolo...
qua si va per i 4 slot :(
franzing
16-06-2008, 12:22
Si prevedono infatti valori di picco di ben 300 Watt, richiesti per alimentare quelle che saranno le future generazioni di GPU che i produttori immetteranno in commercio nei prossimi anni.
Cazz...e io che speravo di arrivare al kilowatt entro il 2009. E ora all'enel che gli dico per giustificare i consumi insufficenti?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.