PDA

View Full Version : Schede video: un futuro da 150 Watt


Redazione di Hardware Upg
01-12-2004, 16:33
Link alla notizia: http://news.hwupgrade.it/13653.html

Le prossime schede video potrebbero arrivare a consumare fino a 150 Watt di potenza

Click sul link per visualizzare la notizia.

Mad Penguin
01-12-2004, 16:37
si e poi metteranno il vapochill di serie nei case...

sti qua sono totalmente fuori di testa!

barabba73
01-12-2004, 16:40
D'altronde c'è da aspettarsi una scalata verso l'alto delle potenze richieste, se non mi sbaglio la potenza erogabile è la motivazione principale che sta spingendo la sostituzione dell'agp...certo che 150W, per schede future, sono comunque tanti....

Octane
01-12-2004, 16:40
... anche se si tratta di soluzioni pro

http://www.3dlabs.com/products/product.asp?prod=293&page=3

Raisorblade
01-12-2004, 16:41
Ma stanno male -__-'

A me tutte ste "innovazioni" teknologike m sanno d presa x il kulo...

Dias
01-12-2004, 16:44
Infatti, di innovativo c'è ben poco se poi devono consumare tutti questi watt...

LASCO
01-12-2004, 16:50
Nell'equazione dei produttori ci deve essere la massimizzazione dei profitti con la minima spesa, e ciò comporta in tal caso un aumento di energia dissipata. D'altronde la tecnologia, come la storia, non fa salti. E' una regola di mercato. Bisogna vedere fino a che punto si spingeranno prima di trovare nuove soluzioni.
Ciò è ben visibile con l'evoluzione delle cpu.

MaxFactor[ST]
01-12-2004, 16:51
io penso che serviranno per le future schede con biprocessore.

Andrea87
01-12-2004, 16:51
150W per la scheda video, 100W per il procio + tutti i watt per tutto il resto........ Tra un po chi vorrà avere un buon pc dovrà avere un contatore industriale in casa.......

afterburner
01-12-2004, 16:54
"Mamma spegni lavastoviglie e lavatrice che devo giocare a Doom3 e HL2 senno' salta il contatore"
"Figlio mio ma perche' non fai come tuo cugino che ha la linea 380V dedicata?"

Scusate il commento inutile ma tra qualche mese sospetto che ci arriveremo a queste scene ;)

zabe
01-12-2004, 16:54
l'importante è poi non essere costretti a montare un reattore nucleare per raffreddarlo

odio il rumore

afterburner
01-12-2004, 16:55
Azz!! Mi hai anticipato!!! :):):)

MIKIXT
01-12-2004, 16:57
vorrà dire che quando compreremo un pc nuovo ci daranno in omaggio un generatore con motore a scoppio...

Motosauro
01-12-2004, 16:58
Che 150w me li consumi una 3dlabs mi può anche andare bene (del resto è praticamente più potente del pc che ci gira sotto e nel 3d professionale è una bestia)
Che me li consumi l'ultima Nvidia o ATI da pc domestico.... non sono più tanto d'accordo, visto specialmente che come potenza pura le 3dlabs sono eoni avanti

Alberello69
01-12-2004, 17:02
Originariamente inviato da Raisorblade
Ma stanno male -__-'

A me tutte ste "innovazioni" teknologike m sanno d presa x il kulo...
bravo...tu continua a giocare a 640x480....noi giocheremo a 1600x1200 AA 16x & AF 32x :asd:

oscuroviandante
01-12-2004, 17:11
quoto alberello....

volete la grafica fotoiperturbo realistica con filtri a palla?

no?

montate una TNT1 e anda...

Dumah Brazorf
01-12-2004, 17:13
Mah io sono ottimista, le prossime schede non sforeranno i 100W ma con queste mobo finalmente non ci sarà connettore aggiuntivo di alimentazione.
Gianni!! Prepara la grigliata! :D
Ciao.

afterburner
01-12-2004, 17:15
Originariamente inviato da Alberello69
bravo...tu continua a giocare a 640x480....noi giocheremo a 1600x1200 AA 16x & AF 32x :asd:
Noi chi?!?! Plurale majest statis?!
Vabbe' che hai una X800XTPE-BS-CR-LF pero' voler superare il papa mi sembra un po' troppo :D

Muppolo
01-12-2004, 17:16
A nessuno sono sorte considerazioni di natura ecologica?

Alberello69
01-12-2004, 17:19
Originariamente inviato da afterburner
Noi chi?!?! Plurale majest statis?!
Vabbe' che hai una X800XTPE-BS-CR-LF pero' voler superare il papa mi sembra un po' troppo :D
è sottinteso che parlo delle prossime generazioni;)

LASCO
01-12-2004, 17:20
Originariamente inviato da oscuroviandante
quoto alberello....

volete la grafica fotoiperturbo realistica con filtri a palla?

no?

montate una TNT1 e anda... A tutti piace la tecnologia, a qualcuno piace a qualunque costo, ma ad altri no. Quando c'è una certa concorrenza alcune migliorie, come la riduzione di dissipazione della potenza, devono aspettare i tempi lunghi dei limiti costruttivi di una tecnologia in uso. E' chiaro che i produttori fanno i loro interessi, allora a questo punto si può auspicare un nuovo tipo di concorrenza, ma dubito che ci sarà. Tra ATI e nVidia o ci si dedica a settori ristretti, vedi Matrox, o si zoppica come XGI.

Raid5
01-12-2004, 17:21
Originariamente inviato da barabba73
D'altronde c'è da aspettarsi una scalata verso l'alto delle potenze richieste, se non mi sbaglio la potenza erogabile è la motivazione principale che sta spingendo la sostituzione dell'agp...
Non necessariamente, dato che esiste lo standard AGP Pro in grado di fornire 110 W (se non ricordo male) alle schede AGP professionali.

Alberello69
01-12-2004, 17:22
si ma non solo le schede ''a qualunque costo'' si evolvono....

LASCO
01-12-2004, 17:28
Originariamente inviato da Alberello69
si ma non solo le schede ''a qualunque costo'' si evolvono.... Mi sembra di capire che dai per scontata l'equazione evoluzione ---> maggiore consumo energetico. In realtà è così solo se si inseriscono dei vincoli, tra cui il principale è fatturato azienda.

Alberello69
01-12-2004, 17:41
Originariamente inviato da LASCO
Mi sembra di capire che dai per scontata l'equazione evoluzione ---> maggiore consumo energetico. In realtà è così solo se si inseriscono dei vincoli, tra cui il principale è fatturato azienda.
non deve essere necessariamente cosi', ma se le aziende si stanno muovendo verso questa strada significa che questa è la soluzione che consente di avere per le prossime 2-3 generazioni il rapporto costi/prestazioni più conveniente....

Red`XIII
01-12-2004, 17:48
Conveniente per chi? Per i produttori sicuramente :)
Quoto completamente LASCO, finchè un processo produttivo porta guadagni alle aziende che hanno in mano il mercato, la potenza dissipata non è un problema. Una volta raggiunti i limiti fisici, si ricomincerà da capo con una nuova tecnologia. Purtroppo, noi consumatori nn possiamo farci praticamente nulla.

LASCO
01-12-2004, 18:01
Originariamente inviato da Alberello69
non deve essere necessariamente cosi', ma se le aziende si stanno muovendo verso questa strada significa che questa è la soluzione che consente di avere per le prossime 2-3 generazioni il rapporto costi/prestazioni più conveniente.... Sono daccordo se intendi che qualora un produttore decida che la potenza dissipata da ridurre sia un compito primario i primi prodotti potrebbero costare di più. Ma se questo obiettivo fosse comune ai vari produttori non ci sarebbero aumenti significativi, se non in un breve periodo iniziale. Si può solo sperare in un certo tipo di concorrenza e nell'immediata convenienza di nuove soluzioni.

kaksa
01-12-2004, 18:08
si si tutti che si lamentano, intanto pero appena esce una novita c'è la corsa a chi arriva primo.

Alberello69
01-12-2004, 18:10
Originariamente inviato da LASCO
Sono daccordo se intendi che qualora un produttore decida che la potenza dissipata da ridurre sia un compito primario i primi prodotti potrebbero costare di più. Ma se questo obiettivo fosse comune ai vari produttori non ci sarebbero aumenti significativi, se non in un breve periodo iniziale. Si può solo sperare in un certo tipo di concorrenza e nell'immediata convenienza di nuove soluzioni.
purtroppo i manager che prendono queste decisioni a fronte di adeguate analisi devono valutare soprattutto gli aspetti economici..alla fine si basa tutto su quello, l'unico obiettivo è abbassare i costi di tecnologie che gia esistono, quindi se produrre una scheda che a parità di prestazioni consuma il doppio dei watt è conveniente, si adotta quella soluzione.Tu stai sicuro che loro hanno già fatto i calcoli per tutto, anche per le prossime 4-5 generazioni di schede...i cui prototipi sicuramente esistono gia (:sbav: )

jappilas
01-12-2004, 18:19
Originariamente inviato da Raid5
Non necessariamente, dato che esiste lo standard AGP Pro in grado di fornire 110 W (se non ricordo male) alle schede AGP professionali.

esatto, 110 W sommando il contributo delle linee a 3.3V, 5, 12 volt originale e 12 V aggiunti...
80 circa considerando le linee di alimentazione aggiunte rispetto all' AGP base

quello che mi chiedevo è... anche per le nvidia e radeon attuali, perchè non lo abbiano sfruttato invece di obbligare l' utlizzo di un molex...

Puledro
01-12-2004, 18:20
l'utonto sa leggere la bolletta dell'enel. Se la situazione continua così l'omino andrà dal negoziande di PC di fiducia e non chiederà un computer con buone prestazioni, ma un computer che consuma poco.

kaksa
01-12-2004, 18:21
Originariamente inviato da jappilas
esatto, 110 W sommando il contributo delle linee a 3.3V, 5, 12 volt originale e 12 V aggiunti...
80 circa considerando le linee di alimentazione aggiunte rispetto all' AGP base

quello che mi chiedevo è... anche per le nvidia e radeon attuali, perchè non lo abbiano sfruttato invece di obbligare l' utlizzo di un molex...

perche le schede madri con agp pro 110 non ne trovi nemmeno a pagarle oro.

DevilsAdvocate
01-12-2004, 18:21
Semplice, perche' gli standard non sono fatti per
essere sfruttati, ma per "portare una ventata di aria
fresca al mercato". Anche in questo caso,
tanto prima che le schede arrivino a sfruttare i 150W
sara' gia' uscito PCI-Express 2... e' questa la tendenza ora, no?

DioBrando
01-12-2004, 18:35
Originariamente inviato da LASCO
Mi sembra di capire che dai per scontata l'equazione evoluzione ---> maggiore consumo energetico. In realtà è così solo se si inseriscono dei vincoli, tra cui il principale è fatturato azienda.

se per es l'ATI è riuscita a fare una generazione di schede come l'X800 che consuma meno delal precedente 9800XT, vuol dire che non è così impossibile evolvere le prestazioni grafiche di una scheda pur tenendo d'occhio i consumi; e tra l'altro l'abbassamento dei processi produttivi dovrebbe permettere i leaders nel settore di imboccare proprio questa direzione...


e non mi piacciono nemmeno i commenti del tipo "le cose stanno così se n ti piace, attaccati e comprati un ritrovato bellico di VGA".
Se le cose stanno così è giusto criticarle, perchè l'energia è un bene prezioso ( che costa caro) e che và tutelato anche se la funzione primaria di un utente può essere quella di giocare ad alte risoluzioni con un'altrettanto alta resa in termini di framerate e filtri.

Glide
01-12-2004, 18:43
vabbè..ci serviranno alimentatori da minimo 600w

nightmare82
01-12-2004, 18:48
X DIOBRANDO:
nessuno dice che è impossibile aumentare le prestazioni tenendo d'occhio i consumi...si sta dicendo che se questo portasse ad un riduzione del guadagno nessun manager la attuerebbe...

Alberello69
01-12-2004, 18:50
Originariamente inviato da DioBrando
se per es l'ATI è riuscita a fare una generazione di schede come l'X800 che consuma meno delal precedente 9800XT, vuol dire che non è così impossibile evolvere le prestazioni grafiche di una scheda pur tenendo d'occhio i consumi; e tra l'altro l'abbassamento dei processi produttivi dovrebbe permettere i leaders nel settore di imboccare proprio questa direzione...


e non mi piacciono nemmeno i commenti del tipo "le cose stanno così se n ti piace, attaccati e comprati un ritrovato bellico di VGA".
Se le cose stanno così è giusto criticarle, perchè l'energia è un bene prezioso ( che costa caro) e che và tutelato anche se la funzione primaria di un utente può essere quella di giocare ad alte risoluzioni con un'altrettanto alta resa in termini di framerate e filtri.
certo che non è impossibile! ma sicuramente nell'immediato futuro non è conveniente....tu chedi che ferrari e lamborghini pensino al consumo di benzina?:oink:
io se compro una macchina del genere non penso nemmeno per un secondo ai consumi elevati

DioBrando
01-12-2004, 18:52
Originariamente inviato da nightmare82
X DIOBRANDO:
nessuno dice che è impossibile aumentare le prestazioni tenendo d'occhio i consumi...si sta dicendo che se questo portasse ad un riduzione del guadagno nessun manager la attuerebbe...

e perchè dovrebbe portare a qlc riduzione del guadagno? Guadagno per chi?

Io produttore di una scheda video guardo i miei conti, non di certo quelli delle compagnie elettriche

Mory
01-12-2004, 18:57
Appunto 600w di minimo e magari anche 700 o 800 che è quasi quello che consuma una lavatrice o una lavastoviglie!!! ma siamo matti!!!
Se contiamo che in una casa normale c'è il contatore da 3kw e normalmente con frigo, tv, radiosveglie e minchiate varie se ne vanno già 300/400w voglio vedere cosa succede quando c'è la lavastoviglie che va, il figlio che gioca a quake4 :D e ci sono le divise da calcio da lavare! :sofico: :sofico:

DioBrando
01-12-2004, 18:59
Originariamente inviato da Alberello69
certo che non è impossibile! ma sicuramente nell'immediato futuro non è conveniente....tu chedi che ferrari e lamborghini pensino al consumo di benzina?:oink:
io se compro una macchina del genere non penso nemmeno per un secondo ai consumi elevati

scusa eh, ma è un paragone IMHO che n ha molto senso.

Ferrari e Lamborghini se le possono permettere ( e comprare dato che ne vengono prodotte quante all'anno?) poche persone con un reddito altissimo; le schede video seppur di fascia alta invece no.
C'è chi non può permettersele e chi anche trova stupido comprare una scheda video da 400-500-600 Euro perchè non è maniaco di risoluzioni ecc. ecc.


Ma ammettessimo pure che il paragone tra 6800 Ultra Extreme e X800XT PE possa essere quello che per le schede video è la fascia delle Lamborghini e Ferrari per le auto...nell'articolo si fà riferimento al futuro delle schede video IN GENERALE ed è quindi lecito preoccuparsi OGGI, di quel che ci proporrà DOMANI il futuro di questo settore...perchè lo spostamento riguarderà il settore intero.

Nel mercato delle auto ci sn i 6000cc ma ci sn anche le macchine con 1200-1400cc. ( e ci saranno anche in futuro, considerata la situazione petrolio n proprio esaltante)

Mi pare francamente un pò diversa la situazione, n trovi? ;)

Octane
01-12-2004, 20:44
Originariamente inviato da Motosauro
Che 150w me li consumi una 3dlabs mi può anche andare bene (del resto è praticamente più potente del pc che ci gira sotto e nel 3d professionale è una bestia)
Che me li consumi l'ultima Nvidia o ATI da pc domestico.... non sono più tanto d'accordo, visto specialmente che come potenza pura le 3dlabs sono eoni avanti

Sono OVVIAMENTE d'accordo con te, si tratta di soluzioni professionali, e come tali vanno prese. Considerando poi che di solito la 3DLabs vende solo agli OEM che poi assembleranno workstations, non, passsami il termine, comuni PC

ot
non so se hai notato il sistema di raffreddamento (due slot occupati+modulo genlock ecc.. ma nessuno si e' mai lamentato. il casino che e' stato tirato su per la 1a GeForce FX invece??
/ot


Ciao..

Armageddon84
01-12-2004, 21:35
Gli alimentatori nuovi si adeguano alle schede video....e l'enel si adeguerà?

ArticMan
01-12-2004, 21:46
Senza parole...
Tutta l'elettronica ha come scopo principale quello di limitare al minimo il consumo e questi qua che fanno? Partono con schede video da 1800MW. Ma se le mettessero dove non batte il sole che così d'inverno con tutta l'energia che dissipano ci si scaldano le chiappe

Raisorblade
01-12-2004, 21:49
Voi giokate a 1600x1200 kon AF16x AA8x ke nn serve a niente a sta risoluzione io a 1024x768 e: spendo meno avendo lo divertimento e nn rosiko se il mese dp esce l'ultima skeda video ke ha una turbina progettata della McDonald-Douglas x raffredarla e fa 3 fps in +... e skusate se è poko...

Raisorblade
01-12-2004, 21:51
Avendo lo divertimento asd :D

Avendo lo "stesso" divertimento

Dumah Brazorf
01-12-2004, 22:24
Originariamente inviato da DioBrando
scusa eh, ma è un paragone IMHO che n ha molto senso.

Ferrari e Lamborghini se le possono permettere ( e comprare dato che ne vengono prodotte quante all'anno?) poche persone con un reddito altissimo; le schede video seppur di fascia alta invece no.
C'è chi non può permettersele e chi anche trova stupido comprare una scheda video da 400-500-600 Euro perchè non è maniaco di risoluzioni ecc. ecc.


Io trovo il paragone azzeccato. Non sono poi molte le persone che si comprano una X800XT o una 6800Ultra, disposte a spendere una milionata per 1 componente, ma le prestazioni si pagano care, come una Lamborghini. Certo l'innovazioni tecnologica è + veloce di quella motoristica per cui la mia bella Lamborghini durerà di +.


Ma ammettessimo pure che il paragone tra 6800 Ultra Extreme e X800XT PE possa essere quello che per le schede video è la fascia delle Lamborghini e Ferrari per le auto...nell'articolo si fà riferimento al futuro delle schede video IN GENERALE ed è quindi lecito preoccuparsi OGGI, di quel che ci proporrà DOMANI il futuro di questo settore...perchè lo spostamento riguarderà il settore intero.

Nel mercato delle auto ci sn i 6000cc ma ci sn anche le macchine con 1200-1400cc. ( e ci saranno anche in futuro, considerata la situazione petrolio n proprio esaltante)

Mi pare francamente un pò diversa la situazione, n trovi? ;)

No, anche nel settore delle schede video ci sono le Radeon "Panda" 9600PRO e le Geforce "Fiesta" 6600 che non consumano poi così tanto ma le prestazioni delle Ferrari e Lamborghini te le scordi.
Io penso che le schede di fascia medio bassa non arriveranno mai a consumare uno sproposito di corrente, sarà solo una guerra a "chi ce l'ha + lungo" in fascia alta, a suon di overclock e overvolt di fabbrica.

ldetomi
01-12-2004, 22:53
150 W di energia?????

Ma la smettiamo di fare errori madornali come questo?
Troppo spesso leggo articoli specialistici e tecnici con straflcioni di questo genere. Giornalisti, un solo consiglio, andate a riguardarvi un libro di fisica prima di scrivere.

150 W di POTENZA!!!!

DioBrando
01-12-2004, 22:59
Originariamente inviato da Dumah Brazorf
Io trovo il paragone azzeccato. Non sono poi molte le persone che si comprano una X800XT o una 6800Ultra, disposte a spendere una milionata per 1 componente, ma le prestazioni si pagano care, come una Lamborghini. Certo l'innovazioni tecnologica è + veloce di quella motoristica per cui la mia bella Lamborghini durerà di +.


nono scusa ma non ci siamo proprio...

una Lamborghini la paghi 50 volte tanto una utilitaria, diciamo macchina di "fascia bassa"...una X800XT quanto può costare, diciamo 600 Euro?
Una scheda video di fascia bassa quanto costa ora? 50?

a me pare che il paragone sia di tutto altro tipo ed è di tutto altro tipo la gente che se le può permettere...


No, anche nel settore delle schede video ci sono le Radeon "Panda" 9600PRO e le Geforce "Fiesta" 6600 che non consumano poi così tanto ma le prestazioni delle Ferrari e Lamborghini te le scordi.
Io penso che le schede di fascia medio bassa non arriveranno mai a consumare uno sproposito di corrente, sarà solo una guerra a "chi ce l'ha + lungo" in fascia alta, a suon di overclock e overvolt di fabbrica.

il problema è questo a mio modo di vedere ( e possiamo constatare lo stesso trend con qlc tabella che confronta i consumi delle passate generazioni di VGA)...che nell'articolo si fà riferimento ad uno spostamento dei consumi complessivo le cui punte toccheranno i 150W nel futuro ( ora una scheda di fascia alta consuma molto di meno di quella cifra, anche perchè ora un alimentatore considerato decente è il 400W, fino a poco tempo fà ne bastava uno da 250: fatti due conti in tasca... ).
Quanto consumava una scheda video di 3 anni fà nella stessa fascia di una attuale?
Meno, molto meno, nonostante la progettazione fosse sicuramente molto meno affinata di quella attuale ( e n parlo di solo processo produttivo). Questo perchè?
Probabilmente perchè la rincorsa alle prestazioni e la velocità con cui si è evoluto il settore ha costretto le aziende ad aumentare le risorse energetiche utilizzate delle schede video, a scapito di una maggiore oculatezza verso invece i consumi.

Però non mi puoi dire che la stessa cosa sia successa nel mercato dell'auto...sarà che il petrolio costa caro, sarà ( no è) che l'auto è un bene molto + importante nella società di quanto sia una scheda video, ma come decenni fà c'erano le pandine, le fieste da 1100 di cilindrata, ci sono anche adesso e i motori di adesso, anche diesel, offrono prestazioni mooolto superiori a quelli di una volta e addirittura consumi inferiori!
Poi è ovvio parallelamente ci sn le ferrari che bevono di + corrono di + ecc. ecc.

Ma non mi si può dire che l'evoluzione comporta per forza dei consumi maggiori in fatto di energia, perchè non è vero, nell'auto non è stato e non è così...tutto dipende da quanto interesse si ha nell'investire in un certo tipo di sviluppo e quanto invece, nel tirarsela come dici tu a suon di overclock benchmark ecc di fronte alla stampa di fronte agli utenti e così via.
E proprio poichè spesso e volentieri è proprio la fascia high end a trainare il mercato e a dirigerne l'evoluzione, che mi preoccupo per il futuro.
Ma non solo io, credo...

CiccoMan
02-12-2004, 00:15
io nn ci vedo nulla di strano... per elaborare scene di maggiore comlessità serve maggiore potenza di calcolo e da che mondo è mondo la potenza si misura in Watt! ok che si può ottimizzare, ma mica lo si può fare all'infinito... cmq alla fine è sempre la stessa storia, due anni fa parlando di alimentatori da 400W qualcuno si sarebbe messo le mani fra i capelli, oggi 400W li mettono anche sui preassemblati!

sinadex
02-12-2004, 00:27
Originariamente inviato da Muppolo
A nessuno sono sorte considerazioni di natura ecologica?

OverClocK79®
02-12-2004, 02:22
il 550W mi tornerà utile :D

BYEZZZZZZZZZZ

Misterius
02-12-2004, 06:43
Mi sono appena comprato il gruppo elettrogeno da 5 kw. Spero adesso di essere al passo con i tempi per i prossimi 24 mesi.
A quando gli alimentatori trifase per pc? Sul generatore ho anche quel connettore ...

share_it
02-12-2004, 07:29
non si puo fare robe del genere. se continua cosi bisogna comprare due pc: uno da tenere sempre acceso per lavoro e internet e uno per giocare ( e ho il sospetto che per giocare a sto punto mi piglio una playstation)

Motosauro
02-12-2004, 08:16
Originariamente inviato da CiccoMan
io nn ci vedo nulla di strano... per elaborare scene di maggiore comlessità serve maggiore potenza di calcolo e da che mondo è mondo la potenza si misura in Watt! ok che si può ottimizzare, ma mica lo si può fare all'infinito... cmq alla fine è sempre la stessa storia, due anni fa parlando di alimentatori da 400W qualcuno si sarebbe messo le mani fra i capelli, oggi 400W li mettono anche sui preassemblati!

Se è per quello basterebbe passare a sistemi a 64 128 o 256 bit
Ci sono sistemi di calcolo professionali che non scaldano una cippa e danno la biada anche al PC più sborone: vatti a vedere i Silicon e poi dimmi.
È chiaro anche che alzare di Mhz (e quindi di consumi) un procio è facile e costa poco, cambiargli architettura per portarlo a 64 o 128 bit costa un botto e riduce i margini dei costruttori.

Guarda come viene osannato il passaggio dei pc ad un 64 bit zoppo, quando ci sono sistemi che viaggiano tranquillamente a 128...
:huh:

CiccoMan
02-12-2004, 10:41
Originariamente inviato da Motosauro
Se è per quello basterebbe passare a sistemi a 64 128 o 256 bit
Ci sono sistemi di calcolo professionali che non scaldano una cippa e danno la biada anche al PC più sborone: vatti a vedere i Silicon e poi dimmi.
È chiaro anche che alzare di Mhz (e quindi di consumi) un procio è facile e costa poco, cambiargli architettura per portarlo a 64 o 128 bit costa un botto e riduce i margini dei costruttori.

Guarda come viene osannato il passaggio dei pc ad un 64 bit zoppo, quando ci sono sistemi che viaggiano tranquillamente a 128...
:huh:

si, ma bisogna vedere il consumo complessivo in W di questi sistemi per ottenere queste prestazioni...

DioBrando
02-12-2004, 11:25
Originariamente inviato da Motosauro
Se è per quello basterebbe passare a sistemi a 64 128 o 256 bit
Ci sono sistemi di calcolo professionali che non scaldano una cippa e danno la biada anche al PC più sborone: vatti a vedere i Silicon e poi dimmi.
È chiaro anche che alzare di Mhz (e quindi di consumi) un procio è facile e costa poco, cambiargli architettura per portarlo a 64 o 128 bit costa un botto e riduce i margini dei costruttori.

Guarda come viene osannato il passaggio dei pc ad un 64 bit zoppo, quando ci sono sistemi che viaggiano tranquillamente a 128...
:huh:

viene salutata positivamente perchè sarà un passo fondamentale nei prox anni a venire in un mercato di largo consumo.


Mah, mica ho capito il tuo riferimento a sistemi professionali da decine di migliaia di Euro/$...

cdimauro
02-12-2004, 12:46
Originariamente inviato da Motosauro
Se è per quello basterebbe passare a sistemi a 64 128 o 256 bit
Le GPU sono già dotate di bus a 256 bit (DDR).
Ci sono sistemi di calcolo professionali che non scaldano una cippa e danno la biada anche al PC più sborone: vatti a vedere i Silicon e poi dimmi.
A me risulta che Silicon usa anche dei PC.
È chiaro anche che alzare di Mhz (e quindi di consumi) un procio è facile e costa poco, cambiargli architettura per portarlo a 64 o 128 bit costa un botto e riduce i margini dei costruttori.
Anche perché non avrebbe senso costruire processori a 128 bit. :D
Guarda come viene osannato il passaggio dei pc ad un 64 bit zoppo,
Zoppo? In che senso? A me sembra che cammini bene, anzi: proprio con l'architettura x86-64, i processori corrono anche meglio... :sofico:
quando ci sono sistemi che viaggiano tranquillamente a 128...
:huh:
E quali sarebbero? Parlo di processori che hanno una reale architettura a 128 bit, quindi con registri general purpose a 128 bit sia per i dati che per l'indirizzamento, istruzioni che eseguono calcoli aritmetici, logici, ecc. a 128 bit.

CiccoMan
02-12-2004, 12:50
Originariamente inviato da cdimauro
Anche perché non avrebbe senso costruire processori a 128 bit. :D


perchè nn avrebbe senso:confused:

RE DEI VIRUS
02-12-2004, 16:00
E se solo alla sceda video serviranno 150W, per l'alimentazione di tutto il PC quante W ci voranno??

MMMIIILLLLE

jappilas
02-12-2004, 16:20
per niente, in un sistema professionale la scheda grafica può anche essere un componente con requisiti energetici non solo maggiori degli altri, ma magari anche alla somma degli altri...

dipende dalla potenza di calcolo richiesta e , come sempre, da ciò che si deve fare....

cdimauro
03-12-2004, 07:38
Originariamente inviato da CiccoMan
perchè nn avrebbe senso:confused:
Di indirizzare 2^128 Byte di memoria (una quantità impressionante) non te ne faresti niente, perché già 2^64 Byte è un valore incredibilmente alto (tanté che soltanto da poco tempo si sta sentendo l'esigenza di poter indirizzare più di 2^32 Byte).

Allo stesso modo, le applicazioni che hanno l'esigenza di poter manipolare quantità a 128 bit si possono contare sulle dita di una mano monca. :D

afterburner
03-12-2004, 10:48
Originariamente inviato da cdimauro

A me risulta che Silicon usa anche dei PC.

A me risulta che SGI aka Silicon Graphics usa processori MIPS che non hanno molto da spartire con l'architettura PC.
Comunque usa anche Itanium :rotfl: ma mi fifiuto di considerarli PC.

Anche perché non avrebbe senso costruire processori a 128 bit. :D
...
E quali sarebbero? Parlo di processori che hanno una reale architettura a 128 bit, quindi con registri general purpose a 128 bit sia per i dati che per l'indirizzamento, istruzioni che eseguono calcoli aritmetici, logici, ecc. a 128 bit.
Ne riparliamo tra 10 anni.

cdimauro
03-12-2004, 12:59
Originariamente inviato da afterburner
A me risulta che SGI aka Silicon Graphics usa processori MIPS che non hanno molto da spartire con l'architettura PC.
Ancora per poco, IMHO: MIPS è un'architettura in fase di declino.
Comunque usa anche Itanium :rotfl: ma mi fifiuto di considerarli PC.
A parte il processore, non sono molto diversi... ;)
Ne riparliamo tra 10 anni.
Anche fra 20, se vuoi. :) E mi ci gioco anche una bella cenetta, che ne dici? :D

afterburner
03-12-2004, 14:10
Originariamente inviato da cdimauro
Ancora per poco, IMHO: MIPS è un'architettura in fase di declino.

Vedremo ...

Anche fra 20, se vuoi. :) E mi ci gioco anche una bella cenetta, che ne dici? :D
Rimanendo nella famiglia x86, ipotizziamo il primo processore 16 bit sia l'8086 anno 1978
Il primo a 32 bit: 80386 anno 1988
Il primo a 64 bit: Athlon 64 anno 2003
Differenze tra i salti: 10 anni e 15 anni .. vista cosi' parlare di 20 anni potrebbe essere plausibile, pero' con 64bit posso indirizzare fino a 18 ExaByte .. mi sa che la cenetta te la posso gia' offrire :D:D

DioBrando
03-12-2004, 14:23
cmq il discorso è partito da un erroneo confronto tra macchine dal costo pari a decine se non centinaia di volte quello di un pc SOHO ( che può essere dotato di un A64).
Per questi ultimi il salto 32-64 bit sarà importante ed è già ora importante in alcuni settori.

Se poi andiamo a verificare la Top500 ci accorgeremo come i CoW di x86 sn nettamente in ascesa questo anche grazie ai costi contenuti rispetto ad altre soluzioni proprietarie.
Se la stessa Cray con il suo RedStorm ha voluto investire negli Opteron, vuol dire che l'architettura in sè, x86 appunto, non è affatto "peggiore" rispetto ad altre.

Occorre vedere bene quali siano gli ambiti di utilizzo e il budget a disposizione...

cdimauro
06-12-2004, 08:37
Originariamente inviato da afterburner
Vedremo ...
Beh, c'è poco da vedere, andando a dare un'occhiata ai suoi sviluppi.
Rimanendo nella famiglia x86, ipotizziamo il primo processore 16 bit sia l'8086 anno 1978
Il primo a 32 bit: 80386 anno 1988
Il primo a 64 bit: Athlon 64 anno 2003
Differenze tra i salti: 10 anni e 15 anni .. vista cosi' parlare di 20 anni potrebbe essere plausibile, pero' con 64bit posso indirizzare fino a 18 ExaByte .. mi sa che la cenetta te la posso gia' offrire :D:D
:) Comunque non è una questione di "età" o di "durata" di un'architettura, ma è qualcosa di intrinseco nella natura stessa della programmazione: oggettivamente i problemi per cui sia necessario manipolare dati a 128 o più bit si devono andare a cercare col microscopio (elettronico); per cui, per come la vedo io (ma tanti altri programmatori che hanno lavorato o lavorano "a basso livello" te lo potranno confermare) non c'è assolutamente questa necessità. Non parliamo poi di quella di indirizzare 2^128 byte di memoria: già 16 EB sono un limite che difficilmente sarà valicato, come hai giustamente fatto notare. ;)

Al più quello che avverrà in futuro sarà l'integrazione di unità di calcolo SIMD o MIMD con un parallelismo sempre più accentuato, per velocizzare l'elaborazione di algoritmi che ben si prestano a una massiccia "parallelizzazione". ;)

x DioBrando: come al solito, non posso che quotare... :D