View Full Version : Sempre più vicine le specifiche PCI Express 2.0
Redazione di Hardware Upg
10-10-2006, 13:07
Link alla notizia: http://www.hwupgrade.it/news/skmadri/18853.html
Tempo 2 mesi e le specifiche PCI Express 2.0 verranno ufficialmente definite; raddoppio della bandwidth e superiori capacità di alimentare le periferiche
Click sul link per visualizzare la notizia.
zanardi84
10-10-2006, 13:09
Non facciamo in tempo a migrare verso il pci-express 1.0 che già è pronto il 2.0. Non stiamo correndo un po' troppo?
i primi chipset PCI-ex sono stati i 915 di Intel, che risalgono a due anni fa, direi che non è poi così poco ...
Anche l'AGP nella sua storia ha avuto vari aggiornamenti e miglioramenti (basti pensare al passaggio dal 2X, al 4X infine all'8X), con varie revisioni, e non vedo perché non debba essere lo stesso per il Pci-ex.
quoto fukka, e poi sono retrocompatibili non è necessario cambiare nulla. poi ben venga la corsa , in questi ultimi 2 anni hanno fatto salti su tutto riguardo l'informatica... non fanno in tempo ad uscire dual core che gia mettono a punto i quad, memorie ddr2 a valanga sul mercato da poco e nel 2007 si pensera' gia alle dd3 e cosi via... poi il settore video ha sempre affascinato molto... almeno dal mio punto di vista
MiKeLezZ
10-10-2006, 13:19
Se ne sentiva propria la mancanza e il bisogno :)
CarmackDocet
10-10-2006, 13:21
...next PC con:
- Intel Core 2 Quadro (Yorkfield) 45nm
- FSB 1333
- DDR-3
- PCI-E 2.0
- nVidia G8x (Dual GPU)
Un bel salto, non c'è che dire... forse già per fine 2007 :-)
Ciauz
AndreaG.
10-10-2006, 13:27
Non facciamo in tempo a migrare verso il pci-express 1.0 che già è pronto il 2.0. Non stiamo correndo un po' troppo?
Perchè quando si progettava il salto da agp 2x a 4x non si vendevano ancora schede video pci? :)
La storia che ritorna.....
LightIntoDarkness
10-10-2006, 13:32
Più che altro, è la solita banfa commerciale mi sa: qualcuno ha mai notato miglioramenti prestazionali da agp 2x-4x-8x a PCIExpress???
Mi sa che a livello di utilità siamo come ai 512MB su una x1300...
finche è una revisione senza il cambio di connettore ci puo' benissimo stare. L'importante è che non mi tocchino l'attacco se no mi tocca cambiare mb e quel punto (a mio malincuore :asd: ) sarei obbligato a prendermi un core2. :D
"destinate a consumare in modo sensibilmente superiore rispetto a quanto raggiunto da ATI e NVIDIA con le recenti soluzioni Radeon X1950XTX e GeForce 7950 GX2"
ma non pensano lontanamente di seguire le orme di AMD e Intel, ossia ridurre la dissipazione termica? -_-
"destinate a consumare in modo sensibilmente superiore rispetto a quanto raggiunto da ATI e NVIDIA con le recenti soluzioni Radeon X1950XTX e GeForce 7950 GX2"
ma non pensano lontanamente di seguire le orme di AMD e Intel, ossia ridurre la dissipazione termica? -_-
una cpu non è come una gpu. è come dire alla ferrari di produrre macchine che consumano come un diesel. l'esempio è azzardato, cmq le gpu (ferrari) hanno un'architettura più complessa rispetto alle cpu (utilitarie), per renderle meno succhia-corrente. Hanno bisogno di molta potenza per elaborare la grafica. Che non è nulla inconfronto ad un encoding video di un filmato. Infatti abbiamo visto che se le gpu vengono utilizzate per fare un encoding video straccia un dual core.
Secondo me tra non molto sarà necessaria una ridefinizione totale di "computer": l'architettura è rimasta sempre quella (ibm) e non ci siamo spostati, anche per poter garantire certi standard.
Stiamo a vedere che tra un po' si faranno i computer "su misura", ma struttutalmente intendo... e allora se ne vedranno delle belle... più che altro, delle interessanti!!
ha ragione Grillo... quando usciva dal negozio comprando un portatile quello che entrava esclamava..."hai comprato quello vecchio..." hahahaha
A perte le battute benvengano il prima possibile..così mi tengo la piastra pci express 1.0 e passo alla 2.0 direttamente...senza intermedie
Secondo me tra non molto sarà necessaria una ridefinizione totale di "computer": l'architettura è rimasta sempre quella (ibm) e non ci siamo spostati, anche per poter garantire certi standard.
Stiamo a vedere che tra un po' si faranno i computer "su misura", ma struttutalmente intendo... e allora se ne vedranno delle belle... più che altro, delle interessanti!!
magari lo fosse. Se la tecnoliga avanza cosi lentamente è anche per una questione di business. E li non ci puoi fare niente... ogni prodotto nuovo che esce deve avere il tempo per essere venduto e trarne del profitto, e quando è fuori da un anno meglio farne uscire uno nuovo ,revisionato, per trarne altro profitto e stimolare la gente a cambiare quello precedente facendo pubblicità pompata.
Questo è il vero problema che rallenta la rivoluzione e non cesserà d'esistere perchè tutto gira intorno al
business.
Più che altro, è la solita banfa commerciale mi sa: qualcuno ha mai notato miglioramenti prestazionali da agp 2x-4x-8x a PCIExpress???
Mi sa che a livello di utilità siamo come ai 512MB su una x1300...
Io si, perché sono passato da una 9500+ a una x1900xt :D
Piuttosto, la cosa che più mi dà da pensare è il discorso sui consumi.
Ok la ricerca di prestazioni sempre più elevate, ma non sarebbe il caso di cominciare ad avere un occhio (o anche entrambi) di riguardo per i consumi? :boh:
nudo_conlemani_inTasca
10-10-2006, 14:06
Che vergogna.. invece di impegnarsi i produttori di GPU a realizzare chip video più performanti e meno assetati di potenza elettrica (Watt) cosa fanno?
Aumentano le richieste energetiche dell'interfaccia della scheda madre? :eek: :muro:
Dovrebbero realizzare GPU che seguano il trend delle CPU (vedi Intel, oggi)
e non il contrario?! :muro:
Così, dacci dentro con nuovi alimentatori super costosi/pompati, consumo di energia abnorme, sistemi di dissipazione che sebrano dei reattori..
naaaaa... grave errore di progettazione.
Sono d'accordo che il bus PCI-Express v1.0 porti SOLO fino a 75Wat (erogabili),
ottima l'idea di ampliare la BW (banda disponibile dall'interfaccia, doppia come prestazioni) ma portare anche la richiesta maggiorata di "Potenza erogabile" e di molto sul bus della scheda video, non la trovo un'idea felice.
Che razza di piste dovranno realizzare per le future motherboard? :rolleyes:
Grosse come un dito, per garantire corrente sufficiente, vero? :asd:
Conseguenza di tutto ciò -> schede madri che costeranno minimo 200euri!!
e vaiii.. :cry:
Lasciamo stare.. :doh:
Ridefinite meglio questi standard please..
anzi, realizzate GPU meno affamate di Watt e più efficienti
(potenza calcolo/watt)! :read: :O ;)
ciao.
nudo_conlemani_inTasca
10-10-2006, 14:14
Io si, perché sono passato da una 9500+ a una x1900xt :D
Piuttosto, la cosa che più mi dà da pensare è il discorso sui consumi.
Ok la ricerca di prestazioni sempre più elevate, ma non sarebbe il caso di cominciare ad avere un occhio (o anche entrambi) di riguardo per i consumi? :boh:
Per me faranno un'inversione di tendenza esattamente come è accaduto 2 anni fa con l'atteggiamento rovinoso di Intel e l'infausta architettura "Nerburst".
Quando i costruttori si troveranno con le spalle al muro, e le richieste energetiche e i sistemi di dissipazione saranno "troppo fuori norma" dalle specifiche medie di un Personal computer attuale (c'è da considerare che non è che tutti i PC del mondo sono recenti come motherboard come gli appassionati, tipo di Hw Up.it :D ) quindi i constuttori vedrebbero un calo drastico sia di vendite che l'innalzamento di quote di possibili guasti procurati da richieste di alimentazione sui dispositivi mal dimensionati, causa i loro prodotti.
(le SVGA in questo caso).
Chissà dopo quanto ti sciopà il PC con quei requisiti termici da dissipare.. :doh:
cut...
Che razza di piste dovranno realizzare per le future motherboard? :rolleyes:
Grosse come un dito, per garantire corrente sufficiente, vero? :asd:
cut
ciao.
Forse le faranno di polverina bianca... :ops:
Per me faranno un'inversione di tendenza esattamente come è accaduto 2 anni fa con l'atteggiamento rovinoso di Intel e l'infausta architettura "Nerburst".
Quando i costruttori si troveranno con le spalle al muro, e le richieste energetiche e i sistemi di dissipazione saranno "troppo fuori norma" dalle specifiche medie di un Personal computer attuale (c'è da considerare che non è che tutti i PC del mondo sono recenti come motherboard come gli appassionati, tipo di Hw Up.it :D ) quindi i constuttori vedrebbero un calo drastico sia di vendite che l'innalzamento di quote di possibili guasti procurati da richieste di alimentazione sui dispositivi mal dimensionati, causa i loro prodotti.
(le SVGA in questo caso).
Chissà dopo quanto ti sciopà il PC con quei requisiti termici da dissipare.. :doh:
Il mercato degli appassionati non sembra preoccuparsi troppo e intanto escono configurazioni che hanno bisogno di un megawatt di potenza per stare in piedi.
Forse bisognerebbe cominciare a etichettare anche i componenti hardware e i pc assemblati con le classi di potenza come avviene per gli elettrodomestici (chi oggi potendo scegliere comprerebbe un frigorifero in classe B potendone prendere uno in classe A+?)
JohnPetrucci
10-10-2006, 14:38
Se ne sentiva propria la mancanza e il bisogno :)
Già, quoto.
Tanto per le differenze infinitesimali che porteranno, (tipo uno 0,5% di prestazioni in più), se ne potrà fare a meno benissimo.
Sul discorso della maggiore alimentazione(il più interessante), avrebbe senso se servisse ad eliminare l'utilizzo del connettore pci-express dell'alimentatore, altrimenti ha poco significato.
Alla fine cmq credo che le moderne vga continueranno a succhiare volt dal connettore ausiliario cmq.
Lud von Pipper
10-10-2006, 15:15
Inizieranno a ridurre i Watt quando ci saranno costretti (vedi fornetti Intell e AMD (Prescott e Athlon XP).
Per ora una GPU video gira abbastanza bene, per potenza maggire si passa a due affiancate, e il problema non sussiste affatto per il 99% dei PC installati che servono per fare girare Office con una scheda video integrata o al massimo una fascia bassissima.
Però non esiste solo il gioco...
Esistoo anche settori professionali che di "Potenza" ne hanno bisogno per davvero. schede professionali di acquisizione, decoding, rendering, delle quali lo smanettone non sa nulla, e per queste schede, l'aumento di potenza elettrica erogato è fondamentale.
Quanti di voi hanno montato una scheda video AGP PRO?
Eppure il conntettore era li proprio per garantire l'alimentazione a schede tipo le vecchie 3DLab, che senza non funzionavano affatto.
AGP Pro era la configurazione standard per le workstation e per sistemi avanzati, dove i connettori di alimentazione non bastano mai (pensate a un server prieno di schede e di rack HD)
I PC e i loro componenti servono "ANCHE" per lavorare, e le scehde madri di fascia alta sono montate ANCHE su sistemi professionali.
Dal punto di vista sia meccanico che elettrico le piattaforme PCI Express 2.0 saranno pienamente compatibili con le precedenti versioni 1.0, non creando quindi problemi ion caso di futuri aggiornamenti delle piattaforme mantenendo periferiche PCI Express 1.0.
Questo passaggio non mi è chiaro... quale delle 3 è giusta?:
1) Posso montare vga PCI-E 2.0 su schede madri 1.0 (senza sfruttare la banda massima?)
2) Posso montare vga 1.0 su mobo 2.0 (senza sfruttare la banda massima)
3) Tutte e due, sfruttando sembre i 16 GB/S di banda
Swarionato
10-10-2006, 15:36
Già che c'erano non potevano aumentare la corrente erogata?
Per eliminare i connettori aggiuntivi delle schede moderne.
si passa infatti da 75W a 225W e 300W
S3pHiroTh
10-10-2006, 16:32
x Diablix: Suppongo la seconda.
la prima e la seconda suppongo :)
dragonheart81
10-10-2006, 17:10
Non facciamo in tempo a migrare verso il pci-express 1.0 che già è pronto il 2.0. Non stiamo correndo un po' troppo?
Per fortuna almeno questa volta c'é retrocompatibilità e non ti cambiano tutto come al solito... :rolleyes:
eta_beta
10-10-2006, 17:23
si passa infatti da 75W a 225W e 300W
Siamo folli
sborone on
a malapena ho 300watt cioe 75watt per 4 schede in sli
forse sono pochi :mad:
almeno 600watt cosi siamo tranqulli per un anno :D
mannaggia ancora con i connettori
sborone off
cpu 80 watt gpu 150 watt
schwalbe
10-10-2006, 18:30
PCI Express non è solo per schede video.
Da un'altra parte dicono anche:
"Inoltre, grazie alla funzione Input-Output Virtualization (IOV) sarà più facile per multiple virtual machine, ognuna con il suo sistema operativo, condividere in network dispositivi PCI. Le specifiche dei cavi PCI Express 2.0 permetteranno alle schede non solo la connessione tramite gli slot "tradizionali" ma anche tramite una cavetteria speciale al rame, con velocità di trasferimento per linea, su al massimo 10 metri, di 2,5 Gbps."
E speriamo abbiano risolto il problema al Jitter da cominciare ad avere anche controller e schede audio serie.
PCI Express non è solo per schede video.
Da un'altra parte dicono anche:
"Inoltre, grazie alla funzione Input-Output Virtualization (IOV) sarà più facile per multiple virtual machine, ognuna con il suo sistema operativo, condividere in network dispositivi PCI. Le specifiche dei cavi PCI Express 2.0 permetteranno alle schede non solo la connessione tramite gli slot "tradizionali" ma anche tramite una cavetteria speciale al rame, con velocità di trasferimento per linea, su al massimo 10 metri, di 2,5 Gbps."
E speriamo abbiano risolto il problema al Jitter da cominciare ad avere anche controller e schede audio serie.
Ed è questa la cosa più importante dello standard. :) Finalmente non solo la CPU sarà virtualizzabile ma tutto il sistema (le limitazioni precedenti dipendevano dal bus) e finalmente avremo un supporto degno alle tecnologie di virtualizzazione. ;)
io mi chideo, ma siamo matti, mentre nelle cpu si fà di tutto per cercare di ridurre i consumi, e quindi il riscaldamento, nelle schede video l'ordine del giorno è sempre "more power", in tutti i sensi. Se andiamo avanti così altro che alimentatori mega, mi tocca comprare una panda e usare il motore per far andare la gpu e il radiatore per raffreddarla. Ormai un computer consuma come un microonde, tra un pò dovrò anche scegliere se tenere acceso lui o la lavatrice :D :D
Come si puo' avere il tempo di ruderre il consumo di una sv, mentre ogni anno la grafica si appesantisce di più, richiedendo sempre più potenza ?
Non è possibile, perchè ogni anno devono produrre sv sempre più potenti per stare dietro alla grafica. Se la grafica si fermasse invece,aspettando le sv, ques'ultime hanno anche il tempo di perfezionarsi ,diminuando la dissipazione termica e ridurre i voltaggi.
Ma più la grafica si evolve,la fisica , il dettaglio, e più abbiamo bisogno di architetture potenti. Ora che col G80 e forse con l'R600, potranno gestire al meglio anche la fisica, ci si lamenta dei consumi. Ma è ovvio che si richieda più potenza. Mica stiamo parlando di chip "sempliciotti" come le cpu che devono avviare un pc, fare un encoding video, scompattare file. Tutti lavoretti basilari,rispetto alla gestione di un motore grafico.
State tranquilli che per le versioni medium-livel consmeranno la metà di una top gamma ,dove per chi spende 600 euro ,non gliene puo' fregare di meno della bolletta. :Prrr:
MiKeLezZ
11-10-2006, 12:16
Fino a quanto la gente non elaborerà una sorta di coscienza del risparmio energetico non ci sarà cambiamento della situazione attuale.
Se finora, tutti o quasi, badano a prender la scheda più potente, senza guardare quale è quella con il miglior rapporto W/performance, i costruttori di schede video si sentono in qualche modo autorizzati nel non sprecare risorse per diminuire i consumi.
Le possibilità per farlo ci sono, eccome. Anche in campo mobile. Basta volerlo ;) .
peronedj
11-10-2006, 12:49
"chi spende 600 euro ,non gliene puo' fregare di meno della bolletta."
Ma ti pare che tutti quelli che spendono 600€ in una scheda sono ricchi sfondati??? C'è chi lavora anni per realizzare un sogno....
schwalbe
11-10-2006, 13:02
... sogno che dura poco, però. :cry:
bonzuccio
11-10-2006, 13:05
"chi spende 600 euro ,non gliene puo' fregare di meno della bolletta."
Ma ti pare che tutti quelli che spendono 600€ in una scheda sono ricchi sfondati??? C'è chi lavora anni per realizzare un sogno...
:coffee: sto per essere colpito dal virus da depressione maniacale..
peronedj
11-10-2006, 13:06
Già... Ho comprato una Sapphire X850 XT che già dopo un mese non andava + al massimo :muro:
"chi spende 600 euro ,non gliene puo' fregare di meno della bolletta."
Ma ti pare che tutti quelli che spendono 600€ in una scheda sono ricchi sfondati??? C'è chi lavora anni per realizzare un sogno...
non c'è bisogno di essere ricchi per acquistare una scheda 600 euro. Ci mancherebbe. Basta avere un lavoro senza una famiglia da mantenere. E ne compri una al mese.
guadagnare 1200 euro al mese è da ricchi ?
ProgMetal78
11-10-2006, 13:16
Non ci sto piu' dietro cosi......
peronedj
11-10-2006, 13:16
non c'è bisogno di essere ricchi per acquistare una scheda 600 euro. Ci mancherebbe. Basta avere un lavoro senza una famiglia da mantenere. E ne compri una al mese.
guadagnare 1200 euro al mese è da ricchi ?
:asd:. Ho lavoricchiato un anno per comprarmi la X850 :muro: e 2 mesi fa mi hanno assunto alla Telecom. Ora posso comprarmi un PC al mese :asd: :sofico:
:asd:. Ho lavoricchiato un anno per comprarmi la X850 :muro: e 2 mesi fa mi hanno assunto alla Telecom. Ora posso comprarmi un PC al mese :asd: :sofico:
eeeeeeee di cosa ti lamenti.
mi sono preso uno schermo da 50" :sofico: muahahahaahahahahaahah
e fra un mese il G80 sarà mio !!! :Prrr:
Diamoci alla pazza vitaaaaaaaaaaaaaaaa :ubriachi:
ma no dai.. io manco sono ancora arrivato al pci-ex e sti quà son già alla 2.0
lol!
mi rincuora la retrocompatibilità ma a me continua a lasciare perplesso che ancora buona parte delle periferiche a parte le schede video) lavorano ancora in PCI... :roll:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.