PDA

View Full Version : AMD annuncia la tecnologia "Pacifica"


Redazione di Hardware Upg
13-09-2004, 11:23
Link alla notizia: http://news.hwupgrade.it/13136.html

La compagnia di SunnyVale annuncia una tecnologia simile a Vanderpool di Intel, per abilitare la gestione di più macchine virtuali anche su sistemi AMD

Click sul link per visualizzare la notizia.

Aryan
13-09-2004, 11:32
Ma è una specie di Hyper Threading??? :confused:

Dumah Brazorf
13-09-2004, 11:45
L'HT fa vedere al sistema 2 processori virtuali, queste tecnologie fanno vedere + sistemi virtuali, come avere + pc in 1.
Ciao.

Aryan
13-09-2004, 11:46
Originariamente inviato da Dumah Brazorf
L'HT fa vedere al sistema 2 processori virtuali, queste tecnologie fanno vedere + sistemi virtuali, come avere + pc in 1.
Ciao.
Era questo il dubbio che avevo. Solo che non ho mai sentito parlare di questa tecnologia particolare...

Criceto
13-09-2004, 12:11
Questa tecnologia ce li hanno gli IBM Power5 già da un po'...

romeop
13-09-2004, 12:28
E' il sistema utilizzato ad esempi nelle macchine SUN 10000 dove puoi creare partizioni che girano indipendentemente dalle altre, utilizzando ognuna una o più cpu e condividendo risorse quali ram, dischi, ecc.
Averla sul pc di casa sarebbe una bella novità, eviterebbe a molti di noi il dovere avere più pc per diverse funzioni, come un server web o altro ancora

joe4th
13-09-2004, 12:54
Non dimentichiamo le macchine MVS di IBM di un
bel po' di anni fa. Alla fin fine non si reinventa
piu' niente.

Una volta c'erano i mainframe con i terminali. Poi
i terminali sono diventati come i mainframe, che sono
ridiventanti terminali, che sono ridiventati mainframe,
e cosi' via...

Comunque sono le virtualizzazioni ora
realizzate con VMware (pensate a VMWare
ESX) oppure con il kernel linux UML.

sirus
13-09-2004, 13:12
si e ovviamente ci dovrà essere nel SO un sistema per la gestione delle macchine virtuali che non credo sarà mai gratuito a meno che non si passi a sistemi Linux like... non credo proprio che MS sia disposta a fornire il suo virtual pc per supportare le tecnologie che amd e intel introdurranno nei propri futuri microprocessori. staremo a vedere come si sviluppa la cosa :)

dvd100
13-09-2004, 13:13
ma le macchine virtuali fatte con vmware cosa hanno di diverso?

Dim3nsionZer0
13-09-2004, 13:19
Originariamente inviato da dvd100
ma le macchine virtuali fatte con vmware cosa hanno di diverso?

che sono decisamente lente :D mentre da quel che ho capito con queste tecnologie non ci dovrebbero essere cali di prestazioni.
sperèm...:rolleyes:

stefanotv
13-09-2004, 13:26
x sirus

da quello che ho letto la virtulizzazione sara' a livello hardware, dovranno essereci motherboard, schede video, cpu che suportano tale tecnologia,
poi ovviamente anche i futuri sistemi operativi dovranno essere ottimizzati per condividere le risorse.

Aryan
13-09-2004, 13:29
Originariamente inviato da Dim3nsionZer0
che sono decisamente lente :D mentre da quel che ho capito con queste tecnologie non ci dovrebbero essere cali di prestazioni.
sperèm...:rolleyes:
Ho Win2K e Linux su un PC P4 2.8
Ho un vmware ws con Win2K sulla part linux

Ebbene Win2k è + veloce anche nel caricarsi partendo da vmware che nativamente...

DioBrando
13-09-2004, 13:53
Originariamente inviato da Dim3nsionZer0
che sono decisamente lente :D mentre da quel che ho capito con queste tecnologie non ci dovrebbero essere cali di prestazioni.
sperèm...:rolleyes:

l'ESX 2.0 si comprta invece molto bene, dato che n si appoggia ad un SO preinstallato...

soft_karma
13-09-2004, 13:57
Se non cominciano a programmare in modo nativo per il supporto multiproccessore sarà tutto inutile... Ad oggi per molte programmi l'esistenza di 2 o più cpu è abbastanza inutile...

moonwolf
13-09-2004, 14:00
....per ogni macchina indipendente emulata bisognerà pagare le licenze di sistemi operativi ed applicativi.
Già mi immagino il conto del PC .... "Guardi, il computer costa 700€, per il software servono 5000€" ... cosa che in teoria sarebbe da farsi anche adesso in sistemi multipartizionati .... e non sono parole mie, ma della Microsoft.

davide66
13-09-2004, 14:10
Originariamente inviato da moonwolf
....per ogni macchina indipendente emulata bisognerà pagare le licenze di sistemi operativi ed applicativi.
Già mi immagino il conto del PC .... "Guardi, il computer costa 700€, per il software servono 5000€" ... cosa che in teoria sarebbe da farsi anche adesso in sistemi multipartizionati .... e non sono parole mie, ma della Microsoft.

Ecco la filosofia delle nuove tecnologie......:D:D:D:D

Spectrum7glr
13-09-2004, 15:04
Originariamente inviato da moonwolf
....per ogni macchina indipendente emulata bisognerà pagare le licenze di sistemi operativi ed applicativi.
Già mi immagino il conto del PC .... "Guardi, il computer costa 700€, per il software servono 5000€" ... cosa che in teoria sarebbe da farsi anche adesso in sistemi multipartizionati .... e non sono parole mie, ma della Microsoft.

questo non lo so...ma si tratta indubbiamente di un bel passo avanti: alla prima di vanderpool nel 2003 (e di cui pacifica è la controparte AMD) facevano vedere due persone che con 2 terminali attaccati allo stesso corpo CPU-Main facevano andare ognuno applicativi per i fatti propri (uno giocava e l'altro cazzeggiava tra dvd ed office), potevano installare e disinstallare applicazioni senza rompersi le balle a vicenda ed uno dei due ha perfino fatto il reboot della sua macchina virtuale mentre l'altro giocava allegramente...sostanzialmente si tratta di una tecnologia che permette di allocare in maniera intelligente le risorse (spesso sovrabbondanti) di un pc tra più utenti

ErPazzo74
13-09-2004, 15:24
x spectrum: prova UserModeLinux o anche UML come gia' stato detto. Fa' proprio questo certo la velocita' nn e' eccelsa nn essendoci supporto HW.
Cia'

Feanortg
13-09-2004, 15:50
Immaginate di fare girare linux e windows XP contemporaneamente: su linux tengo open office e tutti gli altri applicativi open source come programmi per codifica e altri, su xp solo i videogiochi. Se ho XP originale mi basta quello e senza dover fare reboot ho i vantaggi dei 2 sistemi e sono a posto con la "legge"

joe4th
13-09-2004, 16:00
Magari quando diventera' piu' maturo:

http://www.cl.cam.ac.uk/Research/SRG/netos/xen/

Comunque VMware non e' lento. Raggiunge praticamente
il 99% delle prestazioni della macchina nativa.
Ovviamente salvo l'accelerazione 3D che non c'e' ancora. Chiaramente i cicli di CPU si devono
dividere con l'OS nativo, per cui ecco
che farebbe comodo il dual processor...

L'unico problema di VMware e' che e' caro.
Il prezzo della versione Worstation e' quasi
quello di un PC entry level. La versione GSX
costa quanto un server entry level, mentre
per la versione ESX non ne parliamo nemmeno...
Peccato che non c'e' ancora per Athlon64
in modo da avere supporto per macchine
virtuali con RAM > 4GB senza
paginazione...

Gli utenti MAC invece hanno il MAE
gratuito, che praticamente quello che fa VMware ma
per PPC ... ;-)

Dim3nsionZer0
13-09-2004, 16:01
Originariamente inviato da Aryan
Ho Win2K e Linux su un PC P4 2.8
Ho un vmware ws con Win2K sulla part linux
Ebbene Win2k è + veloce anche nel caricarsi partendo da vmware che nativamente...

fortunato te... io con un athlon xp palomino, mandrake 9.2 e win 98 stavo messo male. :confused:
Riprovando con red hat 9 e sempre win98 andava un po' meglio, ma di poco.
poi mi sono rotto le scatole delle wm :confused:

joe4th
13-09-2004, 16:17
Il fatto che virtualizzino le CPU non significa
che anche tutto l'hardware, ovvero il BUS PCI, etc.
viene virtualizzato. E senza la virtualizzazione
del sistema video, mi spieghi come farebbero
Windows XP e Linux ad accedere alla stessa scheda
video, in modo che il primo possa usare il Direct3D
per i giochini e il secondo X11...?

Quello che ho scritto pero' mi fa venire in mente
una cosa... Sarebbe interessante se VMWare
Workstation nelle prossime release facesse
in modo di accedere all'hardware (o meglio a un suo
sottoinsieme) direttamente dall'OS virtuale,
all'incirca come faceva Amithlon o
AmigaXL con le schede S3. Ovviamente
lo stesso hardware non dovra' essere utilizzato
dal lato Linux. Per esempio con 2 schede video
(una per Linux e l'altra per l'OS emulato) dovrebbe
essere possibile far funzionare Windows emulato
dentro VMWare col supporto del Direct3D...(basterebbe
usare i driver nativi).

ulisse31
13-09-2004, 16:25
Pacifica... lo stesso nome della protagonista di Scrapped Princess... speriamo che non faccia la stessa fine!! :D

Banus
13-09-2004, 16:28
Originariamente inviato da joe4th
Comunque VMware non e' lento. Raggiunge praticamente
il 99% delle prestazioni della macchina nativa.
Ovviamente salvo l'accelerazione 3D che non c'e' ancora. Chiaramente i cicli di CPU si devono
dividere con l'OS nativo, per cui ecco
che farebbe comodo il dual processor...
La differenza si sente....
La scheda grafica è emulata. Ho provato la Suse 9 su un Athlon 900 e 256 MB di memoria per il sistema emulato e KDE andava lentissimo.
Le letture e scritture su disco sono lente perchè credo ci sia parecchio overhead a emulare un filesystem su file...
Per il processore credo rimappi le istruzioni della macchina virtuale, quindi massime prestazioni :)

lucusta
13-09-2004, 17:00
il problema di vmWare e' proprio quello di non virtualizzare le periferiche, perche' non ci sono i giusti supporti con i driver.
In pratica non puo' emulare un accelleratore 3D in quanto per farlo dovrebbe essere un'applicazione che si appoggia sui driver nativi (percio' dovrebbe conoscerne ogni dettaglio ed istruzione), ed emulare un HW "genuino" sulla VM, sulla quale poi verrebbero installati i driver reali.
L'idea d'intel e AMD (a mio avviso) puo' essere fatta in 2 diverse opzioni:
la prima, semplicistica, dove le macchine virtuai sarebbero usate SOLO per software senza HW proprietario (ma emulando un HW sta come avviene oggi su vmWare.
La seconda, molto piu' interessante, e' quella di poter effettivamnete emulare l'hw della macchina primaria, utilizzando un substrato software (tipo core e softercore dell'efficeon di trasmeta)... la proggettazione dei driver specifici per l'HW verrebbe scaricata sul produttore, che conosce bene il proprio HW, e verrebbe certificata con un logo ben definito (tipo i loghetti che si trovavano sui PC anni fa': "windows'98 ready, o desinged for win'98); in questo modo si aprirebbe una nuova fascia di mercato, ossia quella deoìi prodotti in grado di operare delle "plurimacchine".
A mio avviso la seconda ipotesi e' quella piu' fattibile e piu' utile, oltre ad essere la piu' remunerativa commercialmente (chi vuole entrare nel gioco ci mette il proprio e tutt'insieme ci spartiamo la torta).
ecco perche si stanno facendo parallelizzazioni spinte soprattutto sui compilatori, perche mantenere "attive" diverse macchine e' parecchio oneoso.

altra ipotesi potrebbe essere quella della gestione a monte, con i nuovi bios (embios mi pare che li chiamassero..), che darebbero il giusto sub strato software per orchestrare la cosa (compreso il mio vecchio cruccio di formattare parte della ram di sistema come HDD primaro).

in questo modo si otterrebbero diversi vantaggi, in quanto l'HW non sarebbe piu' con "indirizzamento propretario", ma a se stante, mettendo in grado di poter gestire, ad esempio, una scheda video montata su un altro PC, o con molta piu' utilita' di poter disporre di ogni singolo HW di una LAN su tutti i PC, compreso ad esempio una webcam, non essendo piu' costretti a montarla residente sul PC (quante volte ho dovuto spostare scanner e stampante da un PC ad un'altro per poterlo utilizzare)..
questo pero' implica collegamenti via rete a larga banda..

Insomma, promette bene..

PS
provate ad usare vmware su disco partizionato su ram: nemmeno il counter della VM riesce piu' a quantizzare la velocitra' del processore...
a me, alll'avvio della macchina virtuale, a mostrato un athlon come un 8ghz!

lucusta
13-09-2004, 17:03
ho finito le batterie alla tastiera, e mi salta le lettere!

joe4th
13-09-2004, 19:07
Ti metti nelle condizioni peggiori per emulare.
256 MB sono pochi. A mala pena bastano
per un sistema con KDE nativo, figuriamoci
con quello nativo + quello emulato.
Io quando parlo di emulare parlo di avere almeno 512MB o 1024MB di RAM. Avete i PC e le schede video UltraMegaGiga dell'ultimo modello, spendere qualche euro in piu' per qualche banco di RAM?

Torndano a VMWare, anziche' usare
il filedisk per emulare l'hard disk, c'e'
anche la possibilita' di usare direttamente
un'intero hard disk (basta mettersi
d'accordo sui permessi di accesso ai device),
o una partizione anziche' un file in essa, oppure perche' no, filedisk in RAID0 su reiserfs o xfs che sono piu' efficienti di ext3.

Per quanto riguarda le prestazioni con VMWare
se non installi i vmware tools che utilizzano
un driver che in pratica velocizza (o bypassa?)
l'emulazione la scheda video emulata e' una chiavica.

Per contro ti posso dire che su una Mandrake 9.1 avevo
installato all'interno della macchina
virtuale una Mandrake 9.2 o una
VectorLinux 4.0 che giravano
piu' velocemente della distribuzione nativa
(piu' vecchia) su cui girava VMware...

joe4th
13-09-2004, 19:26
Il motivo per cui non supporta le Direct3D e' che
la scheda video emulata (VMWare SVGA II) non e'
stata costruita in modo da supportare istruzioni 3D,
altrimenti si potrebbe fare in modo di costruire
un'hardware virtuale di una fantomatica scheda
3D e poi loro ci scriverebbero i driver (analogamente
a quanto fanno attualmnte per la VMWare SVGA II)
per il supporto del 3D, in modo che le istruzioni
vengano rimappate nelle istruzioni OpenGL
(e quindi nell'accelerazione 3D offerta da
queste nativamente).

Un'altra possibilità è quella di tentare
un'approccio simile a quanto fatto per l'emulazione
hardware dei controller SCSI BusLogic (ora LSI)
o della scheda ethernet PCNET32
o della SoundBlaster. Per esempio
potrebbero virtualizzare una Nvidia TNT
e quindi il sistema operativo emulato
userebbe i driver della Riva TNT, analogamente
a quando usa quelli della SoundBlaster,
SCSI Buslogic, ethernet PCNet32 etc. Ovviamente poi
il tutto deve essere rimappato sull'OpenGL di XFree/Xorg e relativa accelerazione 3D.
Il secondo approccio ha quello di saltare il
passo di scrivere i driver 3D ma di usare
quelli che gia' ci sono. Chiaramente in questo
modo non si può sperare di raggiungere il
massimo delle prestazioni offerte dal 3D,
ma i risultati non dovrebbero nemmeno essere
troppo male. L'overhead dovrebbe essere simile
a quello di WineX, e mi sembra accettabile.

L'altro approccio che auspicavo era quello invece
di permettere alla macchina "virtuale"
di accedere direttamente all'hardware
facendo qualcosa di molto simile a quanto
faceva Amithlon per l'emulazione dell'Amiga
(se non ricordo male se uno aveva
una scheda S3 Virge, questa veniva
pilotata direttamente dai driver
S3 Amiga all'interno dell'emulatore).
Chiaramente quest'approccio fa si che
l'isolamento della macchina virtuale vada
a farsi benedire...

Banus
13-09-2004, 23:13
Se molto preparato ;)
Uso 256 MB di memoria perchè ne ho 392 di sistema.

x locusta
Le tecnologie di Intel e AMD mi richiamano molto i "virtual server" di IBM con i suoi Power 5. A quanto pare è il modo più efficiente di sfruttare più core, soprattutto con applicazioni fortemente parallele come gestione di transazioni o calcoli scientifici.

Yokoshima
14-09-2004, 10:14
Allora, se non ho capito male con una tecnologia come Pacifica sarà possibile sfruttare l'hw di un pc per "crearne" almeno 2 in grado di funzionare in maniera indipendente. Giusto?

Ma una cosa del genere dovrebbe richiedere all'attuale hw un vero e proprio salto generazionale! :eek:

Insomma, premetto che non sono un esperto, ma mi sembra evidente che, anche se si tratta di dividere risorse sovrabbondanti (già ora), ci sono funzioni base che ogni pc ha che devono essere svolte da tutti i virtual-pc.

Dico questo pensado anche alle cose stupide come il puntatore del mouse, la visualizzazione delle finestre, i colori, la riproduzione audio, ecc.

Non vorrei esser pessimista, ma mi sembra che una cosa del genere non sarà di certo pronta per le attuali CPU (Athlon 64, Pentium LGA, ecc.).

Mi sorge un dubbio, la tecnologia della Nvidia per far girare due schede PCI-E in parallelo non potrebbe esser un preludio? :)

leoneazzurro
14-09-2004, 12:25
Questa tecnologia POTREBBE essere usata per creare diverse macchine virtuali "VMWare-like" ma in realtà il suo scopo è diverso, ossia migliorare lo sfruttamento delle risorse di sistema e gestire al meglio il multitasking e i sistemi multiprocessore.

Una sorta di Hyperthreading al cubo, insomma (come del resto vanderpool).

leoneazzurro
14-09-2004, 12:25
*