View Full Version : 16 Core in 8 Socket 940, su un'unica scheda madre
Redazione di Hardware Upg
27-05-2005, 13:54
Link alla notizia: http://www.hwupgrade.it/news/business/16-core-in-8-socket-940-su-un-unica-scheda-madre_14705.html
Iwill si appresta a mostrare un sistema server realmente imponente: 8 Socket 940 per processori AMD Opteron, ciascuno con cpu Dual Core
Click sul link per visualizzare la notizia.
Cecco BS
27-05-2005, 14:09
mamma mia che bestie!!!
non vedo l'ingresso per il gruppo elettrogeno!
:mbe:
A ecco una configurazione per far girare noepad :sofico:
Mysticdelta
27-05-2005, 14:12
Come avevo immaginato. Davvero una bella macchina. Pensate a quando ci saranno i quad core avremo 32 cpu fisiche :eek:. Mica male :D
Capirossi
27-05-2005, 14:13
2 pci-e da 16x
mi sà che ci scappa anche un sli :sofico:
Come avevo immaginato. Davvero una bella macchina. Pensate a quando ci saranno i quad core avremo 32 cpu fisiche :eek:. Mica male :D
:eek: , magari per accaniti giocatori con SLI a 4 schede con doppia GPU:D :D :D :D
Mamma e spaventoso, sai che potenza di calcolo, ecco i prossimi server :cool:
ottimo, me lo prendo per il seti@home con BOINC :cool:
:asd: magaaaari!
16 wu in contemporanea :sbavvv: :sbavvv: :sbavvv:
non capisco però come i processori messi in quella posizione possano dissipare il calore prodotto... cioè in quegli spazi fra le varie schede ci stanno le ventole?
eta_beta
27-05-2005, 14:24
svengo 96GB di memoria
questo tipo di approccio e sprecato per solo 4 schede
penso e spero che si vedranno in giro anche configurazioni di 6 8 10 20 schede :)
mi sà che nel mio case non entra :D
Rubberick
27-05-2005, 14:26
Allucinante :D very powerful :PP questa si che e' potenza... ma ste macchine che os fanno girare su? Debian 64 multiprocessor?
Cecco BS
27-05-2005, 14:29
non capisco però come i processori messi in quella posizione possano dissipare il calore prodotto... cioè in quegli spazi fra le varie schede ci stanno le ventole?
è quel che ho notato anch'io... si vedono dei dissi con heatpipes, ma sono visinissimi perchè i moduli sono a due a due rivolti l'uno verso l'altro...
proprio una bella postazione per il boinc :oink:
Sul sito della IWILL non c'è traccia di questa scheda. Solo della "vecchia", sempre 8P, 8501 (e non 8502), che non dice che è dual core ready. Forse perchè sul sito ci sono solo le cose effettivamente disponibili, chissà quando vedremo questo mostro sugli scaffali!!!
Veramente degno di nota.
L'alimentatore ce lo vuole da 1 GigaWatt? :sofico:
Sarebbe bello vedere le prestazioni di un simile gioiello...
P.S.: Molti parlano di "software ottimizzato per i dual core". A me sembra una sciocchezza. Non basta avere comunissimi programmi multithread?
La dissipazione è ottimale. Le due schede processore contrapposte formano un tunnel largo approssimativamente quanto le ventole. In genere nei case x server da montare in rack si usa canalizzare l'aria in appositi "tunnel" che investono direttamente il dissipatore passivo della CPU. Nella parte superiore si mette un coperchio rimovibile in plastica, spesso imbottito in gommapiuma per assorbire il rumore. Nella soluzione schematizzata, immaginate che proprio sopra i dissipatori ci sia un coperchio. In tal modo l'aria canalizzata dalla doppia ventola (soluzione che da un lato aumenta il flusso, dall'altro evita che le CPU fondano nel caso si guasti una delle due ventole) investe con tutta la sua forza il dissiaptore e poi viene aspirata nella parte posteriore, dalla quale viene espulsa dopo avere investito gli altri componenti della scheda madre.
Inutile dire che questa scheda non entra in un case normale, ma i sistemi rack sono lunghi anche 60-70 cm. E il rumore non è un problema generalmente preso in considerazione nelle sale server.
non capisco però come i processori messi in quella posizione possano dissipare il calore prodotto... cioè in quegli spazi fra le varie schede ci stanno le ventole?
Se guardi il disegno , si vede che ci sono 4 ventole che spingono e altre 2 che succhiano l'aria .
Probabilmente faranno una piccola carenatura, in modo da avere un buon flusso d'aria fra i dissipatori delle cpu
Cecco BS
27-05-2005, 14:55
La dissipazione è ottimale. Le due schede processore contrapposte formano un tunnel largo approssimativamente quanto le ventole. In genere nei case x server da montare in rack si usa canalizzare l'aria in appositi "tunnel" che investono direttamente il dissipatore passivo della CPU. Nella parte superiore si mette un coperchio rimovibile in plastica, spesso imbottito in gommapiuma per assorbire il rumore. Nella soluzione schematizzata, immaginate che proprio sopra i dissipatori ci sia un coperchio. In tal modo l'aria canalizzata dalla doppia ventola (soluzione che da un lato aumenta il flusso, dall'altro evita che le CPU fondano nel caso si guasti una delle due ventole) investe con tutta la sua forza il dissiaptore e poi viene aspirata nella parte posteriore, dalla quale viene espulsa dopo avere investito gli altri componenti della scheda madre.
Inutile dire che questa scheda non entra in un case normale, ma i sistemi rack sono lunghi anche 60-70 cm. E il rumore non è un problema generalmente preso in considerazione nelle sale server.
sì, ho presente i wind tunnel dei sistemi server... quindi la disposizione dei processori in questo modo è come una specie di wind tunnel ma senza il classico "coso" di plastica..?!
non capisco però come i processori messi in quella posizione possano dissipare il calore prodotto... cioè in quegli spazi fra le varie schede ci stanno le ventole?
Il disegno l'hanno messo apposta.....!! :D :D
Impressionante... Veramente imponente questa soluzione! Installiamo winzoz 95 e vediamo come gira?
Automator
27-05-2005, 15:26
ma a sto punto non è meglio fare un cluster di blade server?
non penso che sto coso ti venga a costare di meno....
jappilas
27-05-2005, 15:38
sì, ho presente i wind tunnel dei sistemi server... quindi la disposizione dei processori in questo modo è come una specie di wind tunnel ma senza il classico "coso" di plastica..?!
il "coso" di plastica potrebbe anche esserci nel sistema completo una volta assemblato ;)
ma a sto punto non è meglio fare un cluster di blade server?
non penso che sto coso ti venga a costare di meno....
FORSE, dico forse, in questo caso l' ampiezza di banda che esiste tra ciascuno degli opteron e gli altri e il pool di banchi di memoria in NUMA, è un tantino maggiore di quella ottenibile tramite connessioni ethernet (o anche mirinet) tra nodi di un cluster... ;)
JohnPetrucci
27-05-2005, 15:43
E' il pc dei miei sogni! :D :sofico:
Automator
27-05-2005, 15:47
x jappilas
ma in genere non si usa la fibra ottica???
se non erro il virginiatech usa connessione in fibra ottica....ma posso sbagliare sto andando a memoria
il "coso" di plastica potrebbe anche esserci nel sistema completo una volta assemblato ;)
FORSE, dico forse, in questo caso l' ampiezza di banda che esiste tra ciascuno degli opteron e gli altri e il pool di banchi di memoria in NUMA, è un tantino maggiore di quella ottenibile tramite connessioni ethernet (o anche mirinet) tra nodi di un cluster... ;)
Non solo...fai un cluster di questi ;)
Comunque per chi diceva che con 8 schede è sprecato: questo non è un sistema blade, anche se ne ha le sembianze... Sfrutta i canali HyperTransport delle CPU per connetterle fra loro...attualmente la configurazione ad 8 CPU è la più grande ottenibile tramite i canali HyperTransport...oltre (tempo fa si parlava di una soluzione a 16 CPU da Sun) credo che siano soluzioni per lo più esotiche ;)
ronthalas
27-05-2005, 16:04
Certo che vedere una belva del genere, e sapere che grazie all'Hypertransport ogni processore ha due canali verso la ram, e 3 bus verso il resto del sistema (o verso il vicino)... sbavo :)
Chissà se alla ILM se dovessero mai fare la DeathStar II con un centinaio di nodi di queste bestie... che filmoni che tirano fuori, già quelli attuali fanno paura!
Riguardando bene lo schema in 3d, notate sopra i prcessori una lieve ombreggiatura grigiastra.
Credo sia il "tappo" di cui parlavo precedentemente.
Cmq queste soluzioni sono vecchie di decenni nel settore Server, in cui generalmente il Case è studiato attorno alla MoBo o al più assieme, e non viceversa. Si ottimizzano i flussi e si prevede anche la ridondanza di alimentazione, ventole, dischi e, spesso, anche CPU.
Per questo motivo un Server con la S maiuscola costa parecchi dindini, ance se a leggere le caratteristiche spesso è simile ai nostri "economici" PC casalinghi, se non più scarsetti in quanto a parte grafica (praticamente inutile in un server).
ora si che riusciremo a far girare pac-man!!!
nonikname
27-05-2005, 17:14
Quache bench ???
Eccoli : http://www.extended64.com/Article30.x64
mi sà che nel mio case non entra :D
secondo me si, se fai un pò di spazio un posticino tranquillo lo troviamo :sofico:
Quache bench ???
Eccoli : http://www.extended64.com/Article30.x64
:eek: fate conto che con 10 di questi entrate già nella top500 !!!
...e con questo gioiellino...come singola unita' di base...si potrebbe pensare di aggredire la top 500...in rapporto al prezzo...estremamente interessante ;)...
edivad82
27-05-2005, 17:57
x jappilas
ma in genere non si usa la fibra ottica???
se non erro il virginiatech usa connessione in fibra ottica....ma posso sbagliare sto andando a memoria
dipende da che cluster stai progettando. possono andar bene i 100mbit in fibra e non, puoi passare al giga in fibra e non ecc.. puoi anche passare a connessioni myrinet per la gioia dei portafogli :D
edivad82
27-05-2005, 18:04
dipende da che cluster stai progettando. possono andar bene i 100mbit in fibra e non, puoi passare al giga in fibra e non ecc.. puoi anche passare a connessioni myrinet per la gioia dei portafogli :D
ah, giusto per info :D con connessioni myrinet si riesce ad arrivare a trasferimenti attorno a 3,7 gigabyte al secondo con card dual port e latenze attorno ai 2,7 microsecondi
Slamdunk
27-05-2005, 18:43
Beh, abbastanza sbav... Peccato che ho già il riscaldamento in casa :D
Black Slayer
27-05-2005, 19:03
mamma
mia
però mi piacerebbe averne qualcuno e non solo intaccare, DOMINARE la top 500 ;)
a proposito, ki me li paga?
sidewinder
27-05-2005, 20:01
ahahaha!
More ram than HD!!!
http://www.extended64.com/photos/article_screenshots/category1028/picture584.aspx
CoolSh@rK
27-05-2005, 20:20
lol ma che bordello :)..
Gente domandina super lamma: questa scheda monta il chipset NForce4 giusto? e monta processori Intel. Ora.. veniamo al dunque: il chipset del processote non c'entra na mazza con quello della scheda mamma giusto? :D :D
Saluti e quasi quasi mi vergogno di fare stè domande :D
il prossimo server di hwupgrade ?:)
jappilas
27-05-2005, 20:27
lol ma che bordello :)..
Gente domandina super lamma: questa scheda monta il chipset NForce4 giusto? e monta processori Intel.
....
ehm... veramente arriva a 8 socket 940 per cpu Opteron (AMD) ... :stordita:
Gente domandina super lamma: questa scheda monta il chipset NForce4 giusto? e monta processori Intel. Ora.. veniamo al dunque: il chipset del processote non c'entra na mazza con quello della scheda mamma giusto? :D :D
Saluti e quasi quasi mi vergogno di fare stè domande :D
No...non monta nForce4...suppongo che monti un chipset AMD della serie 8000... I processori sono AMD... Il chipset della scheda madre è collegato alla cpu...
dico solo che :sbav: pazzesco...non oso immaginare la potenza di calcolo di una bestia del genere, se ci si prende un "coso" di quelli ti dura una vita :eek:
F1R3BL4D3
27-05-2005, 22:52
Interessante soluzione per il clustering o anche come singole unità, la potenza non viene imbottigliata da inutili colli (grazie alla gestione molto efficiente delle connessioni), insomma niente male......
P.S: Iwill ci stà dando dentro con Opteron e soluzioni particolari
zuLunis guarda lo schema e capisci come fa a raffreddare le cpu...
Sara sufficiente per vedere un gioco fluido??
jappilas
28-05-2005, 13:58
Sara sufficiente per vedere un gioco fluido??
(a meno che io non abbia colto l' ironia del post) ... ehm, dubito che sia per giocare.. :rolleyes:
Anche perchè ha una scheda grafica PCI con 8MB di VRAM...
e che cosa ce ne faremo di 32 cpu fisiche?!
Stigmata
29-05-2005, 11:35
mamma mia che bestione :sbav:
chissà quanto fa al superpi :asd:
cmq in coda :rotfl:
Anche perchè ha una scheda grafica PCI con 8MB di VRAM...
Non hai notato i due slot PCI-Express 16x ? ;)
questo si che è un ottimo server,
la tecnologia avanza!!!!
achillepaoloni
30-05-2005, 07:47
E' veramente eccezionale, chissà se per il raffreddamento sia necessario quello a liquido; è pur vero che il mio Opteron 142, anche con una ThermalTake, difficilmente supera i 40°
Achille
cavolo con uno di questi server ci trapano tutti sul seti@home :asd:
Però se vai sul sito la dotazione standard è una Ati rage qualcosa (mi pare) PCI con 8 Mb... Su un server non serve (scusate il gioco di parole :D ) di più...
edivad82
30-05-2005, 11:35
Però se vai sul sito la dotazione standard è una Ati rage qualcosa (mi pare) PCI con 8 Mb... Su un server non serve (scusate il gioco di parole :D ) di più...
bof...basterebbe anche una seriale se non ci installi windows :D :p
si, con un terminale seriale tipo vt100... All'università di Napoli c'erano (non lo so se ci sono ancora...) dei terminali VT-100 collegati via LAN ad un server centrale. Probabilmente quel server ce l'aveva la scheda video, ma avrebbe tranquillamente potuto non averla...
jappilas
30-05-2005, 14:00
si, con un terminale seriale tipo vt100... All'università di Napoli c'erano (non lo so se ci sono ancora...) dei terminali VT-100 collegati via LAN ad un server centrale. Probabilmente quel server ce l'aveva la scheda video, ma avrebbe tranquillamente potuto non averla...
ma infatti la tendenza è verso i server del tutto headless con management remoto...
finora rimaneva necessaria la presenza fisica di fronte al sistema dell' amministratore, se non altro per preparare i sottosistemi disco (partizionamento e formttazione), adesso pare che la intel abbia risolto anche quest' ultimo problema con la ide redirection...
cdimauro
06-06-2005, 10:23
P.S.: Molti parlano di "software ottimizzato per i dual core". A me sembra una sciocchezza. Non basta avere comunissimi programmi multithread?
No, se vuoi spremere meglio questi processori.
Nel caso di dual core generalmente è meglio allocare un processo/thread per un core di ogni processore presente nel sistema, per poi passare agli altri core rimasti "inutilizzati".
No, se vuoi spremere meglio questi processori.
Nel caso di dual core generalmente è meglio allocare un processo/thread per un core di ogni processore presente nel sistema, per poi passare agli altri core rimasti "inutilizzati".
Quindi ho ragione io visto che quello di assegnare quale thread/processo a quale core dovrebbe essere compito dello scheduler del sistema operativo e non dell'applicazione :p
Quindi ho ragione io visto che quello di assegnare quale thread/processo a quale core dovrebbe essere compito dello scheduler del sistema operativo e non dell'applicazione :p
Certo, ma bisogna vedere se viene fatto :p
cdimauro
07-06-2005, 10:43
Quindi ho ragione io visto che quello di assegnare quale thread/processo a quale core dovrebbe essere compito dello scheduler del sistema operativo e non dell'applicazione :p
Meglio che lo faccia l'applicazione, IMHO. Per le motivazioni, ti consiglio di rileggerti un (chilometrico :D) thread che di recente abbiamo affrontato con xeal proprio su questo punto... :p
Certo, ma bisogna vedere se viene fatto :p
:D
In caso negativo mi riservo di sentirmi comunque la coscienza a posto :sofico:
Meglio che lo faccia l'applicazione, IMHO. Per le motivazioni, ti consiglio di rileggerti un (chilometrico :D) thread che di recente abbiamo affrontato con xeal proprio su questo punto... :p
Dammi il link che gli do un'occhiata. Lo scheduling "interno" ad una CPU dovrebbe essere gestito dall'SO. Attualmente abbiamo visto che normali applicazioni multi-threaded hanno un bell'incremento di prestazioni sui dual core, cio' significa che i thread vengono correttamente gestiti dal sistema operativo. E questo senza avere ancora compilatori in grado di gestire e produrre ottimizzazioni binarie per processori multi-core.
Il mito che si puo' scrivere a mano assembly piu' efficiente di uno generato da un compilatore sta finendo (e' gia' finito). Per come la vedo io il fatto di dover parallelizzare dei thread a mano su piu' core e' un discorso piu' teorico che pratico. Con OpenMP addirittura e' finita anche l'era della scrittura di codice SMP. Figuriamoci se il problema si deve proporre sui multi-core.
cdimauro
09-06-2005, 08:22
Dammi il link che gli do un'occhiata. Lo scheduling "interno" ad una CPU dovrebbe essere gestito dall'SO. Attualmente abbiamo visto che normali applicazioni multi-threaded hanno un bell'incremento di prestazioni sui dual core, cio' significa che i thread vengono correttamente gestiti dal sistema operativo. E questo senza avere ancora compilatori in grado di gestire e produrre ottimizzazioni binarie per processori multi-core.
Scusami se preferisco passarti il link piuttosto che risponderti, perché ne abbiamo parlato veramente parecchio. :p http://www.hwupgrade.it/forum/showthread.php?t=918651&page=3&highlight=scheduler
Il mito che si puo' scrivere a mano assembly piu' efficiente di uno generato da un compilatore sta finendo (e' gia' finito).
Non sono d'accordo. E' una pratica che sta sparendo, ma rimane comunque valida.
Per come la vedo io il fatto di dover parallelizzare dei thread a mano su piu' core e' un discorso piu' teorico che pratico. Con OpenMP addirittura e' finita anche l'era della scrittura di codice SMP. Figuriamoci se il problema si deve proporre sui multi-core.
E' un discorso un po' troppo semplicistico: leggiti quel thread e poi ne riparliamo, eventualmente. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.