Torna indietro   Hardware Upgrade Forum > Altre Discussioni > Amministrazione e Configurazione Server

iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
C'è tanta sostanza nel nuovo smartphone della Mela dedicato ai creator digitali. Nuovo telaio in alluminio, sistema di raffreddamento vapor chamber e tre fotocamere da 48 megapixel: non è un semplice smartphone, ma uno studio di produzione digitale on-the-go
Intel Panther Lake: i processori per i notebook del 2026
Intel Panther Lake: i processori per i notebook del 2026
Panther Lake è il nome in codice della prossima generazione di processori Intel Core Ultra, che vedremo al debutto da inizio 2026 nei notebook e nei sistemi desktop più compatti. Nuovi core, nuove GPU e soprattutto una struttura a tile che vede per la prima volta l'utilizzo della tecnologia produttiva Intel 18A: tanta potenza in più, ma senza perdere in efficienza
Intel Xeon 6+: è tempo di Clearwater Forest
Intel Xeon 6+: è tempo di Clearwater Forest
Intel ha annunciato la prossima generazione di processori Xeon dotati di E-Core, quelli per la massima efficienza energetica e densità di elaborazione. Grazie al processo produttivo Intel 18A, i core passano a un massimo di 288 per ogni socket, con aumento della potenza di calcolo e dell'efficienza complessiva.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-09-2012, 18:22   #1
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
SAN per Cluster: Fibre Channel 8Gbit vs iSCSI 10Gbit Ethernet

Salve a tutti, ho a disposizione il seguente hardware:
- 2 server IBM x3550m4 1 Xeon con 8 core (non ricordo la sigla, perdonatemi) e 24 gb di RDIMM;
- 1 SAN IBM DS3512 con doppio controller RAID e slot per HD SAS da 3.5' la quale monterà 6 dischi da 450GB 15k rpm in raid 5 (o 6, vedremo).
con il quale metterò in piede un cluster HA (possibilmente Attivo-Attivo) con Linux (oVirt o proxmox).

La virtual farm ospiterà, oltre ad i soliti server di posta, dhcp e roba poco onerosa, anche istanze di SQL per gestionale ed altri usi, con un carico abbastanza oneroso.

Il mio dubbio era se scegliere di utilizzare connettività Fibre Channel 8Gbit o iScsi 10Gbit sul server, in entrambi i casi avrei ALMENO due porte per server e quattro nello storage per effettuare il collegamento. L'idea era di collegare direttamente le porte di server e storage senza interporre switch.

Qualcuno di voi ha mai avuto esperienza con sistemi del genere e potrebbe consigliarmi quale sia il più affidabile/efficiente/semplice_da_gestire/altri_pro_contro?
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 18-09-2012, 19:30   #2
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Addendum fcoe

Aggiungerei: avrei bisogno di hardware addizionale per implementare il fibre channel over ethernet o si tratta solamente di configurazioni che posso svolgere via software? Purtroppo su quest'ultimo protocollo la mia ignoranza è ASSOLUTA, perdonatemi!
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 18-09-2012, 22:07   #3
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6660
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Il mio dubbio era se scegliere di utilizzare connettività Fibre Channel 8Gbit o iScsi 10Gbit sul server, in entrambi i casi avrei ALMENO due porte per server e quattro nello storage per effettuare il collegamento. L'idea era di collegare direttamente le porte di server e storage senza interporre switch.

Qualcuno di voi ha mai avuto esperienza con sistemi del genere e potrebbe consigliarmi quale sia il più affidabile/efficiente/semplice_da_gestire/altri_pro_contro?
Personalmente non ho molta esperienza di iSCSI (a parte qualche esperimento home-made fatto più che altro per curiosità e comunque non si sistemi critici o in produzione) e dai clienti da cui lavoro che hanno esigenze di questo tipo ho sempre trovato architetture che usavano FC, che uso tutt'ora e di cui ho una parziale esperienza.

Partiamo dal presupposto che FC è comunque il top, in termini di performance, di affidabilità e di strumenti per la gestione del traffico e delle congestioni (a me non è mai capitato di usarli, però la letteratura non fa che decantare tutto questo ).
FCoE è un po' il punto di contatto tra l'architettura FC e iSCSI, tant'è che qualcuno sostiene che FCoE andrà a rimpiazzare iSCSI in ambito enterprise, mentre iSCSI rimarrà esclusivamente per le soluzione di basso profilo.
Però non pensare di far passare il traffico FCoE su una normale lan con normali switch, servono dispositivi ad hoc in grado di garantire traffico lossless.

Rispetto a iSCSI è comunque una tecnologia costosetta, non a livello del FC puro (l'ultima volta che ho visto una quotazione per uno switch FC da 40 porte era attorno ai 50.000 euro) ma non certo economica come iSCSI.
Anche qui ci sarebbe tutto un discorso da fare sull'iSCSI, un conto è implementare una architettura iSCSI "alla buona", un conto è usare HBA con tcp offload su vlan dedicate full duplex e cercando di studiare una topologia di rete tale da ridurre ai minimi termini collisioni ed errori; per fare questo non basta certo lo switchino Gbps in offerta da Ingram, non so se mi spiego...

In definitiva dipende tutto dal budget che hai a disposizione, se sei nell'ordine dei 3-5k euro te la puoi cavare con l'iSCSI, se puoi arrivare sui 10-15k allora puoi cominciare a pensare al FCoE, se puoi salire e arrivare ai 50k puoi cominciare a pensare al FC puro (prezzi indicativi "a membro di segugio" eh )

Riguardo agli switch se sui 2 controller hai almeno quattro interfacce (2 per ciascun controller) e su ciascun server hai almeno 2 interfacce puoi anche pensare di evitare gli switch, fatto salvo che ti giochi future espansioni a meno di mettere pesantemente mano all'architettura in futuro.
Vista la bella SAN (io lavoro frequentemente sui vecchi DS4300 e saltuariamente ho occasione di mettere le mani su un DS5100 e sono macchine fantastiche di eccezionale affidabilità, ti assicuro che ti troverai molto bene ) io non escluderei di sfruttarla per bene un domani attaccandoci altre macchine.
Investire oggi in un paio di switch (in modo da garantire il multipath) potrebbe significare semplificarsi di molto la vita un domani.

Per quanto concerne il clustering active-active io ho esperienza solo di sistemi proprietari implementati a livello applicativo (es cluster di server Lotus Domino), non conosco i progetti che citi però dalla mia esperienza i sistemi di clustering vanno sempre presi un po' con le pinze.
Le promesse sono sempre tante e sfavillanti, ma quando si verificano le criticità imho è molto meglio investire su personale qualificato che sa mettere le mani dove serve piuttosto che in qualche tecnologia aliena che promette di far tutto da sola ma se va bene rispetta le promesse una volta su tre.
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."

Ultima modifica di Tasslehoff : 18-09-2012 alle 22:10.
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
Old 18-09-2012, 23:52   #4
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.


Vado a precisare alcuni punti:

- So con certezza che questo cluster seguirà sempre l'architettura 2-3 nodi direttamente connessi alla SAN, quindi il problema degli switch, collisioni ecc. non si pone, il collegamento verrà effettuato point-to-point fra gli HBA; questa considerazione vale sia per iSCSI che per FC che per FCoE. Inoltre so anche che il cluster non verrà mai connesso ad altro che switch di rete verso l'esterno, quindi non sono in generale interessato ad una gestione dello switching/routing dei dati fra SAN e server.

- La preferenza che mi hanno chiesto di esprimere riguarda SOLAMENTE l'utilizzare FC nativo oppure Ethernet 10Gbit: fra le due alternative non c'è differenza economica, o quantomeno è trascurabile dal nostro punto di vista.

- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.

- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !

- Capisco cosa intendi per switch da discount e condivido: ho appena fatto ricablare due piani dell'azienda "endpoint" con Cat6 e switch CISCO managed. Per utilizzo office/client_gestionale/rdp_saltuario credo sia abbastanza overkill.

- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2012, 15:54   #5
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.


Vado a precisare alcuni punti:

- So con certezza che questo cluster seguirà sempre l'architettura 2-3 nodi direttamente connessi alla SAN, quindi il problema degli switch, collisioni ecc. non si pone, il collegamento verrà effettuato point-to-point fra gli HBA; questa considerazione vale sia per iSCSI che per FC che per FCoE. Inoltre so anche che il cluster non verrà mai connesso ad altro che switch di rete verso l'esterno, quindi non sono in generale interessato ad una gestione dello switching/routing dei dati fra SAN e server.

- La preferenza che mi hanno chiesto di esprimere riguarda SOLAMENTE l'utilizzare FC nativo oppure Ethernet 10Gbit: fra le due alternative non c'è differenza economica, o quantomeno è trascurabile dal nostro punto di vista.

- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.

- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !

- Capisco cosa intendi per switch da discount e condivido: ho appena fatto ricablare due piani dell'azienda "endpoint" con Cat6 e switch CISCO managed. Per utilizzo office/client_gestionale/rdp_saltuario credo sia abbastanza overkill.

- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2012, 16:06   #6
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Scusate, doppio post involontario; please admin rimuovere, grazie!
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2012, 22:45   #7
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6660
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.
Un thread che non cominci con le solite richieste su Windows Server o su consigli per l'acquisto di un server non può che essere il benvenuto
Poi come ti dicevo io non ho una grande esperienza in merito all'implementazione di questo genere di architetture, uso quotidianamente delle san in fc con multipath e switch ridondati, però un conto è cominciare tutto da zero e investirci dei soldi e competenze, un altro semplicemente farne la manutenzione.
Anche per me è un'occasione per approfondire

Quote:
- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.
- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !
Come ti dicevo non ho esperienza di FCoE, però da quanto ho letto in rete FCoE ha implementato tutte le features tipiche del FC (es zoning).
In entrambi i casi dovresti dotarti di HBA dedicate, il vantaggio di FCoE potrebbe essere evidente se uno mischiasse traffico IP con traffico FCoE sugli stessi switch (chiaramente adeguati a gestire il traffico e le features del FCoE) per il semplice fatto di non dover utilizzare diversi mezzi fisici.
Nel tuo caso però questo problema non si pone dato che il traffico FCoE tra san e server sarebbe comunque separato dal resto del traffico di rete.

Sul FCoE punto-punto non ho trovato molte informazioni, solo una presentazione in pdf che "spacca il frame in 4" ma che più che dare certezze pone domande per un futuro sviluppo del protocollo in tal senso (nella parte iniziale dice che il FCoE non prevede la configurazione punto-punto).
Con FC puro invece una configurazione di questo tipo non solo è possibile ma anche abbastanza comune (se hai abbastanza controller e interfacce FC nulla ti vieta di implementare il multipath anche con questa configurazione).

Quote:
- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
Non avevo capito che intendessi implementare una architettura virtualizzata, non sono molto ferrato su KVM o comunque con hypervisor diversi da vmware esx, dai clienti presso cui lavoriamo non abbiamo mai avuto modo di implementare altro.
Interessante comunque, se avrò modo (in realtà sono anni che dico a proposito di KVM ma non ho mai trovato il tempo per applicarmi e testare per bene...) proverò a dare un'occhiata a quei due progetti

Dimenticavo di segnalarti un redbook e un redpaper interessanti sull'argomento, spero ti possano essere utili.
An Introduction to Fibre Channel over Ethernet, and Fibre Channel over Convergence Enhanced Ethernet
Storage and Network Convergence Using FCoE and iSCSI
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
Old 24-09-2012, 10:18   #8
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Alla fine ho optato per il FC puro, poiché molte soluzioni erano certificate per iSCSI solamente utilizzando degli switch (che non sono previsti nel nostro progetto). Avremo quindi due connessioni point-to-point per server a 8gbit.

Tasslehoff, ti ringrazio ancora per i preziosi suggerimenti che mi hai dato.

Ciò detto, potresti darmi consigli su libri (o altro) che parlino del fibre channel in generale e su Linux (anche introduttivi, anche sul web)?
Avevo l'intenzione di ridondare/aggregare i due link sui server... Ho scelto controller Emulex, spero sia stata una decisione saggia.
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 24-09-2012, 11:09   #9
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6660
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Alla fine ho optato per il FC puro, poiché molte soluzioni erano certificate per iSCSI solamente utilizzando degli switch (che non sono previsti nel nostro progetto). Avremo quindi due connessioni point-to-point per server a 8gbit.

Tasslehoff, ti ringrazio ancora per i preziosi suggerimenti che mi hai dato.

Ciò detto, potresti darmi consigli su libri (o altro) che parlino del fibre channel in generale e su Linux (anche introduttivi, anche sul web)?
Avevo l'intenzione di ridondare/aggregare i due link sui server... Ho scelto controller Emulex, spero sia stata una decisione saggia.
Figurati
Come ti dicevo è stato uno spunto anche per me per andare a indagare un po' il FCoE, anche se in modo molto superficiale (altra roba che si aggiunge alla mia già lunga to-read list ).

Riguardo alla documentazione io posso consigliarti questi interessanti Redbooks IBM:
Designing an IBM Storage Area Network
Introduction to Storage Area Networks and System Networking
Introduction to Storage Area Networks

In generale posso consigliarti di tenere d'occhio il sito dei RedBooks IBM (consiglio i feed RSS), sono opere davvero fantastiche e totalmente free (in formato elettronico).
Chiaramente trattano anche argomenti specifici di prodotti hw e sw IBM, però anche in quei casi contengono sempre capitoli introduttivi che parlano in generale dei protocolli coinvolti e sono un'ottima introduzione (spesso anche fin troppo dettagliata).
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile iPhone 17 Pro: più di uno smartphone. &Eg...
Intel Panther Lake: i processori per i notebook del 2026 Intel Panther Lake: i processori per i notebook ...
Intel Xeon 6+: è tempo di Clearwater Forest Intel Xeon 6+: è tempo di Clearwater Fore...
4K a 160Hz o Full HD a 320Hz? Titan Army P2712V, a un prezzo molto basso 4K a 160Hz o Full HD a 320Hz? Titan Army P2712V,...
Recensione Google Pixel Watch 4: basta sollevarlo e si ha Gemini sempre al polso Recensione Google Pixel Watch 4: basta sollevarl...
OpenAI esce allo scoperto: confermati i ...
In arrivo altri due prodotti da Apple en...
Il tool per aggiornare da Windows 10 a W...
Rishi Sunak entra in Microsoft e Anthrop...
Porsche in poche ore chiude la formazion...
iPhone 17 disponibili su Amazon al prezz...
La Ferrari Elettrica non è la cau...
Ricarica da record: Zeekr supera i 1.300...
Un 'capezzolo' con feedback aptico al po...
Porsche Taycan Rush a Misano: prima al v...
Installare Windows 11 senza account Micr...
Cina, nuove regole per le auto elettrich...
OPPO A6 Pro arriva in Italia a 299,99 eu...
Black Myth: Wukong, oggi un maxi aggiorn...
Nomad in missione senza alcun controllo ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:09.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v