Torna indietro   Hardware Upgrade Forum > Altre Discussioni > Amministrazione e Configurazione Server

Recensione HONOR Magic 8 Lite: lo smartphone indistruttibile e instancabile
Recensione HONOR Magic 8 Lite: lo smartphone indistruttibile e instancabile
Abbiamo provato a fondo il nuovo Magic 8 Lite di HONOR, e per farlo siamo volati fino a Marrakech , dove abbiamo testato la resistenza di questo smartphone in ogni condizione possibile ed immaginabile. Il risultato? Uno smartphone praticamente indistruttibile e con un'autonomia davvero ottima. Ma c'è molto altro da sapere su Magic 8 Lite, ve lo raccontiamo in questa recensione completa.
Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora
Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora
WF-1000X M6 è la sesta generazione di auricolare in-ear sviluppata da Sony, un prodotto che punta a coniugare facilità di utilizzo con una elevata qualità di riproduzione dei contenuti audio e una cura nella riduzione del rumore ambientale che sia da riferimento
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI
Snowflake ha presentato diverse novità per la sua piattaforma legate all'intelligenza artificiale. Quella forse più eclatante è una collaborazione con OpenAI, ma non mancano diverse nuove funzionalità che rendono la piattaforma più flessibile e in grado di rispondere meglio alle esigenze in continuo cambiamento delle aziende
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-09-2012, 19:22   #1
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
SAN per Cluster: Fibre Channel 8Gbit vs iSCSI 10Gbit Ethernet

Salve a tutti, ho a disposizione il seguente hardware:
- 2 server IBM x3550m4 1 Xeon con 8 core (non ricordo la sigla, perdonatemi) e 24 gb di RDIMM;
- 1 SAN IBM DS3512 con doppio controller RAID e slot per HD SAS da 3.5' la quale monterà 6 dischi da 450GB 15k rpm in raid 5 (o 6, vedremo).
con il quale metterò in piede un cluster HA (possibilmente Attivo-Attivo) con Linux (oVirt o proxmox).

La virtual farm ospiterà, oltre ad i soliti server di posta, dhcp e roba poco onerosa, anche istanze di SQL per gestionale ed altri usi, con un carico abbastanza oneroso.

Il mio dubbio era se scegliere di utilizzare connettività Fibre Channel 8Gbit o iScsi 10Gbit sul server, in entrambi i casi avrei ALMENO due porte per server e quattro nello storage per effettuare il collegamento. L'idea era di collegare direttamente le porte di server e storage senza interporre switch.

Qualcuno di voi ha mai avuto esperienza con sistemi del genere e potrebbe consigliarmi quale sia il più affidabile/efficiente/semplice_da_gestire/altri_pro_contro?
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 18-09-2012, 20:30   #2
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Addendum fcoe

Aggiungerei: avrei bisogno di hardware addizionale per implementare il fibre channel over ethernet o si tratta solamente di configurazioni che posso svolgere via software? Purtroppo su quest'ultimo protocollo la mia ignoranza è ASSOLUTA, perdonatemi!
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 18-09-2012, 23:07   #3
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6679
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Il mio dubbio era se scegliere di utilizzare connettività Fibre Channel 8Gbit o iScsi 10Gbit sul server, in entrambi i casi avrei ALMENO due porte per server e quattro nello storage per effettuare il collegamento. L'idea era di collegare direttamente le porte di server e storage senza interporre switch.

Qualcuno di voi ha mai avuto esperienza con sistemi del genere e potrebbe consigliarmi quale sia il più affidabile/efficiente/semplice_da_gestire/altri_pro_contro?
Personalmente non ho molta esperienza di iSCSI (a parte qualche esperimento home-made fatto più che altro per curiosità e comunque non si sistemi critici o in produzione) e dai clienti da cui lavoro che hanno esigenze di questo tipo ho sempre trovato architetture che usavano FC, che uso tutt'ora e di cui ho una parziale esperienza.

Partiamo dal presupposto che FC è comunque il top, in termini di performance, di affidabilità e di strumenti per la gestione del traffico e delle congestioni (a me non è mai capitato di usarli, però la letteratura non fa che decantare tutto questo ).
FCoE è un po' il punto di contatto tra l'architettura FC e iSCSI, tant'è che qualcuno sostiene che FCoE andrà a rimpiazzare iSCSI in ambito enterprise, mentre iSCSI rimarrà esclusivamente per le soluzione di basso profilo.
Però non pensare di far passare il traffico FCoE su una normale lan con normali switch, servono dispositivi ad hoc in grado di garantire traffico lossless.

Rispetto a iSCSI è comunque una tecnologia costosetta, non a livello del FC puro (l'ultima volta che ho visto una quotazione per uno switch FC da 40 porte era attorno ai 50.000 euro) ma non certo economica come iSCSI.
Anche qui ci sarebbe tutto un discorso da fare sull'iSCSI, un conto è implementare una architettura iSCSI "alla buona", un conto è usare HBA con tcp offload su vlan dedicate full duplex e cercando di studiare una topologia di rete tale da ridurre ai minimi termini collisioni ed errori; per fare questo non basta certo lo switchino Gbps in offerta da Ingram, non so se mi spiego...

In definitiva dipende tutto dal budget che hai a disposizione, se sei nell'ordine dei 3-5k euro te la puoi cavare con l'iSCSI, se puoi arrivare sui 10-15k allora puoi cominciare a pensare al FCoE, se puoi salire e arrivare ai 50k puoi cominciare a pensare al FC puro (prezzi indicativi "a membro di segugio" eh )

Riguardo agli switch se sui 2 controller hai almeno quattro interfacce (2 per ciascun controller) e su ciascun server hai almeno 2 interfacce puoi anche pensare di evitare gli switch, fatto salvo che ti giochi future espansioni a meno di mettere pesantemente mano all'architettura in futuro.
Vista la bella SAN (io lavoro frequentemente sui vecchi DS4300 e saltuariamente ho occasione di mettere le mani su un DS5100 e sono macchine fantastiche di eccezionale affidabilità, ti assicuro che ti troverai molto bene ) io non escluderei di sfruttarla per bene un domani attaccandoci altre macchine.
Investire oggi in un paio di switch (in modo da garantire il multipath) potrebbe significare semplificarsi di molto la vita un domani.

Per quanto concerne il clustering active-active io ho esperienza solo di sistemi proprietari implementati a livello applicativo (es cluster di server Lotus Domino), non conosco i progetti che citi però dalla mia esperienza i sistemi di clustering vanno sempre presi un po' con le pinze.
Le promesse sono sempre tante e sfavillanti, ma quando si verificano le criticità imho è molto meglio investire su personale qualificato che sa mettere le mani dove serve piuttosto che in qualche tecnologia aliena che promette di far tutto da sola ma se va bene rispetta le promesse una volta su tre.
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."

Ultima modifica di Tasslehoff : 18-09-2012 alle 23:10.
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2012, 00:52   #4
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.


Vado a precisare alcuni punti:

- So con certezza che questo cluster seguirà sempre l'architettura 2-3 nodi direttamente connessi alla SAN, quindi il problema degli switch, collisioni ecc. non si pone, il collegamento verrà effettuato point-to-point fra gli HBA; questa considerazione vale sia per iSCSI che per FC che per FCoE. Inoltre so anche che il cluster non verrà mai connesso ad altro che switch di rete verso l'esterno, quindi non sono in generale interessato ad una gestione dello switching/routing dei dati fra SAN e server.

- La preferenza che mi hanno chiesto di esprimere riguarda SOLAMENTE l'utilizzare FC nativo oppure Ethernet 10Gbit: fra le due alternative non c'è differenza economica, o quantomeno è trascurabile dal nostro punto di vista.

- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.

- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !

- Capisco cosa intendi per switch da discount e condivido: ho appena fatto ricablare due piani dell'azienda "endpoint" con Cat6 e switch CISCO managed. Per utilizzo office/client_gestionale/rdp_saltuario credo sia abbastanza overkill.

- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2012, 16:54   #5
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.


Vado a precisare alcuni punti:

- So con certezza che questo cluster seguirà sempre l'architettura 2-3 nodi direttamente connessi alla SAN, quindi il problema degli switch, collisioni ecc. non si pone, il collegamento verrà effettuato point-to-point fra gli HBA; questa considerazione vale sia per iSCSI che per FC che per FCoE. Inoltre so anche che il cluster non verrà mai connesso ad altro che switch di rete verso l'esterno, quindi non sono in generale interessato ad una gestione dello switching/routing dei dati fra SAN e server.

- La preferenza che mi hanno chiesto di esprimere riguarda SOLAMENTE l'utilizzare FC nativo oppure Ethernet 10Gbit: fra le due alternative non c'è differenza economica, o quantomeno è trascurabile dal nostro punto di vista.

- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.

- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !

- Capisco cosa intendi per switch da discount e condivido: ho appena fatto ricablare due piani dell'azienda "endpoint" con Cat6 e switch CISCO managed. Per utilizzo office/client_gestionale/rdp_saltuario credo sia abbastanza overkill.

- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 19-09-2012, 17:06   #6
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Scusate, doppio post involontario; please admin rimuovere, grazie!
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2012, 23:45   #7
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6679
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Tasslehoff, ti ringrazio intanto per la risposta, è un piacere avere a che fare con persone competenti.
Un thread che non cominci con le solite richieste su Windows Server o su consigli per l'acquisto di un server non può che essere il benvenuto
Poi come ti dicevo io non ho una grande esperienza in merito all'implementazione di questo genere di architetture, uso quotidianamente delle san in fc con multipath e switch ridondati, però un conto è cominciare tutto da zero e investirci dei soldi e competenze, un altro semplicemente farne la manutenzione.
Anche per me è un'occasione per approfondire

Quote:
- Il mio dubbio principale sul FC è che ho letto parecchi dati che lo mostrano in declino rispetto alle più recenti soluzioni iSCSI, anche nella fascia alta: sembrerebbe proprio un protocollo la cui diffusione si sta ridimensionando in favore della più flessibile connettività ethernet. Non siamo estremamente interessati alla bassa latenza.
Ciò detto, il tuo consiglio rimane Fibre Channel? Se sì, mi farebbe molto piacere che tu potessi illustrarmi il perché di questa preferenza, ho letto diversi pareri e sono affamato di informazioni.
- Non ho ancora trovato una risposta definitiva alla domanda "Si può usare il FCoE su questa configurazione (10GbE con connessioni Point-to-Point) o no?", se qualcuno se ne intende si faccia avanti !
Come ti dicevo non ho esperienza di FCoE, però da quanto ho letto in rete FCoE ha implementato tutte le features tipiche del FC (es zoning).
In entrambi i casi dovresti dotarti di HBA dedicate, il vantaggio di FCoE potrebbe essere evidente se uno mischiasse traffico IP con traffico FCoE sugli stessi switch (chiaramente adeguati a gestire il traffico e le features del FCoE) per il semplice fatto di non dover utilizzare diversi mezzi fisici.
Nel tuo caso però questo problema non si pone dato che il traffico FCoE tra san e server sarebbe comunque separato dal resto del traffico di rete.

Sul FCoE punto-punto non ho trovato molte informazioni, solo una presentazione in pdf che "spacca il frame in 4" ma che più che dare certezze pone domande per un futuro sviluppo del protocollo in tal senso (nella parte iniziale dice che il FCoE non prevede la configurazione punto-punto).
Con FC puro invece una configurazione di questo tipo non solo è possibile ma anche abbastanza comune (se hai abbastanza controller e interfacce FC nulla ti vieta di implementare il multipath anche con questa configurazione).

Quote:
- Desidero avere clustering a livello di Hypervisor e non applicativo. Ovirt è la controparte open di RHEV, come CentOS di RHEL, mentre proxmox è una debian con alcuni pacchetti aggiuntivi di livello enterprise (c'è dietro una realtà che offre supporto a pagamento ovviamente) per la gestione di KVM (non gli switch, il modulo che funge da hypervisor :P). Quest'ultimo lo uso da qualche anno anche in server di produzione e non ha mai dato problemi, considera che è una debian stabile con un'interfaccia web per la gestione, ma si può sempre utilizzare virsh e compagnia in caso di problemi (mai riscontrati francamente).
Non avevo capito che intendessi implementare una architettura virtualizzata, non sono molto ferrato su KVM o comunque con hypervisor diversi da vmware esx, dai clienti presso cui lavoriamo non abbiamo mai avuto modo di implementare altro.
Interessante comunque, se avrò modo (in realtà sono anni che dico a proposito di KVM ma non ho mai trovato il tempo per applicarmi e testare per bene...) proverò a dare un'occhiata a quei due progetti

Dimenticavo di segnalarti un redbook e un redpaper interessanti sull'argomento, spero ti possano essere utili.
An Introduction to Fibre Channel over Ethernet, and Fibre Channel over Convergence Enhanced Ethernet
Storage and Network Convergence Using FCoE and iSCSI
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
Old 24-09-2012, 11:18   #8
theinfiltrated
Junior Member
 
Iscritto dal: Sep 2012
Messaggi: 8
Alla fine ho optato per il FC puro, poiché molte soluzioni erano certificate per iSCSI solamente utilizzando degli switch (che non sono previsti nel nostro progetto). Avremo quindi due connessioni point-to-point per server a 8gbit.

Tasslehoff, ti ringrazio ancora per i preziosi suggerimenti che mi hai dato.

Ciò detto, potresti darmi consigli su libri (o altro) che parlino del fibre channel in generale e su Linux (anche introduttivi, anche sul web)?
Avevo l'intenzione di ridondare/aggregare i due link sui server... Ho scelto controller Emulex, spero sia stata una decisione saggia.
theinfiltrated è offline   Rispondi citando il messaggio o parte di esso
Old 24-09-2012, 12:09   #9
Tasslehoff
Senior Member
 
L'Avatar di Tasslehoff
 
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6679
Quote:
Originariamente inviato da theinfiltrated Guarda i messaggi
Alla fine ho optato per il FC puro, poiché molte soluzioni erano certificate per iSCSI solamente utilizzando degli switch (che non sono previsti nel nostro progetto). Avremo quindi due connessioni point-to-point per server a 8gbit.

Tasslehoff, ti ringrazio ancora per i preziosi suggerimenti che mi hai dato.

Ciò detto, potresti darmi consigli su libri (o altro) che parlino del fibre channel in generale e su Linux (anche introduttivi, anche sul web)?
Avevo l'intenzione di ridondare/aggregare i due link sui server... Ho scelto controller Emulex, spero sia stata una decisione saggia.
Figurati
Come ti dicevo è stato uno spunto anche per me per andare a indagare un po' il FCoE, anche se in modo molto superficiale (altra roba che si aggiunge alla mia già lunga to-read list ).

Riguardo alla documentazione io posso consigliarti questi interessanti Redbooks IBM:
Designing an IBM Storage Area Network
Introduction to Storage Area Networks and System Networking
Introduction to Storage Area Networks

In generale posso consigliarti di tenere d'occhio il sito dei RedBooks IBM (consiglio i feed RSS), sono opere davvero fantastiche e totalmente free (in formato elettronico).
Chiaramente trattano anche argomenti specifici di prodotti hw e sw IBM, però anche in quei casi contengono sempre capitoli introduttivi che parlano in generale dei protocolli coinvolti e sono un'ottima introduzione (spesso anche fin troppo dettagliata).
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie
"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say."
Tasslehoff è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione HONOR Magic 8 Lite: lo smartphone indistruttibile e instancabile Recensione HONOR Magic 8 Lite: lo smartphone ind...
Sony WF-1000X M6: le cuffie in-ear di riferimento migliorano ancora Sony WF-1000X M6: le cuffie in-ear di riferiment...
Snowflake porta l'IA dove sono i dati, anche grazie a un accordo con OpenAI Snowflake porta l'IA dove sono i dati, anche gra...
Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo MSI Sistema Mesh Roamii BE Pro: il Wi-Fi 7 secondo M...
Recensione HUAWEI Mate X7: un foldable ottimo, ma restano i soliti problemi Recensione HUAWEI Mate X7: un foldable ottimo, m...
Hyundai: spunta un'elettrica estremament...
Una connessione diretta con AWS European...
La Toyota Yaris avrà una versione...
Minori sessualizzati da Grok: l'UE mette...
NIO stabilisce il nuovo record di scambi...
Dell Private Cloud sempre più ape...
Ennesimo incidente per la guida autonoma...
Dopo le maniglie, è il turno dei ...
Addio incendi incontrollati? Svolt dice ...
WINDTRE si mette in proprio: vender&agra...
The Mandalorian & Grogu: il trailer ...
OpenClaw sotto attacco: i malware infost...
Resident Evil Requiem: pre-load dal 25 f...
Vaticano, la Messa si traduce in 60 ling...
Kia prepara il facelift della Kia EV5: n...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:17.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v