Die Vorteile von Ethernet Fabrics beim Einsatz von Server- und Storage Virtualisierung

Klassisches Ethernet-Switching erfordert die Konfiguration aller Switch-Ports; hierzu zählen auch Policies wie VLAN-Verkehr, QoS oder Sicherheit...

Zum  Hintergrund: Leistungsfähige Rechenzentren weisen typischerweise mehrere anwendungsspezifische Netzwerke auf, die verschiedene Link-Layer-Technologien einsetzen, also zum Beispiel Fibre Channel für Storage-, Infiniband für High-Performance Computing und Standard Ethernet zum Management und für LAN-Verbindungen. Das rasche Wachstum und technische Fortschritte im Bereich der Server- und Storage Virtualisierung haben allerdings die Konfiguration und das Management der Netze komplexer, fehleranfälliger und auch zeitaufwändiger werden lassen. In diesem Zusammenhang fällt deshalb häufiger der Begriff „Netzwerk Konvergenz“, also die Konsolidierung von SAN- und LAN-Ressourcen im Rahmen einer gemeinsamen neuen Architektur. Was steckt dahinter? Konkret ermöglichen es die Spezifikationen des (IEEE 802.1 DCB) Data Center Bridgings, Standard-konformes Bridging für den Einsatz innerhalb eines konvergenten Netzwerks herzustellen, bei dem die Anwendungen innerhalb einer einzigen physischen Infrastruktur (converged) ausgeführt werden.

Technisch gesehen ist die Spezifikation eine Sammlung von Standard-basierten Erweiterungen des klassischen Ethernet und wird als Converged Enhanced Ethernet (CEE) bezeichnet. DCB repräsentiert aktuell verschiedene Standards wie Priority-based-Flow-Control, DCB-Exchange-Protocol, 802.1Qaz, Enhanced-Transmission-Selection, 802.1Qaz oder Congestion-Notification, 802.1Qau. Aus Storagesicht ist der Aspekt eines verlustfreien Transport-Layer wichtig, analog zu FC SAN's.

Zur Historie: CEE wurde 2008 durch Hersteller wie Broadcom, Brocade Communications, Emulex, QLogic, HP, Cisco, IBM und Juniper bekannt. Die Gruppe erarbeitete erste Vorschläge für den Transport der zu übertragenden Protokolle über ein funktional erweitertes Ethernet (CEE), welches besonders für Storage- bzw. Fibre-Channel-Anwendungen interessant ist (es existieren verschiedene IEEE 802.1 Arbeitsgruppen zu den oben genannten Spezifikationen). Die Anwendung der bisherigen SAN-Fabric – Designvorteile für Ethernet kombiniert die Vorzüge von Fibre Channel wie verlustfreie Übertragung, geringste Latenzen etc. mit 10 GBE zu einer neuen Fabric-Generation auf Grundlage des erweiterten Standard-Ethernet.

Zum Vorteil einer Ethernet Fabric

Klassisches Ethernet-Switching erfordert die Konfiguration aller Switch-Ports; hierzu zählen auch Policies wie QoS, VLAN-Verkehr oder Security. Solange ausschließlich physische Server mit dem Netzwerk verbunden sind (traditionelles Silo-Modell) ist diese Architektur ausreichend. Aber das schnelle Wachstum virtualisierter Server-Instanzen und aufkommende private Cloud Computing - Initiativen erfordern, dass immer mehr virtuelle Maschinen pro Switch-Port konfiguriert werden müssen.

Wenn jedoch auch nur eine oder mehrere virtuelle Maschinen z.B. für Load Balancing- oder Wartungszwecke migriert werden sollen (virtual machine mobility), muss die bisherige Port-Konfiguration jeweils zu dem neuen Netzwerk-Port verschoben werden oder die Migration ist fehlerhaft. Dies bedeutet manuelle Konfigurationseingriffe bzw. Skripting und steht damit einem pro-aktiven, automatisiertem Management der virtuellen Infrastrukturkomponenten kontraproduktiv entgegen.

Ethernet Fabrics (hier EF) auf Basis CEE ermöglichen hingegen den Austausch gemeinsamer Konfigurationsparameter innerhalb aller Switch-Ports der Fabric. In unserem Falle der Migration von virtuellen Maschinen sind die Netzwerk-Policies für die virtuelle Maschine bei jedem Switch-Port bereits vorhanden. Dies bedeutet, die Migration von VMs erfordert keine manuelle Änderungen an der Netzwerkkonfiguration: Die Konfigurations-Informationen werden immer zwischen allen Geräten getauscht.  Die neue Fabric identifiziert immer den kürzesten Loop-freien Weg und leitet Frames mit der jeweils möglichst geringsten Latenz weiter. Dies ist sehr hilfreich beim Storage I/O, denn hier sind hohe Latenzzeiten generell kritisch und können die Applikationsverfügbarkeit negativ beeinflussen.

Klassisches Ethernet wird bislang verwendet, um Loop-freie Pfade zu schaffen. Dafür bildet man einen logisch Switch-Baum, der hierarchisch aufgebaut ist. Selbst wenn mehrere Links für mehr Skalierbarkeit und Verfügbarkeit verbunden sind, kann jeweils nur ein Link bzw. LAG aktiv sein. Dies reduziert natürlich auch die Verfügbarkeit und Qualitiy-of-Service-Parameter: Wenn ein neuer Link hinzugefügt oder entfernt wird, ist der gesamte Netzwerk-Verkehr u.U. für Sekunden unterbrochen während ein neuer Loop-freier Baum konfiguriert wird... für den Storage-I/O-Traffic und virtual machine – Applikationen ist das sehr ungünstig und kann bei latency-sensitiven Anwendungen zum Servercrash führen.

Ethernet Fabrics nutzen als Alternative ein sog. „Link State-Multipath Routing“, welches immer den jeweils kürzesten Weg durch das Netzwerk erlaubt. Wenn ein Link hinzugefügt oder entfernt wird, ist sichergestellt, dass weiterhin der Verkehr zu anderen Links unterbrechungsfrei fließt. Die Link-Ausfallsicherheit bleibt gewährleistet und die maximale Auslastung aller Verbindungen zwischen Switches ohne manuelle Konfigurationsänderungen ist möglich.

Mehr Informationen zum Thema finden Sie hier:

http://ethernetfabric.com/2011/01/what-is-an-ethernet-fabric/

http://www.brocade.com/

http://www.ieee802.org/1/pages/dcbridges.html

http://www.cisco.com/en/US/netsol/ns783/index.html