Rechenzentren sorgen für funktionierende Netzwerke
Das Rechenzentrum ist das Herzstück eines jeden Unternehmensnetzwerks. Es ermöglicht die Übertragung, den Zugriff und die Speicherung großer Mengen von wichtigen Informationen.
Auf dieser Seite
- Was ist eine Rechenzentrumsverkabelung?
- Verkabelungsstandards für Rechenzentren
- Die wichtigsten Herausforderungen im Rechenzentrum
- Überlegungen zur Verkabelung von Rechenzentren
- Mehr erfahren
Was ist eine Rechenzentrumsverkabelung?
Hier verbindet die Rechenzentrumsverkabelung die LANs des Unternehmens mit Switches, Servern, SANs und anderen aktiven Geräten, die alle Anwendungen, Transaktionen und Kommunikationen unterstützen. Dort wird das LAN auch mit den Netzwerken des Service-Providers verbunden, die den Zugang zum Internet und anderen Netzwerken außerhalb der Anlage bereitstellen.
Verkabelungsstandards für Rechenzentren
Normen wie ANSI/TIA-942, ISO/IEC 24764 und ANSI/BICSI 002 enthalten Mindestempfehlungen für den Entwurf und die Bereitstellung von Rechenzentren, darunter Wege und Räume, Backbone- und horizontale Verkabelung, Redundanz und Verfügbarkeit, Kabelmanagement und Umweltaspekte.
Diese Normen umreißen auch bestimmte Funktionsbereiche des Rechenzentrums:
-
• Eingangsraum (ER): Der ER wird manchmal auch als Eingangsbereich bezeichnet und befindet sich innerhalb oder außerhalb des Rechenzentrums. Von hier aus gelangt der Dienst in das Rechenzentrum und bildet den Abgrenzungspunkt zu den Netzwerken der Service Provider und der Backbone-Verkabelung zu anderen Gebäuden in einer Campusumgebung.
-
• Hauptverteilungsbereich (Main Distribution Area, MDA): Als zentraler Verteilungspunkt beherbergt der (MDA) Core-Switches und Router für die Verbindung zu LANs, SANs und anderen Bereichen des Rechenzentrums sowie zu Telekommunikationsräumen (TRs), die sich in der gesamten Einrichtung befinden.
-
• Horizontale Verteilungsbereiche (Horizontal Distribution Areas, HDA): Der HDA ist der Verteilungspunkt für die Verbindung von Servern im Geräteverteilungsbereich (Equipment Distribution Area, EDA) mit Core-Switches im MDA. Die Glasfaser-Backbone-Uplink-Verkabelung vom MDA endet hier an Glasfaser-Patchpanels innerhalb von Cross-Connects oder Interconnects, die Aggregations- und Zugangs-Switches miteinander verbinden. Die meisten Rechenzentren enthalten zwar mindestens einen HDA, aber bei einer Top-of-Rack-Architektur (ToR), bei der die Zugangs-Switches direkt mit den Servern im selben Schrank verbunden sind, entfällt der HDA.
-
• Geräteverteilungsbereich (Equipment Distribution Area, EDA): Hier befinden sich die Server. Diese Server werden über horizontale Kabel, die an Kupfer- oder Glasfaser-Patchpanels angeschlossen sind, oder über direkte Verbindungen zu ToR-Switches im selben Schrank mit den Switches im HDA verbunden.
-
• Zwischenverteilbereiche (Intermediate Distribution Areas, IDA): Diese optionalen Bereiche, die manchmal auch als Zwischenverteiler bezeichnet werden, befinden sich in der Regel in größeren Rechenzentren mit mehreren Stockwerken oder Räumen, die Glasfaserverbindungen vom MDA über Aggregations-Switches an verschiedene HDAs und EDAs verteilen.
- • Zonenverteilungsbereich (Zone Distribution Area, ZDA): Diese optionalen Bereiche sind in der Regel nicht in Unternehmensrechenzentren zu finden. Der ZDA enthält keine aktiven Geräte, aber er kann als Konsolidierungspunkt innerhalb der horizontalen Verkabelung zwischen HDAs und EDAs dienen, um zukünftiges Wachstum und Rekonfigurationen zu erleichtern.
Dieses Diagramm aus dem TIA-942-Standard für Rechenzentren zeigt die verschiedenen Bereiche, die mit Backbone- (blau) und horizontaler (rot) Verkabelung verbunden sind.
Zentrale Herausforderungen für Rechenzentren
Das Rechenzentrum ist für den Betrieb eines Unternehmens unverzichtbar und beherbergt eine ständig wachsende Menge an unternehmenskritischen Geräten. Es gibt mehrere wichtige Überlegungen und Herausforderungen, um die Zuverlässigkeit und Leistung für aktuelle und zukünftige Anforderungen zu gewährleisten. Sehen wir uns einmal einige der wichtigeren an.
Wachstum und Skalierbarkeit
Da Unternehmen sich bemühen, in einer datengesteuerten Welt wettbewerbsfähig zu sein, entstehen immer mehr Cloud- und Colocation-Rechenzentren. Sie ermöglichen eine schnellere Bereitstellung neuer Systeme und Dienste, sodass Unternehmen schnell auf sich ändernde Anforderungen reagieren und ihre Kapazitäten erweitern können, ohne die unternehmenseigenen Rechenzentren aufrüsten zu müssen. Viele Unternehmen tendieren zu einem hybriden IT-Ansatz, bei dem sie einige IT-Ressourcen im eigenen Haus oder in einem sicheren Colocation-Rechenzentrum aufbewahren (vor allem, wenn sie die Kontrolle über ihre Daten behalten müssen) und andere in der Cloud lagern lassen. Cloud-Ressourcen nutzen Software-as-a-Service (SaaS), während Colocation-Rechenzentren in der Regel Infrastruktur-as-a-Service (IaaS) anbieten.
Redundanz und Verfügbarkeit
Redundanz bedeutet, dass doppelte Komponenten (z. B. Geräte, Verbindungen, Strom und Pfade) vorhanden sind, die die Funktionalität bei Ausfall einer der Komponenten sicherstellen. Sie wird oft über das „N“-System definiert, wobei „N“ die Baseline für die Anzahl von für das Funktionieren des Rechenzentrums erforderlichen Komponenten ist.
- ○ N+1-Redundanz bedeutet, dass eine Komponente mehr vorhanden ist, als für die Funktion benötigt wird.
- ○ 2N-Redundanz bedeutet, dass die doppelte Anzahl von Komponenten benötigt wird.
- ○ 2N+1-Redundanz ist die doppelte Menge, plus eins.
Die Stufen des Uptime Institute geben die „N“-Ebene an, die für die verschiedenen Ebenen der Rechenzentrum-Bereitschaft erforderlich sind. Das BICSI-002-Verfügbarkeitsklassensystem bezieht sich auch auf die N-Ebene.
Leistung, Kühlung und Effizienz
Mit dem verstärkten Fokus auf Nachhaltigkeit verfügt das Green Grid nun auch über eine Metrik zur Kohlenstoff-Nutzungseffizienz (Carbon Usage Effectiveness CUE), die die Menge an Treibhausgasemissionen (THG) bestimmt, die pro Einheit der in einem Rechenzentrum verbrauchten IT-Energie entsteht. Außerdem gibt es eine Metrik zur Wassernutzungseffizienz (Water Usage Effectiveness, WUE), die das Verhältnis zwischen dem im Rechenzentrum verbrauchten Wasser (für wasserbasierte Kühlung, Befeuchtung usw.) und dem Energieverbrauch der IT-Geräte misst.
Durch die Kühlung wird die Betriebstemperatur der Geräte auf einem akzeptablen Niveau gehalten und es werden Überhitzungen vermieden, die sich negativ auf die Lebensdauer und Zuverlässigkeit der Geräte auswirken könnten. ASHRAE empfiehlt einen Betriebstemperaturbereich von 18 bis 27 °C für Rechenzentren. Die Kühlung wirkt sich auf die Effizienz aus und macht 30 bis 50 % des gesamten Energieverbrauchs des Rechenzentrums aus.
- Wird verhindert, dass sich kalte Zuluft und heiße Abluft vermischen, erhöht dies die Rücklufttemperaturen, was die Effizienz der Kühlsysteme von Rechenzentren verbessert und eine Überversorgung mit stromfressenden Klimaanlagen verhindert.
- ○ Die Verwendung einer Warmgang-/Kaltgangkonfiguration im Rechenzentrum ist eine passive Methode, um die Vermischung von heißer und kalter Luft zu verhindern. Dabei werden die Schrankreihen so angeordnet, dass die Kaltluftzufuhr an der Vorderseite der Geräte optimiert wird und die Warmluft von der Rückseite der Geräte zum Kühlungsrücklaufsystem abgeleitet wird.
Angesichts der höheren Verarbeitungsleistung und Wärmeentwicklung benötigen einige Rechenzentren effektivere Methoden, um die Vermischung von heißer und kalter Luft zu verhindern.
- Passive Einhausungssysteme isolieren heiße und kalte Gänge vollständig. Dabei werden obere Abdeckungen verwendet, um den kalten Gang vom Rest des Rechenzentrums zu isolieren („Kaltgangeinhausung“), oder vertikale Abdeckungen, um den warmen Gang zu isolieren und die heißen Abgase in das überirdische Rückführungsplenum zurückzuführen („Warmgangeinhausung“). Einhausungssysteme können auch aktiv sein und mit Hilfe von Ventilatoren heiße Luft aus dem Schrank in den Warmgang ziehen.
- ○ Einige High-Performance-Computing-Umgebungen (z. B. Hyperscale-Rechenzentren) mit extrem hoher Leistungsdichte setzen auf Flüssigkeitskühlungslösungen zur besseren Wärmeableitung. Zu diesen Lösungen gehören Wärmetauscher an der Hintertür, die die heiße Abluft kühlen, während sie über flüssigkeitsgefüllte Spulen an der Rückseite des Geräteschranks strömt, Flüssigkeitstauchsysteme, die die Geräte mit Kühlmittel umgeben, das durch einen Kühlwasserkreislauf zirkuliert, und Kühlplatten oder direkte Chipkühlung, bei der das Kühlmittel zu kleinen Kühlplatten gepumpt wird, die direkt an den wärmeerzeugenden Komponenten der Geräte, wie z. B. CPUs, angebracht werden.
Überlegungen zur Verkabelung von Rechenzentren
Unabhängig von der Größe und Art des Rechenzentrums, der Switching-Topologie und den Anwendungen ist die zugrundeliegende Verkabelungsinfrastruktur entscheidend für die Gewährleistung zuverlässiger Verbindungen mit hoher Bandbreite, die für die Verbindung von Rechenzentrumsgeräten in verschiedenen Funktionsbereichen erforderlich sind. Bei der Verkabelung von Rechenzentren gibt es verschiedene Überlegungen.
Kabelmanagement
- ○ Die Verlegung von Kabeln mit hoher Dichte über Kopf ist eine Strategie zur Vermeidung von Kabelstaus in Unterflurkanälen, die die Bewegung der kalten Luft blockieren können.
- ○ Innerhalb des Schranks helfen horizontale und vertikale Kabelmanagementlösungen dabei, die Kabel in und um die Geräte herum ordnungsgemäß zu verlegen und zu organisieren, um einen ordnungsgemäßen Luftstrom zu gewährleisten.
- ○ Eine Lösung für Kupferkabel, die größer als Glasfaserkabel sind und den Luftstrom stärker blockieren können, ist die Verwendung von Kupfer-Patchkabeln mit geringerer Stärke.
- ○ Die horizontale und vertikale Kabelführung ist entscheidend für die Einhaltung des richtigen Biegeradius und der Zugentlastung. Das Überschreiten des Biegeradius von Kabeln und die Belastung der Kabel können die Leistung beeinträchtigen oder zu nicht funktionierenden Verbindungen führen.
Kabeltest
- ○ Die Backbone-Verkabelungsverbindungen zwischen ER, MDA und HDA bestehen fast immer aus Singlemode- und Multimode-Glasfaser.
- ○ Die horizontale Verkabelung zwischen dem HDA und dem EDA („Switch-zu-Server-Verbindungen“) besteht aus Kupferverbindungen der Kategorie 6A oder höher oder aus Multimode-Glasfaser.
- ○ Wenn der EDA eine ToR-Konfiguration verwendet, werden für diese Verbindungen häufig SFP+ oder SFP28 Twinax-Direktanschlusskabel (DACs) verwendet. Beim Testen von SFP/QSFPs-Modulen müssen Sie überprüfen, ob die Stromversorgung ordnungsgemäß funktioniert. Wenn Sie mehr darüber erfahren möchten, was in den einzelnen Funktionsbereichen des Rechenzentrums typischerweise getestet wird, laden Sie unser kostenloses White Paper Im Rechenzentrum – wo und was prüfe ich? herunter.
Glasfaser-Dämpfungsbudgets
Industriestandards geben die für eine ordnungsgemäße Funktion von Glasfaseranwendungen zulässige Menge an Einfügedämpfung vor, und Anwendungen mit höheren Geschwindigkeiten, wie 40GBASE-SR4 und 100GBASE-SR4, haben viel strengere Anforderungen bezüglich Einfügedämpfung.
Rechenzentren berechnen ihre Glasfaser-Dämpfungsbudgets basierend auf den Entfernungen zwischen den funktionellen Bereichen und der Anzahl an daran liegenden Verbindungspunkten, um sicherzustellen, dass die Anforderungen eingehalten werden. Um das Glasfaser-Dämpfungsbudget genau bestimmen zu können, müssen Sie die Einfügedämpfungswerte der Kabel und Anschlüsse bestimmter Hersteller kennen.
Bei der grundlegenden Glasfaserprüfung (Tier-1-Zertifizierung) wird die Einfügedämpfung der gesamten Glasfaserverbindung in Dezibel (dB) mit einem Messgerät zur Ermittlung der optischen Dämpfung (Optical Loss Test Set, OLTS) gemessen. Kabelhersteller verlangen fast immer eine Tier-1-Zertifizierung, um eine Systemgarantie zu erhalten. In einigen Fällen kann auch eine Tier-2-Zertifizierung mit einem optischen Zeitbereichsreflektometer (Optical Time Domain Reflectometer, OTDR) erforderlich sein, das Aufschluss über den Verlust an bestimmten Verbindungspunkten und im Kabel gibt. Die Verwendung eines OTDR gefolgt von einem OLTS bietet eine vollständige Teststrategie, die die gesamte Verbindung charakterisiert und die genaueste Prüfung der Einfügedämpfung gewährleistet.
Die Fähigkeit, im Rahmen des Einfügedämpfungsbudgets für Glasfaser zu bleiben, ist auch in hohem Maße abhängig von der Reinlichkeit der Faserendflächen, da Verschmutzungen weiterhin der Hauptgrund für von Glasfaser verursachte Probleme und Testausfälle bleiben. Sogar das kleinste Teilchen auf dem Kern einer Faserendfläche kann zu Dämpfung und Reflexionen führen, die die Leistung beeinträchtigen. Reinigung und Inspektion sind daher die Hauptschritte bei Rechenzentrum-Glasfaseranschlüssen.
MPO-Verkabelung und -Konnektivität
Das Testen von MPO-Verkabelungsstrecken mit einem MPO-fähigen Glasfasertester wird empfohlen, um Zeit zu sparen, die Komplexität zu beseitigen und die Genauigkeit zu verbessern.
Damit die Verbindungen in Rechenzentren funktionieren, müssen sie die richtige Polarität beibehalten, sodass das Sendesignal an einem Ende der Verbindung mit dem entsprechenden Empfänger am anderen Ende übereinstimmt. Die Sicherstellung der korrekten Faserpolarität kann bei MPO-Verbindungen komplexer sein, da mehrere Sende- und Empfangsfasern korrekt übereinstimmen müssen. MPO-Kabeltester, die auf korrekte Polarität prüfen, können dazu beitragen, Polaritätsfehler zu beseitigen.
Mehr erfahren
- • Messen am Rande des Möglichen
- • Singlemode-Faser ist im Kommen. Sind Sie bereit?
- • Das ABC der Glasfaser-Polarität
- • Der Weg zu 200 und 400 Gig ist bereits gepflastert (und befahren)
- • Testen in den Rechenzentrum-Bereichen
- • Die Geheimnisse der 28 AWG-Patchkabel
- • Design und Einsatzgrenzen
- • Querverbindungen im Rechenzentrum u. Zwischenverbindungen
- • Bandbreite und Datenraten
- • Der Aufstieg des Hyperscale-Rechenzentrums
- • RJ-45: Ein Standbein im Rechenzentrum
- • Verkabelung mit MPO-Steckern testen – was gibt es Neues?
- • Vorteile der Verwendung von 8-Faser-Plug & Play MPO-Lösungen