Verkabelung von Rechenzentren

Rechenzentren sorgen für funktionierende Netzwerke

Das Rechenzentrum ist das Herzstück eines jeden Unternehmensnetzwerks. Es ermöglicht die Übertragung, den Zugriff und die Speicherung großer Mengen von wichtigen Informationen.

 

Auf dieser Seite

 

Was ist eine Rechenzentrumsverkabelung?

Hier verbindet die Rechenzentrumsverkabelung die LANs des Unternehmens mit Switches, Servern, SANs und anderen aktiven Geräten, die alle Anwendungen, Transaktionen und Kommunikationen unterstützen. Dort wird das LAN auch mit den Netzwerken des Service-Providers verbunden, die den Zugang zum Internet und anderen Netzwerken außerhalb der Anlage bereitstellen.

 

Verkabelungsstandards für Rechenzentren

Normen wie ANSI/TIA-942, ISO/IEC 24764 und ANSI/BICSI 002 enthalten Mindestempfehlungen für den Entwurf und die Bereitstellung von Rechenzentren, darunter Wege und Räume, Backbone- und horizontale Verkabelung, Redundanz und Verfügbarkeit, Kabelmanagement und Umweltaspekte.

Diese Normen umreißen auch bestimmte Funktionsbereiche des Rechenzentrums:
 

  • • Eingangsraum (ER): Der ER wird manchmal auch als Eingangsbereich bezeichnet und befindet sich innerhalb oder außerhalb des Rechenzentrums. Von hier aus gelangt der Dienst in das Rechenzentrum und bildet den Abgrenzungspunkt zu den Netzwerken der Service Provider und der Backbone-Verkabelung zu anderen Gebäuden in einer Campusumgebung.
     
  • • Hauptverteilungsbereich (Main Distribution Area, MDA): Als zentraler Verteilungspunkt beherbergt der (MDA) Core-Switches und Router für die Verbindung zu LANs, SANs und anderen Bereichen des Rechenzentrums sowie zu Telekommunikationsräumen (TRs), die sich in der gesamten Einrichtung befinden.
     
  • • Horizontale Verteilungsbereiche (Horizontal Distribution Areas, HDA): Der HDA ist der Verteilungspunkt für die Verbindung von Servern im Geräteverteilungsbereich (Equipment Distribution Area, EDA) mit Core-Switches im MDA. Die Glasfaser-Backbone-Uplink-Verkabelung vom MDA endet hier an Glasfaser-Patchpanels innerhalb von Cross-Connects oder Interconnects, die Aggregations- und Zugangs-Switches miteinander verbinden. Die meisten Rechenzentren enthalten zwar mindestens einen HDA, aber bei einer Top-of-Rack-Architektur (ToR), bei der die Zugangs-Switches direkt mit den Servern im selben Schrank verbunden sind, entfällt der HDA.
     
  • • Geräteverteilungsbereich (Equipment Distribution Area, EDA): Hier befinden sich die Server. Diese Server werden über horizontale Kabel, die an Kupfer- oder Glasfaser-Patchpanels angeschlossen sind, oder über direkte Verbindungen zu ToR-Switches im selben Schrank mit den Switches im HDA verbunden.
     
  • • Zwischenverteilbereiche (Intermediate Distribution Areas, IDA): Diese optionalen Bereiche, die manchmal auch als Zwischenverteiler bezeichnet werden, befinden sich in der Regel in größeren Rechenzentren mit mehreren Stockwerken oder Räumen, die Glasfaserverbindungen vom MDA über Aggregations-Switches an verschiedene HDAs und EDAs verteilen.
     
  • • Zonenverteilungsbereich (Zone Distribution Area, ZDA): Diese optionalen Bereiche sind in der Regel nicht in Unternehmensrechenzentren zu finden. Der ZDA enthält keine aktiven Geräte, aber er kann als Konsolidierungspunkt innerhalb der horizontalen Verkabelung zwischen HDAs und EDAs dienen, um zukünftiges Wachstum und Rekonfigurationen zu erleichtern.

Dieses Diagramm aus dem TIA-942-Standard für Rechenzentren zeigt die verschiedenen Bereiche, die mit Backbone- (blau) und horizontaler (rot) Verkabelung verbunden sind.

 

Zentrale Herausforderungen für Rechenzentren

Das Rechenzentrum ist für den Betrieb eines Unternehmens unverzichtbar und beherbergt eine ständig wachsende Menge an unternehmenskritischen Geräten. Es gibt mehrere wichtige Überlegungen und Herausforderungen, um die Zuverlässigkeit und Leistung für aktuelle und zukünftige Anforderungen zu gewährleisten. Sehen wir uns einmal einige der wichtigeren an.

 

Wachstum und Skalierbarkeit

Da die Menge an Informationen und Anwendungen wächst, müssen Rechenzentren ihre Kapazität erweitern, um mehr aktive Geräte und Verbindungen als je zuvor unterzubringen. Gleichzeitig müssen sie eine Datenübertragung mit hoher Bandbreite und geringer Latenzzeit zu und von den Geräten ermöglichen. Ein gut konzipiertes Rechenzentrum maximiert den Platz für Wachstum und Skalierbarkeit und sorgt für überschaubare Verkabelungswege, verbesserte Effizienz und Schutz der Gesamtleistung, Zuverlässigkeit und Ausfallsicherheit.

Da Unternehmen sich bemühen, in einer datengesteuerten Welt wettbewerbsfähig zu sein, entstehen immer mehr Cloud- und Colocation-Rechenzentren. Sie ermöglichen eine schnellere Bereitstellung neuer Systeme und Dienste, sodass Unternehmen schnell auf sich ändernde Anforderungen reagieren und ihre Kapazitäten erweitern können, ohne die unternehmenseigenen Rechenzentren aufrüsten zu müssen. Viele Unternehmen tendieren zu einem hybriden IT-Ansatz, bei dem sie einige IT-Ressourcen im eigenen Haus oder in einem sicheren Colocation-Rechenzentrum aufbewahren (vor allem, wenn sie die Kontrolle über ihre Daten behalten müssen) und andere in der Cloud lagern lassen. Cloud-Ressourcen nutzen Software-as-a-Service (SaaS), während Colocation-Rechenzentren in der Regel Infrastruktur-as-a-Service (IaaS) anbieten.

 

Redundanz und Verfügbarkeit

Die Zuverlässigkeit von Rechenzentren basiert in erster Linie auf Verfügbarkeit (Betriebszeit) und Redundanz (Duplizierung).

Redundanz bedeutet, dass doppelte Komponenten (z. B. Geräte, Verbindungen, Strom und Pfade) vorhanden sind, die die Funktionalität bei Ausfall einer der Komponenten sicherstellen. Sie wird oft über das „N“-System definiert, wobei „N“ die Baseline für die Anzahl von für das Funktionieren des Rechenzentrums erforderlichen Komponenten ist.

  • ○ N+1-Redundanz bedeutet, dass eine Komponente mehr vorhanden ist, als für die Funktion benötigt wird.
  • ○ 2N-Redundanz bedeutet, dass die doppelte Anzahl von Komponenten benötigt wird.
  • ○ 2N+1-Redundanz ist die doppelte Menge, plus eins.

Die Stufen des Uptime Institute geben die „N“-Ebene an, die für die verschiedenen Ebenen der Rechenzentrum-Bereitschaft erforderlich sind. Das BICSI-002-Verfügbarkeitsklassensystem bezieht sich auch auf die N-Ebene.

 

Leistung, Kühlung und Effizienz

Der Energieverbrauch ist angesichts der hohen Stromkosten, die für die moderne Datenverarbeitung in Rechenzentren erforderlich sind, eine der größten Herausforderungen im Rechenzentrum. Manager von Rechenzentren haben daher die Aufgabe, durch Effizienz die Betriebskosten zu senken und sie verwenden oft die Green Grid PUE-Metrik (Power Usage Effectiveness), um sicherzustellen, dass die Geräte den Strom, der in das Rechenzentrum gelangt, effizient nutzen.

Mit dem verstärkten Fokus auf Nachhaltigkeit verfügt das Green Grid nun auch über eine Metrik zur Kohlenstoff-Nutzungseffizienz (Carbon Usage Effectiveness CUE), die die Menge an Treibhausgasemissionen (THG) bestimmt, die pro Einheit der in einem Rechenzentrum verbrauchten IT-Energie entsteht. Außerdem gibt es eine Metrik zur Wassernutzungseffizienz (Water Usage Effectiveness, WUE), die das Verhältnis zwischen dem im Rechenzentrum verbrauchten Wasser (für wasserbasierte Kühlung, Befeuchtung usw.) und dem Energieverbrauch der IT-Geräte misst.

Durch die Kühlung wird die Betriebstemperatur der Geräte auf einem akzeptablen Niveau gehalten und es werden Überhitzungen vermieden, die sich negativ auf die Lebensdauer und Zuverlässigkeit der Geräte auswirken könnten. ASHRAE empfiehlt einen Betriebstemperaturbereich von 18 bis 27 °C für Rechenzentren. Die Kühlung wirkt sich auf die Effizienz aus und macht 30 bis 50 % des gesamten Energieverbrauchs des Rechenzentrums aus.

  • Wird verhindert, dass sich kalte Zuluft und heiße Abluft vermischen, erhöht dies die Rücklufttemperaturen, was die Effizienz der Kühlsysteme von Rechenzentren verbessert und eine Überversorgung mit stromfressenden Klimaanlagen verhindert.
  • ○ Die Verwendung einer Warmgang-/Kaltgangkonfiguration im Rechenzentrum ist eine passive Methode, um die Vermischung von heißer und kalter Luft zu verhindern. Dabei werden die Schrankreihen so angeordnet, dass die Kaltluftzufuhr an der Vorderseite der Geräte optimiert wird und die Warmluft von der Rückseite der Geräte zum Kühlungsrücklaufsystem abgeleitet wird.

Angesichts der höheren Verarbeitungsleistung und Wärmeentwicklung benötigen einige Rechenzentren effektivere Methoden, um die Vermischung von heißer und kalter Luft zu verhindern.

  • Passive Einhausungssysteme isolieren heiße und kalte Gänge vollständig. Dabei werden obere Abdeckungen verwendet, um den kalten Gang vom Rest des Rechenzentrums zu isolieren („Kaltgangeinhausung“), oder vertikale Abdeckungen, um den warmen Gang zu isolieren und die heißen Abgase in das überirdische Rückführungsplenum zurückzuführen („Warmgangeinhausung“). Einhausungssysteme können auch aktiv sein und mit Hilfe von Ventilatoren heiße Luft aus dem Schrank in den Warmgang ziehen.
  • ○ Einige High-Performance-Computing-Umgebungen (z. B. Hyperscale-Rechenzentren) mit extrem hoher Leistungsdichte setzen auf Flüssigkeitskühlungslösungen zur besseren Wärmeableitung. Zu diesen Lösungen gehören Wärmetauscher an der Hintertür, die die heiße Abluft kühlen, während sie über flüssigkeitsgefüllte Spulen an der Rückseite des Geräteschranks strömt, Flüssigkeitstauchsysteme, die die Geräte mit Kühlmittel umgeben, das durch einen Kühlwasserkreislauf zirkuliert, und Kühlplatten oder direkte Chipkühlung, bei der das Kühlmittel zu kleinen Kühlplatten gepumpt wird, die direkt an den wärmeerzeugenden Komponenten der Geräte, wie z. B. CPUs, angebracht werden.

 

Überlegungen zur Verkabelung von Rechenzentren

Unabhängig von der Größe und Art des Rechenzentrums, der Switching-Topologie und den Anwendungen ist die zugrundeliegende Verkabelungsinfrastruktur entscheidend für die Gewährleistung zuverlässiger Verbindungen mit hoher Bandbreite, die für die Verbindung von Rechenzentrumsgeräten in verschiedenen Funktionsbereichen erforderlich sind. Bei der Verkabelung von Rechenzentren gibt es verschiedene Überlegungen.

 

Kabelmanagement

Eine überlastete, nicht verwaltete Verkabelung in den Gängen und Schränken kann im Rechenzentrum verheerende Folgen haben, da sie die ordnungsgemäße Beförderung der kalten Luft zum Geräteeingang oder der heißen Luft aus der Abluft verhindert. Sie kann auch Kabelschäden verursachen, das Wachstum behindern und Routinebewegungen, -zusätze und -änderungen erheblich behindern.
  • ○ Die Verlegung von Kabeln mit hoher Dichte über Kopf ist eine Strategie zur Vermeidung von Kabelstaus in Unterflurkanälen, die die Bewegung der kalten Luft blockieren können.
  • ○ Innerhalb des Schranks helfen horizontale und vertikale Kabelmanagementlösungen dabei, die Kabel in und um die Geräte herum ordnungsgemäß zu verlegen und zu organisieren, um einen ordnungsgemäßen Luftstrom zu gewährleisten.
  • ○ Eine Lösung für Kupferkabel, die größer als Glasfaserkabel sind und den Luftstrom stärker blockieren können, ist die Verwendung von Kupfer-Patchkabeln mit geringerer Stärke.
  • ○ Die horizontale und vertikale Kabelführung ist entscheidend für die Einhaltung des richtigen Biegeradius und der Zugentlastung. Das Überschreiten des Biegeradius von Kabeln und die Belastung der Kabel können die Leistung beeinträchtigen oder zu nicht funktionierenden Verbindungen führen.

 

Kabeltest

In jedem Funktionsbereich des Rechenzentrums, der über Backbone- oder horizontale Verkabelung verbunden ist, gibt es eine Vielzahl von Verkabelungsmedien für verschiedene Anwendungen, die getestet werden müssen.
  • ○ Die Backbone-Verkabelungsverbindungen zwischen ER, MDA und HDA bestehen fast immer aus Singlemode- und Multimode-Glasfaser.
  • ○ Die horizontale Verkabelung zwischen dem HDA und dem EDA („Switch-zu-Server-Verbindungen“) besteht aus Kupferverbindungen der Kategorie 6A oder höher oder aus Multimode-Glasfaser.
  • ○ Wenn der EDA eine ToR-Konfiguration verwendet, werden für diese Verbindungen häufig SFP+ oder SFP28 Twinax-Direktanschlusskabel (DACs) verwendet. Beim Testen von SFP/QSFPs-Modulen müssen Sie überprüfen, ob die Stromversorgung ordnungsgemäß funktioniert. Wenn Sie mehr darüber erfahren möchten, was in den einzelnen Funktionsbereichen des Rechenzentrums typischerweise getestet wird, laden Sie unser kostenloses White Paper Im Rechenzentrum – wo und was prüfe ich? herunter.

 

Glasfaser-Dämpfungsbudgets

Die Einfügedämpfung ist die Energiemenge, die ein Signal auf dem Weg durch eine Kabelverbindung verliert (Dämpfung), sowie der Verlust, der durch jeden Verbindungspunkt (z. B. Verbindungen und Spleiße) entsteht. Während die Einfügedämpfung ein Leistungsparameter für Kupferkabelsystem ist, ist sie der Hauptleistungsparameter für Faseroptiksysteme.

Industriestandards geben die für eine ordnungsgemäße Funktion von Glasfaseranwendungen zulässige Menge an Einfügedämpfung vor, und Anwendungen mit höheren Geschwindigkeiten, wie 40GBASE-SR4 und 100GBASE-SR4, haben viel strengere Anforderungen bezüglich Einfügedämpfung.

Rechenzentren berechnen ihre Glasfaser-Dämpfungsbudgets basierend auf den Entfernungen zwischen den funktionellen Bereichen und der Anzahl an daran liegenden Verbindungspunkten, um sicherzustellen, dass die Anforderungen eingehalten werden. Um das Glasfaser-Dämpfungsbudget genau bestimmen zu können, müssen Sie die Einfügedämpfungswerte der Kabel und Anschlüsse bestimmter Hersteller kennen.

Bei der grundlegenden Glasfaserprüfung (Tier-1-Zertifizierung) wird die Einfügedämpfung der gesamten Glasfaserverbindung in Dezibel (dB) mit einem Messgerät zur Ermittlung der optischen Dämpfung (Optical Loss Test Set, OLTS) gemessen. Kabelhersteller verlangen fast immer eine Tier-1-Zertifizierung, um eine Systemgarantie zu erhalten. In einigen Fällen kann auch eine Tier-2-Zertifizierung mit einem optischen Zeitbereichsreflektometer (Optical Time Domain Reflectometer, OTDR) erforderlich sein, das Aufschluss über den Verlust an bestimmten Verbindungspunkten und im Kabel gibt. Die Verwendung eines OTDR gefolgt von einem OLTS bietet eine vollständige Teststrategie, die die gesamte Verbindung charakterisiert und die genaueste Prüfung der Einfügedämpfung gewährleistet.

Die Fähigkeit, im Rahmen des Einfügedämpfungsbudgets für Glasfaser zu bleiben, ist auch in hohem Maße abhängig von der Reinlichkeit der Faserendflächen, da Verschmutzungen weiterhin der Hauptgrund für von Glasfaser verursachte Probleme und Testausfälle bleiben. Sogar das kleinste Teilchen auf dem Kern einer Faserendfläche kann zu Dämpfung und Reflexionen führen, die die Leistung beeinträchtigen. Reinigung und Inspektion sind daher die Hauptschritte bei Rechenzentrum-Glasfaseranschlüssen.

 

MPO-Verkabelung und -Konnektivität

Im Rechenzentrum ist es üblich, Multifaser-Push-On-Verkabelung (MPO) und Konnektivität zu verwenden. MPOs werden für verschiedene Multimode- und Singlemode-Glasfaseranwendungen mit hoher Bandbreite benötigt, die parallele Optiken zum Senden und Empfangen über mehrere Fasern verwenden. Sie werden auch häufig in Duplex-Anwendungen für die Trunk-Verkabelung zwischen Patchfeldern eingesetzt, um Platz und Material zu sparen.

Das Testen von MPO-Verkabelungsstrecken mit einem MPO-fähigen Glasfasertester wird empfohlen, um Zeit zu sparen, die Komplexität zu beseitigen und die Genauigkeit zu verbessern.

Damit die Verbindungen in Rechenzentren funktionieren, müssen sie die richtige Polarität beibehalten, sodass das Sendesignal an einem Ende der Verbindung mit dem entsprechenden Empfänger am anderen Ende übereinstimmt. Die Sicherstellung der korrekten Faserpolarität kann bei MPO-Verbindungen komplexer sein, da mehrere Sende- und Empfangsfasern korrekt übereinstimmen müssen. MPO-Kabeltester, die auf korrekte Polarität prüfen, können dazu beitragen, Polaritätsfehler zu beseitigen.

 

Mehr erfahren