Sie liegen gut verborgen in Unterböden oder Zwischendecken und werden oft vergessen. Dabei sind die Kupferkabel und Glasfaser die zentralen Informationskanäle in der vernetzen Arbeitswelt und Gesellschaft. Egal ob Voice over IP, Video on Demand, Echtzeitanwendungen für Verkauf und Produktion - ohne eine leistungsfähige Infrastruktur, die mittlerweile Daten im Gigabit-Tempo weitertransportieren muss, funktioniert nichts.
Vor diesem Hintergrund erscheint es unverständlich, warum gerade das Thema Verkabelung so stiefmütterlich behandelt wird. Aber vielleicht liegt es wirklich daran, dass die Kabel nicht sichtbar sind und sich viele IT-Entscheider darüber auch keine Gedanken mehr machen - denn schließlich werden Büroimmobilien heute ja mit passiver LAN-Infrastruktur vermietet. Diese Laissez faire Haltung rächt sich spätestens dann, wenn die Infrastruktur angesichts neuer Anforderungen wie 10 Gigabit Ethernet über Kupfer, IP-Multimedia-Services oder etwa Power over Ethernet schlapp macht, weil bei der Installation am falschen Ende gespart wurde. Grundsätzlich sollte eine Netzplanung so aussehen, dass die Kabel auch bei steigenden Anforderungen für die nächsten zehn bis 20 Jahre genügend Reserven bieten.
Planung beginnt im Rohbau
Dabei beginnt - was viele nicht wissen - aufgrund der deutschen Vorschriften eine solide Netzplanung schon vor dem Bau eines Bürogebäudes. Wer nämlich später, etwa bei 10 Gigabit Ethernet über Kupfer, geschirmte Kabel einsetzen will, muss die Schirmung mit dem Erdpotenzialausgleich des Gebäudes verbinden. Im Gegensatz zu früher genügt hierfür ein einziger Punkt nicht. Deshalb ist beispielsweise bereits beim Bau darauf zu achten, dass die Stahlmatten elektrisch miteinander verbunden (also etwa verschweißt) werden, um später möglichst viele Punkte für einen Potenzialausgleich errichten zu können.
Ebenfalls bereits im Rohbau wird der Grundstein für einen anderen Teil der Netzinfrastruktur gelegt - die Schächte für Steigleitungen. Entweder werden diese sehr geräumig konzipiert, oder es muss hier später zwangsläufig zur Glasfaser gegriffen werden. Da in diesem Bereich Geschwindigkeiten im Gigabit-Ethernet-Bereich genutzt werden, muss der Anwender nämlich die physikalischen Feinheiten der Hochfrequenztechnik berücksichtigen. Nur ein Beispiel: Bei 10-Gigabit-Ethernet, das auch über ungeschirmte Kabel realisierbar ist, treten bereits Frequenzen von bis zu 500 Megahertz auf. Entsprechend groß ist die Gefahr eines "alien crosstalk" (Übersprechens).
Deshalb schreiben die Verlegevorschriften auch einen ausreichend großen Abstand zwischen zwei 10-Gigabit-Ethernet-Kabeln vor. Das gilt auch gegenüber Starkstromkabeln, da diese häufig als Störer fungieren. So weit die Theorie - weil in der Praxis diese Anforderungen aufgrund der beengten Verhältnisse in den Steigschächten in der Regel nicht zu erfüllen sind, führt hier eigentlich kein Weg an Glasfasern vorbei. Apropos Kabelschächte: Im Alltag sind immer wieder schön geordnete Kabelbündel anzutreffen, bei denen die Ethernet-Kabel parallel zueinander geführt werden. Das sieht zwar ordentlich und strukturiert aus, ist aber hinsichtlich der Übertragungssicherheit kontraproduktiv. Um ein Übersprechen möglichst wirkungsvoll zu vermeiden, müssten die Kabel dieser Stränge eigentlich miteinander verseilt werden.
Die Lehre von Adern und Kabelpaaren
Ein anderer oft zu beobachtender Fehler betrifft die Nutzung der Kabel auf Etagenebene: Um Kosten zu sparen, wird ein zum Arbeitsplatz geführtes Ethernetkabel, das in der Regel aus vier Aderpaaren besteht, gleich für mehrere Dienste verwendet: Zwei Paare für das Ethernet, ein Paar für das Telefon und womöglich noch ein Paar zur Gebäudeautomation. Die Vorteile scheinen auf der Hand zu liegen. Es wird Kabel gespart, und in den Leitungskanälen entsteht keine drangvolle Enge, da nicht zwei oder drei Kabel pro Arbeitsplatz zu verlegen sind. Doch diese Sparsamkeit kann teuer werden, wenn eine Migration auf schnellere Ethernet-Standards ansteht. Während 10-Mbit/s-Ethernet noch über zwei Adernpaare definiert ist und für das 100 Mbit/s schnelle Ethernet mit 100Base-T2 sowie 100Base-TX noch zwei Normen für jeweils zwei Adernpaare existieren, erfordert bereits Gigabit Ethernet die Verwendung aller vier Paare.
Am falschen Ende spart auch, wer zu dünne Kabelquerschnitte wählt. Diese reichen zwar für Datenübertragungen via Ethernet aus, doch die Stunde der Wahrheit schlägt spätestens dann, wenn im Zuge eines VoIP- oder WLAN-Projekts die Einführung von Power over Ethernet (PoE) ansteht. Selbst wenn hier nur geringe Energiemengen (15,4 Watt bei 802.3af) übertragen werden und beim kommenden PoE-Standard 802.3at dann 60 Watt möglich sind, muss der Kabelquerschnitt groß genug sein, um eine Erwärmung der Kabel und damit eine mögliche Brandgefahr auszuschließen.
Stromsparen ist in, denn es dient nicht nur der Umwelt, sondern senkt auch die Kosten im Rechenzentrum. Doch während die Server mit viel Aufwand optimiert werden, holt sich mancher IT-Verantwortliche an anderer Stelle neue Stromfresser ins Haus - etwa mit 10-Gigabit-Ethernet über Kupfer. Die hierzu erforderliche Elektronik zum Beispiel für Fehlerkorrektur ist heute so leistungshungrig, dass sie nicht ohne Lüfter auskommt.
Das US-amerikanische Normierungsgremium IEEE arbeitet deshalb unter der Bezeichnung "IEEE 802.3az" an einer Erweiterung der Ethernet-Standards um das "Energy Efficient Ethernet". Die Idee dahinter ist, dass ein LAN-Port nur noch dann Strom verbraucht, wenn auch wirklich gerade Daten übertragen werden. Im Leerlauf sollte er einen Energiebedarf von annähernd null Watt aufweisen. Damit hält im LAN ein Gedanke Einzug, der im Carrier-Umfeld bei den DSL-Zugängen bereits verwirklicht ist: So verfügt ADSL2/2+ genau über eine solche Stromsparfunktion, die im DSL-Modem und im DSLAM den Energieverbrauch senkt, wenn keine Daten übertragen werden, die Geräte also in eine Art Schlafmodus schickt. Beim Energy Efficient Ethernet sollen nun die Daten in möglichst kurzer Zeit mit höchster Geschwindigkeit übertragen werden. Danach soll der Port in einen Schlafzustand verfallen, wo er fast keinen Strom verbraucht. Steht eine neue Übertragung an, werden die beteiligten Kommunikations-Ports mit einem Wecksignal wieder in den aktiven Übertragungsmodus versetzt. So viel versprechend der Energy-Efficient-Ethernet-Ansatz auch klingt, Branchenkenner rechnen erst 2010 mit einer Verabschiedung der IEEE-Norm 802.3az. Zudem müssen die Anwender hier erst einmal kräftig investieren. Energy Efficient Ethernet funktioniert nur, wenn beide Endpunkte einer Verbindung einem Upgrade unterzogen werden - also etwa ein Switch-Port und der Netzwerk-Port eines Rechners.
Alternative WLAN?
Vergesst die teure Verkabelung, nutzt einfach WLANs - die Empfehlung ist immer wieder zu hören, besonders wenn die Markteinführung einer neuen lokalen Funktechnik bevorsteht. Das war schon 2003 bei der Verabschiedung der 54 Mbit/s schnellen 802.11g-Technik der Fall, und so läuft es derzeit bei der Einführung des neuen IEEE-Standards 802.11n, der nun mit nutzbaren Datenraten auf Fast-Ethernet-Niveau aufwarten soll.
Entsprechend häufig ist nun wieder vor allem von US-amerikanischen WLAN-Propagandisten zu hören, dass der Anwender sich doch seine teure LAN-Kabelstruktur sparen könne, da er mit der Funktechnik nicht nur viel flexibler sei, sondern auch die Kosten reduziere. Eine Argumentationskette, die zwar auf amerikanische Verhältnisse, in Europa aber aus mehreren Gründen nur bedingt zutrifft:
Die europäische Massivbauweise kann die Ausbreitung von Funkwellen behindern,
in den dicht besiedelten Ballungsräumen stören sich die WLANs häufig gegenseitig,
ein Teil der Funkfrequenzen unterliegt Beschränkungen.
Zudem weist die WLAN-Technik per se einen größeren Protokoll-Overhead auf der Luftschnittstelle auf, um eine störungsfreie Übertragung sicherzustellen. Diese Gründe und die Tatsache, dass die kabelgebundenen LANs dem Funk in Sachen Geschwindigkeit (10 Gigabit Ethernet über Kupfer) immer eine Nase voraus sind, führt dazu, dass hierzulande die meisten Experten WLANs lediglich eine Overlay-Funktion zusprechen. Sie ergänzen also die klassische Infrastruktur, ersetzen diese aber nicht. Ein Alleinstellungsmerkmal wird dem Funk lediglich in Bereichen zugebilligt, wo eine klassische Verkabelung nicht oder nur mit hohem Kostenaufwand (etwa Gebäude unter Denkmalschutz) zu realisieren ist.
Zugegeben, die Frage nach dem Kabelquerschnitt oder die Diskussion darüber, ob nun eine verflochtene Abschirmung besser ist als eine Folienabschirmung, ist nicht sexy und selten geeignet, sich bei Manager-Kollegen Ansehen zu verschaffen. Dennoch sollte das Thema Kabel bei der strategischen IT-Planung nicht vergessen werden. Muss hier später nachgebessert werden, wird es schnell teuer, oder eine Migration auf neue Techniken ist womöglich verbaut.
Quelle: PC-Welt