logo

Newsdetails

29.02.2012
RZ-Infrastruktur
Von: Siegfried Dannehl

Energieeffiziente Konsolidierungsmaßnahmen

Rechenzentrum als Baustelle

Die Welt der unternehmensinternen Rechenzentren befindet sich im Umbruch. Auf dem Weg zu einer umfassenden Konsolidierung stoßen IT-Verantwortliche neben rein technologischen Aspekten schnell auf grundsätzliche Erwägungen: Welche IT-Infrastrukturkomponenten und -services müssen unbedingt unter eigener Kontrolle im Unternehmen verbleiben? Welche Teile der IT-Infrastruktur können an externe Dienstleistungsrechenzentren ausgelagert bzw. welche Managed Services oder Cloud-Angebote von dort bezogen werden?


Analog zum ungebremst wachsenden digitalen Informations- und Kommunikationsaufkommen ist der Stellenwert, den Rechenzentren bei der Abwicklung von Geschäftsprozessen einnehmen, stetig gestiegen. „Data Center sind mehr als Verwaltung, Organisation und Speicherung von Daten, sie bilden das Rückgrat der Unternehmens-IT. Sämtliche für ein Unternehmen, dessen Kunden und Mitarbeiter relevante Daten werden dort bereitgestellt und verarbeitet“, erläutert Cebit-Chef Frank Pörschmann. Schwergewichtige Gründe, um diesem Thema unter dem Titel „Professional Data Center“ auf der diesjährigen Messe in Hannover eine Sonderschau zu widmen. Das Themen- und Ausstellungsspektrum reicht von Virtualisierung und Cloud Computing, Konsolidierung und Consulting über Energieversorgung, IT- und physischer Sicherheit bis zum automatisierten Informationsaustausch mittels Machine-to-Machine-Lösungen (M2M).

„Viele IT-Verantwortliche sind sich darüber im Klaren, dass sich Nachhaltigkeit durchaus wirtschaftlich auszahlen kann. Doch für Energiespar- bzw. Effizienzmaßnahmen muss ein solider Geschäftsfall für eine Wirtschaftlichkeitsbetrachtung her“, stellt Wolfgang Schwab, Senior Advisor & Program Manager Efficient Infrastructure bei der Experton Group, fest. Nachhaltigkeitsinitiativen betreffen den effizienten Einsatz von Rohstoffen und Wasser sowie den Umgang mit anfallenden Abfallprodukten, wobei der Hauptfokus auf der effizienten Energienutzung liegt. Im Rahmen solcher Initiativen geht es in der IT-Abteilung um die Rückgewinnung, das Recycling, die Reduktion, Beseitigung, Wiederverwendung und Entsorgung von Produkten, die direkt oder indirekt im Rechenzentrum bzw. von anderen IT-Ressourcen verbraucht werden.

Bei den meisten Investitionen in umweltfreundlichere Technologien, die die Betriebskosten senken sollen, ist nach Erfahrung von Wolfgang Schwab allerdings nach wie vor eine Amortisierung innerhalb von höchstens einem Jahr gefordert, damit die benötigten Gelder auch wirklich bewilligt werden. Durch die hohen Energiekosten steigt der Druck, die so genannte Power Usage Effectiveness (PUE), den international anerkannten Messwert für die Energieeffizienz von Rechenzentren, zu verbessern und entsprechend mehr und mehr Server, Speichertechnologie und diverse Virtualisierungstechnologien einzusetzen, die diesen Energieeffizienzwert erhöhen können.

Der Nutzungsgrad von Virtualisierungslösungen im Serverumfeld ist noch nicht hoch genug. Auch beim Thema Storage hapert es: In den meisten Unternehmen wurden hochmoderne Technologien wie Deduplizierung, Thin Provisioning, Datenkompression und Verschlüsselung noch nicht implementiert. Eine weitere „Baustelle“ liegt im Bereich der Business-Continuity-Lösungen. Auch hier ist nach Ansicht von Experten ein Update dringend erforderlich.

Kleine Schritte, große Wirkung

Dass bereits kleinere Initiativen erhebliche Verbesserungen in der ITK-Umgebung bewirken können – so es die richtigen sind, belegt eine aktuelle Untersuchung von IDC. „Es muss nicht immer der große Rundumschlag sein“, unterstreicht Thomas Meyer, Vice President EMEA Systems and Infrastructure Solutions beim Marktforschungs- und Beratungsunternehmen. So können laut der Ergebnisse der Studie durch den Einsatz von Automatisierung, Virtualisierung und Systemmanagement die Ausfallzeiten um bis zu 30 Prozent reduziert und die Einführung neuer Anwendungen um bis zu 40 Prozent beschleunigt werden. Ein besonderes Augenmerk sollten IT-Verantwortliche zudem auf die Implementierung moderner Speichermethoden legen. Der Einsatz von mehrstufigen Storage-Umgebungen, einheitlichen Werkzeugen, automatisiertem Backup und dergleichen kann dabei helfen, die Zahl der Probleme in virtualisierten Umgebungen zu minimieren. IDC stellte fest, dass es eine enge Verbindung zwischen der Gesamtleistung eines Rechenzentrums und der Sensibilität bezüglich Storage-Fragen gibt. Die Analysten schätzen, dass ein modernes Speicher-Backend die Wartezeiten je nach Anwendung um bis zu 20 Prozent senken kann. I/O-intensive Data-Warehouse-Workloads können nach den Erfahrungen der Unternehmensberater Verbesserungen im Bereich von 30 Prozent erzielen.

Chancen für Anbieter und Experten

Das Wissen zur Umsetzung der notwendigen Maßnahmen zur effizienten RZ-Konsolidierung, steckt nach Ansicht von Marktbeobachtern insbesondere bei kleinen und mittelständischen Betrieben allerdings noch in den Kinderschuhen. Unternehmen erkennen zunehmend, dass ein Bedarf an erfahrenen Rechenzentrums- und Cloud-Architekten besteht. Hardwarehersteller und Systemintegratoren haben die bestehenden Defizite sowohl hinsichtlich moderner Rechenzentrumsinfrastruktur als auch hinsichtlich des fehlenden Know-hows erkannt und bemühen sich, diese neuen Umsatzpotentiale zu erschließen. Auch für den RZ-Spezialisten Rittal spielt das diesjährige Cebit-Leitthema „Managing Trust“ bei seinem Messeauftritt eine wichtige Rolle. „Für uns bedeutet ‚Managing Trust‘ die umfassende Sicherheit der Infrastruktur in Rechenzentren. Dabei liegt unser Fokus einerseits auf dem physikalischen Schutz der Komponenten beispielsweise durch Racks, Safes oder Sicherheitsräume. Andererseits sorgt die intelligente Absicherung mit unserer Sensorik und Monitoring-Software für nachhaltige Verfügbarkeit. Mit unserem durchgehenden IT-System decken wir dabei wesentliche Sicherheitsaspekte in traditionellen, aber auch in Cloud-Rechenzentren ab“, betont Christoph Caselitz, Chief of Customers Operations (CCO) bei Rittal.

„Big Data“ wird zum „Big Problem“

Offenbar sehen viele Rechenzentrumsbetreiber in Deutschland die Notwendigkeit, die Entwicklung ihrer IT-Infrastrukturen voranzutreiben. Zu diesem Ergebnis kommt der von Oracle in Auftrag gegebene und im Januar 2012 veröffentlichte weltweite „Next Generation Data Center Index“. Demnach planen 41 Prozent der in Deutschland befragten Rechenzentrumsleiter großer Unternehmen innerhalb der nächsten zwei Jahre Investitionen in ein neues Rechenzentrum. Das sind zehn Prozent mehr als bei der Vorjahresumfrage. In deutschen Rechenzentren wird zudem immer mehr Wert auf Planung gelegt. Fortgeschrittene Analysetools und ein Abgleich mit Businessplänen wird mittlerweile von 23 Prozent der Befragten betrieben, im Vergleich zu 16 Prozent bei der ersten Untersuchung im Jahr 2010.

Die größte Herausforderung für Unternehmen in den kommenden zwei Jahren stellt nach Ansicht von Luigi Freguia, Senior Vice President Systems von Oracle EMEA, der Umgang mit großen, unstrukturierten Datenmengen, genannt „Big Data“, dar. „Entweder sind Unternehmen bis dahin darauf eingerichtet oder sie werden mit ihren Geschäften ins Abseits manövriert, weil sie auf die Gefahren und Chancen von Big Data nicht eingestellt sind“, warnt Luigi Freguia. Die große Herausforderung von Big Data resultiert aus dem Zusammentreffen mehrerer IT-Trends: das Wachstum vernetzter Anwendungen, Endgeräte und Systeme sowie der Individuen, die damit beruflich und privat umgehen, und in der Folge große Mengen strukturierter und unstrukturierter Daten generieren. „Die Daten zu verstehen und zu analysieren, fängt im Rechenzentrum an. Dort, wo alle Prozesse beginnen müssen, befindet sich der Schlüssel für den Geschäftserfolg. Der neue Oracle-Index zeigt, dass sich Unternehmen diesen Entwicklungen langsam bewusst werden und versuchen, ihre kurz- und langfristigen Anforderungen an die Datenverfügbarkeit umzusetzen“, so Freguia.

Interne Expertise oder externe Kompetenz?

Die Antwort auf die Frage, inwieweit Unternehmen sich in Eigenregie diesen Herausforderungen stellen, oder doch besser auf die Unterstützung hochperformanter Dienstleistungsrechenzentren oder standardisierter Cloud-Services zurückgreifen sollten, bedarf einer differenzierten Betrachtung. „Dort, wo IT nur als Zuliefer- oder Supportprozess dient, stellt sich tatsächlich die Frage, ob die entsprechenden IT-Services nicht besser extern bezogen werden sollten“, erklärt Alexander Hemzal, Director Advisor der Experton Group AG. Bevor es hierüber jedoch zu einer Entscheidung kommt, sollte nach seiner Empfehlung Klarheit über die folgenden vier Punkte bestehen:

1. Welche Kernkompetenzen hat das eigene Unternehmen eigentlich?
2. Welche Ressourcen sind mit diesen Kernkompetenzen verbunden und lassen sich somit nicht von diesen trennen?
3. Welche Bereiche des Unternehmens stellen nachweisbar keine Kernkompetenzen dar?
4. Welche belegbaren Vor- und Nachteile sind mit einer Fremdvergabe von IT-Services verbunden?

Moderne, hochverfügbare Rechenzentren zeichnen sich heute durch einen hohen Grad an Modularisierung, Redundanz und Flexibilität aus. Die Planung und das Management entsprechender Rechenzentren ist komplexer denn je. Betroffen sind dabei alle RZ-Bereiche, angefangen von der Struktur des Baukörpers, über die Stromversorgung, Klimatisierung, technische Sicherheit, bis hin zur ITK-Infrastruktur. Dies stellt die Verantwortlichen, deren Expertise über das eigene Fachgebiet hinausgehen muss, vor große Herausforderungen. Dennoch – nicht für jede Unternehmenssituation ist Outsourcing eine adäquate Lösung. „Speziell Unternehmen, die Wert auf eine hohe Fertigungstiefe legen, sollten sich jeden Schritt in diese Richtung gut überlegen. Outsourcing muss bestimmte, klar definierte Ziele verfolgen und dabei nachweisbar erfolgreicher sein als eine Eigenerstellung“, so Hemzal.

Intelligent gemischt, optimal profitiert

„Auch der Mittelstand sieht in internen IT-Teams, Outsourcing und Cloud-Lösungen keine unvereinbaren Strategien mehr, sondern Optionen. Die intelligente Mischung schafft die optimierte IT-Landschaft“, erklärt Ingo Kraupa, Vorstandsvorsitzender des Rechenzentrumsbetreibers Noris Network AG. Mit dem im November 2011 eröffneten NBG 6 in Nürnberg verfügt der Anbieter über eines der modernsten Rechenzentren Europas. Unternehmenskunden können hier ihre eigene IT-Infrastruktur betreiben und umfangreiche Hosting-Dienste mieten.

Bei pflegeintensiven Diensten wie Virenschutz, Firewall, Groupware oder E-Mail zeigt sich nach den Worten von Ingo Kraupa, dass Outsourcing nicht nur Kosten senkt. Erhöhte Sicherheit und Verfügbarkeit steigern zudem die Servicequalität. Ein weiterer positiver Effekt ist, dass Data Center-Dienstleister zu vielen IT-Fragen kompetente Fachleute bieten können. „Managed Services empfehlen sich, wenn Prog­nosen zu Datenvolumen und IT-Leistung schwierig sind. Der Grund: Managed Services lassen sich anforderungsgerecht skalieren. Gezahlt wird in kalkulierbaren Monatsraten und für tatsächlich beanspruchte Leistung. Voraussetzung ist allerdings, dass Unternehmen Anforderungen und gewünschte Service-Levels präzise beschreiben können. Cloud-Anwendungen benötigen lediglich Breitbandzugänge und webfähige Endgeräte“, berichtet Ingo Kraupa. Das Konzept der Modularität und Skalierbarkeit ermöglicht den Noris-Network-Kunden, die gemietete RZ-Fläche hocheffizient zu nutzen. Anders als in konventionellen Anlagen werden die Serverschränke nicht über Schlitze im Unterboden, sondern über Luftströmung im gesamten Data Center gekühlt. Mit dieser Technik und einer skalierbaren Stromzuführung lässt sich in High-Density-Racks deutlich mehr Rechenleistung konzentrieren, weil deren höhere Abwärme problemlos und ohne gefährliche „Hot Spots“ abgeführt wird.

Auch in punkto Sicherheit haben moderne Dienstleistungsrechenzentren im Vergleich zu unternehmensinternen Rechenzentren oft die Nase vorn. Nicht nur das IT-Equipment ist nach neuesten technologischen Erkenntnissen gesichert, sondern das gesamte Gelände ist mit Sicherheitsanlagen, Wachschutz, biometrischer Zutrittskontrolle und weiteren Maßnahmen so geschützt, dass in dem Rechenzentrum auch sensible Daten höchster Geheimhaltungsstufe verarbeitet werden können.

Sollten sich Unternehmen für die Inanspruchnahme externer Rechenleistungen entscheiden, ist die Zertifizierung des Rechenzentrums nach ISO/IEC 27001 ein aussagekräftiges Kriterium für Sicherheit und Prozessqualität. Beim Vergleich der Angebote gilt es zudem, den Standort des Data Centers zu erfragen. Nach gültiger Rechtssprechung sind Unternehmen dazu verpflichtet, ihre personenbezogenen und steuerlich relevanten Daten im Inland zu speichern.

Bildquelle: iStockphoto.com/simon2579



Diese Seite ist hier zu Hause: http://www.itmittelstand.de/home/a/baustelle-rechenzentrum.html