Die Experten sind sich weitgehend einig: eigenbetriebene Rechenzentren entwickeln sich vermehrt hin zu externen IT-Sourcing-Varianten wie Collocation- und Public-Cloud-Lösungen.Der nachfolgende Autorenbeitrag von Gerald Münzl wagt einen fundierten Ausblick auf mögliche Data-Center-Optionen und die Technologietrends, die die Rechenzentrumsentwicklung in den nächsten Jahren höchstwahrscheinlich prägen werden.

 

Paradigmenwechsel: Das Rechenzentrum der Zukunft wird sich vom heutigen klassischen (oft monolithischen) Data Center sowohl in organisatorischer als auch technologischer Hinsicht deutlich unterscheiden. Umfragen zeigen, dass große Unternehmen (i. d. R. ergänzend zur eigenen IT) typischerweise heute schon rund zwei Dutzend Cloud-Services (IaaS, PaaS, SaaS) von verschiedenen Anbietern, wie Amazon, Salesforce , Box, Microsoft, Google und vielen anderen nutzen. Noch interessanter aber ist, dass nicht mehr die IT-Organisation alleine definiert, welches die IT-Ressourcen des Unternehmens und die Anforderungen sind, die an diese Ressourcen gestellt werden. Zusätzlich zur Bewältigung der ‚normalen‘ technologischen Herausforderungen (s. Abb.1), sieht sich die IT-Organisation jetzt vielmehr mit der zusätzlichen Aufgabe konfrontiert, alle ihr zur Verfügung stehenden Technologien, Prozesse und Möglichkeiten einzusetzen, um ihrem Unternehmen zu helfen, effizient und effektiv mehrere IT-Anbieter und verschiedene Dienste zu nutzen, wo immer sie verfügbar sind (Gartner).

 

2016-08-17_muenzl_Abb1

 

Abb.1: RZ-Herausforderungen 2016 (Deutschland)

 

Mit der Aussage: „Future Data Centers are Not Software Defined, They’re Enterprise Defined” beschreibt Gartner sehr präzise die neue Zielrichtung. Noch mehr als früher bestimmen nämlich die betrieblichen Anforderungen die strategische Weiterentwicklung der IT. Die Technologie ist dabei zwar eine entscheidende Komponente aber eben nur Mittel zum Zweck, die Geschäftsprozesse flexibler, reaktionsschneller zu machen und neue Geschäftsmodelle zu ermöglichen. Und zusätzlich: „Neben funktionalen und Kostenaspekten ist der Faktor Zeit ein immer stärkeres Kriterium bei der Bewertung der Qualität von IT-Infrastrukturen. Hier zeigt sich deutlich: Das Time-to-Market ist zu lang und wird für viele Unterneh- men ein starker ‚Bremsklotz‘ für die Weiterentwicklung des Business“ (IDC).

 

Herausforderungen: Einer Research Note der Stanford University in Kooperation mit der Anthesis Group zufolge sind ca. 30 % aller installierten Server „komatös“, d. h.: sie verbrauchen Energie, erbringen aber keine bestimmungsgemäßen produktiven Leistungen. Auch der Einsatz neuer Technologien konnte daran überraschenderweise wenig ändern, denn dieser Wert ist seit Jahren relativ konstant. Laut einer Auftragsstudie von IDC hat knapp ein Drittel der befragten Unternehmen mehr als die Hälfte ihrer Server bereits virtualisiert. Teilweise virtualisiert sind bei den Meisten zudem die Storage-Umgebungen und die Netze. Somit sind IT-seitig – so findet jedenfalls IDC – eigentlich die Grundvoraussetzungen für Software defined Infrastructure (SDI) geschaffen, mit der virtualisierte IT-Landschaften nun auf eine nächste Stufe gehoben werden können. Die nächsten logischen Schritte – nach der Virtualisierung der Infrastruktur – wären also: Software Defined Compute, Software Defined Storage, Software Defined Networking, konvergente Systeme sowie deren Orchestrierung und Automatisierung über verschiedene Systeme und Domains hinweg.

 

Aber können (wollen) die Unternehmen diese Schritte auch gehen? Mit dem Anbruch des Zeitalters von ‚Hyper‘ und ‚Software Defined‘ – Hyperkonvergenz, Hyperscale-RZs, SDI, SDS, SDN, ... – fehlen insbesondere Mittelständlern in der Regel das Wissen, die entsprechenden Instrumente, die finanziellen Ressourcen und/oder die erforderlichen Personalkapazitäten, um solche modernen IT-Konzepte selbst oder mit Hilfe von Partner individuell umzusetzen.

 

Zukunftsszenarien: Wenn sie es dennoch tun wollen, finden sich bei den bekannten Marktbeobachtern natürlich grundsätzliche Überlegungen, wohin sich das Data Center entwickeln wird, und auch mehr oder minder konkrete Handlungsempfehlungen, wie dessen Zukunft gestaltet werden kann. IDC beispielsweise wagt 10 RZ-Prognosen für die nächsten zwei Jahre (s. Abb. 2). Im Einzelnen:

 

1.Neuausrichtung der Workload: Bis zum Jahr 2018 werden 65 Prozent der neuen RZ-Infrastrukturinvestitionen in Systeme fließen, die Datenanalyse (‚insights‘) und digitale Transformation (‚action‘) unterstützen und nicht in die Pflege bestehender Systeme.

 

2.Hyperkonvergenz und SDx: Bis 2017 wird mit konvergenten Systemen der nächsten Generation, die für Flash und SDI-Laufwerk optimiert sind, Konsolidierungen von mehr als 30 Prozent in Bezug auf RZ-Fläche und Personaleinsatz erzielt werden können.

 

3.Überalterte Rechenzentren: Bis Ende 2017 stellt sich für 40 Prozent der Unternehmen die Frage, wie die Beseitigung baulicher Mängel bestehender Rechenzentren und die veränderten Energie- und Klimaanforderungen mit den geringeren für den Instandhaltungsaufwand zur Verfügung stehender Mittel in Einklang zu bringen sind.

 

2016-08-17_muenzl_Abb2

 

Abb.2: Weltweite RZ-Prognosen 2016.

 

4.Hyperscale-RZs: Bis Ende 2017 werden Infrastrukturanbieter (z. B. Cloud Provider) ihre hochskalierbaren Rechen- und Speicherkapazitäten zu regionalen Gateway-Einrichtungen verdichten, um den Ängsten der Anwender in Bezug auf die Hoheit über ihrer Daten zu entsprechen.

 

5.Breitgefächerte IT: Bis zum Jahr 2018 werden bei 65 Prozent der Unternehmen die IT-Assets außerhalb des eigenen Unternehmens in Colocation-, Hosting- und Cloud-Rechenzentren stehen, während ein Drittel der IT-Mitarbeiter von externen Dienstleistern gestellt wird.

 

6.Smarte RZs: Bis zum Jahr 2018 setzen 60 Prozent der Unternehmen auf hoch automatisierte Rechenzentren, die mittels fortschrittlicher Automatisierungstechnologie die Effizienz steigern und so die Ausgaben für RZ und IT in Wertschöpfung für das Unternehmen verwandeln.

 

7.Netzwerktransformation: Bis zum Jahr 2018 werden 80 Prozent der Unternehmen ihre Netzewerke mittels SDN-basierter flexibler Vernetzung transformieren, um die verschiedenartigen IT-Umgebungen zu verbinden und den Fluss neuer Datenströme zu erleichtern.

 

8.„Edge-IT“: Bis 2018 werden Cloud-, Mobile- und IoT-Dienstleister 30 Prozent ihrer IT-Infrastruktur in Edge Locations und Mikrorechenzentren vorhalten und betreiben. Vorteil: Die Vor-Ort-Bereitstellung von IT-Kapazitäten durch eine Verlagerung von Rechenleistung, Anwendungen, Daten und Services unmittelbar an die logische Randstelle eines Netzwerkes (die sog. Edge) beugt einem möglichen Flaschenhals in der Cloud vor.

 

8.Preismodell der 3. Plattform: Bis Ende 2016 werden bereits 50 Prozent aller Unternehmen für ihre größeren IT- und Data-Center-Investitionen nutzungsabhängige Bezahlmodelle bevorzugen, bei denen – wie in der Cloud üblich – lediglich die tatsächlich in Anspruch genommene Ressourcen berechnet werden.

 

10.Energieversorgung der nächsten Generation: Im Jahre 2018 werden 8 Prozent aller neuen Rechenzentren vollständig durch grüne Energie versorgt, wobei durch Verbesserungen in der Kühltechnik und den Rack-Architekturen auch die Energieeffizienz bestehender RZs verbessert werden wird.

 

Fast alle Marktbeobachter stimmen darin überein, dass Cloud Services und eine Multi-Cloud-Strategie sich zum integralen Bestandteil der IT-Strategie bei der Mehrheit der Unternehmen entwickeln werden. In diesem Zusammenhang prophezeit Gartner für die nächsten fünf Jahre eine dramatische Änderung der Profile, Topologien und Zweckbestimmungen von Rechenzentren, angetrieben vom Einsatz neuer Technologien und von der sich immer schneller entwickelnden neuen digitalen Welt. Ein Beispiel: Zwischen 2013 und Ende 2014 floss neues Venture Capital im Wert von 1 Mrd. Dollar in das Internet der Dinge (IoT). Zusätzlich investierten Unternehmen 2014 mehr als 40 Milliarden Dollar in dessen Design, Implementierung und Betrieb. Parallel dazu erfolgt ein massiver Anstieg der Investitionen beispielsweise in Basistechnologien wie beispielsweise Cloud oder Big Data. Diese Entwicklung umschreibt Gartner als die ‚Verknüpfung der Kraft‘ (‚Nexus of Force‘) und meint damit die Konvergenz und die sich wechselseitige Verstärkung der IT-Megatrends ‚Social‘, ‚Mobility‘, ‚Cloud‘ und ‚Big Data‘, wodurch neue Geschäftsszenarien getrieben werden. Diese ‚Nexus of Force‘ zwingt die RZ-Verantwortlichen ihre Infrastruktur durch Einsatz neuester Technologien auf Innovation, Agilität und die Generierung von Wettbewerbsvorteilen zu trimmen. Ob dies gelingen kann, hängt unter anderem auch von der Wahl des passenden Data-Center-Modells ab, wobei Gartner eine relativ simple Entscheidungsmatrix (s. Abb.3) empfiehlt, um die am ehesten geeignete Data-Center-Option für die unternehmenskritischste RZ-Funktionalität (‚Personality‘ bei Gartner) auszuwählen.

 

2016-08-17_muenzl_Abb3

 

Abb.3: Wahl der geeigneten Rechenzentrumsoption.

 

Die Ratschläge und Prognosen der Marktbeobachter mögen eine grobe Orientierungshilfe sein; eine sorgfältige unternehmensindividuelle Standortbestimmung und strategische, zukunftssichere RZ-Planung können sie natürlich nicht ersetzen.

 

 

Quellen (Auswahl): abgefragt 22.07.2016

 

http://blogs.gartner.com/david_cappuccio/2015/05/24/future-data-centers-are-not-software-defined-theyre-enterprise-defined-2/

 

http://www.datacenter-insider.de/so-reagieren-rechenzentren-auf-die-digitalisierung-a-537067/

 

http://www.emersonnetworkpower.com/de-EMEA/sites/CIO/Documents/Emerging-Data-Center-Archetypes-DE.pdf

 

https://www.gartner.com/doc/reprints?id=1-2WS2RSS&ct=160121&st=sb&mkt_tok=3RkMMJWWfF9wsRonuKTLc%252B%252FhmjTEU5z17e0uWK%252Bzg4kz2EFye%252BLIHETpodcMSsVgN6%252BTFAwTG5toziV8R7PDKs110cwQWRPj

 

http://idc.de/de/research/multi-client-projekte/software-defined-infrastructure-in-deutschland-2016

 

http://switzerland.emc.com/collateral/white-papers/idc-mc-eb-sdi2016de-emc.pdf

 

http://event.lvl3.on24.com/event/10/38/68/3/rt/1/documents/resourceList1445205218115/idc_datacenter_futurescapes_wc.pdf

 

http://anthesisgroup.com/wp-content/uploads/2015/06/Case-Study_DataSupports30PercentComatoseEstimate-FINAL_06032015.pdf

 

 

Autoreninformation:

 

Gerald Münzl verfügt über Abschlüsse als Dipl. Wi.-Ing. (Karlsruher Institut für Technologie – KIT, Karlsruhe) und als Magister der Verwaltungswissenschaften (Deutsche Universität für Verwaltungswissenschaften, Speyer). Gerald Münzl war über 33 Jahre bei einem der größten internationalen IT-Konzerne in verschiedenen Fach- und Management-Aufgaben tätig. Neben seinem langjährigen Engagement beim BITKOM arbeitet er heute als freier Berater für IT-Unternehmen und bei einer Non-Profit-Organisation als Senior Advisor. Die fachlichen Schwerpunkte seiner Beratungstätigkeiten und Veröffentlichungen liegen insbesondere auf den Gebieten IT-Outsourcing, Cloud Computing und IT-Services-Marketing.