Die 10 IT-Trends bis 2016

(Photo: Fotolia.com)

(Photo: Fotolia.com)

Analyst und Technikspezialist Raymond Paquet vom Marktforschungsunternehmen Gartner nennt die wichtigsten 10 Technologien der Zukunft.

Per Webinar präsentierte Gartner-Analyst Raymond Paquet wichtige Technologietrends, die das Marktgeschehen in den nächsten Jahren entscheidend beeinflussen werden. Manche dieser Trends haben sich bereits durchgesetzt, beispielsweise die zunehmende Nutzung von Tablets in Unternehmen, andere hingegen sind derzeit noch wenig verbreitet.

Auch wenn sich in der Liste ganz unterschiedliche Themen finden, enthält sie nach Auffassung von Paquet doch einen gemeinsamen Nenner, der allen zehn Trends zugrunde liegt: Inhalte. Im vergangenen Jahr wurden über acht Billionen Textnachrichten gesendet, und auf Facebook werden jeden Monat mehr als 30 Milliarden Beiträge veröffentlicht. Der Wandel, der sich gegenwärtig in der IT-Branche vollzieht, ist vor allem darauf zurückzuführen, dass wir jederzeit, überall und mit beliebigen Geräten auf diese Inhalte zugreifen wollen.

Hier die Liste der zehn wichtigsten Trends. (Über die Links unten gelangen Sie direkt zu den Themen.)

1. „Consumerisation” der IT und Tablets

2. Rechenzentrum ohne Kapazitätsbeschränkungen

3. Ressourcenmanagement

4. Mobiltechnologie

5. Hybrid Clouds

6. Fabric-basierte Rechenzentren

7. Komplexität

8. Big Data

9. Service Desk

10. Virtuelle und softwarekonfigurierbare Netzwerke

Foto: iStockphoto

1. „Consumerisation” der IT und Tablets (2012-2014)

Es gab Zeiten, in denen wir den Computer auch gerne zu Hause gehabt hätten. Heute ist oft das Gegenteil der Fall. Inzwischen werden neue und richtungsweisende Technologien zuerst von den Verbrauchern eingesetzt, bevor sie auch in den Unternehmen ankommen. Man bezeichnet diesen Prozess als „Consumerisation der IT“. Er beschränkt sich keineswegs nur auf Desktop-PCs und Notebooks, sondern umfasst auch Tablets.

Die Nutzung von Tablets in Unternehmen wird auf breiter Front vorangetrieben. Oft geschieht dies auf Initiative der Mitarbeiter, die zu Hause ein Tablet besitzen und auf den Bedienkomfort dieser Geräte auch bei der Arbeit nicht verzichten möchten. Doch auch Führungskräfte machen sich für den Einsatz von Tablets stark, da sie einfach „cool“ seien, so Paquet. Er geht davon aus, dass in den nächsten Jahren immer mehr Unternehmen aus diesen und anderen Gründen Tablets einführen werden. Die IT-Abteilung stellt die zunehmende Nutzung von Tablets vor zwei Herausforderungen: Sicherheit und Kosten.

Derzeit wird der Tablet-Markt von Apple dominiert. Paquet bezweifelt jedoch, dass iOS-basierte Geräte den Sicherheitsanforderungen von Unternehmen gerecht werden. Eine weitere Herausforderung besteht darin, dass die Benutzer nicht einfach ihren Desktop-PC durch ein Tablet ersetzen werden. Vielmehr werden die Mitarbeiter einfach mehr Geräte haben: einen Desktop-PC, ein Notebook, ein Smartphone und ein Tablet. Für das Unternehmen ist dies mit höheren Kosten und noch einem weiteren Problem verbunden: Im Gegensatz zu PCs sind Tablets im Wesentlichen Ausgabegeräte. Müssen Unternehmen ihre Geschäftsanwendungen anpassen und vielleicht völlig neue Anwendungen einführen, die für die Anforderungen von Tablets besser geeignet sind?

Auf der nächsten Seite erfahren Sie mehr über das Thema Rechenzentren ohne Kapazitätsbeschränkungen.

 

2. Rechenzentren ohne Kapazitätsbeschränkungen (2013-2015)

Da die Datenmengen weiter exponentiell anwachsen, erhöht sich auch der Bedarf an Speicherplatz. Folglich werden auch Rechenzentren immer größer – nicht im räumlichen Sinne, sondern im Hinblick auf ihre Rechenleistung. Die Server werden kleiner und die Rackdichte größer, sodass sich die Rechenleistung ohne zusätzlichen Platzbedarf steigern lässt. Allerdings benötigen die Rechenzentren auch mehr Energie für die Stromversorgung und Kühlung der Server. Wie können Unternehmen also ihre Rechenzentren ausbauen, ohne dass der Energiebedarf ins Unermessliche steigt?

Zunächst einmal können neue Kühltechniken genutzt werden, beispielsweise die Kühlung von einzelnen Racks oder Rack-Reihen sowie der Einsatz von Kühlsystemen mit Kühlflüssigkeit. Die meisten Rechenzentren arbeiten nach wie vor mit Umluftkühlung (Gebläse), doch in Rechenzentren mit hoher Rackdichte werden zunehmend auch flüssigkeitsbasierte Kühlsysteme eingesetzt. Diese Methode ist um 40 Prozent effizienter als die Umluftkühlung, jedoch auch mit hohen Anschaffungskosten verbunden. Diese Tatsache – und die natürliche Abneigung des Menschen, Strom mit Wasser zu kombinieren – könnte der Grund dafür sein, dass sich die Technologie nur langsam durchsetzt.

Häufig tauschen Unternehmen alte Server aus, um die Rechenleistung zu steigern und gleichzeitig die Energiekosten zu senken. Paquet zufolge werden in den meisten Unternehmen Server alle vier Jahre ausgetauscht. Nach diesem Zeitraum gibt es auf dem Markt in der Regel neue Server mit höherer Leistung, die jedoch keinen höheren Stromverbrauch haben. Würden Unternehmen ihre Server alle zwei Jahre austauschen, so könnten sie die Anzahl der CPUs erhöhen, ohne dadurch den Strom- und Kühlbedarf zu steigern.

Auf der nächsten Seite erfahren Sie mehr über das wichtige Thema Energieeffizienz.

Foto: iStockphoto

3. Ressourcenmanagement (2013-2015)

Beim Ressourcenmanagement werden ähnliche Zielsetzungen verfolgt wie bei der Optimierung von Rechenzentren. Damit wird dieser Trend in den nächsten Jahren ein wichtiges Thema für Unternehmen sein. Paquet verweist darauf, dass Rechenzentren bis zu 100 Mal mehr Energie verbrauchen können als die damit unterstützten Büros. Unabhängig davon, ob es um Umweltschutz oder Kosteneinsparungen geht – alle Unternehmen sind in Zukunft darauf angewiesen, ihre Energiekosten zu senken und Ressourcen besser zu verwalten.

Dabei müssen zwei Aspekte berücksichtigt werden. Zum einen das Verhältnis zwischen Rechenleistung und Energieverbrauch: Die Anschaffung eines neuen Servers kann sich lohnen, wenn sich dadurch bei gleichem Energieverbrauch die Rechenleistung erhöht. Zum anderen muss untersucht werden, was das Rechenzentrum tatsächlich leistet. Die Energieeffizienz definiert sich nicht allein durch den Energiebedarf eines Rechenzentrums für Stromversorgung und Kühlung, sondern hängt auch von der damit erzielten Leistung ab. In einem Rechenzentrum mit zahlreichen Servern, die mit geringer oder minimaler Kapazität laufen, lässt sich die Effizienz auch nicht durch den Einsatz von Flüssigkühlsystemen steigern.

Auf der nächsten Seite erfahren Sie mehr über die Trends im Bereich Mobiltechnologie.

 

4. Mobiltechnologie (2012-2015)

Nach Einschätzung von Paquet ist ein neues PC-Zeitalter angebrochen, das vom Einsatz von Mobiltechnologien geprägt ist. Bereits heute gibt es mehr Notebooks und Laptops als klassische Desktop-PCs, und viele Menschen besitzen zusätzlich außerdem Smartphones und Tablets. Die Benutzer möchten Informationen austauschen und über unterschiedliche Geräte darauf zugreifen können. Die einfachste Möglichkeit hierfür ist die Cloud. In den kommenden Jahren, so die Prognose von Paquet, wird die Cloud den PC als Speicherort für unsere persönlichen Inhalte ablösen.

Diese Entwicklung ist jedoch auch mit einem Problem verbunden: Die zunehmende Speicherung von Daten in der Cloud stellt eine weitere Belastung für Rechenzentren dar, die ohnehin schon unter exponentiell wachsenden Datenmengen zu leiden haben (siehe Trends 2 und 3). Der zunehmende Einsatz von Mobiltechnologien stellt Unternehmen auch vor weitere Herausforderungen. Mobilgeräte werden durch die Benutzer gesteuert, weshalb IT-Abteilungen neben Sicherheitsrichtlinien auch Richtlinien zur Nutzung privater Geräte am Arbeitsplatz einführen müssen.

Vor einem ganz anderen Problem stehen Anwendungsentwickler. Bislang konnte man davon ausgehen, dass Anwendungen von den Benutzern unter einem Windows-Betriebssystem auf einem Desktop-PC oder Laptop ausgeführt werden. Nun müssen die Entwickler Anwendungen so konzipieren, dass sie von möglichst vielen Geräten und Betriebssystemen unterstützt werden. Zwar kann dieses Problem durch die Anwendungsentwicklung nach HTML5 gelöst werden, doch bevorzugen viele Benutzer nach wie vor eine native Anwendungsumgebung.

Auf der nächsten Seite erfahren Sie mehr über Hybrid Clouds.

 

5. Hybrid Clouds (2013-2015)

Da es immer wichtiger wird, sowohl die Kapazität als auch die Energieeffizienz von Rechenzentren zu verbessern, sehen viele die Lösung im Einsatz von Hybrid Clouds. Paquet geht davon aus, dass bis zum Jahr 2014 rund 80 Prozent der Cloud-Initiativen von Unternehmen private Clouds oder Hybrid Clouds beinhalten werden. Für viele Unternehmen sind Hybrid Clouds vor allem deshalb attraktiv, weil die Anwendungsausführung so weit wie möglich intern erfolgt. Nur zu Spitzenzeiten wird die Ausführung in eine öffentliche Cloud ausgelagert. In der Theorie klingt das nach der idealen Lösung. Nach Paquets Einschätzung besteht das Problem jedoch darin, dass die meisten Anwendungen heutzutage nicht auf eine derartige Auslagerung ausgelegt sind. Unternehmen können nur dann in vollem Umfang vom Konzept der Hybrid Clouds profitieren, wenn ihre Software auch Cloud-Architekturen unterstützt. Leider ist dies bislang in den meisten Unternehmen nicht der Fall. Mehr als 60 Prozent der Cloud-Projekte von Unternehmen in den nächsten zwei Jahren werden Paquet zufolge darin bestehen, dass bestehende Anwendungen unverändert zur Unterstützung von Clouds erneut implementiert werden.

Mit der richtigen Software bieten Hybrid Clouds Unternehmen die Möglichkeit, ihre Rechenzentren zu verkleinern, Kosten zu senken und den Energieverbrauch zu verringern. Dennoch sollten sich Unternehmen auch die Risiken vor Augen führen, die mit einer öffentlichen Cloud-Umgebung verbunden sind. Was passiert, wenn ein Service unterbrochen wird? Welche Folgen hat dies für die Anwendung und die Benutzer? Wurde eine Antwortzeit definiert?

Auf der nächsten Seite erfahren Sie mehr über das Thema Fabric-basierte Rechenzentren.

 

6. Fabric-basierte Rechenzentren

Das Konzept des Fabric Computing wird als Grundlage der zukünftigen IT-Architekturen für Unternehmen gepriesen. Nach Aussagen von Paquet stellen bereits viele Unternehmen auf Fabric-basierte Infrastrukturen um. In einer solchen Infrastruktur werden Speichersysteme, Netzwerkkomponenten und Server über Verbindungen mit hoher Bandbreite miteinander verknüpft bzw. „verwoben“ (die Bandbreite ist dabei der gesamte Datenfluss in einem bestimmten Zeitraum).

Durch entsprechendes Management können Unternehmen mithilfe einer Fabric-basierten Infrastruktur Kapazität und Energieverbrauch so regeln, dass eine optimale Effizienz im Rechenzentrum erreicht wird. (Die Vorteile dieses Ansatzes sind in Zusammenhang mit Trend 2 beschrieben.)

Auf der nächsten Seite erfahren Sie mehr über das Glass’sche Gesetz zur Komplexität.

 

7. Komplexität

Das Mooresche Gesetz ist vielen ein Begriff, doch wer hat schon einmal vom Glass’schen Gesetz gehört? Wenn der Funktionsumfang eines Systems um 25 Prozent zunimmt, so lautet dieses Gesetz, nimmt zugleich die Komplexität um 100 Prozent zu. Programmcode wird immer umfangreicher und damit auch komplizierter. Für die Ausführung von Microsoft unter VMware müssen beispielsweise über 100 unterschiedliche Performance- und Kapazitätseinstellungen vorgenommen werden. Daraus ergeben sich mehrere Millionen unterschiedliche Kombinationen dieser Einstellungen. Laut Paquet unternimmt die Branche derzeit keinerlei Anstrengungen, die Dinge einfacher zu gestalten.

Warum das schlecht ist? Wenn ein System komplexer wird, steigen unweigerlich auch die Kosten für den Betrieb und die Wartung dieses Systems. Zugleich verschlechtert sich die Servicequalität. Paquet ist der Ansicht, dass die Verringerung der Systemkomplexität mit einem enormen Return on Investment verbunden ist. Unternehmen sollten deshalb in den kommenden Jahren daran arbeiten, ihre Systeme zu vereinfachen.

Auf der nächsten Seite erfahren Sie mehr über die Chancen und Herausforderungen im Bereich Big Data.

 

8. Big Data (2012-2014)

Am Anfang seines Webinars postulierte Paquet, dass Inhalte die treibende Kraft hinter diesen zehn Trends der Technologiebranche seien. Inhalte sind jedoch eigentlich ein eigener Trend. Das Thema, das derzeit in der IT-Branche in aller Munde ist, heißt Big Data. Untersuchungen haben ergeben, dass Unternehmen, die ihre Entscheidungen auf Datenanalysen stützen, von deutlichen Produktivitätssteigerungen profitieren. Für die meisten Unternehmen ist dies Grund genug, Tools für die Analyse von Big Data einzuführen. Die Herausforderung besteht allerdings darin, die Daten durch entsprechende Speicherung und Verwaltung so vorrätig zu halten, dass sie auch analysiert werden können.

Die zu speichernde Datenmenge wächst jährlich um 65 Prozent, wobei acht Prozent dieser Daten unstrukturierte Daten sind, die sich von Natur aus weniger einfach verwalten lassen. Unternehmen benötigen daher Lösungen, mit denen sie Big Data speichern können, ohne ihre Rechenzentren zu überlasten (siehe Trends 2 und 3). Da es sich bei unstrukturierten Daten in der Regel nicht um geschäftskritische Informationen handelt, für die sehr leistungsfähige Speichersysteme benötigt werden, rät Paquet den Unternehmen, diese Daten auf kostengünstigeren Systemen zu speichern. Zudem wird ein Großteil der unstrukturierten Daten nach 90 Tagen nicht mehr abgerufen. Aus diesem Grund könnten Unternehmen diese Daten einfach archivieren. So sparen sie sich die Replikation (und die damit verbundenen Kosten) von Informationen, die nicht verwendet werden.

Auf der nächsten Seite erfahren Sie mehr über die neue Rolle des Service Desk.

 

9. Service Desk (2014-2015)

Infolge der Konsumerisierung der IT finden nicht nur Tablets zunehmend Verbreitung in Unternehmen (siehe Trend 1), sondern auch andere Bereiche des Unternehmens wie das Service Desk wandeln sich. Immer mehr Unternehmen auf dem Verbrauchermarkt stellen ihren Kundenservice mittlerweile über das Internet, Mobilgeräte und soziale Netzwerke bereit. Für die Verbraucher ist es schon fast normal, die Fluggesellschaft über Twitter und nicht per Telefon zu kontaktieren, wenn ihr Flug ausgefallen ist. Benötigen sie Hilfestellung bei der Einrichtung einer neuen App auf ihrem Tablet, suchen sie einfach in Google nach den benötigten Informationen. Und dabei haben sie sich an schnelle Antworten gewöhnt. Zwar ist Echtzeit-Support in einem Unternehmen nicht realistisch, doch muss sich das Service Desk an die geänderten Kundenerwartungen anpassen.

Paquet schätzt, dass bis zum Jahr 2016 Service Desks im Unternehmen nicht mehr nur auf IT-Probleme reagieren, sondern einen proaktiven Ansatz verfolgen werden. Der Schwerpunkt wird sich auf die Schulung der Benutzer verlagern, damit sie ihre Geräte produktiv nutzen können. Tritt ein Problem auf, können die Benutzer das Service Desk über ihr Mobilgerät kontaktieren.

Auf der nächsten Seite erfahren Sie mehr über softwarekonfigurierbare Netzwerke.

(Photo: istockphoto.com)

10. Virtuelle und softwarekonfigurierbare Netzwerke (2014-2016)

Ein Trend, der der zunehmenden Nutzung von On-Demand-Software in Unternehmen etwas hinterherhinkt, sind virtuelle Netzwerke. Sie sind der noch fehlende Baustein für die vollständige Virtualisierung von Rechenzentren. Ein softwarekonfigurierbares Netzwerk bzw. virtuelles Netzwerk trennt die Software von der zugrunde liegenden Hardware und sorgt so für mehr Flexibilität im Rechenzentrum. Der Netzwerkverkehr kann auf diese Weise abhängig von den Anforderungen der Benutzer, Anwendungen, regionalen Lastverteilung und anderen Faktoren deutlich effizienter verteilt werden. Dies wird dadurch ermöglicht, dass ein gesamtes Netzwerk verwaltet wird; Einschränkungen ergeben sich jedoch durch isolierte Anwendungen.

Kommentare

You can use these tags: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>