Darum ist die Cloud der logische Endpunkt einer langen Entwicklung

Gerade in ihrer Frühphase galt die Cloud als eine disruptive Technologie, die das ‚klassische‘ Konzept der On-Premises-Systeme auf den Kopf stellt. Diese Einschätzung war jedoch nie ganz richtig. Denn lokale Rechenzentren für On-Premises-Systeme waren nie mehr als ein Kompromiss. Vielen Fachleute ahnten schon vor Jahrzehnten: Die Digitalisierung musste letzten Endes zum Cloud-Modell führen. Warum das so ist, erfahren Sie in diesem Artikel.

Cloud Computing-03

Unternehmensdaten ‚funktionieren‘ nur in einer Datenbank

Digitale Daten können sehr einfach kopiert werden. Unternehmensdaten dürfen jedoch nur in einer Version existieren; anderenfalls kommt es früher oder später zu inhaltlichen Unterschieden zwischen den Versionen – verbunden mit der Frage, welcher Datensatz eigentlich die ‚richtige‘, aktuelle Variante ist. Sobald dieses Problem auftritt, ist effizientes Arbeiten nicht mehr möglich, und alle Vorteile der Digitalisierung werden ad absurdum geführt.

Die beste Lösung für dieses Problem ist eine Datenbank, in der die Datensätze gespeichert werden. Alle Änderungen werden dann an der Datenbank vorgenommen. So können keine unterschiedlichen Versionen entstehen, die sich voneinander unterscheiden, und alle Mitarbeiter sind immer auf dem gleichen Stand.

Um eine solche zentrale Datenbank einzurichten, benötigt man einen Server, auf den die Benutzer mit ihren PCs zugreifen können. Ein solcher Server muss in der Regel über wesentlich mehr Speicherplatz und Rechenpower als ein normaler PC verfügen, weil ja viele Benutzer parallel auf ihn zugreifen und seine Ressourcen nutzen. 

Eigene Server: Damals eine technische Notwendigkeit

Über Jahrzehnte waren Unternehmen dazu gezwungen, diese technischen Ressourcen selbst bereit zu stellen, wenn sie ein datenbank-gestütztes IT-System betreiben wollten. Sie mussten also ein eigenes Rechenzentrum und ein eigenes, lokales Netzwerk einrichten.

Dass das nicht die sinnvollste Lösung ist, war jedoch früh klar: Bereits in den 1960er Jahren kam die Idee auf, IT-Ressourcen zentral bereit zu stellen. So war für den amerikanischen Informatiker Dr. John McCarthy schon damals sicher, dass Rechenzentren öffentliche Einrichtungen sein würden.

Gedankliches Vorbild war dabei das öffentliche Elektrizitätsnetz. Denn genau so, wie nicht jedes Unternehmen ein eigenes Kraftwerk betreiben muss, können auch IT-Ressourcen zentral bereitgestellt werden. Tatsächlich sind ein Elektrizitätswerk und ein Rechenzentrum in Sachen Komplexität durchaus miteinander vergleichbar. Warum also sollte man den Strom aus der Steckdose beziehen, für sein IT aber alle notwendigen Anlagen selbst betreiben?

Eine Vision, die ihrer Zeit voraus war

Solche und ähnliche Gedanken blieben jedoch vorerst nur Planspiele – allerdings nur, weil ihre Umsetzung technisch nicht möglich war. Denn zum einen gab es nicht die notwendigen Netzwerke, um lokale Firmen an ein zentrales Rechenzentrum anzubinden: Das öffentliche Netz war rein analog und aufs Telefonieren ausgelegt – und damit viel zu langsam, um die Daten zwischen lokalen Clients und einem weiter entfernten, zentralen Rechenzentrum auszutauschen.

Zum anderen waren frühere Computer-Systeme nicht mandantenfähig. Das bedeutet, dass man in einem einzelnen Programm die Daten von mehreren Benutzern nicht voneinander trennen konnte: Entweder, man musste für jeden Nutzer ein eigenes Programm installieren, was den entscheidenden Vorteil eines zentralen Rechenzentrums ad absurdum geführt hätte – oder jeder Nutzer hätte die Daten aller anderen Nutzer einsehen können.

In einem IT-System jedoch, das von mehreren verschiedenen Unternehmen benutzt wird, ist eine sichere Trennung der Daten unerlässlich. Anderenfalls bliebe nichts geheim, und Firmen könnten auf die Daten ihrer Konkurrenten, Kunden oder Partner zugreifen. Ein solches Risiko würde kein Unternehmen eingehen.

Eigenwillige Geschäftsmodelle

Diese technischen Einschränkungen führten zu Geschäftsmodellen, die aus heutiger Sicht abenteuerlich erscheinen. So betrieb die Firma DATEV bereits in den 1960er Jahren ein Rechenzentrum, in dem Kundendaten zentral verarbeitet wurden – allerdings mussten diese Daten der Kunden in Form von Lochkarten per Post eingeschickt werden, und auch die Resultate wurden wieder per Post an die Kunden versendet! Schon dieses Beispiel zeigt: Die Auslagerung von Diensten war schon immer gewünscht, es haperte lediglich an der Technik.

Das Internet verändert alles

In den 1990er Jahren hat sich die Situation grundlegend gewandelt. Zum einen wurde damals die sogenannte Multi-Tenant-Software-Architektur entwickelt. Damit wurden IT-Systeme endlich mandantenfähig, sodass mehrere Nutzer dasselbe Programm zentral verwenden können, ohne dass sie dabei die Daten der anderen Benutzer ausspähen könnten.

Zum anderen wurde das Internet in seiner jetzigen Form erfunden und der breiten Öffentlichkeit zugänglich gemacht. Heute kann praktisch jedes Gebäude an das öffentliche Netz angeschlossen werden - und die Übertragungsraten sind dabei schnell genug, um einen Server über das öffentliche Netzwerk anzusteuern.

Der Server, auf dem die Datenbank mit den Unternehmensdaten liegt, musste also nicht mehr in den Geschäftsräumen des jeweiligen Unternehmens stehen. Stattdessen konnte er nun theoretisch überall auf der Welt eingerichtet werden, ohne dass das negative Folgen für die Benutzer bedeutet hätte. Und dank der Mandantenfähigkeit moderner Systeme konnten sich auch mehrere Unternehmen dieselbe zentrale Software teilen.

Die Cloud setzt sich durch

Nun setzte die Entwicklung ein, die Dr. John McCarthy bereits 1961 skizziert hatte: Unternehmen wie Amazon oder Microsoft schufen die notwendige Infrastruktur, um in großen Rechenzentren Speicherplatz, Software und Datenbanken für viele Nutzer bereit stellen zu können. Andere Anbieter zogen nach, und so hat Cloud-Technologie gerade in den letzten Jahren eine enorme Entwicklung gemacht. So können heute riesige Datenmengen in Echtzeit verarbeitet und gespeichert werden.

Diese Entwicklung hat auch die Wirtschaft nachhaltig verändert. Denn während noch vor fünfzehn Jahren Cloud-Anwender einsame Exoten in der deutschen Unternehmenslandschaft waren, setzt heute ein Großteil der deutschen Unternehmen auf die Cloud und mietet Programme, Speicherplatz und die notwendige Rechenpower für ihr System als eine externe Dienstleistung, anstatt ein eigenes Rechenzentrum zu betreiben – und eine Mehrheit dieser Firmen wiederum ist sehr zufrieden mit dieser Lösung, wie zuletzt der Cloud Monitor 2020 belegt hat.

Newsletter abonnieren

Neueste Artikel