Herausforderungen bei der «Cloud First»- und «Data First»-Strategie

Immer mehr Unternehmen wollen «datengesteuert» werden. Die Zahl der Initiativen zum Sammeln und Analysieren von Daten wächst schnell: IoT (Internet der Dinge), KI (künstliche Intelligenz), ML (maschinelles Lernen), usw. Ausserdem besteht ein grosser Bedarf, Daten aus verschiedenen Quellen und in verschiedenen Clouds auf logische und zusamenhängende Weise zu analysieren. Doch wie lassen sich die Daten in diesen verschiedenen Silos miteinander verbinden? Und was ist die geeignete Strategie für das Rechenzentrum?

Wie nachhaltig ist ein Rechenzentrum eigentlich? Und was tut der Rechenzentrumsmarkt, um möglichst nachhaltige Lösungen anzubieten - jetzt und in Zukunft?

Daten in vielen verschiedenen Clouds

Aufgrund der Beliebtheit der Cloud stehen Unternehmen vor einer zusätzlichen Herausforderung: Wie lassen sich die Daten in den verschiedenen Clouds miteinander verbinden? Viele Daten sind in SaaS-Anwendungen gespeichert – beispielsweise aufgrund der Beliebtheit von Microsoft 365 und Salesforce. Ausserdem gibt es immer mehr Arbeitslasten, die auf IaaS-Infrastrukturen wie Microsoft Azure und Amazon Web Services (AWS) laufen. Und natürlich befindet sich ein Grossteil der Daten immer noch vor Ort oder in einer privaten Cloud in einem Colocation-Datacenter.

Herausforderungen aufgrund der Datenfragmentierung

Diese Fragmentierung führt zu einer Reihe von Problemen, sagt Alexandra Schless, CEO von NorthC. «Die Kunden wissen nicht immer, welche Daten sich wo befinden. Dazu können datenschutzsensible Daten von Kunden oder Mitarbeitern gehören. Für diese Unternehmen ist es daher schwierig, das Datenschutzgesetz einzuhalten.»
Darüber hinaus haben die IT-Abteilungen Schwierigkeiten zu gewährleisten, dass alle Cloud- und anderen Datenbanken denselben hohen Standards in Bezug auf Qualität, Kontinuität und Sicherheit entsprechen. Oder kennen Sie viele Unternehmen, welche ein Backup ihrer Microsoft 365 Umgebung erstellen?
Hinzu kommt, dass es aufgrund der Datengravitation oft schwierig ist, Daten aus den verschiedenen Silos zu extrahieren. Damit ist das wachsende Phänomen gemeint, dass Daten Anwendungen und Dienste anziehen, einfach weil es einfacher ist, die Anwendung oder den Dienst dorthin zu verlagern, wo die Daten sind, als andersherum.

Data Lake in der Cloud

Schless: «Diese drei Aspekte bedeuten, dass die Analytik innerhalb einer Anwendung gut funktioniert, zum Beispiel die Analyse von Kundendaten in Salesforce. Aber es wird eine Herausforderung, die Daten aus Ihrem CRM-System mit beispielsweise den ERP-Daten in einer anderen Cloud zu kombinieren. Man kann zwar die Ergebnisse der einzelnen Analysen kombinieren, aber nicht die zugrunde liegenden Datensätze.»
Aus diesem Grund entscheiden sich immer mehr Unternehmen für einen «Data Lake»: einen zentralen Ort, an dem alle Daten in unstrukturierter Form gespeichert werden. Dies ermöglicht es, Daten aus verschiedenen Quellen gemeinsam zu analysieren. Angesichts der enormen Datenmengen im Data Lake liegt es nahe, den Data Lake selbst in die Cloud zu legen. Und da man diese enormen Datenmengen nicht so einfach verschieben kann, sollte man auch die Analysetools in dieselbe Cloud stellen. Schless: «Was vielen Unternehmen nicht bewusst ist, sind die Netzwerkkosten, die eine solche Strategie mit sich bringt. Schliesslich geht es darum, sehr grosse Datenmengen in den Data Lake zu verschieben.»

Edge Computing liefert die Antwort

Es ist also keine Überraschung, dass Edge Computing auf dem Vormarsch ist. Warum sollten Sie Daten, die weit entfernt vom zentralen Rechenzentrum gesammelt werden (z. B. durch IoT-Sensoren), zur Verarbeitung an einen zentralen Ort transportieren, wenn Sie dies auch lokal tun können? Zum Beispiel in einem regionalen Rechenzentrum. Es gibt eine Reihe von Gründen, die für eine lokale Analyse in einem regionalen Rechenzentrum sprechen. Erstens ist bei Echtzeitanwendungen die Latenzzeit ein wichtiges Kriterium. Je näher die Daten an der Quelle verarbeitet werden, desto geringer ist die Latenzzeit. Ausserdem sind die Netzwerkkosten wesentlich geringer, wenn die Daten nahe an der Quelle in einem regionalen Rechenzentrum gespeichert und verarbeitet werden. Dieses Argument wird immer wichtiger, da das Internet der Dinge durch das Hinzufügen datenintensiver Geräte wie Überwachungskameras rasch wächst. Und schliesslich ist es aufgrund von Gesetzen und Vorschriften möglicherweise nicht wünschenswert oder gar möglich, Daten in einer zentralen Cloud zu speichern. In vielen Fällen verlangen die Gesetze, dass die Daten in der Schweiz oder zumindest in der EU verbleiben. Dies ist z. B. im Gesundheitswesen von grosser Bedeutung, wo Organisationen aufgrund der Art der von ihnen erbrachten Dienstleistungen mit äusserst datenschutzsensiblen Daten umgehen.

Einige Daten werden immer noch zentral ausgewertet

Gleichzeitig bleibt der Wunsch bestehen, Daten aus verschiedenen Quellen zu kombinieren. Deshalb sind CIOs (Chief Information Officers) und CDOs (Chief Digital Officers) gut beraten, sich zu überlegen, welche Daten für eine zentrale Verarbeitung geeignet sind und welche nicht. Welche Daten wollen Sie ‹at the edge› analysieren, um dort sofort darauf reagieren zu können? Und welche Daten wollen Sie zunächst in den Lake verschieben, weil Sie damit Geschäftsprozesse optimieren oder neue Funktionalitäten und Services entwickeln können? Schless: «Wenn Sie Daten von einer Maschine mit IoT-Sensoren auslesen, müssen Sie nicht alle Daten zentral sammeln. Das meiste davon werden Sie ‹at the edge›, in unmittelbarer Nähe, analysieren wollen. Nur die Ergebnisse dieser Daten werden gespeichert – den Rest der Informationen brauchen Sie nicht mehr. Wenn jedoch eine Maschine defekt ist, möchten Sie die Daten verwenden können, um die Ursache des Fehlers zu ermitteln. Diese spezifischen Daten müssen zentral gespeichert und ausgewertet werden.

Denken Sie über die Datacenterlandschaft nach

Die Kombination von «Cloud first» und «Data first» bedeutet, dass Unternehmen über ihre Datacenterlandschaft nachdenken müssen. Denn zum einen haben sie es mit Daten in vielen verschiedenen SaaS-, PaaS- und IaaS-Silos zu tun, zum anderen mit Daten, die im Hinblick auf Latenzzeiten und Netzwerkkosten idealerweise so nah wie möglich an der Quelle gespeichert und verarbeitet werden müssen. Dies erfordert eine andere Rechenzentrumsstrategie.  Die Antwort von NorthC auf diese Herausforderung ist ein regionales, Cloud- und Carrier-neutrales Rechenzentrum, das beide Arten von Umgebungen schnell und sicher zusammenführt, um eine Konnektivitätsdrehscheibe in dem jetzt entstehenden Ökosystem zu bieten.

Expertenaustausch

Tauschen Sie sich mit unseren Experten aus und stellen Sie sicher, dass Ihre Datacenterstrategie auf einem soliden Fundament steht.