Herausforderungen bei der «Cloud First»- und «Data First»-Strategie

Immer mehr Unternehmen streben danach, „datengesteuert“ zu werden. Die Anzahl der Initiativen zum Sammeln und Analysieren von Daten wächst rasant, darunter IoT (Internet der Dinge), KI (künstliche Intelligenz), ML (maschinelles Lernen) usw. Zudem besteht ein großer Bedarf, Daten aus verschiedenen Quellen und in verschiedenen Clouds auf logische und zusammenhängende Weise zu analysieren. Doch wie können die Daten in diesen unterschiedlichen Silos miteinander verbunden werden? Und welche Strategie ist für das Rechenzentrum geeignet?

Wie nachhaltig ist ein Rechenzentrum eigentlich? Und was tut der Rechenzentrumsmarkt, um möglichst nachhaltige Lösungen anzubieten - jetzt und in Zukunft?

Daten in vielen verschiedenen Clouds

Aufgrund der Beliebtheit der Cloud stehen Unternehmen vor einer zusätzlichen Herausforderung: Wie lassen sich die Daten in den verschiedenen Clouds miteinander verbinden? Viele Daten sind in SaaS-Anwendungen gespeichert, wie beispielsweise aufgrund der weit verbreiteten Nutzung von Microsoft 365 und Salesforce. Außerdem werden immer mehr Arbeitslasten auf IaaS-Infrastrukturen wie Microsoft Azure und Amazon Web Services (AWS) ausgeführt. Und natürlich befindet sich ein Großteil der Daten immer noch lokal oder in einer privaten Cloud in einem Colocation-Datacenter.

Herausforderungen aufgrund der Datenfragmentierung

Diese Fragmentierung führt zu einer Reihe von Problemen, erklärt Alexandra Schless, CEO von NorthC. „Die Kunden wissen nicht immer, wo sich ihre Daten befinden, insbesondere wenn es sich um datenschutzsensible Informationen von Kunden oder Mitarbeitern handelt. Für diese Unternehmen gestaltet es sich daher schwierig, die Datenschutzgesetze einzuhalten.“

Des Weiteren kämpfen die IT-Abteilungen damit, sicherzustellen, dass alle Cloud- und anderen Datenbanken die gleichen hohen Standards in Bezug auf Qualität, Kontinuität und Sicherheit erfüllen. Kennen Sie viele Unternehmen, die beispielsweise ein Backup ihrer Microsoft 365 Umgebung erstellen?

Darüber hinaus ist es aufgrund der Datengravitation oft schwierig, Daten aus den verschiedenen Silos zu extrahieren. Dies bezieht sich auf das wachsende Phänomen, dass Daten Anwendungen und Dienste anziehen, einfach weil es einfacher ist, die Anwendung oder den Dienst dorthin zu verlagern, wo die Daten sind, als andersherum.

Data Lake in der Cloud

Schless erklärt: „Diese drei Aspekte bedeuten, dass die Analytik innerhalb einer Anwendung gut funktioniert, zum Beispiel die Analyse von Kundendaten in Salesforce. Aber es wird eine Herausforderung sein, die Daten aus Ihrem CRM-System mit beispielsweise den ERP-Daten in einer anderen Cloud zu kombinieren. Man kann zwar die Ergebnisse der einzelnen Analysen kombinieren, aber nicht die zugrunde liegenden Datensätze.“

Aus diesem Grund entscheiden sich immer mehr Unternehmen für einen „Data Lake“: einen zentralen Ort, an dem alle Daten in unstrukturierter Form gespeichert werden. Dies ermöglicht es, Daten aus verschiedenen Quellen gemeinsam zu analysieren. Angesichts der enormen Datenmengen im Data Lake liegt es nahe, diesen selbst in die Cloud zu legen. Da jedoch das Verschieben solch großer Datenmengen keine einfache Aufgabe ist, sollten auch die Analysetools in dieselbe Cloud platziert werden. Schless fügt hinzu: „Was vielen Unternehmen nicht bewusst ist, sind die Netzwerkkosten, die eine solche Strategie mit sich bringt. Letztlich geht es darum, sehr große Datenmengen in den Data Lake zu übertragen.“

Edge Computing liefert die Antwort

Es ist daher keine Überraschung, dass Edge Computing auf dem Vormarsch ist. Warum sollten Sie Daten, die weit entfernt vom zentralen Rechenzentrum gesammelt werden (z. B. durch IoT-Sensoren), zur Verarbeitung an einen zentralen Ort transportieren, wenn Sie dies auch lokal tun können, zum Beispiel in einem regionalen Rechenzentrum? Es gibt eine Reihe von Gründen, die für eine lokale Analyse in einem regionalen Rechenzentrum sprechen. Erstens ist bei Echtzeitanwendungen die Latenzzeit ein wichtiges Kriterium. Je näher die Daten an der Quelle verarbeitet werden, desto geringer ist die Latenzzeit. Außerdem sind die Netzwerkkosten wesentlich geringer, wenn die Daten nahe an der Quelle in einem regionalen Rechenzentrum gespeichert und verarbeitet werden. Dieses Argument wird immer wichtiger, da das Internet der Dinge durch das Hinzufügen datenintensiver Geräte wie Überwachungskameras rasch wächst. Und schließlich ist es aufgrund von Gesetzen und Vorschriften möglicherweise nicht wünschenswert oder gar möglich, Daten in einer zentralen Cloud zu speichern. In vielen Fällen verlangen die Gesetze, dass die Daten in der Schweiz oder zumindest in der EU verbleiben. Dies ist zum Beispiel im Gesundheitswesen von großer Bedeutung, wo Organisationen aufgrund der Art der von ihnen erbrachten Dienstleistungen äußerst datenschutzsensible Daten verarbeiten.

Einige Daten werden immer noch zentral ausgewertet

Gleichzeitig bleibt der Wunsch bestehen, Daten aus verschiedenen Quellen zu kombinieren. Deshalb ist es für CIOs (Chief Information Officers) und CDOs (Chief Digital Officers) ratsam, zu überlegen, welche Daten für eine zentrale Verarbeitung geeignet sind und welche nicht. Welche Daten möchten Sie ‚at the edge‘ analysieren, um sofort darauf reagieren zu können? Und welche Daten möchten Sie zunächst in den Data Lake verschieben, um Geschäftsprozesse zu optimieren oder neue Funktionalitäten und Services zu entwickeln?

Schless erklärt: „Wenn Sie Daten von einer Maschine mit IoT-Sensoren auslesen, müssen Sie nicht alle Daten zentral sammeln. Die meisten davon möchten Sie ‚at the edge‘, in unmittelbarer Nähe, analysieren. Nur die Ergebnisse dieser Daten werden gespeichert – den Rest der Informationen benötigen Sie nicht mehr. Wenn jedoch eine Maschine defekt ist, möchten Sie die Daten verwenden können, um die Ursache des Fehlers zu ermitteln. Diese spezifischen Daten müssen zentral gespeichert und ausgewertet werden.“

Denken Sie über die Datacenterlandschaft nach

Die Kombination von „Cloud first“ und „Data first“ bedeutet, dass Unternehmen ihre Datacenterlandschaft überdenken müssen. Einerseits haben sie es mit Daten in vielen verschiedenen SaaS-, PaaS- und IaaS-Silos zu tun, andererseits mit Daten, die idealerweise in Bezug auf Latenzzeiten und Netzwerkkosten so nah wie möglich an der Quelle gespeichert und verarbeitet werden müssen. Dies erfordert eine überarbeitete Rechenzentrumsstrategie. Die Antwort von NorthC auf diese Herausforderung ist ein regionales, Cloud- und Carrier-neutrales Rechenzentrum, das beide Arten von Umgebungen schnell und sicher zusammenführt, um eine Konnektivitätsdrehscheibe in dem entstehenden Ökosystem bereitzustellen.

Expertenaustausch

Tauschen Sie sich mit unseren Experten aus und stellen Sie sicher, dass Ihre Datacenterstrategie auf einem soliden Fundament steht.