Immer mehr Unternehmen streben danach, „datengesteuert“ zu werden. Die Anzahl der Initiativen zum Sammeln und Analysieren von Daten wächst rasant, darunter IoT (Internet der Dinge), KI (künstliche Intelligenz), ML (maschinelles Lernen) usw. Zudem besteht ein großer Bedarf, Daten aus verschiedenen Quellen und in verschiedenen Clouds auf logische und zusammenhängende Weise zu analysieren. Doch wie können die Daten in diesen unterschiedlichen Silos miteinander verbunden werden? Und welche Strategie ist für das Rechenzentrum geeignet?
Daten in vielen verschiedenen Clouds
Herausforderungen aufgrund der Datenfragmentierung
Diese Fragmentierung führt zu einer Reihe von Problemen, erklärt Alexandra Schless, CEO von NorthC. „Die Kunden wissen nicht immer, wo sich ihre Daten befinden, insbesondere wenn es sich um datenschutzsensible Informationen von Kunden oder Mitarbeitern handelt. Für diese Unternehmen gestaltet es sich daher schwierig, die Datenschutzgesetze einzuhalten.“
Des Weiteren kämpfen die IT-Abteilungen damit, sicherzustellen, dass alle Cloud- und anderen Datenbanken die gleichen hohen Standards in Bezug auf Qualität, Kontinuität und Sicherheit erfüllen. Kennen Sie viele Unternehmen, die beispielsweise ein Backup ihrer Microsoft 365 Umgebung erstellen?
Darüber hinaus ist es aufgrund der Datengravitation oft schwierig, Daten aus den verschiedenen Silos zu extrahieren. Dies bezieht sich auf das wachsende Phänomen, dass Daten Anwendungen und Dienste anziehen, einfach weil es einfacher ist, die Anwendung oder den Dienst dorthin zu verlagern, wo die Daten sind, als andersherum.
Data Lake in der Cloud
Schless erklärt: „Diese drei Aspekte bedeuten, dass die Analytik innerhalb einer Anwendung gut funktioniert, zum Beispiel die Analyse von Kundendaten in Salesforce. Aber es wird eine Herausforderung sein, die Daten aus Ihrem CRM-System mit beispielsweise den ERP-Daten in einer anderen Cloud zu kombinieren. Man kann zwar die Ergebnisse der einzelnen Analysen kombinieren, aber nicht die zugrunde liegenden Datensätze.“
Aus diesem Grund entscheiden sich immer mehr Unternehmen für einen „Data Lake“: einen zentralen Ort, an dem alle Daten in unstrukturierter Form gespeichert werden. Dies ermöglicht es, Daten aus verschiedenen Quellen gemeinsam zu analysieren. Angesichts der enormen Datenmengen im Data Lake liegt es nahe, diesen selbst in die Cloud zu legen. Da jedoch das Verschieben solch großer Datenmengen keine einfache Aufgabe ist, sollten auch die Analysetools in dieselbe Cloud platziert werden. Schless fügt hinzu: „Was vielen Unternehmen nicht bewusst ist, sind die Netzwerkkosten, die eine solche Strategie mit sich bringt. Letztlich geht es darum, sehr große Datenmengen in den Data Lake zu übertragen.“
Edge Computing liefert die Antwort
Einige Daten werden immer noch zentral ausgewertet
Denken Sie über die Datacenterlandschaft nach
Expertenaustausch
Tauschen Sie sich mit unseren Experten aus und stellen Sie sicher, dass Ihre Datacenterstrategie auf einem soliden Fundament steht.