Big Data: Pure Storage sieht vermehrt Verschiebung von kalten zu heißen Daten

Seit vielen Jahren geistert Big Data als Schlagwort durch die Industrie und die Medien. In jüngster Zeit wird dabei immer lauter die Frage gestellt, ob denn Big Data in der Praxis über das reine Anhäufen großer Datenmengen hinausgeht. [...]

Markus Wolf, Regional Director Systems Engineering bei Pure Storage
Markus Wolf, Regional Director Systems Engineering bei Pure Storage (c) Pure Storage

„Bis 2020 wird jeder Mensch 1,7 MB Daten pro Sekunde erzeugen. Darüber hinaus wird Big Data bald die 44-Zettabyte-Marke überschreiten. Dies ist erstaunlich, wenn man bedenkt, dass derzeit nur 0,5 Prozent der Daten tatsächlich analysiert und genutzt werden“, beobachtet Markus Wolf, Regional Director Systems Engineering bei Pure Storage. „Jedes Unternehmen, von der Automobilindustrie über Finanzdienstleister bis hin zur Fertigungsbranche, möchte heute als Datenunternehmen oder technologieorientiertes Unternehmen wahrgenommen werden.“

Warum gibt es dieses Ungleichgewicht?

Der Datenspeicherplatz befindet sich in einer Phase der Transformation, und viele Unternehmen sind nach Meinung von Pure Storage noch nicht gerüstet, um ihr wichtigstes Kapital, ihre Daten, zu nutzen. Früher wurden „heiße“ und „kalte“ Daten unterschieden. Unternehmen wollten sofortigen Zugriff auf ihre heißen Daten, oft mit Echtzeit-Analyse oder KI-Protokollen (KI=künstliche Intelligenz), um Einblicke und Werte zu gewinnen. Sie hatten aber auch kalte Daten, die zu Wiederherstellungszwecken gespeichert wurden, typischerweise auf Festplatte oder sogar auf Band. Diese unterschiedlichen Speicherstufen führten zu höherer Komplexität, mehr Kosten und Ineffizienz.

Vor einigen Jahren hat Flash eine entscheidende Entwicklung im Datenspeichermarkt ausgelöst. Ursprünglich als Premium-Technologie für Tier-1-Anwendungsfälle gedacht, ist Flash heute ein Muss. Das NVMe-Protokoll (Nonvolatile Memory Express) treibt den nächsten großen Fortschritt bei der Geschwindigkeit und Konsolidierung von Enterprise Storage voran. NVMe ist schneller, bietet mehr Parallelität als SAS (Serial Attached SCSI) und ermöglicht eine deutliche Steigerung der Leistung und Dichte für diejenigen Speicherarchitekturen, die dafür bereit sind.

Durch den Einsatz modernster Technologien wie Flash und NVMe können die bisherigen heißen und kalten Kategorien von Daten eliminiert werden, da alle Daten an einem Ort konsolidiert werden. Somit können die Daten in Echtzeit durch KI– und ML-Protokolle (maschinelles Lernen) analysiert werden. Damit sind Unternehmen wesentlich besser in der Lage, Erkenntnisse aus Daten zu gewinnen, die zur Sicherung von Wettbewerbsvorteilen in ihren jeweiligen Märkten genutzt werden können.

Der nächste Schritt – die datenzentrierte Architektur

„Einen Schritt weiter zu gehen, als Daten für die Echtzeitanalyse zur Verfügung zu stellen, bedeutet, sie in den Mittelpunkt der Infrastruktur zu stellen. Dies bedeutet, eine datenzentrische Architektur (DCA) aufzubauen. Ich glaube, dass die Zukunft im DCA-Ansatz liegt, während sich die Anwendungsarchitekturen im Laufe des nächsten Jahrzehnts ändern werden“, erläutert Markus Wolf. „Das Konzept sieht vor, dass sich die Architektur von morgen auf einen breit geteilten Satz von Datendiensten konzentriert, die den freien Datenaustausch zwischen herkömmlichen und neuen Web-basierten Anwendungen ermöglichen. Eine DCA ist in der Lage, den Leistungsschub von NVMe-basierten Lösungen zu nutzen.“

Unternehmen betreiben ihre IT nicht aus Server- oder Netzwerkzentren heraus, sondern aus Rechenzentren, die im Englischen „Data Centers“ genannt werden – aus gutem Grund. Daten sind die wichtigste Ressource, und die Architektur sollte dies widerspiegeln. Daten müssen so schnell wie möglich gesichert, geteilt, abgerufen und verarbeitet werden. Bisher haben sich nur sehr wenige Unternehmen die Zeit genommen, eine Architektur zu etablieren, die nicht nur für heute an der Spitze steht, sondern auch für morgen zukunftssicher ist. Der Einsatz einer DCA mit All-Flash-Technologien ist unvermeidlich geworden, um sicherzustellen, als Unternehmen technologisch nicht zurückzubleiben.

Aus der Pole-Position zum Erfolg

Matt Harris, IT-Leiter von Mercedes-AMG Petronas Motorsport, hat im November 2018 auf der Big Data LDN  (Big Data London) erläutert, wie All-Flash-Lösungen dazu beigetragen hat, dass sich der Rennstall einen Vorteil auf und neben der Strecke sichern konnte. Mercedes AMG-Petronas Motorsport nutzt die Technologie, um Daten von über 250 Sensoren an seinen Rennwagen sowie in seiner Forschungs- und Entwicklungsabteilung zu sammeln. Diese Daten dienen dazu, um komplexe Simulationen durchzuführen und bei der Konstruktion zukünftiger Autos zu helfen. Dies ist nur ein Beispiel aus dem Motorsport. Vollständig flashbasierte All-NVMe-Lösungen helfen bereits Unternehmen in vielen Bereichen, eine bessere Welt mit Daten aufzubauen.

Werbung


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .