Speicher über alle Plattformen hinweg klug auslasten

Wer seine Daten und Speicherressourcen effizient managt, kann Ressourcen klüger auslasten, Kosten senken und Compliance-Anforderungen strenger durchsetzen. Dafür ist es wichtig, in die Daten hineinzuschauen, unabhängig davon, wo sie liegen. [...]

Durch die neu gewonnene Transparenz können Unternehmen ihr Archivierungskonzept verbessern. (c) Pixabay
Manchmal können Daten gerettet werden, manchmal auch eben nicht. (c) Pixabay

Die großen Anbieter von Storagesystemen liefern heute sehr ausgefeilte Management-Tools mit, wenn sie ihre Hardware verkaufen. In ihrer Systemwelt können sie dann gut steuern, wo genau Daten abgelegt werden sollen. Solche Werkzeuge überwachen den Gesundheitzsustand des Gesamtsystems und prüfen auch, ob Backups sauber durchgeführt wurden.

Dieser Ansatz funktioniert innerhalb einer kleinen IT-Umgebung reibungslos und gut, kommt in größeren, heterogenen Infrastrukturen aber an seine Grenzen: Wenn jede einzelne Hardware-Insel und deren Backuplösung über ein isoliertes dazugehöriges Reporting-Tool überwacht wird, ist ein unternehmensübergreifender Blick auf die Storage- und Backupsituation kaum möglich. Außerdem müssen sich die zuständigen IT-Teams in unterschiedliche Werkzeuge, ihre Arbeitsweise und Konzeption einarbeiten.

Wer den Überblick behalten und sich ungern in Silos isolieren lassen will, kann die verschiedenen Tools und deren Ergebnisse an einer Stelle konsolidieren und gewinnt so einen „Hardware-agnostischen“ Überblick. Mithilfe einer solchen Software können Unternehmen beispielsweise sofort erkennen, welche virtuellen Maschinen zwar von einer Fachabteilung angefordert, aber niemals aktiviert wurden. Auch Konfigurationen, bei denen ein Administrator die Aufbewahrungszeit versehentlich auf „permanent“ gestellt hat, sodass ein Backup niemals gelöscht wird, lassen sich damit sehr gut und schnell aufspüren. Ein weiterer häufiger „Fund“ in solch einem Szenario sind Laufwerke, die versehentlich nicht in die Sicherung aufgenommen wurden.

Lösungen wie Aptare IT Analytics haben sich in solchen Einsatzfällen bewährt. Sie konsolidieren bis zu 30.000 Datenpunkte und helfen Unternehmen dabei, wertvollen Speicherplatz zu sparen. Das gilt sowohl für Cloud-Umgebungen, On-Premises als auch hybride Infrastrukturen gleichermaßen. Außerdem können Unternehmen damit auch ihren Compliance-Anforderungen wesentlich leichter nachkommen, wovon besonders Unternehmen in kritischen Bereichen profitieren. Dazu gehören etwa Banken, die in regelmäßigen Abständen bei Audits demonstrieren müssen, dass wichtige Daten ordnungsgemäß über Backups gesichert werden.

Schneller Return on Investment

Durch die neu gewonnene Transparenz können Unternehmen ihr Archivierungskonzept verbessern und damit eine Menge Geld sparen. Jedes gesparte Terabyte an Daten bringt im Schnitt zwischen 600 und 700 Euro Kosteneinsparungen mit sich. Somit ist der Return on Investment für eine entsprechende Lösung innerhalb kurzer Zeit erreicht.

Ein weiterer Vorteil: IT-Verantwortliche können ihre Kostenstruktur gegenüber dem Management wesentlich effizienter und genauer dokumentieren. Dabei helfen Prognosefunktionen, den Einkauf von Speicher wesentlich besser zu steuern: Wer bei einem Speicheranbieter von Zeit zu Zeit kleinere Tranchen an Storage ordert, ist schließlich in einer schlechteren Verhandlungsposition als derjenige, der über eine genaue Bedarfsprognose für die kommenden zwei Jahren verfügt. Entsprechend groß ist auch der Spielraum, um Mengenrabatte auszuhandeln.

Viel Potenzial ergibt sich auch dadurch, die Funktion Storage Tiering effizienter umzusetzen. So zeigt eine Lösung wie Aptare auf einen Blick, auf welche Speicherbereiche besonders häufig zugegriffen wird. Idealerweise werden diese auf schnellen SSD vorgehalten. Andere, weniger häufig nachgefragte Daten können in der Folge auf preiswertere Speicherarten verlagert werden – von der SATA-Platte bis zum Bandlaufwerk für die Langzeitarchivierung. Auch Deduplizierungslösungen lassen sich auf diese Weise überwachen und optimieren.

Damit sich all diese Analysen leichter mit konkreten Kosten verbinden lassen, gibt es außerdem die Möglichkeit, entsprechende Einträge für die verschiedenen Speicheranbieter vorzunehmen. So lassen sich beispielsweise die Verrechnungsdaten von AWS Glacier hinterlegen. Die Software erkennt anschließend sofort, welche Backupdaten immer wieder kostspielig aus dem Speicher gezogen werden und deshalb auf einer preiswerteren und leichter verfügbaren Alternative untergebracht wären. Aber auch global liefert die Lösung über ein Dashboard sofort Einblicke darüber, welche Teile der IT-Infrastruktur aus Backup-Sicht immer wieder für Probleme sorgen.

Einblicke auf allen Ebenen

Durch den Einsatz einer entsprechenden Lösung bekommen Unternehmen folglich einen guten Überblick über die die gesamte Infrastruktur On-Premises und in der Cloud und können fundiertere Entscheidungen treffen. Dabei haben die Verantwortlichen vom Band über die Festplatte bis zur Cloud eine einheitliche und gemeinsame Berichtsplattform, die auf einen Blick alle relevanten Informationen liefert. Gerade in hybriden und Multi-Cloud-Umgebungen ist das ein großer Vorteil. Mithilfe dieser Lösung können IT-Abteilungen außerdem den künftigen Bedarf an Speicher wesentlich besser einschätzen und durch die Optimierung der Infrastruktur Kosten senken. Ein weiterer wesentlicher Vorteil ist die unkomplizierte Erfüllung von Compliance- und SLA-Anforderungen.

*Marc Ahlgrim ist Digital Transformation Specialist Risk Mitigation and Compliance, GDPR.


Mehr Artikel

News

YouTube-KI verschärft Altersbeschränkungen

Google-Tochter YouTube will Altersbeschränkungen bei Videos mithilfe von Künstlicher Intelligenz (KI) stärker durchsetzen. Ab jetzt werden deutlich mehr Inhalte einen Account-Login erfordern, mit dem User ihre Volljährigkeit nachweisen müssen. Kinder und Jugendliche sollen dadurch weniger verstörende oder hasserfüllte Videos sehen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*