Block oder File war gestern


Die Ära des VM-zentrischen Speichers hat begonnen
VM-zentrischer Speicher bietet Analysen in Echtzeit und kann somit den Performancebedarf einer jeden VM offenlegen

(18.03.16) In seinem bekannte Buch 'The seven habits of highly effective people' beschreibt Stephan R. Covey die Macht eines Paradigmenwechsels, also die Änderung einer grundsätzlichen Denkweise. Ein Paradigmenwechsel macht es möglich einen Sachverhalt zu erkennen, der vorher aufgrund eine anderen Denkweise nicht möglich schien.

In der IT werden wir jeden Tag mit neuen 'revolutionären', 'bahnbrechenden' oder 'disruptiven' Technologien konfrontiert, deren Neuerung beim genauen Hinsehen eher in der kreativen Neuformulierung von Marketingphrasen besteht, als aus wirklich neuen Entwicklungen. Die wirklichen Revolutionen sind auf den ersten Blick selten für jeden zu sehen und brauchen trotz allem revolutionärem Impetus eine Weile um im Alltag der Rechenzentren anzukommen.

VM-zentrischer Speicher ist ein gutes Beispiel dafür. Auch VM-zentrischer Speicher speichert natürlich Blocks und baut auf bewährter Speichertechnologien auf. Bedenkt man aber den Anteil an virtuellen Workloads bereits heute und in Zukunft, kommt man zu dem Ergebnis, dass der Speicher der Zukunft VM-zentrisch sein muss. Erst dieser Paradigmenwechsel macht es möglich sich von alten Speichertechnologien zu lösen, die nicht mehr Zeitgemäß sind, weil ihr Ansatz nicht VM-zentrisch ist.

Entsprechend sieht auch Kieran Harty, CEO und Mitbegründer von Speicherhersteller Tintri eine neue Speicherära aufkommen: Die Ära des VM-zentrischen Speichers, der den beiden ersten Ären 'Block' und 'File' folgt.

Mehr als zwanzig Jahre lang basierte konventioneller Speicher auf Block- oder File-Speicher. Die Speicherwelt war recht einfach und da beide Technologien in der Lage waren Unternehmensapplikationen zu unterstützen, teilte sich der Speichermarkt überschaubar in zwei überlappende Lager auf. Jeweils abhängig vom Anwendungsfall und der Kapazität konnten SAN-, NAS- und DAS-Segmente von einer Vielzahl von Herstellern mit ähnlichen Speichersystemen bedient werden.

Block-Speicher definierte die erste Ära des Speichers seit den frühen neunziger Jahren. Firmen wie EMC verkauften in dieser Ära auch physisch tatsächlich sehr große Speicherkisten, die die noch recht überschaubare Speichermenge einer jeden Firma zu jener Zeit gut verwalten konnte. Um die Jahrtausendwende verlangte die digitale Transformation und die damit eingehend wachsende Datenmenge nach einem einfacheren Speicher, der vor allem Dateien speichern konnte. Dies war der Beginn der zweiten Ära des Speichers: File-Speicher, seit seiner Einführung auch einfach oft nur "Filer" genannt. File-Speicher half dabei, hierarchische Daten sehr einfach zu speichern. Nichts deutete auf den Beginn ein neues Zeitalter in der Speichertechnologie hin.

Doch dann kam Virtualisierung und krempelte die gesamte IT-Industrie grundlegend um. Auch die Speicherindustrie blieb nicht verschont: Virtualisierung trennte Speicher von physischen Workloads und stellte die früheren Speichertechnologien vor massive Herausforderungen, die offenbar nur durch einen komplett neuen Speicheransatz lösbar sind. In die Reihe SAN, NAS und DAS reiht sich nun ein weiterer Begriff ein: VAS (VM-Aware Storage, VM-zentrischer Speicher), der nach Block und File nun die dritte Ära des Speichers einläuten könnte: Die Ära des VM-zentrischen Speichers.

Konventioneller Speicher für Virtualisierung ungeeignet
Die Geschichte von Datenspeichern für Unternehmen reicht Jahrzehnte zurück. Es gab große Speicherlösungen schon für Mainframes lange bevor das PC-Zeitalter für ein exponentielles Datenwachstum sorgte. Der erste Fokus bestand aus DAS (Direkt Attached Storage), die entweder an Server oder PCs angeschlossen waren. Über die Zeit versuchten Organisationen ihre Speicherressourcen mehr und mehr an das gesamte Netzwerk zu liefern, was in NAS- und SAN-Ansätzen resultierte. Konventioneller Speicher, ob direkt oder vernetzt, hat Speicher für Jahrzehnte definiert und würde dies wohl auch noch für viele weitere Jahre tun, wenn nicht infolge Virtualisierung und Cloud die Karten neu gemischt worden wären. In einem modernen Rechenzentrum sind heute jedoch bereits ungefähr 75 Prozent aller Workloads virtualisiert Tendenz steigend. Ältere Speichertechnologien, die für eine physische Welt entwickelt wurden, eignen sich für Virtualisierung hingegen weniger.

Die beiden heutzutage größten Probleme bei der Speicherung von immer mehr Daten sind Performance und komplexe Verwaltung, wobei Admins vor allem Random I/Os zu schaffen machen, wie sie vermehrt in virtualisierten Umgebungen vorkommen. Virtuelle Umgebungen generieren eben weitaus mehr Random I/Os als physische und bremsen den Speicher damit aus. Server können nun einmal mehrere Tausend VMs unterstützen, jede einzelne davon mit ihrem eigenen I/O-Stream. Konventioneller Speicher kann da einfach nicht mithalten.

Um die technologischen Limitierungen von konventionellem Speicher zu überwinden, begannen Hersteller schnelleren Flash-Speicher zu nutzen, um mehr IOPs zu generieren. Flash kann zwanzigmal geringere Latenzen und Zehntausende IOPs erreichen und das bei hoher Datendichte und geringem Energieverbrauch. Der fallende Preis für Flash half einigen Speicherherstellern von konventionellen, langsamen physischen Speichersystemen, da sie ein teures Flash-Etikett auf ihre Produkte kleben konnten, um ihren alternden Systemen vermeintlich Beine zu machen. Eine Flash-Ebene sollte die Performance-Probleme lösen, über die viele Kunden aufgrund gesteigerter Workloads von Virtualisierung und der Cloud klagten.

Der Beginn der Ära des VM-zentrischen Speichers?
Zwar sind ältere Speichersysteme mit einem hinzugefügten Flash-Speicher schneller als vorher, sie haben aber weiterhin eine fundamentale Beschränkung, da der Speicheransatz konventionell ist basierend auf LUNs und Volumes. Flash-Speicher gibt einer Organisation eine Menge IOPS an die Hand. Noch besser wäre es jedoch zu wissen, wie dieser Performance-Boost am besten eingesetzt werden kann. Insbesondere dann, wenn die Menge virtualisierter Workloads einer Firma stetig wächst und man so effizient wie möglich wachsen will.

Speicher an sich bietet einem Unternehmen generell ja keinen Mehrwert den bieten die Anwendungen, die auf dem Speicher laufen. Admins verwalten Anwendungen und benötigen Einsicht in die Performance-Parameter einer jeden individuellen VM und das in Echtzeit. VM-zentrischer Speicher bietet diese Analysen in Echtzeit und kann somit den Performancebedarf einer jeden VM offenlegen, was dabei hilft, Workloads effizient über verschiedene Typen von Arrays auszubalancieren und somit Ressourcen spart.

Unternehmen, die weniger in konventionellen Speicherkonzepten denken, wie etwa LUNs, Volumes oder Striping, sondern sich auf VMs konzentrieren, werden die Kosten für Speicher besser kontrollieren können. VM-zentrischer Speicher kann den Fokus vom Speicher nehmen und ihn auf Applikationen lenken, wo er auch hingehört.

Block- und Filespeicher waren zu ihrer Zeit revolutionär. Heute können diese Technologien nicht mit den Bedürfnissen von Unternehmen mithalten, die in Virtualisierung und Cloud investieren. Die Transformation hin zu einem vollkommen virtualisierten Rechenzentrum beschleunigt auch den Einsatz von Speicher für dieses Zeitalter: Der Ära des VM-zentrischen Speichers.

Über den Autor
Kieran Harty ist Chief Technology Officer und Mitbegründer von Tintri. Bevor er die Rolle als CTO einnahm, diente er Tintri als Chairman. Sieben Jahre lang trieb er davor als Executive Vice President der Forschungs- und Entwicklungsabteilung bei VMware die Entwicklung aller VMware-Produkte voran, inklusive der ersten und darauf folgende ESX Server, Virtual Center und VMwares Desktop-Produkte. Vor VMware war Harty Vice President R&D bei Visigenir/Borland und Chief Scientiest bei TIBCO. Harty hält einen Master in Computerwissenschaften des Trinity College Dublin.
(Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

Welche Spuren interne Täter im Netzverkehr legen

Viele Diskussionen malen gerne den eigenen Mitarbeiter als IT-Sicherheitsrisiko an die Wand. Die tatsächliche Gefahr, die von ihm ausgeht, ist aber oft unklar. Verschiedene Täterprofile interner Angreifer können größeren Schaden anrichten.

Verbesserte IT-Sicherheit und Resilienz

Anlässlich der EU-NATO-Task Force über die Resilienz der Kritischen Infrastruktur (KRITIS) in Europa mehren sich auch in Deutschland die Diskussionen darüber, wie diese bestmöglich geschützt werden kann. Die vier Schlüsselbereiche, die laut des vor Kurzem veröffentlichten EU/NATO-Papiers eine erhöhte Anfälligkeit für Cyber-Angriffe bieten und somit besonders schützenswert sind, sind Energie, Verkehr, digitale Infrastruktur und Weltraum.

KI macht Ransomware noch gefährlicher

Ransomware ist schon längere Zeit ein echtes Problem für Organisationen jeder Art und Größe. Betrachtet man die neuesten Entwicklungen, ist keine Entwarnung in Sicht. Eher im Gegenteil: Die Kriminellen nutzen mittlerweile KI, um ihre Angriffe noch effizienter zu machen.

Von Erpressungsangreifern verwendete Kryptowährungen

Erpressungsangriffe sind eine immer häufiger auftretende Form von E-Mail-Betrug. Hierbei drohen Cyberkriminelle ihren Opfern mit der Veröffentlichung von kompromittierenden Informationen, etwa einem peinlichen Foto, und fordern eine Zahlung in Kryptowährung. Oft kaufen die Angreifer die Anmeldedaten der Opfer oder erlangen sie durch Datenlecks, um zu "beweisen", dass ihre Drohung legitim ist.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.