Hochverfügbarkeit in einer DAS-Umgebung


So verbessern KMU ihre bestehende Speicherinfrastruktur
Ein Server-Cluster kann also in vielen Fällen das Problem der Datensicherheit und Kosten
lösen

Von Thomas Pavel, EMEA Storage Sales Director, Avago Technologies

(11.07.14) - Kleine und mittlere Unternehmen (KMU) in Deutschland haben in den vergangenen Jahren erheblich in IT investiert, um mit dem zunehmenden Tempo auf dem Weltmarkt Schritt zu halten. Dennoch bleibt zumindest eine große Herausforderung, mit der heute fast jedes mittelständische Unternehmen zu kämpfen hat: das exponentielle Wachstum der Daten. Mehr Daten als je zuvor, generiert von Geschäftsapplikationen, Datenbanken, mobilen Geräten oder Social Media, wollen verwaltet und geschützt werden. Darüber hinaus erwarten Anwender, dass die Daten jeden Tag rund um die Uhr verfügbar sind, um ihre Produktivität zu maximieren. Und zwar ohne Wartezeiten.

Das Zentrum jeden Netzwerks ist der Speicher, der die Daten im besten Fall sicher und kostengünstig speichert und allen Applikationen schnell zugänglich macht. Doch eine solche Storage-Technologie bereitzustellen, ist für KMU aufgrund der damit verbundenen Kosten bisher schwierig gewesen. Ein Grund dafür: Die meisten kleineren Unternehmen verwenden in ihren Rechenzentren DAS (Direct Attached Storage). Diese Speichertechnologie können sie einfach implementieren und verwalten.

Bislang unmöglich: Hochverfügbarkeit in einer DAS-Umgebung
Kleinere Unternehmen mögen Single-Node-Server und DAS, denn diese können einfach skaliert werden. Unternehmen brauchen lediglich weitere Server und mehr Speicher hinzuzufügen. Der einzige Nachteil: Es war bislang unmöglich, in einer DAS-Umgebung für Hochverfügbarkeit zu sorgen. Die IT-Systeme können die auf unterschiedlichen gespeicherten Daten nicht gemeinsam nutzen und daher auch die Verfügbarkeit kritischer Anwendungen nicht gewährleisten. KMU haben schwer damit zu kämpfen, das Ziel eines schnellen, skalierbaren und zudem noch hochverfügbaren Speichers zu erreichen.

Hochverfügbaren Speichersystemen liegen oft komplexe SANs (Storage Area Network) mit High-End-Fibre-Channel-Verbindungen zugrunde. Diese erfordern spezialisierte IT-Mitarbeiter und beträchtliche Mittel, um sie anzuschaffen und zu verwalten. Das Upgrade auf ein SAN kommt für viele Mittelständler aufgrund der damit verbunden Kosten nicht in Frage.

Redundante Speicherkonfigurationen in KMU
Nun sind seit kurzem Lösungen auf dem Markt erhältlich, die die Ausgangslage verändern. Sie bieten vollständig redundante Speicherkonfigurationen in KMU-Umgebungen, ohne dass dafür teure oder komplizierte Failover-Mechanismen und SANs benötigt werden.

Eine kostengünstige Variante stellt ein Small-Form-Factor-Server-Clusters mit Failover dar. Eine solche Lösung bietet skalierbaren, direkt angeschlossenen Hardware-RAID-basierten Speicher, also einen gemeinsam genutzten DAS. Derartige Systeme bieten manuelles und automatisches Failover für geplante und ungeplante Ausfälle, und stellen so die gewünschte Hochverfügbarkeit kritischer Anwendungen sicher. Sie bieten darüber hinaus modulare Komponenten mit Hot-Swap-Funktion (Austausch von defekten Festplatten bei laufendem Betrieb). So können auch Mitarbeiter, die keine IT-Spezialisten sind, zeitnah Reparaturen vornehmen. Der Supportbedarf verringert sich und das Unternehmen maximiert die Betriebszeit.

Zu einem Bruchteil der Kosten herkömmlicher Hochverfügbarkeits-Lösungen erreichen KMU somit Hochverfügbarkeit von Anwendungen. Sie profitieren in dieser Variante weiterhin von der einfachen Implementierung, Verwaltung, Skalierung sowie einer niedrigen Latenz und einem geringen Energieverbrauch.

Performance verbessern und Daten in Echtzeit nutzen
Wenn Unternehmen mit DAS-basierten Rechenzentren ihre Speicherkapazitäten erweitern wollen, setzen sie traditionell auf RAID-Technologie. RAID ermöglicht es, Leistung, Datenredundanz, Verfügbarkeit und Kosten in Einklang zu bringen. Die Grundidee von RAID-Systemen ist, dass sie die Daten zum Zweck des schnelleren Zugriffs und der Datensicherheit auf zahlreiche Festplatten verteilt speichern.

Ein Hardware-RAID-System, also ein System dem ein Speichercontroller zugrunde liegt, bietet in der Regel sehr gute Zugriffszeiten. Der Vorteil gegenüber Software-basiertem RAID besteht darin, dass der Controller den Server von den für RAID nötigen Rechenressourcen entlastet. Der Host kann somit seine eigentlichen Aufgaben schneller erledigen. RAID-Controller unterstützen zahlreiche RAID-Level einschließlich denen, welche die höchste Datensicherheit bieten, wie RAID 6, RAID 50 und RAID 60.

Ein Server-Cluster kann also in vielen Fällen das Problem der Datensicherheit und Kosten lösen. RAID kann für eine höhere Leistung der Speicher-Arrays sorgen. Viele KMU suchen aber nach zusätzlichen Möglichkeiten, ihre Speicherleistung im Rahmen ihrer bestehenden DAS-Infrastruktur zu verbessern.

Denn während die Leistung auf Prozessorseite in den letzten zehn Jahren massiv stieg, hinkt der Speicherbereich hinterher. Er bleibt trotz RAID der Engpass im Rechenzentrum. Jeder Anwender kennt es, wenn Anwendungen einfrieren, weil sie auf Daten warten. Unternehmen verlieren so an Produktivität und je nach Branche entgehen ihnen Transaktionen und Geschäftschancen. Nahe liegt damit der Gedanke, beim Speicher auf SSDs, also Flash-Speicher zu setzen.

Caching von Daten auf Flash-basierten Controllern
Die Flash-Technologie ist geradezu zu einem Synonym für Geschwindigkeit geworden. Doch auch hier machen es die hohen Preise kleineren Unternehmen unmöglich, einfach HDDs mit SSDs zu ersetzen. Es gibt jedoch eine kostengünstige Methode, Flash zur Beschleunigung der Prozesse im Rechenzentrum einzusetzen: das Caching von Daten auf Flash-basierten Controllern. Dies funktioniert tatsächlich einfach durch den Einsatz eines geeigneten Hardware-Controllers, ohne sonstige Änderungen in der Speicherarchitektur. Eine solche kombinierte Flash- und HDD-Lösung ist darauf ausgerichtet, weitaus niedrigere Kosten pro Transaktion zu bieten, als reine Flash-Speicher-Produkte.

Flash-Beschleunigerkarten beschleunigen Anwendungen, indem sie die RAID-Leistung vom DAS mit intelligentem Caching auf dem eigenen Flashspeicher kombinieren. Die integrierte Software beseitigt den I/O-Engpass. Eine solche Implementierung ist wesentlich kosteneffizienter als reine SSD-Arrays einerseits oder überdimensionierte Umgebungen mit sehr vielen direkt angeschlossenen HDDs. Die Caching-Algorithmen identifizieren "Hot Spots", also Daten, auf welche die Anwendungen häufig zugreifen. Diese cacht die Beschleunigerkarte und der Controller ruft sie direkt vom Flash-Speicher auf der PCIe-Karte ab, um die Latenz zu minimieren.

Die Folge sind kürzere Reaktionszeiten und eine verbesserte Servicequalität. Eine SQL-Server-Datenbank beispielsweise, die von einer OLTP-Arbeitslast in einer Konfiguration mit intelligentem Caching und integriertem Flash-Speicher genutzt wird, kann eine 80 Mal schnellere Reaktion erzielen im Vergleich zu einer Hardwarekonfiguration, die ausschließlich HDDs enthält.

Dank 12Gb/s-SAS-Technologie stehen zudem Speicherlösungen mit verbesserter Geschwindigkeit der Datenübertragung zur Verfügung, die diese um bis zu 50 Prozent beschleunigen kann. Diese Technologie erfüllt die anspruchsvollen Leistungsanforderungen von transaktionalen Datenbanken, Web 2.0, Data-Mining sowie Umgebungen für Video-Streaming und Videobearbeitung.

Bestehende Storage-Architekturen anpassen
Viele KMU wissen, dass sie durch Datenwachstum und die Anforderungen aktueller Anwendungen mit ihren Speichertechnologien an ihre Grenzen kommen. Sie denken zu Recht intensiv darüber nach, wie sie Systeme mit einer hohen Leistung und Sicherheit bereitstellen können. Mit Serverclustern, Flash-Beschleunigerkarten und 12Gb/s-SAS gibt es heute relativ preiswerte Möglichkeiten, um bestehende Storage-Architekturen im Mittelstand an die heutigen Anforderungen anzupassen. Damit können kleine und mittlere Unternehmen ihre Anwendungen beschleunigen, für Datensicherheit sorgen und die Daten über hochverfügbare Systeme bereitstellen, die denen weitaus größeren Unternehmen gleichkommen und zwar ohne das Festgeldkonto zu plündern. (Avago Technologies: ra)

Avago Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

Der CISO: Definition und Aufgaben

Was muss ein CISO mitbringen? In der heutigen Bedrohungslandschaft tragen Chief Information Security Officers eine erhebliche Verantwortung. Sie haben großen Einfluss auf das Unternehmen und müssen ihren Wert und ihre Kompetenz regelmäßig unter Beweis stellen.

Welche Spuren interne Täter im Netzverkehr legen

Viele Diskussionen malen gerne den eigenen Mitarbeiter als IT-Sicherheitsrisiko an die Wand. Die tatsächliche Gefahr, die von ihm ausgeht, ist aber oft unklar. Verschiedene Täterprofile interner Angreifer können größeren Schaden anrichten.

Verbesserte IT-Sicherheit und Resilienz

Anlässlich der EU-NATO-Task Force über die Resilienz der Kritischen Infrastruktur (KRITIS) in Europa mehren sich auch in Deutschland die Diskussionen darüber, wie diese bestmöglich geschützt werden kann. Die vier Schlüsselbereiche, die laut des vor Kurzem veröffentlichten EU/NATO-Papiers eine erhöhte Anfälligkeit für Cyber-Angriffe bieten und somit besonders schützenswert sind, sind Energie, Verkehr, digitale Infrastruktur und Weltraum.

KI macht Ransomware noch gefährlicher

Ransomware ist schon längere Zeit ein echtes Problem für Organisationen jeder Art und Größe. Betrachtet man die neuesten Entwicklungen, ist keine Entwarnung in Sicht. Eher im Gegenteil: Die Kriminellen nutzen mittlerweile KI, um ihre Angriffe noch effizienter zu machen.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.