In einer Zeit, in der Cloud und das Aufkommen von KI-Anwendungsfällen den Wert riesiger Datensätze in die Höhe getrieben haben, sind Festplatten für Rechenzentrumsbetreiber wichtiger denn je. Festplatten speichern den Großteil der weltweiten Exabyte (EB) und Branchenanalysten gehen davon aus, dass Festplatten der Hauptnutznießer des anhaltenden EB-Wachstums sein werden. Dies wird insbesondere in Unternehmen und großen Cloud-Rechenzentren der Fall sein, in denen die meisten Datensätze der Welt gespeichert sind.

Befürworter der reinen Flash-Technologie behaupten seit Jahren, dass „Festplatten bald der Vergangenheit angehören“ und „das Rechenzentrum der Zukunft ausschließlich auf Flash basiert“. Diese Aussagen sind nicht intestine überholt. Ohne Frage sind Stable-State-Laufwerke (SSDs) eine wichtige Technologie und eignen sich intestine zur Unterstützung von Anwendungen, die Datenübertragung in Echtzeit erfordern. Festplatten werden jedoch weiterhin das Hauptziel für Exabyte in Rechenzentren bleiben.

Ein Mythos, der immer wieder kursiert, ist, dass nur Flash-Technologie die Leistungsanforderungen moderner Unternehmens-Workloads erfüllen kann. Darauf folgt oft die dringende Aufforderung, das Risiko des Abstiegs zu vermeiden, indem man „vereinfacht“ und „zukunftssicher“ auf reine Flash-Systeme umsteigt. In Wirklichkeit erfordert die Speicherarchitektur von Unternehmen einen Combine aus Medientypen, um die Kosten-, Kapazitäts- und Leistungsanforderungen bestimmter Workloads zu optimieren. Eine reine Flash-Nullsummenlogik schlägt aus drei Gründen fehl:

1. Die meisten modernen Workloads erfordern den Leistungsvorteil von Flash nicht.

Die meisten Daten der Welt befinden sich in der Cloud und in großen Rechenzentren. In diesen Umgebungen folgen die Workloads einer Pareto-Regel: Nur ein kleiner Prozentsatz der Workloads erfordert einen erheblichen Prozentsatz der Leistung. In den letzten fünf Jahren machten Festplatten quick 90 % der installierten Speicherbasis bei Cloud-Service-Providern und Hyperscale-Rechenzentren aus.

2. Unternehmen müssen Kapazität und Kosten sowie Leistung in Einklang bringen.

TCO-Überlegungen sind bei den meisten Entscheidungen zur Infrastruktur von Rechenzentren von zentraler Bedeutung. Dies erfordert eine Abwägung zwischen Kosten, Kapazität und Leistung. Optimale TCO werden erreicht, indem das kostengünstigste Medium – Festplatte, Flash oder Band – an die Arbeitslastanforderungen angepasst wird. Festplatten bleiben für die meisten Unternehmensaufgaben die kostengünstigste Choice. Sie haben einen Kostenvorteil von 6:1 professional Terabyte gegenüber SSDs, was Festplattenmedien zum unbestreitbaren Eckpfeiler der Speicherinfrastruktur von Rechenzentren macht.

3. Die angebliche Einfachheit einer einstufigen Speicherarchitektur ist eine Lösung auf der Suche nach einem Drawback.

Viele hybride Speichersysteme verwenden eine bewährte und fein abgestimmte softwaredefinierte Architektur, die die Stärken verschiedener Medientypen nahtlos in einzelne Einheiten integriert und nutzt. In Scale-Out-Rechenzentrumsarchitekturen für personal oder öffentliche Clouds werden Dateisysteme oder softwaredefinierter Speicher verwendet, um die Datenspeicher-Workloads über Rechenzentrumsstandorte und Regionen hinweg zu verwalten. Sie bieten mehr als ausreichende Flexibilität, sodass Unternehmen ihre Speicherzusammensetzung an sich ständig ändernde Anforderungen anpassen können.

Zusammenfassend lässt sich sagen, dass Cloud-, Hyperscale- und große Enterprise-Speicherarchitekturen Speicher auswählen, die Kosten, Kapazität und Leistung optimieren. Festplatten bedienen Workloads, die Flash nicht bedienen sollte. Flash bedient Workloads, die Festplatten nicht bedienen sollten. Beide Speichermedien werden im Rechenzentrum koexistieren, wobei Festplatten in absehbarer Zukunft in Bezug auf die gespeicherten Exabyte weiterhin dominieren werden.

_____________

(1) IDC, Multi-Consumer-Studie, Cloud Infrastructure Index 2023: Rechenleistungs- und Speicherverbrauch von 100 ServiceprovidernNovember 2023

Über den Autor

Jason Feist ist Seagate‘s Senior Vice President of Merchandise and Markets. Zu seinen früheren Positionen gehören Vice President of {Hardware} Engineering und Senior Director des Workplace of the CTO von Seagate. Feist hat 7 Patente erworben und 9 angemeldet und hat komplexe technische Lösungen in {Hardware}, Software program und Systemen implementiert. Er hat einen Abschluss in Elektrotechnik von der College of Minnesota.

Melden Sie sich für den kostenlosen insideBIGDATA-Publication an Publication.

Folgen Sie uns auf Twitter: https://twitter.com/InsideBigData1

Folgen Sie uns auf LinkedIn: https://www.linkedin.com/firm/insidebigdata/

Folge uns auf Fb: https://www.fb.com/insideBIGDATANOW



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert