Datenspeicher für das IoT-Zeitalter

Lesezeit
2 Minuten
Bis jetzt gelesen

Datenspeicher für das IoT-Zeitalter

05.01.2022 - 14:00
Veröffentlicht in:
Die meisten Daten werden heute nicht mehr auf Computern oder in Rechenzentren generiert, sondern von Milliarden vernetzten Maschinen, Smart Devices und Sensoren. Deren Speicher müssen hohe Anforderungen erfüllen. Flash ist hier das Speichermedium der Wahl. Doch unterscheiden sich die Anforderungen an die Schreib- und Leseperformance, Speichergrößen, Leistungsaufnahme sowie Schnittstellen je nach Anwendungsfall deutlich. Dieser Artikel schildert, welche Flash-Lösungen für welche Einsatzszenarien geeignet sind.
In den meisten Unternehmen wachsen die Datenmengen heute exponentiell, woran vernetzte Maschinen, Smart Devices und unzählige neue Sensoren einen entscheidenden Anteil haben. Mit ihnen verlagert sich der Schwerpunkt der Datengenerierung von den Rechnern der Mitarbeiter und aus den klassischen Rechenzentren an den äußersten Rand der Infrastruktur, den sogenannten Edge. Teilweise findet die Verarbeitung der Daten direkt auf dem Edge-Device statt, etwa beim autonomen Fahren, wo das Fahrzeug sämtliche Verkehrssituationen völlig selbständig bewerten und entsprechend reagieren muss. In der Regel findet jedoch auch eine Datenübertragung statt, da auf dem Edge-Gerät nicht ausreichend Rechenkraft bereitsteht oder die Daten für weitere Analysen mit anderen Daten zusammengeführt werden müssen.

Allerdings erfolgt die Verarbeitung auch dann möglichst nah am Ort der Datengenerierung, um die mit Verzögerungen verbundene Übertragung in zentrale Rechenzentren oder die Cloud zu vermeiden. Schließlich werden die Ergebnisse der Analysen am Edge gebraucht, und das in Echtzeit oder nahezu in Echtzeit. Beispielsweise um einem Servicetechniker live im AR-Headset einen wichtigen Hinweis einzublenden, eine Zahlung im Einzelhandel ohne große Wartezeiten freizugeben, eine Produktionsanlage schnell zu stoppen, wenn eine Komponente ausfällt, oder eine Lastspitze im Energienetz abzufangen.

5G erhöht die Storage-Anforderungen
Nach Prognosen der Marktforscher von Gartner wird bereits 2022 mehr als die Hälfte der Daten von Unternehmen am Edge generiert und verarbeitet. Diese Verarbeitung übernehmen Server, die mit SSDs ausgestattet sind, denn kein anderes Speichermedium vermag die hohen Anforderungen des Edge-Computing so gut zu erfüllen. Insbesondere die hohe Performance und geringe Latenz der mit Flash-Speicher bestückten Laufwerke ist unerlässlich, um den wertvollen Datenstrom, auf dem viele unternehmenskritische Anwendungen und Geschäftsmodelle basieren, zuverlässig aufzunehmen.

Häufig treffen die Daten über drahtlose Verbindungen ein, da zahlreiche IoT-Geräte mobil sind oder in Umgebungen stehen, die sich nicht verkabeln lassen. Unternehmen bauen deshalb für IoT-Anwendungen eigene Campus-Netzwerke auf – früher mit WLAN und 3G-Mobilfunk, inzwischen mit LTE und zunehmend 5G. Der neue Mobilfunkstandard kann deutlich mehr Geräte ansprechen als die bisherigen Standards, was perfekt fürs IoT-Zeitalter mit seinen unzähligen vernetzten Geräten ist, und unterstützt überdies weitaus höhere Datenraten bei geringerer Latenz. Dadurch lassen sich mehr Daten schneller übertragen, jedoch erhöhen sich die Anforderungen an den Storage beim Edge-Computing weiter. Ohne SSDs würde der Speicher schnell zum Flaschenhals und den Datenstrom ausbremsen.

Edge-Workload ist nicht gleich Edge-Workload
Welche SSDs zum Einsatz kommen, hängt indes vom konkreten Anwendungsfall und dessen Schreib- und Leselasten ab. Diese können höchst unterschiedlich sein – je nach Anzahl der vernetzten Geräte und Sensoren, der Art der Daten, die diese liefern, und ob sie das kontinuierlich oder nur zu bestimmten Zeiten tun. Ebenso spielt eine Rolle, ob die Analysen in Echtzeit erfolgen und nur neue oder auch ältere Daten einbeziehen müssen.

In leseintensiven Umgebungen ohne große Schreiblasten genügen Server-SSDs, die einen hohen Durchsatz und viele IOPS bieten. So können sie die eintreffenden Daten zügig schreiben und sehr schnell für Echtzeitauswertungen, etwa mit KI-Algorithmen, bereitstellen. Solche Laufwerke setzen meist auf TLC-NAND, bei dem eine Zelle drei Bits speichert, wodurch sich eine hohe Speicherdichte zu vergleichsweise geringen Kosten erreichen lässt. Sie sind üblicherweise für einen Drive Write Per Day (DWPD) ausgelegt, können also über die Garantiezeit pro Tag einmal mit ihrer vollen Kapazität beschrieben werden.



Seite 1 von 2 Nächste Seite >>


ln/Frederik Haak, Senior Marketing Manager SSD-Produktmarketing bei KIOXIA Europe

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.