2604909

Computational Storage oder Festplatte als Chip: Neue Revolution kommt

15.08.2021 | 09:00 Uhr | Stephan Wiesend

Bei dem Konzept des Computational Storage werden Berechnungen auf das Speichermedium ausgelagert, was performanter ist und Ressourcen schont.

Technologien wie Künstliche Intelligenz und IoT sind schon fast im Alltag angekommen, dabei gibt es viele weitere innovative Entwicklungen, die wohl zu Unrecht unterschätzt werden. Eines dieser Themen ist etwa das Computational Storage, über das in Fachkreisen immer häufiger gesprochen wird . Die Idee hinter dem auch CS genannten Konzept ist einfach: Seit Jahrzehnten werden in der IT Daten von einem Speichermedium in den Arbeitsspeicher geladen, dort bearbeitet und wieder abgespeichert. Das Hauptaugenmerk liegen auf leistungsfähigen CPUs oder GPUs, welche die Rechenaufgaben durchführen sollen. Stattdessen könnte man bei dieser Technologie Aufgaben gleich über das Speichermedium durchführen lassen, was laut Studien die Performance bzw. Latenz erhöhen und den Energieverbrauch senken könnte.

Es gäbe auch andere Lösungen – etwa die, möglichst viele Daten gleich im Arbeitsspeicher zu behalten. So nutzt etwa SAP Hana diese Methode, was aber zu sehr hohen Kosten führt und bei sehr hohen Datenmengen an seine Grenzen stößt.

Statt einem energieintensiven Umweg können in das Speichermedium integrierte Coprozessoren einige der Aufgaben übernehmen, auch Offloading oder in-situ Processing genannt.

(Offloading – wenn auch nicht Computational Storage – wird übrigens in starkem Umfang auch von Apples Rechnern genutzt. So werden hier Aufgaben wie Verschlüsselung und Video-Encoding von dem T2-Chip übernommen, KI- und ML-Berechnungen durch einen eigenen Co-Prozessor.)

Marktreife Anwendungen

Bei bereits genutzten sogenannten Computational Storage Devices führt entweder ein hochspezialisierter Chip wie ein SoC oder programmierbarer FPGA Berechnungen eigenständig durch. Erste Anfänge sind immer intelligentere SSD-Controller, die bei SSDs Daten in Echtzeit verschlüsseln und komprimieren. In Zukunft könnten diese CSDs so Berechnungen in Bereichen wie AI und Analytics durchführen. ARM sieht etwa auch Edge Computing oder die Klassifizierung und Identifizierung von Bilddateien als mögliche Aufgabe.

Erste Produkte sind bereits verfügbar: Von Scale Flux gibt es für Datenzentren das Speichermedium CSD 2000. Hier ermöglicht eine transparente Komprimierung die Nutzung von besonders günstigen QLC-Speicher. Sogar eine eigene Cloud-Anwendung (IoT Edge) und das ML Framework Tensor Flow lässt dagegen das von Air Force und Space Force gesponserte Unternehmen NGD Systems auf einer SSD laufen. In Kapazitäten bis zu 12 TB ist die Newport Platform EDSFF E.1S erhältlich , die auf einem integrierten ARM-Prozessor basiert – und Linux. Aber auch von Eideticom und Samsung gibt es bereits Angebote. So haben im November Samsung und Xilinx mit der SmartSSD eine CSD vorgestellt, die auf einem FPGA von Xilinx basiert – ein Kintex Ultrascale+ KU15P mit immerhin 4 GB RAM.

Offloading

Große Unterschiede gibt es bei den Aufgaben, die diese Lösungen erfüllen sollen. Anfangs werden wohl vor allem die einfachsten Aufgaben zuerst verwendet – vorbereitende Berechnungen wie Indizierungen oder Verschlüsselungen. Das große Problem ist aktuell, dass die entsprechenden Anwendungen für dieses Offloading wohl umgeschrieben werden müssten. Aktuell gibt es zudem noch keine standardisierten APIs dafür. Das NVMe Consortium will aber Computational Storage in seinen Standard aufnehmen, was der Technologie ab nächstem Jahr zum Durchbruch verhelfen könnte.

PC-WELT Marktplatz

2604909