Micron Technology hat kürzlich mit der Auslieferung seiner HBM4-Speichertechnologie an Schlüsselkunden begonnen. Die High-Bandwidth Memory-Chips sollen die nächste Generation von KI-Plattformen und Rechenzentren antreiben. Angesichts der explosiven KI-Entwicklung könnte sich hier eine bedeutende Wachstumschance auftun.
KI-Boom treibt Speicher-Nachfrage
Laut McKinsey nutzen bereits 71 Prozent der Unternehmen KI für mindestens eine Funktion – ein deutlicher Anstieg gegenüber 55 Prozent im Vorjahr. Diese rasante Entwicklung führt zu einer enormen Nachfrage nach Rechenzentren, Servern und spezieller KI-Infrastruktur. Besonders problematisch wird dabei die Energieversorgung, wie selbst Elon Musk warnt: Nach dem aktuellen Silizium-Mangel drohen Transformer-Engpässe und später Stromknappheit.
HBM als Schlüsseltechnologie
KI-Anwendungen benötigen extrem hohe Speicher-Bandbreiten, da neuronale Netzwerke riesige Datenmengen blitzschnell zwischen unzähligen Prozessorkernen bewegen müssen. Hier kommt Microns HBM-Technologie ins Spiel. Trotz dreifach höherer Kosten pro Gigabyte gegenüber herkömmlichem DRAM setzen KI-Giganten wie Nvidia und Google auf diese Lösung. Nvidias neue Blackwell-Racks benötigen bis zu 20 Terabyte HBM – zwanzigmal mehr als die Vorgängergeneration.
Starke Positionierung trotz Konkurrenz
Microns HBM4 bietet 20 Prozent bessere Energieeffizienz und 60 Prozent höhere Performance als Vorgängermodelle. Die HBM-Sparte generiert bereits über sechs Milliarden Dollar Umsatz jährlich bei 50 Prozent Quartalswachstum. Alle HBM3E-Kapazitäten für 2025 sind ausverkauft, auch 2026 ist größtenteils vergeben.
Allerdings darf die Konkurrenz nicht unterschätzt werden. Samsung und SK Hynix rüsten ihre HBM3-Technologie auf und könnten Preis- und Marktanteilskämpfe auslösen. Dennoch scheint Micron mit der frühen HBM4-Markteinführung einen Vorsprung zu haben.