Micron Technologyが、8層積層の24GバイトHBM3E(広帯域幅メモリ3E)の量産を開始した。1βプロセスを適用する。2024年第2四半期に出荷を開始するNVIDIAの「H200 Tensorコア GPU」に搭載されるという。
Micron Technology(以下、Micron)は2024年2月26日(米国時間)、8層積層の24GバイトHBM3E(広帯域幅メモリ3E)の量産を開始したと発表した。競合製品に比べて消費電力を約30%削減したという。8層を積層した24GバイトのHBM3Eで、2024年第2四半期に出荷を開始するNVIDIAの「H200 Tensorコア GPU」に搭載される。
量産を開始したHBM3Eは、AI(人工知能)ワークロードの多様化でメモリに求められる性能を実現すべく、高速なメモリ帯域幅と低い消費電力、大規模なニューラルネットワークの学習でも推論でも活用できる拡張性を備えているとする。1ピン当たり9.2Gbps(ギガビット/秒)以上の高速化により、1.2TB/s(テラバイト/秒)のメモリ帯域幅を実現。AIアクセラレーターやスーパーコンピュータ、データセンターで求められる高速なデータアクセスに対応できるとした。
このHBM3Eの製造には、Micronの1βプロセスが適用される。同社の上席副社長 兼 最高事業責任者を務めるSumit Sadana氏は、「AIワークロードはメモリの帯域幅と容量に大きく依存する。HBM3E/HBM4の技術ロードマップおよび、AIアプリケーションに向けた包括的なDRAM/NAND型フラッシュメモリのポートフォリオにより、MicronはAIの普及加速をサポートするポジションにある」と述べた。
なおMicronは、1.2TB/sを超えるスピードと、より高い電力効率を実現する12層積層の36GバイトHBM3Eのサンプル出荷を2024年3月にも開始する予定だ。
生成AIの需要増に伴い、HBM市場は急速に拡大している。Micronが8層の24Gバイト HBM3Eを発表した翌日(2024年2月27日)には、Samsung Electronicsが「業界初」(同社)とする12層の36Gバイト HBM3Eを開発したと発表した。さらに、時事通信は2024年3月1日、SK hynixがHBMの製造でキオクシアに協業案を打診していることが明らかになったと報じた。
Copyright © ITmedia, Inc. All Rights Reserved.