メディア

1.2TB/s、24GBのHBM3 Gen2 LLMの学習を高速化Micronがサンプル出荷を開始(1/2 ページ)

Micron Technologyは2023年7月、生成AI(人工知能)などの用途に向けて、1.2Tバイト/秒のメモリ帯域幅と、24Gバイトの容量を実現したHBM3 DRAM「HBM3 Gen2」のサンプリング出荷を開始したと発表した。

» 2023年07月28日 15時30分 公開
[村尾麻悠子EE Times Japan]

 Micron Technology(以下、Micron)は2023年7月26日(米国時間)、生成AI(人工知能)などの用途に向けてHBM3 DRAM「HBM3 Gen2」のサンプリング出荷を開始したと発表した。現在Micronで最先端のDRAMプロセスとなる1βノードを適用し、広島工場(広島県東広島市)で生産する。量産開始は、2024年第1四半期を予定している。

 HBM3 Gen2は、1βノードを適用することで高速/大容量を実現した。メモリ帯域幅は1.2Tバイト/秒、ピン当たりの帯域幅で9.2Gビット/秒(bps)と、競合の既存のHBM3に比べて50%高速化したという。ダイ当たり24GビットのDRAMを8層(8個)積層し、11×11mmのパッケージで24Gバイトの容量を実現した。

 パッケージでは、既存の競合品に比べてTSV(シリコン貫通ビア)の数を2倍にするとともに、D2D(ダイツーダイ)のインターコネクトを25%縮小。ノイズ耐性を強化し、SI(Signal Integrity)およびPI(Power Integrity)の向上にも注力したとする。これにより、電力当たりの性能は、Micronの前世代品に比べて2.5倍向上している。

8層積層のイメージ。TSVの数は2倍になり、D2Dのインターコネクトも縮小しているという[クリックで拡大] 出所:Micron Technology
電力当たりの性能の比較と、同性能の向上のために使われた技術。右側には、「メモリ当たり5Wを節約できることになり、これは、GPU1000万基の運用コストを、5年間で5億5000万米ドル削減することにつながる」と記載されている[クリックで拡大] 出所:Micron Technology
HBM3 Gen2の仕様の詳細[クリックで拡大] 出所:Micron Technology
       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.