シリコンダイ積層技術とTSV技術によって実現した超高速DRAM技術の代表が、「HBM(High Bandwidth Memory)」である。最下層のロジックシリコンダイ(ベースチップ)と上層(2層、4層あるいは8層)のDRAMシリコンダイを積層したDRAMスタックで構成する。入出力数を1024ピンと極めて多くすることでピン当たりのデータ転送速度を抑えながら、全体の帯域幅(データ転送速度)を非常に大きく確保した。HBM全体の帯域幅(データ転送速度)は128Gバイト/秒(第1世代[詳しくは後述])あるいは256Gバイト/秒(第2世代)である。
HBMは単独のパッケージでは存在せず、ホストのプロセッサと組み合わせたマルチチップ・パッケージの形状で製品となる。ホスト側のCPUシリコンダイあるいはSoC(System on a Chip)シリコンダイとHBMスタックの間は、シリコンのインターポーザによって高密度に接続する。そして複数のHBMスタックとSoCをまとめて1つのパッケージに封止する。
HBMの技術仕様は、業界団体のJEDECによって標準化が完了している。JEDEC標準の技術仕様には第1世代の「HBM Gen1(あるいはHBM1)」と第2世代の「HBM Gen2(あるいはHBM2)」が存在する。第1世代のHBMは2Gbit DRAMダイの積層を前提に技術仕様が策定されており、スタック当たりのDRAMダイ積層数は最多で4枚、記憶容量は最大で1Gバイト、帯域幅は最大で128Gバイト/秒とやや保守的な性能にとどまっていた。
これに対して第2世代のHBMは8Gbit DRAMダイを最多で8枚も積層することを想定した。かなりアグレッシブな性能を実現することを狙った技術仕様となっている。記憶容量は最大で8Gバイト、帯域幅は最大で256Gバイト/秒である。HBMは第2世代が本命の仕様といえる。
(次回に続く)
Copyright © ITmedia, Inc. All Rights Reserved.