SK hynixは同社のHBM3Eについて「速度や放熱性能を含むAIメモリに求められる全ての面で業界最高」と説明。メモリ帯域幅は1.18TB/s(テラバイト/秒)を実現していて、「1秒間に230本以上のフルHD映画を処理するのに相当する」などと強調している。
放熱性能は前世代品から10%向上した。これは、チップ間の回路を保護するため、積層した半導体チップの間に液状の保護材を注入し、硬化させる工程である「2MR-MUF(Mass Reflow Molded Underfill)」と呼ばれるプロセスを適用したことで実現している。
SK hynixのHBM事業責任者であるSungsoo Ryu氏は、「HBM3Eの量産によって、業界をリードするAIメモリ製品ラインアップが完成した。HBM事業の成功体験と長年にわたって築いてきた顧客との強力なパートナーシップによって、当社はAIメモリの総合プロバイダーとしての地位を確固たるものにするだろう」と述べている。
NVIDIAの「H200」GPUに載る Micronが24GB HBM3Eの量産を開始
Samsungが、「業界初」12層の36GB HBM3E DRAMを開発
2024年の半導体市場、本格回復はメモリ次第 〜HBMの需要増で勢力図も変わる?
経産省、Micron広島工場に最大1920億円を助成
NVIDIA、HBM3eメモリ採用の次世代GH200を発表
1.2TB/s、24GBのHBM3 Gen2 LLMの学習を高速化Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング