SK hynixが12層HBM3E製品を「業界初」の量産開始:8層品と同じ厚さで容量50%増
SK hynixが、「業界で初めて」(同社)12層のHBM3E製品の量産を開始した。DRAMチップを40%薄くしたことで、従来の8層製品と同じ厚さで容量は36Gバイトを実現している。2024年末までに顧客に供給予定だという。
SK hynix(以下、SK)は2024年9月26日(韓国時間)、「業界で初めて」(同社)12層のHBM3E※製品の量産を開始したと発表した。DRAMチップを40%薄くしたことで、従来の8層製品と同じ厚さで容量は36Gバイト(GB)を実現している。2024年末までに顧客に供給予定だという。
※:広帯域幅メモリ(High Bandwidth Memory:HBM)の最新バージョン
動作速度は9.6Gbps(ギガビット/秒)で、SKは、「現在利用可能な最高のメモリ速度」と説明。同製品を搭載した1つのGPU1基で大規模言語モデル(LLM)「Llama 3 70B」を駆動した場合、700億のパラメーターを1秒間に35回読み出し可能だという。同社は、「12層HBM3E製品は、速度、容量、安定性などAI(人工知能)メモリに不可欠な全ての要素で世界最高水準を満たしている」と述べている。
同社は2024年3月に、8層のHBM3E製品を顧客に供給開始したことを発表していた。今回、3GBのDRAMチップを従来の8層品と同じ厚さで12層積層し、容量を50%増加した。この実現のために、DRAMチップを従来よりも40%薄くし、TSV(シリコン貫通電極)技術を用い垂直に積層している。また、同社のコア技術である「advanced MR-MUF(Mass Reflow Molded Underfill)」プロセスの適用によって、より薄いチップを高く積層することで発生する構造上の問題を解決。従来比で放熱性能を10%向上するとともに、反り制御を強化し、製品の安定性と信頼性を確保したとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 過熱するHBM開発競争、SK hynixは製品化を前倒し
SK hynixは、次世代HBMである「HBM4」製品について、従来の想定より1年早い2025年に発表予定だと明かした。同社はHBM市場で大きなシェアを確保しているが、専門家は「今後、より厳しい競争に直面することになるだろう」と語っている。 - HBM競争で背水の陣 メモリ事業で苦戦するSamsung
Samsung Electronicsの半導体部門におけるトップ交代が発表された。同社は、生成AI(人工知能)で需要が伸びているHBM(広帯域幅メモリ)の競争で、ライバルのSK hynixに大きく出遅れている。今回の半導体部門トップ交代からは、Samsungの焦りが見える。 - SK Hynixは新工場に146億ドルを投資へ HBM市場のゆくえは
AI(人工知能)半導体の性能を加速させるHBM(広帯域幅メモリ)で業界をリードするSK hynixは、韓国の新工場「M15X」に20兆ウォン(約146億米ドル)以上を投じる予定だという。本稿では、HBM市場の現況とメモリメーカー各社の動向について述べる。 - SK hynixがHBM3Eの量産を開始、NVIDIAのサプライヤー多様化で競争は激化
SK hynixがHBM3Eの量産を開始した。2024年3月下旬から顧客に供給する予定としていて、NVIDIAの新世代GPU向けとみられる。 - 生成AIにけん引される半導体業界、現在の勝者と今後の展望
生成AIブームにけん引され、データセンター向けGPUおよびAI ASIC市場は2029年に2330億米ドル規模にまで成長することが予測されています。 - NVIDIAの「H200」GPUに載る Micronが24GB HBM3Eの量産を開始
Micron Technologyが、8層積層の24GバイトHBM3E(広帯域幅メモリ3E)の量産を開始した。1βプロセスを適用する。2024年第2四半期に出荷を開始するNVIDIAの「H200 Tensorコア GPU」に搭載されるという。