図13に、GDDR5という規格のDRAMを周辺に配置したレガシーなSoCと、GDDR5をTSVでつないで縦に積層したHBM(High Bandwidth Memory)を周辺に配置したSoCの比較を示す。HBMを利用することにより、縦が1.6倍、横が2倍、面積が3倍、それぞれ縮小される。つまり、DRAMとSoCの合計のフットプリントを3分の1にできる。これもチップレットをうまく適用した例と言える。
図14は、HBM(High Bandwidth Memory)を配置したSoCの断面模式図を示す。TSVで縦につながったDRAMがロジックチップとインターポーザを介して、SoCに接続している。高速処理を必要とするSoCのすぐ隣にHBMが配置されることにより、データの転送が極めて高速になるメリットを生む。
図15は、GDDR5とHBMのBus Width、Clock Speed、Bandwidth、動作Voltageを比較した表である。Bus Widthは、GDDR5が32ビットであるのに対して、HBMは32倍の1024ビットになる。その結果、クロック速度がGDDR5の1750MHzより遅い500MHzであるにもかかわらず、BandwidthがGDDR5の1チップ当たり25GB/sに対して、HBMの1ブロックが100GB/sと4倍以上のバンド幅になる。
要するに、GDDR5が1個の場合は、片側1車線の道路をトラックが高速で突っ走っているようなものであり、道が1本しかないので運べるデータ量が限られるのに対して、HBMの場合は4車線の高速道路を4台のトラックで悠々走ることができるため、一度に運べるデータ量が圧倒的に多くなるというわけである。
このHBMを使って、チップレットをうまく適用すれば、SoCのAIを高速に動作することが可能になるのである。やっと、チップレットとは何か、そのメリットは何かを説明することができた。さて、IEDMでは、Intel、Samsung、TSMCが、どのような発表を行ったのだろうか?
IntelのRavi Mahajan氏がTutorialの“Advanced Packaging Technologies for Heterogeneous Integration(HI)”にて、先端パッケージの発表を行った(図16)。Embedded Multi-Die Interconnect Bridge(EMIB)では、プロセッサコアを分割して製造した後に、インターポーザを介してインテグレーションしてチップを形成している。また、Foverosでは、TSVで異なるチップを積層して1チップ化している。さらに、EMIBとFoverosを組み合わせたCo-EMIBを実現している。
次に、SamsungのSE-Ho You氏が、Short Courseの“From Package-Level to Wafer-Level Integration”にて発表したスライドを図17に示す。X-Cubeとは、異なるチップをTSVで積層するチップレットを意味する。IntelのFoverosに相当すると言える。また、異なるチップを、インターポーザを介して接続するI-Cubeは、IntelのEMIBと似ている。さらに、X-Cube とI-Cube を組み合わせたX/I-Cubeは、IntelのCo-EMIBと非常に良く似ている。
IntelとSamsungのどちらが早く上記を開発したか筆者は知らないが、両者とも、非常に良く似た先端パッケージ技術を開発していると言えるだろう。
Copyright © ITmedia, Inc. All Rights Reserved.