既存のAI技術を発展させるには、演算能力のみならず、データ転送、メモリ使用量など、さまざまな要素の限界を乗り越える必要がある。そうした解の一つがインターコネクト技術の発展だ。
既存のAI技術で、映画に出てくるようなAIを全て実現できるようになるには、計算需要や、膨大なデータ転送、リアルタイム処理、メモリ使用量などの限界を打ち破らなければならない。既存のコンピューティングアーキテクチャは、PCI Express(PCle)インターコネクトだけに依存しており、AIワークロードの急激な進化に後れを取らずに付いていくのは難しい。そこに、CXL(Compute Express Link)規格の最新世代であるCXL 3.1が登場し、メモリ/リソース割り当ての新たな手法を提供している。
米国半導体工業会(SIA:Semiconductor Industry Association)の調査によると、既存のAIワークロードの性能非効率性のうち、全体の最大40%をメモリボトルネックが占めていることが明らかになったという。CXLは現在、複数の処理装置でアクセス可能な共有メモリプールを実現することにより、この問題を軽減することを目指している。
CXL 3.1(リリース自体は2023年11月)は、単に帯域幅を増やすのではなく、メモリのアクセス/共有方法を再定義する。CXLが、CPUやGPU、アクセラレーター全体でダイナミックなメモリプーリングを実現することで、AIシステムはより効率的にリソースを最適化できるようになる。こうしたアプローチには、以下のような重要なメリットがある。
CXLはメモリ管理に革命を起こしたが、PCIeは今もまだ高速データ転送に不可欠な存在だ。PCIe 5.0は、最大128GB/秒の双方向帯域幅を提供し、AIアプリケーション向けに高速データのクロスオーバーを確保する。このようなデータ転送速度は、ハイブリッド手法が威力を発揮するPCIe 6.2のイノベーションにより、さらに高まっていくと期待されている。
PCIe 6.2とCXL 3.1を統合ソリューションで活用することにより、両規格の強みを柔軟に生かせる。こうしたハイブリッド手法は、高速データ移動や、効率的なメモリ共有、将来も有効なインフラなどを実現できるため、特に複雑なAIシステムにとってメリットがある。
PCIe 6.2は、超高速データ転送速度を提供し、AIアクセラレーターが必要なデータを遅延なく確実に受信できるようにする。CXL 3.1は、複数の処理装置が共有メモリプールに動的にアクセスできるようにすることで、メモリ利用率を高められる。1つのSoC(System on Chip)上でPCIe 6.2とCXL 3.1をサポート可能なハイブリッドスイッチは、次世代AIワークロード向けにシームレスなアップグレードとスケーラビリティを実現する。
Copyright © ITmedia, Inc. All Rights Reserved.