「PCIe 6.2+CXL 3.1」でAI性能向上の限界を超える:インターコネクト技術が鍵に(2/2 ページ)
既存のAI技術を発展させるには、演算能力のみならず、データ転送、メモリ使用量など、さまざまな要素の限界を乗り越える必要がある。そうした解の一つがインターコネクト技術の発展だ。
CXL対応でAI性能は変わるのか
次世代のCXL対応チップは、AIアクセラレーターとメモリプール間の直接通信をサポートし、効率性を大幅に高めることによって、AI駆動型のコンピューティングに革命を起こすことができる。このような相互接続は、データ移動のボトルネックを低減し、インテリジェントなメモリ割り当てを実現することで、AIモデルが情報を処理したり、変化するワークロードに適応できるようにする。次世代のCXL 3.1/PCIe 6.2技術は、既存アーキテクチャの先を見据え、新たな可能性を解放し、究極の効率性やリアルタイムの意思決定を必要とするアプリケーションをサポートする。
このような次なるイノベーションにより、ワークロード分散や計算リソース割り当てを最適化する自己学習型AIモデルの潜在可能性が、かつてないほど実現に近づき、ハリウッドのAIを彷彿(ほうふつ)とさせる。AIはこのようなイノベーションを活用することで、以下を実現できるようになるだろう。
- メモリ/コンピューティングのシームレスな統合:未来のCXLチップは、より強く相互接続されたフレキシブルなメモリ階層をAIアーキテクチャに提供し、既存の構造に関係するレイテンシを低減する
- ダイナミックなワークロード適合:AIワークロードは、次世代のCXL対応メモリ共有により、異なるハードウェアアクセラレータ全体で流動的に拡張することで、全体的な効率性とスループットを高められるようになる
- 消費電力量の削減:オンデマンドでメモリを割り当て、AI推論ワークロードを最適化できるため、エネルギー消費量を大幅に削減し、AIシステムの持続可能性を高め、電力制限なしにエッジで運用できるようになる
“ハリウッドレベル”のAIが今まさに実現しようとしているが、その急激な進化に遅れずについていくためのインフラが必要だ。AIシステムは、最新のPCIe 6.2高速データ転送とCXL 3.1メモリプーリング機能とを組み合わせることにより、これまでない効率性レベルやスケーラビリティ、性能を達成できる。このような技術が、機械学習や計算効率において新たな領域を切り開く可能性を秘めたAIアーキテクチャの土台を作るのだ。
【翻訳:田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
半導体市場は本当に「堅調」なのか
世界半導体市場は堅調に推移している。だがそれは特定の分野や企業の成長に大きく偏っている。特に、米国による関税政策で不確実性が増加していて、各社は成長予測に慎重になっている。3年かけてついに完成した「CUDA」の代替はAI開発を変えるのか
「CUDA」の代替となるプラットフォーム開発を目指している新興企業のModularが、ついにその技術を完成させたという。NVIDIAの牙城を崩すのか。AI推論はもっと「省エネ」にできる メモリ圧縮技術で
ZeroPoint TechnologiesとRebellionsが、AI推論を低コスト化、低消費電力化するAIアクセラレーターの開発を目指す。ZeroPoint Technologiesのメモリ最適化技術は高速にデータを圧縮し、データセンターのメモリ容量を増大し、1W当たりのAI推論性能を向上させられるという。超低電圧動作でエネルギー効率を大幅向上、PIM型アクセラレーター
東京科学大学は、推論時のエネルギー効率を飛躍的に高めるプロセッシングインメモリ(PIM)型のニューラルネットワークアクセラレーターマクロを開発した。EMP動作が可能なSRAMを採用し、推論時のエネルギー効率を164TOPS/Wにまで高めた。AIシステムの「メモリの障壁」を取り除く MRAMで挑む米新興
米スタートアップのNumemは、MRAMベースの同社のメモリ「NuRAM」によって、AIシステムにおけるメモリのボトルネックを解消しようと取り組んでいる。TSMCは誰のもの? 米国やAI偏重で懸念される「1本足打法」
TSMCの2025年第1四半期(1〜3月期)は好調で、同四半期としては過去最高を更新した。だがTSMCの売り上げを分析してみると、そこには明らかな「異変」があることが分かる。