MI300Xは、AMDが公表した性能ではH100に勝っているように見える。しかし、NVIDIAは、より良いスループットのためにLLMの混合精度のトレーニングを可能にするソフトウェア機能である「Transformer Engine」など、いくつかの技術を有している。さらにソフトウェア面では、ROCmにおけるAMDの進歩やOpenAIのプログラミング言語「Triton」のような取り組みにもかかわらず、NVIDIAのCUDAが依然として優勢だ。ソフトウェアの成熟度は、この分野のスタートアップ企業にとって大きな課題となっている。
タイミングの問題もある。NVIDIAのH100はすぐに入手可能(手に入れることができれば)だが、MI300Xは2023年第4四半期まで発売されない。さらに、NVIDIAは2024年に新世代のGPUアーキテクチャを発表すると予想されているため、MI300Xが再び後じんを拝する可能性がある。このような流れは、AMDがリードするのではなく、常に追を追う形になることを意味する。
AMDのGPUは将来的にチップレットの専門知識を活用していくと予想される。一方、NVIDIAは「Grace Hopper Superchip」のようなマルチチップ製品を持っているものの、まだAMDと同様の方法ではチップレットに移行していない。
このチップレットへの早期移行は、AMDにとって有利に働くのだろうか。NVIDIAがIntelとAMDに続いていずれチップレットに移行するのは避けられないと思われるが、それがいつになるかはまだ不明である。
MI300Xは、少なくともデータセンターAI市場のシェアをNVIDIAから奪うに十分な競争力があるのだろうか? HPCやデータセンター向けCPUにおけるAMDの既存顧客基盤(新興企業に対する大きなアドバンテージ)を考えれば、確かにそのようにみえる。
【翻訳:田中留美、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.