メディア

NVIDIAの「GPU祭り」はまだ序章? 生成AIブームは止まらない湯之上隆のナノフォーカス(76)(3/5 ページ)

» 2024年10月02日 11時30分 公開

ChatGPTレベルの生成AIに必要なハイエンドAIサーバ

 ChatGPTの開発と稼働には、ハイエンドAIサーバ“NVIDIA DGX H100”が3万基必要であるという(図6)。筆者は、この「3万基」という数字を見て、頭がクラクラしてしまった。

図6 ChatGPTの稼働には、何基のハイエンドAIサーバが必要なのか[クリックで拡大] 出所:HPCのHP

 ちなみに、“NVIDIA DGX H100”には、1個4万米ドルに価格が高騰した「H100」が8個搭載され、システム全体の価格が46万米ドルであるという。ということは、ChatGPTレベルの生成AIには、3万基×46万米ドル=138億米ドル(1米ドル145円とすると約2兆円!)もの投資が必要である。

 筆者は、世の中には生成AIシステムが溢れかえっていると思い込んでいたが、実際に、ChatGPTクラスの生成AIは、どのくらい構築された(またはされる)のだろうか?(図7

図7 サーバの出荷台数、ハイエンドAIサーバの出荷台数および、ChatGPTレベルの生成AIシステム数[クリックで拡大] 出所:MICおよびDIGITIMES Research: Servers Report Database, 2024, ”Global annual server shipments, 2023-2024”を基に筆者作成

 2022年に出荷されたハイエンドAIサーバは3.4万基であるから、ChatGPTクラスの生成AIは、1システムしか構築できなかった(これがまさにChatGPTである)。翌2023年にはハイエンドAIサーバが20万基出荷されたから、ChatGPTクラスの生成AIは6〜7システム構築可能だった。そして2024年にハイエンドAIサーバは56.4万台出荷される見込みだから、ChatGPTクラスの生成AIは18〜19システム構築可能になる。

 ただし、上記の見積もりは、ChatGPTクラスの生成AIが、ハイエンドAIサーバ“NVIDIA DGX H100”3万基で構築できると仮定している。しかし、恐らく生成AIは次第に高性能化しているから、その場合は“NVIDIA DGX H100”が3万基より多く必要になっているかもしれない。以上から、米CSPが、現状のハイエンドAIサーバの出荷に満足しているとは到底考えられない。

それでは、米CSPなどのエンドユーザーが、それぞれ、何台のハイエンドAIサーバを保有しているかを見てみよう。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.