ChatGPTの開発と稼働には、ハイエンドAIサーバ“NVIDIA DGX H100”が3万基必要であるという(図6)。筆者は、この「3万基」という数字を見て、頭がクラクラしてしまった。
ちなみに、“NVIDIA DGX H100”には、1個4万米ドルに価格が高騰した「H100」が8個搭載され、システム全体の価格が46万米ドルであるという。ということは、ChatGPTレベルの生成AIには、3万基×46万米ドル=138億米ドル(1米ドル145円とすると約2兆円!)もの投資が必要である。
筆者は、世の中には生成AIシステムが溢れかえっていると思い込んでいたが、実際に、ChatGPTクラスの生成AIは、どのくらい構築された(またはされる)のだろうか?(図7)
2022年に出荷されたハイエンドAIサーバは3.4万基であるから、ChatGPTクラスの生成AIは、1システムしか構築できなかった(これがまさにChatGPTである)。翌2023年にはハイエンドAIサーバが20万基出荷されたから、ChatGPTクラスの生成AIは6〜7システム構築可能だった。そして2024年にハイエンドAIサーバは56.4万台出荷される見込みだから、ChatGPTクラスの生成AIは18〜19システム構築可能になる。
ただし、上記の見積もりは、ChatGPTクラスの生成AIが、ハイエンドAIサーバ“NVIDIA DGX H100”3万基で構築できると仮定している。しかし、恐らく生成AIは次第に高性能化しているから、その場合は“NVIDIA DGX H100”が3万基より多く必要になっているかもしれない。以上から、米CSPが、現状のハイエンドAIサーバの出荷に満足しているとは到底考えられない。
それでは、米CSPなどのエンドユーザーが、それぞれ、何台のハイエンドAIサーバを保有しているかを見てみよう。
Copyright © ITmedia, Inc. All Rights Reserved.