NVIDIAは2019年11月18日(米国時間)、GPUアクセラレーションArmベースサーバを構築するためのレファレンスデザインプラットフォームを発表した。「Supercomputing 2019」で発表されたもので、NVIDIAはこの他に2件の発表も行っている。
NVIDIAは2019年11月18日(米国時間)、GPUアクセラレーションArmベースサーバを構築するためのレファレンスデザインプラットフォームを発表した。米国コロラド州デンバーで開催中の「Supercomputing 2019」(2019年11月17〜21日)において、同社が明らかにしたところによると、Ampere、Cray、富士通、HPE、Marvell Technology Groupは、スーパーコンピュータ(スパコン)を含むさまざまな用途に向けて、Armベースのサーバを構築する計画だという。
NVIDIAは過去8年にわたり、スパコン向けにArmプロセッサを試してきたが、全面的にサポートしてきたのはx86やPOWERから成るエコシステムのみだった。2018年夏、同社はソフトウェアプラットフォーム「CUDA-X」で完全にArmをサポートする計画について明言していた。今日の発表によって、その約束を果たした格好となる。まずはArm互換のSDK(ソフトウェア開発キット)のプレビュー版を公開している。
Armはスパコンにますます用いられているようになっている。NVIDIAは、米国のOak Ridge and Sandia National Laboratories、英国のUniversity of Bristol、日本の理研(理化学研究所)が、GPUアクセラレーションArmベースのコンピュータシステムのテストを開始したと伝えた。スパコン分野におけるArmの成功は、ハイパースケールクラウド事業者や企業の注目を集めている。
Armアーキテクチャはハイスループット、アプリケーションの低遅延、電源管理のために開発された。Armのライセンシー(ライセンス利用者)によると、これらの要素は、データセンターにある人工知能(AI)や機械学習(ML)の作業負荷と特に密接な関係があるという。
NVIDIAにとっての課題は、GPUと他社の個々のArm実装が確実に連携するようにすることだが、報道機関とのプライベートなブリーフィングの中で、NVIDIAは、Ampere、富士通、Marvellのシステムと円滑に、かつ確実に統合できるようにするための取り組みを進めていることを明らかにした。
NVIDIAは今回のイベントで、別の発表も2件、行っている。一つはソフトウェアスイート「Magnum IO」だ。GPUがメモリから直接データにアクセスするためのパスを作り、CPUをバイパスすることで性能を大幅に高めるという。これにより、データセンターにある「ストレージならびに入出力のボトルネックを排除できるよう最適化されている」(同社)という。
もう一つの発表は、Microsoftの「Azure」で利用できる、クラウド上で動作する新たなタイプのGPUアクセラレーションスパコンだ。Azureの新しいNDv2 インスタンスで、単一のMellanox InfiniBandバックエンドネットワークで相互接続された最大800の「V100 Tensor」コアGPUを提供する。
これにより、顧客は、AIスパコンをデスクからオンデマンドでレンタルできるようになるという。最もベーシックなNC6インスタンスは、1時間当たり90米セント(長期のサブスクリプションなら1時間当たり30米セント)で利用可能だ。
NVIDIAとMicrosoftは、64台のNDv2インスタンスを実行し、一般的な対話型AIモデルである「BERT」のトレーニングを約3時間行った。
NVIDIAによれば、全てのNDv2インスタンスは、NVIDIA NGCコンテナレジストリおよびAzure Marketplaceから、GPUに最適化されたHPC(High Performance Computing)、機械学習ソフトウェア、TensorFlowやPyTorch、MXNetといった深層学習フレームワークを活用できるという。
【翻訳:青山麻由子、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.