大規模なAIワークロードを高速化するために開発されたCerebras Systems(以下、Cerebras)の第2世代ウエハースケールチップを搭載したディープラーニングシステム「CS-2」が、AIクラウドのスペシャリストプロバイダーであるCirrascale Cloud Services(以下、Cirrascale)のクラウドで、一般利用に向けて公開された。CS-2は、カリフォルニア州サンタクララのCirrascaleに導入されている。
大規模なAI(人工知能)ワークロードを高速化するために開発されたCerebras Systems(以下、Cerebras)の第2世代ウエハースケールチップを搭載したディープラーニングシステム「CS-2」が、AIクラウドのスペシャリストプロバイダーである米Cirrascale Cloud Services(以下、Cirrascale)のクラウドで、一般利用に向けて公開された。
これによってCerebrasは、GraphcoreやGroqのように、顧客のワークロードに利用できるハードウェアをクラウドで提供する数少ないAIチップのスタートアップ企業に加わる形となった。
自動運転や自然言語処理などのAIワークロード向けに特別に設計されたCirrascaleのクラウドサービスでは、NVIDIAのGPUやAMDのサーバプロセッサ「EPYC」、IBMの「Power」CPUのほか、Graphcoreのハードウェアもクラウドで利用できる。
Cerebrasは、「Cirrascaleとの提携は、高性能AIコンピューティングをより幅広い顧客が利用できるようにすることで、高性能AIコンピューティングの民主化の重要なステップとなる」と述べている。Cerebrasのウエハースケールシステムはこれまでに、製薬会社などの大規模なオンプレミスのエンタープライズデータセンターだけでなく、いくつかの大学のスーパーコンピュータにも導入されている。
CerebrasのCEO(最高経営責任者)を務めるAndrew Feldman氏は、「この提携によって、既にCirrascaleの顧客である多くの企業やクラウドインフラでシステムにアクセスしたい企業など、あらゆる顧客がシステムを利用できるようになる」と述べている。
Cerebrasの超高速ディープラーニングシステム「CS-2」は、AIに最適化された85万個の演算コアと、40GBのオンチップSRAM、20ペタバイト/秒のメモリ帯域幅、220ペタビット/秒のインターコネクトを備え、12の100GbE(ギガビットイーサネット)リンクで1.2テラビット/秒のI/Oを供給する。Cerebrasは2021年8月、「新しいメモリ拡張システムによって、単一のCS-2で120兆個のパラメータを持つモデルをトレーニングできるようになった」と発表している。
ニューラルネットワークが急速に拡大しパラメータが数十億から数兆になっても、単一ノードでトレーニングネットワークを十分に処理できる大きさであることは、CS-2の重要なセールスポイントである。
Feldman氏は、「GPUの大規模なクラスタを実際に構築できる人がほとんどいないことは、われわれの業界についてほとんど知られていない事実の1つだ。こうしたスキルを持つ人はめったにいない。大規模なモデルを250以上のGPUに分散する資金やスキルは、おそらく世界の数十の組織にしか存在しない」と述べている。
CirrascaleのCEOを務めるPJ Go氏は、「これは単一デバイスであるため、数万個のGPUよりもはるかに簡単にプログラミングできる。ワークロードを数百台または数千台のサーバに分散するとなると、ネットワークや同期処理のためのオーバーヘッドが数多く発生し、たくさんの人や企業がアクセスできなくなってしまう。一方でCS-2は、自分のモデルを1台のCS-2デバイスに搭載し、スケールアップすることができる」と述べている。
Feldman氏とGo氏は、「Cirrascaleクラウドで利用可能な単一のCS-2システムは、ワークロードを迅速に処理するために可能な限り高いパフォーマンスを必要とするAIワークロードの性質上、ユーザー間で同時に共有されることはない」と述べている。また両者は、「顧客は基本的に、ハイパーバイザーによる5〜10%の性能の低下を許容できない」とも指摘した。
CS-2は、週単位または月単位で、1週間あたり約6万米ドルから利用可能だという。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.