Cerebras Systemsのウエハースケールエンジンがクラウドで利用可能に:サブスクリプションで
大規模なAIワークロードを高速化するために開発されたCerebras Systems(以下、Cerebras)の第2世代ウエハースケールチップを搭載したディープラーニングシステム「CS-2」が、AIクラウドのスペシャリストプロバイダーであるCirrascale Cloud Services(以下、Cirrascale)のクラウドで、一般利用に向けて公開された。CS-2は、カリフォルニア州サンタクララのCirrascaleに導入されている。
大規模なAI(人工知能)ワークロードを高速化するために開発されたCerebras Systems(以下、Cerebras)の第2世代ウエハースケールチップを搭載したディープラーニングシステム「CS-2」が、AIクラウドのスペシャリストプロバイダーである米Cirrascale Cloud Services(以下、Cirrascale)のクラウドで、一般利用に向けて公開された。
これによってCerebrasは、GraphcoreやGroqのように、顧客のワークロードに利用できるハードウェアをクラウドで提供する数少ないAIチップのスタートアップ企業に加わる形となった。
自動運転や自然言語処理などのAIワークロード向けに特別に設計されたCirrascaleのクラウドサービスでは、NVIDIAのGPUやAMDのサーバプロセッサ「EPYC」、IBMの「Power」CPUのほか、Graphcoreのハードウェアもクラウドで利用できる。
Cerebrasは、「Cirrascaleとの提携は、高性能AIコンピューティングをより幅広い顧客が利用できるようにすることで、高性能AIコンピューティングの民主化の重要なステップとなる」と述べている。Cerebrasのウエハースケールシステムはこれまでに、製薬会社などの大規模なオンプレミスのエンタープライズデータセンターだけでなく、いくつかの大学のスーパーコンピュータにも導入されている。
CerebrasのCEO(最高経営責任者)を務めるAndrew Feldman氏は、「この提携によって、既にCirrascaleの顧客である多くの企業やクラウドインフラでシステムにアクセスしたい企業など、あらゆる顧客がシステムを利用できるようになる」と述べている。
Cerebrasの超高速ディープラーニングシステム「CS-2」は、AIに最適化された85万個の演算コアと、40GBのオンチップSRAM、20ペタバイト/秒のメモリ帯域幅、220ペタビット/秒のインターコネクトを備え、12の100GbE(ギガビットイーサネット)リンクで1.2テラビット/秒のI/Oを供給する。Cerebrasは2021年8月、「新しいメモリ拡張システムによって、単一のCS-2で120兆個のパラメータを持つモデルをトレーニングできるようになった」と発表している。
ニューラルネットワークが急速に拡大しパラメータが数十億から数兆になっても、単一ノードでトレーニングネットワークを十分に処理できる大きさであることは、CS-2の重要なセールスポイントである。
Feldman氏は、「GPUの大規模なクラスタを実際に構築できる人がほとんどいないことは、われわれの業界についてほとんど知られていない事実の1つだ。こうしたスキルを持つ人はめったにいない。大規模なモデルを250以上のGPUに分散する資金やスキルは、おそらく世界の数十の組織にしか存在しない」と述べている。
CirrascaleのCEOを務めるPJ Go氏は、「これは単一デバイスであるため、数万個のGPUよりもはるかに簡単にプログラミングできる。ワークロードを数百台または数千台のサーバに分散するとなると、ネットワークや同期処理のためのオーバーヘッドが数多く発生し、たくさんの人や企業がアクセスできなくなってしまう。一方でCS-2は、自分のモデルを1台のCS-2デバイスに搭載し、スケールアップすることができる」と述べている。
Feldman氏とGo氏は、「Cirrascaleクラウドで利用可能な単一のCS-2システムは、ワークロードを迅速に処理するために可能な限り高いパフォーマンスを必要とするAIワークロードの性質上、ユーザー間で同時に共有されることはない」と述べている。また両者は、「顧客は基本的に、ハイパーバイザーによる5〜10%の性能の低下を許容できない」とも指摘した。
CS-2は、週単位または月単位で、1週間あたり約6万米ドルから利用可能だという。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- お皿サイズの巨大AIチップ「WSE2」、Cerebrasが発表
Cerebras Systems(セレブラスシステムズ/以下、Cerebras)は、同社のウエハースケールチップ「Wafer Scale Engine(WSE)」の計算能力をさらに向上させた第2世代品「Wafer Scale Engine 2(WSE2)」を発表した。TSMCの7nmプロセスで製造している。WSEを搭載したディープラーニングシステム「CS-2」は、2021年第3四半期に入手可能になる。 - AIチップ新興企業への大規模投資は妥当なのか
データセンター向けAI(人工知能)チップメーカーが、膨大な資金を調達している。2021年4月半ばも、GroqがシリーズCの投資ラウンドで3億米ドルを調達したと発表している他、SambaNova SystemsはシリーズDの投資ラウンドで6億7600万米ドルという大金を獲得したという。投資家たちがAIチップメーカーにこのような大金を投資する背景には、どのようなけん引要素があるのだろうか。 - TED、巨大AIチップのCerebrasと代理店契約締結
東京エレクトロン デバイス(以下、TED)は2019年12月19日、Cerebras Systems(セレブラスシステムズ/以下、Cerebras)と販売代理店契約を締結し、Cerebrasの超高速ディープラーニングシステムの受注を開始したと発表した。TEDでは今後3年間で、同システムの販売を中心にAI(人工知能)/ディープラーニング関連事業で売上高100億円程度を見込む。 - エッジAI新興Deep Vision、22年に第2世代チップを計画
米国のエッジAI(人工知能)チップのスタートアップ企業であるDeep Visionは、Tiger Globalが主導するシリーズBの投資ラウンドで3500万米ドルを調達した。同投資ラウンドには、既存の投資家であるExfinity Venture PartnersとSilicon Motion、Western Digitalが参加している。 - 1000コアを搭載、RISC-VベースのAIアクセラレーター
新興企業Esperantoは、これまで開発の詳細を明らかにしてこなかったが、2021年8月22〜24日にオンラインで開催された「Hot Chips 33」において、業界最高性能を実現する商用RISC-Vチップとして、ハイパースケールデータセンター向けの1000コア搭載AI(人工知能)アクセラレーター「ET-SoC-1」を発表した。 - RISC-Vチップレット新興企業Ventanaが3800万米ドル調達
米国カリフォルニア州クパチーノに本社を置くRISC-V関連の新興企業であるVentana Micro Systemsが3800万米ドルの資金調達を発表し、データセンター向けコンピュータをターゲットにしたマルチコアSoC(System on Chip)チップレットの詳細を明らかにした。