米国のLightmatterは、2020年8月16日〜18日にバーチャルで開催された「Hot Chips 32」でテストチップを発表した。同社は米マサチューセッツ工科大学(MIT)のスピンアウト企業で、AI(人工知能)アクセラレーション向けオプティカルコンピューティングプロセッサの開発を手掛ける。
米国のLightmatterは、2020年8月16〜18日にバーチャルで開催された「Hot Chips 32」でテストチップを発表した。同社は米マサチューセッツ工科大学(MIT)のスピンアウト企業で、AI(人工知能)アクセラレーション向けオプティカルコンピューティングプロセッサの開発を手掛ける。
Lightmatterが発表したプロセッサは、シリコンフォトニクスとMEMS技術を使用し、ミリワットクラスのレーザー光源で駆動する半導体で、光速で行列ベクトル乗算を実行する。最新のGPUを含むトランジスタベースの半導体と比べて桁違いに高速な演算処理が可能で、消費電力も非常に少ない。
Lightmatterがこのテストチップを披露した目的は、プロセッサ設計へのアプローチが確かなものであることを証明することだ。同社は、AI推論のワークロードに対応したオプティカルコンピューティング(シリコンフォトニクス)チップを最初に発表した企業のうちの1社である。
同社は2021年秋に、同社初となる商用製品を発売する予定である。今回発表したテストチップの後継機種をベースにしたオプティカルコンピューティングチップを搭載するPCIe(PCI Express)カードで、データセンターのAI推論ワークロードに向ける。
シリコンフォトニクス技術(シリコンチップを介して光を伝播させる技術)の進歩によって、トランジスタベースの従来のエレクトロニクスとは全く異なる方法でMAC演算を実行できる複雑なオンチップ構造が実現しつつある。トランジスタベースのチップがデナードスケーリングの限界に達して以降、単位面積当たりの電力損失が増加しており、冷却技術の実質的な限界によって、サイズが大きなチップに対応できなくなっている。そこで、エネルギー効率に優れた別の技術に期待が寄せられている。
LightmatterのCEO(最高経営責任者)を務めるNick Harris氏は、Hot Chipsの前にEE Timesが行ったインタビューで、「オプティカルコンピューティングは、これまでとは異なるルールセットを使用したスケーリングによって、高速かつ低エネルギーな処理性能を実現できる」と述べている。
Lightmatterのチップは、2つのダイを垂直に積層したものだ。上部のダイは12nmプロセスを適用したASICで、メモリと、下部のダイである90nmのシリコンフォトニクスダイを制御する回路が搭載されている。どちらのダイも、標準的なCMOSプロセスを用いてGLOBALFOUNDRIESで製造されている。
フォトニクスプロセッサには64×64のフォトニクスベクトル演算器が集積されていて、データはチップ内部を200ピコ秒以内で伝搬するという。コンピュータエンジンは、50mWのレーザーで駆動される。
正確にはどれくらいの速度と省エネを実現できるのだろうか。
Harris氏は、「既存のAIデータセンターの場合、エネルギー消費を20分の1に削減し、物理的なフットプリントを5分の1に縮小することができる。これは、当社が開発している第1世代のチップを使用した場合の成果であり、今後のロードマップでさらなる改善が期待できる」と述べている。
同氏は、「このテストチップは、同技術のデモ用に開発したもので、ベンチマークで好成績を出すことを目的としたものではない」と強調する一方で、「このデモ機は実際の用途において、NVIDIAの次世代ハイエンドGPUである『Ampere A100』に勝る性能を発揮する」と断言した。同氏によれば、Lightmatterのチップは、Ampere A100に比べ、20倍のエネルギー効率を実現し、BERTやResnet-50の推論といったワークロードで少なくとも5倍のスループットを達成したという。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.