SambaNova Systems(以下、SambaNova)の幹部は、米国カリフォルニア州サンタクララで開催された「AI Hardware Summit」において、新たなシリコンを披露した。また、複数のタスクに適用できる大規模な言語モデルの一種である「基盤モデル(foundation models)」をサポートするという同社の取り組みについて語った。
SambaNova Systems(以下、SambaNova)の幹部は、米国カリフォルニア州サンタクララで開催された「AI Hardware Summit」において、新たなシリコンを披露した。また、複数のタスクに適用できる大規模な言語モデルの一種である「基盤モデル(foundation models)」をサポートするという同社の取り組みについて語った。
SambaNovaの次世代ラックスケールシステムには、同社のデータフロー向けに最適化されたRDU(Reconfigurable Dataflow Unit)の第2世代版「Cardinal SN30」を搭載する予定だ。このRDUには、より大きな演算ダイが採用された他、前世代同様TSMCの7nmプロセスで製造され、チップレット1つ当たり860億トランジスタで構成されている。加えて、オンチップメモリは640MBに倍増された。その結果、巨大なモデルに合わせた688TFLOPS(BF16)プロセッサを実現している。パッケージには2個の演算チップレットと、1TBの直接取り付けられたDDRメモリ(HBMではない)が含まれている。結果として、第1世代と比べ最大で6倍も性能が高まったという。
このデバイスはSambaNovaのAI(人工知能)学習や推論およびファインチューニングに向けたサーバ「DataScale」の新世代品に搭載され、ラックスケールシステムとして出荷される。
前述のイベントでは、SambaNovaの共同創立者でCTO(最高技術責任者)のKunle Olukotun氏がこれらの次世代システムにとって“キラーアプリケーション”となる基盤モデルを発表した。
同氏は「われわれはAIの新たな時代に入りつつある。そして、それは基盤モデルによって実現されている」と述べた。
Copyright © ITmedia, Inc. All Rights Reserved.