メディア

シングルプロセッサで200億パラメーターを持つAIモデルを学習Cerebrasのウエハースケールエンジン(2/3 ページ)

» 2022年07月08日 13時30分 公開
[Sally Ward-FoxtonEE Times]

ウエハーサイズプロセッサの能力

 Cerebrasの発表にあるGPT-NeoX 20Bのような巨大モデルは、トレーニングに3種類全ての並列処理が必要になる。

巨大なモデルをトレーニングするために使用される並列処理のタイプ[クリックで拡大] 出所:Cerebras

 Cerebrasの「CS-2」は、プロセッササイズが非常に大きく(ウエハーサイズの単一チップ上に85万個のコアを集積した巨大プロセッサで、最大のネットワーク層にも十分な大きさ)、メモリと演算が分離されているため、モデルを並列化する必要がない。システムの演算部分のアーキテクチャは同じままで、演算を追加せずにメモリを追加して、より多くのパラメーターをサポートすることができる。

CS-2システムのプロセッサであるCerebrasのWSE-2は、ディナープレートと同じくらいの大きさだ[クリックで拡大] 出所:Cerebras

 並列処理を利用する必要がないため、マルチプロセッサシステムで実行するためにモデルを手動で分割する時間とリソースを費やす必要がない。さらに、プロセスのカスタムパートがないため、モデルの移植が可能である。複数のパラメーターを持つGPTモデル間の変更は、1つのファイル内で4つの変数を変更するだけでできる。同様に、「GPT-J」と「GPT-Neo」の変更も、キーを数回押すだけでできる。Cerebrasによると、これによって数カ月分のエンジニアリング時間を削減できるという。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.