メディア

「CXL」ベースのアクセラレータープラットフォームメモリ容量を最大2Tバイト増加

オープンな業界標準インターコネクト規格「Compute Express Link(CXL)」のエコシステムには、多くのベンダーが参加している。アクセラレーターも同エコシステムの一部で、米国のファブレス半導体メーカーであるAstera Labs(以下、Astera)が最近発表したCXL 1.1/2.0向けメモリアクセラレータープラットフォーム「Leo」も含まれる。

» 2021年12月21日 09時30分 公開
[Gary HilsonEE Times]

 オープンな業界標準インターコネクト規格「Compute Express Link(CXL)」のエコシステムには、多くのベンダーが参加している。アクセラレーターも同エコシステムの一部で、米国のファブレス半導体メーカーであるAstera Labs(以下、Astera)が最近発表したCXL 1.1/2.0向けメモリアクセラレータープラットフォーム「Leo」も含まれる。

 Astera Labs共同設立者でCBO(最高事業責任者)を務めるSanjay Gajendra氏はインタビューの中で、「Leoは、プロセッサのメモリ帯域のボトルネックと容量の制限に対処するために設計した」と述べている。Leo CXLメモリアクセラレータープラットフォームを使用すると、CPUがCXLに接続されたDRAMと永続メモリにアクセスして、これらのメモリを管理できるようになるため、集約型のメモリリソースをより効率的に利用して、性能を低下させずにアクセスをスケールアップすることができる。

CXLベースのメモリアクセラレータープラットフォーム「Leo」の概念図 出所:Astera Labs

 Gajendra氏によると、AsteraのLeoプラットフォームは、超低レイテンシを維持しながら、メモリ全体の帯域幅を1レーン当たり32GT/秒に高め、容量を最大2Tバイト増加させるという。クラウドでの運用を確実に拡張する機能の他、大規模なエンタープライズサーバやクラウドサーバの展開に必要な管理および診断機能も備えている。Gajendra氏は、「昨今は、大量のデータを処理するデータセンターで帯域幅を拡張する必要性についての議論が活発だが、それと同様に複雑さも急速に高まっている。複雑さは3カ月半ごとに2倍になっている」と指摘している。

 クラウドで機械学習などのAI(人工知能)技術が主流になってきていることで、複雑さが増しているが、これはAsteraの大きな存在意義でもある。

 同社は、AIを含む特定のワークロード向けに設計されたアクセラレーターやその他のチップの接続方法など、インターコネクト関連の課題を解決するために、2018年4月に設立された。Gajendra氏は、「接続に必要な方法が従来とは大きく異なることが、CXL技術の開発に向けたIntelとの協業につながった」と述べている。同社は最近、カナダのトロントに設計センターを開設した。

 クラウドでのAIの実現には、汎用プロセッサや固有のワークロードに対応できるプロセッサなど、複数の種類のプロセッサが存在するコンピュータアーキテクチャが必要である。これらのプロセッサは多くのデータを生成および消費するため、キャッシュコヒーレンシが特に重要になる。Asteraは2020年に、帯域幅を倍増しサーバでの遅延を低減するCXLリタイマー技術「Aries」を発表したが、Gajendra氏によると、現在はサーバトゥスイッチ(server to switch)およびスイッチトゥスイッチ(switch-to-switch)の帯域幅ボトルネックの対応に取り組んでいるという。同社は、これらの課題を新しい「Taurus Smart Cable Module(Taurus SCM)」で解決するとしている。

【翻訳:滝本麻貴、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.