高性能で移植可能、拡張可能な ML インフラストラクチャ コンポーネントからなるオープンなエコシステム。フロントエンド フレームワークとハードウェア バックエンドの間でツールをデフラグメンテーションすることで ML 開発を簡素化します。AI モデリング、ソフトウェア、ハードウェアの業界リーダーによって構築されています。
コミュニティ ミーティング 2024 年 12 月 17 日午前 9 時(太平洋時間)
秋の Dev Lab のスライドと録画が公開されました。

XLA

XLA(Accelerated Linear Algebra)は、機械学習用のオープンソース コンパイラです。XLA コンパイラは、PyTorch、TensorFlow、JAX などの一般的なフレームワークからモデルを取得し、GPU、CPU、ML アクセラレータなどのさまざまなハードウェア プラットフォームで高パフォーマンスで実行できるようにモデルを最適化します。
XLA は、多くの ML フレームワーク向けに事前構築されています。このようなケースで XLA を使用する方法については、ドキュメントと各フレームワーク ページをご覧ください。
XLA ドキュメントには、新しい PJRT プラグインの統合、新しい XLA バックエンドの実装、XLA プログラムのランタイムの最適化など、いくつかの基本トピックと高度なトピックが取り上げられています。

StableHLO

StableHLO は、機械学習(ML)モデルにおける高レベル オペレーション(HLO)のためのオペレーション セットです。基本的に、これは異なる ML フレームワークと ML コンパイラ間のポータビリティ レイヤです。StableHLO プログラムを生成する ML フレームワークは、StableHLO プログラムを使用する ML コンパイラと互換性があります。
StableHLO のドキュメントでは、StableHLO OpSet の仕様や、一般的な ML フレームワークから StableHLO グラフをエクスポートする方法など、多くのトピックを取り上げています。

Shardy

Shardy は、すべての言語に対応した MLIR ベースのテンソル パーティショニング システムです。GSPMD チームと PartIR チームの両方のコラボレーションによって構築されたこのシステムは、両方のシステムの長所と、両方のチームとユーザーの共有された経験を組み込んでいます。
Shardy のドキュメントでは、シャーディングのコンセプト、方言の概要、JAX から Shardy を使用する方法や Shardy をカスタム MLIR パイプラインに統合する方法に関するチュートリアルについて説明しています。

PJRT

PJRT は、ML コンパイラとランタイムのための、ハードウェアとフレームワークに依存しないインターフェースです。現在、XLA ディストリビューションに含まれています。PJRT の使用方法と統合方法の詳細については、XLA GitHub とドキュメントをご覧ください。

Community

openxla-discuss メーリング リストに参加すると、リリース、イベント、その他のメジャー アップデートに関するニュースを入手できます。これは、設計と開発に関する議論を行うための主要なチャネルでもあります。
OpenXLA Discord に参加すると、XLA と StableHLO のトピックに関するチャットに参加できます。
ミーティングは、毎月第 2 火曜日または第 3 火曜日の午前 9 時(太平洋時間)に Google Meet で開催されます。特定の日付とトピックについては、会議のドキュメントまたは openxla-discuss をご覧ください。
OpenXLA コミュニティの最新ニュースとお知らせをご確認ください。
コミュニティによる投稿を歓迎します。詳しくは、投稿に関するガイドラインをご覧ください。

業界のパートナー

OpenXLA プロジェクトは、最先端の ML ハードウェアおよびソフトウェア組織と共同で開発されています。
Alibaba ロゴ

Alibaba

「Alibaba では、大規模な PyTorch モデルのトレーニングとサービングに OpenXLA を Elastic GPU Service の顧客が活用しています。OpenXLA をご利用のお客様のパフォーマンスが大幅に向上しました。特に、GPT2 では 72%、NVIDIA GPU では Swin Transformer では 88% の高速化が見られました。私たちは OpenXLA プロジェクトの創設メンバーであり、オープンソース コミュニティと協力して、Alibaba Cloud のお客様に優れたパフォーマンスとユーザー エクスペリエンスを提供する高度な ML コンパイラを開発できることを誇りに思います。」 - Alibaba、AI およびデータ分析担当バイス プレジデント Yangqing Jia 氏

アマゾン ウェブ サービス(AWS)のロゴ

Amazon Web Services

「当社は OpenXLA プロジェクトの創設メンバーとなることを嬉しく思っています。このプロジェクトでは、パフォーマンス、スケーラビリティ、拡張性に優れた AI インフラストラクチャへのアクセスが民主化されるだけでなく、オープンソース コミュニティ内でのさらなるコラボレーションがイノベーションを促進します。AWS のお客様は、AWS Trainium と Inferentia で生成 AI アプリケーションをスケールしています。Neuron SDK は XLA を使用して ML モデルを最適化し、高パフォーマンスと最高水準の 1 ワットあたりのパフォーマンスを実現しています。堅牢な OpenXLA エコシステムにより、デベロッパーはサステナブルな ML インフラストラクチャでイノベーションを継続し、優れたパフォーマンスを実現し続けることができます。自分のコードは移植可能であり、ハードウェアを選んで使用できます。」 - AWS、バイス プレジデント兼上級エンジニア Nafea Bshara 氏

AMD ロゴ

AMD

「私たちは、幅広い AMD デバイス(CPU、GPU、AIE)ファミリーにおける OpenXLA の今後の方向性に期待しており、このコミュニティに参加できることを誇りに思います。オープン ガバナンス、柔軟で幅広く適用可能、最先端の機能、最高水準のパフォーマンスを備えたプロジェクトを高く評価しています。ML デベロッパー向けのオープンソース エコシステムを拡大するために、継続的なコラボレーションを楽しみにしています。」 - AMD、ソフトウェア開発担当コーポレート バイス プレジデント、Alan Lee 氏

AnyScale ロゴ

エニースケール

「Anyscale は、AI 実務担当者がアプリケーションを迅速に開発し、より多くのユーザーが利用できるようにするために、Ray のようなオープンでスケーラブルなテクノロジーを開発しています。Google は最近 ALPA プロジェクトと連携し、OpenXLA を使用して大規模言語モデルの高パフォーマンス モデル トレーニングを大規模に実施しました。OpenXLA に参加できたことを嬉しく思います。このオープンソースの取り組みにより、さまざまなハードウェア プラットフォームで AI ワークロードを効率的に実行できるようになり、参入障壁が下がり、費用が削減され、AI の分野の発展が加速したことを嬉しく思います。」- Anyscale、CTO、Philipp Moritz 氏

Apple のロゴ

Apple

Apple Inc. は、スマートフォン、パソコン、タブレット、ウェアラブル、アクセサリーを設計、製造、販売し、さまざまな関連サービスを販売しています。

Arm ロゴ

Arm

「OpenXLA プロジェクトは、ML ソフトウェア開発を簡素化する道のりにおける重要な節目となります。当社は OpenXLA の使命に全面的に支持しており、Arm® NeoverseTM のハードウェアとソフトウェアのロードマップ全体で OpenXLA の安定性と標準化を活用することを楽しみにしています。」 - Arm、テクノロジー担当バイス プレジデント兼フェロー、Peter Greenhalgh 氏

Cerebras ロゴ

セレブラ

「Cerebras では、最大規模の AI モデルでも迅速かつ簡単にトレーニングできる AI アクセラレータを構築しています。Google のシステムとソフトウェアは、ユーザーがどこにいても使用できます。そのため、標準的な ML フレームワークを変更せずに、迅速な開発、スケーリング、イテレーションが可能です。OpenXLA は、Cerebras Wafer-Scale Engine に上位レベルの ML フレームワークへの共通インターフェースを提供することで、ユーザーリーチの拡大とソリューション提供までの時間の短縮を支援します。OpenXLA エコシステムが、GitHub 上でさらに幅広いコミュニティ エンゲージメント、貢献、使用に利用できるようになることを非常に嬉しく思います。」 - Cerebras Systems、バイス プレジデント兼プロダクト責任者、Andy Hock 氏

Google ロゴ

Google

「オープンソース ソフトウェアは、誰もが AI のブレークスルーを生み出すのを支援する機会を与えてくれます。Google では、オープンソースへの取り組みをさらに推進し、ML パフォーマンスの水準を引き上げ、フレームワークとハードウェア間の非互換性に対処し、開発者に合わせたユースケースに対応するために再構成可能な AI ツールの採用を促進するために、OpenXLA Project に協力しています。これらのツールを OpenXLA コミュニティとともに開発できることを嬉しく思います。これにより、デベロッパーは AI スタックの多種多様なレイヤで進歩を推進できます。」 - Google Research and AI 担当シニア フェロー兼シニア バイス プレジデント Jeff Dean

Graphcore ロゴ

グラフコア

「当社の IPU コンパイラ パイプラインは、XLA が公開されて以来使用してきました。XLA はプラットフォームの独立性と安定性のおかげで、新しいシリコンを開発するための理想的なフロントエンドを提供します。XLA の柔軟性により、IPU の新しいハードウェア機能を公開し、複数のフレームワークで最先端のパフォーマンスを実現できました。XLA でコンパイルされたコードを実行しているシステムが、1 日に数百万件のクエリを処理しています。OpenXLA の方向性をうれしく思うとともに、今後もオープンソース プロジェクトに貢献していきたいと考えています。AI/ML の未来において、コア コンポーネントとなることを確信しています。」 - Graphcore、ソフトウェア デザイン担当ディレクター David Norman 氏

Hugging Face のロゴ

Hugging Face

「あらゆるハードウェアであらゆるモデルを効率的に実行できるようにすることは、技術的な奥深い課題であり、優れた ML を誰でも利用できるようにするという当社のミッションの重要な目標です。Hugging Face では、TensorFlow テキスト生成モデルの XLA を有効にし、約 100 倍の高速化を達成しました。さらに、Intel、AWS、Habana、Graphcore、AMD、Qualcomm、Google のエンジニアリング チームと緊密に連携し、フレームワークと各シリコンの間にオープンソースのブリッジを構築し、Optimum ライブラリを通じてエンドユーザーにすぐに使える効率性を提供しています。OpenXLA は、必要とされている相互運用性を構築できる標準化された構成要素を約束しており、それに従って貢献するのを待ちきれません。」 - Hugging Face、ML 最適化担当責任者 Morgan Funtowicz 氏

Intel ロゴ

Intel

「Intel は、AI へのオープンで民主化されたアクセスを信じています。Intel CPU、GPU、Habana Gaudi アクセラレータ、OpenVINO などの oneAPI 搭載 AI ソフトウェアにより、エクサスケール スーパーコンピュータから主要なクラウド デプロイまで、あらゆる場所で ML ワークロードが促進されます。私たちは他の OpenXLA メンバーとともに、標準ベースのコンポーネント化された ML コンパイラ ツールのサポートに努めています。これにより、複数のフレームワークやハードウェア環境でイノベーションを推進し、世界を変える科学研究を加速させることができます。」 - Intel、Software & Advanced Technology Group、CTO 兼 GM、Greg Lavender 氏

Meta ロゴ

Meta

Meta AI の研究では、OpenXLA プロジェクトのコア テクノロジーである XLA を使用して Cloud TPU で PyTorch モデルを実現し、重要なプロジェクトのパフォーマンスを大幅に向上させることができました。オープンソースは世界のイノベーションを加速させると信じており、OpenXLA プロジェクトの一員になることを嬉しく思います。」 - PyTorch、リード メンテナンス担当 Soumith Chintala 氏

NVIDIA のロゴ

NVIDIA

「NVIDIA は OpenXLA プロジェクトの創設メンバーとして、OpenXLA コミュニティと AI/ML の進歩に協力することを楽しみにしています。また、OpenXLA の幅広い関与と導入により、ML デベロッパーが最先端の AI インフラストラクチャを利用できるようになると確信しています。」 - NVIDIA、コンパイラ ソフトウェア担当バイス プレジデント Roger Bringmann 氏

連絡先

直接的な質問については、メンテナンス担当者(openxla.org のメンテナンス担当者)にお問い合わせください。