XLA

XLA (Accelerated Linear Algebra) è un compilatore open source per il machine learning. Il compilatore XLA prende i modelli da framework popolari come PyTorch, TensorFlow e JAX e li ottimizza per l'esecuzione ad alte prestazioni su diverse piattaforme hardware, tra cui GPU, CPU e acceleratori ML.

Nell'ambito del progetto OpenXLA, XLA viene creato in collaborazione da società di hardware e software per il machine learning leader del settore, tra cui Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta e NVIDIA.

Vantaggi principali

  • Creazione ovunque: XLA è già integrato nei principali framework di ML, come TensorFlow, PyTorch e JAX.

  • Esegui ovunque: supporta vari backend, tra cui GPU, CPU e acceleratori ML, e include un'infrastruttura plug-in per aggiungere il supporto di altri.

  • Massimizza e scala il rendimento: ottimizza il rendimento di un modello con passaggi di ottimizzazione testati in produzione e partizionamento automatico per il parallelismo del modello.

  • Elimina la complessità: sfrutta la potenza di MLIR per riunire le migliori funzionalità in un'unica toolchain del compilatore, in modo da non dover gestire una gamma di compilatori specifici per dominio.

  • Pronto per il futuro: in quanto progetto open source, creato in collaborazione con i principali fornitori di hardware e software per l'apprendimento automatico, XLA è progettato per operare al confine dell'innovazione nel settore dell'apprendimento automatico.

Documentazione

Per scoprire di più su XLA, dai un'occhiata ai link a sinistra. Se sei un nuovo sviluppatore XLA, ti consigliamo di iniziare con l'architettura XLA e poi di leggere la sezione Contributi.