XLA (Accelerated Linear Algebra) è un compilatore open source per il machine learning. Il compilatore XLA prende i modelli da framework popolari come PyTorch, TensorFlow e JAX e li ottimizza per l'esecuzione ad alte prestazioni su diverse piattaforme hardware, tra cui GPU, CPU e acceleratori ML.
Nell'ambito del progetto OpenXLA, XLA viene creato in collaborazione da società di hardware e software per il machine learning leader del settore, tra cui Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta e NVIDIA.
Vantaggi principali
Creazione ovunque: XLA è già integrato nei principali framework di ML, come TensorFlow, PyTorch e JAX.
Esegui ovunque: supporta vari backend, tra cui GPU, CPU e acceleratori ML, e include un'infrastruttura plug-in per aggiungere il supporto di altri.
Massimizza e scala il rendimento: ottimizza il rendimento di un modello con passaggi di ottimizzazione testati in produzione e partizionamento automatico per il parallelismo del modello.
Elimina la complessità: sfrutta la potenza di MLIR per riunire le migliori funzionalità in un'unica toolchain del compilatore, in modo da non dover gestire una gamma di compilatori specifici per dominio.
Pronto per il futuro: in quanto progetto open source, creato in collaborazione con i principali fornitori di hardware e software per l'apprendimento automatico, XLA è progettato per operare al confine dell'innovazione nel settore dell'apprendimento automatico.
Documentazione
Per scoprire di più su XLA, dai un'occhiata ai link a sinistra. Se sei un nuovo sviluppatore XLA, ti consigliamo di iniziare con l'architettura XLA e poi di leggere la sezione Contributi.