[go: up one dir, main page]

Cloud Tensor Processing Units (TPU)

Accelera lo sviluppo dell'IA con Google Cloud TPU

Le Cloud TPU ottimizzano le prestazioni e i costi per tutti i carichi di lavoro di IA, dall'addestramento all'inferenza. Utilizzando un'infrastruttura di data center di livello mondiale, le TPU offrono affidabilità, disponibilità e sicurezza elevate.

Non sai se le TPU sono adatte a te? Scopri quando utilizzare GPU o CPU su istanze Compute Engine per eseguire i carichi di lavoro di machine learning.

Panoramica

Che cos'è una Tensor Processing Unit (TPU)?

Le Google Cloud TPU sono acceleratori IA progettati su misura, ottimizzati per l'addestramento e l'inferenza di modelli IA di grandi dimensioni. Sono ideali per una varietà di casi d'uso, tra cui chatbot, generazione di codice, generazione di contenuti multimediali, sintesi vocale, servizi di visione artificiale, motori per suggerimenti e modelli di personalizzazione, tra gli altri. 

Quali sono i vantaggi delle Cloud TPU?

Le Cloud TPU sono progettate per scalare in modo economico per un'ampia gamma di carichi di lavoro IA, compresi addestramento, ottimizzazione e inferenza. Le Cloud TPU offrono la versatilità per accelerare i carichi di lavoro sui principali framework di IA, tra cui PyTorch, JAX e TensorFlow. Orchestra senza problemi carichi di lavoro di IA su larga scala tramite l'integrazione di Cloud TPU in Google Kubernetes Engine (GKE). Utilizza Dynamic Workload Scheduler per migliorare la scalabilità dei carichi di lavoro pianificando tutti gli acceleratori necessari contemporaneamente. I clienti che cercano il modo più semplice per sviluppare modelli di IA possono sfruttare le Cloud TPU anche in Vertex AI, una piattaforma di AI completamente gestita.

Quando utilizzare le Cloud TPU?

Le Cloud TPU sono ottimizzate per l'addestramento di modelli di deep learning complessi e di grandi dimensioni che prevedono molti calcoli matriciali, ad esempio per creare modelli linguistici di grandi dimensioni (LLM). Le Cloud TPU includono anche SparseCore, ovvero processori di dataflow che accelerano i modelli basati sugli incorporamenti trovati nei modelli di suggerimenti. Altri casi d'uso includono il settore sanitario, come la modellazione del folding delle proteine e la scoperta di farmaci.

Quali sono le differenze tra le Cloud TPU e le GPU?

Una GPU è un processore specializzato progettato originariamente per la manipolazione della grafica computerizzata. La loro struttura parallela le rende ideali per algoritmi che elaborano grandi blocchi di dati presenti in genere nei carichi di lavoro di IA. Scopri di più.

Una TPU è un circuito integrato specifico per applicazioni (ASIC) progettato da Google per le reti neurali. Le TPU dispongono di funzionalità specializzate, come l'unità di moltiplicazione a matrice (MXU) e la topologia di interconnessione proprietaria, che le rendono ideali per accelerare l'addestramento e l'inferenza dell'IA.

Versioni di Cloud TPU

Versione Cloud TPUDescrizioneDisponibilità

Trillium

La Cloud TPU più avanzata fino ad oggi

Durante l'anteprima, Trillium è disponibile in Nord America (regione degli Stati Uniti orientali), Europa (regione occidentale) e Asia (regione nord-orientale)

Cloud TPU v5p

La Cloud TPU più potente per l'addestramento di modelli IA

Cloud TPU v5p è in disponibilità generale in Nord America (regione degli Stati Uniti orientali)

Cloud TPU v5e

Una Cloud TPU versatile per le esigenze di addestramento e inferenza

Cloud TPU v5e è in disponibilità generale in Nord America (regioni degli Stati Uniti centrali/orientali/meridionali/occidentali), Europa (regione occidentale) e Asia (regione del sud-orientale)

Informazioni aggiuntive sulle versioni di Cloud TPU

Trillium

Descrizione

La Cloud TPU più avanzata fino ad oggi

Disponibilità

Durante l'anteprima, Trillium è disponibile in Nord America (regione degli Stati Uniti orientali), Europa (regione occidentale) e Asia (regione nord-orientale)

Cloud TPU v5p

Descrizione

La Cloud TPU più potente per l'addestramento di modelli IA

Disponibilità

Cloud TPU v5p è in disponibilità generale in Nord America (regione degli Stati Uniti orientali)

Cloud TPU v5e

Descrizione

Una Cloud TPU versatile per le esigenze di addestramento e inferenza

Disponibilità

Cloud TPU v5e è in disponibilità generale in Nord America (regioni degli Stati Uniti centrali/orientali/meridionali/occidentali), Europa (regione occidentale) e Asia (regione del sud-orientale)

Informazioni aggiuntive sulle versioni di Cloud TPU

Come funziona

Dai un'occhiata all'interno delle Google Cloud TPU, inclusa una rara vista dall'interno dei data center in cui avviene la magia. I clienti utilizzano le Cloud TPU per eseguire alcuni dei più grandi carichi di lavoro di IA al mondo e questa potenza proviene da molto più di un semplice chip. In questo video, dai un'occhiata ai componenti del sistema TPU, tra cui networking di data center, interruttori di circuiti ottici, sistemi di raffreddamento ad acqua, verifica della sicurezza biometrica e altro ancora.

Sostituire con video TPU!

Utilizzi comuni

Esegui carichi di lavoro per l'addestramento dell'IA su larga scala

Addestramento di modelli performante ed efficiente

Inizia rapidamente con MaxText e MaxDiffusion, deployment di riferimento open source ad alte prestazioni e altamente scalabili per l'addestramento di modelli di grandi dimensioni.

Scopri di più
Rendimento relativo di MaxText

Addestramento di modelli performante ed efficiente

Inizia rapidamente con MaxText e MaxDiffusion, deployment di riferimento open source ad alte prestazioni e altamente scalabili per l'addestramento di modelli di grandi dimensioni.

Scopri di più
Rendimento relativo di MaxText

Addestramento su IA potente, scalabile ed efficiente

Massimizza le prestazioni, l'efficienza e il time to value con le Cloud TPU. Scala fino a migliaia di chip con l'addestramento multislice delle Cloud TPU. Misura e migliora la produttività dell'addestramento ML su larga scala con ML Goodput Measurement. Inizia rapidamente con MaxText e MaxDiffusion, deployment di riferimento open source per l'addestramento di modelli di grandi dimensioni.

Scalabilità quasi lineare fino a decine di migliaia di chip con l'addestramento multislice

Ottimizza i modelli IA di base

Adatta gli LLM per le tue applicazioni con Pytorch/XLA

Ottimizza in modo efficiente i modelli di base sfruttando i tuoi dati di addestramento che rappresentano il tuo caso d'uso. Cloud TPU v5e offre prestazioni di ottimizzazione LLM fino a 1,9 volte superiori per dollaro rispetto a Cloud TPU v4.

Ottimizzazione delle prestazioni LLM di Cloud TPU/$

    Adatta gli LLM per le tue applicazioni con Pytorch/XLA

    Ottimizza in modo efficiente i modelli di base sfruttando i tuoi dati di addestramento che rappresentano il tuo caso d'uso. Cloud TPU v5e offre prestazioni di ottimizzazione LLM fino a 1,9 volte superiori per dollaro rispetto a Cloud TPU v4.

    Ottimizzazione delle prestazioni LLM di Cloud TPU/$

      Gestisci carichi di lavoro di inferenza IA su larga scala

      Inferenza ad alte prestazioni, scalabile ed economica

      Accelera l'inferenza dell'AI con JetStream e MaxDiffusion. JetStream è un nuovo motore di inferenza progettato nello specifico per l'inferenza dei modelli linguistici di grandi dimensioni (LLM). JetStream rappresenta un passo avanti significativo in termini di prestazioni ed efficienza dei costi e offre velocità effettiva e latenza senza precedenti per l'inferenza LLM sulle Cloud TPU. MaxDiffusion è un insieme di implementazioni di modelli di diffusione ottimizzate per le Cloud TPU, che semplificano l'esecuzione dell'inferenza per i modelli di diffusione su Cloud TPU ad alte prestazioni.

      Scopri di più

      Inferenza ad alte prestazioni, scalabile ed economica

      Accelera l'inferenza dell'AI con JetStream e MaxDiffusion. JetStream è un nuovo motore di inferenza progettato nello specifico per l'inferenza dei modelli linguistici di grandi dimensioni (LLM). JetStream rappresenta un passo avanti significativo in termini di prestazioni ed efficienza dei costi e offre velocità effettiva e latenza senza precedenti per l'inferenza LLM sulle Cloud TPU. MaxDiffusion è un insieme di implementazioni di modelli di diffusione ottimizzate per le Cloud TPU, che semplificano l'esecuzione dell'inferenza per i modelli di diffusione su Cloud TPU ad alte prestazioni.

      Scopri di più

      Massimizza le prestazioni/$ con un'infrastruttura IA scalabile

      Cloud TPU v5e consente un'inferenza ad alte prestazioni ed economica per un'ampia gamma di carichi di lavoro IA, inclusi i più recenti LLM e modelli di IA generativa. TPU v5e offre prestazioni in termini di velocità effettiva fino a 2,5 volte superiore per dollaro e una velocità fino a 1,7 volte superiore rispetto a Cloud TPU v4. Ogni chip TPU v5e fornisce fino a 393 trilioni di operazioni int8 al secondo, consentendo a modelli complessi di fare previsioni rapidamente. Un pod TPU v5e offre fino a 100 quadrilioni di operazioni int8 al secondo o 100 petaOps di potenza di calcolo.

      Scopri di più sull'inferenza su TPU v5e
      Pod Cloud TPU v5e

      Cloud TPU in GKE

      Esegui carichi di lavoro IA ottimizzati con l'orchestrazione della piattaforma

      Una solida piattaforma AI/ML prende in considerazione i seguenti livelli: (i) Orchestrazione dell'infrastruttura che supporta le GPU per l'addestramento e la gestione dei carichi di lavoro su larga scala, (ii) Integrazione flessibile con i framework di trattamento dati e computing distribuito (iii) Supporto a più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse.

      Scopri di più sull'orchestrazione IA/ML su GKE

      Esegui carichi di lavoro IA ottimizzati con l'orchestrazione della piattaforma

      Una solida piattaforma AI/ML prende in considerazione i seguenti livelli: (i) Orchestrazione dell'infrastruttura che supporta le GPU per l'addestramento e la gestione dei carichi di lavoro su larga scala, (ii) Integrazione flessibile con i framework di trattamento dati e computing distribuito (iii) Supporto a più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse.

      Scopri di più sull'orchestrazione IA/ML su GKE

      Scalabilità semplice con GKE

      Combina la potenza delle Cloud TPU con la flessibilità e la scalabilità di GKE per creare ed eseguire il deployment di modelli di machine learning in modo più rapido e semplice che mai. Con le Cloud TPU disponibili in GKE, ora puoi avere un singolo ambiente operativo coerente per tutti i tuoi carichi di lavoro, standardizzando le pipeline MLOps automatizzate.

      Scopri di più
      TPU nell'architettura GKE

      Cloud TPU in Vertex AI

      Addestramento e previsioni di Vertex AI con Cloud TPU

      Per i clienti che cercano un modo più semplice per sviluppare modelli IA, puoi eseguire il deployment di Cloud TPU v5e con Vertex AI, una piattaforma end-to-end per la creazione modelli di IA su un'infrastruttura completamente gestita, creata appositamente per la gestione a bassa latenza e l'addestramento ad alte prestazioni.

      Addestramento e previsioni di Vertex AI con Cloud TPU

      Per i clienti che cercano un modo più semplice per sviluppare modelli IA, puoi eseguire il deployment di Cloud TPU v5e con Vertex AI, una piattaforma end-to-end per la creazione modelli di IA su un'infrastruttura completamente gestita, creata appositamente per la gestione a bassa latenza e l'addestramento ad alte prestazioni.

      Prezzi

      Prezzi per Cloud TPUTutti i prezzi di Cloud TPU si intendono per chip/ora
      Versione Cloud TPUPrezzo di valutazione (USD)Impegno di 1 anno (USD)Impegno di 3 anni (USD)

      Trillium

      Starting at

      2,7000 $

      per chip/ora

      Starting at

      1,8900 $

      per chip/ora

      Starting at

      1,2200 $

      per chip/ora

      Cloud TPU v5p

      Starting at

      4,2000 $

      per chip/ora

      Starting at

      2,9400 $

      per chip/ora

      Starting at

      1,8900 $

      per chip/ora

      Cloud TPU v5e

      Starting at

      1,2000 $

      per chip/ora

      Starting at

      0,8400 $

      per chip/ora

      Starting at

      0,5400 $

      per chip/ora

      I prezzi di Cloud TPU variano in base al prodotto e alla regione.

      Prezzi per Cloud TPU

      Tutti i prezzi di Cloud TPU si intendono per chip/ora

      Trillium

      Prezzo di valutazione (USD)

      Starting at

      2,7000 $

      per chip/ora

      Impegno di 1 anno (USD)

      Starting at

      1,8900 $

      per chip/ora

      Impegno di 3 anni (USD)

      Starting at

      1,2200 $

      per chip/ora

      Cloud TPU v5p

      Prezzo di valutazione (USD)

      Starting at

      4,2000 $

      per chip/ora

      Impegno di 1 anno (USD)

      Starting at

      2,9400 $

      per chip/ora

      Impegno di 3 anni (USD)

      Starting at

      1,8900 $

      per chip/ora

      Cloud TPU v5e

      Prezzo di valutazione (USD)

      Starting at

      1,2000 $

      per chip/ora

      Impegno di 1 anno (USD)

      Starting at

      0,8400 $

      per chip/ora

      Impegno di 3 anni (USD)

      Starting at

      0,5400 $

      per chip/ora

      I prezzi di Cloud TPU variano in base al prodotto e alla regione.

      CALCOLATORE PREZZI

      Stima i costi mensili di Cloud TPU, inclusi i prezzi e le tariffe specifici per regione.

      PREVENTIVO PERSONALIZZATO

      Contatta il nostro team di vendita per ricevere un preventivo personalizzato per la tua organizzazione.

      Inizia la tua proof of concept

      Prova Cloud TPU gratuitamente

      Leggi una rapida introduzione all'uso delle Cloud TPU

      Esecuzione di TensorFlow su una VM Cloud TPU

      Esecuzione di JAX su una VM Cloud TPU

      Esecuzione di PyTorch su una VM Cloud TPU

      Google Cloud
      • ‪English‬
      • ‪Deutsch‬
      • ‪Español‬
      • ‪Español (Latinoamérica)‬
      • ‪Français‬
      • ‪Indonesia‬
      • ‪Italiano‬
      • ‪Português (Brasil)‬
      • ‪简体中文‬
      • ‪繁體中文‬
      • ‪日本語‬
      • ‪한국어‬
      Console
      Google Cloud