透過 AI 技術最佳化硬體、軟體和使用量,提高工作效率和效率。
網誌:Introducing Cloud TPUv5 and AI Hypercomputer (TPU v5p 和 AI 超級電腦隆重登場)
總覽
我們效能最佳的基礎架構包括 Google Cloud TPU、Google Cloud GPU、Google Cloud Storage 和基礎 Jupiter 網路,由於架構具備強大的擴充特性,能夠穩定地以最快時間訓練大規模的先進模型,為大型模型提供最佳成本效益。
我們的架構經過最佳化,支援最常見的工具和程式庫,例如 Tensorflow、Pytorch 和 JAX。此外,客戶還能使用 Cloud TPU Multislice 和 Multihost 設定等技術,以及 Google Kubernetes Engine 等代管服務。因此,客戶能為常見的工作負載提供立即可用的部署作業,例如 SLURM 自動化調度管理的 NVIDIA NeMO 架構。
運作方式
Google 發明 TensorFlow 等多項技術,是人工智慧領域的領導品牌。您知道嗎?您可以在自己的專案運用 Google 技術。瞭解 Google 在創新 AI 基礎架構領域的歷程,以及如何將這項技術用於工作負載。
常見用途
運用 ML Productivity Goodput,以 Google 技術評估大規模訓練的成效。
運用 ML Productivity Goodput,以 Google 技術評估大規模訓練的成效。
Google Cloud 致力確保開放架構在 AI 超級電腦架構中順利運作。
Google Cloud 致力確保開放架構在 AI 超級電腦架構中順利運作。
Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。
搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。
Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。
搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。