整合式超級運算架構

AI Hypercomputer

透過 AI 技術最佳化硬體、軟體和使用量,提高工作效率和效率。

網誌:Introducing Cloud TPUv5 and AI Hypercomputer (TPU v5p 和 AI 超級電腦隆重登場)

總覽

效能最佳化硬體

我們效能最佳的基礎架構包括 Google Cloud TPUGoogle Cloud GPUGoogle Cloud Storage 和基礎 Jupiter 網路,由於架構具備強大的擴充特性,能夠穩定地以最快時間訓練大規模的先進模型,為大型模型提供最佳成本效益。

開放軟體

我們的架構經過最佳化,支援最常見的工具和程式庫,例如 TensorflowPytorchJAX。此外,客戶還能使用 Cloud TPU Multislice 和 Multihost 設定等技術,以及 Google Kubernetes Engine 等代管服務。因此,客戶能為常見的工作負載提供立即可用的部署作業,例如 SLURM 自動化調度管理的 NVIDIA NeMO 架構

靈活運用

客戶可以透過彈性消費模型選擇固定費用,並提供承諾使用折扣或動態隨選模型,滿足自身業務需求。動態工作負載排程器可協助客戶取得所需容量,避免分配過多資源,因此客戶只需依用量付費。此外,Google Cloud 的成本最佳化工具會自動使用資源,減少工程師須手動處理的工作。

運作方式

Google 發明 TensorFlow 等多項技術,是人工智慧領域的領導品牌。您知道嗎?您可以在自己的專案運用 Google 技術。瞭解 Google 在創新 AI 基礎架構領域的歷程,以及如何將這項技術用於工作負載。

Google Cloud AI 超級電腦架構圖,旁邊是 Google Cloud 產品經理 Chelsie 的相片

常見用途

執行大規模 AI 訓練作業

提供 AI 技術輔助應用程式

運用開放架構提供有 AI 技術輔助的體驗

藉助 Google Cloud 的開放式軟體生態系統,您可以透過最慣用的架構和工具建構應用程式,同時享有 AI 超級電腦架構的成本效益優勢。

Google Cloud AI 工具與架構

以符合成本效益的方式大規模提供模型

以更具成本效益的方式大規模提供 AI

Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。

運用自訂 AI 感知負載平衡功能,將推論延遲時間降至最低
以佇列深度為基礎的負載平衡架構圖

以更具成本效益的方式大規模提供 AI

Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。

運用自訂 AI 感知負載平衡功能,將推論延遲時間降至最低
以佇列深度為基礎的負載平衡架構圖

以更具成本效益的方式大規模提供 AI

搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。

每一美元的相對效能:Cloud TPU v4 與 v5e

Google Cloud 上的開放原始碼模型

在單一 GPU 上使用 GKE 提供模型

使用 GPU 訓練常用模型

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
控制台
Google Cloud