文档更新内容
Google Cloud 文档的最新信息。
获享 $300 免费赠金开始概念验证
- 体验 Gemini 2.0 Flash Thinking
- 获享热门产品(包括 AI API 和 BigQuery)的月度免费用量
- 不会自动收费,无需承诺
继续探索 20 多种提供“始终免费”用量的产品
使用适用于常见应用场景(包括 AI API、虚拟机、数据仓库等)的 20 多种免费产品。
概览
在 AI Hypercomputer 中使用 NCCL/gIB 优化集群网络
NCCL/gIB 是 Google 针对 GPU 到 GPU 通信原语的 NVIDIA Collective Communications Library (NCCL) 增强版。
指南
借助新的监控信息中心,快速了解 Cloud CDN 系统健康状况
无需自定义配置,即可更深入地了解缓存性能,并清晰地概览核心 Cloud CDN 指标。信息中心默认处于启用状态,可让您快速了解系统运行状况
概览
Cloud Run 现在支持现代 Python 框架
Cloud Run 现在支持 FastAPI、Gradio 和 Streamlit 等热门 Python Web 框架,让您可以比以往更轻松地部署现代工作负载。
概览
Google Distributed Cloud connected 1.10.0 版发布文档
访问 Google Distributed Cloud connected 1.10.0 版的最新产品文档。
指南
GKE Inference Quickstart 工具实践指南
使用 GKE 推理快速入门工具部署可用于生产用途的 AI。本指南侧重于效果和费用分析,详细介绍了费用计算、gcloud CLI 命令和效果优化。
概览
GKE 发布了统一的 AI/机器学习文档,集成了 GKE 上的 Ray
GKE 现在提供一套统一的 AI/机器学习工作负载文档,围绕推理和训练等用户工作流整理内容,并完全集成 Ray on GKE 的文档。
概览
Google Cloud 推出搭载 NVIDIA GB200 超级芯片的 A4X 虚拟机,助力实现艾级 AI
Google Cloud 上的 A4X 虚拟机使用 NVIDIA GB200 超级芯片和多节点 NVLink,可提供艾级计算能力,最多可使用 72 个 GPU 来处理大规模 AI 和 HPC 工作负载。
教程
在 Google Kubernetes Engine 上部署开放 LLM
通过这篇新的 Terraform 教程,使用预配置的、可用于生产环境的参考架构,在 GKE 上部署热门的开放 LLM 以进行推理。
指南
Google Cloud 以应用为中心的生态系统的入口
刚开始接触以应用为中心的世界?了解 App Hub、Application Design Center 和 Cloud Hub 如何帮助您在 Google Cloud 上管理、设计和运行应用。
表
借助此功能比较矩阵选择合适的 Looker 版本
确定适合您的 Looker 版本。此综合矩阵比较了 Looker (Google Cloud Core)、Looker(原始版本)和客户托管部署之间的功能差异。
最新的 Google Cloud 博客
更多更新和资源
Cloud 产品版本说明
Google Cloud 产品的最新变化。
架构中心的新变化
Google Cloud的最新最佳实践和参考架构。
社区讨论
加入社区,向在 Google Cloud上开发、部署和运营的同行学习。