NVIDIA 文档中心
开始探索新的技术信息和产品文档
按以下方式浏览
热门产品
获取有关我们最新创新的支持,了解如何将这些创新融入你的工作。
NVIDIA NemoClaw 是一个开源堆栈,借助一条命令即可更安全地简化 OpenClaw 全天候智能助手的运行。它会安装 NVIDIA OpenShell 运行时 (NVIDIA Agent Toolkit 的一部分) 、运行自主智能体的安全环境,以及 NVIDIA Nemotron 等开源模型。
NVIDIA OpenShell 是一款开源运行时,用于更安全地构建和部署自主、自演进的智能体。OpenShell 位于智能体与底层基础设施之间,用于管控智能体的执行方式、可见范围、操作权限以及推理流向。它支持 Claw 组件在隔离沙箱中运行,并对隐私与安全实现细粒度管控。
The NVIDIA® CUDA® Toolkit 为 C 和 C++ 开发者构建 GPU 加速应用提供了全面的开发环境。
GPU 通过并行计算来加速机器学习操作。许多运算,尤其是那些可表示为矩阵乘法器的运算,开箱即用就能实现良好的加速。通过调整操作参数以高效使用 GPU 资源,可以实现更好的性能。性能文档提供了我们认为非常有用的技巧。
借助 NVIDIA Metropolis,从大量视频和传感器数据中提取宝贵见解,打造智慧城市。 使用一组功能强大的软件工具进行构建,包括 DeepStream SDK、NVIDIA TAO 工具套件、NVIDIA NGC™ 目录中的预训练模型以及 NVIDIA® TensorRT™。 利用容器将这些应用打包成云原生格式,以实现可通过 NVIDIA EGX™ 平台轻松横向扩展的灵活部署。
NVIDIA 云原生技术使开发者能够使用 Docker 和 Kubernetes 构建和运行 GPU 加速容器。
针对热门开源 LLM 的 NVIDIA 硬件优化部署指南。
NVIDIA NeMo 是由 API 和库组成的模块化软件套件,可帮助开发者管理 AI 智能体生命周期,即大规模构建、部署和优化 AI 智能体。
NVIDIA NIM 微服务是 NVIDIA AI Enterprise 的一部分,是一组易于使用的微服务,可在任何云或数据中心上加速基础模型的部署,并有助于确保数据安全。 NIM 微服务具有生产级运行时,包括持续的安全更新。
NVIDIA API (包括 NIM 和 CUDA-X 微服务) 指南。
NVIDIA AI Enterprise 是一个端到端平台,用于开发、部署和管理 AI 应用。它包括应用层和 GPU 驱动中的 AI 框架、NIM 微服务和 SDK、Kubernetes Operator 和基础架构层中的集群管理工具,每个工具都具有独立的版本分支、生命周期策略和企业支持。
NVIDIA Omniverse 是一个基于 Pixar 的通用场景描述 (USD) 和 NVIDIA RTX 的云原生、多 GPU 实时模拟和协作平台,适用于 3D 制作流程。
NVIDIA 虚拟 GPU (vGPU) 软件是一个图形虚拟化平台,可将 NVIDIA GPU 技术的强大功能扩展到虚拟桌面和应用,从而提高安全性、生产力和成本效益。
NVIDIA DGX 平台专为企业 AI 从头开始构建,将出色的 NVIDIA 软件、基础设施和专业知识整合到一个现代、统一的 AI 开发和训练解决方案中。
NVIDIA CUDA® 深度神经网络 (cuDNN) 是一个 GPU 加速的深度神经网络基元库。
NVIDIA JetPack SDK 是构建 AI 应用的全面解决方案,与 L4T 和 L4T Multimedia 一起,为 Jetson 平台提供 Linux 内核、引导加载程序、NVIDIA 驱动、刷机工具、示例文件系统等。
NVIDIA TensorRT 是用于高性能深度学习推理的 SDK。它旨在以互补的方式与训练框架 (例如 TensorFlow、PyTorch 和 MXNet) 配合使用。它特别侧重于在 NVIDIA 硬件上快速高效地运行已训练的网络。