NVIDIA 文档中心
开始探索新的技术信息和产品文档
按以下方式浏览
热门产品
获取有关我们最新创新的支持,了解如何将这些创新融入你的工作。
AIStore 是适用于 AI 工作负载的可随处部署的分布式对象存储,可无缝快速分层云存储和线性可扩展性。
NVIDIA NemoClaw 是一个开源堆栈,借助一条命令即可更安全地简化 OpenClaw 全天候智能助手的运行。它会安装 NVIDIA OpenShell 运行时 (NVIDIA Agent Toolkit 的一部分) 、运行自主智能体的安全环境,以及 NVIDIA Nemotron 等开源模型。
NVIDIA OpenShell 是一款开源运行时,用于更安全地构建和部署自主、自演进的智能体。OpenShell 位于智能体与底层基础设施之间,用于管控智能体的执行方式、可见范围、操作权限以及推理流向。它支持 Claw 组件在隔离沙箱中运行,并对隐私与安全实现细粒度管控。
基于组件的灵活数据中心级推理服务框架,旨在满足生成式 AI 等复杂用例的需求。
The NVIDIA® CUDA® Toolkit 为 C 和 C++ 开发者构建 GPU 加速应用提供了全面的开发环境。
GPU 通过并行计算来加速机器学习操作。许多运算,尤其是那些可表示为矩阵乘法器的运算,开箱即用就能实现良好的加速。通过调整操作参数以高效使用 GPU 资源,可以实现更好的性能。性能文档提供了我们认为非常有用的技巧。
借助 NVIDIA Metropolis,从大量视频和传感器数据中提取宝贵见解,打造智慧城市。 使用一组功能强大的软件工具进行构建,包括 DeepStream SDK、NVIDIA TAO 工具套件、NVIDIA NGC™ 目录中的预训练模型以及 NVIDIA® TensorRT™。 利用容器将这些应用打包成云原生格式,以实现可通过 NVIDIA EGX™ 平台轻松横向扩展的灵活部署。
NVIDIA 云原生技术使开发者能够使用 Docker 和 Kubernetes 构建和运行 GPU 加速容器。
针对热门开源 LLM 的 NVIDIA 硬件优化部署指南。
NVIDIA NeMo 是由 API 和库组成的模块化软件套件,可帮助开发者管理 AI 智能体生命周期,即大规模构建、部署和优化 AI 智能体。
NVIDIA NIM 微服务是 NVIDIA AI Enterprise 的一部分,是一组易于使用的微服务,可在任何云或数据中心上加速基础模型的部署,并有助于确保数据安全。 NIM 微服务具有生产级运行时,包括持续的安全更新。
NVIDIA API (包括 NIM 和 CUDA-X 微服务) 指南。
NVIDIA AI Enterprise 是一个端到端平台,用于开发、部署和管理 AI 应用。它包括应用层和 GPU 驱动中的 AI 框架、NIM 微服务和 SDK、Kubernetes Operator 和基础架构层中的集群管理工具,每个工具都具有独立的版本分支、生命周期策略和企业支持。
NVIDIA Omniverse 是一个基于 Pixar 的通用场景描述 (USD) 和 NVIDIA RTX 的云原生、多 GPU 实时模拟和协作平台,适用于 3D 制作流程。
NVIDIA 虚拟 GPU (vGPU) 软件是一个图形虚拟化平台,可将 NVIDIA GPU 技术的强大功能扩展到虚拟桌面和应用,从而提高安全性、生产力和成本效益。
NVIDIA DGX 平台专为企业 AI 从头开始构建,将出色的 NVIDIA 软件、基础设施和专业知识整合到一个现代、统一的 AI 开发和训练解决方案中。
NVIDIA CUDA® 深度神经网络 (cuDNN) 是一个 GPU 加速的深度神经网络基元库。
NVIDIA JetPack SDK 是构建 AI 应用的全面解决方案,与 L4T 和 L4T Multimedia 一起,为 Jetson 平台提供 Linux 内核、引导加载程序、NVIDIA 驱动、刷机工具、示例文件系统等。
NVIDIA TensorRT 是用于高性能深度学习推理的 SDK。它旨在以互补的方式与训练框架 (例如 TensorFlow、PyTorch 和 MXNet) 配合使用。它特别侧重于在 NVIDIA 硬件上快速高效地运行已训练的网络。