滁州 切换城市

请选择您所在的城市:

    热门
    城市

    人人头条

    发布投稿
    客服热线4008868058

    英伟达 NVIDIA AI 全景解析

    2024-03-19 17:02:35

       作者:AI时代

    阅读:16315

    评论:0

    举报

    [摘要] NVIDIA 概述公司概况NVIDIA (英伟达) 是全球知名的科技公司,早期专注于图形处理器(GPU)的设计和制造,近年来 NVIDIA 已成为全球领先的人工智能公司,其产品和服务体系涵盖了人工智能应用的各个环节。公司于1993年由黄仁勋、Chris Malachowsky 和 Curtis Priem 在美国加利福尼亚州创立。NVID


    NVIDIA 概述

    公司概况

    NVIDIA (英伟达) 是全球知名的科技公司,早期专注于图形处理器(GPU)的设计和制造,近年来 NVIDIA 已成为全球领先的人工智能公司,其产品和服务体系涵盖了人工智能应用的各个环节。

    公司于1993年由黄仁勋、Chris Malachowsky 和 Curtis Priem 在美国加利福尼亚州创立。NVIDIA 的 GPU 最初主要用于游戏,近年来已广泛应用于其他领域,包括人工智能、数据中心、汽车、医疗、机器人等。最近几年凭借炸裂的股市表现和AI产业持续对高性能 GPU 的需求井喷,NVIDIA 已正式成为 ”全球第一AI芯片公司“。

    All in AI 战略

    2023年3月,在 NVIDIA 2023 年 GTC 大会上,CEO黄仁勋宣称 公司将全力投入AI技术,推出新服务和硬件,旨在为一系列AI产品提供动力。

    NVIDIA 的 AI 产品和服务主要包括以下几个方面:

    • AI 硬件平台

    • AI 软件和工具

    • AI 企业软件套件

    • AI 应用框架

    • AI 云服务


    NVIDIA 的产品和服务体系涵盖了从硬件到软件的全方位解决方案,旨在推动AI技术的广泛应用和发展。NVIDIA 致力于推动人工智能技术的创新和发展,帮助各行各业实现数字化转型。

    NVIDIA AI 产品体系

    核心支撑技术

    Ada Lovelace 架构

    NVIDIA Ada Lovelace 架构是 NVIDIA 的第五代 GPU 架构,于 2022 年 9 月发布,旨在为游戏、创作、AI 和高性能计算提供革命性的性能提升。这一架构标志着光线追踪和基于AI的神经图形技术的转折点,显著提高了GPU的性能基准。

    介绍页面:
    https://www.nvidia.cn/geforce/ada-lovelace-architecture/

    Ada Lovelace 架构的关键特性如下:

    • 第四代Tensor Core:推动AI技术的变革,支持NVIDIA DLSS以及全新的DLSS 3技术,通过Hopper数据中心GPU上首次推出的FP8 Transformer引擎,大幅提升吞吐量。

    • 第三代RT Core:进一步提升了光线与三角形求交性能,提高了RT-TFLOP峰值性能,配备了新的Opacity Micromap (OMM) 引擎和Displaced Micro-Mesh (DMM) 引擎,大幅提升了处理复杂几何场景的实时光线追踪能力。

    • 着色器执行重排序 (SER):这项技术能够动态调整工作负载顺序,提高光线追踪操作的着色器性能,最高可提升2倍,或将游戏帧率提升25%。

    • DLSS 3:NVIDIA DLSS 3是AI驱动图形领域的革命性突破,由第四代Tensor Core和光流加速器支持,能够利用AI创造更多高质量帧。

    • AV1编码器:新架构的GPU配备了支持AV1编码的第八代NVIDIA编码器 (NVENC),效率比H.264高出40%,有助于主播在保持直播推流比特率不变的情况下,提升直播画面分辨率。


    Ada Lovelace 架构的 GPU 为用户带来了前所未有的性能和效率,开启了全新的游戏体验和创作可能。

    Hopper 架构

    NVIDIA Hopper 是 NVIDIA 第四代 GPU 架构,为加速计算领域推出的最先进技术,特别是在AI和高性能计算(HPC)方面。这一架构于 2022 年 3 月 推出,其主打型号是 H100 Tensor Core GPU,引入了多项创新技术,以满足日益增长的计算需求。

    介绍页面:
    https://www.nvidia.cn/data-center/technologies/hopper-architecture/

    以下是 Hopper 架构的一些关键特性:

    • Transformer引擎:Hopper 架构通过引入 Transformer 引擎,显著提升了AI模型训练的效率。这一引擎专门针对加速 Transformer 模型的训练而设计,这类模型在自然语言处理(NLP)和其他AI应用中非常关键。

    • FP8和FP16混合精度:Hopper 架构的 Tensor Core 能够利用混合的FP8和FP16精度,以更高的速度执行AI计算。这种混合精度方法允许在保持精度的同时提高性能,特别是在处理大规模AI工作负载时。

    • 性能提升:与之前的架构相比,Hopper 架构在TF32、FP64、FP16和INT8精度的每秒浮点运算(FLOPS)上提高了3倍。这使得HPC和AI工作负载能够实现更快的加速。

    • NVLink和NVSwitch技术:Hopper 架构支持第四代 NVLink 和第三代 NVSwitch 技术,这些技术提供了高速的多GPU通信能力,对于大规模AI和HPC应用至关重要。

    • 机密计算:Hopper 架构引入了机密计算功能,确保在数据处理期间数据的安全。这意味着即使数据在存储和传输时被加密,处理过程中的数据和应用代码也能得到保护。

    • 多实例GPU(MIG):Hopper 架构支持MIG技术,允许单个GPU被分割成多个独立的实例,每个实例都有自己的内存和计算资源。这有助于提高资源利用率和安全性。

    • DPX指令:Hopper 架构还包括DPX指令,这些指令专门用于加速动态编程算法,这些算法在多种计算场景中都有应用,如最短路径问题和生物信息学。


    NVIDIA Hopper 架构的这些特性使其成为处理下一代工作负载的理想选择,特别是在需要处理大量数据和复杂计算任务的AI和HPC领域。通过这些技术创新,Hopper 架构为数据中心和科学计算带来了前所未有的性能和效率。

    Tensor Cores

    Tensor Core 是 NVIDIA GPU 中的核心组件,专门设计用于加速深度学习和高性能计算 (HPC) 中的矩阵运算。Tensor Core 能够提供高效的多精度计算,从而在保持准确性的同时提高吞吐量,这对于 AI 推理和训练尤为重要。

    介绍页面:
    https://www.nvidia.cn/data-center/tensor-cores/

    以下是 NVIDIA Tensor Core 早期版本及其特性:

    第一代:NVIDIA Volta Tensor Core

    • 于 2017 年 5 月发布。

    • Volta 是 NVIDIA 的第一代 Tensor Core 架构,它通过 FP16 和 FP32 下的混合精度矩阵乘法提供了突破性的性能。

    • 与老一代架构 Pascal 相比,Volta 在训练和推理性能上实现了显著提升,峰值 TFLOPS 性能提升了高达 12 倍(训练)和 6 倍(推理)。


    第二代:NVIDIA Turing Tensor Core

    • 于 2018 年 9 月发布。

    • Turing 架构进一步扩展了 Tensor Core 的能力,支持从 FP32 到 FP16 再到 INT8 和 INT4 的多精度计算。Turing Tensor Core 相比 Pascal GPU 在性能上有大幅度提升。

    • Turing 集成了 RT Core 第一代,实现了高效的 AI 推理。


    第三代:NVIDIA Ampere Tensor Core

    • 于 2020 年 5 月发布。

    • Ampere 架构的 Tensor Core 引入了新的精度 TF32 和 FP64,并扩展了 Tensor Core 的功能至 HPC 领域。这一第三代 Tensor Core 支持 BFloat16、INT8 和 INT4,为 AI 训练和推理创建了一个高度通用的加速器。

    • 本架构代表 GPU A100 和 A30 不只将强大的 Tensor 核心导入高效能运算,也支持完整矩阵运算、通过 IEEE 认证,并使用 FP64 精度。

    • 从 Ampere 架构开始 GPU 也支持多实例 GPU (MIG) 功能,可让工作负载共享 GPU。MIG 让每个 GPU 能分隔成多个 GPU 实例,各自在硬件中完全独立且受保护,且具备个别的高带宽内存、快取和运算核心。


    Tensor Core 作为 NVIDIA GPU 方案的核心组件,与 NVIDIA NGC 目录中的硬件、网络、软件、库以及优化的 AI 模型和应用程序一起,构成了一个强大的端到端 AI 和 HPC 平台。这使得研究人员能够更快地得到计算结果,并将解决方案大规模部署到生产环境中。

    CUDA

    NVIDIA CUDA(Compute Unified Device Architecture) 是由 NVIDIA 专为图形处理单元 (GPU) 上的通用计算开发的并行计算平台和编程模型。它允许开发者利用 NVIDIA 的 GPU 进行高性能的计算任务,这种计算方式被称为 GPU 加速计算。

    CUDA 开发者网站:
    https://developer.nvidia.cn/cuda-zone

    CUDA 为开发者提供了一套全面的编程工具,包括编译器(nvcc)、调试器(cuda-gdb)、分析器(nvprof)以及一系列的库(如 cuBLAS、cuFFT 等),这些工具和库使得开发者能够编写能够在 GPU 上运行的并行程序。CUDA 还提供了一个应用程序接口(API),使得开发者能够直接控制 GPU 的资源,如内存管理和执行流。

    CUDA 的主要特点包括:

    • 并行计算能力:通过在 GPU 上执行并行计算任务,CUDA 能够显著提高计算密集型应用程序的性能。

    • 易于使用的编程模型:CUDA 提供了类似于 C/C++ 的编程接口,使得具有基本编程知识的开发者也能够编写 GPU 加速代码。开发者可以使用主流语言(如 C、C++、Fortran、Python 和 MATLAB)进行编程,并通过扩展程序以几个基本关键字的形式来表示并行性。

    • 广泛的应用领域:CUDA 被广泛应用于科学计算、工程模拟、数据分析、机器学习等多个领域。

    • 强大的生态系统:CUDA 拥有一个庞大的开发者社区和丰富的文档资源,以及持续更新的软件库和工具,支持最新的 GPU 技术。

    • 跨平台支持:CUDA 支持多种操作系统,包括 Windows、Linux 和 macOS,允许开发者在不同的平台上开发和部署应用程序。


    通过 CUDA,开发者可以充分利用 GPU 的并行处理能力,加速各种计算任务,从而在科学研究、工程设计和数据分析等领域实现突破性的成果。

    CUDA-X

    NVIDIA CUDA-X 是一系列专为 AI 应用设计的 GPU 加速软件库。这些库构建在 NVIDIA 的 CUDA 并行编程模型之上,旨在为深度学习、机器学习和高性能计算 (HPC) 提供必要的优化功能,以加速 AI 应用程序的开发和部署。

    介绍页面:
    https://www.nvidia.cn/technologies/cuda-x/

    以下是 CUDA-X AI 的主要组成部分和特点:

    • cuDNN:一个深度神经网络库,提供高度优化的深度学习基元,如卷积、池化、归一化和线性代数运算。

    • cuML:加速数据科学工作流程和机器学习算法的库,提供类似于 scikit-learn 的接口,但使用 GPU 加速。

    • TensorRT:用于优化经过训练的模型的推理性能,通过精确的层支持和张量优化,提高推理速度和效率。

    • cuDF:一个类似于 Pandas 的 GPU 加速 DataFrame 库,用于数据分析和处理。

    • cuGraph:提供在图形上执行高性能分析的库,支持图形算法和数据结构。

    • 集成和可用性:CUDA-X AI 库集成到所有主要的深度学习框架(如 TensorFlow、PyTorch 和 MXNet)和数据科学软件(如 RAPIDS)中。它们也可以在领先的云平台(如 AWS、Microsoft Azure 和 Google Cloud)上使用,并且可以通过 NVIDIA GPU Cloud (NGC) 网站免费下载。

    • 多设备支持:CUDA-X AI 库可以部署在多种设备内的 NVIDIA GPU 上,包括台式机、工作站、服务器、云计算和物联网 (IoT) 设备。

    • 性能提升:与 NVIDIA Tensor Core GPU 无缝配合工作,显著加快基于 AI 的应用程序的开发和部署速度。


    CUDA-X AI 使得开发者能够利用 GPU 的强大计算能力,提高工作效率,并从不断提升的应用程序性能中获益。无论是开发新应用程序还是加速现有应用程序,CUDA-X AI 都提供了一个高效和有效的解决方案。

    NVLink 和 NVSwitch

    NVLink 和 NVSwitch 技术是 NVIDIA 为数据中心和高性能计算 (HPC) 应用提供的高速互连解决方案。它们旨在提高多 GPU 系统以及 CPU 和 GPU 之间的通信速度和效率。

    介绍页面:
    https://www.nvidia.cn/data-center/nvlink/

    NVIDIA NVLink 技术

    NVLink 是一种高速互连技术,它允许 GPU 之间以及 GPU 与 CPU 之间进行快速数据传输。这种直接的芯片到芯片连接提供了比传统 PCIe 连接更高的带宽和更低的延迟。NVLink 技术的主要特点包括:

    • 高带宽:第四代 NVIDIA NVLink 提供的带宽是 PCIe 5.0 的 7 倍,单个 NVIDIA H100 Tensor Core GPU 支持的总带宽可达 900 GB/s。

    • 可扩展性:NVLink 支持多 GPU 系统配置,使得多个 GPU 能够协同工作,提供无缝的高速通信。

    • 性能提升:NVLink 技术可以提高深度学习训练的速度,支持大型 AI 模型和复杂问题的解决。


    NVIDIA NVSwitch 技术

    NVSwitch 是一种基于 NVLink 的高级通信能力构建的交换技术,它专为计算密集型工作负载设计,提供更高带宽和更低延迟的通信。NVSwitch 的主要特点包括:

    • 多对多通信:每个 NVSwitch 都有多个 NVLink 端口,支持节点内和节点间多个 GPU 之间的全带宽连接。

    • 网络内归约和组播加速:NVSwitch 配备 NVIDIA SHARP 引擎,用于网络内归约和组播加速,提高集合运算的效率。

    • 构建大型 GPU 集群:通过 NVSwitch,可以在多节点间扩展 NVLink 连接,创建数据中心规模的 GPU 集群,以快速完成大型 AI 作业。


    NVLink 和 NVSwitch 技术的结合,使得 NVIDIA 能够提供强大的端到端 AI 和 HPC 平台,支持研究人员和企业快速得到结果,并将解决方案部署到生产环境中,实现各种规模上的加速。

    此外,NVIDIA 还推出了 NVLink-C2C 技术,这是一种超快的芯片互连技术,它将 NVLink 技术扩展到芯片之间的互连产品,使得 NVIDIA 的 GPU、DPU 和 CPU 可以与定制芯片实现高效互连。NVLink-C2C 技术的优势包括快速数据传输、行业标准协议兼容性、低延迟、低功耗和高密度连接。这些特点使得 NVLink-C2C 成为构建半定制芯片设计的理想选择,有助于开发高性能、高效率的计算系统。

    多实例 GPU

    多实例 GPU(MIG) 技术是 NVIDIA 一种创新的虚拟化解决方案,它允许单个物理 GPU 被分割成多个完全独立的 GPU 实例。这些实例可以独立运行不同的任务,从而提高 GPU 利用率并优化数据中心的资源分配。

    介绍页面:
    https://www.nvidia.cn/technologies/multi-instance-gpu/

    MIG 技术的主要功能和技术特点:

    • 多实例分割:MIG 可以将一个 NVIDIA H100、A100 或 A30 Tensor Core GPU 划分为多达七个独立的实例,每个实例都有自己的高带宽显存、缓存和计算核心。

    • 提高资源灵活性:通过 MIG,管理员可以在单个 GPU 上创建多达原来 7 倍的 GPU 资源,为研发人员提供更多的资源和更大的灵活性。

    • 优化 GPU 利用率:MIG 允许灵活选择不同大小的实例,为每项工作负载提供适当规模的 GPU 实例,从而优化利用率并最大化数据中心投资的回报。

    • 并行运行工作负载:MIG 支持在单个 GPU 上同时运行多个工作负载,如推理、训练和高性能计算 (HPC) 任务,实现高性能并行处理。

    • 动态配置和资源分配:管理员可以根据不断变化的用户和业务需求动态地重新配置 MIG 实例,例如,白天进行低吞吐量推理,夜间进行深度学习训练。

    • 安全隔离:每个 MIG 实例都有专用的硬件资源,提供稳定可靠的服务质量 (QoS) 和有效的故障隔离,确保一个实例上的应用程序故障不会影响到其他实例。

    • 支持多种工作负载类型:不同的 MIG 实例可以运行不同类型的工作负载,包括交互式模型开发、深度学习训练、AI 推理或高性能计算应用程序等。

    • 适用于多种计算环境:MIG 助力 IT 和开发运营团队进行精细的 GPU 配置,适用于所有主流企业计算环境,且对 CUDA 平台没有任何变化。


    NVIDIA MIG 技术通过提供高效的 GPU 资源共享和隔离,为云计算服务提供商和企业数据中心带来了更高的操作灵活性和成本效益。

    机密计算

    NVIDIA 机密计算(Confidential Computing,CCX) 是一种先进的数据安全解决方案,旨在保护在收集、存储和使用阶段的数据安全。这一技术特别适用于处理敏感数据的 AI 应用,确保数据在整个处理过程中的机密性和完整性。

    介绍页面:
    https://www.nvidia.cn/data-center/solutions/confidential-computing/

    以下是 NVIDIA 机密计算的主要功能特性:

    • 端到端数据保护:NVIDIA 机密计算在整个数据处理流程中提供保护,包括数据传输、处理和存储,以防止外部攻击和内部威胁。

    • 基于硬件的安全性和隔离:通过在本地、云端或边缘实现虚拟机的完全隔离,确保数据在 CPU 和 H100 GPU 之间的传输过程中进行加密和解密。

    • 防止未经授权的访问:使用内置硬件防火墙创建物理隔离的受信任执行环境 (TEE),保护基于 H100 GPU 的整个工作负载,确保只有授权用户才能访问和处理数据。

    • 设备认证的可验证性:开启 CCX 功能,确保只有经授权的最终用户才能将数据和代码放入 H100 的 TEE 内执行,验证用户使用的是真实的 NVIDIA H100 GPU,并且固件未被篡改。

    • 无需更改应用代码:大多数情况下,无需对 GPU 加速工作负载进行代码更改,即可利用 CCX 的所有优势,同时在 H100 GPU 上加速端到端 AI 工作负载。

    • 保护 AI 知识产权:CCX 保留部署在 H100 GPU 上的 AI 模型和算法的机密性和完整性,使 ISV 能够在共享或远程基础架构上大规模分发和部署其专有 AI 模型。

    • AI 训练和推理的安全性:CCX 确保在 AI 训练和推理期间,无论是本地、云端还是边缘,数据的机密性得到保障。

    • 安全的多方协作:CCX 支持安全的多方计算,使组织能够共同协作训练或评估 AI 模型,同时保护数据和 AI 模型不受未经授权的访问和内部威胁的影响。


    NVIDIA 机密计算通过这些功能和技术特性,为处理敏感数据的 AI 应用提供了一个安全的计算环境,帮助企业和组织保护其数据和知识产权,同时满足监管合规要求。

    Morpheus AI

    NVIDIA Morpheus AI 框架是一个综合性的解决方案,旨在提高 AI 和机器学习模型的安全性和鲁棒性。它通过一系列先进的技术和功能,帮助开发者和企业保护其 AI 系统免受网络攻击和数据泄露的威胁。

    介绍页面:
    https://developer.nvidia.com/morpheus-cybersecurity

    以下是 Morpheus AI 框架的关键功能和技术特点:

    • 对抗性训练:Morpheus 框架支持对抗性训练,这是一种通过在训练过程中引入对抗性样本来增强模型鲁棒性的方法。这有助于模型识别和抵御潜在的攻击。

    • 模型保护:Morpheus 提供了模型保护机制,通过加密和封装技术确保 AI 模型在存储和传输过程中的安全性。

    • 数据隐私:利用差分隐私和同态加密等技术,Morpheus 能够在不泄露敏感信息的前提下进行数据处理和模型训练。

    • 模型验证和测试:框架包含了一套工具和方法,用于验证和测试 AI 模型的安全性,确保它们能够抵御各种攻击。

    • 安全模型更新:Morpheus 支持安全的模型更新机制,确保模型在不断改进的同时,其安全性不会受到影响。

    • 端到端解决方案:Morpheus 提供了一个全面的解决方案,从数据收集和预处理到模型训练、部署和监控,每个环节都考虑到了安全性。

    • 集成和兼容性:Morpheus 旨在与现有的 AI 和机器学习工作流程无缝集成,支持多种流行的深度学习框架和工具。

    • 性能优化:在确保安全性的同时,Morpheus 还注重性能的优化,以保证 AI 系统的高效运行。

    NVIDIA Morpheus AI 框架的目标是为 AI 系统提供一个坚固的安全基础,使其能够在面对日益复杂的网络威胁时保持稳定和可靠。通过这些功能和技术特性,Morpheus 有助于推动 AI 技术的可持续发展,同时保护用户和企业的数据安全。

    AI 硬件

    GPU

    Hopper-赫伯架构

    NVIDIA Hopper 架构 GPU 主要包括以下系列:

    • H100 系列:满足了数据中心和 HPC 应用的需求

    • GeForce RTX 40 系列:为游戏玩家和创意专业人士带来了极致的游戏体验和创作能力

    • Quadro RTX 6000 系列:为专业工作站和数据中心提供了专业级的性能和可靠性

    主打型号:

    H100:面向数据中心和高性能计算 (HPC),提供最高性能和可扩展性。

    • 拥有 80GB HBM3 显存,提供高达 614 TFLOPS 的 FP64 双精度浮点性能和高达 1.5 PFLOPS 的 AI 性能。

    • 支持 PCIe Gen5 和 HBM3 等最新技术。

    Ampere-安培架构

    NVIDIA Ampere 架构 GPU 主要包括以下系列:

    • A100 系列:满足了数据中心和 HPC 应用的需求

    • L4/L40 系列:针对数据中心应用进行了优化,适用于各种数据中心应用,包括 HPC、AI 和虚拟化

    • GeForce RTX 30 系列:为游戏玩家和创意专业人士带来了极致的游戏体验和创作能力

    • Quadro RTX A6000 系列:为专业工作站和数据中心提供了专业级的性能和可靠性

    主打型号:

    A100:面向数据中心和高性能计算,提供最高性能和可扩展性。

    • 拥有 80GB HBM2 显存,提供高达 19.5 TFLOPS 的 FP64 双精度浮点性能和高达 319 TFLOPS 的 AI 性能。

    • 支持 PCIe Gen 4、ECC 内存和虚拟化等技术。

    L4/L40 系列:提供卓越的性能,能够满足各种数据中心应用的需求。

    • L4: 采用台积电 8nm 工艺,相比上一代 12nm 工艺显著提升了晶体管密度和功耗效率

    • L40: 采用台积电 7nm 工艺,相比 L4 系列进一步提升了晶体管密度和功耗效率

    • 支持 PCIe Gen 5 和 GDDR6X 显存

    Turing-图灵架构

    NVIDIA Turing 架构 GPU 主要包括以下系列:

    • GeForce RTX 系列:为游戏玩家和创意专业人士带来了全新的游戏体验和创作能力

    • Titan RTX:满足了专业人士和发烧友的需求

    • Quadro RTX 系列:为专业工作站和数据中心提供了专业级的性能和可靠性

    Volta-瓦特架构

    NVIDIA Volta 架构 GPU 主要包括以下系列:

    • Tesla V100:满足了数据中心和 HPC 应用的需求

    • Titan V:为专业人士和发烧友提供了极致的性能

    • Quadro GV100:为专业工作站和数据中心提供了专业级的性能和可靠性

    NVIDIA H200

    NVIDIA H200 Tensor Core GPU 是基于 NVIDIA Hopper 架构的下一代数据中心GPU,专为加速生成性AI和高性能计算(HPC)工作负载而设计。H200 GPU是世界上第一款采用 HBM3e 内存的GPU,提供了更大的内存容量和更快的内存带宽,从而显著提升了处理大规模数据集的能力,特别是在生成性AI和大型语言模型(LLMs)方面。

    以下是NVIDIA H200 GPU的一些关键特性和优势:

    • 内存容量与带宽:H200 GPU拥有141GB的HBM3e内存,内存带宽高达4.8TB/s,几乎是NVIDIA H100 GPU内存容量的两倍,内存带宽提高了1.4倍。

    • 性能提升:与H100 GPU相比,H200在处理LLMs(如Llama2)时,推理速度提升了高达2倍。此外,对于内存密集型的HPC应用,H200的高内存带宽确保了数据的高效访问和处理,与CPU相比,可实现高达110倍的加速。

    • 能源效率与总拥有成本(TCO):H200 GPU在保持与H100相同的功耗水平的同时,提供了无与伦比的性能,这意味着AI工厂和超级计算系统不仅速度更快,而且更加环保,为AI和科学社区带来了经济优势。

    • 持续创新:NVIDIA Hopper架构相较于前代产品带来了前所未有的性能飞跃,并且通过持续的软件增强(如NVIDIA TensorRT-LLM™)不断提升性能。

    • 企业就绪的AI软件:结合NVIDIA AI Enterprise,H200 GPU简化了AI就绪平台的构建,加速了生成性AI、计算机视觉、语音AI等的生产就绪开发和部署,提供了企业级的安全性、可管理性、稳定性和支持。

    NVIDIA H200 GPU的这些特性使其成为推动AI和科学计算向前发展的强大工具,适用于需要处理大量数据和复杂计算任务的场景。目前 H200 还未上市,预计将于 GTC 2024 上正式发布。

    NVIDIA Tesla

    NVIDIA Tesla(数据中心 GPU) 是专为处理高性能计算和超大规模数据中心工作负载而设计的一系列加速器。这些 GPU 能够显著提高数据科学家和研究人员在能源勘探、深度学习等领域处理大规模数据集的速度。

    介绍页面:
    https://www.nvidia.cn/data-center/data-center-gpus/

    以下是 NVIDIA Tesla 的主要特点:

    • 高性能计算:NVIDIA Tesla GPU 加速器能够快速处理要求严格的 HPC 工作负载,使得解析 PB 级数据的速度比传统 CPU 快几个数量级。

    • 广泛的应用:Tesla GPU 加速器不仅适用于 HPC,还能够加速虚拟桌面、应用程序和工作站的性能,提供更高的用户密度。

    • GPU 加速服务器平台:NVIDIA 与合作伙伴提供一系列服务器,支持 AI、HPC 和加速计算工作负载。这些服务器平台为训练 (HGX-T)、推理 (HGX-I) 和超级计算 (SCX) 应用提供了理想的选择。

    • 训练和推理:NVIDIA GPU 支持的服务器能够加快深度学习模型的训练速度,将训练时间从数月缩短至数小时或数分钟。同时,对于推理任务,Tesla GPU 相比单插槽 CPU 服务器能提供更高的推理吞吐量。

    NVIDIA 数据中心 GPU 旨在为数据中心提供高性能的计算能力,加速各种计算密集型任务,从而推动科学研究和商业应用的发展。

    Grace CPU

    NVIDIA Grace CPU 超级计算平台是一款专为高性能计算、AI、数据分析、科学计算和超大规模计算应用而设计的处理器。它旨在满足现代数据中心对于高性能、能效和高带宽连接的需求。

    介绍页面:
    https://www.nvidia.cn/data-center/grace-cpu/

    以下是 NVIDIA Grace CPU 超级计算平台的主要特点:

    • 高性能架构:Grace CPU 专为严苛的计算任务设计,提供高性能和能效,以及用于各种配置的高带宽连接。

    • Grace Hopper 超级芯片:结合了 Grace 和 Hopper 架构与 NVIDIA NVLink-C2C,为 AI 和 HPC 应用提供 CPU + GPU 一致性内存模型。

    • Grace CPU 超级芯片:采用 NVLink-C2C 技术,提供 144 个 Arm Neoverse V2 核心和 1 TB/s 的内存带宽。

    • 面向现代工作负载:Grace 系列参考设计面向数字孪生、AI 和 HPC,结合 NVIDIA GPUs 和 BlueField-3 DPU,为各种应用提供优化的系统设计。

    • 提升性能和效率:Grace CPU 集成了 Arm Neoverse V2 核心,以节能高效的设计实现高性能,支持科学家和研究人员处理复杂问题。

    • 高带宽显存:Grace CPU 使用 LPDDR5X 内存,提供高带宽和能效,同时通过纠错码 (ECC) 提供服务器级可靠性。

    NVIDIA Grace CPU 超级计算平台旨在为新一代的高效 ARM 超级计算机提供动力,支持大规模模型训练和复杂的科学计算,推动科学发现和技术创新。

    BlueField DPU

    NVIDIA BlueField 网络平台是一系列数据处理器(DPUs)和超级网络接口控制器(SuperNICs),专为现代数据中心和超级计算集群设计,以推动企业进入加速计算和 AI 的新时代。

    介绍页面:
    https://www.nvidia.cn/networking/products/data-processing-unit/

    以下是 NVIDIA BlueField 网络平台的主要特点:

    • 数据中心转型:BlueField 网络平台通过其强大的计算能力和内置的软件定义硬件加速器,为多种工作负载提供安全的加速基础设施。

    • 产品系列

      • BlueField-3 DPU:支持 400Gb/s 速度的基础设施计算平台,能够线速处理网络、存储和安全任务,提供软件定义的硬件加速解决方案。

      • BlueField-3 SuperNIC:专为支持超大规模 AI 工作负载设计的网络加速器,提供高达 400Gb/s 的 RDMA 连接,优化 AI 工作负载效率。

      • BlueField-2 DPU:为主机提供加速能力、安全性和效率,结合了 NVIDIA ConnectX-6 Dx 的功能与可编程的 Arm 核心。

    • NVIDIA DOCA:软件开发套件,用于快速创建 BlueField DPU 应用程序和服务,解锁数据中心创新。

    • 面向 AI 的网络:BlueField 网络平台支持 AI 工作负载,通过高性能网络满足 AI 工作负载的需求,推动数据中心网络进入 AI 时代。

    • 能效:NVIDIA DPU 通过优化数据中心的能效,降低功耗,为大型数据中心节省成本。

    NVIDIA BlueField 网络平台的目标是通过其创新的 DPU 和 SuperNIC 产品,为数据中心提供高性能、高安全性和高效率的网络基础设施,特别是在 AI 和加速计算领域。

    Quantum InfiniBand

    NVIDIA InfiniBand 是一种高性能网络解决方案,专为满足超级计算机、AI 和云数据中心的需求而设计。它提供高速、低延迟和可扩展的网络服务,以支持复杂的工作负载,如高分辨率模拟、大型数据集处理和高度并行的算法。

    介绍页面:
    https://www.nvidia.cn/networking/products/infiniband/

    以下是 NVIDIA InfiniBand 网络解决方案的主要组件和特点:

    • InfiniBand 网卡 (HCA):提供极低延迟、极高吞吐量,以及 NVIDIA 网络计算引擎,为现代工作负载提供加速能力。

    • 数据处理器 (DPU):NVIDIA BlueField DPU 结合了计算能力、高速网络和可编程性,为严苛的工作负载提供硬件加速的解决方案。

    • InfiniBand 交换机:提供高性能和高端口密度,以及 NVIDIA SHARP 等创新功能,提升工业、AI 和科学应用的性能。

    • 路由器和网关系统:包括 InfiniBand 路由器、长距离连接 (MetroX-2) 和 InfiniBand to Ethernet 网关系统 (Skyway),提供可扩展性和子网隔离能力。

    • 远程互连系统:NVIDIA MetroX 远程互连系统无缝连接远程 InfiniBand 数据中心和存储,扩展 InfiniBand 的覆盖范围。

    • LinkX InfiniBand 线缆和收发器:旨在提高 HPC 网络的性能,满足高带宽、低延迟的连接要求。

    • 增强功能:包括网络计算、网络自愈、服务质量和支持多种网络拓扑的集中式管理。

    • 软件支持:提供如 MLNX_OFED、HPC-X、UFM 和 Magnum IO 等软件工具,以优化网络性能和管理。

    NVIDIA InfiniBand 网络解决方案通过其先进的技术和软件支持,为高性能计算、AI 和超大规模云基础设施带来了显著的性能提升,同时降低了成本和复杂性。

    软件与服务

    NGC

    NVIDIA NGC(NVIDIA GPU Cloud) 是面向端到端 AI 和数字孪生工作流程的企业服务、软件、管理工具和支持门户。它提供了一个平台,用户可以利用经过性能优化的软件更快地构建和部署解决方案,无论是在首选的云、本地还是边缘系统上。

    介绍页面:
    https://www.nvidia.cn/gpu-cloud/
    NGC 目录:
    https://catalog.ngc.nvidia.com/

    以下是 NVIDIA NGC 的主要信息:

    • 企业服务和支持:NGC 提供管理服务和支持,帮助用户快速将解决方案推向市场。

    • NGC 目录:这是一个 GPU 优化的软件中心,提供企业级容器、预训练的 AI 模型和行业特定的 SDK,以加速端到端工作流。

    • AI Playground:提供易于使用的界面,允许用户在浏览器中直接体验生成式 AI 模型,无需任何设置。

    • 优化的性能:NGC 目录中的 AI 框架和 SDK 容器定期进行优化和更新,以缩短解决方案的推出时间。

    • 预训练模型:提供先进的预训练模型,帮助用户快速构建自定义模型。

    • Jupyter Notebook:提供数百个 Jupyter Notebook,帮助用户更快地理解、自定义、测试和构建模型。

    • 安全软件:每月对容器进行安全扫描并提供详细报告,确保容器符合公司的安全策略。

    • 多用例平台:NGC 集合为不同用例和行业提供即用型容器、预训练模型、SDK 和 Helm 图表,加快应用开发和部署流程。

    • 灵活部署:NGC 目录的软件可以在裸金属服务器、Kubernetes 或虚拟化环境中运行,以最大限度地利用 GPU。

    其中 NGC 目录是 NVIDIA GPU Cloud 的核心组件,为数据科学家、开发者和研究人员提供了一系列资源,包括容器、预训练模型、特定领域的 SDK、基于用例的集合,以及适用于更快实施 AI 的 Helm 图表。通过这些资源,用户可以更快地发现、构建和部署 AI 解决方案。

    AI Enterprise

    NVIDIA AI 企业套件 (AI Enterprise) 是一套用于部署和管理企业级人工智能应用的软件堆栈。它旨在帮助企业克服 AI 部署的挑战,并更快地从 AI 中获得价值。

    介绍页面:
    https://www.nvidia.cn/data-center/products/ai-enterprise/

    NVIDIA AI Enterprise 套件的主要功能包括:

    • AI 基础设施: 提供统一的 AI 基础设施,支持各种 AI 框架和工作负载。

    • AI 安全: 提供安全功能,保护敏感数据和模型。

    • AI 管理: 提供易于使用的管理工具,简化 AI 应用的部署和管理。

    • AI 优化: 提供性能优化功能,提高 AI 应用的性能。

    NVIDIA AI Enterprise 套件适用于各种应用场景,包括:

    • 智能制造: 提高生产效率,降低运营成本。

    • 智能医疗: 辅助诊断,提高治疗效果。

    • 智能金融: 识别欺诈,优化风险管理。

    • 智能零售: 个性化推荐,提升客户体验。

    NVIDIA AI Enterprise 是企业部署和管理 AI 应用的强大工具。它可以帮助企业克服 AI 部署的挑战,并更快地从 AI 中获得价值。

    AI Workflow

    NVIDIA AI 工作流 是一套云原生的封装参考示例,旨在展示如何利用 NVIDIA AI 框架构建 AI 解决方案。这些工作流结合了预训练模型、训练和推理流程、Jupyter Notebook 教程以及 Helm 图表,以加速 AI 解决方案的开发和部署过程。

    介绍页面:
    https://www.nvidia.cn/ai-data-science/ai-workflows/

    以下是 NVIDIA AI 工作流的主要优势和组成部分:

    • 加速 AI 成果实现:AI 工作流提供了快速上手构建 AI 解决方案的参考,缩短了从概念到实际部署的时间。

    • 简化开发和部署:优秀的 AI 软件简化了解决方案的开发和部署流程,使得整个 AI 工作流程更加高效。

    • 性能优化:框架和容器针对 NVIDIA GPU 进行了性能调优和测试,确保了解决方案的准确性和性能。

    • 多样化的 AI 场景:NVIDIA AI 工作流覆盖了多种 AI 应用场景,包括生成式人 AI 聊天机器人、智能虚拟助理、音频转录、鱼叉式网络钓鱼检测、网络安全内部威胁检测、路线优化、多摄像头跟踪、零售店分析和零售业损失预防等。

    • NVIDIA LaunchPad:开发者可以通过 NVIDIA LaunchPad 参与免费实验,亲身体验 NVIDIA AI 工作流,快速启动他们的 AI 项目。

    NVIDIA AI 工作流为开发者提供了一套全面的资源和工具,以简化和加速 AI 解决方案的开发,帮助他们更快地实现 AI 技术的应用和创新。

    AI Workbench

    NVIDIA AI Workbench 是为 AI 和数据科学专业人士设计的工具平台,旨在最大化生产力并简化工作流程。这个平台提供了一系列的工具和功能,帮助用户高效地进行数据处理、模型训练、分析和部署。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/data-science/workbench/

    以下是 NVIDIA AI Workbench 的主要特点:

    • 集成开发环境:提供一个统一的界面,集成了数据处理、模型训练和分析工具,方便用户在一个平台上完成所有 AI 开发任务。

    • 高效数据处理:支持快速数据导入、清洗、转换和预处理,以便用户能够高效地准备用于机器学习和深度学习的数据集。

    • 模型训练和调优:提供模型训练工具,支持多种 AI 框架和库,如 TensorFlow、PyTorch 等,以及模型调优和验证功能。

    • 协作和共享:支持项目和模型的版本控制,便于团队协作和知识共享。

    • 部署和管理:简化模型的部署流程,支持将训练好的模型部署到不同的平台和设备上。

    • 性能监控:提供性能监控工具,帮助用户了解模型在不同硬件上的运行效率和资源消耗。

    NVIDIA AI Workbench 通过提供这些功能,旨在为 AI 和数据科学工作者提供一个高效、便捷的工作环境,加速从数据准备到模型部署的整个 AI 开发周期。

    NVIDIA MLOps

    NVIDIA MLOps 是一套旨在加速 AI 和机器学习运行速度的工具和最佳实践集合。MLOps 是机器学习运营(Machine Learning Operations)的缩写,它是一组帮助企业成功运行 AI 的最佳实践。

    介绍页面:
    https://www.nvidia.cn/data-center/solutions/mlops/

    以下是 NVIDIA MLOps 的特色:

    • 加速 AI 部署:NVIDIA 提供的 DGX-Ready 软件计划配备企业级 MLOps 解决方案,这些解决方案经过测试和认证,适用于 DGX 系统,能够帮助企业加速 AI 工作流程并改善 AI 基础架构的部署、可访问性和利用率。

    • 可扩展性:NVIDIA 的推理平台支持在云、数据中心、网络边缘以及自主机器等平台上提供关键的性能、效率和响应速度,为新一代 AI 产品和服务提供支持。

    • NVIDIA Triton 推理服务器:这是一款开源软件,允许团队在任何基于 GPU 或 CPU 的基础架构上通过任何框架(如 TensorFlow、PyTorch、XgBoost、Python 等)部署经过训练的 AI 模型。Triton 支持更大的 GPU 和 CPU 利用率,提供低延迟的高吞吐量,并与 Kubernetes 集成以实现编排、指标和自动扩展。

    • AI 基础架构联盟:NVIDIA 加入了 AI 基础架构联盟,旨在帮助企业部署完整的 AI 和机器学习平台。

    • MLOps 软件合作伙伴:NVIDIA 与多家软件和服务提供商合作,提供超过 100 种 MLOps 软件和云服务,帮助企业构建和扩展 MLOps 工作流程。

    • 企业级支持:NVIDIA 的 MLOps 解决方案提供了从开发到部署的全面支持,包括数据源管理、AI 模型仓库、自动化 ML 管道以及基于 Kubernetes 的软件容器。

    • 自动化和协作:MLOps 解决方案支持数据科学家和 ML 工程师之间的协作,提供自动化的流程,以便模型可以轻松地被解释和复现。

    NVIDIA MLOps 解决方案的目标是帮助企业通过自动化和优化 AI 模型的开发和部署流程,实现 AI 的持续交付和高效运行,从而推动数据科学和 AI 的发展。

    NVIDIA Triton

    NVIDIA Triton AI 推理服务器 是一款开源的高性能推理服务软件,旨在帮助开发者轻松地在各种平台上部署和管理深度学习模型。

    介绍页面:
    https://www.nvidia.cn/ai-data-science/products/triton-inference-server/

    它提供了以下主要功能:

    高性能推理

    • 支持多种硬件平台,包括 CPU、GPU 和 NVIDIA Jetson 边缘设备。

    • 支持多种模型格式,包括 ONNX、TensorRT 和 TensorFlow SavedModel。

    • 支持动态批处理,可提高推理性能。

    易于使用

    • 提供易于使用的 API 和工具,方便开发者快速上手。

    • 支持多种编程语言,包括 C++、Python 和 Java。

    • 提供丰富的示例和文档。

    可扩展性

    • 支持分布式部署,可满足大规模推理需求。

    • 支持自定义扩展,可满足不同场景需求。

    • 与 Kubernetes 等容器编排平台兼容。

    NVIDIA Triton AI 推理服务器是功能强大、易于使用且可扩展的推理服务软件,可帮助开发者轻松地在各种平台上部署和管理深度学习模型,适用于各种 AI 应用场景。

    NVIDIA cuOpt

    NVIDIA cuOpt 是一款高性能的加速优化引擎,专门设计用于解决复杂的物流和路线优化问题。它利用 GPU 的并行处理能力,提供了快速且精确的解决方案,特别适用于具有多重约束的路由问题。

    介绍页面:
    https://developer.nvidia.cn/cuopt-logistics-optimization

    以下是 NVIDIA cuOpt 的主要特点和功能:

    • 加速优化:cuOpt 是一个破世界纪录的加速优化引擎,能够提供近乎实时的路线优化解决方案。

    • 复杂问题解决:cuOpt 能够帮助团队处理具有多重约束的复杂路由问题,包括动态重新路由、作业调度和机器人模拟。

    • 快速响应:cuOpt 提供亚秒级的求解器响应时间,能够在极短的时间内处理和调整路由。

    • Python 接口:cuOpt 提供了一个基于 NVIDIA CUDA 库和 RAPIDS 原语的 Python 接口,方便开发者使用。

    • 支持非对称模式:对非对称模式的距离和时间矩阵的本机支持,可以与流行的地图引擎顺利集成。

    • 云平台支持:cuOpt 支持所有主要的公共云平台,便于在各种环境中部署和使用。

    • 动态重路由:能够针对各种突发情况(如驾驶员故障、车辆无法运行、交通/天气中断、新订单添加等)进行快速的模型重新运行和调整。

    • 世界纪录准确度:在 Gehring & Homberger 基准测试中,cuOpt 达到了 2.98% 的误差差距,创下了准确度世界纪录。

    • 无缝扩展:cuOpt 能够横向扩展至 1000 个节点,以处理计算量大的用例,性能优于现有解决方案。

    • 实时分析:cuOpt 能够在 10 秒内处理 1000 个包裹的配送,相比传统的 20 分钟,速度提升了 120 倍。

    • 省时减成本:通过动态重新规划路线,cuOpt 能够帮助企业减少行程时间和燃料成本,提高效率。

    NVIDIA cuOpt 通过其 GPU 加速的物流求解器,为物流和路线优化问题提供了一个强大的工具,适用于各种规模和复杂度的优化挑战。

    NVIDIA Merlin

    NVIDIA Merlin 是一个开源框架,专为大规模构建高性能推荐系统而设计。它为数据科学家、机器学习工程师和研究人员提供了一套工具和库,以简化从数据处理到模型部署的整个推荐器构建流程。

    介绍页面:
    https://developer.nvidia.cn/merlin
    GitHub项目:
    https://github.com/NVIDIA-Merlin/Merlin

    以下是 NVIDIA Merlin 框架的一些关键特性:

    • 端到端解决方案:Merlin 提供了从数据摄入、预处理、特征工程、训练、推理到部署到生产的全套工具,支持构建和部署生产质量的推荐系统。

    • 高性能和可扩展性:Merlin 组件和功能经过优化,能够处理数百 TB 数据的检索、过滤、评分和排序,同时提供易于使用的 API。

    • Merlin Models:这是一个库,提供了一系列标准推荐系统模型,并在 CPU 和 GPU 上提供了从机器学习到深度学习模型的高质量实现。

    • Merlin HugeCTR:这是一个为 GPU 优化的深度神经网络框架,用于推荐系统,支持分布式模型并行训练和推理,以实现最大的性能和可扩展性。

    • Merlin Systems:提供了简化新模型和工作流部署到生产的库,使 ML 工程师和运营人员能够快速部署端到端推荐系统。

    • 与 NVIDIA AI 平台的集成:Merlin 是 NVIDIA AI 平台的一部分,与 RAPIDS、cuDF 和 NVIDIA Triton 推理服务器等软件库和工具集成,以加速数据科学和分析流程。

    • 企业级支持:通过 NVIDIA AI 企业版,Merlin 用户可以获得 NVIDIA 专家的技术支持、安全和维护版本的优先通知、长期支持以及定制的支持升级选项。

    NVIDIA Merlin 框架旨在帮助开发者构建更准确、点击率更高的推荐系统,并快速部署到生产环境。它的灵活性和性能使其成为构建现代推荐系统的理想选择。

    NVIDIA Maxine

    NVIDIA Maxine 是 NVIDIA 提供的一系列 AI 和深度学习视频分析软件和技术。这些软件和技术旨在提高视频会议和远程协作的质量,通过实时视频和音频处理功能,为用户提供更好的通信体验。

    介绍页面:
    https://developer.nvidia.com/MAXINE

    以下是 NVIDIA MAXINE 的主要特点和功能:

    • AI 视频增强:MAXINE 使用 AI 算法对视频质量进行增强,包括降噪、锐化、色彩校正等,以提供更清晰的视觉体验。

    • 实时音频处理:提供实时音频处理功能,如回声消除、背景噪音抑制和音量自动调节,以改善音频质量。

    • 虚拟背景和人像分割:MAXINE 支持虚拟背景更换和人像分割,使用户能够在任何环境下进行视频通话,同时保持专业形象。

    • 面部识别和表情追踪:通过面部识别和表情追踪技术,MAXINE 能够实时捕捉和分析参与者的表情和动作。

    • 低带宽优化:MAXINE 能够在低带宽条件下提供高质量的视频通话体验,通过智能编码技术减少数据传输量,同时保持视频质量。

    • 多平台支持:MAXINE 支持多种平台和设备,包括桌面和移动设备,使用户能够在不同的环境中进行视频通信。

    • 集成和开发:NVIDIA MAXINE 提供了易于集成的 SDK 和 API,使开发者能够在自己的应用程序中实现 MAXINE 的功能。

    NVIDIA MAXINE 的目标是通过先进的 AI 技术,提升视频通信的质量和效率,特别是在远程工作和在线协作日益普及的背景下,为用户提供更好的虚拟会议体验。

    NVIDIA Riva

    NVIDIA Riva 是一款由 NVIDIA 提供的 GPU 加速的多语种语音和翻译 AI 软件开发套件,它允许开发者构建和部署完全可定制的实时对话式 AI 应用。这些应用包括自动语音识别(ASR)、文本转语音(TTS)和神经网络机器翻译(NMT)。Riva 旨在支持多种语言,并提供高精度和富有表现力的语音,适用于云端、数据中心、边缘或嵌入式设备上的部署。

    介绍页面:
    https://www.nvidia.cn/ai-data-science/products/riva/

    以下是 NVIDIA Riva 的主要功能特点:

    • 多语种支持:Riva 提供对多种语言的高精度转录和翻译支持,包括英语、西班牙语、普通话、印地语等多种语言。

    • 完全可定制:Riva 允许开发者针对不同的语言、口音、领域、词汇和上下文定制 ASR 流程,以及针对所需语音和语调定制 TTS 流程。

    • 灵活部署:Riva 支持在多种环境中部署,包括数据中心、本地、云、边缘或嵌入式设备,能够处理数十万个输入流。

    • 实时性能:Riva 提供实时的语音 AI 功能,包括实时转录和语音合成,适用于需要快速响应的应用场景。Riva 的整个技术栈经过持续优化,相比上一代产品,性能提升了 12 倍,确保了高效的语音 AI 处理能力。

    • GPU 加速:利用 NVIDIA 的 GPU 技术,Riva 提供了高效的计算能力,加速语音 AI 模型的训练和推理过程。

    • NVIDIA AI Enterprise 集成:作为 NVIDIA AI Enterprise 软件平台的一部分,Riva 简化了生产级 AI 的开发和部署流程。

    • 预训练模型:Riva 提供了开箱即用的预训练模型,这些模型在 NVIDIA 超级计算机上经过数千小时音频的预训练。

    • 开发资源:NVIDIA 提供了丰富的开发资源,包括教程、Jupyter Notebook 和文档,帮助开发者快速构建和部署语音和翻译 AI 工作流。

    NVIDIA Riva 的目标是为企业和开发者提供一种强大、灵活且易于使用的工具,以构建和部署高质量的多语种语音 AI 应用,推动实时对话式 AI 技术的普及和应用。

    NVIDIA Metropolis

    NVIDIA Metropolis 是一个应用框架、开发者工具集和合作伙伴生态系统,旨在将视觉数据和人工智能 (AI) 结合起来,以提高广泛行业的运营效率和安全性。Metropolis 平台专注于智能视频分析,利用来自数万亿传感器的大量数据,为零售、库存管理、智能城市建设、工厂光学检查、医疗保健设施等领域提供洞察力。

    介绍页面:
    https://www.nvidia.cn/autonomous-machines/intelligent-video-analytics-platform/

    以下是 NVIDIA Metropolis 框架的主要特点和应用:

    • 跨行业应用:Metropolis 平台为智能城市、零售和物流、工业制造以及医疗保健等多个领域提供支持,通过 AI 和 IoT 技术改进各种应用。

      • 智能城市:Metropolis 支持智能交通系统、访问控制、公共交通和智能建筑等应用,帮助维护和改善城市基础设施。

      • 零售和物流:Metropolis 通过无摩擦结账、防盗、货物和卡车路线规划以及库存管理等应用,提高客户满意度和业务效率。

      • 工业和制造:Metropolis 通过自动化光学检查、预防性维护、远程资产监控和安全合规等应用,提高工业检查的效率和生产力。

      • 医疗保健:Metropolis 通过体温筛查、个人防护装备检测、患者监护和手术分析等应用,改善病人护理和医疗设施的运营效率。

    • 开发工具:Metropolis 提供了一系列开发者工具,包括 NVIDIA DeepStream、迁移学习工具包和 CUDA-X™ 加速库,以提高 AI 视频分析的性能和可扩展性。

      • 预训练模型:Metropolis 提供了针对大型数据集训练的定制模型,以减少从头开始构建模型的需求并提高准确性。

      • TAO 工具包:Metropolis 的 TAO (Transfer and Optimize) 工具包加速深度学习训练任务,帮助开发者更快地进入市场。

      • DeepStream SDK:这是一个强大的、AI 驱动的实时视频分析 SDK,提供显著的性能和吞吐量改进。

    • Jetson 边缘 AI:Metropolis 为 NVIDIA Jetson 边缘 AI 平台提供了专门的 API 和微服务,以加速视觉 AI 应用的开发和部署。

    NVIDIA Metropolis 框架通过其先进的技术和广泛的合作伙伴网络,为创建、部署和扩展从边缘到云端的 AI 和 IoT 应用提供了强大的支持。

    NVIDIA vGPU

    NVIDIA 虚拟 GPU(vGPU) 方案是一种为数据中心虚拟化环境设计的软件,允许多个虚拟机共享物理 GPU 资源,从而提供高效的 GPU 加速能力。

    介绍页面:
    https://www.nvidia.cn/data-center/virtual-solutions/

    以下是 NVIDIA vGPU 方案的主要特点和优势:

    • 管理和监控:vGPU 支持常见的数据中心管理工具,如实时迁移,以实现高效的资源管理和监控。

    • 资源利用率:通过部分或多 GPU VM 实例,vGPU 能够灵活调配 GPU 资源,提高数据中心的资源利用率。

    • 业务连续性:vGPU 响应不断变化的业务需求,支持远程团队的工作,确保业务连续性。

    • 多种工作负载:NVIDIA 提供了不同版本的 vGPU 软件,以满足不同工作负载的需求,包括虚拟计算服务器(vCS)、虚拟工作站(vWS)、虚拟 PC(vPC)和虚拟应用程序(vApp)。

    • NVIDIA AI Enterprise:专为虚拟化数据中心设计,提供端到端的云原生 AI 和数据分析软件套件,支持在基于 VMware vSphere 和 Tanzu 解决方案的虚拟化环境中运行。

    • 行业解决方案:NVIDIA vGPU 被广泛应用于建筑、工程、医疗、媒体、娱乐和公共事业等行业,帮助解决各种复杂问题。

    • 简化部署:NVIDIA vGPU 软件包括工具,帮助用户主动管理和监控虚拟化环境,简化 vGPU 部署。

    NVIDIA vGPU 解决方案的目标是通过虚拟化技术,使 GPU 加速能力更加灵活和高效,支持各种规模的企业和组织在云计算环境中实现高性能计算和 AI 工作负载。

    RAPIDS

    RAPIDS 是一个开源的 GPU 加速数据科学库,旨在利用 NVIDIA GPU 的高速计算能力来加速整个数据科学工作流程。它提供了一系列与流行的 PyData 库相匹配的 API,使得数据科学家和分析师能够在熟悉的环境下利用 GPU 的并行处理能力,从而显著提高数据处理、机器学习和图形分析的速度。

    开源网站:
    https://rapids.ai/

    以下是 RAPIDS 的主要信息:

    • 加速数据科学工作流程:RAPIDS 通过 GPU 加速数据加载、数据处理和机器学习任务,将端到端的数据科学流程速度提升多达 50 倍。

    • 无缝集成:RAPIDS 可以在 Apache Spark 等平台上进行 GPU 加速,无需更改现有代码,使得用户能够快速实现价值。

    • 开源生态系统:RAPIDS 是完全开源的,并且在 GitHub 上提供。它基于 NVIDIA CUDA 和 Apache Arrow 等先进技术构建,通过熟悉的接口解锁 GPU 的速度。

    • 跨平台兼容性:RAPIDS 支持在多种操作系统上安装和运行,包括 Ubuntu、CentOS、Rocky Linux 和 Windows 11。

    • 多种库和工具:RAPIDS 提供了多个库,如 cuDF(用于加速 Pandas 工作流程)、cuML(用于机器学习建模)、cuGraph(用于图形分析)等,以及与 Dask、MLFlow 和 Kubernetes 的集成。

    • 企业级支持:通过 NVIDIA AI Enterprise,RAPIDS 提供企业级支持,包括优化的性能、认证的硬件配置文件和直接的 IT 支持。

    • 性能提升:RAPIDS 能够在保持与 CPU 相同的精度的同时,显著提高数据处理和机器学习任务的性能,尤其是在大型数据集上。

    • 降低成本:使用 RAPIDS,企业可以减少所需的硬件资源,从而降低基础设施成本,无论是在本地数据中心还是云环境中。

    • 易用性:RAPIDS 提供了易于使用的安装方法,包括 Conda、pip 和 Docker,以及在 Windows 上的 WSL2 安装指南。

    NVIDIA RAPIDS 方案为数据科学家和分析师提供了一个强大的工具集,通过 GPU 加速来提高数据科学任务的效率和性能,同时保持了开源和企业级的易用性和支持。

    生成式AI

    NVIDIA NeMo

    NVIDIA NeMo 是一款端到端的云原生框架,专门设计用于构建、训练和部署大型语言模型(LLM)。它提供了一套全面的工具和功能,使用户能够在任何地点灵活地开发生成式 AI 模型。NeMo 框架包括训练和推理框架、护栏工具包、数据管理工具和预训练模型,旨在为企业快速采用生成式 AI 提供简单且经济的解决方案。

    介绍页面:
    https://www.nvidia.cn/ai-data-science/generative-ai/nemo-framework/

    以下是 NVIDIA NeMo 框架的主要特点:

    • 端到端解决方案:NeMo 提供了覆盖整个 LLM 工作流程的全面解决方案,包括数据处理、模型训练和推理等。

    • 企业级应用:NeMo 旨在帮助企业快速训练、定制和规模化部署 LLM,从而缩短解决方案的上市时间并提高投资回报率。

    • 先进的训练方法:提供了分布式训练工具,提升了训练的规模、速度和效率。

    • LLM 定制工具:通过检索器整合特定领域的实时数据,帮助企业定制回复内容,并使用专业技能满足特定需求。

    • NVIDIA Triton 优化:与 NVIDIA Triton 推理服务器集成,优化 AI 模型的部署和推理。

    • 易于使用的生成式 AI 方法和工具:提供了预包装脚本、参考示例和文档,简化了生成式 AI 的使用和开发。

    • 预训练 Foundation 模型:使用 NeMo 和 NVIDIA AI Foundation 模型构建自定义企业模型,这些模型由社区和 NVIDIA 构建并优化。

    • 检索增强型生成技术:构建强大的生成式 AI 应用,从企业数据来源获取信息和见解。

    NVIDIA NeMo 框架的目标是帮助企业和开发者更快速地构建、定制和部署生成式 AI 模型,推动 AI 技术的创新和应用。

    NVIDIA BioNeMo

    NVIDIA BioNeMo 是一个专为药物研发领域设计的生成式 AI 平台,它旨在简化和加速基于用户数据的模型训练以及在药物研发应用中的模型部署。BioNeMo 提供了一套快速开发和部署 AI 模型的工具和服务,以加速 AI 驱动的药物研发过程。

    介绍页面:
    https://www.nvidia.cn/clara/bionemo/

    以下是 NVIDIA BioNeMo 框架的主要特点:

    • 先进生物分子模型:BioNeMo 提供定制和部署 AI 模型的能力,用于进行 3D 蛋白质结构预测、从头生成蛋白质和小分子、属性预测以及分子对接等任务。

    • 一站式解决方案:通过云 API 或易于使用的 Web 接口,用户可以访问预训练模型,进行交互式推理、可视化和实验。

    • 无缝且可扩展的 AI 服务:在可扩展的受管理基础架构上,使用图形用户界面 (GUI) 和 API 端点实验和构建企业级生成式 AI 工作流程。

    • 训练服务:BioNeMo 训练是一项优化的端到端训练服务,包括顶级模型、数据加载程序、训练工作流程、循环验证和企业支持。

    • 云 API:BioNeMo 云 API 允许用户定制和部署生成式 AI,用于药物研发应用,无需管理计算基础设施或维护复杂的软件堆栈。

    • AI 超级计算机:在 NVIDIA DGX Cloud 上训练和优化模型,该云由 NVIDIA base Command Platform 提供支持,是一个全面的 AI 工作流程管理 SaaS。

    NVIDIA BioNeMo 框架的目标是为药物研发领域的科学家和研究人员提供一个强大的工具,以利用 AI 技术加速药物的发现和开发过程。

    NVIDIA Picasso

    NVIDIA Picasso 是一款面向视觉内容创作的生成式 AI 服务平台,它提供先进的模型架构,使企业开发者、软件创作者和服务提供商能够轻松构建、自定义和部署基础模型。Picasso 专注于图像、视频、3D 内容、360 HDRi 和 PBR 材料的生成和修改,简化了在 NVIDIA Omniverse Cloud 上的基础模型训练、优化和推理工作。

    介绍页面:
    https://www.nvidia.cn/gpu-cloud/picasso/

    以下是 NVIDIA Picasso 平台的主要特点:

    • 视觉内容定制:Picasso 允许用户针对特定的视觉设计需求,训练、调优、优化和推理基础模型。

    • 工作流程:提供构建基础模型、自定义预训练基础模型和加速任何基础模型的工作流程。

    • 模型架构:Picasso 提供了多种先进的生成式 AI 基础模型,包括用于生成和修改图像、视频、3D 内容等的模型。

    • 企业级服务:Picasso 提供了企业级的数据许可和模型预训练服务,确保数据的真实性和可靠性。

    • 与 Omniverse Cloud 集成:Picasso 与 NVIDIA Omniverse Cloud 紧密集成,利用其强大的推理优化功能,提供交互式体验。

    • 合作伙伴和客户案例:Picasso 已经与多个行业领导者合作,如 Getty Images、Adobe 和 Shutterstock,共同开发和部署生成式 AI 模型。

    • 资源和支持:提供丰富的资源,包括文档、教程、社区支持和客户案例研究,帮助用户更有效地利用 Picasso 框架。

    NVIDIA Picasso 框架的目标是为视觉内容创作领域提供一个强大的工具,以利用 AI 技术加速创意过程,创造独特的视觉体验。

    NVIDIA ACE

    NVIDIA ACE(Avatar Cloud Engine) 是NVIDIA推出的一套云端服务,旨在帮助开发者创建逼真的人工智能虚拟形象。

    介绍页面:
    https://developer.nvidia.com/ace

    ACE 提供了一系列基于云端的微服务,利用生成式人工智能技术,使开发者能够轻松构建、部署和管理各种虚拟形象应用,包括:聊天机器人、多模态虚拟助手、互动式虚拟形象等。

    ACE 的主要功能包括:

    • 逼真的形象创建: 利用 AI 模型生成逼真的人脸、表情、动作和声音。

    • 强大的对话管理: 支持可组合的对话管理,使虚拟形象能够自然流畅地进行对话。

    • 丰富的集成选项: 可与 NVIDIA Riva 语音 AI 技能、自然语言处理 (NLP) 服务、域实现和用户界面进行集成。

    • 灵活的部署选项: 支持云端或本地部署。

    ACE 可广泛应用于以下场景:

    • 客服: 利用虚拟形象提供 7x24 小时全天候客服服务。

    • 教育: 创建虚拟教师或助教,提供个性化的学习体验。

    • 娱乐: 创建虚拟主持人或游戏角色,提升用户体验。

    • 虚拟社交: 打造逼真的虚拟社交平台,让人们进行虚拟互动。

    NVIDIA ACE 是构建逼真人工智能虚拟形象的强大工具,可帮助开发者快速创建、部署和管理各种虚拟形象应用,为各行各业带来全新的数字化体验。

    NVIDIA Tokkio

    NVIDIA Tokkio 利用 NVIDIA ACE 使开发者能够更轻松地构建、定制和部署逼真的虚拟助手和数字人。

    介绍页面:
    https://developer.nvidia.cn/omniverse/ace/tokkio-showcase

    以下是 Tokkio 的主要特点:

    • 交互式虚拟形象:Violet 是一个 AI 赋能的客服助理,使用 NVIDIA Tokkio 构建,能够观看、感知、智能交谈并提供建议,以增强客户服务体验。

    • 云托管:Tokkio 虚拟形象托管在云端,使得交互式体验可以无处不在,随时可用。

    • AI 技术集成:Tokkio 结合了 NVIDIA 的多项 AI 技术,包括 Omniverse Audio2Face 用于面部动画,以及 NeMo Megatron-Turing 530B 语言模型和 NVIDIA Riva 语音 AI 技术,用于理解和生成有意义的对话。

    • 实时客户服务:通过 3D 虚拟形象,Tokkio 提供实时的客户服务体验,用户可以通过自然对话与虚拟形象互动。

    • 多种应用场景:Tokkio 展示了多种应用场景,包括 QSR 客户服务、自然、专业的问答助手,以及 DRIVE Concierge 个性化服务。

    NVIDIA Tokkio 展示的目标是通过结合先进的 AI 和图形技术,创造更加丰富和互动的虚拟形象体验,从而在客户服务和其他领域提供更加自然和个性化的交互。

    平台化方案

    DGX

    NVIDIA DGX 是一个为企业提供全面 AI 解决方案的系统。这个平台结合了 NVIDIA 的硬件、软件和专业知识,提供了一个从云端到本地数据中心均可部署的统一 AI 开发环境,旨在支持企业在云中或本地数据中心进行 AI 开发和训练。

    介绍页面:
    https://www.nvidia.cn/data-center/dgx-platform/

    以下是 NVIDIA DGX 平台的主要特点:

    • 集成的 AI 开发平台:DGX 平台整合了 NVIDIA 的软件和硬件技术,提供了一个无缝的 AI 开发环境,支持云端和本地部署。

    • NVIDIA AI 专业技术和服务:平台用户可以利用 NVIDIA 的专业技术和服务,包括 AI 专家的支持,以优化 AI 工作负载并加速成果的实现。

    • 性能和成本效益:DGX 平台提供高性能的 AI 计算能力,同时保持能效和成本的可预测性,适合各种规模的企业。

    • 多样化的应用案例:从能源领域的创新到工厂物流的优化,DGX 平台支持各行各业的 AI 应用,帮助企业提升效率和生产力。

    • 灵活的部署选项:通过 NVIDIA DGX 云,用户可以快速启用 DGX 平台,同时平台还支持本地和混合云部署。

    • 强大的 AI 软件套件:DGX 平台包含 NVIDIA AI Enterprise 软件套件,提供丰富的数据科学工具、预训练模型和优化框架,以及企业级支持。

    • 硬件产品系列:包括 DGX A100、DGX H100、DGX GH200 等 AI 超级计算机,针对不同规模的 AI 工作负载进行优化。

    • 企业服务和支持:NVIDIA 提供全面的企业服务,包括支持、培训和专业服务,确保用户能够充分利用 DGX 平台的价值。

    NVIDIA DGX 平台的目标是为企业提供一个强大、灵活且易于管理的 AI 基础设施,以推动 AI 技术的创新和应用,帮助他们在 AI 领域实现创新和转型。

    EGX

    NVIDIA EGX 平台是一个专为 AI 计算设计的高性能、云原生的边缘计算解决方案。它结合了易于部署的软件堆栈和管理服务,以及一系列经过优化的硬件,使得加速的 AI 计算能力能够从数据中心扩展到网络边缘。

    介绍页面:
    https://www.nvidia.cn/data-center/products/egx/

    以下是 NVIDIA EGX 平台的关键特点:

    • 企业级 AI 软件:EGX 平台包含的优化软件支持从数据中心到边缘的 AI 加速运算。通过 NVIDIA AI Enterprise,企业可以在 VMware vSphere 上执行经过 NVIDIA 优化、认证和支持的 AI 与数据分析软件套件。

    • EGX 堆栈:包括 NVIDIA GPU Operator 和 NVIDIA Network Operator,与 Red Hat OpenShift 及其他混合云平台兼容,简化 Kubernetes 集群的部署和自动化管理。

    • NVIDIA Fleet Command:用于部署和管理边缘端的 AI 应用程序,简化了无线更新系统软件和监控位置运作状况等管理任务。

    • 加速企业应用程序:EGX 平台使企业能够同时运用 AI 和传统应用程序,支持各种加速应用程序,包括 AI、数据分析、高性能计算、可视化等。

    • 边缘计算:EGX AI 平台为行业领先的 AI 应用程序和框架提供统一基础,支持实时数据处理和洞察,加速决策制定。

    • 合作伙伴生态系统:NVIDIA 与服务器制造商、混合云平台合作伙伴以及 Jetson Micro 边缘服务器合作伙伴共同提供 EGX 产品和服务。

    • 数据中心与边缘 AI:EGX 平台基于 NVIDIA-Certified Systems,提供高性能 GPU 和高速 NVIDIA Mellanox 网络的企业级服务器,帮助客户简化管理和降低成本。

    • 数据驱动操作的加速:利用 GPU 加速消除数据科学流程中的限制,提高性能和洞察速度。

    • 可视化应用程序的访问:结合高端 NVIDIA GPU、vGPU 软件和 Omniverse 协作平台,支持专业可视化和远程协作。

    • 实时协作:EGX 平台搭载 Omniverse,支持跨地区和系统工作的团队实现经济高效、可扩展的实时远程协作。

    NVIDIA EGX 平台的目标是为企业提供一个强大、灵活且安全的边缘计算解决方案,以支持 AI 和数据密集型应用程序的发展和部署。

    HGX

    NVIDIA HGX AI 超级计算平台是一个端到端的加速计算解决方案,专为满足 AI 和高性能计算 (HPC) 的需求而设计。它整合了 NVIDIA 的 GPU 技术、NVLink 互连技术、NVIDIA 网络技术,以及全面优化的 AI 和 HPC 软件堆栈,以提供最高的应用性能和加快获得见解的速度。

    介绍页面:
    https://www.nvidia.cn/data-center/hgx/

    以下是 NVIDIA HGX AI 超级计算平台的主要特点:

    • 专为 AI 和 HPC 打造:HGX 平台结合了多个高速 GPU 和完全加速的软件堆栈,以支持复杂的 AI 模型训练和大规模模拟。

    • 端到端加速:NVIDIA HGX H200 结合了 H200 Tensor Core GPU 与高速互连技术,支持多达 8 个 GPU,提供高达 1.1 TB 的 GPU 内存和 38 TB/s 的聚合内存带宽,以及 32 petaFLOP 的性能。

    • 先进的网络选项:HGX H200 和 HGX H100 包含支持 400 Gb/s 速度的网络选项,使用 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太网,实现卓越的 AI 性能。

    • DPU 技术:集成 NVIDIA BlueField-3 数据处理器 (DPU),支持云网络、可组合存储、零信任安全性和 GPU 计算弹性。

    • 深度学习和推理性能:HGX H200 和 H100 采用 Transformer 引擎(FP8 精度),大幅提升大语言模型的训练速度,以及在 Megatron 聊天机器人模型上实现高达 30 倍的推理速度提升。

    • 高性能计算 (HPC) 性能:HGX 平台的高内存带宽对于内存密集型 HPC 应用至关重要,能够显著缩短获得结果所需的时间。

    • NVIDIA 网络加速:HGX 与 NVIDIA Quantum InfiniBand 网络结合使用时,提供卓越的性能和效率,确保计算资源得到充分利用。

    • HGX 规格:HGX 平台采用单一基板,配备 4 个或 8 个 H200 或 H100 GPU,或者是配备 4 个或 8 个 A100 GPU,为 AI 超级计算性能提供强大的硬件和软件支持。

    NVIDIA HGX AI 超级计算机平台为需要处理大规模数据集和复杂计算任务的企业和研究机构提供了一个高性能、高效率的计算解决方案。

    IGX

    NVIDIA IGX 平台是一个专为工业和医疗环境设计的工业级边缘 AI 平台,它提供高性能、高级功能安全性和可靠性,支持企业组织以安全和可靠的方式部署 AI 技术,促进人机协作。

    介绍页面:
    https://www.nvidia.cn/edge-computing/products/igx/

    以下是 NVIDIA IGX 平台的关键特性:

    • 高性能系统:IGX 平台为低延迟的实时应用提供高效的高性能系统。

    • 功能安全性:内置安全扩展程序,确保在自主环境中提供主动安全性。

    • 端到端安全:提供从嵌入式设备安全到远程调配和管理的端到端可靠安全性。

    • 长期支持:硬件和软件的长期支持确保产品的长期使用寿命。

    • 适用于工业级系统:NVIDIA IGX Orin 旨在在边缘所需的尺寸和功率范围内提供超快性能,具有每秒 275TOPS 的 AI 性能。

    • 企业级软件支持:NVIDIA 提供长达 10 年的 IGX 软件栈支持,包括工业和医疗认证支持文档。

    • 远程管理和更新:包括用于远程系统管理和软件更新的基板管理控制器 (BMC) 和软件栈。

    • 安全监控:提供外部信任根的安全启动控制器和支持实时操作系统 (RTOS) 的专用安全监视器。

    NVIDIA IGX 平台的目标是为工业和医疗领域提供一个强大、安全、可靠的边缘计算解决方案,以推动 AI 技术的创新和应用。

    OVX

    NVIDIA OVX 系统是 NVIDIA 推出的一款高性能计算平台,专为加速数据中心内的AI赋能工作负载而设计。它结合了 NVIDIA 的最新技术和产品,包括 RTX 加速的AI和图形性能,以及对严苛工作负载的支持,如大型语言模型(LLM)的训练和推理、渲染和3D图形处理。

    介绍页面:
    https://www.nvidia.cn/data-center/products/ovx/

    OVX系统的核心特点包括:

    • 高性能计算:系统提供卓越的图形和计算性能,以满足AI和图形密集型应用的需求。

    • 多GPU支持:每个 OVX 系统可支持多达八个 NVIDIA Ada Lovelace L40S GPU,以及高性能的 ConnectX 网络和 Bluefield DPU 技术。

    • NVIDIA Omniverse Cloud:OVX 系统支持 Omniverse Cloud,这是一个可扩展的端到端云平台,用于加速复杂的3D工作流程,并为元宇宙应用的创建、仿真和运行提供创新方法。

    • 行业应用:OVX 系统适用于多种行业应用,包括数字孪生、生成式AI、自动驾驶铁路网络和智能工厂等。

    NVIDIA OVX 系统由 NVIDIA 认证的合作伙伴制造和销售,确保了企业组织能够获得满足其大规模加速性能需求的解决方案。通过这些系统,NVIDIA 致力于推动AI和元宇宙时代的创新和发展。

    Omniverse

    NVIDIA Omniverse 是 NVIDIA 推出的一个全面的虚拟世界和实时物理级准确模拟的开发和协作平台。它基于 Universal Scene Description (USD) 技术,旨在为 3D 设计、工程和娱乐行业的专业人士提供一个无缝连接、高度互动的虚拟环境。

    介绍页面:
    https://www.nvidia.cn/omniverse/

    以下是 NVIDIA Omniverse 产品体系的构成:

    Omniverse 平台

    • 一个计算平台,允许个人和团队开发基于 USD 的三维工作流和应用程序。

    • 支持在 3D 中快速创建,通过 AI 增强开发,几乎不需要编码。

    • 打破 3D 数据孤岛,实现大型企业团队的统筹和协作。

    USD 3D 框架

    • 一个开放、可扩展的生态系统,用于描述、合成、仿真和协作 3D 世界。

    • 提供 API 用于合成、编辑、查询、渲染、协作和仿真。

    • 支持非破坏性工作流和协作,以及与文件系统无关的资产解析器。

    Omniverse Cloud

    • 一个平台即服务 (PaaS) 云,为开发者和企业提供全栈云环境,用于设计、开发、部署和管理工业元宇宙应用。

    • 提供单一来源解决方案,易于扩展,支持企业和团队构建基于 USD 的工具和应用。

    • 包括 NVIDIA 专家和企业支持,确保系统高效运行。

    Omniverse 应用程序和服务

    • Omniverse Configurator:允许用户在云上发布高级交互式产品配置器。

    • Omniverse Simple Share:允许用户和团队通过在线链接轻松打包和分享 3D 场景。

    • Omniverse Nucleus Cloud:让团队轻松设置基于云的 Nucleus 实例,实现共享 USD 场景的实时协作编辑。

    • Omniverse App Streaming:使设计师、创作者和工程师能够在任何设备上流式传输和使用 Omniverse 应用程序。

    Omniverse 企业版

    • 为企业提供的端到端云服务,支持复杂的设计工作流和实时协作。

    • 通过集中式项目数据实现多用户和多地点的实时协作。

    NVIDIA Omniverse 平台的目标是推动元宇宙应用程序的开发,支持从概念设计到产品配置、数字孪生开发、合成数据生成、机器人测试和模拟,以及自动驾驶汽车的训练和验证等多种应用场景。通过提供强大的工具和服务,Omniverse 正在改变 3D 创作和工程行业,为未来的虚拟世界和数字化工作流程奠定基础。

    Jetson

    NVIDIA Jetson 嵌入式系统 是一系列专为边缘计算和自主机器设计的开发套件和模组。这些系统结合了先进的 AI 能力和高效的能源管理,使得开发者能够在各种应用中实现复杂的计算任务,包括机器人、智能城市、医疗成像、工业自动化等。

    介绍页面:
    https://www.nvidia.cn/autonomous-machines/embedded-systems/
    Jetson Software 主页:
    https://developer.nvidia.com/embedded/develop/software

    以下是 NVIDIA Jetson 嵌入式系统系列的主要产品系列:

    • Jetson Nano:作为一个入门级开发套件,Jetson Nano 提供了基本的 AI 功能,适合初学者和小型项目。

    • Jetson TX2 系列:这个系列提供了更强大的性能,适用于需要较高计算能力的应用。

    • Jetson Xavier NX 系列:这是 NVIDIA 的高端产品线,提供了非常强大的 AI 性能,适合复杂的边缘计算任务。

    • Jetson AGX Xavier 系列:这个系列是为工业级应用设计的,具有高可靠性和强大的计算能力。

    • Jetson Orin 系列:最新的 Jetson Orin 系列提供了前所未有的 AI 性能,适用于下一代自主机器和边缘计算应用。

    Jetson 系统的特点包括:

    • AI 性能:从几百 GFLOPS 到几百 TOPS 的不同级别的 AI 性能,满足不同应用需求。

    • GPU 架构:包括 Maxwell、Pascal、Volta 和 Ampere 架构,提供高效的并行计算能力。

    • CPU 配置:从四核 ARM Cortex-A57 到多核 NVIDIA Carmel Arm v8.2 64 位 CPU,提供强大的处理能力。

    • 显存和存储:提供从 4GB LPDDR4 到 64GB LPDDR5 的显存选项,以及从 16GB eMMC 到支持外部 NVMe 的存储解决方案。

    • 视频处理能力:支持多路高清视频编解码,适用于需要视频分析的应用。

    • 摄像头接口:支持多达数十个摄像头的接入,适用于视觉密集型应用。

    • 其他接口:包括 USB、PCIe、以太网、显示输出和其他 I/O 接口,方便连接各种外设。

    • 功耗:从几瓦到几十瓦不等,根据产品系列和应用需求提供能效优化。

    • 规格尺寸:提供多种尺寸的模组和开发套件,以适应不同的集成需求。

    Jetson 嵌入式系统通过提供高性能的 AI 计算能力和高效的能源管理,使得开发者能够在边缘设备上实现先进的机器学习和深度学习应用,推动智能设备和自主机器的发展。

    Jetson Generative AI Lab

    NVIDIA Jetson 平台结合生成式 AI 技术,为开发者和创新者提供了一个强大的工具,以在边缘设备上实现生成式 AI 应用的创建和部署。

    以下是关于如何使用 Jetson 平台带来生成式 AI 能力的一些要点:

    • Jetson 平台的适用性:Jetson 平台适用于需要实时、高吞吐量和低延迟的 AI 应用,特别是在生成式 AI 领域,如图像和视频生成、自然语言处理等。

    • 生成式 AI 的应用:生成式 AI 可以用于创建新的图像、音乐、文本等内容,Jetson 平台的强大计算能力使得这些应用可以在边缘设备上直接运行,而不需要依赖云计算资源。

    • 边缘计算的优势:在 Jetson 平台上运行生成式 AI 应用,可以减少对网络的依赖,降低延迟,提高数据处理的速度和效率,同时还能保护数据隐私。

    • 开发和部署:Jetson 平台提供了一系列的开发工具和库,如 NVIDIA DeepStream、TensorRT 等,这些工具可以帮助开发者优化和加速 AI 模型的训练和部署过程。

    • 实时性能:Jetson 平台的高性能 GPU 加速了 AI 模型的推理过程,使得生成式 AI 应用能够实时响应,为用户提供即时的反馈和结果。

    NVIDIA Jetson Generative AI Lab 是一个展示在 NVIDIA Jetson 平台上运行的生成式 AI 项目的实验室。这个实验室专注于利用 Jetson 平板的高性能计算能力来运行和开发先进的 AI 应用,特别是在生成式 AI 领域。

    项目网站:
    https://www.jetson-ai-lab.com/

    在 Jetson Generative AI Lab 网站上,用户可以找到关于如何使用 Jetson 平台进行生成式 AI 开发的详细教程和指南。这些教程可能会涵盖从设置开发环境、选择和训练模型,到部署和优化 AI 应用的全过程。

    AI 应用方案

    数据分析

    NVIDIA 提供的数据分析解决方案旨在通过 GPU 加速技术显著提升数据分析工作流的性能,从而降低成本并加速价值产出。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/data-analytics/

    以下是 NVIDIA 数据分析解决方案的关键要点:

    • 加速数据科学:通过 GPU 加速,改进端到端的数据分析工作流,包括数据准备、机器学习和模型部署。

    • 解决行业挑战:针对数据准备耗时、迭代周期长、数据集下采样导致结果欠佳等问题,提供高效的解决方案。

    • 颠覆性技术:利用 GPU 加速,减少数据分析的时间和成本,提高业务运营的投资回报率。

    • 高性能数据分析:GPU 在处理大规模数据分析问题时,比 CPU 快 20 倍,NVIDIA 的解决方案在性能和成本效益上有显著优势。

    • 加速分析的优势:为数据科学家、数据工程师和 IT/DevOps 专业人员提供快速的数据处理能力,减少等待时间,提高结果准确性,无需重构现有工具链。

    • 互操作性和易用性:在不同的分析库之间轻松共享设备内存,避免数据复制操作,支持从桌面到数据中心的无缝扩展。

    • 端到端解决方案:结合优化的硬件和软件,支持从机器学习到深度学习的全范围数据处理和分析任务。

    • 工具和库:使用 RAPIDS、Spark 3.0、Dask、cuML、Plotly Dash 和 FIL 等工具和库,加速数据加载、处理、训练和推理。

    NVIDIA 的数据分析解决方案通过 GPU 加速技术,使企业能够更有效地利用数据,加速洞察,从而在竞争激烈的市场中保持领先。

    机器学习

    NVIDIA 提供的机器学习解决方案旨在通过 GPU 加速技术提升企业在理解和改善客户服务、产品开发以及运营效率方面的数据分析能力。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/machine-learning/

    以下是 NVIDIA 机器学习解决方案的关键要点:

    • 加速数据科学:利用 GPU 加速,企业能够更快地迭代和投产解决方案,同时使用大数据集优化模型,提高准确性。

    • 高性能预测:通过 GPU 加速的机器学习,企业可以更快地进行功能迭代和高精度预测,从而做出更明智的业务决策。

    • 降低复杂性和开销:数据科学加速平台结合优化的硬件和软件,减少了机器学习的复杂性和额外开销。

    • 快速迭代和测试:GPU 加速使得数据科学家可以快速迭代和测试解决方案,缩短了等待时间。

    • 无需重构代码:数据科学家可以轻松地对现有工具链进行少量代码更改,以实现 GPU 加速,无需学习新工具。

    • 性价比高:与基于 CPU 的解决方案相比,GPU 加速的解决方案在性价比上高出 7 倍,帮助企业更有效地利用预算。

    • 无缝扩展:从桌面到多节点、多 GPU 集群的扩展过程简单直观,支持企业灵活调整规模。

    • 生态系统支持:NVIDIA 解决方案支持与 Apache Spark、cuPY、Dask、XGBoost、Numba 等数据科学框架以及 PyTorch、TensorFlow 等深度学习框架的集成。

    • 云端支持:无论企业使用的是 Amazon Web Services、Google Cloud 还是 Microsoft Azure,都可以在云平台上利用 RAPIDS 加速机器学习。

    • 创新工具:如 RAPIDS 超参数优化 (HPO) 和 RAPIDS 森林推理库 (FIL) 等工具,使得机器学习的关键操作大幅加速。

    NVIDIA 的机器学习解决方案通过提供高性能的 GPU 加速能力,帮助企业从数据中获得更多价值,加速洞察,推动业务增长和创新。

    深度学习训练

    NVIDIA 深度学习训练解决方案旨在通过 GPU 加速技术显著提高深度学习模型的训练速度,从而减少训练时间、成本,并加快投资回报(ROI)。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/training/

    以下是 NVIDIA 深度学习训练解决方案的关键特点:

    • 加速训练时间:NVIDIA 的解决方案可以将深度学习训练时间从几个月缩短至几周甚至几分钟。

    • 适应各种规模:无论是在本地工作站、数据中心还是云端,NVIDIA 提供了适合不同需求的深度学习平台。

    • 强大的硬件支持:NVIDIA Volta 架构和 Tesla V100 GPU 提供了强大的计算能力,适用于从桌面到数据中心的深度学习训练。

    • 软件和框架库:NVIDIA 提供了深度学习 SDK 和软件框架库,帮助开发者快速开始并优化神经网络。

    • 数据中心加速:GPU 加速的数据中心能够以更少的服务器提供突破性性能,快速获取洞察并降低成本。

    • 云计算集成:NVIDIA GPU 支持全球主要云服务提供商,使得存储在云端的数据可以被高效地用于深度学习训练。

    • 工作站解决方案:NVIDIA 提供桌面级深度学习工作站,支持虚拟桌面、应用程序和优化容器,适用于各种深度学习任务。

    • GPU Cloud (NGC):通过 NGC,用户可以轻松访问所有必要的深度学习训练软件,这些软件已经针对 NVIDIA GPU 进行了优化。

    NVIDIA 的深度学习训练解决方案通过提供高性能的硬件和易用的软件工具,使得研究人员和开发者能够更快速地训练复杂的深度学习模型,推动 AI 技术的发展和应用。

    AI 推理

    NVIDIA AI 推理解决方案提供了一个高效的平台,用于在生产环境中部署和执行深度学习模型。这个解决方案支持所有主流的 AI 框架,确保了广泛的适用性和灵活性。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/inference-platform/

    以下是 NVIDIA AI 推理解决方案的关键特点:

    • 全面支持主流框架:支持包括 TensorFlow、PyTorch、ONNX 等在内的多种 AI 框架,使得开发者能够轻松地将训练好的模型部署到生产环境。

    • NVIDIA Triton 推理引擎:Triton 提供了一个用于部署 AI 模型的推理服务器,它能够优化模型的性能,同时支持多种模型和数据格式。

    • NVIDIA TensorRT:这是一个用于高性能深度学习推理的优化器,它可以提高模型的推理速度和效率。

    • NVIDIA Triton 管理服务:提供管理服务,简化了在 Kubernetes 环境中部署 Triton 推理服务器的复杂性,使得模型部署和扩展更加容易。

    • NVIDIA AI Enterprise:这是一个企业级的软件套件,提供了对 AI 工作负载的端到端支持,包括推理和训练。

    • GPU 加速:利用 NVIDIA 的 L4、L40、H100 和 GH200 等 GPU,提供所需的计算能力,以支持大规模的 AI 推理任务。

    NVIDIA AI 推理解决方案的目标是为企业提供一个强大且易于使用的平台,以便快速、高效地部署 AI 模型,并从其数据中获得即时的洞察和价值。通过这个解决方案,企业可以加速创新,提高运营效率,并改善客户体验。

    预测与预报

    NVIDIA 预测和预报解决方案利用加速数据科学技术,帮助企业建模未来趋势,并利用大规模数据集获得高度准确的见解,以推动数据驱动型决策。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/prediction-forecasting/

    以下是该解决方案的关键要点:

    • 加速建模:通过 NVIDIA 加速数据科学解决方案,企业能够快速创建和部署预测模型,以便更好地理解和应对未来趋势。

    • 应对挑战:NVIDIA 提供的解决方案旨在解决预测分析中的常见挑战,包括耗时的数据处理、高昂的基础设施成本和繁琐的生产部署过程。

    • 提高效率:通过 GPU 加速,数据科学团队可以缩短等待时间,更快地迭代和测试解决方案,从而提高工作效率和投资回报率。

    • 无需重构:NVIDIA 的解决方案允许数据科学家使用他们熟悉的工具和框架,只需进行少量代码更改即可实现 GPU 加速,降低了学习成本。

    • 无缝扩展:解决方案可以从单台笔记本电脑轻松扩展到多节点、多 GPU 集群,支持从实验到生产的过渡。

    • 企业级支持:NVIDIA AI Enterprise 提供全面的企业级支持,包括响应时间保证、安全更新和与 NVIDIA AI 专家的交流机会。

    • 集成和互操作性:NVIDIA 的解决方案与 Apache Spark、cuPY、Dask、XGBoost、Numba 等领先的数据科学框架以及 PyTorch、TensorFlow 等深度学习框架集成,提高了采用率。

    NVIDIA 预测和预报解决方案的目标是帮助企业通过更快、更准确的数据分析和预测,提高决策质量,优化运营,并在竞争激烈的市场中保持领先。

    对话式 AI

    NVIDIA 对话式 AI 解决方案旨在帮助开发者快速构建和部署高精度、低延迟的会话 AI 应用,如虚拟助手、数字人类和聊天机器人。这些应用通过提供个性化和自然的交互体验,开辟了人机对话的新途径。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/solutions/conversational-ai/

    以下是 NVIDIA 对话式 AI 解决方案的主要特点:

    • 多语言支持:NVIDIA Riva GPU 加速语音和翻译 AI SDK 支持实时多语言模型的开发和部署,适用于多种语言、口音和方言。

    • 实时交互:解决方案针对实时转录、语言理解和语音合成进行了优化,以满足会话 AI 应用的准确性和延迟要求。

    • 行业应用:适用于多个行业,包括金融服务、电信、消费者服务等,提供从座席协助到智能眼镜交互的广泛功能。

    • 高度可定制:提供完全可定制的预训练模型,以集成到客户的会话 AI 应用中,确保卓越的用户体验。

    • 大型语言模型:NVIDIA NeMo 简化了大型语言模型的构建、自定义和部署,这些模型通常具有数十亿参数。

    • 云服务和框架:提供用于企业超个性化和大规模部署的大型语言模型的云服务,以及端到端的云原生企业框架。

    • 加速开发和部署:通过打包的 AI 工作流、企业支持、AI 框架和预训练模型,以及 Helm chart、Jupyter Notebooks 和文档等资源,加速会话 AI 应用的开发。

    • 生态系统和开发者库:NVIDIA 提供了一个强大的生态系统和开发者库,支持构建 GPU 加速的先进深度学习模型。

    NVIDIA 对话式 AI 解决方案的目标是为企业提供一个全面的平台,以利用 AI 技术改善客户服务、增强用户体验,并推动创新的会话式 AI 应用的开发。

    语音 AI

    NVIDIA 语音 AI 解决方案是一套针对语音识别、语音合成和翻译等任务的技术和工具集。这些解决方案利用 GPU 加速能力,提供实时、高效的语音处理功能,适用于多种语言和方言。

    介绍页面:
    https://nvidia.cn/ai-data-science/solutions/speech-ai/

    以下是 NVIDIA 语音 AI 解决方案的主要特点:

    • 实时多语言支持:NVIDIA Riva 提供了一个高度可定制的预训练模型,支持实时的语音识别和语音合成,适用于多种语言和方言。

    • 高性能:通过在 NVIDIA GPU 上运行,语音 AI 解决方案能够提供快速的响应时间和高吞吐量,满足实时交互应用的需求。

    • 端到端集成:解决方案支持从音频输入到文本输出的完整处理流程,包括降噪、回声消除、语音增强等预处理功能。

    • 易于部署:NVIDIA Riva 可以部署在云端、数据中心、嵌入式设备或边缘设备,提供灵活的部署选项以满足不同的性能和延迟要求。

    • 开发资源:NVIDIA 提供了丰富的开发资源,包括预训练模型、AI 工作流、Helm chart、Jupyter Notebook 和文档,帮助开发者快速构建和定制语音 AI 应用。

    • 企业级支持:NVIDIA Riva 企业版提供了全面的企业支持,包括安全更新、性能优化和技术支持。

    • 生态系统合作:NVIDIA 与多个生态系统合作伙伴合作,确保语音 AI 解决方案能够与现有的音频和视频平台无缝集成。

    NVIDIA 语音 AI 解决方案的目标是为开发者和企业提供一个强大、灵活且易于使用的工具集,以便快速开发和部署高质量的语音 AI 应用,推动语音技术在各种行业中的应用和创新。

    大语言模型和GenAI

    NVIDIA 提供的生成式 AI 解决方案是一套全面的平台和服务,旨在推动创新并将创意转化为现实,以解决全球性的挑战。这些解决方案利用 NVIDIA 的加速计算能力和 AI 软件栈,支持开发者和企业构建、定制和部署生成式 AI 模型。

    介绍页面:
    https://www.nvidia.cn/ai-data-science/generative-ai/

    以下是 NVIDIA 生成式 AI 解决方案的关键组成部分:

    • NVIDIA AI 代工厂:结合生成式模型体系架构、加速计算和多种工具,简化了生成式 AI 的训练、自定义、优化和部署过程。

    • NVIDIA NeMo:提供先进的大型语言基础模型、定制工具和大规模部署功能,支持高度个性化的企业 AI 应用。

    • NVIDIA Picasso:允许企业、软件创作者和服务提供商使用专有数据训练先进的生成模型,或基于预训练模型生成图像、视频、3D 和 360 HDRi 内容。

    • NVIDIA ACE:帮助中间件、工具和游戏开发者在软件或游戏中构建和部署自定义语音、对话和动画 AI 模型。

    • 生成式 AI 模型:NVIDIA 提供了由社区和 NVIDIA 构建的基础模型,如 GPT、T5 和 Llama,可通过 Hugging Face 或 NGC 目录下载,并在 AI Playground 中进行测试。

    NVIDIA 生成式 AI 方案优势和特点包括:

    • 优势:NVIDIA 的生成式 AI 解决方案提供了快速推出解决方案的能力、简单易用的模型制作服务套件、以及生产就绪的企业级模型。

    • 成功案例:NVIDIA 的生成式 AI 正在影响多个行业,包括可再生能源预测、药物研发、欺诈预防和野火探测等。

    • 资源和支持:NVIDIA 提供了丰富的资源,包括技术培训、认证计划、开发者论坛和技术支持,以及初创公司加速计划。

    NVIDIA 的生成式 AI 解决方案旨在为企业和开发者提供必要的工具和资源,以便他们能够利用 AI 技术推动创新,开发新产品和服务,并解决实际问题。

    行业整体方案

    数据中心和云计算

    NVIDIA 数据中心和云计算解决方案是一套综合性的技术体系,旨在帮助企业和服务提供商构建高性能、高效率且安全的云计算环境。这些解决方案利用 NVIDIA 的创新技术,包括 GPU、DPU 和 CPU 的集成架构,以及软件定义的数据中心(SDDC)概念,来满足现代数据中心的需求。

    介绍页面:
    https://www.nvidia.cn/data-center/

    NVIDIA数据中心和云计算解决方案的主要信息如下:

    核心架构

    • GPU加速:NVIDIA 的 GPU 加速器为数据中心提供高性能计算能力,特别适用于AI训练和推理、数据分析、科学计算和图形渲染等计算密集型任务。

    • DPU加速:NVIDIA 的 BlueField DPU 是一种新型的处理器,专为数据中心的网络、存储和安全任务设计,能够卸载这些任务,从而释放CPU资源用于其他工作负载。

    • CPU架构:NVIDIA 的 Grace CPU 架构专为数据中心设计,与 GPU 和 DPU 协同工作,提供高性能的数据处理能力。

    云计算解决方案

    • NVIDIA EGX平台:这是一个为边缘计算设计的平台,支持在靠近数据源的地方进行数据处理,减少延迟,提高响应速度,并支持多种云计算应用。

    • NVIDIA HGX平台:为构建AI超级计算机而设计,支持合作伙伴开发高性能的AI计算解决方案。

    • NVIDIA OVX平台:针对 Omniverse 工业数字孪生技术,提供超级计算能力,支持复杂的工程和模拟任务。

    • NVIDIA IGX平台:为边缘AI应用提供高级的功能安全性和可靠性,支持实时决策和自动化智能。

    技术服务体系

    • 部署和扩展:提供工具和指南,帮助企业快速部署 NVIDIA AI 和加速计算技术,并在数据中心中扩展这些工作负载。

    • 企业AI和数据分析:支持企业构建和扩展AI工作负载,加速数据分析和AI应用的开发,提供深度学习培训课程和行业AI实施解决方案。

    • 工作负载优化:针对不同的工作负载提供优化的解决方案,包括AI训练和推理、高性能计算、数据分析、渲染和虚拟化。

    • 资源和支持:提供丰富的资源,包括 GPU 优化的软件和 NVIDIA 合作伙伴网络(NPN),帮助企业找到合适的加速计算合作伙伴。

    通过以上解决方案和服务,NVIDIA 致力于帮助企业和服务提供商构建现代化的数据中心和云计算环境,以支持日益增长的数据需求和计算任务,同时提高效率和安全性。

    高性能计算

    NVIDIA 通过结合高性能计算 (HPC) 和 AI 技术,提供了一套解决方案,旨在提高科研和工业领域的工作效率和准确度。

    介绍页面:
    https://www.nvidia.cn/high-performance-computing/hpc-and-ai/

    以下是该解决方案的关键内容要点:

    • 加速科研和工程:研究人员和工程师利用 AI 增强的 HPC 模拟技术,以更快的速度获得更精确的结果,推动科学发现和解决复杂技术问题。

    • 多领域应用:HPC 和 AI 的结合应用于多个领域,包括气候研究、医疗设备评估、机器人制造、金融市场分析等。

    • GPU 加速的软件:NVIDIA 提供了一系列 GPU 优化的 AI 和 HPC 软件,如 PyTorch、TensorFlow 和 TorchANI,这些软件可以从 NVIDIA NGC 目录中获取,并部署在 GPU 加速的 HPC 集群、云实例和工作站上。

    • NVIDIA Modulus:这是一个基于物理信息的神经网络 (PINN) 工具包,用于解决 AI 和物理技术结合中的挑战,支持正向、反向问题和数据同化问题。

    • 实际应用案例:HPC 和 AI 的结合在模拟产品设计、地球系统模拟、科学发现等领域展现出广泛的应用潜力。

    NVIDIA 的 HPC 和 AI 解决方案通过提供强大的计算能力和高效的软件工具,加速了科研和工业应用的创新,提高了工作效率,并在多个领域实现了突破性的成果。

    自动驾驶

    NVIDIA 自动驾驶技术 是一个全面的生态系统,旨在支持自动驾驶汽车的开发、测试和部署。这个方案涵盖了从硬件到软件、从数据中心到仿真平台的各个层面,为汽车制造商、一级供应商、初创公司和科研机构提供了必要的工具和技术支持。

    介绍页面:
    https://www.nvidia.cn/self-driving-cars/

    以下是 NVIDIA 自动驾驶技术方案的关键组成部分:

    • NVIDIA DRIVE 平台:这是一个端到端的自动驾驶解决方案,包括硬件、软件和云服务。它允许车辆观察、思考和学习,以实现自动驾驶。

    • DRIVE 硬件平台:包括 NVIDIA DRIVE Hyperion,这是一个用于量产自动驾驶汽车的参考架构,集成了基于 DRIVE Orin 的 AI 计算和完整的传感器套件。

    • DRIVE 软件:提供了一系列用于自动驾驶汽车的应用程序,包括感知、定位、地图绘制、规划和控制、驾驶员监控等功能。

    • 高精地图:NVIDIA 提供端到端的高精地图解决方案,用于创建和更新地图数据,支持自动驾驶汽车的精确定位和路径规划。

    • 仿真平台:NVIDIA DRIVE Sim 利用 NVIDIA Omniverse 提供了一个物理精确的仿真环境,用于在各种场景中测试和验证自动驾驶汽车。

    • 数据中心解决方案:NVIDIA DRIVE 基础架构包括所需的硬件、软件和工作流,以支持神经网络的开发、训练和验证,以及仿真测试。

    • 云服务:NVIDIA AI Enterprise 和 Omniverse Cloud 提供了云端的虚拟测试车队,使 OEM 能够在基于物理性质的虚拟环境中测试和验证自动驾驶汽车。

    通过这些技术方案,NVIDIA 正在推动自动驾驶汽车行业的发展,帮助合作伙伴加速开发安全、可靠且先进的自动驾驶系统。

    医疗健康

    NVIDIA Clara 是一个由 AI 助力的医疗健康解决方案平台,旨在将医疗设备、研究人员和开发者与 NVIDIA 的 GPU 技术结合起来,以加速医疗保健领域的创新。Clara 平台提供了一套工具和库,使得医疗行业的专业人士能够更容易地开发和部署 AI 驱动的应用程序,从而改善病人护理、加速药物发现和提高临床研究的效率。

    介绍页面:
    https://www.nvidia.cn/clara/

    以下是 NVIDIA Clara 方案的主要特点:

    • AI 加速的医疗设备:Clara 支持开发者构建下一代医疗设备,这些设备可以利用 AI 进行图像处理、诊断辅助和患者监护。

    • 药物发现:Clara 平台可以帮助科研人员利用 AI 和深度学习技术加速药物的发现和开发过程。

    • 数据管理:Clara 提供了数据管理工具,帮助医疗专业人员高效地处理和分析大量的医疗数据。

    • 安全性和合规性:Clara 遵循医疗行业的安全和隐私标准,确保患者数据的安全和合规使用。

    • 跨平台兼容性:Clara 支持在多种操作系统和硬件平台上部署,包括 NVIDIA DGX 系统和其他认证的 GPU 加速平台。

    NVIDIA Clara 的目标是通过提供强大的 AI 计算能力和简化的开发工具,推动医疗健康领域的技术进步,为患者提供更好的医疗服务。

    机器人

    NVIDIA AI 机器人 是一套全面的平台,旨在加速机器人的开发和部署。该方案结合了 NVIDIA 的硬件和软件技术,为机器人开发者提供了一系列工具和资源,以支持大规模的 AI 机器人训练、开发和部署。

    其核心组件是 NVIDIA Isaac 软件解决方案,包括了一套用于机器人仿真、导航和操作的 SDK。Isaac 提供了高级的机器人 API、机器人仿真环境(Isaac Sim)以及用于构建自主机器人应用的工具和库。

    介绍页面:
    https://www.nvidia.cn/deep-learning-ai/industries/robotics/

    以下是 NVIDIA AI 机器人方案及 Isaac 框架的关键特性:

    • 端到端工作流:NVIDIA 提供从仿真到实际部署的完整工作流,使开发者能够在安全的虚拟环境中测试和验证机器人行为。

    • Isaac Sim:这是一个强大的仿真平台,允许开发者创建逼真且物理精确的环境,以在实际部署前进行全面的测试。

    • 多传感器集成:Isaac 支持多种传感器,包括摄像头、激光雷达、超声波和触觉传感器,为机器人提供全面的环境感知能力。

    • 导航和地图构建:Isaac 提供了先进的 SLAM(同时定位与地图构建)技术和路径规划算法,帮助机器人在复杂环境中导航。

    • 深度学习集成:Isaac 框架集成了深度学习模型,使机器人能够通过视觉和其他传感器数据进行学习和决策。

    • 合作伙伴生态系统:NVIDIA 拥有一个庞大的合作伙伴社区,提供从专用板卡、AI 软件、应用设计服务到传感器和开发者工具的全面支持。

    • 行业应用:NVIDIA AI 机器人方案已在多个行业中得到应用,包括制造、零售、农业、仓储与物流、配送和医疗健康等,帮助企业优化流程、降低风险并削减成本。

    • 资源和支持:NVIDIA 提供了丰富的资源,包括视频、博客、研究文献和咨询服务,以帮助开发者更好地利用其机器人开发解决方案。

    通过这些特性,NVIDIA AI 机器人方案和 Isaac 框架为开发者提供了一个强大的平台,以推动机器人技术的发展和应用。

    工业级 AI

    NVIDIA 工业级 AI 是为制造业和工业环境设计的一系列技术解决方案,旨在通过高性能的边缘计算平台提升工业自动化、优化运营效率,并确保操作的安全性和可靠性。

    介绍页面:
    https://www.nvidia.cn/industries/industrial/

    以下是 NVIDIA 工业级 AI 方案的主要特点:

    • NVIDIA IGX 平台:这是一个专为边缘 AI 设计的工业级平台,提供高性能、高级功能安全性和可靠性。IGX 平台适用于工业和医疗环境,支持人机协作,并确保 AI 技术的安全提供。

    • NVIDIA IGX Orin:作为 IGX 平台的一部分,IGX Orin 是一个高性能系统,专为低延迟的实时应用而设计。它具有强大的 AI 计算能力,每秒可执行 275TOPS,并包含高级安全性功能。

    • 企业级软件支持:NVIDIA 提供长达 10 年的 IGX 软件栈支持,包括工业和医疗认证支持文档,以及适用于 IGX 硬件的 Linux 板级支持包和驱动。

    • 工业自动化和医疗设备:NVIDIA 工业级 AI 解决方案通过 GPU 加速计算,支持工业自动化和医疗设备领域的大规模 AI 应用,优化运营并缩短分析时间。

    • 工业检测和预测性维护:NVIDIA GPU 用于开发高精度的自动化检测解决方案,并提供 GPU 加速的预测性维护解决方案,以提高精确度和降低运营成本。

    • 机器人技术:NVIDIA 解决方案支持智能工厂中的机器人技术,包括特定任务训练的机器人、自动巡航小车,以及协同式机器人 (cobot),提高效率并降低成本。

    • 边缘加速计算:NVIDIA Tesla 级边缘 GPU 和 Jetson 解决方案为工业边缘计算提供强大的 GPU 驱动计算能力,支持工业检测、机器人和预测性维护等应用。

    • 云计算和生态系统合作:NVIDIA GPU Cloud (NGC) 提供 GPU 加速容器,简化深度学习框架的部署,并与合作伙伴生态系统紧密合作,提供开箱即用的解决方案。

    通过这些方案,NVIDIA 正在帮助工业企业通过 AI 技术提高效率、降低成本,并实现数字化转型。

    NVIDIA AI 研究推广

    NVIDIA Research

    研究中心概况

    NVIDIA Research (英伟达研究中心) 是 NVIDIA 的研究部门,致力于开发尖端的人工智能、图形和计算技术。

    NVIDIA Research 有超过 200 位来自世界各地的科学家和工程师,主要致力于推动以下领域的创新:

    • 人工智能: 开发新的机器学习算法和模型,以解决各种问题,例如图像识别、自然语言处理和机器人。

    • 图形: 开发新的图形技术,以创建更逼真、更身临其境的视觉体验。

    • 计算: 开发新的计算架构和软件,以提高计算性能和效率。

    NVIDIA Research 主页:
    https://www.nvidia.cn/research/

    成果与贡献

    NVIDIA Research 取得了许多重大成果,包括:

    • 开发了用于深度学习的 CUDA 并行计算平台。

    • 开发了用于图形的 PhysX 物理模拟引擎。

    • 开发了用于人工智能的 DRIVE 自主驾驶平台。

    • 开发了用于云计算的 EGX 加速计算平台。

    • 发表了数百篇研究论文,并在顶级学术会议上发表演讲。

    NVIDIA Research 的工作对各个行业产生了重大影响,包括:

    • 娱乐: 提高了视频游戏和电影的视觉效果。

    • 医疗: 辅助诊断和治疗疾病。

    • 制造: 提高生产效率和产品质量。

    • 交通: 开发自动驾驶汽车和卡车。

    • 科学: 加速科学研究和发现。

    NVIDIA Research 的研究成果不仅推动了公司的产品和解决方案的发展,也为整个科技行业的进步做出了重要贡献。

    主要研究领域

    NVIDIA Research 的研究领域广泛,涵盖了多个与计算机图形、人工智能、高性能计算和深度学习相关的前沿技术。

    介绍页面:
    https://www.nvidia.com/en-us/research/research-areas/

    以下是 NVIDIA Research 的主要研究领域:

    • AI 与机器学习:研究如何利用深度学习和机器学习技术来解决复杂的计算问题,以及如何提高AI系统的智能和效率。

    • 计算机视觉:图像识别、目标检测、图像分割、视频分析等,探索如何通过视觉识别和理解技术来改善用户体验,包括图像和视频分析、3D重建和场景理解。

    • 自然语言处理:研究如何让机器更好地理解和生成人类语言,包括语音识别、文本分析和自动翻译。

    • 图形渲染:光线追踪、物理模拟、渲染、虚拟现实、增强现实等,探索如何使用先进的渲染技术来创建更加真实和高质量的视觉效果。

    • 高性能计算:并行计算、异构计算、云计算、数据科学等,开发和优化算法,以利用GPU的强大计算能力解决科学和工程问题。

    • 自动驾驶:研究和开发使自动驾驶汽车能够安全、高效运行的技术和算法。

    • 机器人技术:研究机器人感知、决策和控制的算法,以提高机器人在复杂环境中的自主性和灵活性。

    • 医疗成像和生命科学:利用AI和图形技术来改进医疗成像、疾病诊断和个性化医疗。

    NVIDIA Research 致力于继续推动尖端技术研究,并将其成果应用于现实世界,以解决重大挑战并改善人们的生活。

    AI Playground

    NVIDIA AI Playground 是一个可以让任何人体验 NVIDIA 最新人工智能研究成果的在线平台。它提供了一系列交互式演示,可以让用户亲身体验这些技术如何工作,并创建他们自己的作品。

    AI Playground 主页:
    https://www.nvidia.cn/research/ai-playground/

    主要功能

    • 体验最新的深度学习研究成果,包括:

      • 图像修复:去除图片中的瑕疵并生成逼真的填充效果。

      • 风格迁移:将一种图像的风格应用到另一张图像上。

      • 照片合成:使用深度学习生成逼真的图像和虚拟环境。

    • 轻松创建自己的作品:

      • 上传自己的照片或视频,并使用 AI 技术进行处理。

      • 调整参数并实时查看结果。

      • 将作品保存或分享给他人。

    适合人群

    • 对人工智能和机器学习感兴趣的任何人

    • 想体验最新 AI 技术的人

    • 希望学习如何使用 AI 进行创作的人

    • 开发人员和研究人员

    NVIDIA AI Playground 是一个学习和探索 AI 技术的便捷平台,它可以让用户直观地了解 AI 的强大功能,并激发他们的创造力。

    NVIDIA Developer

    NVIDIA Developer (开发者社区) 是一个面向全球开发者的资源和支持平台,旨在帮助开发者充分利用 NVIDIA 技术,构建各种应用程序和解决方案。

    社区首页:
    https://developer.nvidia.com/

    NVIDIA Developer 主要提供以下内容:

    学习资源:

    • 教程、文档、示例代码和博客文章,帮助开发者学习如何使用 NVIDIA 技术。

    • 在线课程和培训,包括 NVIDIA 深度学习研究所 (DLI) 提供的免费和付费课程。

    • 技术论坛和社区活动,让开发者与专家和同行交流学习。

    开发工具:

    • CUDA、cuDNN、TensorRT 等用于开发 GPU 加速应用程序的工具和 SDK。

    • NGC 容器平台,提供预训练模型、应用程序和工具的容器镜像。

    • AI 指南,提供各种 AI 应用领域的最佳实践和建议。

    开发者计划:

    • NVIDIA 开发者计划,提供免费的资源和支持,帮助开发者构建和部署 AI 和 HPC 应用程序。

    • NVIDIA 初创加速计划,帮助初创公司利用 NVIDIA 技术快速发展。

    • NVIDIA 深度学习研究所 (DLI),提供各种 AI 和 HPC 培训课程。

    NVIDIA 开发者社区主要面向以下人群:

    • 软件开发人员

    • 数据科学家

    • 机器学习工程师

    • HPC 工程师

    • 研究人员

    • 初创公司

    NVIDIA 开发者社区是开发者学习、交流和协作的平台,提供了丰富的资源和工具,帮助开发者充分利用 NVIDIA 技术,构建各种应用程序和解决方案。

    NVIDIA DLI

    NVIDIA 深度学习研究所 (Deep Learning Institute, DLI) 是 NVIDIA 提供的免费和付费培训平台,旨在帮助开发者和专业人士学习和掌握深度学习技术。

    NVIDIA DLI 中文官网:
    https://www.nvidia.cn/training/

    DLI 提供以下主要内容:

    课程:

    • 提供一系列涵盖深度学习基础知识、高级主题和特定应用领域的免费和付费课程。

    • 课程内容涵盖深度学习理论、实践应用、最新技术趋势等。

    • 课程形式包括视频、讲义、动手实践等。

    认证:

    • 提供深度学习相关领域的认证考试,例如 DLI 认证深度学习专家 (DLI Certified Deep Learning Specialist)。

    • 认证考试可以帮助学员验证其深度学习技能,并获得行业认可的证书。

    学习资源:

    • 提供丰富的学习资源,包括教程、文档、示例代码等。

    • 学习资源可以帮助学员巩固所学知识,并进行更深入的学习。

    社区:

    • 提供 DLI 社区平台,让学员可以交流学习经验,并与专家互动。

    • DLI 社区可以帮助学员拓展人脉,并获得最新行业资讯。

    DLI 提供以下服务:

    • 课程咨询: 帮助学员选择合适的课程,并提供课程学习指导。

    • 技术支持: 提供技术支持,帮助学员解决学习过程中遇到的问题。

    • 认证考试报名: 提供认证考试报名服务,并协助学员准备考试。

    • 企业培训: 提供定制化企业培训服务,帮助企业提升员工的深度学习技能。

    DLI 面向以下人群提供服务:

    • 开发人员

    • 数据科学家

    • 机器学习工程师

    • 研究人员

    • 学生

    • 对深度学习感兴趣的任何人

    NVIDIA DLI 是学习和掌握深度学习技术的优质平台。通过 DLI 提供的丰富课程、学习资源、认证和服务,学员可以快速提升其深度学习技能,并获得行业认可的证书。

    NVIDIA Open Source

    NVIDIA 积极参与开源社区,并致力于开源软件的开发和贡献。

    NVIDIA 开源官网:
    https://developer.nvidia.com/open-source

    NVIDIA 开源项目涵盖以下几个方面:

    • 深度学习: TensorFlow、PyTorch、ONNX、RAPIDS 等。

    • 高性能计算: CUDA、cuDNN、MPI、OpenCL 等。

    • 图形: Vulkan、OpenGL、DirectX 等。

    • 人工智能: Triton AI、Hopper AI 等。

    • 云计算: Kubernetes、Docker 等。

    NVIDIA 在开源领域做出了以下重要贡献:

    • 主导了多个开源项目的开发和维护: 例如 CUDA、cuDNN、TensorRT 等。

    • 积极贡献代码: 截至 2023 年,NVIDIA 已向超过 200 个开源项目贡献了超过 1400 万行代码。

    • 开源硬件: 例如 NVIDIA DRIVE AGX Xavier 和 NVIDIA Jetson 系列嵌入式平台。

    • 开源工具和平台: 例如 NVIDIA AI Enterprise 和 NVIDIA Omniverse。

    • 支持开源社区: 赞助开源项目和活动,并为开源开发者提供支持。

    NVIDIA 的开源贡献对各个领域产生了重大影响:

    • 推动了深度学习和人工智能技术的发展: NVIDIA 的开源工具和框架被广泛应用于学术研究和工业生产。

    • 提升了高性能计算的效率: NVIDIA 的开源 HPC 技术使计算能力更加可扩展和易于使用。

    • 促进了一些关键技术的标准化: 例如 Vulkan 和 ONNX。

    NVIDIA 是开源社区的重要贡献者,其开源项目和贡献对各个领域产生了积极的影响。NVIDIA 致力于继续推动开源技术的创新和发展,并与开源社区合作,构建更加繁荣的开源生态系统。

    GTC

    NVIDIA GTC(GPU 技术大会) 是一个全球性的技术盛会,专注于 AI、深度学习、加速计算和 GPU 技术。

    大会官网:
    https://www.nvidia.com/gtc/
    中文网站:
    https://www.nvidia.cn/gtc-global/

    该大会汇集了业界领袖、开发者、研究人员和商业策略专家,共同探讨和塑造 AI 和加速计算的未来。GTC 提供了一个交流平台,让参与者能够分享知识、学习最新技术,并与同行建立联系。

    GTC 2024 概览

    • 日期:2024年3月18日至21日

    • 地点:美国加州圣何塞会议中心

    • 形式:线上直播和线下会议相结合

    主要内容和亮点

    • 主题演讲:NVIDIA CEO 黄仁勋的主题演讲是大会的重头戏,分享关于未来 AI 突破的见解。

    • 会议和讲座:超过900场的会议和20多场的技术讲座,涵盖各种技术主题和行业应用。

    • 展商:200多家展商展示最新的产品和服务。

    • 圆桌讨论:多位首席信息官参与的小组讨论,分享他们如何利用生成式 AI 推动企业转型。

    • 中文内容精选:包括 China AI Day、DriveDevDay TA 等,分享 NVIDIA 最新架构和 LLM 全栈解决方案。

    历届GTC情况

    GTC 大会每年举办,每届都有数千名参会者。大会内容丰富多样,包括技术研讨会、实践工作坊、产品展示和网络活动。历届 GTC 大会都展示了 NVIDIA 在 GPU 技术和 AI 领域的最新进展,以及与其他行业领导者的合作成果。

    GTC 被参会者视为推广 AI 硬件和庆祝 NVIDIA 在 AI 领域领导地位的重要平台,为 AI 和加速计算领域的专业人士提供了一个学习和交流的绝佳机会。无论是通过线上直播还是亲临现场,参会者都能获得宝贵的知识和灵感,以推动自己的职业发展和技术创新。

    NVIDIA AI 愿景

    AI 理念

    NVIDIA 认为,人工智能 (AI) 拥有改变世界的巨大潜力,并致力于通过以下理念推动 AI 的发展:

    • 普惠 AI (Democratized AI): 使所有人都能轻松地使用和受益于 AI 技术,而不受技术背景和专业知识的限制。

    • 加速 AI (Accelerated AI): 利用高性能计算 (HPC) 技术,不断提升 AI 的性能和效率。

    • 负责任的 AI (Responsible AI): 致力于开发安全、可靠、可信的 AI 技术,并推动 AI 的负责任应用。

    NVIDIA 的 AI 发展愿景是:

    • 构建一个以 AI 为核心的计算平台: 为各种 AI 应用提供强大的计算能力和基础设施。

    • 推动 AI 在各行各业的应用: 赋能各行各业,解决现实世界中的挑战。

    • 塑造 AI 的未来: 积极参与 AI 领域的研发和标准制定,引领 AI 技术的发展方向。

    NVIDIA 采取了以下措施来实现其 AI 理念和发展愿景:

    • 开发了一系列 AI 加速硬件: 包括 GPU、AI 加速器和 DGX 超级计算平台,为 AI 应用提供强大的计算能力。

    • 推出了 AI 软件平台和工具: 包括 CUDA、cuDNN、TensorRT 和 Metropolis,简化 AI 应用的开发和部署。

    • 积极参与 AI 领域的研发和标准制定: 设立了 NVIDIA AI 研究院,并与学术界和产业界广泛合作,推动 AI 技术的创新和发展。

    • 致力于 AI 的负责任应用: 制定了一系列 AI 道德准则,并积极倡导 AI 的安全和可信应用。

    NVIDIA 坚信 AI 能够改变世界,并致力于通过其 AI 理念和发展愿景,推动 AI 技术的创新和应用,造福全人类。

    可信 AI

    NVIDIA 致力于开发和推广可信 AI,即安全、可靠、公平且符合道德规范的人工智能技术。

    NVIDIA 可信 AI 介绍:
    https://www.nvidia.com/en-us/ai-data-science/trustworthy-ai/

    其核心理念包括:

    • 安全性: 确保 AI 系统免受攻击和滥用,保护用户隐私和数据安全。

    • 可靠性: 确保 AI 系统能够稳定、一致地运行,并提供可解释的结果。

    • 公平性: 确保 AI 系统不会产生偏见或歧视,并以公平公正的方式对待所有用户。

    • 道德规范: 确保 AI 系统符合道德规范,并以负责任的方式应用。

    NVIDIA 关于可信AI的主要指导原则:

    • 隐私:AI应遵守隐私法律和法规,符合社会对个人数据和信息隐私的规范。

    • 安全与安全:确保AI系统按预期运行,避免意外伤害和恶意威胁。

    • 透明度:使AI技术易于理解,用非技术语言解释AI系统如何得出其输出。

    • 非歧视:减少AI系统中的偏见,确保所有群体平等受益于AI。

    为了实现可信 AI 的目标,NVIDIA 还开发了一系列解决方案并发展合作伙伴关系,以支持可信AI的发展:

    • Model Card++:提供有关机器学习模型工作原理的详细信息,鼓励透明度和可信度。

    • NVIDIA Omniverse Replicator DRIVE Sim:通过生成多样化的合成数据集,减少不希望的偏见并保护隐私,以复制自动驾驶车辆、工业检查和机器人仿真的真实用例。

    • NeMo Guardrails:帮助确保由大型语言模型(LLM)驱动的智能应用程序准确、适当、切题且安全。

    此外,NVIDIA 还与 Te Hiku Media、Getty Images 和 Adobe Firefly 等合作伙伴共同推动可信AI技术的发展。公司还在研究领域专注于开发能够增强人类能力、解决复杂问题并提高行业效率的算法和系统,并在所有研究实践和方法论中维护隐私、透明度、非歧视以及安全和安全的指导原则。

    NVIDIA 认为,可信 AI 是 AI 技术发展的必然趋势。通过积极倡导和实践可信 AI 理念,NVIDIA 致力于推动 AI 技术的安全、可靠、公平和负责任的应用,造福全人类。

    相关链接

    • NVIDIA 官网
      https://www.nvidia.com/

    • NVIDIA 中文站
      https://www.nvidia.cn/

    • NVIDIA documentation Hub
      https://docs.nvidia.com

    • AI 艺术画廊
      https://www.nvidia.cn/research/ai-art-gallery/


    人已打赏

        ×

        打赏支持

        打赏金额
        • 1元
        • 2元
        • 5元
        • 10元
        • 20元
        • 50元

        选择支付方式:

        打赏记录
        ×

        精彩评论文明上网理性发言,请遵守评论服务协议

        共0条评论
        加载更多
        AI时代

        AI时代

        14文章
        21.0万总阅读

        打赏成功!

        感谢您的支持~

        打赏支持 喜欢就打赏支持一下小编吧~

        打赏金额{{ds_num}}
        打赏最多不超过100元,打赏须知

        收银台

        订单总价0.00

        剩余支付时间:000000

        手机扫码支付

        使用支付宝、微信扫码支付

        余额(可用: ¥)
        为了您的账户安全,请尽快设置支付密码 去设置
        其他支付方式