灵活应变 & 实时
AI 推断加速

概述

从边缘到云的最佳人工智能推断

Vitis™ AI 平台是为 AMD 器件、板卡及 Alveo™ 数据中心加速卡提供的一款综合 AI 推断开发平台。它包括一系列丰富的 AI 模型、优化的深度学习处理器单元 (DPU) 内核、工具、库与示例设计,可充分满足边缘和数据中心的 AI 需求。Vitis AI 以高效易用为设计理念,可在 Xilinx FPGA 和自适应 SoC 上充分发挥人工智能加速的潜力。

Vitis AI 部署特性

图 1:Vitis AI 结构

如何使用 Vitis AI 平台开发:

  • 为主流框架和最新模型提供支持,帮助其完成各种深度学习任务,如 CNN、RNN 和 NLP 等
  • 功能强大的量化器和优化工具可实现优化的模型精度和处理效率
  • 便捷的编译流程和高层次 API 可实现自定义模型的极速部署
  • 可配置的高效率 DPU 内核能够充分满足边缘及云端对吞吐量、时延和电源的不同需求

使用 Vitis AI 探索一切可能性

Vitis AI Model Zoo

图 2:模型专区

AI 模型库

向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI 模型专区提供可重复训练的优化 AI 模型,其可通过 AMD 平台实现更快的执行、性能加速和生产。


AI 优化器

有了优异的模型压缩技术,AI 优化器可在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。

人工智能优化器方框图

图 3:Vitis AI 优化器


人工智能量化器方框图

图 4:Vitis AI 量化器

AI 量化器

一个自定义运算符检查、量化、校准、微调以及将浮点模型转换为需要更少内存带宽的定点模型的完整过程,不仅可提供更快的速度,而且还可提供更高的计算效率。


AI 编译器

AI 编译器可将 AI 模型映射至高效指令集及数据流程。此外,它还可执行层融合和指令排程等高级优化任务,并可尽量重复使用片上内存。

人工智能编译器方框图

图 5:Vitis AI 编译器


人工智能剖析器方框图

图 6:Vitis AI 分析器

AI 剖析器

性能剖析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。


AI 库

Vitis AI 库是一组高层次库和 API,旨在通过 DPU 核进行有效的 AI 推断。它建立在支持统一 API 的 Vitis AI 运行时 (VART) 基础之上,可为 AMD 平台上的 AI 模型部署提供简单易用的接口。

人工智能库方框图

图 7:Vitis AI 库


全图形优化器(WeGO)模块图

图 8:Vitis AI 编译器

全图形优化器 (WeGO)

WeGO 框架推断流程提供一条从训练到推断的直接路径,可利用本地 TensorFlow 或 PyTorch 框架将 DPU 不支持的运算符部署到 CPU 中,从而可显著加速通过云 DPU 执行的模型部署与评估。


深度学习处理器

深度学习处理器单元 (DPU)

DPU 是一款灵活应变的特定域架构 (DSA),其可将 CNN、RNN 和 NLP 快速发展的 AI 算法与 Zynq™ SoC、Zynq UltraScale+™ MPSoC、Alveo 数据中心加速卡以及 Versal ACAP 上的工业领先性能进行完美匹配。

Xilinx DPU 模块图

图 9:Vitis AI DPU

部署
kria-board

边缘部署

Vitis™AI 平台不仅可为边缘设备提供支持优化算法的强大计算性能,同时还可凭借优化的功耗实现部署的高灵活性。它可为汽车、工业、医疗以及视频分析等普及型边缘应用提高计算性能。

浏览 AMD 及合作伙伴的边缘平台 >


alveo

本地部署

有了 Vitis AI 解决方案的支持,Alveo™ 数据中心加速卡可为 CNN、RNN 及 NLP 上的不同工作负载提供极具竞争力的 AI 推断性能。开创性本地 AI 解决方案旨在满足现代数据中心对超低时延、更高吞吐量以及高灵活性的需求,可通过 CPU、GPU 以更低总体拥有成本提供更高计算性能。

选择加速器卡 >


1592258132635
vmaccel-gray-tile.png

云部署

通过与 AWS 和 VMAccel 等公共云服务提供商合作,AMD 现在可提供对 FPGA 和 Versal™ ACAP 云实例的远程访问,从而能够快速启动模型部署,即使没有本地软硬件也没问题。

技术文档

Vitis AI 平台文档

现已为在模型、工具以及深度学习处理器单元等上使用 Vitis™AI 平台开发提供广泛的文档支持。

链接至以下特定文档或访问文档门户网站,查看所有 Vitis AI 平台文档

Default Default 标题 文件类型 日期
解决方案

助力自动驾驶和 ADAS 技术

实时多类 3D 对象检测

实时多类 3D 对象检测

借助 Vitis™ AI,您可在嵌入式平台上使用 3D 感知 AI 算法实现实时处理。硬件和软件加速的共同优化实现了 Zynq® UltraScale+™ MPSoC 上最新 PointPillars 模型的领先性能。

观看视频  >


面向自动驾驶的超低延时应用

延迟决定了自动驾驶汽车在高速行驶时和遇到障碍物时的决策。通过创新的领域特定加速器和软件优化,Vitis AI 使自动驾驶汽车能够以超低延迟和更高性能来处理深度学习算法。

了解更多 Xilinx AD 的信息  >

面向自主驾驶汽车的超低延时应用

对象检测与分割

对象检测与分割

Vitis AI 具有强大的可扩展性和自适应性,可适用于许多低端到高端的 ADAS 产品,提供业界领先的性能,支持流行的 AI 算法,用于前端 ADAS 中的对象检测、车道检测和分段以及车内或环绕声查看系统。

了解更多有关 Xilinx ADAS 的信息  >


使城市更智能、更安全

视频分析

城市越来越多地在边缘点和云端采用基于智能的系统。每天生成的海量数据需要强大的端到端 AI 分析系统,以便快速检测和处理对象、流量和面部行为。这为从边缘到云的每个框架增加了宝贵的见解。

了解更多有关 Xilinx 机器与计算机视觉的信息 >

视频分析

利用人工智能的强大力量以提升健康

加速 COVID-19 图像检测

影像、断和临床设备中的 AI

Vitis AI 提供强大的工具和 IP,以发现和识别医学图像数据中的隐藏模式,帮助抗击疾病并改善健康状况。   

了解更多有关 Xilinx 医疗 AI 的信息 > 


本地及数据中心中的 AI

数据中心加速

随着互联网应用的爆炸式增长,基于 AI 的复杂型产品和服务(例如图像和视频处理、实时广播、推荐引擎和自然语言处理器)越来越多,这对数据中心加速平台上的处理能力提出了更高的要求。Vitis AI 在 Xilinx Alveo 卡和客户平台上以更高的吞吐量和效率提供了更高的 AI 推断性能,满足了用户在数据中心和云快速发展的 AI 的期望。

了解更多有关 Xilinx 数据中心的信息 >
  
人工智能优化器方框图
视频

重要视频

所有视频

Default Default 标题 日期
开始设计