灵活应变 & 实时
AI 推断加速

概述

从边缘到云的最佳人工智能推断

Vitis™ AI 是 Xilinx 器件、板卡及 Alveo™ 数据中心加速卡上的一款综合 AI 推断开发平台。它包括一系列丰富的 AI 模型、优化的深度学习处理器单元 (DPU) 内核、工具、库以及边缘和数据中心端的 AI 示例设计。Vitis AI 以高效易用为设计理念,可在 Xilinx FPGA 和自适应 SoC 上充分发挥人工智能加速的潜力。

Vitis AI 部署特性

您的开发如何与 Vitis AI 协作

  • 支持业界流行框架和最新的模型,能够执行不同的深度学习任务 - CNN、RNN 和 NLP
  • 提供一系列全面的预先优化 AI 模型,这些模型现已就绪,可随时部署在 Xilinx 器件上。您可以找到最相似的模型,开始针对您的应用重新训练!
  • 提供功能强大的开源 AI Quantizer,支持剪枝和未剪枝的模型量化、校准和微调。
  • 提供用户友好型编译和部署流程,可满足客户定义的模型和运算符需求
  • 提供逐层分析,有助于通过 AI 剖析器解决瓶颈问题
  • AI 库提供高层次 C++ 和 Python API,可实现从边缘到云端的最大可移植性。
  • 可通过全图形优化器 (WeGO) 提供流畅的解决方案,以便通过在框架内整合 Vitis AI,在云计算 DPU 上部署 Pytorch 和 Tensorflow 模型。
  • 提供高效率、可扩展、可定制的 DPU IP 核满足不同的需求,如吞吐量、时延、功率和低精度等

使用 Vitis AI 探索一切可能性

Vitis AI Model Zoo

AI Model Zoo

向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI Model Zoo 提供了优化且可重训练的 AI 模型,借助它们,您可在所有 Xilinx 平台上实现更快的部署、性能加速和产品化。


AI 优化器

有了世界领先的模型压缩技术,AI Optimizer 可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。

人工智能优化器方框图

人工智能量化器方框图

AI 量化器

通过将 32 位浮点权值和激活转换为 INT8 等定点,AI 量化器可在不影响预测精度的情况下,降低计算复杂度。定点网络模型需要的内存带宽更少,因此比浮点网络模型速度更快,电源效率更高。


AI 编译器

AI 编译器可将 AI 模型映射到高效的指令集和数据流。它还可尽可能执行复杂的优化操作,例如,层融合、指令调度和复用片上存储器。

人工智能编译器方框图

AI 剖析器

性能剖析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。


AI 库

Vitis AI 库是一组高层次库和 API,旨在通过 DPU 核进行有效的 AI 推断。它基于带有统一 API 的 Vitis AI Runtime (VART) 构建,并为 Xilinx 平台上的 AI 模型部署提供了易于使用的接口。

人工智能库方框图

全图形优化器(WeGO)模块图

全图形优化器 (WeGO)

框架推断流程 WeGO 通过利用本地 Pytorch 和 Tensorflow 框架将 DPU 不支持的运算符部署到 CPU 中,提供了一条从训练到推断的直接路径,从而可显著加速通过云计算 DPU 的模型部署和评估。


深度学习处理器

灵活应变的特定域架构 (DSA),将 CNN、RNN 和 NLP 快速发展的 AI 算法与 Xilinx Zynq® SoC、Zynq UltraScale+™ MPSoC、Alveo 数据中心加速卡以及 Versal® ACAP 上的工业领先性能进行匹配。

Xilinx DPU 模块图
部署
kria-board

边缘部署

借助 Vitis AI,开发者可以在物联网、自动驾驶和 ADAS、医学成像和视频分析等边缘应用上实现高效的 AI 计算。Vitis AI 可在保持部署灵活性和最佳功耗的同时,通过一流的算法为您的边缘器件提供强大的计算性能。

实操使用 Vitis AI ,并选择 Xilinx 边缘平台和嵌入式合作伙伴:


alveo

本地部署

Xilinx Alveo™ 数据中心加速器卡由 Vitis AI 提供支持,能够为您提供业界领先的 AI 推断性能,充分满足 CNN、RNN 和 NLP 的不同工作负载需求创造性的本地 AI 解决方案旨在满足现代数据中心超低时延、更高吞吐量和高灵活性的需求,不仅可提高 CPU 和 GPU 的计算性能,而且还可降低总体拥有成本。

安装 Vitis AI 并安装您的 Alveo 加速卡:


1592258132635

云部署

Xilinx FPGA 现在可通过公共云服务提供商(如 Amazon AWS 和 Microsoft Azure)向所有开发者开放。使用 Vitis AI,开发者不仅可轻松获得云端 AI 加速带来的更高性能,而且还可构建您自己的应用。

技术文档

Vitis AI 文档

Default Default 标题 文件类型 日期
解决方案

助力自动驾驶和 ADAS 技术

实时多类 3D 对象检测

实时多类 3D 对象检测

借助 Vitis™ AI,您可在嵌入式平台上使用 3D 感知 AI 算法实现实时处理。硬件和软件加速的共同优化实现了 Zynq® UltraScale+™ MPSoC 上最新 PointPillars 模型的领先性能。

观看视频  >


面向自动驾驶的超低延时应用

延迟决定了自动驾驶汽车在高速行驶时和遇到障碍物时的决策。通过创新的领域特定加速器和软件优化,Vitis AI 使自动驾驶汽车能够以超低延迟和更高性能来处理深度学习算法。

了解更多 Xilinx AD 的信息  >

面向自主驾驶汽车的超低延时应用

对象检测与分割

对象检测与分割

Vitis AI 具有强大的可扩展性和自适应性,可适用于许多低端到高端的 ADAS 产品,提供业界领先的性能,支持流行的 AI 算法,用于前端 ADAS 中的对象检测、车道检测和分段以及车内或环绕声查看系统。

了解更多有关 Xilinx ADAS 的信息  >


使城市更智能、更安全

视频分析

城市越来越多地在边缘点和云端采用基于智能的系统。每天生成的海量数据需要强大的端到端 AI 分析系统,以便快速检测和处理对象、流量和面部行为。这为从边缘到云的每个框架增加了宝贵的见解。

了解更多有关 Xilinx 机器与计算机视觉的信息 >

视频分析

利用人工智能的强大力量以提升健康

加速 COVID-19 图像检测

影像、断和临床设备中的 AI

Vitis AI 提供强大的工具和 IP,以发现和识别医学图像数据中的隐藏模式,帮助抗击疾病并改善健康状况。   

了解更多有关 Xilinx 医疗 AI 的信息 > 


本地及数据中心中的 AI

数据中心加速

随着互联网应用的爆炸式增长,基于 AI 的复杂型产品和服务(例如图像和视频处理、实时广播、推荐引擎和自然语言处理器)越来越多,这对数据中心加速平台上的处理能力提出了更高的要求。Vitis AI 在 Xilinx Alveo 卡和客户平台上以更高的吞吐量和效率提供了更高的 AI 推断性能,满足了用户在数据中心和云快速发展的 AI 的期望。

了解更多有关 Xilinx 数据中心的信息 >
  
人工智能优化器方框图
视频

视频


研讨会

使用 Vitis AI 实现灵活应变的 AI 推断

使用 Vitis AI 实现灵活应变的 AI 推断

本次网络研讨会将深入探讨 Vitis AI 的关键组件,并向您展示如何在 Xilinx 硬件平台上实现灵活应变且高效的 AI 推断。
 

Vitis AI 的深度探讨

Vitis AI 的深度探讨

通过本次网络研讨会,了解如何使用 Vitis AI 部署和运行您针对 Xilinx 嵌入式 SoC 和 Alveo 加速平台预先训练好的 DNN 模型。然后开始使用 Vitis AI 在板上运行示例。

利用 Xilinx Vitis 加速 AI 相机开发

利用 Xilinx Vitis 加速 AI 相机开发

了解如何将 Xilinx MPSoC 与 Vitis 结合使用以实现 AI 摄像头设计。

  

全应用加速:设计支持 AI 的系统

整体应用加速

在本次网络研讨会上,我们将展示 Vitis 和 Vitis AI 如何帮助开发者在 Xilinx 平台上加速整个应用。

 

DPU-PYNQ 适用于由 Python 提供支持的边缘 AI 设备 | 科学技术讨论 (Tech Chats) — Xilinx 与 Mouser Electronics

DPU-PYNQ 适用于由 Python 提供支持的边缘 AI 设备

Chris Anderson 与 Xilinx 的 Quenton Hall 针对开发者如何在边缘 AI 设备中使用 ZYNQ FPGA 进行了交流。