灵活应变 & 实时
AI 推断加速

概述

从边缘到云的最佳人工智能推断

Vitis™ AI 是 Xilinx 器件、板卡及 Alveo™ 数据中心加速卡上的一款综合 AI 推断开发平台。它包括一系列丰富的 AI 模型、优化的深度学习处理器单元 (DPU) 内核、工具、库以及边缘和数据中心端的 AI 示例设计。Vitis AI 以高效易用为设计理念,可在 Xilinx FPGA 和自适应 SoC 上充分发挥人工智能加速的潜力。

Vitis AI 部署特性

您的开发如何与 Vitis AI 协作

  • 支持业界流行框架和最新的模型,能够执行不同的深度学习任务 - CNN、RNN 和 NLP
  • 提供一系列全面的预先优化 AI 模型,这些模型现已就绪,可随时部署在 Xilinx 器件上。您可以找到最相似的模型,开始针对您的应用重新训练!
  • 提供功能强大的开源 AI Quantizer,支持剪枝和未剪枝的模型量化、校准和微调。
  • 提供用户友好型编译和部署流程,可满足客户定义的模型和运算符需求
  • 提供逐层分析,有助于通过 AI 剖析器解决瓶颈问题
  • AI 库提供高层次 C++ 和 Python API,可实现从边缘到云端的最大可移植性。
  • 可通过全图形优化器 (WeGO) 提供流畅的解决方案,以便通过在框架内整合 Vitis AI,在云计算 DPU 上部署 Pytorch 和 Tensorflow 模型。
  • 提供高效率、可扩展、可定制的 DPU IP 核满足不同的需求,如吞吐量、时延、功率和低精度等

使用 Vitis AI 探索一切可能性

Vitis AI Model Zoo

AI Model Zoo

向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI Model Zoo 提供了优化且可重训练的 AI 模型,借助它们,您可在所有 Xilinx 平台上实现更快的部署、性能加速和产品化。


AI 优化器

有了世界领先的模型压缩技术,AI Optimizer 可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。

人工智能优化器方框图

人工智能量化器方框图

AI 量化器

通过将 32 位浮点权值和激活转换为 INT8 等定点,AI 量化器可在不影响预测精度的情况下,降低计算复杂度。定点网络模型需要的内存带宽更少,因此比浮点网络模型速度更快,电源效率更高。


AI 编译器

AI 编译器可将 AI 模型映射到高效的指令集和数据流。它还可尽可能执行复杂的优化操作,例如,层融合、指令调度和复用片上存储器。

人工智能编译器方框图

AI 剖析器

性能剖析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。


AI 库

Vitis AI 库是一组高层次库和 API,旨在通过 DPU 核进行有效的 AI 推断。它基于带有统一 API 的 Vitis AI Runtime (VART) 构建,并为 Xilinx 平台上的 AI 模型部署提供了易于使用的接口。

人工智能库方框图

全图形优化器(WeGO)模块图

全图形优化器 (WeGO)

框架推断流程 WeGO 通过利用本地 Pytorch 和 Tensorflow 框架将 DPU 不支持的运算符部署到 CPU 中,提供了一条从训练到推断的直接路径,从而可显著加速通过云计算 DPU 的模型部署和评估。


深度学习处理器

灵活应变的特定域架构 (DSA),将 CNN、RNN 和 NLP 快速发展的 AI 算法与 Xilinx Zynq® SoC、Zynq UltraScale+™ MPSoC、Alveo 数据中心加速卡以及 Versal® ACAP 上的工业领先性能进行匹配。

Xilinx DPU 模块图
部署
kria-board

边缘部署

借助 Vitis AI,开发者可以在物联网、自动驾驶和 ADAS、医学成像和视频分析等边缘应用上实现高效的 AI 计算。Vitis AI 可在保持部署灵活性和最佳功耗的同时,通过一流的算法为您的边缘器件提供强大的计算性能。

实操使用 Vitis AI ,并选择 Xilinx 边缘平台和嵌入式合作伙伴:


alveo

本地部署

Xilinx Alveo™ 数据中心加速器卡由 Vitis AI 提供支持,能够为您提供业界领先的 AI 推断性能,充分满足 CNN、RNN 和 NLP 的不同工作负载需求创造性的本地 AI 解决方案旨在满足现代数据中心超低时延、更高吞吐量和高灵活性的需求,不仅可提高 CPU 和 GPU 的计算性能,而且还可降低总体拥有成本。

安装 Vitis AI 并安装您的 Alveo 加速卡:


1592258132635

云部署

Xilinx FPGA 现在可通过公共云服务提供商(如 Amazon AWS 和 Microsoft Azure)向所有开发者开放。使用 Vitis AI,开发者不仅可轻松获得云端 AI 加速带来的更高性能,而且还可构建您自己的应用。

技术文档

Vitis AI 文档

Default Default 标题 文件类型 日期
解决方案

助力自动驾驶和 ADAS 技术

实时多类 3D 对象检测

实时多类 3D 对象检测

借助 Vitis™ AI,您可在嵌入式平台上使用 3D 感知 AI 算法实现实时处理。硬件和软件加速的共同优化实现了 Zynq® UltraScale+™ MPSoC 上最新 PointPillars 模型的领先性能。

观看视频  >


面向自动驾驶的超低延时应用

延迟决定了自动驾驶汽车在高速行驶时和遇到障碍物时的决策。通过创新的领域特定加速器和软件优化,Vitis AI 使自动驾驶汽车能够以超低延迟和更高性能来处理深度学习算法。

了解更多 Xilinx AD 的信息  >

面向自主驾驶汽车的超低延时应用

对象检测与分割

对象检测与分割

Vitis AI 具有强大的可扩展性和自适应性,可适用于许多低端到高端的 ADAS 产品,提供业界领先的性能,支持流行的 AI 算法,用于前端 ADAS 中的对象检测、车道检测和分段以及车内或环绕声查看系统。

了解更多有关 Xilinx ADAS 的信息  >


使城市更智能、更安全

视频分析

城市越来越多地在边缘点和云端采用基于智能的系统。每天生成的海量数据需要强大的端到端 AI 分析系统,以便快速检测和处理对象、流量和面部行为。这为从边缘到云的每个框架增加了宝贵的见解。

了解更多有关 Xilinx 机器与计算机视觉的信息 >

视频分析

利用人工智能的强大力量以提升健康

加速 COVID-19 图像检测

影像、断和临床设备中的 AI

Vitis AI 提供强大的工具和 IP,以发现和识别医学图像数据中的隐藏模式,帮助抗击疾病并改善健康状况。   

了解更多有关 Xilinx 医疗 AI 的信息 > 


本地及数据中心中的 AI

数据中心加速

随着互联网应用的爆炸式增长,基于 AI 的复杂型产品和服务(例如图像和视频处理、实时广播、推荐引擎和自然语言处理器)越来越多,这对数据中心加速平台上的处理能力提出了更高的要求。Vitis AI 在 Xilinx Alveo 卡和客户平台上以更高的吞吐量和效率提供了更高的 AI 推断性能,满足了用户在数据中心和云快速发展的 AI 的期望。

了解更多有关 Xilinx 数据中心的信息 >
  
人工智能优化器方框图
视频

重要视频

所有视频

Default Default 标题 日期