Vitis™ AI 是 Xilinx 器件、板卡及 Alveo™ 数据中心加速卡上的一款综合 AI 推断开发平台。它包括一系列丰富的 AI 模型、优化的深度学习处理器单元 (DPU) 内核、工具、库以及边缘和数据中心端的 AI 示例设计。Vitis AI 以高效易用为设计理念,可在 Xilinx FPGA 和自适应 SoC 上充分发挥人工智能加速的潜力。
向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI Model Zoo 提供了优化且可重训练的 AI 模型,借助它们,您可在所有 Xilinx 平台上实现更快的部署、性能加速和产品化。
有了世界领先的模型压缩技术,AI Optimizer 可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。
通过将 32 位浮点权值和激活转换为 INT8 等定点,AI 量化器可在不影响预测精度的情况下,降低计算复杂度。定点网络模型需要的内存带宽更少,因此比浮点网络模型速度更快,电源效率更高。
AI 编译器可将 AI 模型映射到高效的指令集和数据流。它还可尽可能执行复杂的优化操作,例如,层融合、指令调度和复用片上存储器。
性能剖析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。
Vitis AI 库是一组高层次库和 API,旨在通过 DPU 核进行有效的 AI 推断。它基于带有统一 API 的 Vitis AI Runtime (VART) 构建,并为 Xilinx 平台上的 AI 模型部署提供了易于使用的接口。
框架推断流程 WeGO 通过利用本地 Pytorch 和 Tensorflow 框架将 DPU 不支持的运算符部署到 CPU 中,提供了一条从训练到推断的直接路径,从而可显著加速通过云计算 DPU 的模型部署和评估。
灵活应变的特定域架构 (DSA),将 CNN、RNN 和 NLP 快速发展的 AI 算法与 Xilinx Zynq® SoC、Zynq UltraScale+™ MPSoC、Alveo 数据中心加速卡以及 Versal® ACAP 上的工业领先性能进行匹配。
借助 Vitis AI,开发者可以在物联网、自动驾驶和 ADAS、医学成像和视频分析等边缘应用上实现高效的 AI 计算。Vitis AI 可在保持部署灵活性和最佳功耗的同时,通过一流的算法为您的边缘器件提供强大的计算性能。
实操使用 Vitis AI ,并选择 Xilinx 边缘平台和嵌入式合作伙伴:
Xilinx Alveo™ 数据中心加速器卡由 Vitis AI 提供支持,能够为您提供业界领先的 AI 推断性能,充分满足 CNN、RNN 和 NLP 的不同工作负载需求创造性的本地 AI 解决方案旨在满足现代数据中心超低时延、更高吞吐量和高灵活性的需求,不仅可提高 CPU 和 GPU 的计算性能,而且还可降低总体拥有成本。
安装 Vitis AI 并安装您的 Alveo 加速卡:
Xilinx FPGA 现在可通过公共云服务提供商(如 Amazon AWS 和 Microsoft Azure)向所有开发者开放。使用 Vitis AI,开发者不仅可轻松获得云端 AI 加速带来的更高性能,而且还可构建您自己的应用。
借助 Vitis™ AI,您可在嵌入式平台上使用 3D 感知 AI 算法实现实时处理。硬件和软件加速的共同优化实现了 Zynq® UltraScale+™ MPSoC 上最新 PointPillars 模型的领先性能。
观看视频 >
延迟决定了自动驾驶汽车在高速行驶时和遇到障碍物时的决策。通过创新的领域特定加速器和软件优化,Vitis AI 使自动驾驶汽车能够以超低延迟和更高性能来处理深度学习算法。
Vitis AI 具有强大的可扩展性和自适应性,可适用于许多低端到高端的 ADAS 产品,提供业界领先的性能,支持流行的 AI 算法,用于前端 ADAS 中的对象检测、车道检测和分段以及车内或环绕声查看系统。
城市越来越多地在边缘点和云端采用基于智能的系统。每天生成的海量数据需要强大的端到端 AI 分析系统,以便快速检测和处理对象、流量和面部行为。这为从边缘到云的每个框架增加了宝贵的见解。
了解更多有关 Xilinx 机器与计算机视觉的信息 >