Vitis AI 2.5 让 AI 加速体验更上一层楼

2022 年 6 月 15 日


编者注:本文由 AMD 软件与 AI 产品市场经理郭冰清撰写

  

作为广受青睐的 AI 加速开发平台,Vitis AI 已发布全新版本,并于 6 月 15 日正式推出。

我们一直期待 AI 在不同的工作负载和器件平台上发挥更重要的作用。由于从数据中心到云端都对 Vitis AI 有着巨大的市场需求,因此 AMD-赛灵思着力丰富与强化 Vitis AI 的功能,旨在提供更快的 AI 加速。本文将对 Vitis AI 2.5 的新功能及优化进行概述。

AI 模型库增加更多优化模型

最受欢迎的 BERT-NLP 模型、Vision Transformer、端到端 OCR 模型以及实时 SLAM SuperPoint 与 HFNet模型,都已包含在 Vitis AI 2.5 的模型列表。随着 AMD 对赛灵思的收购, AMD 获得了卓越的软硬件功能,如今,Vitis AI 2.5 在 AMD EPYC 服务器处理器上支持 AMD 深度神经网络 ZenDNN 库中的 38 种基本模型和优化模型。可以想象,更多的 AMD CPU 用户将通过 Vitis AI 解决方案体验更快的 AI 加速方案。

Vitis_AI_2_5_Vision_Transformer
Vitis_AI_2_5_SLAM_SuperPoint

面向数据中心的高效 AI 开发流程

在 Vitis AI 2.0 中,我们首次增加了“全图形优化器 (WeGO)”这一功能,并在开发者群体中获得了积极的反馈。通过将 Vitis AI 堆栈与主流 AI 框架的集成,WeGO 提供了在云端深度学习处理器单元 (DPU) 上部署 AI 模型的一套便捷的方案。在 Vitis 2.5 中,WeGO 支持了 Pytorch 和 Tensorflow 2 等更多种框架。Vitis AI 2.5 版还新增了图像分类、目标检测和分割等 19 个示例,诣在帮助用户在数据中心平台上更顺利地部署 AI 模型。

WeGo-image

更加优化的深度学习处理器单元和软件工具

AMD-赛灵思平台上卓越的 AI 加速性能离不开一系列强大的加速引擎和易于使用的软件工具。目前我们向主要的FPGA、自适应 SoC、Versal ACAP 以及 Alveo™ 数据中心加速器卡提供可扩展的 DPU。

随着 Vitis AI 2.5 的发布,Versal DPU IP 可支持 Versal AI Core 系列器件上的多个计算单元模式(Multiple compute unit),增加了由新的算术逻辑单元 (ALU) 实现的 Pool 引擎和 Depthwise 卷积引擎,支持大内核尺寸 MaxPool、AveragePool、AveragePool 和 16 位常数权重等新功能。

除此以外,DPU IP 现在还支持更多的网络层组合,如 Depthwise 卷积结合LeakyRelu等模式。

数据中心端 DPU 新增支持更大内核尺寸的 Depthwise 卷积、更大内核尺寸的Pooling、和基于 AI 引擎(AI Engine)的 Pooling 等。

了解更多

本文仅简要讲解了 Vitis AI 2.5 的主要功能。有关 Vitis AI 2.5 的完整介绍,请访问官网专区

进一步了解 AI 模型库、量化器、优化器、编译器、DPU IP、WeGO 以及整个应用加速 (WAA),请访问 Vitis AI 专区

即刻访问 Vitis AI GitHub 专区,可获得试用所需的最新工具和镜像!