概述

AI 边缘平台

 

 

Xilinx 边缘 AI 平台提供全面的工具和模型,其可充分利用独特的深度压缩及硬件加速深度学习技术。

该平台为嵌入式 CPU FPGA 提供高效、便捷、经济的推断部署。

Xilinx AI 团队由著名的研究人员和经验丰富的专业人士组成,他们以其在深度学习领域的开创性工作而闻名。

edge-ai-platform
DNNDK

DNNDK™(深度神经网络开发套件)

DNNDK 可释放在 Xilinx 端点 AI 平台上部署 AI 推断的生产力和效率。

dnndk-02

主要特性

  • 提供一系列完整的压缩、编译、部署及文件配置工具链。
  • 支持主流框架和最新的模型,能够执行不同的深度学习任务
  • 提供轻量级标准 C/C++ 编程 API(无需 RTL 编程知识)
  • 可扩展电路板提供从成本优化型平台到性能驱动型平台的支持
  • 支持与 SDSoC 和 Vivado 的系统集成

DNNDK 包括

  • DEep ComprEssioN 工具 (DECENT)
  • 深度神经网络编译器 (DNNC)
  • 神经网络运行时 (N2Cube)
  • 分析器

DNNDK™ 组件

深度压缩

有了世界领先的模型压缩技术,我们可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。

dnndk-03

dnndk-04

深度神经网络编译器

将 AI 模型映射至高效指令集及数据流。还可执行高级优化任务,如层融合和指令排程等,并可尽量重复使用片上内存。


N2Cube 运行时和性能分析器

N2Cube 运行时提供一系列基于张量的轻量级 API,其可实现便捷的应用开发。此外,它还提供高效的任务调度、内存管理和中断处理。性能分析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。

dnndk-05

硬件架构

aristotle

Aristotle 架构

深度学习处理单元 (DPU) 经过精心设计,非常高效、低时延并可针对广泛的端点 AI 应用进行扩展。它支持最常用的网络层和运算符,从而可通过硬件加速充分利用底层 Xilinx FPGA 架构,实现时延、功耗与成本之间的最佳权衡。

框架

框架

Xilinx 边缘 AI 平台支持大量行业标准框架,其突出显示在下表中。

框架 说明 可利用性
TensorFlow 是谷歌开发的开源框架。
CAFFE 是在加州大学伯克利分校开发的开源框架。
Darknet 是 Joseph Redmon 开发的开源框架。
模型

模型

Xilinx AI 平台支持 AI/ML 模型,如下所示。

 

应用 任务 算法
General 图像分类 Resnet50, Inception v1, BN-inception, VGG16, SqueezeNet, MobilenetV2
目标检查 MobilnetV2-SSD, SSD, YOLO v2,     YOLO v3, Tiny YOLO v2, Tiny YOLO v3
市场细分 ENet, ESPNet
面部 面部检查 SSD、Densebox
路标定位 坐标回归
面部识别 ResNet + Triplet / A-softmax 丢失
面部属性识别 分类与回归
行人 行人检查 SSD
姿态估计 坐标回归
视频分析 目标检查 SSD、RefineDet
行人属性识别 GoogleNet
汽车属性识别 GoogleNet
车标识别 修改的 Densebox + GoogleNet
车牌检查 修改的 DenseBox
车牌识别 GoogleNet + 多任务学习
ADAS/AD 目标检查 SSD、YOLOv2、YOLOv3
车道检测 VPGNet
语义分割 FPN
入门

入门

有关文档、下载及其它实用资源的完整列表,请导航到 Edge AI 开发者中心。