注册
人工智能融合系列

深度神经网络加速NPU处理核

软件可配置的深度神经网络加速IP,支持大多数复杂AI算法算子的硬件加速。提供配套的开发工具,可帮助用户方便地在FPGA中完成部署。

产品介绍


深度神经网络加速内核NPU(Neural Processing Unit),提供卷积、池化和非线性等操作,并提供基本运算指令,高效支持CNN、RNN等常用深度神经网络。可根据具体网络类型和性能需求进行配置,提高计算效能,硬件资源配置为64-2048个MAC的不同计算尺度。 



产品参数
数据类型       8bit
主频 1.0GHz@16nm
计算资源 64-2048 MACs可配置
峰值性能 4TOPS@1GHz
基本算子  卷积、池化、非线性等
功耗 <2w @1GHz