超详细案例解读,利用FPGA加速深度神经网络运算
全联接神经网络是一种计算量比较大的机器学习模型,在训练和推断过程中需要对所有神经元进行矩阵计算。为了加快计算速度,各公司的大佬们采取了不同手段进行数据的抽象和综合。通常来说,我们采用卷积操作,将数据进行抽象和综合,然后送入到全连接神经网络进行最后的计算,实质上就是矩阵运算等数学计算的一系列综合操作。
熟悉矩阵运算的朋友都知道,矩阵当中的每个元素和其他元素是没有关联的,这种特性天然就适合使用并行计算的方式来加快其计算速度。
重点来了!并行计算正是 FPGA 等芯片的强项,利用FPGA将有效实现深度学习神经网络的加速计算(推理),下面是具体的操作展示。
1.深度学习神经网络的环境搭建
2.安装 OpenCL的开发环境,使Intel? Arria? 10 FPGA作为OpenCL的设备,注意安Intel对应的SDK
3.利用 Tensorflow 作为框架,实现一个简单的全连接神经网络
(提供一个算法描述示例,使用 Mnist 数据集作为训练和测试)
1)Mnist 数据集每张图片为 28×28 像素,将每张图片的像素点作为输入
2)第一个隐藏层设置 500 个神经元,与输入图像的 784 个像素点做计算(矩阵乘法)
3)将得到的结果使用 relu 函数进行结果,只保留数值 >0 的结果,其他的设置为 0
4)第二个隐藏层设置 10 个神经元,与第一个隐藏层的输出进行计算(矩阵乘法),最终得到 10 个结果作为输出
从上述的算法描述当中,我们可以看到实际上就是几次矩阵的计算过程:一个 和 的矩阵乘法,得到一个 的中间矩阵;然后这个 的中间矩阵与 的矩阵进行计算,最终得到一个 的矩阵,这个就是我们的最终结果。
4.对搭建完成的神经网络进行训练,训练之后得到模型文件
5.通过一定的操作方式,提取这些模型文件中的模型参数
6.把模型参数当作输入的参数,送入到FPGA当中进行加速计算,实现推理过程
上述神经网络算法的OpenCL实现,大致如下:
http://i1.fuimg.com/702072/487b9346f1ffcf97.png
7.最后使用C/C++编写CPU程序,与 FPGA 进行交互,来验证 OpenCL 算法实现的正确性。
以下是 CPU 程序的部分代码。
http://i1.fuimg.com/702072/62fa6e3511359037.png
通过以上步骤,我们就成功的使用OpenCL在Intel FPGA上实现了一个简单的神经网络的推理加速。
谢LZ,已学习 顶一下,辛苦楼主,对OpenCL不太熟,基于OpenCL的算法实现方便详细展示一下吗? 回楼上,英特尔FPGA中国创新中心官网有相关的线上培训课,有讲OpenCL,可以关注一下http://chuantu.xyz/t6/727/1586166548x3661913030.png
页:
[1]