本次为期末课程设计,了解CNN过程,并且以数字识别为例去了解CNN的应用,采用matlab

来事先分析整个过程,并且转化为VHDL语言,使用FPGA使用该想法,由于本次为期末在家期间所做,没有硬件去验证准确性,只能利用波形仿真去验证思想。

可加wechat 号:comprehensivable   询问获取相关资料!

目录

目录

 一、原理分析

1.1  输入数据性质

1.2 卷积层:

1.3  激活层

 1.4 池化层

1.5  全连接

 二、系统方案:

2.1 串入并出模块

 2.2  卷积层

2.3  激活层

2.4 池化层 

2.5 全连接层

三、代码分析 

  四、程序RTL图

五、波形仿真 

六、matlab分析过程


 一、原理分析

1.1  输入数据性质

     输入层输入的图像一般包含R、G、B三个通道,是一个由长宽分别为H、W组成的三维像素值矩阵H×W×3。卷积网络会将输入层数据传递到一系列卷积、池化等操作进行特征提取和转化,最终由全连接层对特征进行汇总和输出。

    对于识别相关的图片我们需要总多性质,如下:

  1. 空间不变性:无论用哪种方法找到这个物体,都应该和物体的位置无关
  2. 平移不变性:不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为平移不变性。
  3. 局部性:神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终可以聚合这些局部特征,以在整个图像级别进行预测。

06e33b5ae8184bc7b3e66afb48f26791.png

1.2 卷积层:

1)卷积层:

        卷积层(Convolution Layer)通常用于对输入数据进行特征提取,卷积原理其实就是对两张像素矩阵进行点乘求和的数学操作,求得的结果表示原始图像中提取的特定局部特征,于是规定不同的特征提取可以得到Feature Map从而来提取出输入中的特征,提取过程见图1.2.1所示。

       卷积就是一个滑动窗口在特征图上计算,比如以一个2*2的卷积核为例;卷积窗口从输入特征图的左上角开始,从左到右、从右到左的滑动,当卷积窗口滑动到新的位置时,将卷积核和特征图做对应元素相乘再相加,也就是说卷积核每滑动一次就计算得到一个标量值,当卷积核对特征图的滑动结束后就得到了卷积的结果;

2cc6fe57b17c4523af2269a2a6490aa9.png

   图1.2.1 二维卷积过程

2)步长:

      步长即卷积核遍历输入特征图时每步移动的像素数。如步长为1,则每次移动1个像素;步长为2,则每次移动2个像素(即跳过1个像素)。

3)填充:

       填充的存在就是应对卷积中出现越界的情况,比如44的特征矩阵,33的窗口滑动,步长为2,发现滑倒下一个窗口的时候就越界了,为了防止越界的情况出现,利用填充来弥补,并且为了能够得到边缘特征,填充能够帮助提取到边缘特征,从而更好的得到其结果,采用padding方式补0,其见图1.2.2所示。

c72e4800e14943ae94a443f8453698d2.png

 图1.2.2  Padding填充

1.3  激活层

       为了能够简化计算并且能够达到“分类的概率”,将小于0的数置0,对大于0的数保持,使用RELU函数,其激活函数处理结果可以清晰的看到如图1.2.3所示

25760bfd6dd24628b210585d2b27a25b.png

图1.2.3  激活过程

 1.4 池化层

        当输入的数据量巨大的时候,卷积矩阵和卷积结果也会非常的庞大,这时候便需要利用池化将其进行压缩,常使用Max pool将得到新的Feature Map,舍去部分数据但是不改变其原主要特性,其池化过程见图1.2.4 所示。

59467b6e40bc4752a4d4b1c48c5fb014.png

 图1.2.4  Max pool池化过程

1.5  全连接

得到卷积提取的图片特征进行非线性学习,最后一层神经元个数对应分类的类别数。当然全连接和卷积层也可以互相转换,CNN最后以概率输出结果和实际的比较,其中对应不同的权重,其权重的设计需要大量的数据进行模型训练,这边设计到机器学习,其全连接见图1.2.5所示。 

 60973ad8ed95455e91b77f727e2db2f2.png

 图1.2.5  全连接过程

      最终将卷积层、激活层、池化层、全连接层相组合便可以达到我们需要的CNN,并且由于视池化出的结果而言需要多个全连接模块,来对应不同概率,其概率最大则为最终输出结果,其过程见图1.2.6所示。  

bfdfa1603cf0430cb6d952886c87d5e7.png

图1.2.6 CNN卷积神经网络过程 


 二、系统方案:

2.1 串入并出模块

        为了能够使得整个系统处理速率加快,使用串入并处模块,将数据串入输入,并出输出至卷积层,其结构见图2.1.1所示。

2ea208c4ae024f4793563b711369fe24.png

图2.1.1 串入并出模块

 2.2  卷积层

采用对角为1 1 1的矩阵和输入数据矩阵进行卷积,其 卷积框架见图2.1.2所示。

b1c424104f0b4fdbb75fd2721ad9b2e2.png

     图2.1.2   卷积层模块 

2.3  激活层

    激活层主要和0作比较并且通过数据选择器来构成,其框架见图2.1.3所示。 

4eb7d414741646f3bddd6700f5b97369.png

 图2.1.3    激活层模块  

2.4 池化层 

       池化最主要的目的为压缩,利用2*2的采样矩形对原有矩形进行步长为1 的采样进行卷积得到池化结果,其结构见图2.1.4所示。

98daaf65a3d642eeb818897010e8fa25.png

 图2.1.4    池化层模块  

2.5 全连接层

 为了能够对输入数据和实际进行判断,利用全连接,采样不同的全连接算子来输出不同的概率,4个全连接算子便输出4个结果,其过程见图2.1.5所示。

e307b953d4a845c9ad952e9d6e20b5b6.png

  图2.1.5    全连接层模块  


三、代码分析 

1)CNT9:由于为了加快数据的输入,同时输入3*3的矩阵进去,使用了寄存器串入并处的思想,那么需要使用计数器CNT9,0-8将数据串入到寄存器中,9的时候并出输入到卷积层进行卷积运算,其定时器代码部分如下。

92e36d4432fb4d91819194bc77477907.png

2)SPIO:寄存器部分,为了使用串入并出的效果,同时输人3*3矩阵的九个数据,需要采用18个寄存器用来存储数据,,当CLK上升沿便送一个数据到寄存器,前面9个用来接受随时钟来的数据,后面9个寄存器获取前面9个寄存器的数据并且当CLK第9个上升沿时,输入到卷积层进行运算,其寄存器连接代码部分如下。

9f884846563c4702ba97e7318563d5ea.png

3)卷积层conv:3*3的矩阵数据经过串入并且传输到卷积层便开始进行卷积运算,首先确定其端口,有9个数据输入进来,数据宽度为8为,数字大小为0-256,通过卷积之后,由于是乘法运算2^8×2^8=2^16,于是输出结果为16位数据宽度,其输入的像素点为27*27通过卷积计算后输出3*3矩阵送入下一层,其定义端口说明如下。

f485005d78094bb6a9b090cf1149dab9.png

输入3*3的矩阵进来后需要定义卷积和并与输入数据进行卷积,该处定义卷积核为 135ac107c6ef41a983e85d42fc3135b8.png,并且为了保持数据的准确性,数据宽度也为8位。,其定义代码如下所示。

5ab00a893bf844cf8a88fd7c9807bf1f.png

为了完成卷积过程,调用乘法器和加法器的IP核,由于有9个数据输入,于是需要9个乘法器与之相乘,并且累加起来,累加方式有俩种,由于调用IP核中的加法器为俩输入一输出,并不能直接将9个数据进行相加,那么使用传统的相加思想使得加法器使用过多,本程序中使用折半的思想,将9个数据进行对半相加最终输出一个累加的结果。

15dc564d146d408e8ae2572b25aaee3f.png

4)池化层模块COMP:池化的目的是压缩数据,本程序中将卷积得到的3*3的数据矩阵压缩成2*2的数据矩阵,步长选择的1,通过调用COMP函数来达到该目的,其主要程序代码见下图。

415dd015eba74fd89dbf6d5bf8a50514.png

5)激活模块JIHUO:为了使得将线性矩形变为非线性矩形,采用激活函数RELU函数,其主要将数据压缩至0-1之间,大于0的保持,小于0的置为0,其主要代码部分见下图。

107159cf42b1445fad4bd87148edadc1.png

6)全连接模块:全连接模块为设计权重,将经过卷积、激活、池化后的数据通过设计采样矩阵设计权重最终输出一个数字,则代表输出的概率,在数字识别系统则会输出与之对应匹配的数字,通过机器学习,模型训练可以使得权重最符合实际情况,概率最大则训练成功,其也代表卷积过程,只是权重不同。

ba09b98e229946c78efa1da16c7b9816.png

 7)CNN顶层,为了能够提取边缘特征,对于数据进行补零操作,将输入的9个有效数据进行边缘补零为5*5矩阵,利用步长为1的卷积核进行卷积操作,其主要定义信号流线见下图所示。96bce34a8b964df7b4989c36ce1b6dd1.png


  四、程序RTL图

1)串入并出 RTL图

串入并处主要使用寄存器将输入的数据由时钟送进去存储,当第九个时钟上升沿时,9个数据并行输入至卷积层,其RT图见图4.2.1所示。

43364fd6bfd84ede9bd2ee6f7ff8f84d.png

图4.2.1  串入并RTL图 

2)卷积层RTL图

通过查看卷积层的RTL图,可以得知将3*3的矩阵数据最终输出一个结果,其RTL图见图4.2.2所示。

cfb858f7b42541d7b581c769eddcef7b.png

图4.2.2  卷积层RTL图

3)激活层RTL图

通过查看激活层RTL图,可以了解到主要由一个比较器和数据选择器构成,大于0则输出本身,小于0则输出0,其RTL图见图4.2.3所示。

1e436abce01a40c1a55c128a5a5dcd14.png

图4.2.3 激活层RTL图

4)池化层RTL图

池化主要目的为压缩,本程序所用2*2的矩阵,将3*3的矩阵通过步长为1 滑动来压缩至2*2,其中输出2*2矩阵中最大的一个作为特征值,其RTL图见图4.2.4所示。

74e3c8b7243d4c0f9fa2f893873b2fbe.png

图4.2.4 池化层RTL图

5)全连接层RTL图

全连接的功能为将2*2矩阵通过不同的权重来获得最终概率,其中用到卷积操作,其RTL图见图4.2.5所示。

763daf6d510e45a6aa69c9113172a0e0.png

图4.2.5 全连接层RTL图

6)整体CNN 网络RTL图

        本次程序采样最简单的,将数据串入并出至卷积层,经过激活,池化,全连接后输出即可,其RTL图见图4.2.6所示。

51a62212a4e34a5cb743f7ba82eb39c9.png

 图4.2.6 CNN整体RTL图



五、波形仿真 

       串入并出功能为前9个时钟上升沿时,输入数据至寄存器,待第10个上升沿同时将9个数据输出至卷积层,其波形仿真见图5.1所示。

71d193f05e504b8caf2cf8507f3d3221.png

图5.1 串入并出波形仿真 

         卷积层的作用为将3*3的矩阵和  卷积核进行卷积并且输出一个结果,通过查看卷积核性质可以得知,输出RESULT为输入数据的1、5、9个数据之和,通过分析波形仿真可以得知R_OUT1=38-38+75=75,符合、第二个数据R_OUT2=97+105+124=326,符合结果,其波形仿真见图5.2所示。

5f3a1fd96fcf44b1a788b6305c7daecb.png

图5.2 卷积层波形仿真 

        激活层主要功能为将小于0的置为0,大于0的保持,通过波形可以看到符合,其波形仿真见图5.3所示。

d8c26f4d0fbf4a5c8f48fea9866ea252.png

图5.3 激活层波形仿真 

      池化层主要功能为压缩,将2*2的矩阵中输出最大值,通过分析图5.4所示,其输出结果均为四值中最大一值。

ef17de5f2c4843819780f1fe037e124c.png

 图5.4  池化层波形仿真

全连接中权重矩阵为37f01fa3ba44445e858e3b2b4036c983.png,和输入四个数据卷积,为四个数据之和,R_OUT1= -8384-9527-29522+4793=-42685符合功能要求,其波形仿真见图5.5所示。

b5eb4ef1b2344e8995e29c4f5442a121.png

 图5.5  全连接层波形仿真

        对于波形进行分析见图5.6,由于第一个数据-44在上升沿来到前便存在无法输送进去,于是输入进去的数据为55、-120、64、98、-118、1、2、-32、-101这九个数据,其计算见下图。

c56b150cbc4c49afa12e591930556bec.png

  图5.6  CNN波形仿真

CNN计算过程:

1、将数据进行补零组成5*5矩阵,与卷积核进行卷积得到3*3矩阵。

ca816294711e4bba9fe08f84f0e7ae1a.png

2、将卷积的结果通过激活,将大于0的保持,小于0的数置03d2a2ad9fd17492892fe356c809988fe.png 

 3、将激活后的矩阵通过池化取出最大值并压缩至2*2的矩阵

4559aecaff844be8a124ad2ea271a8e1.png

 4、将池化后的2*2矩阵通过取样矩阵单位为1,进行卷积操作,输出数据,符合仿真实际输出。

51f8087a4e9d47f1987e10f5a2c6b227.png

       若是需要不同的效率,如用不同的卷积核,利用不同的全连接,2层的效果等进行添加即可,例下图为采用不同的卷积核对数据进行卷积,可以得到三个不同的结果。

fab35aeb009e4119ba8a0677d2efca7f.png


六、matlab分析过程

       为了能够更好的了解CNN的应用,利用MATLAB手写数字识别项目去了解CNN的整个过程,并且将相关思想使用VHDL语言编写。

在matlab中使用的俩层全连接,通过输出对应数字的概率来判断最终识别数字为多少,最大概率的那个为最终识别数字,并且为了能够不断精确识别精度,利用反向传播来不断修正权重,通过模型训练最终来使得权重最优化,其程序设计思想为图7.1和图7.2所示。

ae9759b890954d498ff8f1c84960e4be.png

图7.1 CNN组成部分 

26a9a1a6df764f30bae243e6538f3d7a.png

图7.2 matlab部分 

通过模型训练来进行迭代并且不断修正权重,最终达到最优化,见图7.3和图7.4所示。

33677307950d4843b1cdac8c8e86afe7.png

图7.3  训练过程 

cfcb2da8c51a49e998161437f0321937.png 图7.4 训练结果


参考资源:

https://mp.weixin.qq.com/s?__biz=Mzk0MzIzODM5MA==&mid=2247484654&idx=1&sn=0eefbc4c58ec17b6e657d67f0821d4e7&chksm=c337b977f4403061ae59d52eb3100f7cb94810be275aaf10ebdcf69ab911a8956b428338534c#rd

http://t.csdn.cn/U63b3

详解卷积神经网络(CNN)_liuhe_的博客-CSDN博客_卷积神经网络

http://t.csdn.cn/veUbw

http://t.csdn.cn/zQZCS

卷积神经网络(CNN)详解 - 知乎

卷积神经网络CNN总结 - Madcola - 博客园

https://github.com/ShaoqingRen/faster_rcnn

https://github.com/HoniiTro19/MNIST

https://github.com/TianWanDiYiShuai/FPGA_test

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐