汽车车牌识别系统实现(三)-- 车牌矫正+字符分割+代码实现
阿萨阿萨
车牌矫正
一、前言
汽车车牌识别设备往往都是固定于红绿灯的支架或者是小区、学校入口的一侧来采集获取车牌图像,由于采集图像设备的安装位置不固定以及不同车辆车牌悬挂的高度也不确定等因素,这些外部因素都有可能导致车牌在一定程度上发生倾斜。发生倾斜的车牌如果不进行矫正,将会影响后续的字符划分处理。所以,对车牌进行倾斜矫正处理是字符划分算法得以成功的前提。车牌倾斜主要存在三种情形,分别是水平、垂直和包括水平、垂直倾斜两种情况的混合倾斜。本文所研究的算法中只对水平方向倾斜情况进行校正。本文采用基于透视变换的倾斜校正算法来判断车牌是否需要倾斜校正以及对车牌进行校正操作,整个矫正车牌及划分字符的流程如图3-1所示。
二、基于透视变换的倾斜矫正算法
透视变换的本质是将图像投影到一个新的视平面,也被称为投影映射[4]。透视变换的通用变换公式为式 (3-1):
其中,(u,v)代表原始图像的坐标,
代表变换矩阵,透视变化后的图像横、纵坐标分别如式 (3-2)和式 (3-3)所示:
给定原始图像的四个顶点坐标和变换后图像的四个顶点坐标,即可求得变换矩阵。求得变换矩阵后,需要求出倾斜状态下车牌的四个顶点坐标,具体步骤如下:首先定位出车牌位置,判断车牌是否倾斜。车牌倾斜主要有逆时针倾斜和顺时针倾斜的两种情况。本文只说明逆时针倾斜情况。逆、顺时针情况可以简化成如图3-2和图3-3的模型。
如图3-1所示,根据求得A、E、F、G的坐标(Top_Point、Right_Point、Bottom_Point、Left_Point),在图3-2中,则是根据▲ABC~▲ADE来计算出A、E、F、G点的坐标。本文只说明图3-1中G点的求解步骤如下:
求解G点的横坐标,如式(3-4)所示:
依据三角形相似原理,写出相似等式,如式(3-5)所示:
求解得到G的纵坐标值,如式(3-6)所示:
求解后,原始图像中车牌的4个顶点均已知。根据上文车牌特征分析可知,车牌尺寸为440×140,故变换后的车牌4个顶点依次为(0,140)、(440,0)、(0,0)、 (440,140)。根据变换矩阵与变换前后对应顶点关系,利用透视变换倾斜纠正算法对车牌进行矫正,矫正前后实验结果分别如图3-4和图3-5所示。
三、跳变次数法去除车牌边框和铆钉
车牌倾斜矫正之后,车牌边框和用于固定车牌的铆钉会影响字符分割操作的结果,因此,去除车牌边框和铆钉是车牌字符分割算法能否取得成功的关键步骤。本文采用跳变次数法[5][6]去除边框和铆钉。跳变次数法去除边框及铆钉的原理及流程如图3-6。
由于字符颜色与车牌底色不同,因此车牌区域中存在大量的颜色突变信息,这就为跳变次数法的实施创造了条件。所谓的跳变是指由字符区域过渡到非字符区域或者由非字符区域过渡到字符区域。具体做法是从上至下扫描出二值化后的车牌图像,找到跳变次数超过预先设定阈值的第一行,且之后连续3行跳变次数均超过阈值,则认定该行为车牌字符上边界;同理,从下至上扫描车牌图像,找到突变次数超过预先设定阈值的一行,且之后连续3行突变次数均超过阈值,则该行为车牌字符下边界。在确定车牌上下边界的前提下,接着确定车牌字符的左边界、右边界。因为车牌中可能存在数字1,数字1的跳变次数为2,为了防止滤除掉阿拉伯数字1,设定跳变次数的阈值为2。具体做法是从左至右扫描车牌图像,依次统计每列的跳变次数。找到跳变次数超过阈值的第一行,且之后连续3列跳变次数均超过阈值,则该行为车牌字符左边界;同理,找到车牌字符右边界。去除前后效果分别如图3-8和图3-9所示。
四、字符细化操作
去除边框及铆钉后,图像上仍有一些残留的噪声点,这些残留的噪声点会对垂直投影法划分字符操作产生不良影响。因此,对去除边框和铆钉后的图像进行形态学腐蚀处理是非常有必要而且是至关重要的,腐蚀处理在去掉车牌字符区域残留噪声的同时,也可以对字符进行细化,形态学腐蚀处理效果如图3-10所示。
五、垂直投影法分割字符
去除边框、铆钉,以及对字符进行细化处理后,接下来需要将车牌字符区域划分为单个字符。本文采取基于垂直投影法的字符划分方法[7][8]来划分车牌字符区域,依据车牌特点可知,每个字符之间都存在一定的纯黑区域。二值化后,字符区域为白色,车牌中的非字符区域为黑色。
划分单个字符的原理及具体流程如图3-11所示。首先计算每列中白色像素点个数,垂直投影后得到直方图,如图3-12所示,并以此来判断各个字符的起始位置。然后从左至右扫描投影直方图,找到存在白色像素点的第一列,则认定为该列是车牌第一个字符的左边界。若上一列存在白色像素点,而下一列是不存在白色像素点的黑色区域,则认定该列为第一个字符的右边界,同理,便可分割出其余6个车牌字符左右边界。投影得到的图像如图3-12所示,划分出的单个字符如图3-13所示。
六、字符图像归一化处理
由于从采集图像中提取出的车牌大小不完全相同,这就导致了划分出来的单个字符的尺寸可能不同,为了能够适应已经训练好的车牌字符识别网络,需要对划分出的单个车牌字符进行归一化处理,使得从采集图像中定位出的车牌在字符分割操作完成后,所获取的车牌单个字符图像大小都为2020像素[2],如图3-11所示。这里至于为什么都归一化为2020像素,是因为我的神经网络的输入都是20*20像素的。
七、代码实现
```python
for rect in car_contours:
rect = (rect[0], (rect[1][0]+20, rect[1][1]+5), rect[2])
box = cv2.boxPoints(rect)
#图像矫正 cv2.getAffineTransform(pos1,pos2),其中两个位置就是变换前后的对应位置关系。输出的就是仿射矩阵M,最后这个矩阵会被传给函数 cv2.warpAffine() 来实现仿射变换
if rect[2] > ANGLE: #正角度
new_right_point_x = vertices[0, 0]
new_right_point_y = int(vertices[1, 1] - (vertices[0, 0] - vertices[1, 0]) / (vertices[3, 0] - vertices[1, 0]) * (vertices[1, 1] - vertices[3, 1]))
new_left_point_x = vertices[1, 0]
new_left_point_y = int(vertices[0, 1] + (vertices[0, 0] - vertices[1, 0]) / (vertices[0, 0] - vertices[2, 0]) * (vertices[2, 1] - vertices[0, 1]))
point_set_1 = np.float32([[440, 0], [0, 0], [0, 140], [440, 140]])
elif rect[2] < ANGLE: #负角度
new_right_point_x = vertices[1, 0]
new_right_point_y = int(vertices[0, 1] + (vertices[1, 0] - vertices[0, 0]) / (vertices[3, 0] - vertices[0, 0]) * (vertices[3, 1] - vertices[0, 1]))
new_left_point_x = vertices[0, 0]
new_left_point_y = int(vertices[1, 1] - (vertices[1, 0] - vertices[0, 0]) / (vertices[1, 0] - vertices[2, 0]) * (vertices[1, 1] - vertices[2, 1]))
point_set_1 = np.float32([[0, 0], [0, 140], [440, 140], [440, 0]])
new_box = np.array([(vertices[0, 0], vertices[0, 1]), (new_left_point_x, new_left_point_y), (vertices[1, 0], vertices[1, 1]),(new_right_point_x, new_right_point_y)])
point_set_0 = np.float32(new_box)
mat = cv2.getPerspectiveTransform(point_set_0, point_set_1)
dst = cv2.warpPerspective(img, mat, (440, 140))
cv_show('dst',dst)
#-------------------------------字符分割-------------------------------------
plate_original = dst.copy()
img_aussian = cv2.GaussianBlur(dst,(5,5),1)
# cv_show('img_aussian',img_aussian)
#中值滤波
dst = cv2.medianBlur(img_aussian,3)
# 对车牌进行精准定位
img_B = cv2.split(dst)[0]
img_G = cv2.split(dst)[1]
img_R = cv2.split(dst)[2]
for i in range(dst.shape[:2][0]):
for j in range(dst.shape[:2][1]):
if abs(img_B[i,j] - Blue) < THRESHOLD and abs(img_G[i,j] - Green) <THRESHOLD and abs(img_R[i,j] - Red) < THRESHOLD:
dst[i][j][0] = 0
dst[i][j][1] = 0
dst[i][j][2] = 0
else:
dst[i][j][0] = 255
dst[i][j][1] = 255
dst[i][j][2] = 255
# cv_show('dst',dst)
# 灰度化
gray = cv2.cvtColor(dst, cv2.COLOR_BGR2GRAY)
cv_show('gray',gray)
#-------------------------------跳变次数去掉铆钉和边框----------------------------------
times_row = [] #存储哪些行符合跳变次数的阈值
for row in range(LICENSE_HIGH): # 按行检测 白字黑底
pc = 0
for col in range(LICENSE_WIDTH):
if col != LICENSE_WIDTH-1:
if gray[row][col+1] != gray[row][col]:
pc = pc + 1
times_row.append(pc)
print("每行的跳变次数:",times_row)
#找车牌的下边缘-从下往上扫描
row_end = 0
row_start = 0
for row in range(LICENSE_HIGH-2):
if times_row[row] < 16:
continue
elif times_row[row+1] < 16:
continue
elif times_row[row+2] < 16:
continue
else:
row_end = row + 2
print("row_end",row_end)
#找车牌的上边缘-从上往下扫描
i = LICENSE_HIGH-1
row_num = [] #记录row_start可能的位置
while i > 1:
if times_row[i] < 16:
i = i - 1
continue
elif times_row[i-1] < 16:
i = i - 1
continue
elif times_row[i-2] < 16:
i = i - 1
continue
else:
row_start = i - 2
row_num.append(row_start)
i = i - 1
print("row_num",row_num)
#确定row_start最终位置
for i in range(len(row_num)):
if i != len(row_num)-1:
if abs(row_num[i] - row_num[i+1])>3:
row_start = row_num[i]
print("row_start",row_start)
times_col = [0]
for col in range(LICENSE_WIDTH):
pc = 0
for row in range(LICENSE_HIGH):
if row != LICENSE_HIGH-1:
if gray[row,col] != gray[row+1,col]:
pc = pc + 1
times_col.append(pc)
print("每列的跳变次数",times_col)
# 找车牌的左右边缘-从左到右扫描
col_start = 0
col_end = 0
for col in range(len(times_col)):
if times_col[col] > 2:
col_end = col
print('col_end',col_end)
j = LICENSE_WIDTH-1
while j >= 0:
if times_col[j] > 2:
col_start = j
j = j-1
print('col_start',col_start)
# 将车牌非字符区域变成纯黑色
for i in range(LICENSE_HIGH):
if i > row_end or i < row_start:
gray[i] = 0
for j in range(LICENSE_WIDTH):
if j < col_start or j > col_end:
gray[:,j] = 0
cv_show("res",gray)
# plate_binary = gray.copy()
for i in range(LICENSE_WIDTH-1,LICENSE_WIDTH):
gray[:,i] = 0
# 字符细化操作
specify = cv2.erode(gray,kernel,iterations=2)
cv_show("specify",specify)
plate_specify = specify.copy()
#---------------------------垂直投影法切割字符-------------------------
lst_heise = [] #记录每一列中的白色像素点数量
for i in range(LICENSE_WIDTH):
pc = 0
for j in range(LICENSE_HIGH):
if specify[j][i] == 255:
pc = pc + 1
lst_heise.append(pc)
# print("lst_heise",lst_heise)
a = [0 for i in range(0,LICENSE_WIDTH)]
for j in range(0, LICENSE_WIDTH): # 遍历一列
for i in range(0, LICENSE_HIGH): # 遍历一行
if specify[i, j] == 255: # 如果该点为白点
a[j] += 1 # 该列的计数器加一计数
specify[i, j] = 0 # 记录完后将其变为黑色
# print (j)
for j in range(0, LICENSE_WIDTH): # 遍历每一列
for i in range((LICENSE_HIGH - a[j]), LICENSE_HIGH): # 从该列应该变白的最顶部的点开始向最底部涂白
specify[i, j] = 255
plt.imshow(specify,cmap=plt.gray())
plt.show()
cv_show("touying",specify)
#开始找字符的边界
in_block = False #用来指示是否遍历到字符区
startIndex = 0
endIndex = 0
threshold = 10
index = 0
char_Image = [] # 存放一个个分割后的字符
for i in range(LICENSE_WIDTH):
if lst_heise[i] != 0 and in_block == False: # 表示进入有白色像素点的区域
in_block = True
startIndex = i
print("start", startIndex)
elif lst_heise[i] == 0 and in_block == True: # 表示进入纯黑区域,且纯黑区域前面是字符区域
endIndex = i
in_block = False
print("end", endIndex)
if endIndex < startIndex:
endIndex = 440
if endIndex - startIndex > 10:
res = plate_specify[row_start:row_end,startIndex:endIndex]
index = index + 1
res = cv2.resize(res, (20, 20), interpolation=cv2.INTER_LANCZOS4) # 分割出的各个字符进行归一化
char_Image.append(res)
cv_show("res", res)
print("char_Image的长度:{}".format(len(char_Image)))
# print(char_Image)
char_Image = np.array(char_Image)
# print(char_Image.shape[0])
plate_char = np.hstack((char_Image[0],char_Image[1],char_Image[2],char_Image[3],
char_Image[4],char_Image[5],char_Image[6]))
cv2.imshow("plate",plate_char)
cv2.waitKey(0)
cv2.destroyAllWindows()
到这里,车牌矫正的相关步骤都已讲解完毕,剩下的就是关于深度学习的知识了,之后我会陆续分享深度学习的基础知识。
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)