基于tensorflow2.0+CNN实现手势识别(全)
利用opencv自己生成数据集,dataset自定义数据集,训练模型 完成预测
·
基于tensorflow2.0+CNN实现手势识别
环境:windows10、pycharm2017、python3.64、tensorflow2.0、opencv3
- 我在github上分享了代码以及训练集图片,需要的可以下载github代码文件以及训练集图片文件
- 代码一共分为三个部分:样本数据集的获取、训练、预测 。
先上个效果图吧 😁:
- 基本框架图,以及所涉及的内容:
第一部分-样本的获取:
- 我是用的opencv自己获取的自己手势的数据集、测试集等等都可以,不算很大(大约10000张左右),网上也有下载一些数据集, 小的话可以作为测试集。
原理就是导入opencv的库, 实时检测键盘按键情况,根据不同的按键保存当前的手势到特定的文件目录下, 相当于有10个按键我这里设置的是’asdfghjklz’在保存前可以对图片进行数据增强,然后再保存。我这里就没有做太多处理,以至于泛化能力还有待提高😆不多说废话了,这部分相对简单代码注释也比较详细,上代码:
先事先在自己的某个文件夹下创建好 0-9这十个空的文件夹,用来放保存的图片。
import win32api
import win32con
import cv2 as cv
import numpy as np
def get_roi(frame, x1, x2, y1, y2):
dst = frame[y1:y2, x1:x2]
cv.rectangle(frame, (x1, y1), (x2, y2), (0, 0, 255), thickness=2)
return dst
if __name__ == "__main__":
capture = cv.VideoCapture(0)
m_0 = 0
m_1 = 0
m_2 = 0
m_3 = 0
m_4 = 0
m_5 = 0
m_6 = 0
m_7 = 0
m_8 = 0
m_9 = 0
while True:
ret, frame = capture.read()
roi = get_roi(frame, 100, 250, 100, 250)
k = cv.waitKey(50)
if k == 27: # 按下ESC退出
break
elif k == ord('a'): # 按下'A'会保存当前图片到指定目录下
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\0\\%s.jpg" % m_0, roi)
m_0 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\0\\%s.jpg" % m_0, flip_image)
# m_0 += 1
print('正在保存0-roi图片,本次图片数量:', m_0)
elif k == ord('s'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\1\\%s.jpg" % m_1, roi)
m_1 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\1\\%s.jpg" % m_1, flip_image)
# m_1 += 1
print('正在保存1-roi图片,本次图片数量:', m_1)
elif k == ord('d'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\2\\%s.jpg" % m_2, roi)
m_2 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\2\\%s.jpg" % m_2, flip_image)
# m_2 += 1
print('正在保存2-roi图片,本次图片数量:', m_2)
elif k == ord('f'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\3\\%s.jpg" % m_3, roi)
m_3 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\3\\%s.jpg" % m_3, flip_image)
# m_3 += 1
print('正在保存3-roi图片,本次图片数量:', m_3)
elif k == ord('g'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\4\\%s.jpg" % m_4, roi)
m_4 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\4\\%s.jpg" % m_4, flip_image)
# m_4 += 1
print('正在保存4-roi图片,本次图片数量:', m_4)
elif k == ord('h'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\5\\%s.jpg" % m_5, roi)
m_5 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\5\\%s.jpg" % m_5, flip_image)
# m_5 += 1
print('正在保存5-roi图片,本次图片数量:', m_5)
elif k == ord('j'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\6\\%s.jpg" % m_6, roi)
m_6 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\6\\%s.jpg" % m_6, flip_image)
# m_6 += 1
print('正在保存6-roi图片,本次图片数量:', m_6)
elif k == ord('k'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\7\\%s.jpg" % m_7, roi)
m_7 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\7\\%s.jpg" % m_7, flip_image)
# m_7 += 1
print('正在保存7-roi图片,本次图片数量:', m_7)
elif k == ord('l'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\8\\%s.jpg" % m_8, roi)
m_8 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\8\\%s.jpg" % m_8, flip_image)
# m_8 += 1
print('正在保存8-roi图片,本次图片数量:', m_8)
elif k == ord('z'):
cv.imwrite("E:\\aiFile\\picture\\gesture_data\\9\\%s.jpg" % m_9, roi)
m_9 += 1
# flip_image = cv.flip(skin, 1) # 这里用到的是水平翻转,因为后面的参数是一
# cv.imwrite("E:\\aiFile\\picture\\gesture_data\\9\\%s.jpg" % m_9, flip_image)
# m_9 += 1
print('正在保存9-roi图片,本次图片数量:', m_9)
cv.imshow("roi", roi)
cv.imshow("frame", frame)
c = cv.waitKey(50)
if c == 27:
break
cv.waitKey(0)
capture.release()
cv.destroyAllWindows()
****说明:代码中有些部分没有用到,因为之前想尝试下单通道手势图片的训练和预测。运行之前得现在特定的文件夹下创建好0-9这十个文件夹,然后在把图片保存进去,方便之后的训练。
第一部分结束之后应该会在某个你自己指定的文件夹下面获得到这些东西。
第二部分-dataset自定义数据集以及训练:
采用tensorflow 的dataset模块创建自己数据集和tensorflow.keras api实现模型的构建以及训练.
- 1、dataset自定义数据集,获得的db_train和db_test 它是个张量自带数据和标签,所以在训练的时候不需要在传入标签。
- 2 、构建卷积神经网络结构
- 3、回调函数终止训练以及模型保存断点续训
- 4、保存整个模型是为了让下一步分预测的时候不需要在构建神经网络结构,保存权重是为了断点续训,如果在训练完之后想要补充训练集数据 ,然后继续训练的话就不需要重新开始训练了,继续训练速度会非常快,如果只是单纯的加样本数量通常只需要再训练5轮即可,根据自己的训练情况来灵活判断。
- 注意:回调函数的应用可能会存在问题,因为dataset数据集不支持划分验证集,所以没办法通过validation_split=0.2 来将训练集的0.2划分为验证集,所以在使用回调函数终止训练的过程中可能会有警告,如果需要验证集只能自己在创建一个valid的dataset。
- 训练部分的完整代码
import tensorflow as tf
import os
import numpy as np
import cv2 as cv
import csv
from tensorflow import keras
from tensorflow.keras import datasets, layers, optimizers, Sequential, metrics
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
def get_image(im):
image = cv.resize(im, (100, 100))
# print("image.shape", len(image))
# gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)
# ret, binary = cv.threshold(gray, 0, 255, cv.THRESH_BINARY_INV | cv.THRESH_OTSU)
image2 = image.reshape(-1, 100, 100, 3)
image3 = tf.cast(image2 / 255.0, tf.float32)
return image3
def get_roi(frame, x1, x2, y1, y2):
dst = frame[x1:x2, y1:y2]
cv.rectangle(frame, (x1, y1), (x2, y2), (0, 0, 255), thickness=2)
return dst
# 获取图片,存放到对应的列表中,同时贴上标签,存放到label列表中
def get_files(file_dir):
# 存放图片类别和标签的列表:第0类
list_0 = []
label_0 = []
# 存放图片类别和标签的列表:第1类
list_1 = []
label_1 = []
# 存放图片类别和标签的列表:第2类
list_2 = []
label_2 = []
# 存放图片类别和标签的列表:第3类
list_3 = []
label_3 = []
# 存放图片类别和标签的列表:第4类
list_4 = []
label_4 = []
# 存放图片类别和标签的列表:第5类
list_5 = []
label_5 = []
# 存放图片类别和标签的列表:第6类
list_6 = []
label_6 = []
# 存放图片类别和标签的列表:第6类
list_7 = []
label_7 = []
# 存放图片类别和标签的列表:第8类
list_8 = []
label_8 = []
# 存放图片类别和标签的列表:第9类
list_9 = []
label_9 = []
for file in os.listdir(file_dir): # 获得file_dir路径下的全部文件名
# print(file)
# 拼接出图片文件路径
image_file_path = os.path.join(file_dir, file)
for image_name in os.listdir(image_file_path):
# print('image_name',image_name)
# 图片的完整路径
image_name_path = os.path.join(image_file_path, image_name)
# print('image_name_path',image_name_path)
# 将图片存放入对应的列表
if image_file_path[-1:] == '0':
list_0.append(image_name_path)
label_0.append(0)
elif image_file_path[-1:] == '1':
list_1.append(image_name_path)
label_1.append(1)
elif image_file_path[-1:] == '2':
list_2.append(image_name_path)
label_2.append(2)
elif image_file_path[-1:] == '3':
list_3.append(image_name_path)
label_3.append(3)
elif image_file_path[-1:] == '4':
list_3.append(image_name_path)
label_3.append(4)
elif image_file_path[-1:] == '5':
list_3.append(image_name_path)
label_3.append(5)
elif image_file_path[-1:] == '6':
list_3.append(image_name_path)
label_3.append(6)
elif image_file_path[-1:] == '7':
list_3.append(image_name_path)
label_3.append(7)
elif image_file_path[-1:] == '8':
list_3.append(image_name_path)
label_3.append(8)
else:
list_4.append(image_name_path)
label_4.append(9)
# 合并数据
image_list = np.hstack((list_0, list_1, list_2, list_3, list_4, list_5, list_6, list_7, list_8, list_9))
label_list = np.hstack((label_0, label_1, label_2, label_3, label_4, label_5, label_6, label_7, label_8, label_9))
# 利用shuffle打乱数据
print("imagename = ", image_list[:10])
print("labelname = ", label_list[:10])
temp = np.array([image_list, label_list])
temp = temp.transpose() # 转置
np.random.shuffle(temp)
# 将所有的image和label转换成list
image_list = list(temp[:, 0])
image_list = [i for i in image_list]
label_list = list(temp[:, 1])
label_list = [int(float(i)) for i in label_list]
# print(image_list)
# print(label_list)
return image_list, label_list
def get_tensor(image_list, label_list):
ims = []
for image in image_list:
# 读取路径下的图片
x = tf.io.read_file(image)
# 将路径映射为照片,3通道
x = tf.image.decode_jpeg(x, channels=3)
# 修改图像大小
x = tf.image.resize(x, [32, 32])
# 将图像压入列表中
ims.append(x)
# 将列表转换成tensor类型
img = tf.convert_to_tensor(ims)
y = tf.convert_to_tensor(label_list)
return img, y
def train_model(train_data):
# 构建模型
network = keras.Sequential([
keras.layers.Conv2D(32, kernel_size=[5, 5], padding="same", activation=tf.nn.relu),
keras.layers.MaxPool2D(pool_size=[2, 2], strides=2, padding='same'),
keras.layers.Conv2D(64, kernel_size=[3, 3], padding="same", activation=tf.nn.relu),
keras.layers.MaxPool2D(pool_size=[2, 2], strides=2, padding='same'),
keras.layers.Conv2D(64, kernel_size=[3, 3], padding="same", activation=tf.nn.relu),
keras.layers.Flatten(),
keras.layers.Dense(512, activation='relu'),
keras.layers.Dropout(0.5),
keras.layers.Dense(128, activation='relu'),
keras.layers.Dense(10)])
network.build(input_shape=(None, 100, 100, channels))
network.summary()
network.compile(optimizer=optimizers.SGD(lr=0.001),
loss=tf.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=['accuracy']
)
checkpoint_filepath = "E:\\aiFile\\model_save\\gesture_recognition_model\\gestureModel"
callbacks = [
# 保存模型的回调函数
tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_filepath, # 保存路径
save_weights_only=True,
verbose=0,
save_freq='epoch'), # 保存频次以周期频次来计算
# 中止训练的回调函数
tf.keras.callbacks.EarlyStopping(monitor='val_loss', patience=5) # 防止过拟合,如果过拟合了之后就终止1_val验证集上loss变高终止观察3个周期
]
# 只要在model.fit训练模型里面加上 callbacks=callbacks 这个参数,那在训练模型的时候就会按 照我们设计的回调函数来保存模型
# 模型训练
# 看这里看这里!!!network.load_weights('E:\\aiFile\\model_save\\gesture_recognition_model\\gestureModel_one.h5')
# print("载入已训练权重成功")
network.fit(train_data, epochs=5, callbacks=callbacks) # 因为是dataset数据集是个元组自带标签所以不用分x和y了
# network.evaluate(test_data)
network.save_weights('E:\\aiFile\\model_save\\gesture_recognition_model\\gestureModel_one.h5')
print("保存模型权重成功")
tf.saved_model.save(network, 'E:\\aiFile\\model_save\\gesture_recognition_model\\gestureModel_one')
print("保存模型成功")
return network
def preprocess_image(image):
image = tf.image.decode_jpeg(image, channels=channels)
image = tf.image.resize(image, [100, 100])
image /= 255.0 # normalize to [0,1] range
# image = tf.reshape(image,[100*100*3])
return image
def load_and_preprocess_image(path, label):
image = tf.io.read_file(path)
return preprocess_image(image), label
if __name__ == "__main__":
# capture = cv.VideoCapture(0)
# x1 = 400
# x2 = 650
# y1 = 50
# y2 = 300
# 训练图片的路径
global channels
channels = 3
train_dir = 'E:\\aiFile\\picture\\gesture_data'
test_dir = 'E:\\aiFile\\gesture_picture\\testdata'
AUTOTUNE = tf.data.experimental.AUTOTUNE
# 训练图片与标签
image_list, label_list = get_files(train_dir)
# 测试图片与标签
test_image_list, test_label_list = get_files(test_dir)
x_train, y_train = get_tensor(image_list, label_list)
x_test, y_test = get_tensor(test_image_list, test_label_list)
print('--------------------------------------------------------')
print('x_train:', x_train.shape, 'y_train:', y_train.shape)
db_train = tf.data.Dataset.from_tensor_slices((image_list, y_train))
# # shuffle:打乱数据,map:数据预处理,batch:一次取喂入10样本训练
db_train = db_train.shuffle(1000).map(load_and_preprocess_image).batch(10)
#
# # 载入训练数据集
db_test = tf.data.Dataset.from_tensor_slices((test_image_list, y_test))
# # # shuffle:打乱数据,map:数据预处理,batch:一次取喂入10样本训练
db_test = db_test.shuffle(1000).map(load_and_preprocess_image).batch(10)
print("dataset", db_train)
network = train_model(db_train)
第三部分-预测与应用
- 这部分相对简单一些,导入之前训练的完整的模型即可开始预测,不需要再创建神经网络结构。直接上代码。
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import datasets, layers, optimizers, Sequential, metrics
from tensorflow.python.framework.convert_to_constants import convert_variables_to_constants_v2
import os
import pathlib
import random
import matplotlib.pyplot as plt
import cv2 as cv
import numpy as np
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
def get_roi(frame, x1, x2, y1, y2):
dst = frame[y1:y2, x1:x2]
cv.rectangle(frame, (x1, y1), (x2, y2), (0, 0, 255), thickness=2)
return dst
def get_image(image, network):
# image = tf.image.decode_jpeg(image, channels=3)
# image = tf.expand_dims(image, axis=2) # 扩维度,让单通道图片可以resize
print("image.shape = ", image.shape)
image = tf.image.resize(image, [100, 100])
# image = cv.resize(image, (100, 100))
# image = image.reshape(-1, 100, 100, 1)
image1 = image / 255.0 # normalize to [0,1] range
image1 = tf.expand_dims(image1, axis=0)
# print(image1.shape)
pred = network(image1)
print("预测结果原始结果", pred)
print()
pred = tf.nn.softmax(pred['output_1'], axis=1)
print("预测softmax后", pred)
pred = tf.argmax(pred, axis=1)
print("最终测试结果", pred.numpy())
cv.putText(frame, "Predicted results = :" + str(pred.numpy()), (100, 400), cv.FONT_HERSHEY_SIMPLEX,
1, [0, 255, 255])
if __name__ == "__main__":
capture = cv.VideoCapture(0)
creatTrackbar()
channels = 3
DEFAULT_FUNCTION_KEY = "serving_default"
loaded = tf.saved_model.load('E:\\aiFile\\model_save\\gesture_recognition_model\\gestureModel_one\\')
network = loaded.signatures[DEFAULT_FUNCTION_KEY]
print(list(loaded.signatures.keys()))
print('加载 weights 成功')
while True
ret, frame = capture.read()
roi = get_roi(frame, 100, 250, 100, 250)
cv.imshow("roi", roi)
get_image(roi, network)
cv.imshow("frame", frame)
c = cv.waitKey(50)
if c == 27:
break
cv.waitKey(0)
capture.release()
cv.destroyAllWindows()
说明:
- github里的代码可能和这边的代码会有一丝丝的不同,因为我之前尝试过先将手部提取出来,成为一个二值图像再去训练和预测但是效果没那么好,github里的代码保留了调试那部分的代码没有删去,这边的是已经删了的,github里多的那部分代码知识注释了或者是定义了函数没有用到的,运行效果和这里的代码完全一样,只是显得代码长了一些些。如果有想尝试一下先提取手势二值图然后在训练预测的同学也可以尝试下,github代码里有调试的痕迹,改下部分参数即可。第一次训练的时候可以把:看这里看这里!!!这部分注释掉(已经注释了),这样就能正常训练了。如果对训练结果不满意下次再训练的时候可以把上次训练的权重保存的文件地址放在这个注释的地方的代码里面去,然后去掉注释,这样下次训练的时候会再上次训练的基础上训练,速度会快很多。
- 如果有哪部分代码有问题或者错误,以及改进等等欢迎各位前辈的指正。如果有问题可以私信我或者评论留言。转载请说明出处附上原网址。
如果文章对你有一点点的启示或帮助的话,不妨点个赞噢😊
手动分割符号----------------------------------------------------------------------------------
相关阅读
keras代码+YOLOv3训练自己的数据集完成摄像头实时手势识别(纯小白白也能看得懂!!!)
参考
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献2条内容
所有评论(0)