访问【WRITE-BUG数字空间】_[内附完整源码和文档]

使用方法 先用Train.py训练好模型参数,然后运行CallFrame.py调用出界面窗口, 点击窗口的相应按钮就可以在线检测手势动作,其中的执行手势按钮是和下位机通信(如STM32单片机), 通过串口函数将识别结果传给下位机,实现根据手势动作控制的功能。

利用卷积神经网络实时识别手势动作

一共识别 5 种手势动作

剪刀动作

2.石头动作

3.布动作

4.OK 动作

5.good 动作

主要思路:

1.构建数据集 2.建立神经网络 3.训练并调参 4.保存并调用

另外我还加了界面设计和机械臂控制(通过串口通信把判断结果发给单片机,所以代码中有 serial 模块)

训练集: 1~4 号动作各有 1300 张照片,5 号动作有 1450 张照片 测试集: 1~5 号动作各有 200 张照片

文件解释:

data 文件里面存放 test 数据集,train 数据集,实时保存的图像(用于在线检测)。

ges_ico 文件里面存放界面窗口显示的各种图标。

log 文件里面存放训练好的 CNN 网络的模型参数。

CallFrame.py 是界面窗口的逻辑文件,用来调用界面文件并编写信号与槽函数。

Frame.py 是界面窗口的界面文件,通过 PyQt5 的 designer 工具生成。

GetTestImage.py 是利用 OpenCV 获取图片并标记,用来制作测试集。

GetTrainImage.py 是利用 OpenCV 获取图片并标记,用来制作训练集。

SaveGesture.py 是利用 OpenCV 实时获取图片,并进行预处理,用于在线检测手势。

TestGesture.py 是将实时获取的图片送入已训练好的 CNN 中判断其手势动作。

TestInTest.py 是将测试集送入已训练好的 CNN 中判断该网络模型的准确率。

Train.py 是训练 CNN 模型函数,并将训练好的模型参数保存在本地。

Train_inputdata.py 是用来读取数据集的图像和标签,并打包成 batch 形式。

Train_model.py 是模型结构,这里用的是 AlexNet 结构。

使用方法:

先用 Train.py 训练好模型参数,然后运行 CallFrame.py 调用出界面窗口, 点击窗口的相应按钮就可以在线检测手势动作,其中的执行手势按钮是和下位机通信(如 STM32),通过串口函数将识别结果传给下位机,实现根据手势动作控制的功能。

测试结果:

使用该模型训练到 900 步的时候在测试集上正确率可以稳定在 95% 左右。

(训练集:1,2,3,4 号动作各有 1300 张照片,5 号动作有 1450 张照片;测试集:每种动作各有 200 张照片)

手写数字 卷积神经网络pytorch实现 卷积神经网络手势识别_数据集


手写数字 卷积神经网络pytorch实现 卷积神经网络手势识别_cnn_02


手写数字 卷积神经网络pytorch实现 卷积神经网络手势识别_神经网络_03


手写数字 卷积神经网络pytorch实现 卷积神经网络手势识别_cnn_04