哔哩大学的PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】 的P27讲开始进行完整的训练模型套路练习。
完整的模型训练套路(一)主要做了训练的基础步骤,这部分还不完整,可以继续看下一节
先介绍一个a.item()的用法:
import torch
a = torch.tensor(5)
print(a)
print(a.item())
# 第一个print打印出来的会带一个tensor
# 第二个print加上.item就会把tensor数据类型转换成真实的数字
结果如图:
第一个print打印出来的会带一个tensor
第二个print加上.item就会把tensor数据类型转换成真实的数字
(重点)训练套路代码注释为:
import torchvision
from model import *
from torch import nn
from torch.utils.data import DataLoader
# 训练数据集的下载,root为下载位置
train_data = torchvision.datasets.CIFAR10(root="data", train=True, transform=torchvision.transforms.ToTensor(),
download=True)
# 测试数据集的下载
test_data = torchvision.datasets.CIFAR10(root="data", train=False, transform=torchvision.transforms.ToTensor(),
download=True)
train_data_size = len(test_data)
test_data_size = len(test_data)
# 如果训练数据集的长度train_data_size=10,则会输出 训练数据集的长度为:10
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))
# 利用DataLoader来加载数据集
train_dataloader = DataLoader(train_data, batch_size=64)
test_dataloader = DataLoader(test_data,batch_size=64)
# 创建网络模型
tudui = Tudui()
# 创建损失函数
loss_fn = nn.CrossEntropyLoss()
# 定义优化器
learning_rate = 1e-2
optimizer = torch.optim.SGD(tudui.parameters(), lr=learning_rate) # SGD为随机梯度下降优化器,学习速率为learning_rate = 0.01
# 设置训练网络的一些参数
# 记录训练的次数
total_train_step = 0
# 记录测试的次数
total_test_step = 0
# 训练的轮数
epoch = 10
for i in range(epoch):
print("------第 {} 轮训练开始------".format(i+1)) # 为了符合阅读习惯,写成i+1
# 训练步骤开始
for data in train_dataloader:
imgs, targets = data
outputs = tudui(imgs)
loss = loss_fn(outputs, targets) # 输出和目标之间的损失值
# 优化器调优优化模型
optimizer.zero_grad() # 优化前梯度清零
loss.backward() # 调用损失的反向传播,得到每个参数检验的梯度
optimizer.step()# 调用优化器
# 一次训练完成,训练次数+1
total_train_step = total_train_step + 1
print("训练次数: {},Loss: {}".format(total_train_step, loss.item())) # 因为有两个{}需要替换,所以format有两个量
网络模型在另一个python文件,用from model import *来调用。
这个模型文件model和上面的训练套路文件train在一个文件夹下即可。
网络模型model代码注释为:
# 搭建神经网络,CIFAR10有10个类别,所以要搭建一个10分类的网络
import torch
from torch import nn
class Tudui(nn.Module):
def __init__(self):
super(Tudui, self).__init__()
# 为了避免上下两个def都写一整串,将整个网络放到序列当中,前边有讲过,注释了很多代码有老乡的那一篇
self.model = nn.Sequential(
nn.Conv2d(3, 32, 5, 1, 2), # 卷积
nn.MaxPool2d(2), # 池化
nn.Conv2d(32, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 64, 5, 1, 2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(64*4*4, 64), # 最后两步的展平
nn.Linear(64, 10)
)
def forward(self, x):
x = self.model(x)
return x
if __name__ == '__main__':
tudui = Tudui()
input = torch.ones((64, 3, 32, 32)) # 创建一个输出的尺寸 64个图片,3个通道,32*32的
output = tudui(input)
print(output.shape)
运行结果如图: