softmax两个作用,如果在进行softmax前的input有负数,通过指数变换,得到正数;所有类的概率求和为1。
2、交叉熵损失就包含了下图中softmax计算和右边的标签输入计算(即框起来的部分)。所以在使用交叉熵损失的时候,神经网络的最后一层是不要做激活的,因为把它做成分布的激活是包含在交叉熵损失里面的(就是softmax)。所以最后一层不要做非线性变换,直接交给交叉熵损失。
3、CrossEntropyLoss <==> LogSoftmax + NLLLoss。对比前面二分类的BCELoss,该损失函数的输入是经过激活的。而这里多分类的CELoss的输入不需要激活。
4、y的标签编码方式是one-hot。onehot编码:是什么,为什么,怎么样 5、原始图像是28×28的像素值在0到255之间的image,我们需要把它转变成图像张量,像素值是0到1之间。
6、
在视觉里面,灰度图就是一个矩阵,但实际上并不是一个矩阵,我们把它叫做单通道图像,彩色图像是3通道,通道有宽度和高度。一般我们读进来的图像张量是WHC(宽高通道)。
- 在PyTorch里面我们需要转化成CWH,把通道放在前面是为了在PyTorch里面进行更高效的图像处理,卷积运算。所以拿到图像之后,我们就把它先转化成pytorch里面的一个Tensor,即把0到255的值变成0到1的浮点数,然后把维度由28×28的矩阵变成1×28×28的单通道图像张量。
- 这个过程可以用transforms的ToTensor这个函数实现
下面来看代码吧
import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim
# prepare dataset
batch_size = 64
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]) # 归一化,均值和方差
train_dataset = datasets.MNIST(root='../dataset/mnist/', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size)
test_dataset = datasets.MNIST(root='../dataset/mnist/', train=False, download=True, transform=transform)
test_loader = DataLoader(test_dataset, shuffle=False, batch_size=batch_size)
# design model using class
class Net(torch.nn.Module):
def __init__(self):
super(Net, self).__init__()
self.l1 = torch.nn.Linear(784, 512)
self.l2 = torch.nn.Linear(512, 256)
self.l3 = torch.nn.Linear(256, 128)
self.l4 = torch.nn.Linear(128, 64)
self.l5 = torch.nn.Linear(64, 10)
def forward(self, x):
x = x.view(-1, 784) # -1其实就是自动获取mini_batch
x = F.relu(self.l1(x))
x = F.relu(self.l2(x))
x = F.relu(self.l3(x))
x = F.relu(self.l4(x))
return self.l5(x) # !!神经网络最后一层不做激活,不进行非线性变换
model = Net()
# construct loss and optimizer
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
# training cycle forward, backward, update
def train(epoch):
running_loss = 0.0
for batch_idx, data in enumerate(train_loader, 0):
# 获得一个批次的数据和标签
inputs, target = data
optimizer.zero_grad()
# 获得模型预测结果(64, 10)
outputs = model(inputs)
# 交叉熵代价函数outputs(64,10),target(64)
loss = criterion(outputs, target) #直接将神经网络的输出交给CELoss损失函数来处理
loss.backward()
optimizer.step()
running_loss += loss.item() #每个iteration里面都要加起来
if batch_idx % 300 == 299: #一个epoch为300次迭代
print('[%d, %5d] loss: %.3f' % (epoch+1, batch_idx+1, running_loss/300))
running_loss = 0.0
def test():
correct = 0
total = 0
with torch.no_grad():
for data in test_loader:
images, labels = data
outputs = model(images)
_, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度
total += labels.size(0)
correct += (predicted == labels).sum().item() # 张量之间的比较运算
print('accuracy on test set: %d %% ' % (100*correct/total))
if __name__ == '__main__':
for epoch in range(10):
train(epoch)
test()
代码解释
1、第8讲 from torch.utils.data import Dataset,第9讲 from torchvision import datasets。该datasets里面init,getitem, len魔法函数已实现。(更多了解可以参考PyTorch 详细常用图像数据集加载及预处理(三种)。)
2、torch.max的返回值有两个,第一个是每一行的最大值是多少,第二个是每一行最大值的下标(索引)是多少。
_, predicted = torch.max(outputs.data, dim=1) # dim = 1 列是第0个维度,行是第1个维度
- debug观察变量," _ "第一个变量的样子。通过debug你会看到各个变量的形式。" _ "是一个tensor,有64个数。每张图像输出的结果是一个1×10的列表,是由神经网络算出的,只不过最后一层输出没有激活,所以不是成概率分布在0-1之间。
- 另外因为我们不需要这个变量,所以" _ "作为下划线通常表示变量无用,只是作为一个placeholder
- 第二个变量predicted则是每一行的最大值的下标(索引)。
3、torch.no_grad()用法,训练train时需要更新网络中各权值的梯度,但test测试时不再需要。Python中with的用法。
4、torch.max(inputs,dim)使用详解 5、看到predicted " == "labels判两个tensor是否相等,又想了解一下pytorch如何判断两个Tensor是否相等。
如果是标量,可以直接进行 " == "判断。
如果是向量或矩阵,则torch.eq :
torch.eq(torch.tensor([[1., 2.], [3., 4.]]), torch.tensor([[1., 1.], [4., 4.]]))
>>>tensor([[True, False], [False, True]])
或者torch.equal对于整个张量:
torch.equal(torch.tensor([[1., 2.], [3, 4.]]), torch.tensor([[1., 1.], [4., 4.]]))
>>> False
torch.equal(torch.tensor([[1., 2.], [3., 4.]]), torch.tensor([[1., 2.], [3., 4.]]))
>>> True
最后
关于为什么准确率到97%就上不去了。
因为用的全连接神经网络,而忽略了对局部信息的利用,把所有元素之间都做了全连接,也就是说图像里面某一个元素和其他元素都要产生联系,所以处理的时候权重不够高。处理图像的时候更关心高抽象级别的特征,我们用的是比较原始的特征,所以如果我们用某些特征提取,再去做分类训练,可能效果会更好一点,