为此,我将使用来自谷歌地图的地图图片组成的数据集,并根据它们所包含的地形特征对它们进行分类。我会写另一个关于我如何使用它的故事(简而言之: 为了确定无人机飞越或降落的安全区域)。但是现在,我只想使用一些训练数据来对这些地图图片进行分类。

下面的代码片段来自于一个 Jupyter Notebook。您可以将它们组合在一起构建您自己的 Python 脚本。

搞定训练集

PyTorch 希望数据按照文件夹组织,每个类有一个文件夹。大多数其他 PyTorch 教程和示例都希望您用一个训练和验证文件夹进一步组织它,然后在它们内部使用类文件夹。但是我认为这是非常麻烦的,必须从每个类中选择一定数量的图像,然后将它们从训练文件夹移动到验证文件夹。而且由于大多数人会通过选择一个连续的文件组来实现这一点,因此在这个选择中可能存在很多偏差。

因此,这里有一个更好的方法来将数据集分割成动态的训练和测试集,就像 Python 开发人员习惯于从 SKLearn 中使用的那样。但是首先,让我们导入模块:

%matplotlib inline
%config InlineBackend.figure_format = 'retina'
import matplotlib.pyplot as pltimport numpy as np
import torch
from torch import nn
from torch import optim
import torch.nn.functional as F
from torchvision import datasets, transforms, models

接下来我们将定义训练/验证数据集加载器,使用 SubsetRandomSampler 进行分割:

data_dir = '/data/train'def load_split_train_test(datadir, valid_size = .2):
    train_transforms = transforms.Compose([transforms.Resize(224),
                                       transforms.ToTensor(),
                                       ])    test_transforms = transforms.Compose([transforms.Resize(224),
                                      transforms.ToTensor(),
                                      ])    train_data = datasets.ImageFolder(datadir,      
                    transform=train_transforms)
    test_data = datasets.ImageFolder(datadir,
                    transform=test_transforms)    num_train = len(train_data)
    indices = list(range(num_train))
    split = int(np.floor(valid_size * num_train))
    np.random.shuffle(indices)
    from torch.utils.data.sampler import SubsetRandomSampler
    train_idx, test_idx = indices[split:], indices[:split]
    train_sampler = SubsetRandomSampler(train_idx)
    test_sampler = SubsetRandomSampler(test_idx)
    trainloader = torch.utils.data.DataLoader(train_data,
                   sampler=train_sampler, batch_size=64)
    testloader = torch.utils.data.DataLoader(test_data,
                   sampler=test_sampler, batch_size=64)
    return trainloader, testloadertrainloader, testloader = load_split_train_test(data_dir, .2)
print(trainloader.dataset.classes)

接下来,我们将决定我们是否使用 GPU。我假设如果你这样做,你有一个安装有 GPU 驱动的电脑,否则代码运行速度将至少慢10倍。但是一般情况下,检查 GPU 的可用性是个好主意。

我们还将加载一个预训练模型:

device = torch.device("cuda" if torch.cuda.is_available()
                                  else "cpu")
model = models.resnet50(pretrained=True)
print(model)

输出模型将向您展示 ResNet 模型的层架构。这可能超出了我或你的理解,但是看看这些深层隐藏的东西还是很有趣的。

这取决于您选择什么模型,并且可能根据您的特定数据集选择不同的模型。

现在我们进入深层神经网络的有趣部分。首先,我们必须冻结预训练的层。然后,我们重新定义最终的全连接层,我们将用我们的图像训练的层。我们还创建了标准(损失函数) ,并选择合适的优化器(本例中为 Adam)和学习率。

for param in model.parameters():
    param.requires_grad = False
    
model.fc = nn.Sequential(nn.Linear(2048, 512),
                                 nn.ReLU(),
                                 nn.Dropout(0.2),
                                 nn.Linear(512, 10),
                                 nn.LogSoftmax(dim=1))
criterion = nn.NLLLoss()
optimizer = optim.Adam(model.fc.parameters(), lr=0.003)
model.to(device)

现在,让我们来训练我们的模型!在这个例子中只有一个 epoch,但是在大多数情况下你需要更多。从代码中可以看出,基本过程相当直观:加载图像的批处理并执行前向训练。然后计算损失函数,并使用优化器应用梯度下降法进行反向传播。

PyTorch 就是这么简单。下面的大部分代码每10个 batch 处理损失并计算准确性,因此您可以在训练运行时获得参数的更新。在验证期间,不要忘记将模型设置为 eval()模式,然后在完成之后返回 train()模式。

epochs = 1
steps = 0
running_loss = 0
print_every = 10
train_losses, test_losses = [], []for epoch in range(epochs):
    for inputs, labels in trainloader:
        steps += 1
        inputs, labels = inputs.to(device), labels.to(device)
        optimizer.zero_grad()
        logps = model.forward(inputs)
        loss = criterion(logps, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
        
        if steps % print_every == 0:
            test_loss = 0
            accuracy = 0
            model.eval()
            with torch.no_grad():
                for inputs, labels in testloader:
                    inputs, labels = inputs.to(device),
                                      labels.to(device)
                    logps = model.forward(inputs)
                    batch_loss = criterion(logps, labels)
                    test_loss += batch_loss.item()
                    
                    ps = torch.exp(logps)
                    top_p, top_class = ps.topk(1, dim=1)
                    equals =
                        top_class == labels.view(*top_class.shape)
                    accuracy +=
                   torch.mean(equals.type(torch.FloatTensor)).item()
            train_losses.append(running_loss/len(trainloader))
            test_losses.append(test_loss/len(testloader))                    
            print(f"Epoch {epoch+1}/{epochs}.. "
                  f"Train loss: {running_loss/print_every:.3f}.. "
                  f"Test loss: {test_loss/len(testloader):.3f}.. "
                  f"Test accuracy: {accuracy/len(testloader):.3f}")
            running_loss = 0
            model.train()
torch.save(model, 'aerialmodel.pth')

然后... 等待几分钟(或者更长时间,取决于数据集的大小和设置的 epoch 的数目)之后,训练就结束了,模型保存下来以便以后进行预测!

现在还有一件事情你可以做,那就是计算训练和验证的损失:

plt.plot(train_losses, label='Training loss')
plt.plot(test_losses, label='Validation loss')
plt.legend(frameon=False)
plt.show()

pytorch图像聚类 pytorch 图片分类_神经网络

正如您可以看到的,在我的一个特定的例子中,验证损失(这是我们感兴趣的)在第一个 epoch 结束时趋于平缓,甚至开始上升趋势,所以可能1个 epoch 就足够了。训练损失,正如预期的那样,是很低的。

现在进入第二部分。目前您对模型进行了训练,保存了它,并且需要在应用程序中使用它。为此,您需要能够对图像执行简单的推理。这样我就可以使用一些例子:

data_dir = '/datadrive/FastAI/data/aerial_photos/train'test_transforms = transforms.Compose([transforms.Resize(224),
                                      transforms.ToTensor(),
                                     ])

然后我们再次检查 GPU 的可用性,加载模型并将其放入评估模式(这样参数就不会改变) :

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model=torch.load('aerialmodel.pth')
model.eval()

预测特定图像类别的函数非常简单。注意,它需要一个 Pillow 图像,而不是一个文件路径。

def predict_image(image):
    image_tensor = test_transforms(image).float()
    image_tensor = image_tensor.unsqueeze_(0)
    input = Variable(image_tensor)
    input = input.to(device)
    output = model(input)
    index = output.data.cpu().numpy().argmax()
    return index

现在为了更容易测试,我还创建了一个函数,可以从数据集文件夹中随机选取一些图片:

def get_random_images(num):
    data = datasets.ImageFolder(data_dir, transform=test_transforms)
    classes = data.classes
    indices = list(range(len(data)))
    np.random.shuffle(indices)
    idx = indices[:num]
    from torch.utils.data.sampler import SubsetRandomSampler
    sampler = SubsetRandomSampler(idx)
    loader = torch.utils.data.DataLoader(data,
                   sampler=sampler, batch_size=num)
    dataiter = iter(loader)
    images, labels = dataiter.next()
    return images, labels

最后,为了演示预测函数,我得到了随机的图像样本,对它们进行预测并显示结果:

to_pil = transforms.ToPILImage()
images, labels = get_random_images(5)
fig=plt.figure(figsize=(10,10))
for ii in range(len(images)):
    image = to_pil(images[ii])
    index = predict_image(image)
    sub = fig.add_subplot(1, len(images), ii+1)
    res = int(labels[ii]) == index
    sub.set_title(str(classes[index]) + ":" + str(res))
    plt.axis('off')
    plt.imshow(image)
plt.show()

这里有一个关于 Google 地图的预测的例子。标签是预测的类,我还显示了它是否是一个正确的预测。

pytorch图像聚类 pytorch 图片分类_python_02

差不多就是这样了。请继续在您的数据集上尝试。只要您正确地输入并处理您的图像,这段代码应该可以正常工作。