在上一篇文章中介绍了CIFAR10数据的获取,今天这篇文章对其继续进行优化,创建神经网络并打印出网络层次。1 增加引用引入torch中的神经网络import torch.nn as nn import torch.nn.functional as fun2 是否使用CUDA在获取CIFA10数据前,首先对GPU是否存在进行判断:首先使用CUDA;如果没有CUDA,再选择CPUdevice = to
1 CIFAR10cifar10 的官方网址:<http://www.cs.toronto.edu/~kriz/cifar.html>是由32\*32像素的60000张图片组成的数据集,50000张图片用于训练,10000张图片用于测试,其中有10个类别,每个类别有6000张图片,分类之间彼此独立,不会重叠,因此是一个单标签多分类的问题。2 读取CIFAR10数据首先在对图像做预处理,
1 张量的乘法张量乘法(Tensor Product)是一种在线性代数中常常使用的积分形式,它与标准的乘法类似,但在多个维度上进行操作。它在高维空间中的数学运算,有助于在机器学习中解决类似图像处理,自然语言处理和深度学习这样的复杂任务。张量乘法可以用来模拟神经元之间的连接,模拟神经元网络的发展。它也可以用来模拟复杂的模型,如语言模型,神经机器翻译,自动驾驶以及智能搜索等机器学习任务。张量乘法被视为
1 常用的比较运算函数功能lt/le/ne/eq/ge/gt小于/小于等于/不等于/等于/大于等于/大于topk最大的前K个数sort排序max/min最大值/最小值2 应用2.1 创建张量使用随机数创建两个2行3列的张量。2.2 比较大小lt() 方法,是进行逐元素比较,即两个张量中,所有对应位置上的数据进行两两比较,并会将其比较结果生成为一个包含 True/False 的布尔值的张量。lt()
1 归并操作在对 Tensor 进行归并操作时,会使输出的形状小于输入的形状,并可以沿着某一维度进行指定操作,如求和,既可以计算整个 Tensor 的和,也可以计算 Tensor 中每一行或者每一列的和。2 具体实现2.1 创建张量首先使用 torch.linspace(0,14,8) 在 0~14 之间生成8个数组成的一维张量;然后再使用 view() 方
1 广播机制介绍矩阵运算,往往只能在两个矩阵维度相同或者相匹配时才能运算。比如加减法需要两个矩阵的维度相同,乘法需要前一个矩阵的列数与后一个矩阵的行数相等。当参与运算的两个维度不同也不匹配的矩阵进行运算时,该机制会对数组进行扩展,使数组的shape属性值一样,这样,就可以进行矢量化运算了。通常情况下,小一点的数组会被 broadcast 到大一点的,这样才能保持大小一致。2 广播机制的规则2.1
1 访问 Tensor 中某个元素和Python中列表的下标一样,Tensor 的索引是基于零(Zero-based)开始计数的。比如我们想要获取向量/数组 a = [0, 1, 2, 3, 4] 中的第 2 个元素,我们可以使用 a[1]。也可以这样理解:一个标量是一个 0 维 Tensor;一个
1 进一步认识TensorTensor 是深度学习中最常用的数据结构之一,它可以看作是多维数组或矩阵的扩展。Tensor 可以表示各种信息,例如图像、声音、文本等等。每个元素可以是实数、整数或复数。Tensor 有以下属性:Rank(秩):Tensor 的秩表示其维度的数量。Rank 为0表示该Tensor 是一个标量;Rank 为1表示它是一个向量;Rank 为2表示它是个矩阵。依此类推,Ran
1 Tensor介绍Tensor 是 tensorflow 的一个基础概念——张量。 是具有统一类型(称为 dtype)的多维数组。Tensorflow里的数据用到的都是tensor,所以谷歌起名为tensorflow。就像 Python 数值和字符串一样,所有张量都是不可变的:永远无法更新张量的内容,只能创建新的张量。Tensor 的数组里可以是零维(也可称为标量或一个数)、
1 PyTorch概述PyTorch是一个开源的Python机器学习库、一个开源的深度学习框架,基于Torch,用于自然语言处理等应用程序。2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。它是一个基于Python的可续计算包,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的深度神经网络。2&nbs
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号