目录

  • 简介
  • torch.nn.Linear()
  • 语法
  • 作用
  • 举例
  • 参考
  • 结语

【Pytorch】torch.nn.Linear()_pytorch

简介

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 
本文仅记录自己感兴趣的内容

torch.nn.Linear()

语法

torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)

作用

对输入数据应用线性变换【Pytorch】torch.nn.Linear()_pytorch_02

​构建一个全连接层(liner的作用,个人更加倾向于这样理解)​​​ 输入作为全连接层的输入
输出为全连接层的输出

【Pytorch】torch.nn.Linear()_.net_03

举例

m = nn.Linear(2, 3) # 构建一个全连接层 输入神经元个数:2 输出神经元个数:3
input = torch.randn(4, 2) # 输入维度 4 * 2
output = m(input) # 向全连接层中加入输入数据 得到输出
print(input)
print(output)
print(output.size())

解释

  • 利用nn.Linear(2, 3)构建一个 2 * 3 的全连接层 , 即m
  • 将input应用到m上,得到output ,维度为 4 * 3
  • (4 * 2) * (2 * 3) = (4 * 3)

【Pytorch】torch.nn.Linear()_.net_04

linear源码实现:

【Pytorch】torch.nn.Linear()_人工智能_05


从上面源码中可以看出,我们可以得到全连接层m中的weight、bias

print(m.weight)
print(m.weight.shape)
print(m.bias)
print(m.bias.shape)

【Pytorch】torch.nn.Linear()_pytorch_06

参考

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

【Pytorch】torch.nn.Linear()_全连接_07