FLOPs、FLOPS、Params的含义及PyTorch中的计算方法

含义解释

  1. FLOPS:注意全大写,是floating point operations per second的缩写(这里的大S表示second秒),表示每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。
  2. FLOPs:注意s小写,是floating point operations的缩写(这里的小s则表示复数),表示浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。
  3. Params:没有固定的名称,大小写均可,表示模型的参数量,也是用来衡量算法/模型的复杂度。通常我们在论文中见到的是这样:# Params,那个井号是表示 number of 的意思,因此 # Params 的意思就是:参数的数量。

pytorch计时 pytorch计算flops_pytorch

FLOPs与模型时间复杂度、GPU利用率有关,Params与模型空间复杂度、显存占用有关。即我们常见的nvidia-smi命令中的GPU利用率(红框)和显存占用(篮框)。

MAC

MAC:Multiply Accumulate,乘加运算。乘积累加运算(英语:Multiply Accumulate, MAC)是在数字信号处理器或一些微处理器中的特殊运算。实现此运算操作的硬件电路单元,被称为“乘数累加器”。这种运算的操作,是将乘法的乘积结果和累加器的值相加,再存入累加器:
pytorch计时 pytorch计算flops_深度学习_02
使用MAC可以将原本需要的两个指令操作减少到一个指令操作,从而提高运算效率。

FLOPs的计算

以下不考虑激活函数的计算量。

卷积层

pytorch计时 pytorch计算flops_gpu_03

pytorch计时 pytorch计算flops_机器学习_04=输入通道数, pytorch计时 pytorch计算flops_gpu_05=卷积核尺寸,pytorch计时 pytorch计算flops_pytorch计时_06=输出特征图空间尺寸,pytorch计时 pytorch计算flops_机器学习_07=输出通道数。

一个MAC算两个个浮点运算,所以在最前面pytorch计时 pytorch计算flops_机器学习_08。不考虑bias时有pytorch计时 pytorch计算flops_pytorch计时_09,有bias时没有pytorch计时 pytorch计算flops_pytorch计时_09。由于考虑的一般是模型推理时的计算量,所以上述公式是针对一个输入样本的情况,即batch size=1。

理解上面这个公式分两步,括号内是第一步,计算出输出特征图的一个pixel的计算量,然后再乘以 pytorch计时 pytorch计算flops_gpu_11

括号内的部分又可以分为两步,pytorch计时 pytorch计算flops_pytorch_12。第一项是乘法运算数,第二项是加法运算数,因为 pytorch计时 pytorch计算flops_pytorch_13 个数相加,要加 pytorch计时 pytorch计算flops_机器学习_14 次,所以不考虑bias,会有一个pytorch计时 pytorch计算flops_pytorch计时_09,如果考虑bias,刚好中和掉,括号内变为 pytorch计时 pytorch计算flops_pytorch计时_16

全连接层

全连接层: pytorch计时 pytorch计算flops_机器学习_17

pytorch计时 pytorch计算flops_机器学习_18=输入层神经元个数 ,pytorch计时 pytorch计算flops_gpu_19=输出层神经元个数。

还是因为一个MAC算两个个浮点运算,所以在最前面pytorch计时 pytorch计算flops_机器学习_08。同样不考虑bias时有pytorch计时 pytorch计算flops_pytorch计时_09,有bias时没有pytorch计时 pytorch计算flops_pytorch计时_09。分析同理,括号内是一个输出神经元的计算量,拓展到pytorch计时 pytorch计算flops_gpu_19了输出神经元。

NVIDIA Paper [2017-ICLR]

笔者在这里放上 NVIDIA 在 【2017-ICLR】的论文:PRUNING CONVOLUTIONAL NEURAL NETWORKS FOR RESOURCE EFFICIENT INFERENCE 的附录部分FLOPs计算方法截图放在下面供读者参考。

pytorch计时 pytorch计算flops_pytorch计时_24

使用PyTorch直接输出模型的Params(参数量)

完整统计参数量

import torch 
from torchvision.models import resnet50
import numpy as np

Total_params = 0
Trainable_params = 0
NonTrainable_params = 0

model = resnet50()
for param in model.parameters():
    mulValue = np.prod(param.size())  # 使用numpy prod接口计算参数数组所有元素之积
    Total_params += mulValue  # 总参数量
    if param.requires_grad:
        Trainable_params += mulValue  # 可训练参数量
    else:
        NonTrainable_params += mulValue  # 非可训练参数量

print(f'Total params: {Total_params / 1e6}M')
print(f'Trainable params: {Trainable_params/ 1e6}M')
print(f'Non-trainable params: {NonTrainable_params/ 1e6}M')

输出:

Total params: 25.557032M
Trainable params: 25.557032M
Non-trainable params: 0.0M

简单统计可训练的参数量

通常,我们想知道的只是可训练的参数量,我们也可以简单地直接一行统计出可训练的参数量:

import torchvision.models as models

model = models.resnet50(pretrained=False)

Trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
print(f'Trainable params: {Trainable_params/ 1e6}M')

输出:

Trainable params: 25.557032M

统计每一层的参数量

倘若想要统计每一层的参数量,参考代码如下:

model = vgg16()
for name, parameters in model.named_parameters():
        print(name, ':', np.prod(parameters.size()))

会打印出每一层的名称及参数量:

features.0.weight : 1728
features.0.bias : 64
features.2.weight : 36864
features.2.bias : 64
features.5.weight : 73728
...

使用thop库来获取模型的FLOPs(计算量)和Params(参数量)

安装

直接pypi安装即可

pip install thop

使用

我们使用thop库来计算vgg16模型的计算量和参数量。

import torch
from thop import profile
from archs.ViT_model import get_vit, ViT_Aes
from torchvision.models import resnet50

model = resnet50()
input1 = torch.randn(4, 3, 224, 224) 
flops, params = profile(model, inputs=(input1, ))
print('FLOPs = ' + str(flops/1000**3) + 'G')
print('Params = ' + str(params/1000**2) + 'M')

输出:

FLOPs = 16.446058496G
Params = 25.557032M

Ref:

https://openreview.net/forum?id=SJGCiw5gl

https://www.zhihu.com/question/65305385/answer/451060549